3. Grundbegriffe der Wahrscheinlichkeitsrechnung Prof. Jochen Seitz Fachgebiet Kommunikationsnetze 20. November 2008
Übersicht Gesetz der großen Zahlen von Bernoulli 1 Gesetz der großen Zahlen von Bernoulli 2 Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit 3 Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Binomialverteilung Poisson-Verteilung Normalverteilung Exponentialverteilung
Gesetz der großen Zahlen von Bernoulli Sei A ein zufälliges Ereignis, das im Ergebnis eines Zufallsexperiments auftreten kann oder nicht. Dieses Experiment werde unter konstanten Bedingungen n-fach durchgeführt. Dabei sei mit n(a) die absolute Häufigkeit des Eintretens des Ereignisses A bezeichnet, mit p(a) = n(a)/n die relative Häufigkeit. Sei p die Wahrscheinlichkeit für das Eintreten von A, dann gilt: Gesetz der großen Zahlen von Bernoulli Für eine beliebig kleine Zahl ɛ gibt es eine Experimentanzahl n, so dass mit beliebig nahe bei 1 liegender Wahrscheinlichkeit die relative Wahrscheinlichkeit p(a) nicht weiter als um ɛ von p abweicht.
Interpretation Gesetz der großen Zahlen von Bernoulli Interpretation Bei genügend großer Anzahl von Versuchen einer zufälligen Ereignisses lässt sich die Wahrscheinlichkeit für dessen Auftreten beliebig genau bestimmen. Bedeutung der Wahrscheinlichkeit Die Natur der Wahrscheinlichkeit ist derart, dass sie erlaubt, ziemlich genau (und nicht exakt) die Anzahl gewisser Ereignisse bei einer großen Zahl von Versuchen vorherzusagen. Der Ausgang eines einzelnen Versuchs kann jedoch nicht vorhergesagt werden, lediglich die Wahrscheinlichkeit des Eintretens eines besttimmten Ereignisses bei einem Einzelexperiment kann genau abgeschätzt werden.
Interpretation für technische Systeme Interpretation der Zuverlässigkeit technischer Systeme Es kann niemals exakt vorausgesagt werden, ob eine betrachtete technische Einheit einen vorgegebenen Zeitraum überlebt (oder nicht überlebt). Allerdings ist die Angabe einer Wahrscheinlichkeit für das Überleben (oder Ausfallen) der Einheit möglich.
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Wahrscheinlichkeit beim Würfeln Man würfle n-mal. Die Ergebnisse sind A i = i für i = 1, 2, 3, 4, 5, 6. Jedes Ergebnis A i trat mit der Häufigkeit n i auf. Für jedes Ergebnis A i kann eine relative Häufigkeit h n (A i ) = n i n angegeben werden. Es gilt lim h n n(a i ) = lim i n n n = P(A i) P(A i ) ist die Wahrscheinlichkeit für das Auftreten von A i. Aus 0 n i n folgt 0 P(A i ) 1.
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Allgemeines In der Praxis sind Wahrscheinlichkeiten meist relative Häufigkeiten: Zahl der günstigen Ausgänge Wahrscheinlichkeit = Zahl der möglichen Ausgänge Die Wahrscheinlichkeit des unmöglichen Ereignisses: P(unmöglich) = 0 oder P(O) = 0 Die Wahrscheinlichkeit des sicheren Ereignisses: P(sicher) = 1 oder P(E) = 1
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Ereignisse A und Ā Sei das Auftreten eines bestimmten Ereignisses mit A beschrieben und daher das nicht-auftreten desselben Ereignisses mit Ā. Dann gilt für die Auftretenswahrscheinlichkeiten: P A + PĀ = 1 (1) PĀ = 1 P A (2) P (A Ā) = 1 = P A + PĀ (3)
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Verbundwahrscheinlichkeiten sich ausschließender Ereignisse Allgemein gilt für die Verbundwahrscheinlichkeit sich gegenseitig ausschließender Ereignisse A 1, A 2 : P (A1 A 2 ) = P A1 + P A2 (4) oder allgemein für n sich gegenseitig ausschließende Ereignisse: P (A1 A 2 A 3 A n) = n P Ai (5) i=1
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Verbundwahrscheinlichkeiten sich nicht ausschließender Ereignisse Für beliebige Ereignisse A und B, die sich nicht ausschließen, gilt: P (A B) = P A + P B P (A B) (6) Dies ist verträglich zu Gleichung 4, da bei sich gegenseitig ausschließenden Ereignissen A und B die Wahrscheinlichkeit, dass beide gleichzeitig auftreten, gleich 0 ist, d. h. P (A B) = 0
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Beispiel Kartenspiel I Gegeben sei ein Kartenspiel mit 52 Karten. Gesucht sei die Wahrscheinlichkeit, dass beim Kartenziehen ein König gezogen wird (P K ). Lösung: P K = P Kkreuz + P Kpik + P Kherz + P Kkaro = 1 52 + 1 52 + 1 52 + 1 52 = 1 13
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Beispiel Kartenspiel II Gegeben sei ein Kartenspiel mit 52 Karten. Gesucht sei nun die Wahrscheinlichkeit, dass eine Herz-Karte oder eine 4 gezogen wird. Lösung: Sei P Herz die Wahrscheinlichkeit, dass eine Herz-Karte gezogen wird, und P 4 die Wahrscheinlichkeit, dass eine 4 gezogen wird. Diese Ereignisse schließen sich nicht aus, da das Ereignis eine Herz-4 wurde gezogen in beiden Ereignissen enthalten ist! Daher muss wie folgt vorgegangen werden:
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Beispiel Kartenspiel III 1 P Herz = 1 4 es gibt vier Farben; 2 P 4 = 1 13 es gibt vier Karten mit 4; 3 P Herz 4 = 1 52 genau die Herz-4 wird gezogen. Aus Gleichung 6 folgt: P rot 4 = P Herz + P 4 P Herz 4 = 1 4 + 1 13 1 52 = 4 13
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit Die bedingte Wahrscheinlichkeit hat große Bedeutung in der. Es gilt: P A B = P B P A/B (7) P A B = P A P B/A (8) P A/B = P A B P B (9) P B/A = P A B P A (10)
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit bei einem Kartenspiel I Gesucht: Die Wahrscheinlichkeit, dass eine gezogene Karte die Herz-5 ist, wenn bereits bekannt ist, dass die gezogene Karte eine Herz-Karte ist. Sei dafür A das Ereignis, dass eine Herz-5 gezogen wurde und B das Ereignis, dass eine Herz-Karte gezogen wurde. Gesucht ist somit P A/B. Lösung: Es gilt P A = 1 52 ; P B = 1 4 ; P A B = 1 52 (= P A).
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit bei einem Kartenspiel II Somit ist P A/B = P A B P B = P A = P B 1 52 1 4 = 1 13
Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit bei unabhängigen Ereignissen Wenn die Ereignisse unabhängig sind, d.h. wenn gilt P A/B = P A (Interpretation: Die Auftretenswahrscheinlichkeit von A ist unabhängig davon, ob B aufgetreten ist) gilt für die Wahrscheinlichkeit für das gemeinsame Auftreten dieser Ereignisse: n P A1 A 2 A 3 A n = P Ai (11) i=1
Zufallsvariablen Zufallsvariablen, die interessierende Beobachtungsgegenstände beschreiben, können kontinuierlich oder diskret sein: Zufallsvariablen sind diskret, wenn ein zufälliges Ereignis endlich viele oder abzählbar unendlich viele Werte annehmen kann. Beispiele sind somit das Auftreten einer bestimmten Karte in einem Kartenspiel, das Erscheinen einer bestimmten Zahl bei einem Würfelspiel oder die Anzahl von defekten respektive funktionierenden Einheiten eines Ensembles. Bei stetigen Zufallsvariablen ist die Menge der möglichen Ereignisse nicht abzählbar. Hierzu können beispielhaft Zeit, Temperatur, Spannung u.s.w. genannt werden.
Beispiel: Würfeln I Prinzipiell kann es beim Würfeln mit genau einem Würfel sechs mögliche Ereignisse geben. Der Ereignisvektor ist somit E = [x 1, x 2, x 3, x 4, x 5, x 6 ] = [1, 2, 3, 4, 5, 6]. Die Wahrscheinlichkeitsdichte f (x) ist dann die Zuordnung genau eines Wahrscheinlichkeitswertes zu jedem möglichen Ereignis, d.h. zu jedem Element des Ereignisvektors: P(X = x i ) = P(x i ) = f (x i ) (12) Da die x i den gesamten Ereignisraum bilden, es also keine anderen Ereignisse geben kann, gilt immer: P(x i ) = 1 (13) i
Beispiel: Würfeln II Für das Beispiel des Würfelns ergibt sich f (x i ) = 1 6 Das Auftreten der einzelnen Zahlen ist also gleich wahrscheinlich. Über die angegebene Bedingung P(x i ) = f (x i ) i i = 1 6 i = 6 1 6 = 1 kann man auch die Plausibilität dieser Funktion überprüfen.
Verteilungsfunktion Die Verteilungsfunktion gibt dann an, wie wahrscheinlich es ist, dass ein Ereignis innerhalb eines bestimmten Bereiches eintritt. Sie wird auf der Basis der Wahrscheinlichkeitsdichte definiert als F (x i ) = P(X x i ) (14) = X x i f (x i ) (15) Eine Verteilungsfunktion ist somit monoton wachsend und hat als Grenzwerte 0 und 1.
beim Würfeln f(x) 1 F(x) 1/6 1 2 3 4 5 6 x 1 2 3 4 5 6 x
Stetige Zufallsvariablen Betrachtet man nun Wahrscheinlichkeitsdichte und -verteilung einer stetigen Zufallsvariablen, so ist offensichtlich, dass diese ebenfalls stetig sind. Die Wahrscheinlichkeitsverteilung gibt dabei wiederum an, mit welcher Wahrscheinlichkeit ein zufälliger Wert eines Vorganges kleiner als das übergebene Argument x ist: F (x) = P(X x). Die Wahrscheinlichkeitsdichte ergibt sich aus f (x) = F (x): F (k) = P(X k) = k f (y) dy (16) F ( ) = 0 (17) F ( ) = 1 (18)
Beispiel für stetige Zufallsvariablen I Ein elektrisches Signal hat eine zufällige Spannung X im Bereich zwischen 0 und 1 V. Die Auftretenswahrscheinlichkeit ist im angegebenen Intervall gleich. Damit ergibt sich folgende Wahrscheinlichkeitsdichte: Die Fläche unter der Wahrscheinlichkeitsdichtefunktion ist gleich 1. Die Wahrscheinlichkeit für das Auftreten einer Spannung genau x ist gleich 0, da der Vorrat an möglichen Werten unendlich groß ist.
Beispiel für stetige Zufallsvariablen II Für stetige Zufallsvariablen ist die Wahrscheinlichkeit dafür, dass genau ein Wert auftritt, immer gleich 0. Es kann lediglich eine Wahrscheinlichkeit dafür angegeben werden, dass ein gemessener oder anders ermittelter Wert in einem spezifizierten Intervall liegt. Diese Wahrscheinlichkeit ergibt sich aus Wichtig P(x 1 < X x 2 ) = x 2 x 1 f (x) dx (19) Mit der Dichte- oder Verteilungsfunktion einer Zufallsvariablen ist damit deren vollständige Beschreibung möglich.
Wichtige Werte Oftmals sind Aussagen über das mittlere Gesamtverhalten einer Zufallsvariablen ausreichend. Die wichtigsten Aussagen, die über eine Zufallsvariable getroffen werden können, sind deren Mittelwert oder Erwartungswert; deren quadratischer Mittelwert; deren mittlere quadratische Abweichung Diese werden im Folgenden kurz behandelt.
(Linearer) Mittelwert einer diskreten Zufallsvariablen Der Mittelwert einer diskreten Zufallsvariablen berechnet sich aus m 1 = m = E[X ] = x = x i N i N x i (20) = x i P(x i ) x i
(Linearer) Mittelwert einer stetigen Zufallsvariablen Für stetige Zufallsvariablen gilt: m = x f (x) dx (21)
Beispiel: Dreiecksverteilung I Diese ensteht bei der Summe von zwei unabhängigen, gleichverteilten R(0, 1) Zufallsvariablen [1]. Die Wahscheinlichkeitsdichte ist somit gegeben durch x, 0 x < 1 f (x) = 2 x, 1 x < 2 0, sonst (22) Die Verteilungsfunktion errechnet sich durch Integration, die der Übung überlassen bleibt.
Beispiel: Dreiecksverteilung II 1.2 f(x) 1 0.8 0.6 0.4 0.2 0-0.2-0.4-1 -0.5 0 0.5 1 1.5 2 2.5 3
Quadratischer Mittelwert Der quadratische Mittelwert gibt darüber Auskunft, wie stark die Zufallsvariable um den Wert 0 streut. Für diskrete Zufallsvariablen gilt: m 2 = E[x 2 ] = x i P(x i ) x 2 i (23) Der quadratische Mittelwert für stetige Zufallsvariablen dagegen berechnet sich aus m 2 = x 2 f (x) dx (24)
Mittlere quadratische Abweichung Die mittlere quadratische Abweichung, auch Zentralmoment zweiter Ordnung oder Varianz genannt, ist ein Maß dafür, wie stark eine Zufallsvariable um ihren Mittelwert streut. Im Fall einer diskreten Zufallsvariablen ergibt sich die Varianz wie folgt: µ 2 = E[(x x) 2 ] = x i (x i x) 2 P(x i ) (25) Bei stetigen Zufallsvariablen gilt dann allgemein: µ 2 = (x x) 2 f (x) dx (26)
Zusammenhang Der Zusammenhang zwischen linearem, quadratischem Mittelwert und der mittleren quadratischen Abweichung lässt sich einfach herleiten: µ 2 = m 2 m 2 1
Bernoulli-Experiment Interessiert bei einem Versuch lediglich das Auftreten eines gegebenen Ereignisses A oder A, so kann das Versuchsergebnis durch eine Zufallsvariable X beschrieben werden, die nur zwei Werte annimmt: X = 1, wenn das Ereignis A eintritt X = 0, wenn A nicht eintritt. Die Wahrscheinlichkeit, dass das Ereignis A eintritt, sei mit p gegeben. Daraus lassen sich ableiten: E[X ] = 1 p + 0 (1 p) = p (27) E[X 2 ] = 1 2 p + 0 2 (1 p) = p (28) Var[X ] = E[X 2 ] E 2 [X ] (29) = 1 2 p p 2 = p (1 p) (30)
Binomialverteilung Für die Wahrscheinlichkeit, dass das Ereignis A bei n Versuchen genau k-mal auftritt, gilt dann die Binomialverteilung: ( ) n P k (X = k) = p k (1 p) n k (31) k
Binomialverteilung Erklärung Auf diese Formel kommt man ganz anschaulich, indem man sich die möglichen Kombinationen betrachtet, die zum gewünschten Ereignis führen. Eine Möglichkeit ergibt sich daraus, dass die ersten k Versuche bereits A als Resultat haben. Dann müssen die restlichen (n k) Versuche A zum Ergebnis haben. Die Wahrscheinlichkeit hierfür ist p k (1 p) n k, da die einzelnen Versuche unabhängig voneinander sind. ( ) n Insgesamt gibt es unabhängige Kombinationen. k
Verteilungsfunktion der Binomialverteilung Für die Verteilungsfunktion gilt dann F (x) = P(X x) = x i=0 ( n i ) p i (1 p) n i (32)
Poisson-Verteilung Die Poisson-Verteilung ist eine diskrete Wahrscheinlichkeitsverteilung, die beim mehrmaligen Durchführen eines Bernoulli-Experiments entsteht. Führt man ein solches Experiment sehr oft durch und ist die Erfolgswahrscheinlichkeit gering, so ist die Poisson-Verteilung eine gute Näherung für die entsprechende Wahrscheinlichkeitsverteilung. Sie gibt somit an, mit welcher Wahrscheinlichkeit eine bestimmte Anzahl statistisch unabhängiger Ereignisse auftritt. Die Abstände, in denen die Ereignisse eintreten, sind dabei exponentiell verteilt.
Mathematische Beschreibung der Poisson-Verteilung Verteilungsdichte der Poisson-Verteilung: Verteilungsfunktion der Poisson-Verteilung f (k) = P λ (X = k) (33) = λk k! e λ (34) F (k) = P λ (X k) (35) = k λ i i! e λ (36) i=0
Poisson-Verteilung mit λ = 6 Quelle: http://de.wikipedia.org/w/index.php?title=bild: Poisson-lambda6.png&filetimestamp=20050723201419
Normalverteilung Viele quantitative Größen konzentrieren sich oft um einen bestimmten Wert und größere Abweichungen sind eher selten. Glockenkurve Normalverteilung dient als Approximation eines solchen Verhaltens. Unter bestimmten Voraussetzungen kann man auch theoretisch zeigen, dass die Verteilung einer Summe von unabhängigen Zufallsvariablen gegen die Normalverteilung strebt.
Dichte der Normalverteilung Die Dichte der Normalverteilung bezeichnet mit N(µ, σ 2 ) ist gegeben durch f (x) = 1 2πσ e (x µ)2 2σ 2, µ, x (, ), σ > 0 (37) wobei µ einen Ortsparameter (das Mittel) und σ einen Skalierungsparameter darstellen [2].
Dichte der Normalverteilung Quelle: http://de.wikipedia.org/w/index.php?title=bild: Normal_density.svg&filetimestamp=20080316210707
Verteilungsfunktion der Normalverteilung Die Verteilungsfunktion ist natürlich das Integral über f, d. h. F (x) = x f (t)dt = x 1 2πσ e (t µ)2 2σ 2 dt (38) Ihre Berechnung ist nicht ganz einfach, entsprechende Werte werden üblicherweise Tabellen entnommen.
Standard-Normalverteilung I Betrachten wir nun die transformierte Zufallsvariable Z = X µ σ, wobei X N(µ, σ 2 ) verteilt ist. Die Verteilungsfunktion G(z) wird zu G(z) = P(Z z) = P( X µ z) σ = P(X zσ + µ) = F (zσ + µ) = zσ+µ 1 e (t µ)2 2σ 2 dt 2πσ
Standard-Normalverteilung II Die Transformation der Integrationsvariablen t zσ + µ liefert G(z) = = z z 1 2π e t2 2 dt g(t)dt
Standard-Normalverteilung III G und g werden dann Verteilungsfunktion bzw. Dichtefunktion der Standard-Normalverteilung N(0,1) genannt, die manchmal auch mit Φ respektive φ bezeichnet werden. Die Verteilung heißt auch Gauß sch.
Beispiel I Ein Psychologe benutzt ein Instrument, das ihm Werte liefert, die N(500, 10.000) verteilt sind. Gesucht ist die Wahrscheinlichkeit, dass ein Wert kleiner oder gleich 600 ist. P(X 600) = P( X 500 100 = P(Z 1) = G(1) = 0.8413 600 500 ) 100
Beispiel II Wie groß ist die Schranke, unter der ein Wert mit 95% Wahrscheinlichkeit liegt? 0.95 = P(X x) = P( X 500 x 500 100 100 ) = G( x 500 100 ) Aus der Tabelle folgt x 500 100 = 1.64, woraus sich die Schranke x = 664 ergibt.
Exponentialfunktion Die Exponentialverteilung hat die Dichtefunktion und die Verteilungsfunktion f (t) = λe λt, t 0, λ > 0 (39) F (t) = 1 e λt, t 0, λ > 0 (40) Diese Verteilung wird im weiteren Verlauf der Vorlesung mit anderen wichtigen Verteilungen zur Modellierung des Zuverlässigkeitsverhaltens genauer behandelt.
Literatur R. Dutter, Einführung in die wahrscheinlichkeitsrechnung und statistik (für informatiker). http: //pc2.statistik.tuwien.ac.at/public/dutt/inf/, Sommersemester 1998/99. Skriptum zur Vorlesung an der Technischen Universität Wien. W. Gromes, Mathematik für biologen und humanbiologen. http://www.mathematik.uni-marburg.de/~gromes/ biologen.html, Wintersemester 2000/2001. Skript zur Vorlesung an der Universität Marburg.