Zuverlässigkeitstheorie

Ähnliche Dokumente
Statistische Thermodynamik I Lösungen zur Serie 1

Zufallsgrößen. Vorlesung Statistik für KW Helmut Küchenhoff

, dt. $+ f(x) = , - + < x < +, " > 0. " 2# Für die zugehörige Verteilungsfunktion F(x) ergibt sich dann: F(x) =

$ % + 0 sonst. " p für X =1 $

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall

Übungsrunde 7, Gruppe 2 LVA , Übungsrunde 7, Gruppe 2, Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = ,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Beispiel Zusammengesetzte Zufallsvariablen

Statistik I für Betriebswirte Vorlesung 5

Ein möglicher Unterrichtsgang

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG

Monte-Carlo Simulation

Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik

13.5 Der zentrale Grenzwertsatz

1.5 Folgerungen aus dem Kolmogoroff- Axiomensystem P( ) = 0.

Ausarbeitung des Seminarvortrags zum Thema

Einführung in die Statistik

Die Binomialverteilung

Bei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses.

Data Mining: Einige Grundlagen aus der Stochastik

Analog definiert man das Nichteintreten eines Ereignisses (Misserfolg) als:

Monty Hall-Problem. Wochen 3 und 4: Verteilungen von Zufallsvariablen. Lernziele. Diskrete Verteilungen

Verteilungsmodelle. Verteilungsfunktion und Dichte von T

R ist freie Software und kann von der Website.

q = 1 p = k k k = 0, 1,..., = [ ] = 0.678

Übungen zur Mathematik für Pharmazeuten

Risiko und Versicherung - Übung

Von den Grundlagen der Monte-Carlo-Methode zur Simulation von Teilchenreaktionen und Teilchendetektoren

Box-and-Whisker Plot -0,2 0,8 1,8 2,8 3,8 4,8

Monte Carlo Methoden in Kreditrisiko-Management

Lebensdauer eines x-jährigen

Mini-Skript Wahrscheinlichkeitstheorie und Statistik

Klassische Risikomodelle

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse


Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Genexpression. Expression eines einzelnen Gens. Expressionsmessung. Genexpressionsmessung. Transkription (Vorgang) Genexpression

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Anleitung zum Physikpraktikum für Oberstufenlehrpersonen Fehlerrechnung und Statistik (FR) Herbstsemester 2015

Anwendung der Theorie von Gauß Shift Experimenten auf den Kolmogorov Smirnov Test und das einseitige Boundary Crossing Problem

Versuch: Zufälliges Ziehen aus der Population

Kapitel 15: Differentialgleichungen

1 Stochastische Prozesse in stetiger Zeit

Bestimmen der Wahrscheinlichkeiten mithilfe von Zählstrategien

Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008. Aufgabe 1

Mathematik I Internationales Wirtschaftsingenieurwesen

Stochastische Eingangsprüfung,

Absolute Stetigkeit von Maßen

Statistik - Fehlerrechnung - Auswertung von Messungen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

Veranstaltung Statistik (BWL) an der FH Frankfurt/Main im WS 2004/05 (Dr. Faik) Klausur GRUPPE A - BEARBEITER/IN (NAME, VORNAME):

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015

Grundprinzipien der Bayes-Statistik

Kursthemen 12. Sitzung. Spezielle Verteilungen: Warteprozesse. Spezielle Verteilungen: Warteprozesse

K2 MATHEMATIK KLAUSUR. Aufgabe PT WTA WTGS Darst. Gesamtpunktzahl Punkte (max) Punkte Notenpunkte

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Risiko und Symmetrie. Prof. Dr. Andrea Wirth

2 3 x3 17. x k dx = x k x k+1 k +1. Mit jeder weiteren partiellen Integration reduziert sich der Grad des Faktors x n, induktiv erhalten wir also

Statistik im Bachelor-Studium der BWL und VWL

Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist

Physik im Studium. Physik I - IV. Theoretische Vorlesungen. Praktika. Vorlesungen für Fortgeschrittene. Praktika für Fortgeschrittene

Kugel-Fächer-Modell. 1fach. 3fach. Für die Einzelkugel gibt es 3 Möglichkeiten. 6fach. 3! Möglichkeiten

- Eine typische Ausfallrate, wie sie bei vielen technischen Anwendungen zu sehen ist hat die Form einer Badewanne, deshalb nennt man diese Kurve auch

Teil I Beschreibende Statistik 29

Statistiktraining im Qualitätsmanagement

Ergänzungen zur Analysis I

1.3 Die Beurteilung von Testleistungen

Einführung in die Geostatistik (2) Fred Hattermann (Vorlesung), Michael Roers (Übung),

Beispiel Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =

5. Schließende Statistik Einführung

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

Schleswig-Holsteinische Ergänzung der Musteraufgaben für den hilfsmittelfreien Teil der schriftlichen Abiturprüfung im Fach Mathematik ab 2015

Modulabschlussklausur Analysis II

Modellgestützte Analyse und Optimierung Übungsblatt 4

ARBEITSUNTERLAGEN ZUR VORLESUNG UND ÜBUNG AN DER UNIVERSITÄT DES SAARLANDES DERIVATIVE FINANZINSTRUMENTE

Coupon Collector's-Problem (Sammelbilderproblem) Name: Walter Wolf Matrikelnr.: Dozent: Dr. W. Kössler

Einführung in die Statistik

Stochastik Wahrscheinlichkeit

Schätzung des Lifetime Values von Spendern mit Hilfe der Überlebensanalyse

Anwendungen in der elementaren Zinsrechnung. Kapitalwert zum Zeitpunkt j (nach j Zinsperioden) Bsp Zeitpunkte

Einführung in die schließende Statistik - Von der Wahrscheinlichkeit zur Hypothese mit Beispielen in R und SPSS

3 Monte-Carlo-Simulationen

Wirtschaftsmathematik für International Management (BA) und Betriebswirtschaft (BA)

Künstliche Intelligenz Unsicherheit. Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Skript zur Statistik II (Wahrscheinlickeitsrechnung und induktive Statistik)

Statistische Auswertung der Daten von Blatt 13

Sozialwissenschaftliche Methoden und Statistik I

DIFFERENTIALGLEICHUNGEN

Die Monte-Carlo-Methode mit Pseudound Quasi-Zufallszahlen

Motivation. Jede Messung ist mit einem sogenannten Fehler behaftet, d.h. einer Messungenauigkeit

Unsupervised Kernel Regression

Der Bipolar-Transistor und die Emitterschaltung Gruppe B412

MA Projekt: Langfristige Kapitalmarktsimulation

Binäre abhängige Variablen

Monte Carlo Simulationen

6 Mehrstufige zufällige Vorgänge Lösungshinweise

Kurzbeschreibung. Eingaben zur Berechnung. Das Optionspreismodell. Mit dem Eurex-OptionMaster können Sie

6.1 Grundlagen der Wahrscheinlichkeitsrechnung Definitionen und Beispiele Beispiel 1 Zufallsexperiment 1,2,3,4,5,6 Elementarereignis

Transkript:

3. Grundbegriffe der Wahrscheinlichkeitsrechnung Prof. Jochen Seitz Fachgebiet Kommunikationsnetze 20. November 2008

Übersicht Gesetz der großen Zahlen von Bernoulli 1 Gesetz der großen Zahlen von Bernoulli 2 Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit 3 Beispiele für Verteilungen diskreter und stetiger Zufallsvariablen Binomialverteilung Poisson-Verteilung Normalverteilung Exponentialverteilung

Gesetz der großen Zahlen von Bernoulli Sei A ein zufälliges Ereignis, das im Ergebnis eines Zufallsexperiments auftreten kann oder nicht. Dieses Experiment werde unter konstanten Bedingungen n-fach durchgeführt. Dabei sei mit n(a) die absolute Häufigkeit des Eintretens des Ereignisses A bezeichnet, mit p(a) = n(a)/n die relative Häufigkeit. Sei p die Wahrscheinlichkeit für das Eintreten von A, dann gilt: Gesetz der großen Zahlen von Bernoulli Für eine beliebig kleine Zahl ɛ gibt es eine Experimentanzahl n, so dass mit beliebig nahe bei 1 liegender Wahrscheinlichkeit die relative Wahrscheinlichkeit p(a) nicht weiter als um ɛ von p abweicht.

Interpretation Gesetz der großen Zahlen von Bernoulli Interpretation Bei genügend großer Anzahl von Versuchen einer zufälligen Ereignisses lässt sich die Wahrscheinlichkeit für dessen Auftreten beliebig genau bestimmen. Bedeutung der Wahrscheinlichkeit Die Natur der Wahrscheinlichkeit ist derart, dass sie erlaubt, ziemlich genau (und nicht exakt) die Anzahl gewisser Ereignisse bei einer großen Zahl von Versuchen vorherzusagen. Der Ausgang eines einzelnen Versuchs kann jedoch nicht vorhergesagt werden, lediglich die Wahrscheinlichkeit des Eintretens eines besttimmten Ereignisses bei einem Einzelexperiment kann genau abgeschätzt werden.

Interpretation für technische Systeme Interpretation der Zuverlässigkeit technischer Systeme Es kann niemals exakt vorausgesagt werden, ob eine betrachtete technische Einheit einen vorgegebenen Zeitraum überlebt (oder nicht überlebt). Allerdings ist die Angabe einer Wahrscheinlichkeit für das Überleben (oder Ausfallen) der Einheit möglich.

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Wahrscheinlichkeit beim Würfeln Man würfle n-mal. Die Ergebnisse sind A i = i für i = 1, 2, 3, 4, 5, 6. Jedes Ergebnis A i trat mit der Häufigkeit n i auf. Für jedes Ergebnis A i kann eine relative Häufigkeit h n (A i ) = n i n angegeben werden. Es gilt lim h n n(a i ) = lim i n n n = P(A i) P(A i ) ist die Wahrscheinlichkeit für das Auftreten von A i. Aus 0 n i n folgt 0 P(A i ) 1.

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Allgemeines In der Praxis sind Wahrscheinlichkeiten meist relative Häufigkeiten: Zahl der günstigen Ausgänge Wahrscheinlichkeit = Zahl der möglichen Ausgänge Die Wahrscheinlichkeit des unmöglichen Ereignisses: P(unmöglich) = 0 oder P(O) = 0 Die Wahrscheinlichkeit des sicheren Ereignisses: P(sicher) = 1 oder P(E) = 1

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Ereignisse A und Ā Sei das Auftreten eines bestimmten Ereignisses mit A beschrieben und daher das nicht-auftreten desselben Ereignisses mit Ā. Dann gilt für die Auftretenswahrscheinlichkeiten: P A + PĀ = 1 (1) PĀ = 1 P A (2) P (A Ā) = 1 = P A + PĀ (3)

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Verbundwahrscheinlichkeiten sich ausschließender Ereignisse Allgemein gilt für die Verbundwahrscheinlichkeit sich gegenseitig ausschließender Ereignisse A 1, A 2 : P (A1 A 2 ) = P A1 + P A2 (4) oder allgemein für n sich gegenseitig ausschließende Ereignisse: P (A1 A 2 A 3 A n) = n P Ai (5) i=1

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Verbundwahrscheinlichkeiten sich nicht ausschließender Ereignisse Für beliebige Ereignisse A und B, die sich nicht ausschließen, gilt: P (A B) = P A + P B P (A B) (6) Dies ist verträglich zu Gleichung 4, da bei sich gegenseitig ausschließenden Ereignissen A und B die Wahrscheinlichkeit, dass beide gleichzeitig auftreten, gleich 0 ist, d. h. P (A B) = 0

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Beispiel Kartenspiel I Gegeben sei ein Kartenspiel mit 52 Karten. Gesucht sei die Wahrscheinlichkeit, dass beim Kartenziehen ein König gezogen wird (P K ). Lösung: P K = P Kkreuz + P Kpik + P Kherz + P Kkaro = 1 52 + 1 52 + 1 52 + 1 52 = 1 13

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Beispiel Kartenspiel II Gegeben sei ein Kartenspiel mit 52 Karten. Gesucht sei nun die Wahrscheinlichkeit, dass eine Herz-Karte oder eine 4 gezogen wird. Lösung: Sei P Herz die Wahrscheinlichkeit, dass eine Herz-Karte gezogen wird, und P 4 die Wahrscheinlichkeit, dass eine 4 gezogen wird. Diese Ereignisse schließen sich nicht aus, da das Ereignis eine Herz-4 wurde gezogen in beiden Ereignissen enthalten ist! Daher muss wie folgt vorgegangen werden:

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Beispiel Kartenspiel III 1 P Herz = 1 4 es gibt vier Farben; 2 P 4 = 1 13 es gibt vier Karten mit 4; 3 P Herz 4 = 1 52 genau die Herz-4 wird gezogen. Aus Gleichung 6 folgt: P rot 4 = P Herz + P 4 P Herz 4 = 1 4 + 1 13 1 52 = 4 13

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit Die bedingte Wahrscheinlichkeit hat große Bedeutung in der. Es gilt: P A B = P B P A/B (7) P A B = P A P B/A (8) P A/B = P A B P B (9) P B/A = P A B P A (10)

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit bei einem Kartenspiel I Gesucht: Die Wahrscheinlichkeit, dass eine gezogene Karte die Herz-5 ist, wenn bereits bekannt ist, dass die gezogene Karte eine Herz-Karte ist. Sei dafür A das Ereignis, dass eine Herz-5 gezogen wurde und B das Ereignis, dass eine Herz-Karte gezogen wurde. Gesucht ist somit P A/B. Lösung: Es gilt P A = 1 52 ; P B = 1 4 ; P A B = 1 52 (= P A).

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit bei einem Kartenspiel II Somit ist P A/B = P A B P B = P A = P B 1 52 1 4 = 1 13

Wahrscheinlichkeit als relative Häufigkeit Verbundwahrscheinlichkeiten Bedingte Wahrscheinlichkeit Bedingte Wahrscheinlichkeit bei unabhängigen Ereignissen Wenn die Ereignisse unabhängig sind, d.h. wenn gilt P A/B = P A (Interpretation: Die Auftretenswahrscheinlichkeit von A ist unabhängig davon, ob B aufgetreten ist) gilt für die Wahrscheinlichkeit für das gemeinsame Auftreten dieser Ereignisse: n P A1 A 2 A 3 A n = P Ai (11) i=1

Zufallsvariablen Zufallsvariablen, die interessierende Beobachtungsgegenstände beschreiben, können kontinuierlich oder diskret sein: Zufallsvariablen sind diskret, wenn ein zufälliges Ereignis endlich viele oder abzählbar unendlich viele Werte annehmen kann. Beispiele sind somit das Auftreten einer bestimmten Karte in einem Kartenspiel, das Erscheinen einer bestimmten Zahl bei einem Würfelspiel oder die Anzahl von defekten respektive funktionierenden Einheiten eines Ensembles. Bei stetigen Zufallsvariablen ist die Menge der möglichen Ereignisse nicht abzählbar. Hierzu können beispielhaft Zeit, Temperatur, Spannung u.s.w. genannt werden.

Beispiel: Würfeln I Prinzipiell kann es beim Würfeln mit genau einem Würfel sechs mögliche Ereignisse geben. Der Ereignisvektor ist somit E = [x 1, x 2, x 3, x 4, x 5, x 6 ] = [1, 2, 3, 4, 5, 6]. Die Wahrscheinlichkeitsdichte f (x) ist dann die Zuordnung genau eines Wahrscheinlichkeitswertes zu jedem möglichen Ereignis, d.h. zu jedem Element des Ereignisvektors: P(X = x i ) = P(x i ) = f (x i ) (12) Da die x i den gesamten Ereignisraum bilden, es also keine anderen Ereignisse geben kann, gilt immer: P(x i ) = 1 (13) i

Beispiel: Würfeln II Für das Beispiel des Würfelns ergibt sich f (x i ) = 1 6 Das Auftreten der einzelnen Zahlen ist also gleich wahrscheinlich. Über die angegebene Bedingung P(x i ) = f (x i ) i i = 1 6 i = 6 1 6 = 1 kann man auch die Plausibilität dieser Funktion überprüfen.

Verteilungsfunktion Die Verteilungsfunktion gibt dann an, wie wahrscheinlich es ist, dass ein Ereignis innerhalb eines bestimmten Bereiches eintritt. Sie wird auf der Basis der Wahrscheinlichkeitsdichte definiert als F (x i ) = P(X x i ) (14) = X x i f (x i ) (15) Eine Verteilungsfunktion ist somit monoton wachsend und hat als Grenzwerte 0 und 1.

beim Würfeln f(x) 1 F(x) 1/6 1 2 3 4 5 6 x 1 2 3 4 5 6 x

Stetige Zufallsvariablen Betrachtet man nun Wahrscheinlichkeitsdichte und -verteilung einer stetigen Zufallsvariablen, so ist offensichtlich, dass diese ebenfalls stetig sind. Die Wahrscheinlichkeitsverteilung gibt dabei wiederum an, mit welcher Wahrscheinlichkeit ein zufälliger Wert eines Vorganges kleiner als das übergebene Argument x ist: F (x) = P(X x). Die Wahrscheinlichkeitsdichte ergibt sich aus f (x) = F (x): F (k) = P(X k) = k f (y) dy (16) F ( ) = 0 (17) F ( ) = 1 (18)

Beispiel für stetige Zufallsvariablen I Ein elektrisches Signal hat eine zufällige Spannung X im Bereich zwischen 0 und 1 V. Die Auftretenswahrscheinlichkeit ist im angegebenen Intervall gleich. Damit ergibt sich folgende Wahrscheinlichkeitsdichte: Die Fläche unter der Wahrscheinlichkeitsdichtefunktion ist gleich 1. Die Wahrscheinlichkeit für das Auftreten einer Spannung genau x ist gleich 0, da der Vorrat an möglichen Werten unendlich groß ist.

Beispiel für stetige Zufallsvariablen II Für stetige Zufallsvariablen ist die Wahrscheinlichkeit dafür, dass genau ein Wert auftritt, immer gleich 0. Es kann lediglich eine Wahrscheinlichkeit dafür angegeben werden, dass ein gemessener oder anders ermittelter Wert in einem spezifizierten Intervall liegt. Diese Wahrscheinlichkeit ergibt sich aus Wichtig P(x 1 < X x 2 ) = x 2 x 1 f (x) dx (19) Mit der Dichte- oder Verteilungsfunktion einer Zufallsvariablen ist damit deren vollständige Beschreibung möglich.

Wichtige Werte Oftmals sind Aussagen über das mittlere Gesamtverhalten einer Zufallsvariablen ausreichend. Die wichtigsten Aussagen, die über eine Zufallsvariable getroffen werden können, sind deren Mittelwert oder Erwartungswert; deren quadratischer Mittelwert; deren mittlere quadratische Abweichung Diese werden im Folgenden kurz behandelt.

(Linearer) Mittelwert einer diskreten Zufallsvariablen Der Mittelwert einer diskreten Zufallsvariablen berechnet sich aus m 1 = m = E[X ] = x = x i N i N x i (20) = x i P(x i ) x i

(Linearer) Mittelwert einer stetigen Zufallsvariablen Für stetige Zufallsvariablen gilt: m = x f (x) dx (21)

Beispiel: Dreiecksverteilung I Diese ensteht bei der Summe von zwei unabhängigen, gleichverteilten R(0, 1) Zufallsvariablen [1]. Die Wahscheinlichkeitsdichte ist somit gegeben durch x, 0 x < 1 f (x) = 2 x, 1 x < 2 0, sonst (22) Die Verteilungsfunktion errechnet sich durch Integration, die der Übung überlassen bleibt.

Beispiel: Dreiecksverteilung II 1.2 f(x) 1 0.8 0.6 0.4 0.2 0-0.2-0.4-1 -0.5 0 0.5 1 1.5 2 2.5 3

Quadratischer Mittelwert Der quadratische Mittelwert gibt darüber Auskunft, wie stark die Zufallsvariable um den Wert 0 streut. Für diskrete Zufallsvariablen gilt: m 2 = E[x 2 ] = x i P(x i ) x 2 i (23) Der quadratische Mittelwert für stetige Zufallsvariablen dagegen berechnet sich aus m 2 = x 2 f (x) dx (24)

Mittlere quadratische Abweichung Die mittlere quadratische Abweichung, auch Zentralmoment zweiter Ordnung oder Varianz genannt, ist ein Maß dafür, wie stark eine Zufallsvariable um ihren Mittelwert streut. Im Fall einer diskreten Zufallsvariablen ergibt sich die Varianz wie folgt: µ 2 = E[(x x) 2 ] = x i (x i x) 2 P(x i ) (25) Bei stetigen Zufallsvariablen gilt dann allgemein: µ 2 = (x x) 2 f (x) dx (26)

Zusammenhang Der Zusammenhang zwischen linearem, quadratischem Mittelwert und der mittleren quadratischen Abweichung lässt sich einfach herleiten: µ 2 = m 2 m 2 1

Bernoulli-Experiment Interessiert bei einem Versuch lediglich das Auftreten eines gegebenen Ereignisses A oder A, so kann das Versuchsergebnis durch eine Zufallsvariable X beschrieben werden, die nur zwei Werte annimmt: X = 1, wenn das Ereignis A eintritt X = 0, wenn A nicht eintritt. Die Wahrscheinlichkeit, dass das Ereignis A eintritt, sei mit p gegeben. Daraus lassen sich ableiten: E[X ] = 1 p + 0 (1 p) = p (27) E[X 2 ] = 1 2 p + 0 2 (1 p) = p (28) Var[X ] = E[X 2 ] E 2 [X ] (29) = 1 2 p p 2 = p (1 p) (30)

Binomialverteilung Für die Wahrscheinlichkeit, dass das Ereignis A bei n Versuchen genau k-mal auftritt, gilt dann die Binomialverteilung: ( ) n P k (X = k) = p k (1 p) n k (31) k

Binomialverteilung Erklärung Auf diese Formel kommt man ganz anschaulich, indem man sich die möglichen Kombinationen betrachtet, die zum gewünschten Ereignis führen. Eine Möglichkeit ergibt sich daraus, dass die ersten k Versuche bereits A als Resultat haben. Dann müssen die restlichen (n k) Versuche A zum Ergebnis haben. Die Wahrscheinlichkeit hierfür ist p k (1 p) n k, da die einzelnen Versuche unabhängig voneinander sind. ( ) n Insgesamt gibt es unabhängige Kombinationen. k

Verteilungsfunktion der Binomialverteilung Für die Verteilungsfunktion gilt dann F (x) = P(X x) = x i=0 ( n i ) p i (1 p) n i (32)

Poisson-Verteilung Die Poisson-Verteilung ist eine diskrete Wahrscheinlichkeitsverteilung, die beim mehrmaligen Durchführen eines Bernoulli-Experiments entsteht. Führt man ein solches Experiment sehr oft durch und ist die Erfolgswahrscheinlichkeit gering, so ist die Poisson-Verteilung eine gute Näherung für die entsprechende Wahrscheinlichkeitsverteilung. Sie gibt somit an, mit welcher Wahrscheinlichkeit eine bestimmte Anzahl statistisch unabhängiger Ereignisse auftritt. Die Abstände, in denen die Ereignisse eintreten, sind dabei exponentiell verteilt.

Mathematische Beschreibung der Poisson-Verteilung Verteilungsdichte der Poisson-Verteilung: Verteilungsfunktion der Poisson-Verteilung f (k) = P λ (X = k) (33) = λk k! e λ (34) F (k) = P λ (X k) (35) = k λ i i! e λ (36) i=0

Poisson-Verteilung mit λ = 6 Quelle: http://de.wikipedia.org/w/index.php?title=bild: Poisson-lambda6.png&filetimestamp=20050723201419

Normalverteilung Viele quantitative Größen konzentrieren sich oft um einen bestimmten Wert und größere Abweichungen sind eher selten. Glockenkurve Normalverteilung dient als Approximation eines solchen Verhaltens. Unter bestimmten Voraussetzungen kann man auch theoretisch zeigen, dass die Verteilung einer Summe von unabhängigen Zufallsvariablen gegen die Normalverteilung strebt.

Dichte der Normalverteilung Die Dichte der Normalverteilung bezeichnet mit N(µ, σ 2 ) ist gegeben durch f (x) = 1 2πσ e (x µ)2 2σ 2, µ, x (, ), σ > 0 (37) wobei µ einen Ortsparameter (das Mittel) und σ einen Skalierungsparameter darstellen [2].

Dichte der Normalverteilung Quelle: http://de.wikipedia.org/w/index.php?title=bild: Normal_density.svg&filetimestamp=20080316210707

Verteilungsfunktion der Normalverteilung Die Verteilungsfunktion ist natürlich das Integral über f, d. h. F (x) = x f (t)dt = x 1 2πσ e (t µ)2 2σ 2 dt (38) Ihre Berechnung ist nicht ganz einfach, entsprechende Werte werden üblicherweise Tabellen entnommen.

Standard-Normalverteilung I Betrachten wir nun die transformierte Zufallsvariable Z = X µ σ, wobei X N(µ, σ 2 ) verteilt ist. Die Verteilungsfunktion G(z) wird zu G(z) = P(Z z) = P( X µ z) σ = P(X zσ + µ) = F (zσ + µ) = zσ+µ 1 e (t µ)2 2σ 2 dt 2πσ

Standard-Normalverteilung II Die Transformation der Integrationsvariablen t zσ + µ liefert G(z) = = z z 1 2π e t2 2 dt g(t)dt

Standard-Normalverteilung III G und g werden dann Verteilungsfunktion bzw. Dichtefunktion der Standard-Normalverteilung N(0,1) genannt, die manchmal auch mit Φ respektive φ bezeichnet werden. Die Verteilung heißt auch Gauß sch.

Beispiel I Ein Psychologe benutzt ein Instrument, das ihm Werte liefert, die N(500, 10.000) verteilt sind. Gesucht ist die Wahrscheinlichkeit, dass ein Wert kleiner oder gleich 600 ist. P(X 600) = P( X 500 100 = P(Z 1) = G(1) = 0.8413 600 500 ) 100

Beispiel II Wie groß ist die Schranke, unter der ein Wert mit 95% Wahrscheinlichkeit liegt? 0.95 = P(X x) = P( X 500 x 500 100 100 ) = G( x 500 100 ) Aus der Tabelle folgt x 500 100 = 1.64, woraus sich die Schranke x = 664 ergibt.

Exponentialfunktion Die Exponentialverteilung hat die Dichtefunktion und die Verteilungsfunktion f (t) = λe λt, t 0, λ > 0 (39) F (t) = 1 e λt, t 0, λ > 0 (40) Diese Verteilung wird im weiteren Verlauf der Vorlesung mit anderen wichtigen Verteilungen zur Modellierung des Zuverlässigkeitsverhaltens genauer behandelt.

Literatur R. Dutter, Einführung in die wahrscheinlichkeitsrechnung und statistik (für informatiker). http: //pc2.statistik.tuwien.ac.at/public/dutt/inf/, Sommersemester 1998/99. Skriptum zur Vorlesung an der Technischen Universität Wien. W. Gromes, Mathematik für biologen und humanbiologen. http://www.mathematik.uni-marburg.de/~gromes/ biologen.html, Wintersemester 2000/2001. Skript zur Vorlesung an der Universität Marburg.