Technische Universität Ilmenau. Institut für Mathematik. Fachgebiet Wahrscheinlichkeitsrechnung und mathematische Statistik. Silvia Vogel.

Ähnliche Dokumente
Kapitel VI - Lage- und Streuungsparameter

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Ü b u n g s b l a t t 15

1. Grundbegri e der Stochastik

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

Wahrscheinlichkeitstheorie und Statistik

Stochastik für Ingenieure

Wahrscheinlichkeitsverteilungen

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

2. Rechnen mit Wahrscheinlichkeiten

1 Elemente der Wahrscheinlichkeitstheorie

Stochastik. 1. Wahrscheinlichkeitsräume

1. Grundbegri e der Stochastik

Statistik für Ingenieure Vorlesung 3

Kenngrößen von Zufallsvariablen

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Grundbegriffe der Wahrscheinlichkeitstheorie

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Statistik für Ingenieure Vorlesung 5

Statistik I für Betriebswirte Vorlesung 3

2 Zufallsvariable, Verteilungen, Erwartungswert

Eine Zufallsvariable X sei stetig gleichverteilt im Intervall [0,5]. Die Wahrscheinlichkeit P(2< x <4) ist dann

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Stochastik Wiederholung von Teil 1

Zufallsvariablen: Die allgemeine Definition

Übungsrunde 9, Gruppe 2 LVA , Übungsrunde 8, Gruppe 2, Markus Nemetz, TU Wien, 12/2006

Kapitel 2 Wahrscheinlichkeitsrechnung

Statistik I für Betriebswirte Vorlesung 4

Wirtschaftsmathematik

Beispiel: Zweidimensionale Normalverteilung I

Stochastik und Statistik für Ingenieure Vorlesung 4

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Fit for Abi & Study Stochastik

Der Trainer einer Fußballmannschaft stellt die Spieler seiner Mannschaft auf. Insgesamt besteht der Kader seiner Mannschaft aus 23 Spielern.

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Biometrieübung 5 Spezielle Verteilungen. 1. Anzahl von weiblichen Mäusen in Würfen von jeweils 4 Mäusen

Wahrscheinlichkeitsrechnung und schließende Statistik

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Einführung in die angewandte Stochastik

Wichtige Definitionen und Aussagen

Statistik I für Betriebswirte Vorlesung 3

12 Die Normalverteilung

Grundbegriffe der Wahrscheinlichkeitsrechnung

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Inferenzstatistik (=schließende Statistik)

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I

7.5 Erwartungswert, Varianz

1.5.4 Quantile und Modi. Bem [Quantil, Modus]

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

Mathematik: Mag. Schmid Wolfgang & LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 7-9. Was ist Wahrscheinlichkeit

Einführung in Quantitative Methoden

2 Zufallsvariable und Verteilungsfunktionen

4.2 Moment und Varianz

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Stetige Funktionen. Definition. Seien (X, d) und (Y, ϱ) metrische Räume und f : X Y eine Abbildung. D(f) X sei der Definitionsbereich von f.

Biostatistik, Sommer 2017

Forschungsstatistik I

Grundlagen der Wahrscheinlichkeitstheorie

Kapitel VII - Funktion und Transformation von Zufallsvariablen

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

Statistik I für Betriebswirte Vorlesung 1

7.2 Moment und Varianz

Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Stochastik I. Vorlesungsmitschrift

5. Spezielle stetige Verteilungen

5 Binomial- und Poissonverteilung

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

70 Wichtige kontinuierliche Verteilungen

Wahrscheinlichkeit und Statistik: Zusammenfassung

Mathematik. Abiturprüfung Prüfungsteil A. Arbeitszeit: 90 Minuten. Bei der Bearbeitung der Aufgaben dürfen keine Hilfsmittel verwendet werden.

1.5 Mehrdimensionale Verteilungen

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

2 Rationale und reelle Zahlen

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler

Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg

Elementare Stochastik

Bio- Statistik 1. mit 87 Abbildungen, 40 Tabellen und 102 Beispielen

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie

Biostatistik, Sommer 2017

Inhaltsverzeichnis (Ausschnitt)

Transkript:

Technische Universität Ilmenau Institut für Mathematik Fachgebiet Wahrscheinlichkeitsrechnung und mathematische Statistik Silvia Vogel Stochastik Wintersemester 2009/200

Literatur [] F. Beichelt: Stochastik für Ingenieure. Teubner Stuttgart 995, Taschenbuch 2003. [2] O. Beyer, H. Hackel, V. Pieper, J. Tiedge: Wahrscheinlichkeitsrechnung und mathematische Statistik. MINÖL Bd. 7, 8. Auflage, Teubner Stuttgart, Leipzig 999. [3] H. Dehling, B. Haupt: Einührung in die Wahrscheinlichkeitstheorie und Statistik. 2. Auflage; Springer 2007. [4] L. Dümbgen: Stochastik für Informatiker. Springer 2003, Taschenbuch 2007. [5] M. Fisz: Wahrscheinlichkeitsrechnung und mathematische Statistik.. Auflage, Deutscher Verlag der Wissenschaften 988. [6] M. Greiner, G. Tinhofer: Stochastik für Studienanfänger der Informatik. Carl Hanser Verlag 996. [7] G. Hübner: Stochastik. 4.Auflage, Vieweg 2003. [8] J. Lehn, H. Wegmann: Einführung in die Statistik. 5. Auflage, Teubner Stuttgart 2006. [9] R. Mathar, D. Pfeifer: Stochastik für Informatiker. 2. Auflage, Teubner Stuttgart 200. [0] R. Storm: Wahrscheinlichkeitsrechnung, mathematische Statistik und statistische Qualitätskontrolle. 2. Auflage 2007. [] H. Weber: Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure. 3. Auflage, Teubner Stuttgart 992. Einführung Die Stochastik umfasst die Wahrscheinlichkeitsrechnung und mathematische Statistik sowie die darauf aufbauenden Theorien. Sie beschäftigt sich mit der Untersuchung zufälliger Erscheinungen. Das Rechnen mit Unsicherheiten kann nicht umgangen werden, da es einerseits prinzipiell nicht möglich ist, alle Eingangsgrößen eines Modells ganz genau zu erfassen (Heisenbergsche Unschärferelation, Beschränktheit der menschlichen Möglichkeiten) und andererseits die Gewinnung und Bearbeitung eines hinreichend angepassten deterministischen Modells häufig einen unvertretbar hohen Aufwand erfordern würde. 2

Die Stochastik stellt eine Vielzahl von mathematischen Modellen für Aufgabenstellungen mit Unsicherheiten bereit. Eine Reihe von Anwendungen der Stochastik hat bereits eigenständige Bedeutung erlangt, z.b. Warteschlangentheorie, Zuverlässigkeitstheorie, statistische Qualitätskontrolle, Informationstheorie, Monte-Carlo-Methoden. Beispiel: Warteschlangentheorie (Bedienungstheorie) Gegeben ist Bedienungssystem (Rechnernetz), das in folgender Weise charakterisiert werden kann: Es gibt eine oder mehrere Bedieneinheiten (Rechner). Die Kunden (Jobs) kommen zu vorher nicht bekannten Zeitpunkten im Bedienungssystem an. Die Bedienungszeiten sind nicht deterministisch. In der Regel soll das Bedienungssystem optimal gestaltet werden (kostengünstig, Einhaltung von Leistungsgarantien, geringe Durchlaufzeit...). Dazu werden Aussagen über die Entwicklung der Warteschlange, die mittlere Verweilzeit der Kunden im System, die mittlere Auslastung der Bediengeräte usw. benötigt. Die Warteschlangentheorie bietet wahrscheinlichkeitstheoretische Modelle zur Behandlung dieser Fragestellungen an. Oft liefert folgendes Modell eine gute Annäherung an die Wirklichkeit: Der Kundeneingangsstrom ist ein sogenannter Poisson-Prozess. Die Bedienungszeiten werden als unabhängige, exponentialverteilte Zufallsgrößen aufgefasst. Die Parameter der in den Modellen zugrunde gelegten Verteilungen müssen i. Allg. geschätzt werden ( Statistik). Es ist möglich, gewisse Modellannahmen mit Hilfe statistischer Test zu überprüfen ( Statistik). 3

Teil I: Wahrscheinlichkeitstheorie Inhaltsverzeichnis Zur historischen Entwicklung der Wahrscheinlichkeitsrechnung 5 2 Grundbegriffe 6 2. Zufallsexperiment (zufälliger Versuch)............... 6 2.2 Die relative Häufigkeit........................ 7 2.3 Die Axiome der Wahrscheinlichkeitstheorie............ 8 2.4 Spezialfälle der allgemeinen Wahrscheinlichkeitsdefinition.... 9 2.5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........ 2.6 Die Formel der totalen Wahrscheinlichkeit und die Bayessche Formel................................. 4 3 Zufallsvariablen und Verteilungen 6 3. Zufallsgrößen............................. 6 3.2 Die Verteilungsfunktion....................... 8 3.3 Diskrete und stetige Zufallsgrößen................. 9 3.4 Erwartungswert und Varianz einer Zufallsgröße.......... 20 3.5 Spezielle Verteilungen........................ 22 3.5. Binomialverteilung...................... 22 3.5.2 Hypergeometrische Verteilung................ 24 3.5.3 Poisson-Verteilung...................... 25 3.5.4 Weitere diskrete Verteilungen................ 26 3.5.5 Gleichmäßige stetige Verteilung............... 26 3.5.6 Exponentialverteilung.................... 26 3.5.7 Normalverteilung....................... 28 3.5.8 Cauchy-Verteilung...................... 30 3.5.9 Weitere wichtige stetige Verteilungstypen......... 30 3.6 Die Verteilung einer Funktion einer Zufallsgröße.......... 30 3.7 Weitere Kenngrößen von Verteilungen............... 3 3.8 Mehrdimensionale Zufallsvariablen................. 32 3.8. Diskrete Zufallsvektoren................... 33 3.8.2 Stetige Zufallsvektoren.................... 35 3.8.3 Erwartungswertvektor und Kovarianzmatrix eines Zufallsvektors............................ 37 3.9 Unabhängigkeit von Zufallsgrößen................. 38 3.0 Funktionen eines Zufallvektors................... 39 3.0. Der Erwartungswert einer Funktion eines Zufallsvektors. 39 3.0.2 Die Verteilung der Summe unabhängiger Zufallsgrößen.. 40 3.0.3 Die Verteilung weiterer Funktionen unabhängiger Zufallsgrößen............................. 42 4

4 Grenzwertsätze 43 4. Gesetze der großen Zahlen...................... 43 4.2 Zentrale Grenzwertsätze....................... 44 5

Zur historischen Entwicklung der Wahrscheinlichkeitsrechnung Die Grundlagen der Wahrscheinlichkeitstheorie wurden im Zusammenhang mit der Betrachtung von Glücksspielen geschaffen. Der Briefwechsel von B. Pascal, P. de Fermat (654) über die 2. Aufgabe des Chevaliers de Méré gilt als der Beginn der Entwicklung der Wahrscheinlichkeitstheorie zur selbstständigen Wissenschaft. 2. Aufgabe von de Méré: Zwei Spieler vereinbaren, eine Reihe von Partien zu spielen. Gewinner soll derjenige sein, der als erster s Partien gewonnen hat. Das Spiel wird vorzeitig beim Stand von a:b abgebrochen. Wie ist der Gewinn aufzuteilen? (z.b. s=3, a=2, b=) Weitere wichtige Beiträge zur Entwicklung der Wahrscheinlichkeitstheorie leisteten die Wissenschaftler Ch. Huygens 657: Über Berechnungen beim Würfelspiel, J. Bernoulli 73: Ars conjectandi, P. S. Laplace 82: Théorie analytique des probabilités (klassische Definition der Wahrscheinlichkeit), S. D. Poisson (78-840). In der zweiten Hälfte des 9. Jahrhunderts kam es zur Stagnation der Entwicklung der Wahrscheinlichkeitstheorie in Westeuropa. In Russland wurde die Wahrscheinlichkeitstheorie vor allem durch P.L. Tschebyschev (82-894) und seine Schüler (unter ihnen A. A. Markov (856-922)) weiterentwickelt. Anwendungen der Wahrscheinlichkeitstheorie im 9. Jahrhundert gab es in der Bevölkerungsstatistik, der Fehlerrechnung, im Messwesen, im Versicherungswesen, in der Ballistik und der kinetischen Gastheorie. Auf dem Mathematikerkongress in Paris im Jahre 900 sagte D. Hilbert in seiner berühmten Rede: Durch die Untersuchungen über die Grundlagen der Geometrie wird uns die Aufgabe nahegelegt, nach diesem Vorbilde diejenigen physikalischen Disziplinen axiomatisch zu behandeln, in denen schon heute die Mathematik eine hervorragende Rolle spielt, dies sind in erster Linie die Wahrscheinlichkeitsrechnung und die Mechanik. (6. Hilbertsches Problem) 6

Die axiomatische Begründung der Wahrscheinlichkeitsrechnung wurde 933 von A. N. Kolmogorov (903-987) in der Arbeit Grundbegriffe der Wahrscheinlichkeitsrechnung geschaffen. Seither hat sich die Wahrscheinlichkeitsrechnung stürmisch entwickelt. 2 Grundbegriffe 2. Zufallsexperiment (zufälliger Versuch) Definition: Beispiele: Ein Zufallsexperiment (zufälliger Versuch) ist ein Experiment, das unter gleichen äußeren Bedingungen (zumindest gedanklich) beliebig oft wiederholbar ist, und dessen Ergebnis im Rahmen verschiedener Moglichkeiten ungewiss ist. B: Werfen eines Würfels, B2: Messen der Zeit für die Abarbeitung eines Jobs, B3: Feststellen der Anzahl der Kunden in einem Bedienungssystem zu einem festen Zeitpunkt. Die Menge aller möglichen, sich gegenseitig ausschließenden Ergebnisse eines Zufallsexperimentes wird mit Ω bezeichnet. Beispiele: B: Ω = {,2,3,4,5,6}, B2: Ω = (0; ) (Maßeinheit angeben), B3: Ω = {0,,2,...}. Teilmengen von Ω heißen (zufällige) Ereignisse (i. Allg. nicht alle). Ereignisse werden in der Regel mit den Buchstaben A, B, C... bezeichnet. Die einelementigen Teilmengen {ω} heißen auch Elementarereignisse. Man sagt Das Ereignis A tritt ein, wenn ein ω A beobachtet wird. Beispiele: B: A... Es wird eine gerade Zahl gewürfelt. A = {2,4,6}. B2: B... Die Bearbeitung eines Jobs dauert mindestens Minute. B = [60; ) (in Sekunden). B3: C... Es befinden sich höchstens 3 Kunden im Bedienungssystem. C = {0,,2,3}. Beziehungen und Operationen zwischen Ereignissen Es seien A, B, A i Ω i =, 2... Die folgenden Verknüpfungen von Ereignissen werden häufig betrachtet: 7

Schreibweise A B A i A B A i Ā (aucha c ) Sprechweise A oder B mindestens ein A i A und B alle A i das zu A komplementäre Ereignis wird unmögliches Ereignis und Ω sicheres Ereignis genannt. A und B heißen unvereinbar, wenn A B = gilt. Falls Ω abzählbar ist, kann man alle Teilmengen als Ereignisse zulassen, d.h., Ereignisse sind i. Allg. die Elemente der Potenzmenge P(Ω). Falls Ω überabzählbar ist, führt die Verwendung der Potenzmenge zu Schwierigkeiten schon bei der Definition einfacher Verteilungen. Man beschränkt sich daher auf ein kleineres Mengensystem, das eine σ-algebra bildet. Definition: Es sei Ω eine nichtleere Menge. Ein System A von Teilmengen von Ω heißt σ-algebra über Ω, wenn () Ω A, (2) A A Ā A, (3) A i A, i =, 2... A i A. Ist neben der Menge der Ergebnisse Ω eine σ-algebra über Ω gegeben, so heißen alle A A Ereignisse. A wird auch Ereignisfeld genannt. 2.2 Die relative Häufigkeit Die Eigenschaften eines Wahrscheinlichkeitsmaßes werden den Eigenschaften der relativen Häufigkeit nachgebildet. Aus diesem Grund wird an dieser Stelle kurz auf die relative Häufigkeit eingegangen. Ein Zufallsexperiment werde n-mal unabhängig voneinander wiederholt. Wird dabei m-mal das Ereignis A beobachtet, so heißt h n (A) := m n relative Häufigkeit von A in n Versuchen. Die relative Häufigkeit hat die folgenden Eigenschaften: () 0 h n (A), 8

(2) h n (Ω) =, (3) A B = h n (A B) = h n (A) + h n (B). Konkrete Beispiele zeigen, dass die relative Häufigkeit eine gewisse Stabilität zeigt, wenn n genügend groß ist. Es sei hierbei auf die Münzwürfe verwiesen, die G.L.L. Buffon und K. Pearson durchführten. Sie ermittelten folgende relative Häufigkeiten für das Ereignis A...Wappen liegt oben: Anzahl der Würfe relative Häufigkeit Buffon 4040 0,5069 Pearson 2000 0,506 Pearson 24000 0,5005 2.3 Die Axiome der Wahrscheinlichkeitstheorie Nur den Elementen der σ-algebra A werden Wahrscheinlichkeiten zugeordnet. Definition: Eine auf A definierte reellwertige Funktion P heißt Wahrscheinlichkeitsmaß, wenn (A) P (A) 0 A A, (A2) P (Ω) =, (A3) P ( A i ) = P (A i ), falls A i A j = für i j gilt. Das Tripel [Ω, A,P ] heißt Wahrscheinlichkeitsraum. P (A) heißt Wahrscheinlichkeit des Ereignisses A. Gilt P (A) =, wird A fast sicheres Ereignis genannt. Falls P (A) = 0 erfüllt ist, nennt man A fast unmögliches Ereignis. Für Wahrscheinlichkeiten gelten die folgenden Rechenregeln: () P ( ) = 0, (2) A B = P (A B) = P (A) + P (B), (3) P (Ā) = P (A), (4) A B P (A) P (B), (5) 0 P (A), (6) P (A B) = P (A) + P (B) P (A B), 9

(7) P (A B) P (A) + P (B), (8) P ( n A i ) = n P (A i ) = n ( ) k+ k= i<l n (i,...,i k ) C k n P (A i A l ) +... + ( ) n+ P ( n A i ) P ( k j= A ij ), C k n bezeichnet dabei die Menge der Kombinationen ohne Wiederholung von n Elementen zur k-ten Klasse. Die Rechenregel (8) wird auch Siebformel von Poincaré-Sylvester genannt. Beweis der Rechenregel () In (A3) werden A = Ω und A i = für i = 2, 3,... gesetzt. Dann folgt P ( A i ) = P (Ω) (A2) = = P (A i ) = + P ( ). Aus der Beziehung P ( ) = 0 ergibt sich P ( ) = 0. i=2 2.4 Spezialfälle der allgemeinen Wahrscheinlichkeitsdefinition a) Klassische Wahrscheinlichkeitsdefinition Der Wahrscheinlichkeitsraum wird in der folgenden Weise spezifiziert: i=2 Ω bestehe aus n Elementen: Ω = {ω... ω n }, A = P (Ω), Alle Elementarereignisse sind gleichwahrscheinlich, d.h., P ({ω i }) = n, i =,..., n. Ein beliebiges Ereignis lässt sich nun in der Form A = {ω i } mit einer geeigneten Indexmenge I darstellen. Daraus folgt P (A) = P ( i I{ω i }) = i I P ({w i }) = i I n i I = Anzahl der Elemente von A Anzahl der Elemente von Ω = Anzahl der günstigen Fälle Anzahl der möglichen Fälle. Ein wichtiges Hilfsmittel bei der Berechnung klassischer Wahrscheinlichkeiten ist die Kombinatorik. Beispiele:. Urnenmodell mit Zurücklegen In einer Urne befinden sich N Kugeln, M weiße und N M schwarze. Aus der Urne wird zufällig eine Kugel entnommen und ihre Farbe notiert. Anschließend wird die Kugel wieder zurückgelegt. Dieser Vorgang wird n-mal unabhängig voneinander wiederholt. 0

Gesucht ist die Wahrscheinlichkeit des Ereignisses A nk... Unter den n gezogenen Kugeln befinden sich genau k weiße. Lösung: Die N Kugeln seien von bis N durchnummeriert. Die Menge der möglichen, gleichwahrscheinlichen Ziehungsergebnisse (Elementarereignisse) kann dann folgendermaßen beschrieben werden: Ω = {(,...,, ), (,...,, 2),..., (N,..., N)}. Ω besitzt N n Elemente (= Anzahl der möglichen Fälle ). Die Anzahl der günstigen Fälle lässt sich auf folgende Weise ermitteln: Es gibt ( n k) verschiedene Möglichkeiten, k weiße Kugeln in einer Serie von n Kugeln einzuordnen. Weiterhin gibt es M k Möglichkeiten, weiße Kugeln auf die k gewählten Plätze für weiße Kugeln zu verteilen und entsprechend (N M) n k Möglichkeiten für die schwarzen Kugeln. Insgesamt ergeben sich damit ( n k) M k (N M) n k günstige Fälle. Somit folgt: P (A nk ) = (n k)m k (N M) n k N n = ( n M ) k( k)( N M N )n k. 2. Urnenmodell ohne Zurücklegen In einer Urne befinden sich N Kugeln, M weiße, und N M schwarze. Aus der Urne werden n Kugeln zufällig entnommen und nicht zurückgelegt. Gesucht ist die Wahrscheinlichkeit des Ereignisses B nk... Unter den n gezogenen Kugeln befinden sich genau k weiße. Lösung: Ω bestehe aus allen n-elementigen Teilmengen von {, 2,..., N}; Ω besitzt somit ( N n) Elemente (= Anzahl der möglichen Fälle ). Weiterhin gibt es ( ) M k verschiedene Möglichkeiten, k Kugeln aus M weißen Kugeln herauszugreifen, und es gibt ( ) N M n k verschiedene Möglichkeiten, aus N M schwarzen Kugeln n k Kugeln auszuwählen. Die Anzahl der günstigen Fälle ist daher ( )( M N M ) k n k, und es gilt P (B nk ) = (M k )( N M n k ). ( N n) Man beachte, dass eine Aufgabenstellung nicht immer eindeutig festlegt, was unter zufälliger Auswahl zu verstehen ist. Das folgende Beispiel soll das verdeutlichen. Entsprechende Beispiele findet man auch bei anderen Spezifikationen des Wahrscheinlichkeitsraumes. Beispiel (aus: J. Lehn, H. Wegmann: Einführung in die Statistik) In einem Speisewagen gibt es 5 Tische mit je 4 Plätzen. Bevor der Speisewagen geöffnet wird, geht der Kellner durch den Zug und nimmt die Platzreservierungswünsche der Fahrgäste entgegen. Gleich die ersten beiden Fahrgäste, die er unabhängig voneinander anspricht, lassen sich einen Platz reservieren. Wie groß

ist (unter geeigneter Annahme bez. der Gleichberechtigung der Auswahlmöglichkeiten) die Wahrscheinlichkeit, dass die beiden am gleichen Tisch sitzen werden, wenn der Kellner die Reservierung zufällig vornimmt?. Lösung: Es wird die Situation nach der ersten Reservierung betrachtet. Der Kellner wählt für den zweiten Fahrgast mit gleicher Wahrscheinlichkeit einen der fünf Tische aus. Mit Wahrscheinlichkeit 5 wird dies der Tisch sein, an dem auch der erste Fahrgast sitzen wird. 2. Lösung: Auch hier wird die Situation nach der ersten Reservierung betrachtet. Der Kellner wählt für den zweiten Fahrgast mit gleicher Wahrscheinlichkeit einen der noch freien 9 Plätze aus. Mit Wahrscheinlichkeit 3 9 wird dies einer der drei noch freien Plätze am Tisch des ersten Fahrgastes sein. b) Geometrische Wahrscheinlichkeit Ω sei ein ebenes Flächenstück (Teilmenge des R 2 ) mit endlichem Flächeninhalt. Für jedes Ereignis A Ω wird P (A) := Flächeninhalt von A Flächeninhalt von Ω gesetzt. Damit ist P ein Wahrscheinlichkeitsmaß. Analog kann man im R und allgemein im R n vorgehen. Anwendung der geometrischen Wahrscheinlichkeit Das Modell der geometrischen Wahrscheinlichkeit kann angewendet werden, wenn ein Punkt Q wird aus Ω zufällig ausgewählt werden soll und die folgenden Annahmen gelten: Genau die Punkte von Ω können ausgewählt werden. Die Wahrscheinlichkeit dafür, dass Q zu einer vorgegebenen Teilmenge A Ω gehört, hängt lediglich vom Flächeninhalt von A und nicht von der Lage oder Gestalt von A ab. 2.5 Bedingte Wahrscheinlichkeiten und Unabhängigkeit Beispiel: Anna möchte ihren Freund Bert besuchen, hat aber vergessen, in welchem der sechs Eingänge,2,...,6 eines Wohnblocks Bert wohnt. Für Anna sind alle Eingänge gleichwahrscheinlich. Betrachtet wird das Ereignis E... Bert wohnt im Eingang. a) Man berechne die Wahrscheinlichkeit des Ereignisses E. 2

b) Man berechne die Wahrscheinlichkeit des Ereignisses E, wenn Anna von einem Passanten erfahren hat, dass Bert nicht im Eingang 6 wohnt. Lösung: a) Die Menge der möglichen, gleichberechtigten Ergebnisse des Zufallsexperiments Auswahl eines Einganges ist Ω := {, 2,..., 6}. Damit erhält man E = {}, P (E) = 6. b) Da der Eingang 6 ausgeschlossen wurde, ist die Menge der möglichen, gleichberechtigten Ergebnisse des Zufallsexperimentes Auswahl eines Einganges nun nur noch Ω := {, 2,..., 5}, also ergibt sich P (E) = 5. Man kann bei b) auch von Ω = {, 2,..., 6} ausgehen, muss dann aber beachten, dass den Elementarereignissen {i}, i =,..., 6, jetzt andere Wahrscheinlichkeiten, nämlich { P 6 ({i}) = 5 für i =,..., 5, 0 für i = 6, zugeordnet sind. Diese Wahrscheinlichkeiten nennt man bedingte Wahrscheinlichkeiten unter der Bedingung, dass das Ereignis F... Bert wohnt nicht im Eingang 6 eingetreten ist (d.h., nur noch die Ergebnisse i F zugelassen sind). Um die zugrunde liegende Bedingung deutlich zu machen, verwendet man die Schreibweise P (E F ) anstelle von P 6 (E). Offenbar kann man P (E F ) im Beispiel wie folgt berechnen: P (E F ) = P (E F ) P (F ) = P ({}) P ({,...,5}) = 5. Definition: Es seien [Ω, A,P ] ein Wahrscheinlichkeitsraum, A A, B A mit P (B) > 0. Dann heißt P (A B)) := P (A B) P (B) die bedingte Wahrscheinlichkeit von A unter der Bedingung B. Die bedingte Wahrscheinlichkeit hat die folgenden Eigenschaften: () P ( B) ist ein Wahrscheinlichkeitsmaß auf A (d.h., die Axiome (A) (A3) und damit die aus den Axiomen abgeleiteten Rechenregeln gelten auch für bedingte Wahrscheinlichkeiten). (2) A B = P (A B) = 0. 3

(3) B A P (A B) =. Das folgende Beispiel zeigt noch einmal die beiden Möglichkeiten beim Rechnen mit bedingten Wahrscheinlichkeiten auf. Beim Lösungsvorschlag wird der Wahrscheinlichkeitsraum der Bedingung angepasst. Beim Lösungsvorschlag 2 wird mit einem Wahrscheinlichkeitsraum gearbeitet, in dem alle vorkommenden Ereignisse beschrieben werden können. Dieser Weg ist vor allem dann vorteilhaft, wenn komplexere Aufgaben zu bearbeiten sind. Beispiel: Aus einem Skatspiel werden 2 Karten gezogen. Wie groß ist die Wahrscheinlichkeit dafür, dass die zweite Karte ein Ass ist, wenn zuvor ein Ass gezogen wurde? Die folgenden Ereignisse spielen in der Aufgabenstellung eine Rolle: B... Die erste Karte ist ein Ass. A... Die zweite Karte ist ein Ass.. Lösung: Die nach dem Ziehen der ersten Karte verbliebenen Karten werden durchnummeriert, wobei die Asse die Nummern,2,3 erhalten. Man verwendet die klassische Wahrscheinlichkeitsdefinition mit Ω = {,..., 3}. Für das Ereignis A gibt es dann 3 mögliche und 3 günstige Fälle, somit P (A B)) = 3 3. 2. Lösung: Die Karten seien durchnummeriert, wobei die Asse die Zahlen,2,3,4 erhalten. Die folgenden gleichwahrscheinlichen Versuchsausgänge bei 2 Ziehungen unter Beachtung der Reihenfolge sind möglich: Ω = {(, 2),..., (, 32), (2, ),... (32, 3)}, d.h., es gibt 32 3 mögliche Fälle. In diesem Wahrscheinlichkeitsraum lassen sich nun die Ereignisse A B sowie B und ihre Wahrscheinlichkeiten wie folgt beschreiben: A B = {(, 2)... (4, 3)} card (A B) = 4 3 P (A B) = 4 3 32 3, B = {(, 2)... (, 32), (2, )... (4, 32)} card (B) = 4 3 P (B) = 4 3 32 3. Daraus ergibt sich nach P (A B) = P (A B) P (B) die Wahrscheinlichkeit P (A B) = 3 3. Es gibt Aufgabenstellungen, in denen die Information, dass ein Ereignis B eingetreten ist, nichts an der Wahrscheinlichkeit, mit der ein anderes Ereignis A eintritt, ändert. Zum Beispiel hat beim zweimaligen Würfeln mit einem Würfel das Ergebnis des ersten Wurfs keinen Einfluss auf die Wahrscheinlichkeit, beim 2. Wurf eine 6 zu würfeln. Das gibt Anlass zu der folgenden Definition: 4

Definition: Es seien [Ω,A, P ] ein Wahrscheinlichkeitsraum und A A, B A. Die Ereignisse A und B heißen (voneinander) unabhängig, wenn P (A B) = P (A) P (B) gilt. Man kann zeigen, dass die folgenden Aussagen richtig sind: () Es sei P (B) > 0. Dann sind A, B genau dann unabhängig, wenn P (A B) = P (A) gilt. (2) A, B unabhängig Ā und B unabhängig. Bei mehr als zwei Ereignissen muss man zwei Unabhängigkeitsbegriffe unterscheiden: Definition: Bemerkung: a) Die Ereignisse A,..., A n heißen paarweise unabhängig, wenn P (A i A k ) = P (A i ) P (A k ) i k gilt. b) Die Ereignisse A,..., A n heißen (in ihrer Gesamtheit oder stochastisch) unabhängig, wenn P (A j A jk ) = P (A j ) P (A jk ) für jedes k-tupel (j,..., j k ) mit j < < j k n; k = 2, 3,..., n, gilt. Aus der paarweisen Unabhängigkeit folgt i. Allg. nicht die Unabhängigkeit. Darüber hinaus kann man aus P (A B C) = P (A) P (B) P (C) nicht auf P (A B) = P (A) P (B) schließen, auch nicht im Fall P (C) > 0. 2.6 Die Formel der totalen Wahrscheinlichkeit und die Bayessche Formel Gegeben seien ein Wahrscheinlichkeitsraum [Ω,A,P ] sowie Ereignisse A A; B,..., B n,... A mit Ω = B i und P (B i ) > 0 i, B i B j = für i j. Bekannt sind die Wahrscheinlichkeiten P (A B i ), P (B i ) i. Gesucht werden die Wahrscheinlichkeiten P (A) und/oder P (B i A), i {0,, 2...}. Es gilt: Formel der totalen Wahrscheinlichkeit: P (A) = P (A B i ) P (B i ), Bayessche Formel: P (B i A) = P (A B i) P (B i ) P (A B j )P (B j ) j=. 5

Beweis der Formel der totalen Wahrscheinlichkeit: P (A) = P (A Ω) = P (A ( B i )) = P ( (A B i )) = P (A B i ) = P (A B i )P (B i ). Beweis der Bayesschen Formel: P (B i A) = P (A B i) Beispiel: P (A) = P (A B i) P (B i ) P (A B j ) P (B j ) j=. 3 Maschinen stellen gleiche Teile her. Ihre Anteile an der Gesamtproduktion und die Ausschussquoten sind in der folgenden Tabelle zusammengestellt: Maschine Maschine 2 Maschine 3 Anteil an der Gesamtproduktion 20 % 50 % 30 % Ausschussquote % 4 % 5 %. a) Gesucht ist die Wahrscheinlichkeit dafür, dass ein im Lager zufällig ausgewähltes Teil Ausschuss ist. Zur mathematischen Beschreibung der Aufgabenstellung werden die Ereignisse A... Ein zufällig ausgewähltes Teil ist Ausschuss B i... Ein zufällig ausgewähltes Teil stammt von Maschine i eingeführt. Die gegebenen Anteilswerte und Ausschussquoten liefern dann die Wahrscheinlichkeiten P (B ) = 0, 2; P (B 2 ) = 0, 5; P (B 3 ) = 0, 3; P (A B ) = 0, 0; P (A B 2 ) = 0, 04; P (A B 3 ) = 0, 05. Gesucht ist die Wahrscheinlichkeit P (A). Sie ergibt sich zu P (A) = 3 P (A B i ) P (B i ) = 0, 2 0, 0+0, 5 0, 04+0, 3 0, 05 = 0, 037. b) Ein im Lager zufällig ausgewähltes Teil ist Ausschuss. Wie groß ist die Wahrscheinlichkeit dafür, dass es von Maschine 2 stammt? Gesucht ist die bedingte Wahrscheinlichkeit P (B 2 A). Nach der Bayesschen Formel gilt P (B 2 A) = P (A B 2) P (B 2 ) P (A) = 0,5 0,04 0,037 0, 54. 6

3 Zufallsvariablen und Verteilungen 3. Zufallsgrößen Beispiel 3.: Es seien 3 gleichartige Bauelemente BT, BT 2, BT 3 gegeben, die unabhängig voneinander ausfallen können. Die Wahrscheinlichkeit, mit der ein Bauteil im Zeitintervall [0, T ] ausfällt, betrage 0,. Gesucht ist die Wahrscheinlichkeit der Ereignisse A k... Im Zeitraum [0, T ] fallen genau k Bauteile aus (k = 0,, 2, 3). Als Zufallsexperiment kann man die Betrachtung des Ausfallverhaltens der 3 Bauteile auffassen. Dieses Zufallsexperiment hat die möglichen Ergebnisse ω = (b, b 2, b 3 ), ω 5 = ( b, b 2, b 3 ), ω 2 = (b, b 2, b 3 ), ω 6 = ( b, b 2, b 3 ), ω 3 = (b, b 2, b 3 ), ω 7 = ( b, b 2, b 3 ), ω 4 = (b, b 2, b 3 ), ω 8 = ( b, b 2, b 3 ), wobei z.b. die Abkürzung (b, b 2, b 3 ) das Ergebnis Die Bauteile BT und BT 2 fallen nicht aus; Bauteil BT 3 fällt aus. beschreibt. Ein geeigneter Wahrscheinlichkeitsraum kann wie folgt eingeführt werden: Ω = {ω, ω 2,, ω 8 }, A = P (Ω). Zur Bestimmung des Wahrscheinlichkeitsmaßes werden die Ereignisse B i... Das Bauteil BT i fällt nicht aus definiert. Da die Bauteile unabhängig voneinander ausfallen, muss dann zum Beispiel P ({ω 2 }) = P (B B 2 B 3 ) = P (B ) P (B 2 ) P ( B 3 ) = 0, 9 0, 9 0, = 0, 08 gelten. Auf diese Weise ergibt sich die folgende Tabelle: Ergebnis ω ω 2 ω 3 ω 4 ω 5 ω 6 ω 7 ω 8 P ({ω i }) 0, 729 0, 08 0, 08 0, 009 0, 08 0, 009 0, 009 0, 00. Die Wahrscheinlichkeiten P (A k ), k = 0,, 2, 3, können mit Hilfe dieser Tabelle berechnet werden, indem die Ereignisse A k als Vereinigungen geeigneter {ω i } dargestellt werden, z.b. P (A 2 ) = P ({ω 4, ω 6, ω 7 }) = P ({ω 4 }) + P ({ω 6 }) + P ({ω 7 }) = 3 0, 009 = 0, 0027. 7

Im Folgenden soll noch ein weiterer Weg zur Bestimmung der P (A k ) aufgezeigt werden. Dazu wird eine Funktion X Ω {0,, 2, 3} R eingeführt, die jedem Element aus Ω die Anzahl der ausfallenden Bauteile zuordnet. Mit Hilfe dieser Funktion können die betrachteten Ereignisse und ihre Wahrscheinlichkeiten folgendermaßen beschrieben werden: A k = {ω : X(ω) = k} =: (X = k) und P (A k ) = P ({ω : X(ω) = k}) =: P (X = k). Da die Wahrscheinlichkeiten P ({ω i }) bekannt sind, ergibt sich P (X = 0) = P ({ω }) = 0, 729, P (X = ) = P ({ω 2 } {ω 3 } {ω 5 }) = P ({ω 2 }) + P ({ω 3 }) + P ({ω 5 }) = 3 0, 08 = 0, 243, P (X = 2) = P ({ω 4 } {ω 6 } {ω 7 }) = P ({ω 4 }) + P ({ω 6 }) + P ({ω 7 }) = 3 0, 009 = 0, 027, P (X = 3) = P ({ω 8 }) = 0, 00. Ausgehend von diesen Wahrscheinlichkeiten kann ein Wahrscheinlichkeitsmaß P X auf der Menge Ω X := {0,, 2, 3} der für X möglichen Werte, versehen mit der Potenzmenge als σ-algebra, definiert werden: P X ({k}) := P (X = k) = P ({ω : X(ω) = k}). Die betrachtete Funktion X ist eine sogenannte Zufallsgröße, und die Werte P X ({k}), k = 0,, 2, 3, beschreiben ihre Wahrscheinlichkeitsverteilung. Für die Berechnung von P (A k ) und der Wahrscheinlichkeiten von Verknüpfungen der Ereignisse A k (z.b. Mindestens 2 Bauteile fallen aus ) ist die Kenntnis der Wahrscheinlichkeiten P (X = k) = P X ({k}), k = 0,, 2, 3, ausreichend. Bemerkungen:.) Man kann X auch als Abbildung in die Menge R, versehen mit der σ-algebra B, die von allen Intervallen und Halbachsen erzeugt wird, auffassen. Die betrachtete σ-algebra B heißt σ-algebra der Borel-Mengen. Ausgehend von P X kann dann ein Wahrscheinlichkeitsmaß P X auf B durch P X (A) = P X (A {0,, 2, 3}), A B, definiert werden. In analoger Weise kann man vorgehen, wenn Abbildungen in eine andere Teilmenge der reellen Zahlen betrachtet werden. Im Interesse einer einheitlichen Beschreibungsweise erklärt man 8

Definition: Definition: Zufallsgrößen daher in der Regel als Abbildungen in R. Um ausgehend von P eine Wahrscheinlichkeitsverteilung P X definieren zu können, müssen die Urbilder der Elemente von B zu A gehören. Diese Eigenschaft nennt man (A, B )-Messbarkeit. 2.) Manchmal ist es nötig, Abbildungen X in allgemeinere Räume als [R, B ] zu betrachten. Man spricht dann allgemein von Zufallsvariablen. 3.) Es wäre möglich, im betrachteten Beispiel gleich mit dem Wahrscheinlichkeitsraum [Ω X, P(Ω X ), P X ] zu arbeiten. Müssen aber weitere Ereignisse (die sich z.b. auf die Nummer des ausgefallenen Bauteils beziehen können) in die Berechnungen einbezogen werden, wäre es erforderlich, einen neuen Wahrscheinlichkeitsraum einzuführen. Deshalb ist es günstig, einen hinreichend allgemeinen Wahrscheinlichkeitsraum im Hintergrund zu haben und darauf aufbauend, Abbildungen in geeignete Räume (z.b. R, R n ) zu betrachten. Eine Funktion X Ω R, die die Eigenschaft besitzt, dass die Urbilder von Borel-Mengen zu A gehören, heißt Zufallsgröße. Durch die Vorschrift P X (B) := P (X (B)) = P ({ω : X(ω) B}), B B, wird auf B ein Wahrscheinlichkeitsmaß P X erzeugt (induziert). P X heißt die Wahrscheinlichkeitsverteilung (oder kurz Verteilung) der Zufallsgröße X. 3.2 Die Verteilungsfunktion Definition: Die Funktion F X R [0, ], die durch F X (x) := P (X x) erklärt ist, heißt Verteilungsfunktion der Zufallsgröße X. Satz: Die Verteilung P X ist durch F X eindeutig bestimmt. Fortsetzung des Beispiels 3.: Die Zufallsgröße X bezeichne wieder die Anzahl der ausfallenden Bauteile. Die Wahrscheinlichkeiten P (X = 3) = 0, 00, P (X = 2) = 0, 027, P (X = ) = 0, 243, P (X = 0) = 0, 729 sind gegeben. Es soll die Verteilungsfunktion von X bestimmt werden. Man erhält 9

x < 0 : F X (x) = P (X x) = P {ω : X(ω) x} = P ( ) = 0, 0 x < : F X (x) = P (X x) = P (X = 0) = 0, 729, x < 2 : F X (x) = P (X = 0) + P (X = ) = 0, 729 + 0, 243 = 0, 972, 2 x < 3 : F X (x) = 0, 729 + 0, 243 + 0, 27 = 0, 999, x 3 : F X (x) =. Eine Verteilungsfunktion hat folgende Eigenschaften:.) lim x F X(x) = 0, lim F X(x) =. x + 2.) F X (x) ist monoton wachsend, d.h. F X (x ) F X (x 2 ) für x < x 2. 3.) F X (x) ist an jeder Stelle x 0 (mindestens) rechtsseitig stetig, d.h. lim F X(x) = F X (x 0 ). x x 0 +0 Die folgenden Rechenregeln erweisen sich häufig als nützlich: () P (a < X b) = F X (b) F X (a), denn F X (b) = P ((X a) (a < X b)) = P (X a) + P (a < X b), (2) P (X = a) = lim P (a h < X a) = F X(a) lim F X(a h), h 0+0 h 0+0 (3) P (X > a) = P (X a) = F X (a), (4) P (a X b) = P (a < X b) + P (X = a), (5) P (a X < b) = P (a X b) P (X = b). 3.3 Diskrete und stetige Zufallsgrößen Definition: Eine Zufallsgröße X heißt diskret (verteilt), wenn sie höchstens abzählbar viele Werte x i annehmen kann. Die Wahrscheinlichkeitsverteilung einer diskreten Zufallsgröße X ist durch die Angabe der möglichen Werte x i und ihrer Wahrscheinlichkeiten P (X = x i ) =: p i eindeutig bestimmt. Dabei muss p i = erfüllt sein. Es gilt P (X A) = P (X = x i ) = p i, {i:x i A} {i:x i A} F X (x) = P (X x) = P (X = x i ) = Definition: {i:x i x} p i {i:x i x} (Treppenfunktion). Eine Zufallsgröße X heißt stetig (verteilt), wenn es eine nichtnegative Funktion f X derart gibt, dass F X (x) = x f X (t)dt gilt. Die Funktion f X R R + heißt Dichte der Zufallsgröße X. 20

Beispiel für eine Dichte und die dazugehörige Verteilungsfunktion: {, falls 0 t, x 0, falls x 0, f X (t) = F 0 sonst. X (x) = f X (t)dt = x, falls 0 < x, 0, falls x >. Für stetige Zufallsgrößen gelten die folgenden Beziehungen: () f X (t)dt =. (2) F X ist stetig. (3) f X (x) = d dx F X(x) in allen Stetigkeitspunkten x von f X. (4) P (a < X b) = F (b) F (a) = b a f X (t)dt (5) P (X = x 0 ) = 0, denn P (X = x 0 ) = lim F X(x 0 + h) F X (x 0 ) = 0. h 0+0 (6) P (X A) = f X (t)dt. Bemerkung: t A Dichtefunktionen, die sich in höchstens endlich vielen Punkten unterscheiden, beschreiben dieselbe Verteilung. 3.4 Erwartungswert und Varianz einer Zufallsgröße Definition: a) Ist X eine diskrete Zufallsgröße mit den Werten x i und den Einzelwahrscheinlichkeiten p i = P (X = x i ) i =, 2,..., und gilt x i p i <, so heißt E(X) := x i p i Erwartungswert der Zufallsgröße X. b) Ist X eine stetige Zufallsgröße mit der Dichtefunktion f X und gilt t f X (t)dt <, so heißt E(X) := tf X (t)dt Erwartungswert der Zufallsgröße X. 2

Falls x i p i = bzw. t f X (t)dt = gilt, existiert E(X) nicht. Die Forderung nach Existenz des Erwartungswertes wird häufig durch E( X ) < ausgedrückt. Definition: var(x) := E[(X E(X)) 2 ] heißt Varianz (oder Streuung) der Zufallsgröße X, falls der Erwartungswert von (X E(X)) 2 existiert. var(x) wird als Standardabweichung bezeichnet. Bemerkung: Anstelle von var(x) wird auch die Schreibweise D 2 (X) verwendet. Häufig wird der Erwartungswert einer Zufallsgröße Y der Gestalt Y = g(x) benötigt, wobei die Verteilung der Zufallsgröße X bekannt ist. E(g(X)) lässt sich (außer über die Berechnung der Verteilung von Y ) auf folgende Weise bestimmen: g(x i ) p i, falls X diskret verteilt ist, E(Y ) = E(g(X)) = g(t)f X (t)dt, falls X stetig verteilt ist. Bemerkung: Damit Y = g(x) wieder eine Zufallsgröße darstellt, muss g folgende Eigenschaft haben: g (B) = {x R g(x) B} B B B. Diese Eigenschaft heißt Borel-Messbarkeit. Sie ist für stetige Funktionen erfüllt. Beispiel { falls 0 t, X besitze die Dichtefunktion f X (t) = 0 sonst. Dann gilt E(X 2 ) = t 2 [ ] f X (t)dt = t 2 dt = t 3 3 = 0 3. Wichtige Aussagen und Rechenregeln: X und Y seien Zufallsgrößen, und die im Folgenden auftretenden Erwartungswerte sollen existieren. 0 22

() E(aX + b) = ae(x) + b, a R, b R, denn es gilt E(X) { }} { { }} { E(aX + b) = (ax i + b)p i = ax i p i + bp i = a x i p i +b bzw. E(aX + b) = (at + b)f X (t)dt = a tf X (t)dt + b p i f X (t)dt. (2) E(X + Y ) = E(X) + E(Y ) (Die Begründung erfolgt im Abschnitt Zufallsvektoren ). (3) var(x) = E(X 2 ) (E(X)) 2, denn var(x)= E[(X E(X)) 2 ] = E(X 2 2XE(X) + (E(X)) 2 ) = E(X 2 ) 2E(X) E(X) + (E(X)) 2 = E(X 2 ) (E(X)) 2. (4) var(ax + b) = a 2 var(x), a, b R. (5) var(x) = 0 a R : P (X = a) =. (6) varx E(X c) 2 c R. (7) Tschebyschevsche Ungleichung: Es sei X eine Zufallsgröße, deren Varianz existiert. Dann gilt für jedes ε > 0 P ( X E(X) ε) var(x) ε 2. Beweis : Der Beweis wird hier nur für eine stetige Zufallsgröße mit Dichtefunktion f angegeben. Im diskreten Fall kann der Beweis analog erfolgen. Zur Abkürzung wird µ := E(X) gesetzt. Dann erhält man var(x) = E[(X E(X)) 2 ] = (x µ) 2 f(x)dx (x µ) 2 f(x)dx x µ ε ε 2 f(x)dx = ε 2 f(x)dx =ε 2 P ( X µ ε). x µ ε 3.5 Spezielle Verteilungen 3.5. Binomialverteilung x µ ε Eine Zufallsgröße X heißt binomialverteilt mit den Parametern n (n =, 2,...) und p (0 < p < ), wenn X die Werte 0,, 2,..., n mit den Wahrscheinlichkeiten ( ) n P (X = k) = p k ( p) n k (k = 0,,..., n) k annimmt. 23

Es gilt E(X) = np, var(x) = np( p). Beweis der Gleichung für den Erwartungswert: E(X) = n k=0 = np n Bemerkung: k ( ) n k p k ( p) n k = np n k= ( n k k= ) p k ( p) (n ) (k ) = (n )... (n k+) (k )! p (k ) ( p) n k l:=k n np l=0 ( n ) l p l ( p) n l = np. Eine binomialverteilte Zufallsgröße mit p und n = heißt auch Bernoulli-verteilt (zweipunktverteilt auf 0 und ). Das im Folgenden dargestellte Modell kann häufig ausgenutzt werden, um eine Binomialverteilung zu erkennen. Es wird Bernoulli-Schema genannt. Ausgangspunkt ist ein Zufallsexperiment, bei dem nur unterschieden wird, ob ein Ereignis A eintritt oder nicht. Die Wahrscheinlichkeit P (A) muss bekannt oder (z.b. über die klassische Wahrscheinlichkeitsdefinition) berechenbar sein. Das Zufallsexperiment wird n-mal unabhängig voneinander wiederholt. Die Zufallsgröße X bezeichne die absolute Häufigkeit von A in den n Wiederholungen des Zufallsexperimentes. Es wird gezeigt, dass die Verteilung von X gerade eine Binomialverteilung darstellt. Dies geschieht mit Hilfe der Ereignisse A i... A tritt im i-ten Versuch ein. Es gilt P (X = k) = P ( = (i,...,i k ) C k n (i...i k ) C k n (A i A i2 A ik ( P (A i A ik ( j {...n}\{i,...i k } j {...n}\{i...i k } Ā j )). Ā j ))) Dabei bezeichnet Cn k die Menge der Kombinationen ohne Wiederholung von n Elementen zur k-ten Klasse (d.h. die Menge der Möglichkeiten, k Elemente aus einer Klasse von n Elementen auszuwählen). Es gibt ( n k) Möglichkeiten, k Elemente aus einer Menge von n Elementen auszuwählen. Damit und der Beziehung P (A i A i2 A ik ( j {...n}\{i...i k } Ā j )) = P (A i ) P (A ik ) = p k ( p) n k j {...n}\{i...i k } P (Āj) 24

ergibt sich schließlich P (X = k) = ( n k) p k ( p) n k. Aus der Verteilung der absoluten Häufigkeit kann die Verteilung der relativen Häufigkeit abgeleitet werden: Es sei X die absolute Häufigkeit eines Ereignisses A in n Versuchen. Die Zufallsgröße H n := X n heißt dann relative Häufigkeit von A in n Versuchen. Es gilt P (H n = k n ) = P (X = k) = ( n k) p k ( p) n k, E(H n ) = E( X n ) = n E(X) = nnp = p, var(h n ) = var( X n ) = np( p) = p( p) n 2 n. 3.5.2 Hypergeometrische Verteilung Die hypergeometrische Verteilung steht in enger Beziehung zum Urnenmodell ohne Zurücklegen. Eine Zufallsgröße X heißt hypergeometrisch verteilt mit den Parametern N, M und n (0 M N, 0 n N), wenn sie die Werte k mit max{0, n + M N} k min{m, n} mit den Einzelwahrscheinlichkeiten ( M )( N M ) k P (X = k) = ( N n) n k annimmt. Es gilt E(X) = n M N M und var(x) = n N ( M N ) N n N. Ein wichtiges Anwendungsgebiet ist die statistische Qualitätskontrolle. Satz: Beweis: Für N und M N p konvergieren die Einzelwahrscheinlichkeiten der hypergeometrischen Verteilung gegen die der Binomialverteilung mit den Parametern n und p. ( M k )( N M n k ) = ( N n) n! M(M ) (M k+) (N M)(N M ) (N M (n k)+) k!(n k)! N(N ) (N n+) = ( ) M n N k = ( ) M n k M N M k+ N M N N N N N N N n+ N N M N M (n k)+ N N N ( M N N ) ( M N k N ) ( M N ( N )( (M+) N ) ( n+ N ) M+n k ) ( ) N Die Faktoren im Nenner des Bruches konvergieren alle gegen. Die 25

ersten k Faktoren im Zähler des Bruches konvergieren gegen p; die übrigen n k Faktoren konvergieren gegen p. Also ergibt sich ( M lim N, M N k )( N M n k ) ( N n) = ( n k) p k ( p) n k. 3.5.3 Poisson-Verteilung Eine Zufallsgröße X heißt Poisson-verteilt mit dem Parameter λ > 0, wenn X die Werte 0,, 2,... mit den Wahrscheinlichkeiten annimmt. P (X = k) = λk k! e λ (k = 0,, 2 ) Es gilt: E(X) = λ, var(x) = λ. Die erste Gleichung ergibt sich wie folgt: E(X) = kp k = k λk k! e λ = λ k=0 k=0 k= λ k (k )! e λ = l=k λ l=0 λ l l! e λ = λ. Die Poisson-Verteilung findet unter anderem Anwendung in der Warteschlangentheorie (Anzahl der Kunden, die in einer festen Zeiteinheit in einem Bedienungssystem ankommen) und der Zuverlässigkeitstheorie (Anzahl von Ausfällen in einer festen Zeiteinheit). Satz (Poisson 837): Es sei np n = λ = const. Dann konvergieren die Einzelwahrscheinlichkeiten der Binomialverteilung mit wachsendem n gegen die der Poisson-Verteilung, d.h. lim n ( n k Beweis: Es gilt ( lim n ) n k p k n ( p n ) n k = lim )p kn( p n ) n k = λk k! e λ. n ( n k ) ( λ n )k ( λ n )n k λ = lim k n k! ( λ n )n n ( λ n )k n n n n k+ n = λk k! e λ. Beispiel X bezeichne die Anzahl der Personen aus einem vorgegebenen Personenkreis von 500 Personen, die an einem bestimmten Tag Geburtstag haben. Es wird angenommen, dass alle Tage eines Jahres gleichberechtigt sind, d.h., die Wahrscheinlichkeit dafür, dass eine zufällig ausgewählte Person an einem vorgegebenen Tag des Jahres 26

Geburtstag hat, sei 365. Die Zufallsgröße X ist dann binomialverteilt mit den Parametern n = 500 und p = 365. Die folgende Tabelle gibt gerundete Einzelwahrscheinlichkeiten dieser Binomialverteilung und der approximierenden Poisson-Verteilung mit dem Parameter λ = 500 365 an. Man beachte, dass die X nur Werte zwischen 0 und 500 annehmen kann, während die Einzelwahrscheinlichkeiten der Poisson-Verteilung für jedes n {0,,...} größer als 0 sind. k 0 2 3 4 5 6... Binomialvert. 0,2537 0,3484 0,2385 0,089 0,0872 0,00 0,0023... Poisson-Vert. 0,254 0,348 0,2385 0,089 0,0373 0,002 0,0023... 3.5.4 Weitere diskrete Verteilungen Weitere wichtige diskrete Verteilungen sind die geometrische Verteilung P (X = k) = ( p)p k, k = 0,, 2..., (0 < p < ) und die negative Binomialverteilung P (X = k) = ( ) v k ( p) k ( p) v, 0,, 2... (0 < p <, v > 0). k = Von einer Einpunktverteilung spricht man im Fall P (X = x 0 ) =. 3.5.5 Gleichmäßige stetige Verteilung Eine Zufallsgröße X heißt gleichmäßig stetig verteilt auf dem Intervall [a, b], wenn sie die Dichte { f X (x) = b a für a x b, 0 sonst besitzt. Aufgrund der Gestalt der Dichtefunktion spricht man auch von einer Rechteckverteilung und verwendet die abkürzende Schreibweise X R[a, b]. Es gilt E(X) = a+b (b a)2 2, var(x) = 2. Die erste Gleichung ergibt sich wie folgt b t E(X) = tf X (t)dt = b a dt = b a [ t2 2 ]b a = b2 a 2 2(b a) = a+b 2. 3.5.6 Exponentialverteilung a Eine Zufallsgröße X heißt exponentialverteilt mit dem Parameter λ > 0, wenn sie die Dichte { 0 für x < 0, f X (x) = λe λx für x 0 27

besitzt. { Es gilt F X (x) = 0 für x < 0 e λx für x 0, E(X) = λ, var(x) = λ 2. Anwendungen findet die Exponentialverteilung unter anderem in der Warteschlangentheorie (Bedienungszeit, Zeit zwischen der Ankunft zweier Kunden) und der Zuverlässigkeitstheorie (Lebensdauer). Das folgende Beispiel soll deutlich machen, unter welchen Voraussetzungen die Exponentialverteilung gut zur Beschreibung der Lebensdauer eines Gerätes geeignet ist, und gleichzeitig einige Grundbegriffe aus der Zuverlässigkeitstheorie bereitstellen. Beispiel Die Zufallsgröße X bezeichne die Lebensdauer eines technischen Gerätes. Es ist bekannt, dass das Gerät bereits t Zeiteinheiten arbeitet. Welche Verteilung hat die verbleibende Lebensdauer des Gerätes? Es wird angenommen, dass die Lebensdauer X stetig verteilt mit der Verteilungsfunktion F X ist. Als Zuverlässigkeit (Überlebenswahrscheinlichkeit) wird die Funktion R X bezeichnet, die durch R X := P (X x) = F X (x) definiert ist. Sei h > 0 beliebig. Dann gilt für ein t mit P (X t) > 0 P (X t+h X t) = P (t X t + h) P (X t) = F X(t + h) F X (t) F X (t) = R X(t) R X (t + h). R X (t) Die im Folgenden definierte Funktion λ heißt Ausfallrate: λ(t) := P (X t+h X t) F lim h 0+0 h = lim X (t+h) F X (t) h 0+0 h F X (t) = F X (t) f X(t) = (R X) (t) R X (t). Die Wahrscheinlichkeit für den Ausfall eines Gerätes, das bereits t Zeiteinheiten arbeitet, in einem kurzen Zeitintervall (t, t + h] ist also näherungsweise gleich λ(t) h. Die Ausfallrate ist häufig bekannt, z.b. aufgrund von Schätzungen. Sie hat in der Regel als Funktion von t einen charakteristischen Verlauf (Badewannenkurve). Im Weiteren soll deshalb R(t) := R X (t) aus einer bekannten Ausfallrate ermittelt werden. Die Gleichung R (t) R(t) = λ(t) (mit der Anfangsbedingung R(0) = ) 28

ist eine Differentialgleichung mit trennbaren Variablen. Es wird nun die zusätzliche Annahme λ(t) = λ = const. getroffen. Von dieser Annahme kann man im mittleren Bereich der Badewannenkurve ausgehen. R kann dann wie folgt berechnet werden: R (t) R(t) = λ dr R = λdt ln R = λt + c (R > 0) R(t) = C e λt. Wegen R(0) = erhält man R(t) = e λt und F X (t) = e λt (t 0), d.h., die Lebensdauer X besitzt eine Exponentialverteilung. Weiterhin erhält man für h 0 P (X t + h X t) = ( e λ(t+h) ) ( e λt ) e λt = e λh, die verbleibende Lebensdauer besitzt also die gleiche Verteilung wie die Lebensdauer X. Diese Eigenschaft der Exponentialverteilung wird Gedächtnislosigkeit genannt. Bemerkung: Für die Ausfallrate λ(t) = α β t β (α > 0, β > 0) ergibt sich eine Weibull-Verteilung. Die Klasse der Weibull-Verteilungen enthält die Exponentialverteilung als Spezialfall (β = ). 3.5.7 Normalverteilung Eine Zufallsgröße X heißt normalverteilt mit den Parametern µ und σ 2 (µ R, σ > 0) (in Kurzschreibweise X N(µ, σ 2 )), wenn sie die Dichte besitzt. Es gilt E(X) = µ, var(x) = σ 2. f X (x) = 2πσ e (x µ)2 2σ 2 (x R ) Die Verteilungsfunktionen der Normalverteilungen sind nicht geschlossen angebbar. Ihre Werte können aber aus den Werten der Verteilungsfunktion der 29

sogenannten standardisierten Normalverteilung N(0, ), für die Tabellen zur Verfügung stehen, berechnet werden. Für Dichte und Verteilungsfunktion der standardisierten Normalverteilung gibt es spezielle Bezeichnungen: Dichte: ϕ(x) = 2π e x2 2, Verteilungsfunktion: Φ(x) = x 2π e t2 2 dt. Da ϕ eine gerade Funktion ist, gilt ϕ(x) = ϕ( x), Φ( x) = Φ(x) (Φ ist deshalb i. Allg. nur für x 0 tabelliert), Φ(0) = 2. Satz: X N(µ, σ 2 ) X µ σ N(0, ). Beweis: Es seien X N(µ, σ 2 ), Y := X µ σ. Dann gilt F Y (x) = P ( X µ σ x) = P (X σx + µ) = F X (σx + µ) = σx+µ 2πσ e (t µ)2 2σ 2 dt = x 2π e s2 2 ds = Φ(x). Die umgekehrte Richtung kann durch analoge Überlegungen gezeigt werden. Zur Berechnung von P (X t), X N(µ, σ 2 ), kann man nun folgendermaßen vorgehen: P (X t) = P X µ t µ ( ) t µ } {{ σ } σ = Φ. σ N(0,) Beispiel Es sei X N(µ, σ 2 ). Wie groß ist die Wahrscheinlichkeit dafür, dass X einen Wert zwischen µ σ und µ + σ (d.h. innerhalb der σ Grenzen ) annimmt? P (µ σ X µ + σ) = P ( X µ σ ) = Φ() Φ( ) = 2Φ() 0, 6827. Weiterhin gilt: P ( X µ 2σ) 0, 9545, P ( X µ 3σ) 0, 9973. Die Normalverteilung entsteht beispielsweise durch Überlagerung (Addition) sehr vieler voneinander unabhängiger Einzeleffekte ( zentraler Grenzwertsatz) und eignet sich gut zur Beschreibung von Messfehlern. 30

3.5.8 Cauchy-Verteilung Die Zufallsgröße X heißt Cauchy-verteilt, wenn sie die Dichte besitzt. f X (x) = π + x 2 (x R ) (Es handelt sich hierbei um einen Spezialfall der Funktionen f X (x) = π λ λ 2 +(x µ) 2, die ebenfalls als Dichten Cauchy-verteilter Zufallsgrößen bezeichnet werden.) Für die Cauchy-Verteilung gilt x dx = 2 +x 2 π 0 π x dx = lim +x 2 A π [ln( + x2 )] A 0 =, d.h., der Erwartungswert existiert nicht. Die Cauchy-Verteilung besitzt praktische Bedeutung vor allem in der Physik. Sie heißt dort auch Breit-Wigner-Verteilung. 3.5.9 Weitere wichtige stetige Verteilungstypen Die Weibull-Verteilung ist eine Lebensdauerverteilung, die die Exponentialverteilung als Spezialfall enthält. Die logarithmische Normalverteilung entsteht durch multiplikative Überlagerung vieler unabhängiger Einzeleffekte. Sie hat Bedeutung unter anderem als Lebensdauerverteilung. Die Erlang-Verteilung entsteht als Summe von unabhängigen, identisch exponentialverteilten Zufallsgrößen und ist vor allem in der Warteschlangentheorie von Bedeutung. Die Pareto-Verteilung wird in der Ökonomie und im Versicherungswesen benötigt. Die Prüfverteilungen χ 2 -Verteilung, t-verteilung und F -Verteilung werden in der mathematischen Statistik, zum Beispiel beim Testen von Hypothesen, benötigt. Sie werden im 2. Teil des Vorlesungsskriptes erläutert. 3.6 Die Verteilung einer Funktion einer Zufallsgröße Gegeben seien eine Zufallsgröße X mit der Verteilungsfunktion F X und eine Borel-messbare Funktion g R R. Gesucht ist die Verteilung der Zufallsgröße Y := g(x). Beispiel Es seien Y = ax + b, a, b R, a 0. α) Im Fall a > 0 gilt F Y (y) = P (ax + b y) = P (X y b a ) = F X ( y b a ). 3

β) Im Fall a < 0 gilt F Y (y) = P (ax + b y) = P (X y b a ) = F X ( y b y b a ) + P (X = a ). Falls X stetig verteilt ist, ist auch Y stetig verteilt, und es folgt f Y (y) = f X ( y b a ) a im Fall α, f Y (y) = f X ( y b a ) a im Fall β. Diese beiden Fälle können zu f Y (y) = f X ( y b werden. a ) a zusammengefasst Im Folgenden sei g stetig differenzierbar, und es gelte g (t) 0 werden wiederum zwei Fälle unterschieden: t R. Es α) Es sei g (t) > 0 t. Dann gilt für y g(r ) F Y (y) = P (Y y) = P (g(x) y) = P (X g (y)) = F X (g (y)). β) Es sei g (t) < 0 t. Dann gilt für y g(r ) F Y (y) = P (g(x) y) = P (X g (y)) = F X (g (y)) + P (X = g (y)). Ist X stetig verteilt, folgt weiterhin α) f Y (y) = f X (g (y)) (g (y)) β) f Y (y) = f X (g (y)) (g (y)) } = f X (g (y)) (g (y)) für y g(r ) Für alle anderen Werte von y hat die Dichtefunktion den Wert 0. Beispiel Gegeben sei eine stetig verteilte Zufallsgröße X. Gesucht sind Verteilungsfunktion und Dichtefunktion von Y = X 2. Für y 0 folgt F Y (x) = 0. Für y > 0 ergibt sich F Y (y) = P (X 2 y) = P ( X y) = P ( y X y) = F X ( x) F X ( x) und f Y (y) = f X ( y) 2 y + f X( y) 2 y = 2 y (f X( y) + f X ( y)). 3.7 Weitere Kenngrößen von Verteilungen. Momente m k := E(X k ) heißt - im Falle der Existenz - (gewöhnliches) Moment k-ter Ordnung. µ k := E((X E(X)) k ) heißt - im Falle der Existenz - zentrales Moment k-ter Ordnung. 32

Für die Normalverteilung existieren alle Momente. 2. Quantile Sei p (0, ). Die Zahl Q p := sup{x R : F X (x) < p} = inf{x R : F X (x) p} heißt Quantil der Ordnung p der Zufallsgröße X. Das Quantil der Ordnung 2 wird als Median m der Zufallsgröße X bezeichnet. Falls F X 3. Modalwert existiert, gilt Q p = F X (p). Der Modalwert einer Zufallsgröße ist der Wert, für den die Einzelwahrscheinlichkeit im diskreten Fall bzw. die Dichtefunktion im stetigen Fall ein lokales Maximum annimmt. Hat eine Verteilung nur einen Modalwert, heißt sie unimodal. 4. Schiefe (skewness) Die Kenngröße γ = E(X E(X))3 (var(x)) 3 heißt Schiefe der Zufallsgröße X bzw. ihrer Verteilung (Definition nach Charlier). Für bezüglich E(X) symmetrische Verteilungen gilt γ = 0. Die Schiefe dient zur Charakterisierung der Asymmetrie einer Verteilung. 5. Exzess (kurtosis) Die Kenngröße γ 2 := E(X E(X))4 (var(x)) 2 heißt Exzess einer Zufallsgröße bzw. ihrer Verteilung. Eine normalverteilte Zufallsgröße hat den Exzess 3. Sowohl Schiefe als auch Exzess werden in der Praxis dazu häufig herangezogen, um die Abweichung einer Verteilung von der Normalverteilung zu beurteilen. 3.8 Mehrdimensionale Zufallsvariablen Es ist häufig notwendig, mehrere Komponenten einer zufälligen Erscheinung, die zusammenhängen, gleichzeitig in die Betrachtungen einzubeziehen. Definition: Ein geordnetes p-tupel X = (X,..., X p ) T von Zufallsgrößen heißt p-dimensionale Zufallsvariable (auch Zufallsvektor, zufälliger Vektor). Zufallsvektoren werden im Folgenden als Spaltenvektoren aufgefasst. 33

3.8. Diskrete Zufallsvektoren Die Verteilung von diskreten Zufallsvektoren X = (X, X p ) T kann durch die Einzelwahrscheinlichkeiten p i i 2 i p = P (X = x i, X 2 = x i2,..., X p = x ip ) i =,2...,...,i p=,2... charakterisiert werden. Es gilt P (X A) = Beispiel D: {i,...,i p:(x i,...,x ip ) A} p i i 2...i p. Es seien p = 2, X = (X, Y ) T. Die folgende Tabelle enthält die Einzelwahrscheinlichkeiten P (X = x i, Y = y j ) sowie die Zeilen- und Spaltensummen. (Die Bedeutung der Zeilen- und Spaltensummen wird unten erläutert.) X Y y = 2 y 2 = 3 y 3 = 4 x = 6 x 2 = 2 2 x 3 = 3 2 2 6 2 2 p. = 3 2 p 2. = 3 6 p 3. = 3 p. = 3 p.2 = 3 p.3 = 3 Die Verteilung von X kann nun wie folgt bestimmt werden: P (X = x i ) = P (X = x i, Y < ) = P ((X = x i ) 3 (Y = y j )) j= = P ( 3 (X = x i, Y = y j )) = 3 P (X = x i, Y = y j ) =: p i. j= j= Analog ergibt sich aus den Spaltensummen P (Y = y j ) = 3 P (X = x i, Y = y j ) = p.j. (Zeilensummen). Aus den Zeilen- bzw. Spaltensummen kann also die Verteilung von X bzw. die Verteilung von Y abgelesen werden. Die Verteilungen von X und Y heißen auch Randverteilungen des Zufallsvektors (X, Y ) T. Die Verteilungsfunktion eines Zufallsvektors hat folgende Eigenschaften (auch im stetigen Fall): () lim t i F X (t,..., t p ) = 0 i {, 2,..., p}. lim F t i + X (t,..., t p ) =. i {,...,p} (2) F X ist monoton wachsend in jeder Variablen. 34