DWT 6.1 Die Ungleichungen von Markov und Chebyshev 157/467 Ernst W. Mayr

Ähnliche Dokumente
Satz 61 (Chebyshev-Ungleichung)

Anzahl der Versuche, bei denen A eingetreten ist : Anzahl aller Versuche Mit Hilfe des obigen Gesetzes der groen Zahlen folgt Z = Pr[jZ pj ] ";

Denition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte

Dichte der geometrischen Verteilung

Dichte der geometrischen Verteilung

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].

Korollar 116 (Grenzwertsatz von de Moivre)

Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal

Zentralübung Diskrete Wahrscheinlichkeitstheorie

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

p k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 =

Die Markov sche Ungleichung

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

68 Abschätzungen für Abweichungen vom Erwartungswert

3. Kombinatorik und Wahrscheinlichkeit

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten

Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das

Die Probabilistische Methode

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

Wahrscheinlichkeitstheorie und Statistik

Beispiel Zusammengesetzte Zufallsvariablen

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

Grundbegriffe der Wahrscheinlichkeitsrechnung

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Denition 101 Zwei kontinuierliche Zufallsvariablen X und Y heien unabhangig, wenn

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Vorlesung 5a. Die Varianz

Diskrete Strukturen II

Beweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n)

Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =.

Satz 105 Seien X und Y unabhangige kontinuierliche Zufallsvariablen. Fur die Dichte von Z := X + Y gilt f Z (z) = f X (x) f Y (z x) d x :

Grundbegriffe der Wahrscheinlichkeitsrechnung

i Pr(X = i). Bsp: Sei X die Summe zweier Würfe eines Würfels. Dann gilt E[X] =

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Satz 16 (Multiplikationssatz)

Diskrete Zufallsvariable

Vorlesung 5a. Varianz und Kovarianz

13 Grenzwertsätze Das Gesetz der großen Zahlen

Paarweise Unabhängigkeit vs. Unabhängigkeit

Kapitel III Selektieren und Sortieren

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

Wirtschaftsmathematik

4 Diskrete Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Probabilistische Algorithmen

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung

Mathematik für Informatiker III im WS 05/06 Musterlösung zur 4. Übung

Satz 16 (Multiplikationssatz)

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Diskrete Wahrscheinlichkeitstheorie

Sprechstunde zur Klausurvorbereitung

Stochastik Aufgaben zum Üben: Teil 2

Ü b u n g s b l a t t 10

Kapitel I Diskrete Wahrscheinlichkeitsräume

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

5 Erwartungswerte, Varianzen und Kovarianzen

Wird ein Bernoulli- Versuch, bei dem die Trefferwahrscheinlichkeit p = 0,2 ist, n = 40 mal durchgeführt, dann erwarten wir im Mittel 8 Treffer.

Varianz und Kovarianz

Modelle diskreter Zufallsvariablen

2 Zufallsvariable und Verteilungsfunktionen

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie

Stochastik Wiederholung von Teil 1

Wichtige Klassen reeller Funktionen

Kapitel 10 VERTEILUNGEN

1 Stochastische Konvergenz 2

Probabilistische Pfadsuche

KAPITEL 5. Erwartungswert

1.3 Wiederholung der Konvergenzkonzepte

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/476 c Ernst W. Mayr

Statistische Methoden

DWT 1 Grundlagen 17/476 c Ernst W. Mayr

Statistik I für Betriebswirte Vorlesung 3

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Vorlesung 7a. Der Zentrale Grenzwertsatz

Klausur: Diskrete Strukturen I

70 Wichtige kontinuierliche Verteilungen

Diskrete Strukturen I

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec

4.2 Moment und Varianz

Wichtige Definitionen und Aussagen

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

Klausur zur Vorlesung Stochastik II

Erwartungswert und Varianz von Zufallsvariablen

Wiederholungsklausur DWT

1.5 Erwartungswert und Varianz

Vorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen

Diskrete Strukturen und Logik WiSe 2007/08 in Trier. Henning Fernau Universität Trier

Transkript:

Die Markov-Ungleichung ist nach Andrey Andreyevich Markov (1856 1922) benannt, der an der Universität von St. Petersburg bei Chebyshev studierte und später dort arbeitete. Neben seiner mathematischen Tätigkeit fiel Markov durch heftige Proteste gegen das Zaren-Regime auf, und nur sein Status als vermeintlich harmloser Akademiker schützte ihn vor Repressalien durch die Behörden. Im Jahr 1913 organisierte er parallel zum dreihundertjährigen Geburtstag der Zarenfamilie Romanov eine Feier zum zweihundertjährigen Geburtstag des Gesetzes der großen Zahlen (s.u.). DWT 6.1 Die Ungleichungen von Markov und Chebyshev 157/467

Die folgende Abschätzung ist nach Pavnuty Lvovich Chebyshev (1821 1894) benannt, der ebenfalls an der Staatl. Universität in St. Petersburg wirkte. Satz 61 (Chebyshev-Ungleichung) Sei X eine Zufallsvariable, und sei t R mit t > 0. Dann gilt Äquivalent dazu: Pr[ X E[X] t] Var[X] t 2. Pr[ X E[X] t Var[X]] 1/t 2. DWT 6.1 Die Ungleichungen von Markov und Chebyshev 158/467

Beweis: Wir stellen fest, dass Setze Pr[ X E[X] t] = Pr[(X E[X]) 2 t 2 ]. Y := (X E[X]) 2. Dann gilt E[Y ] = Var[X], und damit mit der Markov-Ungleichung: Pr[ X E[X] t] = Pr[Y t 2 ] E[Y ] t 2 = Var[X] t 2. DWT 6.1 Die Ungleichungen von Markov und Chebyshev 159/467

Beispiel 62 Wir werfen 1000-mal eine ideale Münze und ermitteln die Anzahl X der Würfe, in denen Kopf fällt. X ist binomialverteilt mit X Bin(1000, p = 1 2 ),also gilt E[X] = 1 2 n = 500 und Var[X] = 1 4 n = 250. Wie groß ist die Wahrscheinlichkeit, dass mehr als 550-mal Kopf fällt? DWT 160/467

Beispiel 62 Chebyshev-Ungleichung: Pr[X 550] Pr[ X 500 50] 250 50 2 = 0,1. Setze nun n = 10000 und betrachte wieder eine maximal 10%-ige Abweichung vom Erwartungswert: E[X] = 5000 und Var[X] = 2500, und damit Pr[X 5500] Pr[ X 5000 500] 2500 500 2 = 0,01. DWT 6.1 Die Ungleichungen von Markov und Chebyshev 160/467

6.2 Gesetz der großen Zahlen Wir haben diskutiert, wie Wahrscheinlichkeiten als Grenzwerte von relativen Häufigkeiten aufgefasst werden können. Satz 63 (Gesetz der großen Zahlen) Gegeben sei eine Zufallsvariable X. Ferner seien ε, δ > 0 beliebig aber fest. Dann gilt für alle n Var[X] : εδ 2 Sind X 1,..., X n unabhängige Zufallsvariablen mit derselben Verteilung wie X und setzt man so gilt Z := X 1 +... + X n, n Pr[ Z E[X] δ] ε. DWT 6.2 Gesetz der großen Zahlen 161/467

Beweis: Für Z gilt sowie E[Z] = 1 n (E[X 1] +... + E[X n ]) = 1 n E[X] = E[X], n Var[Z] = 1 n 2 (Var[X 1]+...+Var[X n ]) = 1 Var[X] n Var[X] =. n2 n Mit der Chebyshev-Ungleichung erhalten wir Pr[ Z E[X] δ] = Pr[ Z E[Z] δ] Var[Z] δ 2 nach Wahl von n. = Var[X] nδ 2 ε, DWT 6.2 Gesetz der großen Zahlen 162/467

Wahrscheinlichkeit und relative Häufigkeit. Sei X eine Indikatorvariable für ein Ereignis A, Pr[A] = p. Somit ist X Bernoulli-verteilt mit E[X] = p. Z = 1 n (X 1 +... + X n ) gibt die relative Häufigkeit an, mit der A bei n Wiederholungen des Versuchs eintritt, denn Z = Anzahl der Versuche, bei denen A eingetreten ist. Anzahl aller Versuche Mit Hilfe des obigen Gesetzes der großen Zahlen folgt Pr[ Z p δ] ε, für genügend großes n. Also nähert sich die relative Häufigkeit von A bei hinreichend vielen Wiederholungen des Experiments mit beliebiger Sicherheit beliebig nahe an die wahre Wahrscheinlichkeit p an. DWT 6.2 Gesetz der großen Zahlen 163/467

Die obige Variante eines Gesetzes der großen Zahlen geht auf Jakob Bernoulli zurück, der den Satz in seinem Werk ars conjectandi zeigte. Es soll betont werden, dass das Gesetz der großen Zahlen die relative Abweichung 1 n i X i p und nicht die abschätzt! absolute Abweichung i X i np DWT 6.2 Gesetz der großen Zahlen 164/467

6.3 Chernoff-Schranken 6.3.1 Chernoff-Schranken für Summen von 0 1 Zufallsvariablen Die hier betrachtete Art von Schranken ist nach Herman Chernoff ( 1923) benannt. Sie finden in der komplexitätstheoretischen Analyse von Algorithmen eine sehr häufige Verwendung. Satz 64 Seien X 1,..., X n unabhängige Bernoulli-verteilte Zufallsvariablen mit Pr[X i = 1] = p i und Pr[X i = 0] = 1 p i. Dann gilt für X := n i=1 X i und µ := E[X] = n i=1 p i, sowie jedes δ > 0, dass ( e δ ) µ Pr[X (1 + δ)µ] (1 + δ) 1+δ. DWT 6.3 Chernoff-Schranken 165/467

Beweis: Für t > 0 gilt Pr[X (1 + δ)µ] = Pr[e tx e t(1+δ)µ ]. Mit der Markov-Ungleichung folgt Pr[X (1 + δ)µ] = Pr[e tx e t(1+δ)µ ] E[etX ] e t(1+δ)µ. Wegen der Unabhängigkeit der Zufallsvariablen X 1,..., X n gilt [ ( n )] [ n ] n E[e tx ] = E exp tx i = E e tx i = E[e tx i ]. i=1 Weiter ist für i {1,..., n}: E[e tx i ] = e t 1 p i + e t 0 (1 p i ) = e t p i + 1 p i = 1 + p i (e t 1), i=1 i=1 DWT 166/467

Beweis (Forts.): und damit n i=1 Pr[X (1 + δ)µ] (1 + p i(e t 1)) e t(1+δ)µ n i=1 exp(p i(e t 1)) e t(1+δ)µ = exp( n i=1 p i(e t 1)) e t(1+δ)µ = e(et 1)µ =: f(t). et(1+δ)µ Wir wählen nun t so, dass f(t) minimiert wird, nämlich t = ln(1 + δ). Damit wird f(t) = e(et 1)µ e t(1+δ)µ = e δµ (1 + δ) (1+δ)µ. DWT 6.3 Chernoff-Schranken 166/467

Beispiel 65 Wir betrachten wieder das Beispiel, dass wir eine faire Münze n-mal werfen und abschätzen wollen, mit welcher Wahrscheinlichkeit Kopf oder öfter fällt. n (1 + 10%) 2 n Chebyshev Chernoff 1000 0,1 0,0889 10000 0,01 0,308 10 10 n 1 4 n (0,1 1 ( ) n e 0,1 2 n)2 (1+0,1) 1+0,1 DWT 6.3 Chernoff-Schranken 167/467

Satz 66 Seien X 1,..., X n unabhängige Bernoulli-verteilte Zufallsvariablen mit Pr[X i = 1] = p i und Pr[X i = 0] = 1 p i. Dann gilt für X := n i=1 X i und µ := E[X] = n i=1 p i, sowie jedes 0 < δ < 1, dass ( e δ ) µ Pr[X (1 δ)µ] (1 δ) 1 δ. Beweis: Analog zum Beweis von Satz 64. Bemerkung: Abschätzungen, wie sie in Satz 64 und Satz 66 angegeben sind, nennt man auch tail bounds, da sie Schranken für die tails, also die vom Erwartungswert weit entfernten Bereiche angeben. Man spricht hierbei vom upper tail (vergleiche Satz 64) und vom lower tail (vergleiche Satz 66). Die Chernoff-Schranken hängen exponentiell von µ ab! DWT 6.3 Chernoff-Schranken 168/467

Lemma 67 Für 0 δ < 1 gilt (1 δ) 1 δ e δ+δ2 /2 und (1 + δ) 1+δ e δ+δ2 /3. Beweis: Wir betrachten f(x) = (1 x) ln(1 x) und g(x) = x + 1 2 x2. Es gilt für 0 x < 1: g (x) = x 1 ln(1 x) 1 = f (x) sowie f(0) = 0 = g(0), also im angegebenen Intervall f(x) g(x). Die Ableitung der zweiten Ungleichung erfolgt analog. DWT 6.3 Chernoff-Schranken 169/467

Korollar 68 Seien X 1,..., X n unabhängige Bernoulli-verteilte Zufallsvariablen mit Pr[X i = 1] = p i und Pr[X i = 0] = 1 p i. Dann gelten folgende Ungleichungen für X := n i=1 X i und µ := E[X] = n i=1 p i: 1 Pr[X (1 + δ)µ] e µδ2 /3 für alle 0 < δ 1, 81, 2 Pr[X (1 δ)µ] e µδ2 /2 für alle 0 < δ 1, 3 Pr[ X µ δµ] 2e µδ2 /3 für alle 0 < δ 1, 4 Pr[X (1 + δ)µ] ( e 1+δ ) (1+δ)µ und 5 Pr[X t] 2 t für t 2eµ. DWT 6.3 Chernoff-Schranken 170/467

Beweis: 1 und 2 folgen direkt aus Satz 64 bzw. 66 und Lemma 67. Aus 1 und 2 zusammen folgt 3. Die Abschätzung 4 erhalten wir direkt aus Satz 64, da für den Zähler gilt e e (1+δ). 5 folgt aus 4, indem man t = (1 + δ)µ setzt, t 2eµ: ( ) e (1+δ)µ ( ) e t 1 + δ t/µ ( ) 1 t. 2 DWT 6.3 Chernoff-Schranken 171/467

Beispiel 69 Wir betrachten wieder balls into bins und werfen n Bälle unabhängig und gleichverteilt in n Körbe. Sei X i := Anzahl der Bälle im i-ten Korb für i = 1,..., n, sowie X := max 1 i n X i. Für die Analyse von X i (i {1,..., n} beliebig) verwenden wir Aussage 5 von Korollar 68, mit p 1 =... = p n = 1 n, µ = 1 und t = 2 log n. Es folgt Pr[X i 2 log n] 1/n 2. Daraus ergibt sich Pr[X 2 log n] = Pr[X 1 2 log n... X n 2 log n] n 1 n 2 = 1 n. Es gilt also mit Wahrscheinlichkeit 1 1/n, dass X < 2 log n ist. DWT 6.3 Chernoff-Schranken 172/467

Literatur: Torben Hagerup, Christine Rüb: A guided tour of Chernoff bounds Inf. Process. Lett. 33, pp. 305 308 (1990) DWT 6.3 Chernoff-Schranken 173/467

7. Erzeugende Funktionen 7.1 Einführung Definition 70 Für eine Zufallsvariable X mit W X N 0 ist die (wahrscheinlichkeits-)erzeugende Funktion definiert durch G X (s) := Pr[X = k] s k = E[s X ]. k=0 Eine wahrscheinlichkeitserzeugende Funktion ist also die (gewöhnliche) erzeugende Funktion der Folge (f i ) i N0 mit f i := Pr[X = i]. DWT 7.1 Einführung 174/467

Bei wahrscheinlichkeitserzeugenden Funktionen haben wir kein Problem mit der Konvergenz, da für s < 1 gilt G X (s) = Pr[X = k] s k k=0 Pr[X = k] s k k=0 k=0 Pr[X = k] = 1. DWT 7.1 Einführung 175/467

Beobachtung: Sei Y := X + t mit t N 0. Dann gilt G Y (s) = E[s Y ] = E[s X+t ] = E[s t s X ] = s t E[s X ] = s t G X (s). Ebenso lässt sich leicht nachrechnen, dass G X(s) = k Pr[X = k] s k 1, also k=1 G X(0) = Pr[X = 1], sowie G (i) X (0) = Pr[X = i] i!, also G (i) X (0)/i! = Pr[X = i]. DWT 7.1 Einführung 176/467

Satz 71 (Eindeutigkeit der w.e. Funktion) Die Dichte und die Verteilung einer Zufallsvariablen X mit W X N sind durch ihre wahrscheinlichkeitserzeugende Funktion eindeutig bestimmt. Beweis: Folgt aus der Eindeutigkeit der Potenzreihendarstellung. DWT 7.1 Einführung 177/467

Bernoulli-Verteilung Sei X eine Bernoulli-verteilte Zufallsvariable mit Pr[X = 0] = 1 p und Pr[X = 1] = p. Dann gilt G X (s) = E[s X ] = (1 p) s 0 + p s 1 = 1 p + ps. Gleichverteilung auf {0,..., n} Sei X auf {0,..., n} gleichverteilt, d.h. für 0 k n ist Pr[X = k] = 1/(n + 1). Dann gilt G X (s) = E[s X ] = n k=0 1 n + 1 sk = s n+1 1 (n + 1)(s 1). DWT 7.1 Einführung 178/467