Der lokale Grenzwertsatz

Größe: px
Ab Seite anzeigen:

Download "Der lokale Grenzwertsatz"

Transkript

1 Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel O Der lokale Grenzwertsatz Die Mortalität bei Schlangenbiss beträgt drei bis zehn Prozent [...] Ich fragte Hanna, wieso sie nicht an Statistik glaubt, stattdessen aber an Schicksal und Derartiges. Du mit deiner Statistik! sagt sie. Wenn ich hundert Töchter hätte, alle von einer Viper gebissen, dann ja! Dann würde ich nur drei bis zehn Töchter verlieren. Erstaunlich wenig! Max Frisch (9 99), Homo faber WiSe 25/6 Stand Inhalt dieses Kapitels O Kontinuierliche Wahrscheinlichkeitsverteilungen Kontinuierliche Verteilungen Wahrscheinlichkeitsräume Kumulative Verteilungsfunktion 2 Erwartung, Varianz, Streuung Verteilungen und ihre Kenngrößen Eindimensionale Normalverteilung 3 Der lokale Grenzwertsatz Von der Binomial- zur Normalverteilung Der lokale Grenzwertsatz 4 Fazit: der lokale Grenzwertsatz Zusammenfassung Verständnisfragen Aufgaben

2 Motivation O Wir kennen bereits einen einfachen und nützlichen Grenzwertsatz: Das Gesetz der kleinen Zahlen besagt B(n, λ/n) P (λ) für n. Bei seltenen Ereignissen nähert sich die Binomialverteilung B(n, t) der (viel einfacheren) Poisson Verteilung P (nt). Wir nutzen genauer: B(n, t) P (nt) mit Fehlerschranke B(n, t) P (nt) nt 2 Dies lohnt sich vor allem für kleine Wkten t, also seltene Ereignisse. Der lokale Grenzwertsatz (LGS) hingegen nützt für beliebige < t < und approximiert Binomialverteilungen durch die Normalverteilung: Es gilt B(n, t) N(µ, σ 2 ) mit µ = nt und σ 2 = nt( t), genauer: b k=a ( ) n t k ( t) n k = k ˆ β α e ξ2 /2 2π dξ + δ mit Integrationsgrenzen α = (a /2 µ)/σ und β = (b + /2 µ)/σ. Hierbei ist µ = nt die Erwartung und σ = nt( t) die Streuung. Der Approximationsfehler δ ist beschränkt durch δ < /(6σ) für σ 5. Für n gilt σ und δ : Die Näherung wird immer besser. Vorgehensweise O2 Poissons Gesetz der kleinen Zahlen aus dem letzten Kapitel klärt den Übergang von Binomial- zu Poisson Verteilungen. Der lokale Grenzwertsatz klärt nun den Übergang von Binomialzu Normalverteilungen und erlaubt sehr genaue Fehlerschranken. Im nächsten Kapitel werden wir allgemeiner für Summen unabhängiger Zufallsvariablen den zentralen Grenzwertsatz (ZGS) formulieren. Diese Grenzwertsätze haben in der Wahrscheinlichkeitsrechnung eine zentrale Bedeutung: Im Kleinen, bei einzelnen Experimenten regiert der Zufall ungezügelt; im Großen, bei vielen Experimenten muss er sich den Gesetzen beugen. Als grundlegende Näherungen sind diese Werkzeuge deshalb in allen praktischen Anwendungen der Statistik unentbehrlich. Auch in diesem Kapitel formuliere ich Grenzwertsätze gleich mit möglichst expliziten und praktisch anwendbaren Fehlerschranken. Dies ermöglicht, die üblichen Approximationen nicht nur blind oder naiv nach Gefühl anzuwenden, sondern bequem ihre Güte abzuschätzen.

3 Beispiel zur kontinuierlichen Gleichverteilung O Ω Aufgabe: Sie werfen zufällig und gleichverteilt Dartpfeile ins Quadrat Ω = [ 2, +2] [ 2, +2]. A Mit welcher Wahrscheinlichkeit treffen Sie die Kreisscheibe A = { x Ω x }? Lösung: Hier ist vol 2 (Ω) = 6 und vol 2 (A) = π, also gilt P(A) = vol 2 (A)/ vol 2 (Ω).96. Die Wahrscheinlichkeit genau den Punkt (, ) zu treffen ist Null! Gleiches gilt für jeden Punkt. Im Gegensatz zur diskreten Gleichverteilung sind bei der kontinuierlichen Gleichverteilung alle Elementarwahrscheinlichkeiten P({ω}) gleich Null! Das Wahrscheinlichkeitsmaß P entspricht hier nicht der Anzahl (Summation), sondern dem Volumen (Integration). So können Sie experimentell π bestimmen: Werfen Sie Reiskörner auf das Quadrat Ω und zählen Sie... Wenn Sie etwa 2 in A finden, so spräche dies für π.2 6 = 3.2. (Für π gibt es genauere und schnellere Methoden.) Diese Art von Monte-Carlo Simulation wird in der Praxis häufig vor allem für komplexe Modelle eingesetzt, die von vielen Parametern abhängen. Oft sind die Rechnungen in Einzelfällen (für fest vorgegebene Parameterwerte) leicht möglich, aber eine geschlossene Formulierung für alle Fälle nicht oder nur schwierig möglich. Durch zufällige Wahl der Parameter und wiederholte Simulation gewinnt man einen Eindruck des typischen Verhaltens. Die Methode geht zurück auf Stanislaw Ulam und John von Neumann im Manhattan Projekt. Diskrete und kontinuierliche Gleichverteilung O2 Diskrete Erinnerung: Sei Ω eine Menge mit < Ω <. Hierauf ist die diskrete Gleichverteilung P : P(Ω) [, ], P(A) = A Ω. Definition OA (kontinuierliche Gleichverteilung) Sei Ω R n eine messbare Menge mit < vol(ω) <. Hierauf ist die kontinuierliche Gleichverteilung P : B(Ω) [, ], P(A) = vol(a) vol(ω). Im diskreten Fall ist P(Ω) die Familie aller Teilmengen A Ω. Im kontinuierlichen Fall ist B(Ω) die Familie aller messbaren Teilmengen A Ω. Diese wird erzeugt von Quadern Q R n ; zum Beispiel sind alle offenen und alle abgeschlossenen Mengen im R n messbar. Manche exotischen Teilmengen A Ω lassen sich nicht messen. Aus diesem Grund müssen wir das WMaß P auf die Familie B(Ω) der messbaren Teilmengen A Ω einschränken. Diese Vorsichtsmaßnahme ist technischer Natur und wird im Folgenden keine weitere Rolle spielen.

4 Beispiel zu kontinuierlicher Wahrscheinlichkeit O3 Zwei Personen verabreden sich zwischen 2 und 3 Uhr zum Essen: Jede kommt zu einem zufälligen Zeitpunkt (unabhängig, gleichverteilt). Jede verspricht, genau 2 Minuten auf die andere zu warten. Aufgabe: Wie groß ist die Wkt, dass sich beide treffen? Ω A Lösung: Ankunftszeiten (t, t 2 ) [, ] 2 = Ω. Ereignis beide Personen treffen sich : A = { (t, t 2 ) Ω t t 2 } 3 Bei kontinuierlicher Gleichverteilung ist die Wkt proportional zur Fläche: P(A) = vol(a) vol(ω) = % Dies ist kein diskreter Wahrscheinlichkeitsraum! Wir können nicht jedem Punkt ω Ω eine feste positive Wahrscheinlichkeit P({ω}) > zuordnen, denn dann wäre P(Ω) =. Wir müssen deshalb jedem Punkt ω Ω die Wahrscheinlichkeit P({ω}) = zuordnen. Das geht aber nicht mit den Rechenregeln für diskrete WRäume, denn dann wäre P(Ω) =. Was bedeutet hier Gleichverteilung? O4 Der Zeitpunkt t liegt im Intervall [, ] der Länge. Die Wahrscheinlichkeit, dass t in [a, b] liegt, ist P ( t [a, b] ) = b a. Ebenso für t 2. Dank Unabhängigkeit ist die Wahrscheinlichkeit, dass (t, t 2 ) in [a, b ] [a 2, b 2 ] liegt, gegeben durch das Produkt P ( (t, t 2 ) [a, b ] [a 2, b 2 ] ) = (b a )(b 2 a 2 ). Allgemein gilt: Bei Gleichverteilung ist die Wahrscheinlichkeit, dass (t, t 2 ) in A liegt, proportional zum Flächeninhalt vol(a): P(A) = vol(a) vol(ω) In unserem Beispiel vol(ω) = und vol(ω A) = 4 /9 und vol(a) = 5 /9. Interpretation: In etwa 56% aller Fälle werden sich die beiden treffen.

5 Erinnerung: Diskrete Verteilungen O5 Erinnerung Im diskreten Fall ist es oft nützlich oder meist auch nötig, neben der Gleichverteilung auch noch andere Verteilungen zu betrachten. Eine diskrete Wahrscheinlichkeitsverteilung auf einer Menge Ω ist gegeben durch eine Funktion p : Ω [, ] mit p(x) =. x Ω Diese definiert ein diskretes Wahrscheinlichkeitsmaß P : P(Ω) [, ] durch P(A) := x A p(x). Hierbei ist die Potenzmenge P(Ω) die Familie aller Teilmengen A Ω. Beispiel: Die diskrete Gleichverteilung auf Ω mit < Ω < entsteht durch Summation über die konstante Verteilung p = / Ω. Weitere wichtige Beispiele kennen wir aus dem vorigen Kapitel: Hypergeometrische, Binomial- und Poisson Verteilungen. Beispiel: eindimensionale Normalverteilung O6 ϕ(x) = e x2 /2 2π 2 2 x Zentrales Beispiel ist die Gaußsche Glockenkurve ϕ : R R mit ϕ(x) = 2π e x2 /2. Dies ist eine Wahrscheinlichkeitsdichte: ϕ und R ϕ(x) dx =. Wir nennen ϕ die Dichte der Standard-Normalverteilung.

6 Kontinuierliche Verteilungen O7 Auch im kontinuierlichen Fall ist es oft nützlich oder gar nötig, neben der Gleichverteilung noch andere Verteilungen zu betrachten. Definition OB (kontinuierliche Wahrscheinlichkeitsdichte) Eine kontinuierliche Wahrscheinlichkeitsverteilung oder WDichte auf einer Ergebnismenge Ω R n ist eine messbare Funktion ˆ f : Ω R mit f(x) dx =. Diese definiert ein kontinuierliches Wahrscheinlichkeitsmaß ˆ P : B(Ω) [, ] durch P(A) := f(x) dx. Hierbei ist B(Ω) die Familie aller messbaren Mengen A Ω. Beispiel: Die kont. Gleichverteilung auf Ω R n mit < vol(ω) < entsteht durch Integration über die konstante Dichte f = / vol(ω). Ω A Beispiel: zweidimensionale Normalverteilung O8 f(x, y) = ϕ(x) ϕ(y) R 2 f(x, y) d(x, y) = x 2 2 y 2

7 Wahrscheinlichkeitsräume O9 Bisher kennen wir zwei Typen von Wahrscheinlichkeitsräumen: () Diskrete Wahrscheinlichkeitsräume (Ω, P(Ω), P) mit P(A) = x A p(x). (2) Kontinuierliche Wahrscheinlichkeitsräume (Ω, B(Ω), P) mit ˆ P(A) = f(x) dx. x A Im diskreten Fall ist die Wkt in einzelnen, höchstens abzählbar vielen Punkten konzentriert, im zweiten Fall ist die Wkt kontinuierlich verteilt. (Auch Mischungen aus diskret und kontinuierlich sind möglich.) Ziel: Wir suchen eine einheitliche Formulierung für alle Fälle. Hierzu fassen wir die wesentlichen Rechenregeln zusammen und erhalten Kolmogorovs Axiome der Wahrscheinlichkeitsrechnung. Wahrscheinlichkeitsräume O Wir betrachten die Ergebnismenge Ω eines Zufallsexperiments. Alle betrachteten Ereignisse A Ω bilden eine Familie A P(Ω). Das Wahrscheinlichkeitsmaß ist eine Abbildung P : A [, ]. Um damit vernünftig rechnen zu können, brauchen wir folgendes: Sicheres Ereignis: Es gilt Ω A und P(Ω) =. 2 Unmögliches Ereignis: Es gilt A und P( ) =. 3 Komplement: Aus A A folgt (Ω A) A und P(Ω A) = P(A). 4 Monotonie: Für alle A, B A gilt A B = P(A) P(B).

8 Wahrscheinlichkeitsräume O 5 Vereinigung: Aus A, B A folgt (A B), (A B) A und P(A B) = P(A) + P(B) P(A B). 6 Paarweise Additivität: Für alle A, B A mit A B = gilt P(A B) = P(A) + P(B). 7 Endliche Additivität: Für jede disjunkte Vereinigung in A gilt ) P (A A n = P(A ) + + P(A n ). 8 Abzählbare Additivität: Für A = k= A k mit A k A gilt A A und bei disjunkter Vereinigung addieren sich die Wahrscheinlichkeiten: ( ) P A k = P(A k) wobei A i A j = für i j. k= k= Diese Wunschliste ist redundant: (,3,8) implizieren alle anderen. Wir extrahieren daher nur die wesentlichen Eigenschaften (,3,8). Dies führt zu folgender Definition; sie ist einfach und flexibel. Wahrscheinlichkeitsräume Definition OC (WRaum, Kolmogorov 933) Ein Wahrscheinlichkeitsraum (Ω, A, P) besteht aus einer Ergebnismenge Ω, einer Ereignismenge A P(Ω) und einem Wahrscheinlichkeitsmaß P : A [, ], mit folgenden grundlegenden Eigenschaften, wie oben erklärt: Normierung: Es gilt Ω A und P(Ω) =. 2 Komplemente: Aus A A folgt (Ω A) A. 3 σ Additivität: Für A = k= A k mit A k A gilt A A sowie ( ) P A k = P(A k) wobei A i A j = für i j. k= k= O2 Die Bezeichnung σ steht abkürzend für abzählbar. Eine Familie A von Mengen mit diesen Eigenschaften heißt σ Algebra. Hierauf nennt man P : A [, ] ein σ additives Maß. Das fasst die wesentlichen Rechenregeln zusammen, auf denen alle weiteren aufbauen.

9 Kumulative Verteilungsfunktion O3 Definition OF (kumulative Verteilungsfunktion) Sei P : B(R) [, ] ein Wahrscheinlichkeitsmaß auf R. Hierzu definieren wir die kumulative Verteilungsfunktion F : R [, ] durch F (x) := P(], x]). Wichtige Spezialfälle: Für jede diskrete Verteilung p : R [, ] gilt F (x) = t x p(t). Für jede kontinuierliche Verteilung mit Dichte f : R R gilt F (x) = ˆ x f(t) dt. Diese Beschreibung ist einheitlich, bequem und übersichtlich. Sauber unterscheiden und benennen: Auf englisch heißt f probability density function (pdf) und F cumulative distribution function (cdf). Aus F lässt sich P rekonstruieren gemäß P(]a, b]) = F (b) F (a) und P({a}) = F (a) lim x a F (x) im Falle einer Sprungstelle, siehe unten. Beispiel: diskrete Gleichverteilung O4.9.8 p(x) = Ω I Ω F (x) = k x p(k)

10 Beispiel: diskrete Gleichverteilung O5.9.8 p(x) = Ω I Ω F (x) = k x p(k) Beispiel: kontinuierliche Gleichverteilung O6.9.8 f(x) = b a I [a,b] F (x) = x f(t) dt

11 Beispiel: Geometrische Verteilung G(q) auf N O p(k) = ( q)q k F (x) = k x p(k) Beispiel: Geometrische Verteilung auf N O p(k ) = ( q)q k F (x) = k x p(k)

12 Beispiel: Exponentialverteilung E(λ) auf R O f(x) = λ e λx (x) I [, ] F (x) = x f(t) dt Von geometrischer zu Exponentialverteilung O2 Sei λ >. Zu jedem > setzen wir q = e λ und betrachten die geometrische Verteilung auf N R mit { ( q)q k für x = k und k =, 2, 3,..., P({x}) = sonst. Aufgabe: Berechnen Sie die kumulative Verteilungsfunktion F (x) = P ( ], x] ) sowie ihren Grenzwert F F für. Lösung: Als kumulative Verteilungsfunktion erhalten wir F (x) = t x P({t}) = x/ k= ( q)q k = q x/ = e λ x/ e λx = F (x) für. Hierbei ist x und x/ = max{ k N k x }. Somit konvergiert die geometrische gegen die Exponentialverteilung.

13 Beispiel: Binomialverteilung B(n, t) O2.9.8 B(2,.5) kumuliert Beispiel: Binomialverteilung B(n, t) O B(,.2) kumuliert

14 Beispiel: Binomialverteilung B(n, t) O B(2,.2) kumuliert Beispiel: Standard-Normalverteilung O ϕ(x) = e x2 /2 / 2π Φ(x) = x ϕ(t) dt

15 Eigenschaften der kumul. Verteilungsfunktion O25 Satz OG (WMaße auf R und ihre Verteilungsfunktionen) Für jedes WMaß P : B(R) [, ] erfreut sich die Verteilungsfunktion folgender Eigenschaften: F : R [, ] mit F (x) := P(], x]) F ist monoton wachsend, also F (x) F (y) für alle x y. 2 Für x gilt F (x) und für x + gilt F (x). 3 F ist rechtsseitig stetig, d.h. für x a gilt F (x) F (a). Umgekehrt definiert jede solche Funktion F : R [, ] eindeutig ein Wahrscheinlichkeitsmaß P : B(R) [, ] mit P(]a, b]) = F (b) F (a). In jedem Punkt a R gilt P({a}) = F (a) lim x a F (x). Genau dann ist F stetig in a, wenn P({a}) = gilt. Genau dann ist F differenzierbar mit stetiger Ableitung f = F, wenn P durch eine stetige Dichte f : R R gegeben ist. Eigenschaften der kumul. Verteilungsfunktion O26 Für A A A 2... mit A = k= A k schreiben wir A k A. Für A A A 2... mit A = k= A k schreiben wir A k A. Lemma OH (Ausschöpfung und Eingrenzung) Jedes Wahrscheinlichkeitsmaß P ist in folgendem Sinne stetig: Aus A k A folgt P(A k ) P(A), Aus A k A folgt P(A k ) P(A). Beweis: Wir setzen B := A und B k = A k A k für k =, 2, 3,.... Es gilt A n = n k= B k und A = k= B k. Dank abzählbarer Additivität ( P(A) = P k= B k ) = k= P(B k ) = lim n n k= P(B k ) = lim n P(A n). Die zweite Aussage folgt aus der ersten durch Komplementbildung.

16 Eigenschaften der kumul. Verteilungsfunktion O27 Für x < y gilt ], x] ], y] und daher Für x ± gilt: lim F (n) = n lim F (n) = n + Zur rechtsseitigen Stetigkeit: F (x) = P(], x]) P(], y]) = F (y). ( lim P(], n]) = P n n= ( lim P(], n]) = P n + n= ) ], n] = P( ) = ) ], n] = P(R) = lim F (x + n n ) = lim P(], x + n n ]) ( ) = P ], x + n ] = P(], x]) = F (x) n= Umkehrung: Ist F gegeben, so setzen wir P(]a, b]) = F (b) F (a). Die Familie der messbaren Mengen wird von Intervallen erzeugt. Daraus folgt die Eindeutigkeit und (mit mehr Mühe) die Existenz von P. Eigenschaften der kumul. Verteilungsfunktion Zur linksseitigen Stetigkeit: lim F (x n n ) = lim P(], x n n ]) ( ) = P ], x n ] = P(], x[) n= Dies ist genau dann gleich F (x) = P(], x]), wenn P({x}) = gilt. Allgemein gilt P({a}) = F (a) lim x a F (x). Hat P eine stetige Dichte f, so gilt F = f nach dem HDI, denn F (x) = P(], x]) = ˆ x f(t) dt. O28 Ist umgekehrt F stetig differenzierbar mit f = F, so gilt diese Gleichung. Für jede messbare Menge A R gilt dann ˆ P(A) = f(t) dt. Somit ist das WMaß P kontinuierlich mit stetiger Dichte f. A

17 Simulation reeller WMaße durch Gleichverteilung O29 Ergänzung Wir nehmen an, gleichverteilte unabhängige Zufallszahlen x [, ] werden uns kostengünstig zur Verfügung gestellt. Wie kann man nun daraus Zufallszahlen erzeugen, die einer anderen Verteilung folgen, zum Beispiel einer Normalverteilung oder einer Exponentialverteilung? Jedes WMaß auf R können wir als Bildmaß aus der Gleichverteilung auf [, ] gewinnen! Diese Beobachtung kann man zur Simulation verwenden. Das ist ein vielgenutztes Verfahren: Für manche Modelle ist es sinnvoll, stochastische Simulationen (am Computer) durchzuführen. Hierzu benötigt man einen Generator von gleichverteilten Zufallszahlen x [, ]. Das ist ein eigenes Kapitel der Informatik und birgt eigene Schwierigkeiten und Überraschungen. Wir betrachten dies als black box und nehmen an, gleichverteilte unabhängige Zufallszahlen x [, ] werden uns kostengünstig zur Verfügung gestellt. Dann ist z.b. 3x + 2 gleichverteilt auf [2, 5]. Wie kann man nun Zufallszahlen x R erzeugen, die einer ganz anderen Verteilung folgen, zum Beispiel einer Normalverteilung auf R oder einer Exponentialverteilung auf R? Zur Erzeugung solcher Zufallszahlen nutzen wir, dass auch die kumulative Verteilungsfunktion einen Bildbereich zwischen Null und Eins aufweist! Wählt man in diesem Intervall zufällig eine Zahl y [, ], so kann man sie als Wert einer Verteilungsfunktion F (x) = y interpretieren. Der zugehörige Wert x ist dann die gewünschte Zufallszahl. Genau dies erklärt der folgende Satz. Simulation reeller WMaße durch Gleichverteilung O3 Ergänzung Satz OI (Quantilfunktion) Vorgegeben sei eine kumulative Verteilungsfunktion F : R [, ]. Wir betrachten Ω = [, ] mit Gleichverteilung P und definieren X : Ω R durch X(t) = F (t) = inf { x R t F (x) } Dann ist X messbar und P X hat die kumulative Verteilung F. Wenn F stetig und streng wachsend ist, so ist F : R ], [ bijektiv. Im allgemeinen Fall muss F nur schwach wachsend sein und darf auch Sprungstellen haben. Für diese Fälle ist die ausführlichere Formel als Infimum angegeben. Die Funktion X heißt Quantilfunktion von F. Nachrechnen: Nach Konstruktion gilt X(t) x t F (x), also P X ( ], x] ) = P ( X(t) x ) = P ( t F (x) ) = F (x) Anwendung: Simulation von WMaßen auf R, z.b. am Computer.

18 Simulation reeller WMaße durch Gleichverteilung O3 Ergänzung Aufgabe: Finden Sie die Qantilfunktion der Exponentialverteilung E(λ). Wie kann man diese Verteilung simulieren durch eine Gleichverteilung? Lösung: Wir haben die Dichte f(x) = λ e λx auf R, kumuliert also F (x) = ˆ x f(t) dt = ( e λx ). (Siehe O9.) Die Quantilfunktion hierzu ist einfach die Umkehrfunktion F (y) = ln( y). λ Die E(λ) Verteilung simulieren wir demnach so: Wir ziehen zufällig Zahlen y [, ] und bilden diese ab auf x = F (y) = ln( y)/λ. Auf Ω = [, ] mit Gleichverteilung entspricht dies der Zufallsvariablen X : Ω R, X(ω) = ln( ω). λ Man prüft leicht nach, das X die gewünschte Verteilungsfunktion hat. Simulation reeller WMaße durch Gleichverteilung O32 Ergänzung Aufgabe: Wir betrachten das Intervall Ω = [, ] mit Gleichverteilung P. Finden Sie X : [, ] [, ] sodass P X die Dichte f(x) = π hat. x 2 Kumul F WDichte f Lösung: Kumul. Verteilung F (x) = x f(t) dt = π arcsin(x) + 2. Wir wählen X : [, ] [, ] gemäß X(t) = F (t) = sin(πt π/2). x

19 Beispiel: Erwartung und Varianz beim Würfeln O Aufgabe: Welchen Mittelwert µ R hat die Augenzahl beim Würfeln? Was ist hier die Varianz σ 2 = (x µ) 2 p(x)? Und die Streuung σ? Lösung: Jede der Zahlen, 2, 3, 4, 5, 6 tritt in 6 der Fälle auf. Also: µ = = 2 6 = 3.5 Anschaulich ist µ der Schwerpunkt der Verteilung p. Die Varianz σ 2 misst die mittlere quadratische Abweichung von µ: σ 2 = 6[ ( 7 2 ) 2 + ( = 3[ ( 5 2) 2 + ( 3 2) 2 + ( 2 ) 2 ( ) ] 2 ) 2 + ( 4 7 = 3[ ] 2 ) 2 ( ) ( ) ] = 35 2 = Die Streuung ist demnach σ = 35/ Diskret: Erwartung, Varianz, Streuung O22 Definition O2A (Erwartung, Varianz, Streuung) Sei p : R n Ω [, ] eine diskrete WVerteilung, also x Ω p(x) =. Der Schwerpunkt von p heißt Mittelwert oder Erwartung: µ := x p(x) R n. x Ω Hierbei setzen wir absolute Summierbarkeit voraus: x p(x) <. Die Varianz der Verteilung p ist ihr Trägheitsmoment bezüglich µ: σ 2 := x Ω x [ ] µ 2 p(x) = x 2 p(x) µ 2. x Ω Die Wurzel σ dieses Wertes heißt die Streuung der Verteilung. Anschaulich misst σ, wie weit die Werte um den Mittelwert µ streuen. Man nennt die Streuung σ daher auch die Standardabweichung. Genau dann gilt σ =, wenn p(µ) = auf den Punkt µ konzentriert ist.

20 Kontinuierlich: Erwartung, Varianz, Streuung O23 Definition O2B (Erwartung, Varianz, Streuung) Sei f : R n Ω R eine WDichte, also Ω f(x) dx =. Der Schwerpunkt von f heißt Mittelwert oder Erwartung: ˆ µ := x f(x) dx Ω Hierbei setzen wir absolute Integrierbarkeit voraus: x f(x) dx <. Die Varianz der Verteilung f ist ihr Trägheitsmoment bezüglich µ: ˆ ˆ σ 2 := x µ 2 f(x) dx = x 2 f(x) dx µ 2 Ω Die Wurzel σ dieses Wertes heißt die Streuung der Verteilung. Wir nutzen hier euklidische Norm und Skalarprodukt des R n. Anschaulich misst σ, wie weit die Werte um den Mittelwert µ streuen. Man nennt die Streuung σ daher auch die Standardabweichung. Ω Wichtige Verteilungen und ihre Kenngrößen O24 diskret Ω p(k) = P({k}) E V Gleichverteilung {a,..., b} b a+ Geometrisch G(q) N ( q)q k Hyperg. H(N, K, n) {,..., n} ( K k a+b 2 q )( N K ) ( n k / N ) n n K N n K N (b a+) 2 2 q ( q) 2 N K N Binomial B(n, t) {,..., n} ( n k) t k ( t) n k nt nt( t) Poisson P (λ) N λ k k! e λ λ λ kontinuierlich Ω Dichte f(x) E V Gleichverteilung [a, b] b a a+b 2 (b a) 2 2 Exponential E(λ) R λ e λx λ λ 2 Normal N(µ, σ 2 ) R e 2 ( x µ σ )2 σ 2π µ σ 2 N n N

21 Diskrete Gleichverteilung O25 Aufgabe: Seien a b ganze Zahlen. Berechnen Sie Erwartung und Varianz der diskreten Gleichverteilung auf Ω = {a, a +,..., b}. Lösung: Wir setzen die Definition ein und rechnen s aus: µ = n σ 2 = n b k k=a b k=a = a + b 2 k 2 µ 2 = n2 2 Für große n ist die Streuung demnach σ n/ 2 n/3.46. Zur Rechnung nutzen wir die bekannten Summenformeln: b k k=a b k=a k 2 = (b a + ) a + b 2, = (b a + ) 2a2 + 2ab + 2b 2 + b a. 6 Diskrete Gleichverteilung O26 Beispiel: Für a =, b = 6 gilt µ = 3.5, σ 2 = 35/2, σ Beispiel: Für a =, b = 2 gilt µ =, σ 2 = 44/2, σ

22 Kontinuierliche Gleichverteilung O27 Übung f(x) b a a µ σ µ µ + σ b x Für a < b in R betrachten wir die kontinuierliche Gleichverteilung f : [a, b] R, f(x) = b a. Kontinuierliche Gleichverteilung O28 Übung Aufgabe: Berechnen Sie Erwartung und Varianz. Lösung: Wir setzen die Definition ein und rechnen s aus: µ = b a σ 2 = b a ˆ b a ˆ b a x dx = b2 a 2 2(b a) x 2 dx µ 2 = b3 a 3 3(b a) σ = σ 2 = b a 2 3 (a + b)2 4 = a + b 2 = (b a)2 2 b a 3.46

23 Erwartung der Binomialverteilung O29 Aufgabe: Berechnen Sie für die Binomialverteilung B(n, t) Erwartung µ = nt und Varianz σ 2 = nt( t). Besonders einfach gelingt das mit dem Vokalubar der unabhängigen Zufallsvariablen, das wir im nächsten Kapitel P einführen. P2 Es geht auch direkt und übt dabei noch die Summantion. Lösung: Die Erwartung der Binomialverteilung B(n, t) ist n n ( ) n µ = k p(k) = k t k ( t) n k k k= k= n ( ) n = n t k ( t) n k k k= n ( ) n = nt t k ( t) (n ) (k ) k k= n ( ) n = nt t k ( t) (n ) k = nt k k= Varianz der Binomialverteilung Für die Varianz berechnen wir zunächst: n ( ) n k(k ) t k ( t) n k k k= n ( ) n 2 = n(n ) t k ( t) n k k 2 k=2 n ( ) n 2 = n(n )t 2 t k 2 ( t) (n 2) (k 2) k 2 k=2 n 2 ( ) n 2 = n(n )t 2 t k ( t) (n 2) k = n(n )t 2 k k= Hieraus folgt die Varianz der Binomialverteilung: [ n ( ] n σ 2 = k )t 2 k ( t) n k µ 2 k k= = n(n )t 2 + nt (nt) 2 = nt( t). O2

24 Illustration zur Binomialverteilung O2 Ein Experiment mit Trefferwkt.5 wird mal unabhängig wiederholt. Aufgabe: Was ist hier die Verteilung? Erwartung? Varianz? Streuung? B(,.5) hat Erwartung µ = 5, Varianz σ 2 = 25, Streuung σ = 5..8 B(,.5).7 Wahrscheinlichkeit Trefferzahl k Illustration zur Binomialverteilung Ein Experiment mit Trefferwkt.2 wird 4 mal unabhängig wiederholt. Aufgabe: Was ist hier die Verteilung? Erwartung? Varianz? Streuung? B(4,.2) hat Erwartung µ = 8, Varianz σ 2 = 64, Streuung σ = 8..5 B(4,.2) Wahrscheinlichkeit O Trefferzahl k

25 Erwartung und Varianz der Poisson Verteilung O23 Ergänzung Aufgabe: Berechnen Sie für die Poisson Verteilung P (λ) Erwartung µ = λ und Varianz σ 2 = λ. Beweis: Die Erwartung der Poisson Verteilung P (λ) ist µ = k= k λk k! e λ = λ λk (k )! e λ = λ e λ k= k= λ k k! = λ. Vor der Varianz berechnen wir zunächst k(k ) λk k! e λ = λ 2 λ k 2 (k 2)! e λ = λ 2 e λ k= k=2 k= λ k k! = λ2. Hieraus folgt die Varianz der Poisson Verteilung: σ 2 = [ n k= ] k 2 λ λk e µ 2 = λ 2 + λ λ 2 = λ. k! Illustration zur Poisson Verteilung O24 Ergänzung Die Verteilung P (4) hat Erwartung µ = 4 und Streuung σ = 2. Wahrscheinlichkeit P (4) Trefferzahl k

26 Illustration zur Poisson Verteilung O25 Ergänzung Die Verteilung P (25) hat Erwartung µ = 25 und Streuung σ = P (25) Wahrscheinlichkeit Trefferzahl k Illustration zur Poisson Verteilung O26 Ergänzung Die Verteilung P () hat Erwartung µ = und Streuung σ =..4 P () Wahrscheinlichkeit Trefferzahl k

27 Geometrische Verteilung O27 Ergänzung Satz O2C (geometrische Verteilung) Wir wiederholen ein Zufallsexperiment mit Misserfolgswahrscheinlichkeit q < so lange, bis im k ten Versuch der erste Erfolg eintritt. Die Wahrscheinlichkeit hierfür ist gegeben durch p : N [, ] mit p(k) = q k ( q). Dies nennen wir die geometrische Verteilung G(q). Die mittlere Wartezeit bis zum ersten Misserfolg ist k= k p(k) = q. Beliebig lange Wartezeiten sind möglich, aber die Wkt sinkt mit q k. Beispiele: Lebensdauer von Geräten, Wartezeit bis zum Ausfall, Würfeln bis die Sechs kommt beim Spiel Mensch ärgere dich nicht, Wartezeit auf den Jackpot beim Lotto oder ähnlichen Glücksspielen.?? Geometrische Verteilung O28 Ergänzung.35.3 G(5/6), mittlere Wartezeit 6 G(2/3), mittlere Wartezeit 3 Wahrscheinlichkeit Wartezeit

28 Erwartung der geometrischen Verteilung O29 Ergänzung Aufgabe: () Ist dies eine WVerteilung? (2) Was ist die Erwartung? Lösung: () Zwei Eigenschaften sind zu prüfen: Es gilt p(k) und p(k) = ( q) k= q k = ( q) k= q k = ( q) k= q =. (2) Die Wartezeit k tritt mit Wkt p(k) auf. Die Erwartung ist demnach: k p(k) = k= k( q)q k = ( q) k= k= kq k d = ( q) dq qk = ( q) d ( q k) dq k= k= = ( q) d ( ) = ( q) dq q ( q) 2 = q Diesen Rechentrick sollten Sie kennen und beherrschen. Das Ergebnis ist erstaunlich: Die Wartezeit kann beliebig groß werden, aber ihre Erwartung ist endlich, da die Wkt schnell sinkt. Anwendung: Würfeln bis die Eins kommt O22 Ergänzung Beim Würfeln werden Augenzahlen addiert bis der Spieler aufhört. Würfelt er eine Eins, so endet sein Spiel und er verliert alle Punkte. Aufgabe: Welchen Gewinn erwarten Sie bei n Würfen? Strategie: Welches n maximiert den erwarteten Gewinn? Lösung: Bei n Würfen erwarten wir den Gewinn 4n( 5 6 )n. Dieser wird maximal, wenn man 5 oder 6 mal würfelt. erwarteter Gewinn Anzahl der zu spielenden Würfe

29 Exponentialverteilung O22 Übung Für λ > ist die Exponentialverteilung E(λ) gegeben durch die Dichte f : R R f(x) = λ e λx Aufgabe: () Ist dies eine Wahrscheinlichkeitsverteilung? (2) Berechnen Sie ihre Erwartung und ihre Varianz. Exponentialverteilung O222 Übung Lösung: () Ja: Auf Ω = R gilt f und Ω f(x) dx =, denn ˆ [ λ e λx = e λx] =. (2) Die Erwartung berechnen wir mit partieller Integration: ˆ µ = x λ e λx dx x= [ = xe λx] ˆ + x= x= e λx dx = Die Varianz berechnen wir ebenso: ˆ σ 2 + µ 2 = x 2 λ e λx dx = [ x 2 e λx] x= ˆ [ λ e λx] = x= λ ˆ + x= x= 2xe λx dx Hieraus folgt = 2 λ x= x λ e λx dx = 2 λ 2 σ 2 = 2 λ 2 λ 2 = λ 2.

30 Die Cauchy Verteilung O223 Aufgabe: Ist die folgende Funktion eine WDichte? f : R R, f(x) = c + x 2 Man bestimme c R. Existieren Erwartung und Varianz? f(x) endlastig (fat tail) Der Graph erinnert an die Glockenkurve ϕ(x) = e x2 /2 / 2π. Aber die Cauchy Verteilung hat völlig andere Eigenschaften: Vor allem klingt sie nicht exponentiell ab, sondern nur mit /x 2. Das hat dramatische Konsequenzen: Es existiert keine Erwartung! Die Cauchy Verteilung x O224 Lösung: Wir haben f und für c = ist die Gesamtmasse ˆ ˆ [ ( x ) ] f(x) dx = R R + x 2 dx = arctan = π a Die Wahl c = π normiert die Gesamtmasse auf R f(x) dx =. Für Erwartung und Varianz benötigen wir folgende Integrale: ˆ x π + x 2 dx und V = ˆ x 2 dx =. π + x2 R Der erste Integrand ist nicht absolut integrierbar.?? Der Median ist offensichtlich, aber die Erwartung existiert nicht! Hier haben Erwartung und Varianz demnach keinen Sinn. R

31 Normalverteilung O225 Übung Für µ, σ R mit σ > ist die Normalverteilung N(µ, σ 2 ) gegeben durch folgende Dichte (die allseits beliebte Gaußsche Glockenkurve): f(x) = σ 2π e 2 ( x µ σ )2 µ 3σ µ 2σ µ σ µ µ + σ µ + 2σ µ + 3σ x Aufgabe: () Warum ist dies eine Wahrscheinlichkeitsverteilung? (2) Skizzieren Sie x f(x) und berechnen Sie die Erwartung. (3) Skizzieren Sie x 2 f(x) und berechnen Sie die Varianz. Normalverteilung: Gesamtmasse O226 Übung Lösung: Offenbar gilt f. Wir haben drei Integrale zu berechnen: ˆ ˆ ˆ f(x) dx =, x f(x) dx = µ, (x µ) 2 f(x) dx = σ 2. R R Vereinfachung: Nach Substitution t = (x µ)/σ erhalten wir µ = und σ =, also die Dichte der Standard-Normalverteilung: R ϕ(t) = 2π e t2 /2 () Wir berechnen R ϕ(t) dt durch den Gaußschen Kunstgriff C23: (ˆ R Fubini = Fubini = 2 (ˆ e dt) t2 /2 = ˆ R R ˆ ˆ 2π r= R ) e x2 /2 dx ˆ e (x2 +y 2 )/2 d(x, y) Trafo = α= (ˆ R R [,2π] ) e y2 /2 dy e r2 /2 r d(r, α) e r2 /2 r dα dr HDI = 2π [ e r2 /2 ] r= = 2π

32 Normalverteilung: Erwartung O227 Übung x f(x) µ 3σ µ 2σ µ σ µ µ + σ µ + 2σ µ + 3σ x (2) Aufgrund der Symmetrie ϕ( t) = ϕ(t) ist die Erwartung µ = ˆ t ϕ(t) dt =. Alternativ können wir explizit eine Stammfunktion angeben: ˆ te t2 /2 dt = [ ] e t2 /2 = 2π 2π Der allgemeine Fall folgt mit Substitution t = (x µ)/σ: Die Erwartung der Normalverteilung N(µ, σ 2 ) ist µ. Normalverteilung: Varianz O228 Übung x 2 f(x) µ 3σ µ 2σ µ σ µ µ + σ µ + 2σ µ + 3σ x (3) Die Varianz berechnen wir mit partieller Integration: σ 2 = ˆ t 2 e t2 /2 2π dt = 2π ˆ = 2π [ t e t2 /2 ] + 2π ˆ ( t) ( t)e t2 /2 dt e t2 /2 dt = Der allgemeine Fall folgt mit Substitution t = (x µ)/σ: Die Varianz der Normalverteilung N(µ, σ 2 ) ist σ 2.

33 Die Standard-Normalverteilung O229 ϕ(t) = e t2 /2 2π 2 2 t Die Dichte der Standard-Normalverteilung ist gegeben durch ϕ(t) = 2π e t2 /2. Dies ist eine Wahrscheinlichkeitsdichte: ϕ und R ϕ(t) dt =. Sie hat Erwartung R t ϕ(t) dt = und Varianz R t2 ϕ(t) dt =. Das Gaußsche Fehlerintegral O23 ϕ(t) = e t2 /2 2π 2 x 2 t Es gibt keine elementare Formel B49 für die Integralfunktion ˆ x ϕ(t) dt = 2π ˆ x e t2 /2 dt = 2π k= ( ) k x 2k+ 2 k k!(2k + ). Aufgabe: Approximieren Sie für x [ 4, 4] auf 7 Nachkommastellen. Die numerische Auswertung liefert dann folgende Tabelle.

34 Wie berechnet man dieses Fehlerintegral? k= O23 Lösung: Wir berechnen x ϕ(t) dt für x [ 4, 4] auf.5 7 genau. e x2 /2 ( ) k ˆ x = 2 k k! x2k e t2 /2 ( ) k x 2k+ dt = 2 k k!(2k + ) Dies ist eine alternierende Reihe. Für n 8 gilt die Fehlerabschätzung ˆ x n e t2 /2 ( ) k x 2k+ dt 2 k k!(2k + ) = ( ) k x 2k+ 2 k k!(2k + ) x 2n+ 2 n n!(2n + ). k= k=n k= Wann ist n groß genug? Ausprobieren dieser Schranke liefert 4 6 n = 3 : 2 3 3! 6 3 7, n = 3 : ! 63 Eine geeignete Approximation ist demnach folgendes Polynom: ˆ x ϕ(t) dt = 3 2π k= ( ) k x 2k+ 2 k k!(2k + ) δ mit δ <.4 7 Die Werte kann nun ein Computer ausrechnen und tabellieren. Standard-Normalverteilung: Tabelle für x ϕ(t) dt O232 x+. x+. x+.2 x+.3 x+.4 x+.5 x+.6 x+.7 x+.8 x+.9 x=

35 Ablesebeispiele O233 Diese Tabelle werden wir häufig nutzen! Ablesebeispiele: ˆ ˆ.5 ˆ.53 ϕ(t) dt =.3434 ϕ(t) dt =.4339 ϕ(t) dt = Ablesen eines Integrals der Form β ϕ(t) dt: ˆ ϕ(t) dt = = ˆ α.23 ˆ.23 ϕ(t) dt + ϕ(t) dt + ˆ 2.34 ˆ 2.34 ϕ(t) dt ϕ(t) dt = =.88 Ablesebeispiele O234 Ablesen eines Integrals der Form β α ϕ(t) dt: ˆ 2 ϕ(t) dt = ˆ 2 ϕ(t) dt ˆ ϕ(t) dt = =.359 Oft betrachtet man auch die kumulative Verteilungsfunktion Φ(x) = ˆ x ϕ(t) dt = ˆ x 2 + ϕ(t) dt Ablesebeispiele: Φ(.) =.5 Φ(.) =.8434 Φ(.5) =.9339 Φ(.53) =.93699

36 Die Familie der Normalverteilungen N(µ, σ 2 ) O µ =, σ = µ =, σ =.5 µ = 3, σ =.5 µ = 2, σ = Sei µ, σ R mit σ >. Die Dichte der Normalverteilung N(µ, σ 2 ) mit Erwartung µ und Streuung σ ist die Funktion ϕ µ,σ : R R mit ϕ µ,σ (x) = ( x µ ) σ ϕ = ( σ σ x µ ) 2 2π e 2 σ Die Regel Die Normalverteilung N(µ, σ 2 ) ist extrem konzentriert um µ: O236.% 2.% 3.6% 34.% 34.% 3.6% 2.%.% µ 3σ µ 2σ µ σ µ µ + σ µ + 2σ µ + 3σ Jede Normalverteilung N(µ, σ 2 ) ist symmetrisch um µ. Gemäß Tabelle gilt: ˆ µ+σ x=µ ϕ µ,σ (x) dx.34, ˆ µ+2σ x=µ ϕ µ,σ (x) dx.477, ˆ µ+3σ x=µ ϕ µ,σ (x) dx.499 Das bedeutet ausformuliert: Die Masse liegt zu etwa 68% in der σ Umgebung um µ, zu etwa 95% in der 2σ Umgebung um µ, und zu über 99% in der 3σ Umgebung um µ.

37 Vergleich von Binomial- und Normalverteilung O3 Binomialverteilungen ähneln Normalverteilungen:. B(,.2) N(2, 6) Vergleich von Binomial- und Normalverteilung O32 Wie gut ist die Näherung? Punktweise bis auf.4 genau! 4 3 B(n, t)(k) ϕ µ,σ (k)

38 Vergleich von Binomial- und Normalverteilung O33 Binomialverteilungen ähneln Normalverteilungen:.5 B(3,.2) N(6, 48) Vergleich von Binomial- und Normalverteilung O34 Wie gut ist die Näherung? Punktweise bis auf.2 genau! 3 B(n, t)(k) ϕµ,σ(k)

39 Vergleich von Binomial- und Normalverteilung O35 Binomialverteilungen ähneln Normalverteilungen:.5 B(4,.2) N(8, 64) Vergleich von Binomial- und Normalverteilung O36 Wie gut ist die Näherung? Punktweise bis auf.9 genau! 3 B(n, t)(k) ϕ µ,σ (k)

40 Vergleich von Binomial- und Normalverteilung O37 Binomialverteilungen ähneln Normalverteilungen:.4 B(4,.3) N(2, 84) Vergleich von Binomial- und Normalverteilung O38 Wie gut ist die Näherung? Punktweise bis auf.5 genau! B(n, t)(k) ϕ µ,σ (k)

41 Übergang von Binomial- zu Normalverteilung O39 Obige Beispiele illustrieren die Annäherung der Binomial- an die Normalverteilung. Wir können sie nun als Grenzwert nachrechnen. Dank Stirling Formel und Taylor Entwicklung gilt (siehe unten) ( (k µ) n )t 2 k ( t) n k e 2σ 2 k σ 2π ˆ k+ /2 k /2 e (x µ)2 2σ 2 σ 2π dx. Die Stetigkeitskorrektur um /2 bzw. + /2 ist hier sehr anschaulich. Mühsame Summen ersetzen wir so durch bequemere Integrale: b k=a ( ) n t k ( t) n k k ˆ b+ /2 a /2 e (x µ)2 2σ 2 σ 2π dx = ˆ β α e ξ2 /2 2π dξ Die Substitution ξ = (x µ)/σ führt zur Standard-Normalverteilung. Wir müssen daher nur in einer einzigen Tabelle nachschlagen! Die Grenzen sind dabei α = (a /2 µ)/σ und β = (b + /2 µ)/σ. Die Stetigkeitskorrektur um /2 bzw. + /2 ist auch hier anschaulich. Übergang von Binomial- zu Normalverteilung Für n N und < t < sei µ = nt und σ = nt( t). Sei k = k n ein Folge in N. Für n gelte (k µ)/σ ξ, somit also insbesondere k/n t. Dank Stirling Formel n! 2πn ( ) n n gilt dann: e ( n k ) t k ( t) n k n 2πk(n k) ( nt k Hierzu nutzen wir die Potenzreihe des natürlichen Logarithmus: ln( + z) = z z2 2 + z3 3 z4 4 ) k ( n( t) ) n k n k /2 2πσ 2 e ξ für z < O3 Bis Grad 2 schreiben wir kurz ln( + z) z z 2 /2. Hieraus erhalten wir ( nt ) k ( n( t) ) n k ( = + nt k ) k ( nt k ) n k k n k k n k [ ( = exp k ln + nt k ) ( + (n k) ln nt k )] k n k (nt k)2 (nt ] k)2 exp [(nt k) (nt k) 2k 2(n k) [ = exp (nt k)2 n ] [ (k nt) 2 ] = exp e ξ2 /2 2k(n k) 2n(k/n)( k/n)

42 Übergang von Binomial- zu Normalverteilung O3 Mühsame Summen wollen wir durch bequemere Integrale ersetzen:. B(,.2) N(2, 6) Beispiel für B(,.2) mit Summationsgrenzen a = 5 und b = 3, Integration von 4.5 bis 3.5, normiert α = 5.5/4 und β =.5/4 Übergang von Binomial- zu Normalverteilung O32 Wozu nützt die Näherung der Binomial- durch die Normalverteilung? Die Binomialverteilung B(n, t) ist für große n mühsam zu summieren. Die Normalverteilung hingegen ist leicht, und Φ liegt tabelliert vor. O232 b ( ) ˆ n β t k ( t) n k e ξ2 /2 [ ] β dξ = Φ k 2π α k=a Hierzu benötigen wir nur Erwartung µ = nt und Varianz σ 2 = nt( t) und berechnen damit α = (a /2 µ)/σ und β = (b + /2 µ)/σ. Der natürlich auftretende Summand /2 heißt Stetigkeitskorrektur. Er erklärt sich aus obiger Graphik. Man denke insbesondere an a = b! Die Binomialverteilung B(n, t) können wir somit durch die einfachere Normalverteilung approximieren. Wann ist diese Näherung gut genug? Die Faustregel ist n soll groß sein oder σ 2 = nt( t) soll groß sein. Naja... Wie groß ist groß genug? Wie klein ist dann der Fehler? Die genaue Analyse des Fehlers ist leider mühsam. Ich gebe hier ein praktisches Ergebnis von James Uspensky (937) in vereinfachter Form. α

43 Der lokale Grenzwertsatz (LGS) O33 Satz O3A (de Moivre 733, Laplace 82) Für die Binomialverteilung B(n, t) gilt µ = nt und σ = nt( t). Sie ähnelt der Normalverteilung: B(n, t) N(µ, σ 2 ). Genauer gilt: b k=a ( ) n t k ( t) n k = k ˆ β α e ξ2 /2 2π dξ + δ Die Grenzen sind hier α = (a /2 µ)/σ und β = (b + /2 µ)/σ. Der Fehler δ ist beschränkt durch δ < 2t σ + 3σ 2 6σ für σ 5. Genauer gilt δ = κ + ε mit Korrekturterm κ und restlichem Fehler ε: κ = 2t 6σ 2π [( ξ 2 ) e ξ2 /2 ] β α, κ < 2t σ, ε < 3σ 2. σ 5 σ 8 σ 3 σ 9 σ 26 δ <.34 δ <.78 δ <.97 δ <.62 δ <.43 ε <.4 ε <.53 ε <.2 ε <. ε <.5 Der lokale Grenzwertsatz Für n gilt σ = nt( t), also δ, und somit µ+βσ k= µ+ασ ( ) n t k ( t) n k k ˆ β α e ξ2 /2 2π dξ. O34 Meist wird diese schwächere Aussage lokaler Grenzwertsatz genannt. Außer δ macht sie keine quantitative Aussage über den Fehler. In der Praxis rechnen wir nicht für n, sondern mit festem n N. Für praktische Rechnungen ist daher die Fehlerkontrolle wesentlich: δ < 6σ = 6 nt( t). Wenn wir zum Integral den Korrekturterm κ hinzuaddieren, so wird der Approximationsfehler noch um eine Größenordnung kleiner, nämlich ε < 3σ 2 = 3nt( t). Für t = /2 oder α = β gilt κ = und somit δ < /(3σ 2 ). In diesen Fällen ist die Näherung durch die Normalverteilung besonders genau.

44 Der lokale Grenzwertsatz Form des Korrekturterms κ(α, β) = 2t σ [ f(β) f(α) ] : f(x) = x2 6 2π e x2 / O35 x Der Korrekturterm κ glättet den oben beobachteten Fehlerverlauf. Hierzu ist f gerade: Der punktweise Fehler ist in etwa ungerade, der kumulierte Fehler also in etwa gerade. Der lokale Grenzwertsatz O36 Gilt der Fehler als klein genug, so kann man die mühsame Summe der Binomialverteilung durch das wesentlich bequemere Integral der Normalverteilung ersetzen: Dieses liegt tabelliert vor. O232 Die Gleichung des Satzes (mit Fehler δ) können wir vergröbern zu b k=a ( ) n t k ( t) n k k ˆ β α e ξ2 /2 2π dξ = [ ] β Φ α Das ist eine nützliche Faustformel, leider ohne jegliche Fehlerkontrolle. In der Praxis vernachlässigt man meist den Approximationsfehler und beruft sich erfahrungsgemäß darauf, dass σ schon groß genug sei. Statt der Grenzen α = (a /2 µ)/σ und β = (b + /2 µ)/σ nutzt man auch gerne (a µ)/σ und (b µ)/σ. Das ist bequem aber ungenauer. Meist ist diese Vereinfachung gut genug, insbesondere bei großem σ. Möchte man ein möglichst genaues Ergebnis und die Fehlerschranken nutzen, so nimmt man die Grenzen mit der Stetigkeitskorrektur /2.

45 Erstes Anwendungsbeispiel O37 Aufgabe: Ein Zufallsexperiment mit Trefferwahrscheinlichkeit.2 wird 4 mal unabhängig wiederholt. Mit welcher Wahrscheinlichkeit ergibt sich dabei eine Trefferzahl von 6 bis 9? (Ergebnis auf. genau) Lösung: Die Trefferzahl ist B(n, t) verteilt mit n = 4 und t =.2. Erwartung µ = nt = 8, Varianz σ 2 = nt( t) = 64, Streuung σ = 8. Grob: Trefferzahl 6 bis 9 entspricht µ 2.5σ bis µ +.25σ. Also p = 9 k=6 ( ) 4 ( k ( 4 ) ˆ 4 k.25 ϕ(t) dt. k 5) Dank der Symmetrie ϕ( t) = ϕ(t) gilt für das Integral p ˆ ϕ(t) dt = ˆ 2.5 ϕ(t) dt + ˆ.25 ϕ(t) dt. Die Tabelle liefert p =.8884, also p 88.8%. Erstes Anwendungsbeispiel Fein: Genauer ist die im Satz angegebene Näherung p β α ϕ(t) dt mit α = (6.5 8)/ und β = ( )/8.3. O38 p ˆ ϕ(t) dt = ˆ 2.56 ϕ(t) dt + ˆ.3 ϕ(t) dt. Die Tabelle liefert p =.89967, also p 9%. Güte: Wie genau ist diese Approximation? Laut Satz gilt: δ < 6σ = 48.2 Diese Schranke ist noch zu grob. Wir schauen daher genauer hin: κ.47 und ε < 3σ 2 = Unsere Approximation p hat also einen Fehler δ <.568. Damit erfüllt der Wert p 9% die geforderte Genauigkeit.. Exakt: Mühsames Aufsummieren ergibt p =

46 Zweites Anwendungsbeispiel O39 Aufgabe: Ein Experiment mit Trefferwahrscheinlichkeit % wird 36 mal unabhängig wiederholt. Mit welcher Wahrscheinlichkeit ergibt sich dabei eine Trefferzahl von 36 bis 46? (Ergebnis auf. genau) Lösung: Die Trefferzahl ist B(n, t) verteilt mit n = 36 und t =.. Wir finden Erwartung µ = nt = 36, Varianz σ 2 = nt( t) = 35.64, Streuung σ Gesucht ist die Wahrscheinlichkeit p = 46 k=36 ( ) 36 ( ) k ( 99 ) ˆ 36 k β ϕ(t) dt k α mit α =.5/ und β =.5/ Demnach gilt p ˆ ϕ(t) dt = ˆ.84 ϕ(t) dt + ˆ.759 ϕ(t) dt. Interpolation der Tabelle liefert p = Zweites Anwendungsbeispiel O32 Güte: Laut Satz ist der Approximationsfehler δ < /(6σ).28. Damit könnnen wir die Genauigkeit. noch nicht garantieren. Der Korrekturterm ist hier κ.567, also besser p = Es bleibt dann nur noch ein Fehler von ε < /(3σ 2 ).936. Damit ist für p 47.9% die gewünschte Genauigkeit garantiert. Exakt: Mühsames Aufsummieren ergibt p = In diesem Beispiel ist die Streuung σ 6 sehr klein, und die Näherungen des lokalen Grenzwertsatzes daher entsprechend grob. Auch sind sowohl die Trefferwahrscheinlichkeit t =. als auch die Integrationsgrenzen α und β besonders unsymmetrisch, und so ist der Korrekturterm κ hier recht groß. Die Addition von κ bringt eine spürbare Verbesserung: Die erste Näherung p.4948 ist deutlich schlechter als die um κ korrigierte Näherung p Nur letztere erfüllt die geforderte Genauigkeit von.. Auch gerundet hätten wir zunächst 49% erhalten, aber die tatsächliche Wahrscheinlichkeit liegt knapp unter 48%. Wenn es also auf Genauigkeit ankommt, stellt der Satz alle Werkzeuge bereit.

47 Drittes Anwendungsbeispiel O32 Ergänzung Aufgabe: Wie wahrscheinlich ist es, dass bei 6maligem Würfeln die Augenzahl 6 zwischen einschließlich 9 und mal eintritt? Man bestimme diese Wahrscheinlichkeit auf.5 genau. Lösung: Die Anzahl ist B(n, t) verteilt mit n = 6 und t = /6. Wir finden Erwartung µ = nt =, Varianz σ 2 = nt( t) = 5/6, Streuung σ = 5/ Gesucht ist die Wahrscheinlichkeit p = k=9 ( ) 6 ( k ( 5 ) ˆ 6 k β k 6) 6 α ϕ(t) dt mit α = (9.5 )/9.3.5 und β.5. Demnach gilt p ˆ.5.5 ϕ(t) dt = 2 ˆ.5 ϕ(t) dt = Also p 75%. (Plausibel, denn etwas mehr als die σ Umgebung.) Drittes Anwendungsbeispiel O322 Ergänzung Güte: Wie genau ist die Approximation in diesem Fall? Dank der Symmetrie von α und β verschwindet der Korrekturterm. Wegen κ = bleibt nur ein besonders kleiner Fehler von δ = ε < 3σ 2 = 2 5 =.4. Somit ist unsere Approximation p 75% auf.5 genau. Exakt: Mühsames Aufsummieren ergibt p = Man sieht in diesen Beispielen, dass die Approximation meist besser ist, als die allgemeine Fehlerabschätzung des Satzes vermuten lässt. Das ist auch verständlich: Es handelt sich nur um eine obere Schranke für den Fehler, aber sie ist doch recht nah an der wirklichen Abweichung. Der Nutzen des Satzes ist über die Konvergnez für n hinaus vor allem die bequeme aber aussagekräftige Fehlerschranke für endliches n. Damit kann man schnell abschätzen, ob die gewünschte Genauigkeit gewährleistet ist. Ist eine höhere Genauigkeit nötig, so muss man beim Fehler genauer hinschauen und gegebenenfalls eine präzisere Rechnung nutzen, notfalls aufwändig B(n, t) aufsummieren. Alle hierzu nötigen Informationen liegen jedenfalls offen.

48 Sind die Lotto-Zahlen verdächtig? O323 Ergänzung 78 beobachtete Häufigkeit gezogene Lottozahl Sind die Lotto-Zahlen verdächtig? O324 Ergänzung Ist die geringe Häufigkeit der Zahl 3 beim Lotto verdächtig? Wir untersuchen die ersten n = 5 Ziehungen von je 7 Zahlen. Die Ziehungswahrscheinlichkeit jeder Zahl ist t = ( 48 6 ) / ( 49 7 ) = /7. Bei ordnungsgemäßer Ziehung sind die Anzahlen B(n, t) verteilt. Erwartung µ = nt Varianz σ 2 = nt( t) Streuung σ Die σ Umgebung [692,74] enthält 35 der 49 Anzahlen, also 7%. Die 2σ Umgebung [667,765] enthält 47 der 49 Anzahlen, also 96%. Die 3σ Umgebung [642,79] enthält 49 der 49 Anzahlen, also %. Diese Verteilung entspricht recht gut der erwarteten Regel.

49 Wahrscheinlichkeitsräume O4 Fazit Kolmogorovs Definition OC fixiert die grundlegenden Forderungen für WMaße, woraus alle weiteren Rechenregeln folgen O. Ein Wahrscheinlichkeitsraum (Ω, A, P) besteht aus einer Ergebnismenge Ω, einer Ereignismenge A P(Ω) und einem Wahrscheinlichkeitsmaß P : A [, ], mit folgenden grundlegenden Eigenschaften: Normierung: Es gilt Ω A und P(Ω) =. 2 Komplemente: Aus A A folgt (Ω A) A. 3 σ Additivität: Für A = k= A k mit A k A gilt A A sowie ( ) P A k = P(A k) wenn A i A j = für i j. k= k= Die Bezeichnung σ steht abkürzend für abzählbar. Wir nennen A eine σ Algebra und hierauf P : A [, ] ein σ additives Maß. Wichtigste Beispiele sind diskrete und kontinuierliche WRäume. Auch Mischungen aus diskret und kontinuierlich sind möglich. Diskrete und kontinuierliche WRäume Eine diskrete Wahrscheinlichkeitsverteilung auf Ω ist eine Funktion p : Ω [, ] mit Gesamtmasse p(x) =. x Ω Diese definiert ein diskretes Wahrscheinlichkeitsmaß P : P(Ω) [, ] durch P(A) := x A p(x). Hierbei ist P(Ω) die Familie aller Teilmengen A Ω. Eine kontinuierliche Wahrscheinlichkeitsverteilung oder WDichte auf einer Ergebnismenge Ω R n ist eine messbare Funktion ˆ f : Ω R mit Gesamtmasse f(x) dx =. Diese definiert ein kontinuierliches Wahrscheinlichkeitsmaß ˆ P : B(Ω) [, ] durch P(A) := f(x) dx. Hierbei ist B(Ω) die Familie aller messbaren Teilmengen A Ω. Ω A O42 Fazit

50 Erwartung, Varianz, Streuung O43 Fazit Sei P ein WMaß auf Ω R n, zum Beispiel diskret oder kontinuierlich. Der Schwerpunkt der Verteilung P heißt Mittelwert oder Erwartung: µ := ˆ x p(x) bzw. µ := x f(x) dx. x Ω x Ω Hierbei setzen wir absolute Summierbarkeit / Integrierbarkeit voraus. Die Varianz der Verteilung ist ihr Trägheitsmoment bezüglich µ: σ 2 := [ ] (x x Ω µ)2 p(x) = x Ω x2 p(x) µ 2 bzw. ˆ ˆ σ 2 := (x µ) 2 f(x) dx = x 2 f(x) dx µ 2. x Ω Die Wurzel σ dieses Wertes heißt die Streuung der Verteilung. Anschaulich misst σ, wie weit die Werte um den Mittelwert µ streuen. Man nennt die Streuung σ daher auch die Standardabweichung. Genau dann gilt σ =, wenn P auf den Punkt µ konzentriert ist, d.h. für A R gilt P(A) = falls µ A und P(A) = falls µ / A. x Ω Existenz von Erwartung und Varianz Aufgabe: Welche der folgenden Funktionen f : R R sind WDichten? f(x) = /c /c, f(x) = + x + x 2, f(x) = /c /c, f(x) = + x 3 + x α, /c g(x) = + x α ln(e + x ), h(x) = /c + x α ln(e + x ) 2, mit geeignetem c R. Für welche existieren Erwartung und Varianz? Lösung: Wir haben jeweils f. Die erste lässt sich nicht normieren: ˆ { + x α dx = + für α, < für α >. R Für α = 2 erhalten wir die Cauchy Verteilung f(x) = π(+x 2 ). O223 Das Integral konvergiert für α >. Für die Erwartung braucht s α > 2. Für die Varianz braucht s α > 3. Für h genügt jeweils schon α, 2, 3. O44 Fazit

51 Wichtige Verteilungen und ihre Kenngrößen O45 Fazit diskret Ω p(k) = P({k}) E V Gleichverteilung {a,..., b} b a+ Geometrisch G(q) N ( q)q k Hyperg. H(N, K, n) {,..., n} ( K k a+b 2 q )( N K ) ( n k / N ) n n K N n K N (b a+) 2 2 q ( q) 2 N K N Binomial B(n, t) {,..., n} ( n k) t k ( t) n k nt nt( t) Poisson P (λ) N λ k k! e λ λ λ kontinuierlich Ω Dichte f(x) E V Gleichverteilung [a, b] b a a+b 2 (b a) 2 2 Exponential E(λ) R λ e λx λ λ 2 Normal N(µ, σ 2 ) R e 2 ( x µ σ )2 σ 2π µ σ 2 N n N Von Binomial- zu Normalverteilungen O46 Fazit Grundbeobachtung: Binomialverteilungen ähneln Normalverteilungen. Der lokale Grenzwertsatz präzisiert dies und sichert Fehlerschranken. Wahrscheinlichkeit B(,.5) N(5, 5) Trefferzahl

52 Der lokale Grenzwertsatz (LGS) O47 Fazit Für die Binomialverteilung B(n, t) gilt µ = nt und σ 2 = nt( t). Sie ähnelt der Normalverteilung: B(n, t) N(µ, σ 2 ), das heißt: ( (k µ) n )t 2 k ( t) n k e 2σ 2 k σ 2π k=a ˆ k+ /2 k /2 e (x µ)2 2σ 2 σ 2π Dies nennt man auch Satz von de Moivre (733) und Laplace (82). Mühsame Summen ersetzen wir so durch bequemere Integrale: b ( ) ˆ n β t k ( t) n k e ξ2 /2 = dξ + δ k 2π mit den Grenzen α = (a /2 µ)/σ und β = (b + /2 µ)/σ. Der Approximationsfehler δ ist hierbei für σ 5 beschränkt durch δ < 2t σ + 3σ 2 α 6σ = 6 nt(t ) Gilt der Fehler als klein genug, so kann man die mühsame Summe der Binomialverteilung durch das wesentlich bequemere Integral der Normalverteilung ersetzen: Dieses liegt tabelliert vor. O232 Der lokale Grenzwertsatz (LGS) Ist eine genauere Approximation nötig, so addiert man zur obigen Näherung durch das Integral noch folgenden Korrekturterm κ: b k=a ( ) n t k ( t) n k = k κ = ˆ β α 2t 6σ 2π dx. e ξ2 /2 2π dξ + κ + ε [( ξ 2 )e ξ2 /2 ] β Der verbleibende Fehler ε ist noch eine Größenordnung kleiner, nämlich κ < 2t σ, ε < 3σ 2 = 3nt(t ). Speziell für t = /2 oder α = β verschwindet der Korrekturterm κ. Für n geht der Fehler gegen Null mit / n bzw. /n. σ 5 σ 8 σ 3 σ 9 σ 26 δ <.34 δ <.78 δ <.97 δ <.62 δ <.43 ε <.4 ε <.53 ε <.2 ε <. ε <.5 α O48 Fazit

Der lokale Grenzwertsatz

Der lokale Grenzwertsatz Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel V Der lokale Grenzwertsatz Die Mortalität bei Schlangenbiss beträgt drei bis zehn Prozent [...] Ich fragte Hanna, wieso sie nicht an Statistik

Mehr

Der lokale Grenzwertsatz

Der lokale Grenzwertsatz Prof. Dr. Michael Eisermann Höhere Mathematik 3 (vertieft) Kapitel V Der lokale Grenzwertsatz Die Mortalität bei Schlangenbiss beträgt drei bis zehn Prozent [...] Ich fragte Hanna, wieso sie nicht an Statistik

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Der lokale Grenzwertsatz

Der lokale Grenzwertsatz Prof. Dr. Michael Eisermann Höhere Mathemati 3 (vertieft) Inhalt dieses Kapitels U Kapitel U Der loale Grenzwertsatz Die Mortalität bei Schlangenbiss beträgt drei bis zehn Prozent [...] Ich fragte Hanna,

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Statistik Dr. Thomas Zehrt Ausblick Motivation Wir werfen einen Würfel 000-mal und wir möchten die Wahrscheinlichkeit P bestimmen, dass zwischen

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Der lokale Grenzwertsatz

Der lokale Grenzwertsatz Prof. Dr. Michael Eisermann Höhere Mathemati 3 (vertieft Inhalt dieses Kapitels V Kapitel V Der loale Grenzwertsatz Die Mortalität bei Schlangenbiss beträgt drei bis zehn Prozent [...] Ich fragte Hanna,

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Stochastik Approximationen der Binomialverteilung

Stochastik Approximationen der Binomialverteilung Stochastik Approximationen der Binomialverteilung Stefan Englert stefan.englert@gmx.net 21. April 2007 Inhaltsverzeichnis 1 Approximation von n! und b n,p (k) 2 2 Der Satz von de Moivre-Laplace 6 3 Die

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Marcel Thoms Mathematik Online Herbst 211 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge

Mehr

5 Zufallsvariablen, Grundbegriffe

5 Zufallsvariablen, Grundbegriffe II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

5 Binomial- und Poissonverteilung

5 Binomial- und Poissonverteilung 45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Korollar 116 (Grenzwertsatz von de Moivre)

Korollar 116 (Grenzwertsatz von de Moivre) Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt. Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)

Mehr

TU DORTMUND Sommersemester 2018

TU DORTMUND Sommersemester 2018 Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Der lokale Grenzwertsatz

Der lokale Grenzwertsatz Prof. Dr. Michael Eisermann Höhere Mathemati 3 (vertieft Inhalt dieses Kapitels U Kapitel U Der loale Grenzwertsatz Die Mortalität bei Schlangenbiss beträgt drei bis zehn Prozent [...] Ich fragte Hanna,

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

1 Stochastische Konvergenz 2

1 Stochastische Konvergenz 2 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Statistik für Informatiker, SS Verteilungen mit Dichte

Statistik für Informatiker, SS Verteilungen mit Dichte 1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung

Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung R. Brinkmann http://brinkmann-du.de Seite 5.05.0 Erwartungswert, Umgebungswahrscheinlichkeiten und die Normalverteilung Erwartungswert binomialverteilter Zufallsgrößen Wird ein Bernoulli- Versuch, bei

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Stetige Verteilungen Rechteckverteilung

Stetige Verteilungen Rechteckverteilung Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a

Mehr

Wiederholung Analysis

Wiederholung Analysis Wiederholung Analysis F( x) sei Stammfunktion zu f( x) f( x) dx = F( x) F ( x) = f( x) Bestimmtes Integral b a f ( x) dx = F( b) F( a) Uneigentliche Integrale x x x f() t 0 F( x) = f() t dt ist monoton

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin. Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen

Mehr

15.5 Stetige Zufallsvariablen

15.5 Stetige Zufallsvariablen 5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Stetige Standardverteilungen

Stetige Standardverteilungen Universität Basel Wirtschaftswissenschaftliches Zentrum Stetige Standardverteilungen Dr. Thomas Zehrt Inhalt: 1. Die stetige Gleichverteilung 2. Die Normalverteilung (a) Einstimmung (b) Standardisierung

Mehr

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten 1/43 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.1 Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten

Mehr

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ), 2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis Vorbemerkungen 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 6 Bedingte

Mehr

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript Wahrscheinlichkeitsrechnung Sommersemester 2008 Kurzskript Version 1.0 S. Döhler 1. Juli 2008 In diesem Kurzskript sind Begriffe und Ergebnisse aus der Lehrveranstaltung zusammengestellt. Außerdem enthält

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

Ü b u n g s b l a t t 7

Ü b u n g s b l a t t 7 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 21. 5. 2007 Ü b u n g s b l a t t 7 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/52 Biostatistik, Sommer 2017 Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 02.06.2017 2/52 Inhalt 1 Wahrscheinlichkeit Bayes sche Formel 2 Diskrete Stetige 3/52 Wahrscheinlichkeit Bayes

Mehr

Mathematische und statistische Methoden für Pharmazeuten

Mathematische und statistische Methoden für Pharmazeuten Mathematische und statistische Methoden für Pharmazeuten Josef Berger 11. Juni 2018 Dieses Manuskript enthält auszugsweise einige Teile der Vorlesung. Das Lesen des Manuskriptes ersetzt nicht den Besuch

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis

Definition: Ein endlicher Ergebnisraum ist eine nichtleere Menge, deren. wird als Ereignis, jede einelementige Teilmenge als Elementarereignis Stochastische Prozesse: Grundlegende Begriffe bei zufälligen Prozessen In diesem Abschnitt beschäftigen wir uns mit den grundlegenden Begriffen und Definitionen von Zufallsexperimenten, also Prozessen,

Mehr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr 1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Zuverlässigkeitstheorie

Zuverlässigkeitstheorie 3. Grundbegriffe der Wahrscheinlichkeitsrechnung Prof. Jochen Seitz Fachgebiet Kommunikationsnetze 20. November 2008 Übersicht Gesetz der großen Zahlen von Bernoulli 1 Gesetz der großen Zahlen von Bernoulli

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

3. Kombinatorik und Wahrscheinlichkeit

3. Kombinatorik und Wahrscheinlichkeit 3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018

Mathematik II für Studierende der Informatik (Analysis und lineare Algebra) im Sommersemester 2018 (Analysis und lineare Algebra) im Sommersemester 2018 2. Juli 2018 1/1 Wir geben einige wesentliche Sätze über bestimmte Integrale an, deren Beweise man in den Standardlehrbüchern der Analysis findet.

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Stochastik für die Naturwissenschaften

Stochastik für die Naturwissenschaften Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 4. Zufallsgrösse X Literatur Kapitel 4 * Storrer: Kapitel (37.2)-(37.8), (38.2)-(38.3), (38.5), (40.2)-(40.5) * Stahel: Kapitel 4, 5 und 6 (ohne

Mehr

4.2 Moment und Varianz

4.2 Moment und Varianz 4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel IV SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

Inhaltsverzeichnis (Ausschnitt)

Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Messbare Abbildungen Bildwahrscheinlichkeit Deskriptive Statistik und Wahrscheinlichkeitsrechnung

Mehr

1.3 Zufallsgrößen und Verteilungsfunktionen

1.3 Zufallsgrößen und Verteilungsfunktionen .3 Zufallsgrößen und Verteilungsfunktionen.3. Einführung Vielfach sind die Ergebnisse von Zufallsversuchen Zahlenwerte. Häufig möchte man aber auch in den Fällen, wo dies nicht so ist, Zahlenwerte zur

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

Lösungen zu den Übungsaufgaben (zur Vorbereitung auf die Klausur am )

Lösungen zu den Übungsaufgaben (zur Vorbereitung auf die Klausur am ) Dr. Moritz Diehl Dr. Torsten Fischer Ileana Borja Tecuatl, Gerrit Schultz Interdisziplinäres Zentrum für Wissenschaftliches Rechnen (IWR) Zentrum für Molekulare Biologie (ZMBH) Mathematik B für die Molekulare

Mehr

0, t 0,5

0, t 0,5 XIII. Die Normalverteilung ==================================================================. Der lokale Grenzwertsatz --------------------------------------------------------------------------------------------------------------

Mehr

Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden

Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden Hansruedi Künsch Frühlingssemester 2013 Repetition vom 19. 2. Ein Wahrscheinlichkeitsraum besteht aus

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 003/004 Universität Karlsruhe 05. 04. 004 Prof. Dr. G. Last Klausur zur Vorlesung Stochastik II Dauer: 90 Minuten Name: Vorname: Matrikelnummer: Diese Klausur hat

Mehr

Weierstraß-Institut für Angewandte Analysis und Stochastik Universalität der Fluktuationen: Warum ist alles Gauß-verteilt?

Weierstraß-Institut für Angewandte Analysis und Stochastik Universalität der Fluktuationen: Warum ist alles Gauß-verteilt? Weierstraß-Institut für Angewandte Analysis und Stochastik Universalität der Fluktuationen: Warum ist alles Gauß-verteilt? Wolfgang König Technische Universität Berlin und Weierstraß-Institut Berlin Mohrenstraße

Mehr