1.6 Wichtige Verteilungsmodelle

Größe: px
Ab Seite anzeigen:

Download "1.6 Wichtige Verteilungsmodelle"

Transkript

1 1.6 Wichtige Verteilungsmodelle 1.6 Wichtige Verteilungsmodelle Wir behandeln hier nur Binomial-, Poisson- und Normalverteilung. Einige weitere Verteilungsmodelle werden direkt dort eingeführt, wo sie benötigt werden Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X: X = {0, 1, 2,..., n}. 1 Wahrscheinlichkeitsrechnung 155

2 1.6 Wichtige Verteilungsmodelle Herleitung der Wahrscheinlichkeitsfunktion: Bezeichne π = P (A) die Wahrscheinlichkeit für A in einem Experiment. Das Ereignis {X = x} tritt z.b. auf, wenn in den ersten x Versuchen A eintritt und anschließend nicht mehr. Die Wahrscheinlichkeit dafür ist P (A 1... A x Āx+1... Ān) = π }.{{.. π} (1 π)... (1 π) } {{ } x mal n x mal = π x (1 π) n x. Insgesamt gibt es ( n x) Möglichkeiten für die Verteilung der x Erfolge (Auftreten von A) auf n Plätze. Damit gilt: ( n P (X = x) = π x) x (1 π) n x. 1 Wahrscheinlichkeitsrechnung 156

3 1.6 Wichtige Verteilungsmodelle Definition Eine Zufallsvariable heißt binomialverteilt mit den Parametern n und π, kurz X B(n, π), wenn sie die Wahrscheinlichkeitsfunktion ( n π f(x) = x) x (1 π) n x, x = 0, 1,..., n 0, sonst besitzt. Die B(1, π)-verteilung heißt auch Bernoulliverteilung. 1 Wahrscheinlichkeitsrechnung 157

4 1.6 Wichtige Verteilungsmodelle Wahrscheinlichkeitshistogramme von Binomialverteilungen mit n = 10 π =0.1 π = π =0.5 π = Wahrscheinlichkeitsrechnung 158

5 1.6 Wichtige Verteilungsmodelle Erwartungswert und Varianz: Zur Berechnung von Erwartungswert und Varianz der Binomialverteilung ist folgende Darstellung hilfreich: X = X X n mit den binären Variablen X i = Die X i sind stochastisch unabhängig mit 1 falls A beim i-ten Versuch eintritt, 0 falls Ā beim i-ten Versuch eintritt. E(X i ) = 0 P ({X i = 0}) + 1 P ({X i = 1}) = π Var(X i ) = E(X 2 i ) (E(X i)) 2 = 1 P ({X i = 1}) π 2 = π π 2 = π(1 π). 1 Wahrscheinlichkeitsrechnung 159

6 1.6 Wichtige Verteilungsmodelle Erwartungswert der Binomialverteilung: Die direkte Berechnung über E(X) = E(X X n ) = E(X 1 ) E(X n ) = nπ E(X) = n i=1 ( n ) i π i (1 π) n i =... = nπ i ist deutlich komplizierter! Varianz der Binomialverteilung: Var(X) = Var(X X n ) = Var(X 1 ) Var(X n ) = nπ(1 π) 1 Wahrscheinlichkeitsrechnung 160

7 1.6 Wichtige Verteilungsmodelle Bsp Risikobereite Slalomfahrer stürzen mit W keit 10%, vorsichtigere mit 2%. a) Wie groß sind jeweils die Wahrscheinlichkeiten, dass von 20 Fahrern mindestens einer stürzt? b) Vergleichen Sie die durchschnittlich zu erwartende Anzahl von Stürzen von je 100 Rennläufern! Beschreibung der Situation durch ein Binomialmodell X r Anzahl der Stürze der risikobereiten Fahrer X v Anzahl der Stürze der vorsichtigen Fahrer Trefferwskten π r, π v n Anzahl der Rennläufer der jeweiligen Kategorie. Unabhängigkeit der Versuche nicht ganz unproblematisch, aber hier vorausgesetzt. a) n = 20, gesucht: P ({X r 1}), P ({X v 1}), wobei: ( n P ({X r = k}) = π k) k (1 π) n k Dann gilt P ({X r 1}) = P ({X r = 1}) + P ({X r = 2}) P ({X r = 20}) 1 Wahrscheinlichkeitsrechnung 161

8 1.6 Wichtige Verteilungsmodelle Zur Berechnung einfacher: P ({X r 1}) = 1 P ({X r = 0}) ( n = 1 π 0) 0 r (1 π)n 0 = 1 ( 20 0 ) (0.1) 0 (1 0.1) 20 = 1 20! 0!20! 1 (0.9) Analog: P ({X v 1}) = 1 P ({X v = 0}) ( n = 1 π 0) 0 v (1 π v) n 0 ( 20 ) = 1 (0.02) 0 (0.98) Wahrscheinlichkeitsrechnung 162

9 1.6 Wichtige Verteilungsmodelle b) Durchschnittlich erwartete Anzahl ˆ= Erwartungswert also E(X r ) = n π r und E(X v ) = n π v E(X r ) = = 10 und E(X v ) = = 2. Für den Vergleich ergibt sich damit E(X r ) E(X v ) = 10 2 = 5. Es gilt allgemein (für zwei binomialverteilte ZV): E(X r ) E(X v ) = n π r n π v = π r π v. 1 Wahrscheinlichkeitsrechnung 163

10 1.6 Wichtige Verteilungsmodelle Exkurs: Zur Problematik der Argumentation mittels natürlicher Häufigkeiten. Man würde demgemäß die Wahrscheinlichkeit π r = 0.1 kommunizieren als von 100 stürzen 10 Rennläufer. Diese Interpretation läuft Gefahr, die beträchtliche Variabilität zufälliger Prozesse zu verschleiern. In der Tat ist hier die Wahrscheinlichkeit, dass genau 10 von 100 Läufern stürzen, P (X = 10) = ( 100 ) = 0.13, also lediglich etwa 13%. Natürliche Häufigkeiten müssen also unbedingt als Durchschnittswerte bzw. Erwartungswerte begriffen werden. 1 Wahrscheinlichkeitsrechnung 164

11 1.6 Wichtige Verteilungsmodelle Eigenschaften der Binomialverteilung: Symmetrieeigenschaft (vertausche Rolle von A und Ā): Sei X B(n, π) und Y = n X. Dann gilt Y B(n, 1 π). Summeneigenschaft: Seien X B(n, π) und Y B(m, π). Sind X und Y unabhängig, so gilt X + Y B(n + m, π) Entscheidend: Gleiches π! 1 Wahrscheinlichkeitsrechnung 165

12 1.6 Wichtige Verteilungsmodelle Poisson Verteilung (vgl. z.b. Fahrmeir et. al)) Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte, deviante Verhaltensmuster, etc.). Definition [Poisson-Verteilung] Eine Zufallsvariable X mit der Wahrscheinlichkeitsfunktion λ x x! f(x) = P ({X = x}) = e λ, x {0, 1,...} 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt E(X) = λ, Var(X) = λ 1 Wahrscheinlichkeitsrechnung 166

13 1.6 Wichtige Verteilungsmodelle Die Poisson-Verteilung kann auch als Näherungsmodell für eine Binomialverteilung gesehen werden, wenn die Anzahl der Versuchswiederholungen n groß und die Trefferwahrscheinlichkeit π sehr klein ist (seltene Ereignisse!). Der Erwartungswert λ ist dann gleich n π. Es gilt also abgekürzt geschrieben X B(n, π) = n groß π klein X P o(n π) Hat man mehrere unabhängige Poisson-Prozesse, also dynamische Simulationen, bei denen die Ereignisanzahl Poisson-verteilt ist, also z.b. verschiedene deviante Verhaltensmuster, so ist die Gesamtanzahl der einzelnen Ereignisanzahlen wieder Poisson-verteilt: genauer gilt 1 Wahrscheinlichkeitsrechnung 167

14 1.6 Wichtige Verteilungsmodelle Satz [Addition von Poisson-verteilten Zufallsvariablen] Sind X P o(λ X ), Y P o(λ Y ) voneinander unabhängig, so gilt X + Y P o(λ X + λ Y ). Beachte, die Unabhängigkeit (genauer die Unkorreliertheit, siehe später) ist wesentlich. Hat man als Extremfall, z.b. zwei Ereignisse bei denen das eine das andere voraussetzt (Scheidungen, Scheidungen mit Streit um das Sorgerecht für Kinder), so ist die Gesamtzahl nicht mehr Poisson-verteilt. Es muss gelten, wenn X + Y Poisson-verteilt wäre: Var(X + Y ) = E(X + Y ) = E(X) + E(Y ) = Var(X) + Var(Y ), was aber bei abhängigen (korrelierten) X und Y verletzt ist. 1 Wahrscheinlichkeitsrechnung 168

15 1.6 Wichtige Verteilungsmodelle Bsp Max geht gerne auf Open-Air Festivals. Im Durchschnitt trifft er dort 6 weibliche Bekannte und 3 männliche Bekannte. a) Wie groß ist die Wahrscheinlichkeit, dass er genau 6 weibliche Bekannte trifft? b) Wie groß ist die Wahrscheinlichkeit, dass er mindestens einen männlichen Bekannten trifft? c) Berechnen Sie die Wahrscheinlichkeit, das er weder einen männlichen noch eine weibliche Bekannte trifft, auf 2 verschiedene Arten. Diskutieren Sie eventuell zu treffende Zusatzannahmen. a) Sei X die Anzahl der getroffenen weiblichen Bekannten und Y die Anzahl der getroffenen männlichen Bekannten. Es gilt (bzw. es gelte) X P o(6), λ X = 6 Y P o(3), λ Y = 3 P (X = x) = λx X x! e λ X P (X = 6) = 66 6! e 6 = b) P ({Y 1}) = 1 P ({Y = 0}). Also: P (Y 1) = ! e 3 = = Wahrscheinlichkeitsrechnung 169

16 1.6 Wichtige Verteilungsmodelle c) Unter Unabhängigkeit von X und Y gilt: Z = X + Y P o(λ X + λ Y ), also (6 + 3)0 P ({Z = 0}) = e (6+3) = ! Alternative Berechnung: keinen Bekannten bedeutet {X = 0} {Y = 0} P ({X = 0} {Y = 0}) unabh. = P ({X = 0}) P ({Y = 0}) = = = λ 0 X 0! e λx λ0 Y 0! e λ Y = (λ X + λ Y ) 0 e (λ X +λ Y ) =... 0! Die Unabhängigkeitsannahme ist zentral, in dem Beispiel ist das Treffen eines männlichen und einer weiblichen Bekannten nicht unabhängig, wenn man viele Pärchen kennt (und Pärchen gemeinsam auf Open-Air Festivals gehen) 1 Wahrscheinlichkeitsrechnung 170

17 1.6 Wichtige Verteilungsmodelle Normalverteilung Die Normalverteilung ist wohl das wichtigste Verteilungsmodell der Statistik, denn viele Zufallsvariablen sind (nach Transformation) (ungefähr) normalverteilt. beim Zusammenwirken vieler zufälliger Einflüsse ist der geeignet aggregierte Gesamteffekt oft approximativ normalverteilt (Zentraler Grenzwertsatz, Kap. 1.7). die asymptotische Grenzverteilung, also die Verteilung bei unendlich großem Stichprobenumfang, typischer statistischer Größen ist die Normalverteilung. 1 Wahrscheinlichkeitsrechnung 171

18 1.6 Wichtige Verteilungsmodelle Definition Eine stetige Zufallsvariable X heißt normalverteilt mit den Parametern µ und σ 2, in Zeichen X N (µ, σ 2 ), wenn für ihre Dichte gilt: f(x) = ( 1 exp 1 ) 2π σ 2σ2(x µ)2, x R (1.2) und standardnormalverteilt, in Zeichen X N (0; 1), falls µ = 0 und σ 2 = 1 gilt (π ist hier die Kreiszahl π = ). 1 Wahrscheinlichkeitsrechnung 172

19 1.6 Wichtige Verteilungsmodelle Grundlegende Eigenschaften: a) Die Dichte der Standardnormalverteilung wird oft mit ϕ(x) bezeichnet, also ϕ(x) = 1 exp ( 12 ) x2 2π und die zugehörige Verteilungsfunktion mit Φ(x) = x ϕ(u)du b) Φ(x) lässt sich nicht in geschlossener Form durch bekannte Funktionen beschreiben = numerische Berechnung, Tabellierung. c) µ und σ 2 sind genau der Erwartungswert und die Varianz, also, wenn X N (µ, σ 2 ), dann E(X) = µ und Var(X) = σ 2. d) Die Dichte ist symmetrisch um µ, d.h. f(µ x) = f(µ + x). 1 Wahrscheinlichkeitsrechnung 173

20 1.6 Wichtige Verteilungsmodelle Grundlegendes zum Rechnen mit Normalverteilungen: Es gilt: (folgt aus der Symmetrie der Dichte). Φ( x) = 1 Φ(x) Gilt X N (µ, σ 2 ), so ist die zugehörige standardisierte Zufallsvariable Z = X µ σ standardnormalverteilt. Einfach zu zeigen: E(Z) = 0, Var(Z) = 1. Andersherum: Ist Z N (0, 1), dann ist σz + µ N (µ, σ 2 ) Entscheidende Eigenschaft für die Tabellierung: Es reicht die Standardnormalverteilung zu tabellieren. Normalverteilte Zufallsvariablen mit Erwartungswert µ und Varianz σ 2 muss man, wie unten erläutert, zuerst standardisieren, dann kann man aber auch die Standardnormalverteilungstabelle verwenden. Tabelliert sind die Werte der Verteilungsfunktion Φ(z) = P ({Z z}) für z 0. Ablesebeispiel: Φ(1.75) = Funktionswerte für negative Argumente: Φ( z) = 1 Φ(z) Die z-quantile ergeben sich über die Umkehrfunktion. Beispielsweise ist z = 1.75 und z = Wahrscheinlichkeitsrechnung 174

21 1.6 Wichtige Verteilungsmodelle Wahrscheinlichkeitsrechnung 175

22 1.6 Wichtige Verteilungsmodelle Berechnung bei allgemeiner Normalverteilung: Wie bestimmt man bei X N (µ, σ 2 ) die Wahrscheinlichkeiten P ({X a}) aus der Tabelle der Standardnormalverteilung? Zentrale Idee: X zu standardnormalverteilter Zufallsvariable umformen, d.h. standardisieren. Dabei muss die rechte Seite analog mit transformiert werden: {X a} {X µ a µ} { X µ a µ } σ σ das heißt Wegen gilt dann P ({X a}) = P P ({ X µ σ X µ σ ({ X µ σ N (0, 1) a µ }) σ a µ }). σ ( ) a µ = Φ, σ 1 Wahrscheinlichkeitsrechnung 176

23 1.6 Wichtige Verteilungsmodelle so dass sich der folgende Zusammenhang ergibt: ( ) a µ P ({X a}) = Φ. σ Ist a < µ, also a µ < 0, so muss man vor dem Benutzen der Tabelle noch folgendes ausnutzen: ( ) a µ Φ = 1 Φ σ ( a µ ) σ ( ) µ a = 1 Φ σ 1 Wahrscheinlichkeitsrechnung 177

24 1.6 Wichtige Verteilungsmodelle Abgeschlossenheit gegenüber Linearkombinationen: Seien X 1 und X 2 unabhängig und X i N (µ i, σ 2 i ), i = 1, 2. Ferner seien b, a 1, a 2 feste reelle Zahlen. Dann gilt Y 1 := a 1 X 1 + b N (a 1 µ 1 + b; a 2 1 σ2 1 ) Y 2 := a 1 X 1 + a 2 X 2 N (a 1 µ 1 + a 2 µ 2 ; a 2 1 σ2 1 + a2 2 σ2 2 ). Das Ergebnis lässt sich auf mehrere Summanden verallgemeinern. 1 Wahrscheinlichkeitsrechnung 178

25 1.6 Wichtige Verteilungsmodelle Bsp [aus Fahrmeir et al.] Schultischhöhe: Y N (µ Y, σ 2 Y ), µ Y = 113, σ 2 Y = 16 Stuhlhöhe: X N (µ X, σ 2 X ), µ X = 83, σ 2 X = 25 optimale Sitzposition: Tisch zwischen 27 und 29 cm höher als Stuhl. Wie groß ist die Wahrscheinlichkeit, dass ein zufällig ausgewähltes Paar zueinander gut passt? Differenz: Y X soll zwischen [27, 29] sein. Definiere also Wegen X N ( 83, 25) gilt dann V := Y X = Y + ( X) V N (113 83, ) = N (30, 41). Außerdem ergibt sich durch Standardisieren: 27 V V V Wahrscheinlichkeitsrechnung 179

26 1.6 Wichtige Verteilungsmodelle Damit lässt sich die gesuchte Wahrscheinlichkeit bestimmen: P (27 V 29) = P ( V ) = = Φ( 0.156) Φ( 0.469) = = (1 Φ(0.156)) (1 Φ(0.469)) = = = Wahrscheinlichkeitsrechnung 180

27 1.7 Grenzwertsätze und Approximationen 1.7 Grenzwertsätze und Approximationen Gerade in der Soziologie beobachtet man häufig große Stichprobenumfänge. Was ist das Besondere daran? Vereinfacht sich etwas und wenn ja was? Kann man Wahrscheinlichkeitsgesetzmäßigkeiten durch Betrachten vielfacher Wiederholungen erkennen? 1 Wahrscheinlichkeitsrechnung 181

28 1.7 Grenzwertsätze und Approximationen Das i.i.d.-modell Betrachtet werden diskrete oder stetige Zufallsvariablen X 1,..., X n, die i.i.d. (independently, identically distributed) sind, d.h. die 1) unabhängig sind und 2) die gleiche Verteilung besitzen. Ferner sollen der Erwartungswert µ und die Varianz σ 2 existieren. Die Verteilungsfunktion werde mit F bezeichnet. Dies bildet insbesondere die Situation ab in der X 1,..., X n eine Stichprobe eines Merkmals reiner Zufallsauswahl sind. X bei 1 Wahrscheinlichkeitsrechnung 182

29 1.7 Grenzwertsätze und Approximationen Jede Funktion von X 1,..., X n ist wieder eine Zufallsvariable, z.b. das arithmetische Mittel oder die Stichprobenvarianz 1 n X S2 i = 1 n (X i X) 2 n n i=1 Vor dem Ziehen der Stichprobe: Wahrscheinlichkeitsaussagen möglich = Wahrscheinlichkeitsrechnung anwenden i=1 Gerade bei diesen Zufallsgrößen ist die Abhängigkeit von n oft wichtig, man schreibt dann X n, S 2 n Sind X 1,..., X n jeweils {0, 1}-Variablen, so ist X n gerade die empirische relative Häufigkeit von Einsen in der Stichprobe vom Umfang n. Notation: H n 1 Wahrscheinlichkeitsrechnung 183

30 1.7 Grenzwertsätze und Approximationen später: Induktionsschluss Durchführen eines Zufallsexperiments // Ziehen einer Stichprobe IMMER Wahrheit S planung VORHER NACHHER W sktsrechn. Wahre Urliste Zufallsvariablen Realisationen x 1,..., x N X 1,..., Xn x 1,..., xn } {{ } neue Urliste eines Merkmals (z.b. X i Einkommen der i-ten Person) Auswertung, z.b. S ziehung arithmetisches Mittel der Stichprobe arithmetisches Mittel der Stichprobe x X = n 1 ni=1 X i x = n 1 ni=1 x i arithmetisches Mittel in der Grundgesamtheit Stichprobenvarianz empirische Varianz 1 s 2 X S 2 = n 1 ni=1 (X i X) 2 s 2 = n 1 ni=1 (x i x) 2 Varianz in der Grundgesamtheit empirische Verteilungsfunktion als empirische Verteilungsfunktion Zufallsvariable in jedem Punkt x F (x) empirische Verteilungsfunktion in der Grundgesamtheit F X 1,...,X n n (x) = n 1 {i : X i x} F X 1,...,X n n (x) = n 1 {i : x i x} 1 Gehört nicht zur Grundgesamtheit; hier für empirische Version 1 Wahrscheinlichkeitsrechnung 184

31 1.7 Grenzwertsätze und Approximationen Das schwache Gesetz der großen Zahlen Betrachte für wachsenden Stichprobenumfang n: X 1,..., X n i.i.d. X i {0, 1} binäre Variablen mit π = P (X i = 1) H n = die relative Häufigkeit der Einsen in den ersten n Versuchen. 1 Wahrscheinlichkeitsrechnung 185

32 allsvariable! Figur Figur beschreiben: Statistik II für Studierende der Soziologie und Nebenfachstudierende 1:i 1.7 Grenzwertsätze und Approximationen s[1:i] s[1:i] s[1:i] :i s[1:i] s[1:i] s[1:i] s[1:i] :i 1:i s[1:i] s[1:i] s[1:i] :i 1:i s[1:i] :i 1:i 1:i 1:i 1:i s[1:i] s[1:i] s[1:i] :i s[1:i] s[1:i] s[1:i] s[1:i] :i 1:i s[1:i] s[1:i] s[1:i] :i 1:i s[1:i] :i 1:i 1:i 1:i 1:i Wahrscheinlichkeitsrechnung

33 1.7 Grenzwertsätze und Approximationen Beobachtungen: 1. Am Anfang sehr unterschiedlicher, unregelmäßiger Verlauf der Pfade. 2. Mit wachsendem n pendeln sich die Pfade immer stärker um π herum ein, d.h. mit wachsendem Stichprobenumfang konvergiert die relative Häufigkeiten eines Ereignisses gegen seine Wahrscheinlichkeit. 3. Formalisierung von 2.: Legt man sehr kleine Korridore/Intervalle um π, so ist bei sehr großem n der Wert von H n fast sicher in diesem Korridor. Das Ereignis Die relative Häufigkeit H n liegt im Intervall der Breite 2ɛ um π lässt sich schreiben als: π ε H n π + ε ε H n π ε H n π ε 1 Wahrscheinlichkeitsrechnung 187

34 1.7 Grenzwertsätze und Approximationen Theorem [Theorem von Bernoulli] Seien X 1,..., X n, i.i.d. mit X i {0, 1} und P (X i = 1) = π. Dann gilt für n H n = 1 n i=1 X i (relative Häufigkeit der Einsen ) und beliebig kleines ɛ > 0 lim P ( H n π ɛ) = 1 n Anschauliche Interpretation: Die relative Häufigkeit eines Ereignisses nähert sich praktisch sicher mit wachsender Versuchszahl an die Wahrscheinlichkeit des Ereignisses an. 1 Wahrscheinlichkeitsrechnung 188

35 1.7 Grenzwertsätze und Approximationen Zwei wichtige Konsequenzen: 1) Häufigkeitsinterpretation von Wahrscheinlichkeiten: P (A), die Wahrscheinlichkeit eines Ereignisses A, kann man sich vorstellen als Grenzwert der relativen Häufigkeit des Eintretens von A in einer unendlichen Versuchsreihe identischer Wiederholungen eines Zufallsexperiments. 2) Induktion: Man kann dieses Ergebnis nutzen, um Information über eine unbekannte Wahrscheinlichkeit (π ˆ= Anteil in einer Grundgesamtheit) zu erhalten. Sei z.b. π der (unbekannte) Anteil der SPD Wähler, so ist die relative Häufigkeit in der Stichprobe eine gute Schätzung für π. Je größer die Stichprobe ist, umso größer ist die Wahrscheinlichkeit, dass die relative Häufigkeit sehr nahe beim wahren Anteil π ist. 1 Wahrscheinlichkeitsrechnung 189

36 1.7 Grenzwertsätze und Approximationen Das Ergebnis lässt sich verallgemeinern auf Mittelwerte beliebiger Zufallsvariablen: Schwaches Gesetz der großen Zahl: Gegeben seien X 1,..., X n i.i.d. Zufallsvariablen mit (existierendem) Erwartungswert µ und (existierender) Varianz σ 2. Dann gilt für n X n := 1 n i=1 X i und beliebiges ɛ > 0: Schreibweise: lim P ( X n µ ɛ) = 1 n X n P µ ( Stochastische Konvergenz, X n konvergiert in Wahrscheinlichkeit gegen µ.) Schwaches Gesetz : Kommt daher, dass es auch ein starkes Gesetz gibt. Dort wird eine stärkere Form der Konvergenz betrachtet, welche im Prinzip fordert, dass die Folge nicht nur fast sicher in den Intervallen liegt, sonder praktisch sicher einen entsprechenden Tunnel nie mehr verlässt. Konsequenz für die Interpretation des Erwartungswerts: µ kann in der Tat interpretiert werden als Durchschnittswert in einer unendlichen Folge von Wiederholungen des Zufallsexperiments. 1 Wahrscheinlichkeitsrechnung 190

37 1.7 Grenzwertsätze und Approximationen Der Hauptsatz der Statistik Jetzt betrachten wir die empirische Verteilungsfunktion: In jedem Punkt x ist F n (x) vor der Stichprobe eine Zufallsvariable, also ist F n eine zufällige Funktion Bsp.: Realisation von F n (4) bei n = 3 bei Realisation der Stichprobe 1, 3, 7: bei Realisation der Stichprobe 5, 6, 8: F 3 (4) = F 3 (4) = Wahrscheinlichkeitsrechnung 191

38 1.7 Grenzwertsätze und Approximationen Jetzt vergleiche die empirische Verteilungsfunktion F n (x) und die wahre Verteilungsfunktion F (x): Für jeden einzelnen Punkt x 0 gilt nach dem schwachen Gesetz der großen Zahl F n (x 0 ) = 1 n n 1(X i x 0 ) i=1 P P (X x 0 ) = F (x 0 ). Jetzt globale Sicht: Was passiert wenn man die ganze Funktion auf einmal betrachtet? d Wie vergleicht man die zufällige Funktion F n (x) mit der Funktion F (x)? Der Abstand hängt ja von dem Punkt x ab, in dem gemessen wird! 1 Wahrscheinlichkeitsrechnung 192

39 1.7 Grenzwertsätze und Approximationen Idee: Maximaler Abstand max F X 1,...,X n n x R (x) F (x) Existiert nicht immer; formal muss man das sogenannte Supremum betrachten. Trotzdem so merken: Wenn maximaler Abstand klein, dann Abstand überall klein! Satz [Hauptsatz der Statistik] Seien X 1,..., X n i.i.d. mit Verteilungsfunktion F und sei F n (x) die empirische Verteilungsfunktion der ersten n Beobachtungen. Mit D n := sup x F n (x) F (x), gilt für jedes c > 0 lim P (D n > c) = 0. n 1 Wahrscheinlichkeitsrechnung 193

40 1.7 Grenzwertsätze und Approximationen Interpretation: (1:lx)/lx (1:lx)/lx (1:lx)/lx (1:lx)/lx (1:lx)/lx (1:lx)/lx sort(x) sort(x) sort(x) sort(x) sort(x) Normal CDF Normal CDF (1:lx)/lx (1:lx)/lx (1:lx)/lx function(x) pnorm(x, 0, 1) (x) function(x) pnorm(x, 0, 1) (x) sort(x) sort(x) sort(x) x x 1 Wahrscheinlichkeitsrechnung 194

41 1.7 Grenzwertsätze und Approximationen Der zentrale Grenzwertsatz Gibt es für große Stichprobenumfänge Regelmäßigkeiten im Verteilungstyp? Gibt es eine Standardverteilung, mit der man oft bei großen empirischen Untersuchungen rechnen kann? Damit kann man dann insbesondere Fehlermengen einheitlich behandeln. 1 Wahrscheinlichkeitsrechnung 195

42 1.7 Grenzwertsätze und Approximationen Satz [Zentraler Grenzwertsatz] Seien X 1,..., X n i.i.d. mit E(X i ) = µ und Var(X i ) = σ 2 > 0 sowie Z n = 1 n n ( ) Xi µ. σ i=1 Dann gilt: Z n ist asymptotisch standardnormalverteilt, in Zeichen: Z n z a N (0; 1), d.h. es gilt für jedes lim P ({Z n z}) = Φ(z). n Für die Eingangsfragen gilt also: Ja, wenn man die Variablen geeignet mittelt und standardisiert, dann kann man bei großem n näherungsweise mit der Normalverteilung rechnen. Dabei ist für festes n die Approximation umso besser, je symmetrischer die ursprüngliche Verteilung ist. 1 Wahrscheinlichkeitsrechnung 196

43 1.7 Grenzwertsätze und Approximationen Histogram of res Histogram of res Histogram of res Histogram of res Histogram of res Density Density Density Density Density Density res res res res res Histogram of res Histogram of res Histogram of res Histogram of res Histogram of res Density Density Density Density Density res res res res res 1 Wahrscheinlichkeitsrechnung 197

44 1.7 Grenzwertsätze und Approximationen Anwendung des zentralen Grenzwertsatz auf X: Gemäß dem Gesetz der großen Zahlen weiß man: Xn µ Für die Praxis ist es aber zudem wichtig, die konkreten Abweichungen bei großem aber endlichem n zu quantifizieren, etwa zur Beantwortung folgender Fragen: Gegeben eine Fehlermarge ε und Stichprobenumfang n: Wie groß ist die Wahrscheinlichkeit, dass X höchstens um ε von µ abweicht? Gegeben eine Fehlermarge ε und eine Sicherheitswahrscheinlichkeit γ: Wie groß muss man n mindestens wählen, damit mit mindestens Wahrscheinlichkeit γ das Stichprobenmittel höchstens um ε von µ abweicht (Stichprobenplanung)? Aus dem zentralen Grenzwertsatz folgt: 1 n n ( ) Xi µ i=1 σ = n i=1 X i nµ n σ = n X n nµ n σ = X n µ σ/ n a N (0, 1) 1 Wahrscheinlichkeitsrechnung 198

45 1.7 Grenzwertsätze und Approximationen Wichtige Anwendung: Approximation der Binomialverteilung Sei X B(n, π). Kann man die Verteilung von X approximieren? Hier hat man zunächst nur ein X. Der zentrale Grenzwertsatz gilt aber für eine Summe vieler Glieder. Idee: Schreibe X als Summe von binären Zufallsvariablen. X ist die Anzahl der Treffer in einer i.i.d. Folge Y 1,..., Y n von Einzelversuchen, wobei Y i = 1 Treffer 0 kein Treffer Die Y i sind i.i.d. Zufallsvariablen mit Y i B(1, π) und es gilt X = n Y i, E(Y i ) = π, Var(Y i ) = π (1 π). i=1 1 Wahrscheinlichkeitsrechnung 199

46 1.7 Grenzwertsätze und Approximationen Damit lässt sich der zentrale Grenzwertsatz anwenden: ( ) 1 n Yi π = n π(1 π) i=1 = 1 Yi n π n π(1 π) Yi n π n π(1 π) a N (0, 1) und damit so dass X E(X) Var(X) a N (0, 1) P (X x) Φ ( ) x n π n π(1 π) falls n groß genug. Es gibt verschiedene Faustregeln, ab wann diese Approximation gut ist, z.b. n π 5 und n (1 π) 5 n π(1 π) 9 1 Wahrscheinlichkeitsrechnung 200

47 1.7 Grenzwertsätze und Approximationen Fiktives Beispiel: Ein Politiker ist von einer gewissen umstrittenen Maßnahme überzeugt und überlegt, ob es taktisch geschickt ist, zur Unterstützung der Argumentation eine Mitgliederbefragung zu dem Thema durchzuführen. Er wählt dazu 200 Mitglieder zufällig aus und beschließt, eine Mitgliederbefragung zu riskieren, falls er in der Stichprobe mindestens 52% Zustimmung erhält. Wie groß ist die Wahrscheinlichkeit, in der Stichprobe mindestens 52% Zustimmung zu erhalten, obwohl der wahre Anteil nur 48% beträgt? X Anzahl der Ja-Stimmen X ja/nein Binomialmodell X B(n, π) mit n = 200 und π = 48% n π = 96 und n (1 π) = 104: Faustregel erfüllt, die Normalapproximation darf also angewendet werden. 1 Wahrscheinlichkeitsrechnung 201

48 1.7 Grenzwertsätze und Approximationen Gesucht: W keit dass mind. 52%, also 104 Mitglieder, zustimmen, d.h. P (X 104) = 1 P (X < 104) = Φ( ) (1 0.48) = 1 Φ(1.13) = = 12.87% 1 Wahrscheinlichkeitsrechnung 202

49 1.8 Mehrdimensionale Zufallsvariablen 1.8 Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( X ) ( X ) : Ω Y Y Das Hauptinteresse gilt (entsprechend der Kontingenztafel in Statistik I) der gemeinsamen Verteilung P ({X = x i } {Y = y j }) 1 Wahrscheinlichkeitsrechnung 203

50 1.8 Mehrdimensionale Zufallsvariablen Definition Betrachtet werden zwei eindimensionale diskrete Zufallselemente X und Y (zu demselben Zufallsexperiment). Die Wahrscheinlichkeit P (X = x i, Y = y j ) := P ({X = x i } {Y = y j }) in Abhängigkeit von x i und y j heißt gemeinsame Verteilung der mehrdimensionalen Zufallsvariable ( X) Y bzw. der Variablen X und Y. Randwahrscheinlichkeiten: p i = P (X = x i ) = p j = P (Y = y j ) = m P (X = x i, Y = y j ) j=1 k P (X = x i, Y = y j ) i=1 1 Wahrscheinlichkeitsrechnung 204

51 1.8 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen: P (X = x i Y = y j ) = P (X = x i, Y = y j ) P (Y = y j ) P (Y = y j X = x i ) = P (X = x i, Y = y j ) P (X = x i ) Stetiger Fall (nicht klausurrelevant): Zufallsvariable mit zweidimensionaler Dichtefunktion f(x, y): P (a X b, c Y d) = b a ( ) d f(x, y)dy dx c 1 Wahrscheinlichkeitsrechnung 205

52 1.8 Mehrdimensionale Zufallsvariablen Definition Seien X und Y zwei Zufallsvariablen. Dann heißt σ X,Y := Cov(X, Y ) = E((X E(X))(Y E(Y ))) Kovarianz von X und Y. Rechenregeln: Cov(X, X) = Var(X) Cov(X, Y ) = E(XY ) E(X) E(Y ) Cov(X, Y ) = Cov(Y, X) Mit X = a X X + b X und Ỹ = a Y Y + b Y ist Cov( X, Ỹ ) = a X a Y Cov(X, Y ) Var(X + Y ) = Var(X) + Var(Y ) + 2 Cov(X, Y ) Definition Zwei Zufallsvariablen X und Y mit Cov(X, Y ) = 0 heißen unkorreliert. 1 Wahrscheinlichkeitsrechnung 206

53 1.8 Mehrdimensionale Zufallsvariablen Satz Stochastisch unabhängige Zufallsvariablen sind unkorreliert. Die Umkehrung gilt jedoch im allgemeinen nicht. Vergleiche Statistik I: Kovarianz misst nur lineare Zusammenhänge. Definition Gegeben seien zwei Zufallsvariablen X und Y. Dann heißt ρ(x, Y ) = Cov(X, Y ) Var(X) Var(Y ) Korrelationskoeffizient von X und Y. 1 Wahrscheinlichkeitsrechnung 207

54 1.8 Mehrdimensionale Zufallsvariablen Eigenschaften des Korrelationskoeffizienten: Mit X = a X X + b X und Ỹ = a Y Y + b Y ist ρ( X, Ỹ ) = ρ(x, Y ). 1 ρ(x, Y ) 1. ρ(x, Y ) = 1 Y = ax + b Sind Var(X) > 0 und Var(Y ) > 0, so gilt ρ(x, Y ) = 0 genau dann, wenn Cov(X, Y ) = 0. 1 Wahrscheinlichkeitsrechnung 208

55 1.8 Mehrdimensionale Zufallsvariablen Bsp [Chuckk-a-Luck:] X 1 X 6 Gewinn, wenn beim ersten Wurf ein Einsatz auf 1 gesetzt wird. Gewinn, wenn beim ersten Wurf ein Einsatz auf 6 gesetzt wird. Kovarianz zwischen X 1 und X 6 : 1 Wahrscheinlichkeitsrechnung 209

56 (x 1, x 6 ) P (X 1 = x 1, X 6 = x 6 ) (x 1, x 6 ) P (X 1 = x 1, X 6 = x 6 ) 1.8 Mehrdimensionale Zufallsvariablen ( 1, 1) ( 1, 3) ( 1, 1) (3, 1) (1, 1) (1, 1) ( 1, 2) (1, 2) (2, 1) (2, 1) E(X 1 X 6 ) = 50/216 = Cov(X 1, X 6 ) = ( ) ( ) = Wahrscheinlichkeitsrechnung 210

0, sonst. heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X Po(λ). Es gilt. x! e λ, x {0, 1,...} 1 Wahrscheinlichkeitsrechnung 164

0, sonst. heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X Po(λ). Es gilt. x! e λ, x {0, 1,...} 1 Wahrscheinlichkeitsrechnung 164 1.6.2 Poisson Verteilung (vgl. z.b. Fahrmeir et. al)) 1.6 Wichtige Verteilungsmodelle Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse

Mehr

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212 1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,

Mehr

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}. Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit

Mehr

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenho Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare

Mehr

1.5.4 Quantile und Modi

1.5.4 Quantile und Modi 1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.70. [Quantil, Modus] Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung

Mehr

1.5.4 Quantile und Modi. Bem [Quantil, Modus]

1.5.4 Quantile und Modi. Bem [Quantil, Modus] 1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.73. [Quantil, Modus] und Vertei- Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung

Mehr

Blossfeld, Hamerle, Mayer (1986): Ereignisanalyse: Statistische Theorie und Anwendungen in den Wirtschafts- und Sozialwissenschaften. Campus.

Blossfeld, Hamerle, Mayer (1986): Ereignisanalyse: Statistische Theorie und Anwendungen in den Wirtschafts- und Sozialwissenschaften. Campus. 1.4.4 Lebensdauern; Hazardrate und Survivorfunktion 1.4 Zufallsvariablen und ihre Verteilung Moderner Zweig vieler empirischer Untersuchungen: Lebensdaueranalyse bzw. allgemeiner Ereignisanalyse. Im Folgenden

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Beispiel: Zweidimensionale Normalverteilung I

Beispiel: Zweidimensionale Normalverteilung I 10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt

Mehr

Ü b u n g s b l a t t 15

Ü b u n g s b l a t t 15 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine

Mehr

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen 6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch 6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenho Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

1.8 Mehrdimensionale Zufallsvariablen

1.8 Mehrdimensionale Zufallsvariablen 1.8 Mehrdimensionale Zufallsvariablen 1.8 Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Schnelldurchgang unter Bezug auf das

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Statistik II für Studierende der Soziologie

Statistik II für Studierende der Soziologie Name: Matrikelnummer: Formelsammlung zur Vorlesung Statistik II für Studierende der Soziologie Dr. Carolin Strobl SoSe 2009 1 Wahrscheinlichkeitsrechnung 1.1 Mengen und elementare Mengenoperationen Definition:

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Kapitel VI - Lage- und Streuungsparameter

Kapitel VI - Lage- und Streuungsparameter Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VI - Lage- und Streuungsparameter Markus Höchstötter Lehrstuhl für Statistik, Ökonometrie

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst.

Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst. Aufgabe 1 (2 + 4 + 2 + 1 Punkte) Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen X und Y : { 2x + 2y für 0.5 x 0.5, 1 y 2 f(x, y) = 3 0 sonst. a) Berechnen

Mehr

Zusammenfassung PVK Statistik

Zusammenfassung PVK Statistik Zusammenfassung PVK Statistik (Diese Zusammenfassung wurde von Carlos Mora erstellt. Die Richtigkeit der Formeln ist ohne Gewähr.) Verteilungen von diskreten Zufallsvariablen Beschreibung Binomialverteilung

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

1.5 Erwartungswert und Varianz

1.5 Erwartungswert und Varianz Ziel: Charakterisiere Verteilungen von Zufallsvariablen durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere: a) durchschnittlicher Wert Erwartungswert, z.b.

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg . Vorlesung Grundlagen in Statistik Seite 29 Beispiel Gegeben: Termhäufigkeiten von Dokumenten Problemstellung der Sprachmodellierung Was sagen die Termhäufigkeiten über die Wahrscheinlichkeit eines Dokuments

Mehr

5. Stochastische Modelle I: Diskrete Zufallsvariablen

5. Stochastische Modelle I: Diskrete Zufallsvariablen 5. Stochastische Modelle I: Diskrete Zufallsvariablen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Zufallsgrößen Eine Zufallsgröße X ist eine Größe, deren Wert wir nicht exakt kennen

Mehr

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)

Mehr

12 Die Normalverteilung

12 Die Normalverteilung 12 Die Normalverteilung Die Normalverteilung ist eine der wichtigsten Wahrscheinlichkeitsverteilungen in der Praxis, weil aufgrund des sogenannten zentralen Grenzwertsatzes in vielen Situationen angenommen

Mehr

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...

1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente... Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler 6.6 Normalverteilung Die Normalverteilung kann als das wichtigste Verteilungsmodell der Statistik angesehen werden. Sie wird nach ihrem Entdecker auch Gaußsche Glockenkurve genannt. Die herausragende Stellung

Mehr

Von der Normalverteilung zu z-werten und Konfidenzintervallen

Von der Normalverteilung zu z-werten und Konfidenzintervallen Von der Normalverteilung zu z-werten und Konfidenzintervallen Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Inferenzstatistik (=schließende Statistik)

Inferenzstatistik (=schließende Statistik) Inferenzstatistik (=schließende Statistik) Grundproblem der Inferenzstatistik: Wie kann man von einer Stichprobe einen gültigen Schluß auf di Grundgesamtheit ziehen Bzw.: Wie groß sind die Fehler, die

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 17. November 2010 1 Gesetze Das Gesetz der seltenen Ereignisse Das schwache Gesetz der großen Zahl 2 Verteilungsfunktionen

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Wahrscheinlichkeitsrechnung und schließende Statistik

Wahrscheinlichkeitsrechnung und schließende Statistik Springer-Lehrbuch Wahrscheinlichkeitsrechnung und schließende Statistik von Karl Mosler, Friedrich Schmid Neuausgabe Wahrscheinlichkeitsrechnung und schließende Statistik Mosler / Schmid schnell und portofrei

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen

Mehr

Der Trainer einer Fußballmannschaft stellt die Spieler seiner Mannschaft auf. Insgesamt besteht der Kader seiner Mannschaft aus 23 Spielern.

Der Trainer einer Fußballmannschaft stellt die Spieler seiner Mannschaft auf. Insgesamt besteht der Kader seiner Mannschaft aus 23 Spielern. Aufgabe 1 (2 + 1 + 2 + 2 Punkte) Der Trainer einer Fußballmannschaft stellt die Spieler seiner Mannschaft auf. Insgesamt besteht der Kader seiner Mannschaft aus 23 Spielern. a) Wieviele Möglichkeiten hat

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler

Mehr

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung Programm Wiederholung Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung Binomialverteilung Hypergeometrische Verteilung Wiederholung verschiedene Mittelwerte für verschiedene Skalenniveaus

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik . Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 0.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0 Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

1 Stochastische Konvergenz 2

1 Stochastische Konvergenz 2 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin. Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Biometrieübung 5 Spezielle Verteilungen. 1. Anzahl von weiblichen Mäusen in Würfen von jeweils 4 Mäusen

Biometrieübung 5 Spezielle Verteilungen. 1. Anzahl von weiblichen Mäusen in Würfen von jeweils 4 Mäusen Biometrieübung 5 (Spezielle Verteilungen) - Aufgabe Biometrieübung 5 Spezielle Verteilungen Aufgabe 1. Anzahl von weiblichen Mäusen in Würfen von jeweils 4 Mäusen Anzahl weiblicher Mäuse (k) Anzahl Würfe

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Wahrscheinlichkeitsverteilungen 1. Binomialverteilung 1.1 Abzählverfahren 1.2 Urnenmodell Ziehen mit Zurücklegen, Formel von Bernoulli 1.3 Berechnung von Werten 1.4 Erwartungswert und Standardabweichung

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Beziehungen zwischen Verteilungen

Beziehungen zwischen Verteilungen Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie

Mehr

Weierstraß-Institut für Angewandte Analysis und Stochastik Von der Binomialverteilung zur Normalverteilung

Weierstraß-Institut für Angewandte Analysis und Stochastik Von der Binomialverteilung zur Normalverteilung Weierstraß-Institut für Angewandte Analysis und Stochastik Von der Binomialverteilung zur Normalverteilung Wolfgang König (WIAS und TU Berlin) Mohrenstraße 39 10117 Berlin Tel. 030 20372 0 www.wias-berlin.de

Mehr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt. . Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr