Diskrete Zufallsvariablen (Forts.) I

Ähnliche Dokumente
Diskrete Zufallsvariablen (Forts.) I

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Weitere Lagemaße: Quantile/Perzentile I

Inhaltsverzeichnis (Ausschnitt)

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen

Kapitel 8: Zufallsvektoren

Statistik I für Betriebswirte Vorlesung 3

Statistik für Ingenieure Vorlesung 3

7.2 Moment und Varianz

4.2 Moment und Varianz

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

1.5 Erwartungswert und Varianz

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2010/11.

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0

Kapitel VII - Funktion und Transformation von Zufallsvariablen

1.5 Erwartungswert und Varianz

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Sommersemester 2011

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Sommersemester 2011.

2 Zufallsvariable und Verteilungsfunktionen

Statistik I für Betriebswirte Vorlesung 4

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Erwartungswert und Varianz von Zufallsvariablen

Zufallsvariablen [random variable]

Wahrscheinlichkeitstheorie und Statistik

P (X = 2) = 1/36, P (X = 3) = 2/36,...

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Wirtschaftswissenschaftliches Prüfungssekretariat Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Sommersemester 2015

Aufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2018/19

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression

Stochastik Wiederholung von Teil 1

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2012/13

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Sommersemester 2012

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze

Vorlesung: Statistik II für Wirtschaftswissenschaft

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2014/15.

Statistik I für Betriebswirte Vorlesung 3

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Aufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2017/18. Dr.

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

Kapitel 12 Erwartungswert und Varianz

Kenngrößen von Zufallsvariablen

1 Multivariate Zufallsvariablen

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Aufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2015/16. Dr.

Zufallsvariablen rekapituliert

8 Verteilungsfunktionen und Dichten

Mathematische und statistische Methoden II

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2011/12.

Zufallsvariablen rekapituliert

4. Verteilungen von Funktionen von Zufallsvariablen

Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Studiengang Deskriptive Statistik und Wahrscheinlichkeitsrechnung Sommersemester 2010

Mehrdimensionale Zufallsvariablen

Wirtschaftsmathematik

Stochastik. 1. Wahrscheinlichkeitsräume

1. Grundbegri e der Stochastik

Marcel Dettling. GdM 2: LinAlg & Statistik FS 2017 Woche 11. Winterthur, 10. Mai Institut für Datenanalyse und Prozessdesign

Eindimensionale Zufallsvariablen

2 Zufallsvariable, Verteilungen, Erwartungswert

Zufallsvariable: Verteilungen & Kennzahlen

8. Stetige Zufallsvariablen

5 Erwartungswerte, Varianzen und Kovarianzen

5. Spezielle stetige Verteilungen

SozialwissenschaftlerInnen II

Varianz und Kovarianz

Statistik I. 1. Klausur Wintersemester 2010/2011 Hamburg, Art der Anmeldung: STiNE FlexNow Zulassung unter Vorbehalt

Wahrscheinlichkeitsrechnung. Sommersemester Kurzskript

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Grundbegriffe der Wahrscheinlichkeitsrechnung

5.4 Verteilungsfunktion Verteilungsfunktion diskreten Zufallsvariablen stetigen Zufallsvariablen Verteilungsfunktion

Aufgabenstellung und Ergebnisse zur. Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Sommersemester Dr.

Vorlesung Gesamtbanksteuerung Mathematische Grundlagen II Dr. Klaus Lukas Carsten Neundorf. Vorlesung 04 Mathematische Grundlagen II,

Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn Referenten: Belinda Höher, Thomas Holub, Maria Böhm.

Spezielle diskrete Verteilungen

Spezielle diskrete Verteilungen

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

1.5 Mehrdimensionale Verteilungen

Demokurs. Modul Grundlagen der Wirtschaftsmathematik Grundlagen der Statistik

Einführung in die angewandte Stochastik

Unabhängige Zufallsvariablen

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Bestimmte Zufallsvariablen sind von Natur aus normalverteilt. - naturwissenschaftliche Variablen: originär z.b. Intelligenz, Körpergröße, Messfehler

2. Zufallsvariable, Verteilungsfunktion, Erwartungswert,

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

Transkript:

9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig mit x i bezeichnet (für i {,..., n} bzw. i N), Summationen über Trägerpunkte mit dem Symbol x i. Ist p X : R R die Wahrscheinlichkeitsfunktion einer diskreten Zufallsvariablen X, so gilt P X (A) = x i A T (X ) p X (x i ) für alle A B. Spezieller gilt für die Verteilungsfunktion F X einer diskreten Zufallsvariablen F X (x) = p X (x i ) für alle x R. x i T (X ) x i x Verteilungsfunktionen diskreter Zufallsvariablen sind damit (vergleichbar mit empirischen Verteilungsfunktionen) Treppenfunktionen mit Sprunghöhen p X (x i ) an den Sprungstellen (=Trägerpunkten) x i T (X ). Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 2 9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) II Im Münzwurf-Beispiel: F X (x) = für x < 8 für x < 2 für x < 2 7 8 für 2 x < 3 für x 3 Ist der Träger T (X ) endlich und die Anzahl der Elemente in T (X ) klein, so werden die Punktwahrscheinlichkeiten häufig in Tabellenform angegeben. Im Münzwurf-Beispiel: x i 2 3 p X (x i ) 8 3 8 3 8 8 Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 22

9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) III Grafische Darstellung im Münzwurf-Beispiel: Punktwahrscheinlichkeiten Verteilungsfunktion p X (x)...2.3.4 F X (x)..2.4.6.8. 2 3 4 x 2 3 4 x Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 23 9 Eindimensionale Zufallsvariablen Stetige Zufallsvariablen 9.5 Stetige Zufallsvariablen I Weiterer wichtiger Spezialfall: stetige Zufallsvariablen Wertebereich stetiger Zufallsvariablen ist immer ein Kontinuum: es gibt keine endliche oder abzählbar unendliche Menge B R mit P X (B) =, stattdessen gilt sogar P X (B) = für alle endlichen oder abzählbar unendlichen Teilmengen B R. Verteilungsfunktionen stetiger Zufallsvariablen sind nicht (wie bei diskreten Zufallsvariablen) als Summe von Wahrscheinlichkeitsfunktionswerten darstellbar, sondern als Integral über eine sogenannte Dichtefunktion: Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 24

9 Eindimensionale Zufallsvariablen Stetige Zufallsvariablen 9.5 Stetige Zufallsvariablen II Definition 9.4 (Stetige Zufallsvariable, Dichtefunktion) Seien (Ω, F, P) ein Wahrscheinlichkeitsraum und X eine Zufallsvariable über (Ω, F, P). Gibt es eine nichtnegative Abbildung f X : R R mit F X (x) = x f X (t)dt für alle x R, (2) so heißt die Zufallsvariable X stetig. Jede nichtnegative Abbildung f X mit der Eigenschaft (2) heißt Dichtefunktion von X. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 25 9 Eindimensionale Zufallsvariablen Stetige Zufallsvariablen 9.5 Stetige Zufallsvariablen III Aus Definition 9.4 lassen sich weitere Eigenschaften von stetigen Zufallsvariablen bzw. Dichtefunktionen ableiten, zum Beispiel: PX ({x}) = für alle x R. FX (x ) = F X (x) für alle x R, F X ist also stetig auf R. P({a X b}) = P({a < X b}) = P({a X < b}) = P({a < X < b}) = F X (b) F X (a) = b f a X (t)dt für alle a, b R mit a b. (Mindestens) in allen Stetigkeitsstellen x R von fx ist F X differenzierbar und es gilt F X (x) = f X (x). Wahrscheinlichkeit von Intervallen stimmt mit Fläche zwischen Intervall und Dichtefunktion (analog zu Histogrammen bei deskriptiver Statistik mit klassierten Daten) überein. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 26

9 Eindimensionale Zufallsvariablen Stetige Zufallsvariablen 9.5 Stetige Zufallsvariablen IV Dichtefunktion f X zu einer Verteilungsfunktion F X ist nicht eindeutig bestimmt; Abänderungen von f X an endlich oder abzählbar unendlich vielen Stellen sind beliebig möglich! Aber: Ist f X : R R nichtnegative uneigentlich integrierbare Abbildung mit f X (x)dx =, so gibt es genau eine Verteilungsfunktion F X : R R, zu der f X Dichtefunktion ist. Neben diskreten und stetigen Zufallsvariablen sind auch Mischformen (mit einem diskreten und stetigen Anteil) möglich, auf die hier aber nicht näher eingegangen wird! Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 27 9 Eindimensionale Zufallsvariablen Stetige Zufallsvariablen 9.5 Beispiel: Die Abbildung f X : R R; f X (x) := { 6(x x 2 ) für x sonst ist nichtnegativ und uneigentlich integrierbar mit f X (x)dx =, also eine Dichtefunktion. Die Verteilungsfunktion F X zu f X erhält man als x für x < F X : R R; F X (x) = f X (t)dt = 3x 2 2x 3 für x. für x > Dichtefunktion Verteilungsfunktion f X (x)..5..5 F X (x)..4.8.5..5..5.5..5..5 x x Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 28

9 Eindimensionale Zufallsvariablen (Lineare) Abbildungen von Zufallsvariablen 9.6 (Lineare) Abbildungen von Zufallsvariablen I Genauso, wie man mit Hilfe einer F B messbaren Abbildung X : Ω R als Zufallsvariable über einem Wahrscheinlichkeitsraum (Ω, F, P) einen neuen Wahrscheinlichkeitsraum (R, B, P X ) erhält, kann aus diesem mit einer nachgeschalteten B B messbaren Abbildung G : R R ein weiterer Wahrscheinlichkeitsraum gewonnen werden! Mehrere Auffassungen möglich: G als Zufallsvariable über (R, B, P X ) durch (P X ) G (B) = P X (G (B)) für alle B B. 2 G(X ) := G X als Zufallsvariable über (Ω, F, P) durch P G(X ) (B) = P((G X ) (B)) = P(X (G (B))) für alle B B. Man erkennt leicht, dass beide Auffassungen miteinander vereinbar sind (es gilt (P X ) G = P G(X ) ), daher Schreibweise G(X ) auch geläufig, wenn (Ω, F, P) nicht im Vordergrund steht. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 29 9 Eindimensionale Zufallsvariablen (Lineare) Abbildungen von Zufallsvariablen 9.6 (Lineare) Abbildungen von Zufallsvariablen II Im Folgenden: Betrachtung besonders einfacher (linearer) Abbildungen G, also Abbildungen der Form G(x) = a x + b für a, b R mit a. Man kann zeigen, dass G (als stetige Funktion) stets B B messbar ist. Problemstellung: Wie kann die Verteilung von Y := G(X ) (möglichst leicht!) aus der Verteilung von X gewonnen werden? Idee: Abbildung G ist insbesondere bijektiv, es existiert also die Umkehrfunktion G (y) = y b. a Für diskrete Zufallsvariablen X mit Trägerpunkten x i und zugehöriger Wahrscheinlichkeitsfunktion p X ist offensichtlich auch Y diskret mit Trägerpunkten yi = a x i + b und Wahrscheinlichkeitsfunktion py (y) = P Y ({y}) = P X ({ y b }) = p a X ( y b ). a (Es gilt also p i = p X (x i ) = p Y (a x i + b) = p Y (y i )) Ähnlich lassen sich zu Y = G(X ) auch Dichtefunktionen f Y (bei stetigen Zufallsvariablen X ) aus f X sowie (allgemein) Verteilungsfunktionen F Y aus F X bestimmen: Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 2

9 Eindimensionale Zufallsvariablen (Lineare) Abbildungen von Zufallsvariablen 9.6 Satz 9.5 Es seien X eine (eindimensionale) Zufallsvariable, a, b R mit a und G : R R die Abbildung mit G(x) = ax + b für alle x R. Dann ist Y := G(X ) = ax + b ebenfalls eine Zufallsvariable und es gilt F Y (y) = { F X ( y b a ) für a > F X ( y b a ) für a < } für alle y R. Ist X diskret und p X die Wahrscheinlichkeitsfunktion von X, so ist auch Y diskret und die Wahrscheinlichkeitsfunktion p Y von Y gegeben durch: ( ) y b p Y : R R; p Y (y) = p X a Ist X stetig und f X eine Dichtefunktion von X, so ist auch Y stetig und f Y : R R; f Y (y) := ( ) y b a f X a eine Dichtefunktion zu Y. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 2 9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Erwartungswert von Zufallsvariablen I Analog zur Lage- und Streuungsmaßen in deskriptiver Statistik: Oft Verdichtung der Information aus Verteilungen von Zufallsvariablen auf eine oder wenige Kennzahlen erforderlich. Kennzahl für Lage der Verteilung: Erwartungswert Zur allgemeinen Definition zuviel Maß- und Integrationstheorie erforderlich, daher Beschränkung auf diskrete und stetige Zufallsvariablen (separat). In deskriptiver Statistik: Arithmetischer Mittelwert eines Merkmals als (mit den relativen Häufigkeiten) gewichtetes Mittel der aufgetretenen Merkmalswerte. Bei diskreten Zufallsvariablen analog: Erwartungswert als (mit den Punktwahrscheinlichkeiten) gewichtetes Mittel der Trägerpunkte. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 22

9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Erwartungswert von Zufallsvariablen II Definition 9.6 (Erwartungswerte diskreter Zufallsvariablen) Es sei X eine diskrete Zufallsvariable mit Trägerpunkten x i und Wahrscheinlichkeitsfunktion p X. Gilt so heißt x i x i p X (x i ) <, (3) µ X := E X := E(X ) := x i x i p X (x i ) der Erwartungswert (Mittelwert) der Zufallsvariablen X. Gilt (3) nicht, so sagt man, der Erwartungswert von X existiere nicht. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 23 9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Erwartungswert von Zufallsvariablen III Anders als in deskriptiver Statistik: Erwartungswert einer Zufallsvariablen existiert möglicherweise nicht! Existenzbedingungen sind zwar (auch in anderen Definitionen) angeführt, bei den hier betrachteten Zufallsvariablen sind diese aber stets erfüllt. Ist der Träger T (X ) einer diskreten Zufallsvariablen X endlich, so existiert E(X ) stets (Summe endlich). Gilt spezieller T (X ) = {a} für ein a R, d.h. gilt p X (a) = und p X (x) = für alle x R mit x a, dann nennt man die Verteilung von X eine Einpunktverteilung und es gilt offensichtlich E(X ) = a. Für stetige Zufallsvariablen ist die Summation durch ein Integral, die Wahrscheinlichkeitsfunktion durch eine Dichtefunktion und die Trägerpunkte durch die Integrationsvariable zu ersetzen: Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 24

9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Erwartungswert von Zufallsvariablen IV Definition 9.7 (Erwartungswerte stetiger Zufallsvariablen) Es sei X eine stetige Zufallsvariable und f X eine Dichtefunktion von X. Gilt so heißt µ X := E X := E(X ) := x f X (x)dx <, (4) x f X (x)dx der Erwartungswert (Mittelwert) der Zufallsvariablen X. Gilt (4) nicht, so sagt man, der Erwartungswert von X existiere nicht. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 25 9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Symmetrie Definition 9.8 (Symmetrische Zufallsvariablen) Eine Zufallsvariable X über einem Wahrscheinlichkeitsraum (Ω, F, P) heißt symmetrisch um a R, falls die Verteilungen von X a und a X übereinstimmen. Alternative (äquivalente) Bedingungen für beliebige Zufallsvariablen X : P X ({X a + x}) = P X ({X a x}) bzw. F X (a + x) = F X (a x ) für alle x R. für diskrete Zufallsvariablen X : Für alle x i T (X ) gilt 2a x i T (X ) und spezieller p X (x i ) = p X (2a x i ). für stetige Zufallsvariablen X : Es existiert eine Dichte f X von X mit f X (a + x) = f X (a x) bzw. f X (x) = f X (2a x) für alle x R. Existiert der Erwartungswert E(X ) von X und ist X symmetrisch um a R, dann gilt stets a = E(X ). Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 26

9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Erwartungswert von G(X ) Zur Einführung weiterer Kennzahlen für Verteilung einer Zufallsvariablen X nötig: Erwartungswerte von Transformationen G(X ) für verschiedene (nicht nur lineare) B B messbare Abbildungen G : R R. Definition 9.9 Es seien X eine Zufallsvariable und G : R R eine B B messbare Abbildung. Ist X diskrete Zufallsvariable, x i die Trägerpunkte sowie p X die Wahrscheinlichkeitsfunktion von X und gilt x i G(x i ) p X (x i ) <, dann existiert der Erwartungswert E(G(X )) und es gilt E(G(X )) = x i G(x i ) p X (x i ). Ist X stetige Zufallsvariable mit Dichtefunktion f X und gilt + G(x) f X (x)dx <, dann existiert der Erwartungswert E(G(X )) und es gilt E(G(X )) = G(x) f X (x)dx. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 27 9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Höhere Momente von Zufallsvariablen Definition 9. (k-te Momente, Varianz, Standardabweichung) Es seien X eine (eindimensionale) Zufallsvariable, k N. Man bezeichnet den Erwartungswert E(X k ) (falls er existiert) als das Moment k-ter Ordnung (um Null) von X. Existiert E(X ), so bezeichnet man den Erwartungswert E[(X E(X )) k ] (falls er existiert) als das zentrale Moment k-ter Ordnung von X. Das zweite zentrale Moment heißt auch Varianz von X, und man schreibt σ 2 X := Var(X ) := E[(X E(X ))2 ] = E[(X µ X ) 2 ]. Die positive Wurzel der Varianz von X heißt auch Standardabweichung von X, und man schreibt σ X := Sd(X ) := + σ 2 X. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 28

9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Rechenregeln für Erwartungswerte und Varianz I Satz 9. Es seien X eine (eindimensionale) Zufallsvariable, a, b R. Existiert E(X ), so existiert auch der Erwartungswert von ax + b und es gilt: E(aX + b) = a E(X ) + b Existiert Var(X ), so existiert auch die Varianz von ax + b und es gilt: Var(aX + b) = a 2 Var(X ) Für die Standardabweichung gilt dann Sd(aX + b) = a Sd(X ). Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 29 9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Rechenregeln für Erwartungswerte und Varianz II Satz 9.2 (Varianzzerlegungssatz) Es sei X eine (eindimensionale) Zufallsvariable. Dann existiert die Varianz Var(X ) genau dann, wenn E(X 2 ) (und E(X )) existiert, und in diesem Fall gilt: Var(X ) = E(X 2 ) [E(X )] 2 Die Eigenschaft aus Satz 9., den Erwartungswertoperator E( ) mit linearen Abbildungen vertauschen zu dürfen, lässt sich zum Beispiel wie folgt verallgemeinern: Es seien X eine (eindimensionale) Zufallsvariable, a, b R sowie G : R R und H : R R zwei B B messbare Abbildungen. Existieren E(G(X )) und E(H(X )), dann gilt: E(aG(X ) + bh(x )) = a E(G(X )) + b E(H(X )) Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 22

9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Rechenregeln für Erwartungswerte und Varianz III Mit Satz 9. folgt direkt: Ist X eine Zufallsvariable mit existierendem Erwartungswert E(X ) und existierender Varianz Var(X ), so erhält man mit Y := X E(X ) Var(X ) = X E(X ) Sd(X ) = X µ X σ X eine neue Zufallsvariable mit E(Y ) = und Var(Y ) = Sd(Y ) =. Man nennt Y dann eine standardisierte Zufallsvariable. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 22 9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Schiefe und Wölbung von Zufallsvariablen I Definition 9.3 (Schiefe (Skewness), Wölbung (Kurtosis)) Sei X eine (eindimensionale) Zufallsvariable mit existierender Varianz σ 2 X >. Existiert das zentrale Moment 3. Ordnung, so nennt man [ (X γ X := γ(x ) := E[(X E(X ) ] 3 ))3 ] µx σx 3 = E σ X die Schiefe (Skewness) von X. 2 Existiert das zentrale Moment 4. Ordnung, so nennt man [ (X κ X := κ(x ) := E[(X E(X ) ] 4 ))4 ] µx σx 4 = E σ X die Wölbung (Kurtosis) von X. Die um 3 verminderte Kurtosis κ X 3 wird auch Exzess-Kurtosis genannt. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 222

9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Schiefe und Wölbung von Zufallsvariablen II Ist X symmetrisch, so ist die Schiefe von X (falls sie existiert) gleich Null. Die Umkehrung der Aussage gilt nicht. Existieren Schiefe bzw. Kurtosis einer Zufallsvariablen X, so existieren auch die Schiefe bzw. Kurtosis von Y := ax + b für a, b R mit a und es gilt: γx = γ Y sowie κ X = κ Y, falls a >, γx = γ Y sowie κ X = κ Y, falls a <. In Abhängigkeit von γ X heißt die Verteilung von X linkssteil oder rechtsschief, falls γx > gilt und rechtssteil oder linksschief, falls γx < gilt. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 223 9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Schiefe und Wölbung von Zufallsvariablen III In Abhängigkeit von κ X heißt die Verteilung von X platykurtisch oder flachgipflig, falls κx < 3 gilt, mesokurtisch oder normalgipflig, falls κx = 3 gilt und leptokurtisch oder steilgipflig, falls κx > 3 gilt. γ X und κ X können (auch wenn sie existieren) nicht beliebige Werte annehmen. Es gilt stets κ X und γ 2 X κ X. Man kann (zur einfacheren Berechnung von γ X und κ X ) leicht zeigen: E[(X E(X )) 3 ] = E(X 3 ) 3 E(X 2 ) E(X ) + 2[E(X )] 3 = E(X 3 ) 3µ X σ 2 X µ 3 X E[(X E(X )) 4 ] = E(X 4 ) 4 E(X 3 ) E(X ) + 6 E(X 2 )[E(X )] 2 3[E(X )] 4 = E(X 4 ) 4 E(X 3 )µ X + 6µ 2 X σ 2 X + 3µ 4 X Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 224

9 Eindimensionale Zufallsvariablen Momente von Zufallsvariablen 9.7 Beispiel zu stetiger Zufallsvariable X aus Folie 28 mit Dichte f X (x) = E(X ) = E(X 2 ) = x f X (x)dx = x 2 f X (x)dx = (6x 2 6x 3 )dx = (6x 3 6x 4 )dx = Var(X ) = E(X 2 ) [E(X )] 2 = 3 ( ) 2 2 = 2 E(X 3 ) = γ(x ) = E(X 4 ) = κ(x ) = x 3 f X (x)dx = 5 3 3 2 + 2 ( 2 ) 3 (/2) 3/2 = x 4 f X (x)dx = (6x 4 6x 5 )dx = 4 9+5 2 (/2) 3/2 = (6x 5 6x 6 )dx = { 6(x x 2 ) für x sonst [ 2x 3 3 2 x 4 ] = 2 [ 3 2 x 4 6 ] 5 x 5 [ ] 6 5 x 5 x 6 [ x 6 6 7 x 7 ] 7 4 5 2 + 6 3 ( 2 ( 2) 3 2 (/2) 2 = 3/56 ) 4 /4 = 5 7 = 3 = 5 = 7. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 225 9 Eindimensionale Zufallsvariablen Quantile von Zufallsvariablen 9.8 Quantile von Zufallsvariablen I Definition 9.4 (p-quantil) Seien X eine eindimensionale Zufallsvariable, p (, ). Jeder Wert x p R mit P{X x p } p und P{X x p } p heißt p-quantil (auch p-perzentil) von X. Man nennt Werte x p mit dieser Eigenschaft spezieller Median von X für p =.5, unteres Quartil von X für p =.25 sowie oberes Quartil von X für p =.75. Ist F X die Verteilungsfunktion von X, so ist x p also genau dann p-quantil von X, wenn F X (x p ) p F X (x p ) gilt, für stetige Zufallsvariablen X also genau dann, wenn F X (x p ) = p gilt. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 226

9 Eindimensionale Zufallsvariablen Quantile von Zufallsvariablen 9.8 Quantile von Zufallsvariablen II p-quantile sind nach Definition 9.4 eindeutig bestimmt, wenn die Verteilungsfunktion F X der Zufallsvariablen X (dort, wo sie Werte in (, ) annimmt) invertierbar ist, also insbesondere stetig und streng monoton wachsend. Bezeichnet F X die Umkehrfunktion von F X, so gilt dann F X x p = F X (p) für alle p (, ). wird in diesem Fall auch Quantilsfunktion genannt. Der Abstand x.75 x.25 zwischen unterem und oberen Quartil wird (wie auch bei empirischen Quartilen) auch Interquartilsabstand (IQA) genannt. Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 227 9 Eindimensionale Zufallsvariablen Quantile von Zufallsvariablen 9.8 Quantile von Zufallsvariablen III Auch ohne die Invertierbarkeit von F X kann Eindeutigkeit von Quantilen zum Beispiel durch die Festsetzung x p := min{x P{X x} p} = min{x F X (x) p} erreicht werden. Man nennt die Abbildung (, ) R; p x p = min{x F X (x) p} häufig auch verallgemeinerte Inverse von F X und verwendet hierfür dann ebenfalls das Symbol F X sowie die Bezeichnung Quantilsfunktion. Diese Eindeutigkeitsfestlegung unterscheidet sich von der vergleichbaren Konvention aus der deskriptiven Statistik für empirische Quantile! Deskriptive Statistik und Wahrscheinlichkeitsrechnung (SS 28) Folie 228