Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Ähnliche Dokumente
Kenngrößen von Zufallsvariablen

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Univariates Datenmaterial

Kapitel 5. Stochastik

K8 Stetige Zufallsvariablen Theorie und Praxis

Übungsblatt 9. f(x) = e x, für 0 x

Aufgaben zu Kapitel 38

8. Stetige Zufallsvariablen

Beispiel Zusammengesetzte Zufallsvariablen

Beispiel: Zweidimensionale Normalverteilung I

Webinar Induktive Statistik. - Wahrscheinlichkeitsrechnung - Stichprobentheorie

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Allgemeine Wahrscheinlichkeitsräume

Begriffe aus der Informatik Nachrichten

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

I. Deskriptive Statistik 1

Zufallsgrößen. Vorlesung Statistik für KW Helmut Küchenhoff

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

Statistische Thermodynamik I Lösungen zur Serie 1

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

Methoden der KI in der Biomedizin Unsicheres Schließen

Mathematik für Biologen

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Multivariate Statistik

Prüfungstutorat: Angewandte Methoden der Politikwissenschaft. Polito Seminar Carl Schweinitz

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Die Varianz (Streuung) Definition

Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse

1.6 Wichtige Verteilungsmodelle

13.5 Der zentrale Grenzwertsatz

Der Trainer einer Fußballmannschaft stellt die Spieler seiner Mannschaft auf. Insgesamt besteht der Kader seiner Mannschaft aus 23 Spielern.

Quantitatives Risikomanagement

Kapitel VI - Lage- und Streuungsparameter

MafI I: Logik & Diskrete Mathematik (Autor: Gerrit (-Arthur) Gruben)

Bedingte Wahrscheinlichkeiten und Unabhängigkeit

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Kapitel 2 Wahrscheinlichkeitsrechnung

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Diskrete Wahrscheinlichkeitstheorie - Probeklausur

Tabellarische und graphie Darstellung von univariaten Daten

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Mathematische Grundlagen

Monte Carlo Methoden in Kreditrisiko-Management

Stochastik für WiWi - Klausurvorbereitung

Elementare statistische Methoden

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Regelmäßigkeit (Erkennen von Mustern und Zusammenhängen) versus Zufall

Übungsrunde 9, Gruppe 2 LVA , Übungsrunde 8, Gruppe 2, Markus Nemetz, TU Wien, 12/2006

Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1

Tabelle 11.2 zeigt die gemeinsame Wahrscheinlichkeitsfunktion und die Randverteilungen

Discrete Probability - Übungen (SS5) Wahrscheinlichkeitstheorie. 1. KR, Abschnitt 6.1, Aufgabe 5: 2. KR, Abschnitt 6.1, Aufgabe 7:

Teil I Beschreibende Statistik 29

Spezielle stetige Verteilungen

Mathematische und statistische Methoden II

Hypergeometrische Verteilung

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

Statistik im Bachelor-Studium der BWL und VWL

Übungen zur Mathematik für Pharmazeuten

Grundlegende Eigenschaften von Punktschätzern

Einführung in die Statistik

Einführung in die Wahrscheinlichkeitsrechnung und Statistik für Ingenieure

$ % + 0 sonst. " p für X =1 $

Grundprinzipien der Bayes-Statistik

Wahrscheinlichkeitsrechnung und schließende Statistik

Signalverarbeitung 2. Volker Stahl - 1 -

Monty Hall-Problem. Wochen 3 und 4: Verteilungen von Zufallsvariablen. Lernziele. Diskrete Verteilungen

Stochastische Eingangsprüfung,

Vorlesung Einführung in die Wahrscheinlichkeit

1 Übungsaufgaben. 1.1 Übungsaufgaben zu Operations Research 1 ÜBUNGSAUFGABEN 0

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Diskrete Wahrscheinlichkeitsverteilungen

Diskrete Verteilungen

1 Gemischte Lineare Modelle

P( X µ c) Var(X) c 2. mit. In der Übung wurde eine alternative, äquivalente Formulierung verwendet: P( X µ < c) 1 Var(X)

Ein möglicher Unterrichtsgang

Übungsrunde 5, Gruppe 2 LVA , Übungsrunde 5, Gruppe 2, Markus Nemetz, TU Wien, 11/2006

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen


Appendix: Stetige Verteilungen

Formelsammlung Statistik II (SS 2010) 1. 1 Numerische und graphische Zusammenfassung quantitativer

8 Stetige Zufallsvariablen

Übungsaufgaben zu Statistik II

Wahrscheinlichkeitstheorie

Angewandte Wahrscheinlichkeitstheorie

Prof. Dr. Christoph Karg Hochschule Aalen. Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik. Sommersemester 2016

Stochastik und Statistik für Ingenieure Vorlesung 4

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = ,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Aufgabensammlung zu Wahrscheinlichkeitsrechnung I

Mathematische und statistische Methoden II

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1

+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert:

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Physik

Einführung in statistische Analysen

Transkript:

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1

Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c eines Zufallsprozesses abhängt Eine diskrete Zufallsvariable X kann nur abzählbar viele Zustände {x 1, x 2,...} annehmen 2

Diskrete Zufallsvariablen (2) Eine Wahrscheinlichkeitsverteilung spezifiziert, mit welcher Wahrscheinlichkeit eine Zufallsvariable einen bestimmten Zustand einnimmt Eine Wahrscheinlichkeitsverteilung von X kann durch eine Wahrscheinlichkeitsfunktion f(x) definiert werden: P (X = x) = P ({c : X(c) = x}) = f(x) (1) f(x) ist die Wahrscheinlichkeitsfunktion und x ist eine Realisierung von X. Typischerweise macht man sich keine Gedanken über den zugrundeliegenden Zufallsprozess und man definiert einfach eine Wahrscheinlichkeitsverteilung. Wir schreiben in der Regel f(x) = P X (x) = P (x) (2) 3

Beispiel: 2 Würfe eines fairen Würfels: Elementarereignisse Elementarereignis: Ergebnis zweier Würfe c = {c 1, c 2 }: erster Wurf ist c 1, der zweite ist c 2 Die Wahrscheinlichkeit jedes Elementarereignisses ist 1/36 4

Beispiel: Zufallsvariable X X = 0 falls c 1 {1, 2, 3} und X = 1 anderenfalls P (X = 0) = P ({c : X(c) = 0}) = 1/36 3 6 = 1/2 = f(0) P (X = 1) = P ({c : X(c) = 1}) = 1/36 3 6 = 1/2 = f(1) 5

Beispiel: Zufallsvariable Y Y = 0 falls c 2 {1, 2, 3, 4} und Y = 1 anderenfalls P (Y = 0) = P ({c : Y (c) = 0}) = 1/36 4 6 = 2/3 = f(0) P (Y = 1) = P ({c : Y (c) = 1}) = 1/36 2 6 = 1/3 = f(1) 6

Beispiel: Zufallsvariable Z Z = 0 falls c 1 + c 2 5 und Z = 1 anderenfalls P (Z = 0) = P ({c : Z(c) = 0}) = 1/36 10 = 10/36 = f(0) P (Z = 1) = P ({c : Z(c) = 1}) = 1/36 26 = 26/36 = f(1) 7

Multivariate Verteilungen Man definiere zwei Zufallsvariablen X(c) und Y (c). Eine multivariate Verteilung ist definiert durch: P (x, y) = P (X = x, Y = y) = P (X = x Y = y) (3) = P ({c : X(c) = x Y (c) = y}) (4) 8

Beispiel: Multivariate Verteilung X, Y P (X = 1, Y = 1) = P (X = 1 Y = 1) = P ({c : X(c) = 1 Y (c) = 1}) 1/36 6 = 1/6 9

Beispiel: Multivariate Verteilung X, Z P (X = 1, Z = 1) = P (X = 1 Z = 1) = P ({c : X(c) = 1 Z(c) = 1}) = 17/36 10

Bedingte Verteilungen Definition einer bedingten Verteilung P (Y = y X = x) = P (X = x, Y = y) P (X = x) mit P (X = x) > 0 11

Beispiel: Bedingte Verteilung P (Y X) P (Y = 1 X = 1) = P (X = 1, Y = 1) P (X = 1) = 1/6 1/2 = 1/3 12

Beispiel: Bedingte Verteilung P (Z X) P (Z = 1 X = 1) = P (X = 1, Z = 1) P (X = 1) = 17/36 1/2 = 34/36 13

Produktzerlegungen und Kettenregel Es folgen: Produktsatz und die Kettenregel P (x, y) = P (x y)p (y) = P (y x)p (x) (5) P (x 1,..., x M ) = P (x 1 )P (x 2 x 1 )P (x 3 x 1, x 2 )... P (x M x 1,..., x M 1 ) (6) 14

Bayes sche Regel Bayes sche Regel P (y x) = P (x, y) P (x) P (x y)p (y) = P (x) P (x) > 0 (7) 15

Beispiel: Bayes sche Regel P (X = 1 Z = 1) = P (Z = 1 X = 1)P (X = 1) P (Z = 1) = 34/36 18/36 26/36 = 17/26 16

Marginale Verteilungen Da die Ereignisse sich ausschließen, P (X = x) = P (X = x, [Y = y 1 Y = y 2 ]) = (8) P ({c : X(c) = x [Y (c) = y 1 Y (c) = y 2 ]}) = P (x, y 1 ) + P (x, y 2 ) (9) Daraus folgt, dass sich die marginale (Rand-) Verteilungen berechnen läßt zu: P (x) = y P (x, y) (10) 17

Beispiel: Marginale Verteilung P (X = 1) = P (Z = 0, X = 1)+P (Z = 1, X = 1) = 1/36 + 17/36 = 1/2 18

Unabängige Zufallsvariablen Unabhängigkeit: zwei Zufallsvariablen sind unabhängig, falls gilt, Beispiel: unabhängige Würfelwürfe. P (x, y) = P (x)p (y x) = P (x)p (y) (11) 19

Beispiel: 2 Würfe eines Würfels P (Y = 1, X = 1) = P (X = 1)P (Y = 1) = 1/2 2/6 = 1/6 20

Erwartungswerte Erwartungswert E(X) = E P (x) (X) = i x i P (X = x i ) (12) 21

Beispiel: Erwartungswerte E(X) = 0 1/2 + 1 1/2 = 1/2 E(Y ) = 0 2/3 + 1 1/3 = 1/3 E(Z) = 0 10/36+1 26/36 = 26/36 22

Varianzen Definition der Varianz einer Zufallsvariable: var(x) = i (x i E(X)) 2 P (X = x i ) (13) 23

Beispiel: Varianzen var(x) = (0 1/2) 2 1/2 + (1 1/2) 2 1/2 = 1/4 var(y ) = (0 1/3) 2 2/3 + (1 1/3) 2 1/3 = 6/27 var(z) = (0 26/36) 2 10/36 + (1 26/36) 2 26/36 0.20 24

Kovarianzen Kovarianz: cov(x, Y ) = i (x i E(X))(y j E(Y ))P (X = x i, Y = y j ) (14) j Kovarianzmatrix: Σ [XY ],[XY ] = ( var(x) cov(x, Y ) cov(y, X) var(y ) ) (15) Falls cov(x, Y ) = 0, sind X und Y unkorreliert (aber nicht notwendigerweise unabhängig). Aus Unabhängigkeit folgt Unkorreliertheit. Das Inverse gilt nicht! Beachte, das gilt: cov(x, Y ) = E(XY ) E(X)E(Y ) wobei man E(XY ) als Korrelation bezeichnet. Beachte jedoch, dass der Korrelationskoeffizient definiert ist als r = cov(x, Y ) var(x) var(y ) 25

Beispiel: Kovarianzen cov(x, Y ) = (0 1/2)(0 1/3) 1/3 + (0 1/2)(1 1/3) 1/6 +(1 1/2)(0 1/3) 1/3 + (1 1/2)(1 1/3) 1/6 = 0 cov(x, Z) = (0 1/2)(0 26/36) 9/36 + (0 1/2)(1 26/36) 1/36 +(1 1/2)(0 26/36) 9/36 + (1 1/2)(1 26/36) 17/36 = 0.0617 26

Kontinuierliche (stetige) Zufallsvariablen Zufallsvariablen können auch kontinuierlich (stetig) sein. Hier definiert man die Wahrscheinlichkeitsdichte als f(x) = lim x 0 P (x X x + x) x Man erhält P (a < x < b) = b a f(x)dx Die Verteilungsfunktion ist F (x) = x f(x)dx = P (X x) Wir werden in der Notation keinen Unterschied machen zwischen einer Wahrscheinlichkeitsfunktion für diskrete Variablen und Wahrscheinlichkeitsdichten für stetige Variablen und schreiben ebenfalls f(x) = P (x) (16) 27

Erwartungswerte für stetige Variablen Erwartungswert E(X) = E P (x) (X) = xp (x)dx Varianz var(x) = (x E(x)) 2 P (x)dx (17) Kovarianz: cov(x, Y ) = (x E(X))(y E(Y ))P (x, y)dxdy (18) 28

Statistik Bisher hatten wir angenommen, dass z.b. P (X = x) bekannt ist In der frequentistischen Statistik gibt es unbekannte Parameter, die geschätzt werden: P (X = 1) = θ. Wenn θ der wahre unbekannte Parameter ist, so ist ˆθ die Schätzung: wenn ich genügend viele Würfelergebnisse beobachte, so ist z.b. ˆθ = N true /N eine vernünftige Schätzung, wobei N die Anzahl der Würfe ist und N true die Anzahl der Würfe, in der X den Wert 1 annimmt In der Bayes schen Statistik erweitert man das Wahrscheinlichkeitsmodell um eine Verteilung über die Parameter P (θ) und wendet die Regeln der Wahrscheinlichkeitslehre an; die W.-Verteilung ist dann P (θ) N i=1 P (X = x i θ) wobei x i {0, 1} der Wert ist, den X im i-ten Wurf annimmt 29