Wahrscheinlichkeitsrechnung und Statistik

Ähnliche Dokumente
Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik

Statistik I für Betriebswirte Vorlesung 3

Statistik für Ingenieure Vorlesung 3

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Statistik I für Betriebswirte Vorlesung 4

2 Zufallsvariable und Verteilungsfunktionen

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

1.5 Erwartungswert und Varianz

Unabhängige Zufallsvariablen

Wahrscheinlichkeitsrechnung und Statistik

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Hypothesentests. 5 Regression

1.5 Erwartungswert und Varianz

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

13 Grenzwertsätze Das Gesetz der großen Zahlen

5 Erwartungswerte, Varianzen und Kovarianzen

Statistik I für Betriebswirte Vorlesung 3

Mehrdimensionale Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

2. Zufallsvektoren. Zufallsvektoren allgemein. Diskreter Fall. Multivariate Verteilungsfunktion. Stetige Zufallsvektoren

4.2 Moment und Varianz

Zufallsgröße. Würfelwurf mit fairem Würfel. Wahrscheinlichkeitsverteilung einer diskreten

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wirtschaftsmathematik

Vorlesung: Statistik II für Wirtschaftswissenschaft

Woche 2: Zufallsvariablen

Unabhängigkeit von Zufallsvariablen

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

7.2 Moment und Varianz

Stochastik. Frank Eckert und. Thomas Huppertz Letzte Änderung:

Woche 2: Zufallsvariablen

Sind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Abiturvorbereitung Stochastik. neue friedländer gesamtschule Klasse 12 GB Holger Wuschke B.Sc.

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Wahrscheinlichkeitsrechnung und Statistik

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Varianz und Kovarianz

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Wahrscheinlichkeitsrechnung und Statistik

Kapitel 12 Erwartungswert und Varianz

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Reelle Zufallsvariablen

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

7.5 Erwartungswert, Varianz

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Kapitel 8: Zufallsvektoren

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Mathematik für Biologen

Wahrscheinlichkeitsrechnung und Statistik

Kapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom

Grundbegriffe der Wahrscheinlichkeitsrechnung

Übung zur Vorlesung Statistik I WS Übungsblatt 12

1.5 Mehrdimensionale Verteilungen

Stochastik Wiederholung von Teil 1

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Wahrscheinlichkeitsrechnung und Statistik

Grundlagen der Wahrscheinlichkeitstheorie

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

2 Zufallsvariable, Verteilungen, Erwartungswert

Zusatzmaterial zur Vorlesung Statistik II

Wahrscheinlichkeitstheorie und Statistik

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 13: Woche vom

Wahrscheinlichkeit (Teschl/Teschl 2, Kap. 26)

Weihnachtszettel zur Vorlesung. Stochastik I. Wintersemester 2011/2012

4. Verteilungen von Funktionen von Zufallsvariablen

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden

TU DORTMUND Sommersemester 2018

Finanzmathematische Modelle und Simulation

Wichtige Definitionen und Aussagen

Grundbegriffe der Wahrscheinlichkeitsrechnung

Satz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung

Zufallsvariable: Verteilungen & Kennzahlen

8. Stetige Zufallsvariablen

Wahrscheinlichkeitsräume und Zufallsvariablen

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Statistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Zufallsvariablen rekapituliert

1 Multivariate Zufallsvariablen

67 Zufallsvariable, Erwartungswert, Varianz

Statistik I für Betriebswirte Vorlesung 4

Zufallsvariablen [random variable]

Wahrscheinlichkeitsrechnung und Quantentheorie

Transkript:

7. Vorlesung - 2018

Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten eines zufälligen Punktes in der Ebene. Sei K ein zufälliger Kreis, so dass X, Y K und 0, 0 ist der Mittelpunkt des Kreises K. Man bestimme den Erwartungswert für den Flächeninhalt des Kreises K!

In Satz 27: Der Erwartungswert der stetigen ZG gx mit g : R R ist EgX = gxf X xdx, wenn gx f X xdx < gilt f X ist die Dichtefunktion von X. gz = z EX 2 E[gX ] = E[X EX 2 ] gz = z n E[gX ] = E[X n ] Definition 28 Sei X diskrete oder stetige Zufallsgröße. V X = E[X EX 2 ] StX = V X EX n Varianz bzw. Streuung, Standardabweichung, n-tes Moment, der Zufallsgröße X, n = 1, 2,...

Die Varianz bzw. Standardabweichung kann als Kennzahl für die Größe der Fluktuationen Streuung der ZG X um den Erwartungswert EX interpretiert werden. Matlab/Octave: mean, var, std

Satz 29 Eigenschaften der Varianz: 1 V X = EX 2 EX 2. 2 V ax + b = a 2 V X a, b R. 3 Sind X und Y unabhängige ZG diskret oder stetig, V X + Y = V X + V Y.

Mittelwert EX, Varianz V X, Standardabweichung StX in Matlab/Octave Werte der ZG X seien x = [x 1,..., x n ] varx, 1 = 1 n n i=1 meanx = 1 n x 1 + + x n meanx EX wenn n groß ist x i meanx 2, varx = 1 n 1 n x i meanx 2 varx, 1 V X, varx V X wenn n groß ist 1 1 1 n 2 stdx, 1= x i meanx 2 1 n 2, stdx= x i meanx 2 n n 1 i=1 i=1 i=1 stdx, 1 StX, stdx StX wenn n groß ist

Übungen: Man zeige: X Binon, p EX = np, V X = np1 p X Geop EX = 1 p p, V X = 1 p X Unif [a, b] EX = a+b b a2 2, V X = 12 X Expλ EX = 1 λ, V X = 1 λ 2 X Nm, σ 2 EX = m, V X = σ 2 p 2

Definition 30 covx, Y = E X EX Y EY ist die Kovarianz der Zufallsgrößen X und Y. Korrelationskoeffizient Pearson der ZG X und Y ist ρx, Y = covx, Y, V X V Y falls covx, Y, V X, V Y existiert und V X 0, V Y 0. Kovarianz covx, Y in Matlab/Octave: Werte der ZG X, Y seien x = [x 1,..., x n ] bzw. y = [y 1,..., y n ] man bezeichne: CV := 1 n x i meanxy i meany n in Matlab/Octave: i=1 covx, y, 1 = varx, 1 CV CV vary, 1

Korrelationskoeffizienten werden berechnet, um die Stärke des Zusammenhangs zweier metrischen Variablen zu bestimmen. Dieser Korrelationskoeffizient kann nur lineare Zusammenhänge erkennen ρx, Y 0: es lässt sich kein Zusammenhang erkennen; die Variablen sind unkorreliert z.b. X Hausnummer und Y Körpergrösse einer Person ρx, Y > 0: positive Korrelation; größere Werte von X gehen dann einher mit größeren Werten von Y z.b. X Körpergrösse und Y Schuhgröße einer Person; größere Menschen haben meistens auch größere Schuhe ρx, Y < 0: negativ Korrelation, dann hängen grössere Werte von X mit niedrigeren Werten für Y und umgekehrt zusammen z.b. X Anzahl der Skiurlauber, Y Aussentemperatur; bei niedrigeren Temperaturen sind mehr Skiurlauber ρx, Y = 1 Y hängt linear von X ab.

Beispiel Korrelationskoeffizient

Beispiel Korrelationskoeffizient

Satz 31 Sind X, Y ZG diskret oder stetig, dann gilt: 1 covx, X = V X. 2 covx, Y = EX Y EX EY. 3 V ax + by = a 2 V X + b 2 V Y + 2ab covx, Y a, b R. 4 1 ρx, Y 1. 5 ρx, Y = 1 Y hängt linear von X ab.

Definition 32 X n n ist eine Folge von unabhängigen ZG, wenn {i 1,..., i k } N die ZG X i1,..., X ik sind unabhängig, d.h. PX i1 x i1,..., X ik x ik = PX i1 x i1 PX ik x ik x i1,..., x ik R. Zum Beispiel: ZG X n = die angezeigte Zahl im n-ten Wurf eines Würfels X n n ist eine Folge von unabhängigen ZG

Definition 33 Die Folge X n n von ZG konvergiert fast sicher zur ZG X, wenn Bezeichnung: X n f.s. X Pω Ω : lim n X nω = X ω = 1. Beispiel: 1 1 X n n n 0.6 0.4 Pω Ω : lim n X nω =??? = 1.

Beispiel: Ω := [0, 1] Grundraum, sei P das Wahrscheinlichkeitsmaß auf [0, 1], d.h. für alle α < β aus [0, 1] berechnet man P [α, β] = P [α, β = P α, β] P entspricht dem Lebesgue Maß auf [0,1] = P α, β := β α X n ω = ω+ω n, ω [0, 1], n 1 Pω Ω : lim n X nω =??? = 1. Sei X ω = ω für alle ω Ω { ω für ω [0, 1 lim X nω = n 2 für ω = 1 {ω Ω : lim n X nω = ω} = [0, 1 Pω Ω : lim n X nω = X ω = P[0, 1 = 1

Das starke Gesetz der großen Zahlen SGGZ Definition 34 Die Folge von ZG X n n mit E X n < für alle n N erfüllt das starke Gesetz der großen Zahlen SGGZ wenn 1 n P ω Ω : lim X k ω EX k = 0 = 1. n n k=1

Das Starke Gesetz der großen Zahlen SGGZ Satz 35 Sei X n n Folge von unabhängigen ZG mit E X n < für alle 1 n N und n 2 V X n < X n n erfüllt das SGGZ, also P n=1 1 ω Ω : lim n n n k=1 X k ω EX k = 0 = 1, d.h. 1 n n k=1 f.s. X k EX k 0.

Beispiel: Sei X n n eine Folge von unabhängigen ZG mit X n N0, σn 2 mit σ n = 1 + 1 n. Es gilt EX n = 0 und V X n = σn 2 1 4 n 2 V X n < und n=1 anhand des Satzes 35 folgt 1 n P ω Ω : lim X k ω = 0 = 1, n n d.h. X n n erfüllt das SGGZ! k=1 Interpretation: 1 n X 1 + + X n 0, wenn n hinreichend groß ist!

Simulations für das vorige Beispiel: SGGZ clear all n=1000; for i=1:n xi=normrnd0,1+1/i; end meanx >> ans = 0.018436

Das Starke Gesetz der großen Zahlen SGGZ Satz 36 Sei X n n Folge von unabhängigen ZG mit der gleichen Verteilung wie eine ZG X d.h. EX n = EX für alle n N X n n erfüllt das SGGZ, d.h. 1 P ω Ω : lim n n X 1ω +... + X n ω = EX = 1, d.h. 1 n n k=1 X k f.s. EX. In der Praxis: 1 n X 1 + + X n EX, wenn n hinreichend groß ist!

Würfeln: Matlab Simulation Gesetz der großen Zahlen clear all clf hold on n=350; x=unidrnd6,1,n; for i=1:n si=sumx1:i/i; yi=i; plotyi,si, b. plotyi,3.5, g- end ploty,s, r- xlabel Anzahl W"urfe ylabel Durchschnittliche Summe der Zahlen

Gesetz der großen Zahlen

Relative und absolute Häufigkeit Sei A ein zufälliges Ereignis das in einem Experiment auftaucht; man wiederholt das Experiment n mal unter denselben gegebenen Bedingungen; man bezeichnen mit k n A wie oft das Ereignis A auftaucht; die relative Häufigkeit des Ereignisses A ist die Zahl h n A = k na ; die absolute Häufigkeit des Ereignisses A ist die n Zahl k n A. Experiment: Man wirft n mal eine Münze; A: man erhält Zahl n Anzahl absolute Häufigkeit relative Häufigkeit Durchführungen Exp. k n A h n A 100 48 0.48 1000 497 0.497 10000 5005 0.5005 Es gilt: h n A 1 2 wenn n hinreichend groß ist! siehe Satz 37

Satz 37 Sei A ein zufälliges Ereignis das in einem Experiment auftaucht; man wiederholt das Experiment n mal unter denselben gegebenen Bedingungen. Das Gesetz der großen Zahlen: je öfter man das Zufallsexperiment durchführt also je größer n, desto besser approximiert die relative Häufigkeit h n A des Ereignisses A seine echte Wahrscheinlichkeit PA: P ω Ω : lim h na = PA = 1, n d.h. h n A f.s. PA. In der Praxis: h n A PA, wenn n hinreichend groß ist!