Vorlesung 7a. Unabhängigkeit
|
|
- Heinrich Heintze
- vor 5 Jahren
- Abrufe
Transkript
1 Vorlesung 7a Unabhängigkeit 1
2 Wir erinnern an die Definition der Unabhängigkeit von zwei Zufallsvariablen (Buch S. 61): Zufallsvariable X 1,X 2 heißen (stochastisch) unabhängig, falls für alle Ereignisse {X 1 A 1 }, {X 2 A 2 } gilt: P(X 1 A 1,X 2 A 2 ) = P(X 1 A 1 )P(X 2 A 2 ) ( Produktformel ) 2
3 Erwartungswert unabhängiger Produkte Satz: X 1,X 2 unabhängige ZV e mit Zielbereichen S 1,S 2, h 1,h 2 Abbildungen von S 1 bzw. S 2 in die reellen Zahlen. Haben h 1 (X 1 ) und h 2 (X 2 ) endlichen Erwartungswert, so folgt E [ h 1 (X 1 )h 2 (X 2 ) ] = E [ h 1 (X 1 ) ] E [ h 2 (X 2 ) ]. Insbesondere sind (im Fall endlicher Varianzen) h 1 (X 1 ) und h 2 (X 2 ) unkorreliert. 3
4 Beweis für diskrete ZV e: a 1,a 2 h 1 (a 1 )h 2 (a 2 )P(X 1 = a 1,X 2 = a 2 ) = a 1,a 2 h 1 (a 1 )P(X 1 = a 1 )h 2 (a 2 )P(X 2 = a 2 ) = a 1 h 1 (a 1 )P(X 1 = a 1 ) a 2 h 2 (a 2 )P(X 2 = a 2 ). 4
5 Zufallsvariable X 1,...,X n mit Zielbereichen S 1,...,S n heißen (stochastisch) unabhängig, falls für alle Ereignisse {X i A i } folgende Produktformel gilt: P(X 1 A 1,...,X n A n ) = P(X 1 A 1 ) P(X n A n ). 5
6 Für diskrete Zufallsvariable ist die Unabhängigkeit geichbedeutend mit der Produktform der Verteilungsgewichte: P(X 1 = a 1,...,X n = a n ) = ρ 1 (a 1 ) ρ n (a n ) Die ρ i (a i ) sind dann die Verteilungsgewichte von X i. 6
7 Sei X 1,X 2,... eine Folge von Zufallsvariaben. Definition: Die Zufallsvariablen X 1,X 2,... sind unabhängig : für jedes n sind X 1,...,X n unabhängig. Beispiele: Fortgesetzter Münzwurf, fortgesetztes Würfeln 7
8 Ereignisse E 1,...,E n heißen unabhängig : I E1,...,I En sind unabhängig. Satz: Dies ist gleichbedeutend mit P(E i1 E ik ) = P(E i1 ) P(E ik ) für beliebige 1 i 1 < < i k n. Einen eleganten Beweis führt man mit einem Faktorisierungsargument für Indikatorvariable (ähnlich wie bei der Einschluss-Ausschlussformel in Vorlesung 6) vgl. Buch Seite 67. 8
9 I E1 E i Ei+1 c Ec = I n E 1 E i (1 I Ei+1 ) (1 I En ) = I E1 E i I E1 E i E j + I E1 E i E j E k j>i k>j>i 9
10 E[I E1 E i Ei+1 c Ec] = E[I n E 1 E i (1 I Ei+1 ) (1 I En )] = E[I E1 E i ] E[I E1 E i E j ]+ E[I E1 E i E j E k ] j>i k>j>i 10
11 E[I E1 E i Ei+1 c Ec] = E[I n E 1 E i (1 I Ei+1 ) (1 I En )] = E[I E1 E i ] E[I E1 E i E j ]+ E[I E1 E i E j E k ] j>i k>j>i Mit den vorausgesetzen Produktformeln folgt P(E 1 E i E c i+1 Ec n) = P(E 1 ) P(E i ) ( 1 j>i P(E j )+ k>j>i P(E j )P(E k ) ) 11
12 E[I E1 E i Ei+1 c Ec] = E[I n E 1 E i (1 I Ei+1 ) (1 I En )] = E[I E1 E i ] E[I E1 E i E j ]+ E[I E1 E i E j E k ] j>i k>j>i Mit den vorausgesetzen Produktformeln folgt P(E 1 E i E c i+1 Ec n) = P(E 1 ) P(E i ) ( 1 j>i P(E j )+ k>j>i = P(E 1 ) P(E i )(1 P(E i+1 )) (1 P(E n )) P(E j )P(E k ) ) 12
13 E[I E1 E i Ei+1 c Ec] = E[I n E 1 E i (1 I Ei+1 ) (1 I En )] = E[I E1 E i ] E[I E1 E i E j ]+ E[I E1 E i E j E k ] j>i k>j>i Mit den vorausgesetzen Produktformeln folgt P(E 1 E i E c i+1 Ec n) = P(E 1 ) P(E i ) ( 1 j>i P(E j )+ k>j>i = P(E 1 ) P(E i )(1 P(E i+1 )) (1 P(E n )) P(E j )P(E k ) ) = P(E 1 ) P(E i )P(E c i+1 ) P(Ec n). 13
14 Fazit: Die Unahängigkeit zweier Ereignisse E 1,E 2 ist äquivalent zur Produktformel P(E 1 E 2 ) = P(E 1 )P(E 2 ) 14
15 Und die Unabhängigkeit dreier Ereignisse E 1, E 2, E 3 ist äquivalent dazu, dass beide der folgenden Bedingungen a) und b) erfüllt sind: a) P(E 1 E 2 ) = P(E 1 )P(E 2 ), P(E 1 E 3 ) = P(E 1 )P(E 3 ), P(E 2 E 3 ) = P(E 2 )P(E 3 ). b) P(E 1 E 2 E 3 ) = P(E 1 )P(E 2 )P(E 3 ) a) oder b) allein reichen i.a. nicht für die Unabhängigkeit: 15
16 Beispiel: Z 1,Z 2,Z 3 sei ein 1 2 -Münzwurf, E 1 := {Z 1 = 1}, E 2 := {Z 2 = 1}, E 3 := {Z 1 = Z 2 } E 1,E 2,E 3 sind paarweise unabhängig, aber nicht unabhängig. 16
17 Aufgabe: Finden Sie ein möglichst einfaches Beispiel mit 3 Ereignissen E 1, E 2, E 3, die trotz der Gleichheit P(E 1 E 2 E 3 ) = P(E 1 )P(E 2 )P(E 3 ) nicht unabhängig sind. 17
18 Gewisse Teilaspekte von abhängigen Zufallsvariablen können unabhängig sein: Beispiel (vgl. Buch S. 65): (X,Y) seien rein zufällige Zwei aus {1,2,...,32}. Offenbar sind X und Y nicht unabhängig, wohl aber die Ereignisse E 1 := {X ist durch 8 teilbar } und E 2 := {17 Y 24}. Denn P(E 1 ) = 1 8,P(E 2) = 1 4,P(E 1 E 2 ) = =
19 Ein Beispiel für indirekte Abhängigkeiten: (vgl. Buch S. 68) (X,Y) sei ein p-münzwurf, U sei uniform verteilt auf {0,1}, X, Y, U seien unabhängig. P(X = U) = p 1 2 +q1 2 = 1 2, analog: P(Y = U) =
20 Ein Beispiel für indirekte Abhängigkeiten: (vgl. Buch S. 68) (X,Y) sei ein p-münzwurf, U sei uniform verteilt auf {0,1}, X, Y, U seien unabhängig. P(X = U) = p 1 2 +q1 2 = 1 2, analog: P(Y = U) = 1 2 P(X = U,Y = U) = (p 2 +q 2 ) 1 2 p 2 +q 2 = (p+q) 2 2pq = 1 2pq 1 2, mit = genau dann wenn p = 1 2.
21 Ein Beispiel für indirekte Abhängigkeiten: (vgl. Buch S. 68) (X,Y) sei ein p-münzwurf, U sei uniform verteilt auf {0,1}, X, Y, U seien unabhängig. P(X = U) = p 1 2 +q1 2 = 1 2, analog: P(Y = U) = 1 2 P(X = U,Y = U) = (p 2 +q 2 ) 1 2 p 2 +q 2 = (p+q) 2 2pq = 1 2pq 1 2, mit = genau dann wenn p = 2 1. Für p 1 2 sind I {X=U} und I {Y=U} nicht unabhängig!
22 Unabhängigkeit von Zufallsvariablen mit Dichten Satz X 1,...,X n seien reellwertige Zufallsvariable. Dann sind äquivalent: (i) X 1,...,X n sind unabhängig, und X i hat die Dichte f i (a i )da i, i = 1,...,n. (ii) (X 1,...,X n ) hat die Dichte f(a 1,...,a n )da 1...da n := f 1 (a 1 ) f n (a n )da 1...da n 20
23 Beispiel: Multivariate Standard-Normalverteilung. Sei Z := (Z 1,...,Z n ). Dann gilt: Z 1,...,Z n sind unabhängig und N(0,1)-verteilt P(Z da) = 1 (2π) n/2 exp ( mit a 2 := a a2 n. a 2 ) da, a R n, 2 Z heißt dann standard-normalverteilt auf R n. 21
24 Analog zum Fall n = 2 (vgl. Folien der Vorlesung 5b) gilt: Ist Z = (Z 1,...,Z n ) standard-normalverteilt auf R n und sind τ 1,...,τ n reelle Zahlen mit τ τ2 n = 1, dann ist Y := τ 1 Z 1 + +τ n Z n N(0,1)-verteilt. ( Y ist die Koordinate von Z = Z 1 e 1 + +Z n e n zum Einheitsvektor u := τ 1 e 1 + +τ n e n.) Insbesondere ergibt sich: Z 1 + +Z n n ist N(0,1)-verteilt. 22
Vorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung
Vorlesung 7b Unabhängigkeit bei Dichten und die mehrdimensionale Standardnormalverteilung 0. Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4 4
MehrVorlesung 7b. Der Zentrale Grenzwertsatz
Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung
MehrVorlesung 11b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 11b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen 0. Diskrete reellwertige Zufallsvariable X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) oder
MehrVorlesung 5a. Zufallsvariable mit Dichten
Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich
MehrVorlesung 5a. Die Varianz
Vorlesung 5a Die Varianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert
MehrVorlesung 3. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3 Der Erwartungswert von diskreten reellwertigen Zufallsvariablen 0. Diskrete reellwertige Zufallsvariable X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) oder
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine Zufallsvariable, deren Zielbereich R (die Menge der reellen Zahlen) (oder eine Teilmenge davon) ist. Es existiere
MehrVorlesung 5a. Varianz und Kovarianz
Vorlesung 5a Varianz und Kovarianz 1 1. Varianz und Standardabweichung: Elementare Eigenschaften (Buch S. 24) 2 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist
MehrVorlesung 4b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson
Vorlesung 4b Versuche, Erfolge, Wartezeiten: Die Welt des p-münzwurfs - von Bernoulli zu Poisson 1 0. Fortgesetzter p-münzwurf 2 Definition: Sei p (0,1), q := 1 p. Eine Bernoulli-Folge zum Parameter p
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrVorlesung 3b. Versuche, Erfolge, Wartezeiten: von Bernoulli zu Poisson
Vorlesung 3b Versuche, Erfolge, Wartezeiten: Die Welt des p-münzwurfs - von Bernoulli zu Poisson 1 Unser heutiger Rahmen: p- Münzurf alias Bernoulli-Folge 2 Jacob Bernoulli (1654-1705) 3 Sei p (0,1), q
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrVorlesung 9b. Bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 1. Zerlegung der gemeinsamen Verteilung (Buch S. 111) 2 Bisher legten wir das Hauptaugenmerk auf den Aufbau der gemeinsamen Verteilung
MehrVorlesung 8b. Zweistufige Zufallsexperimente. Teil 2
Vorlesung 8b Zweistufige Zufallsexperimente Teil 2 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen: P(X 1 = a 1,X 2 = a 2 ) = P(X 1 = a 1 )P a1 (X
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrVorlesung 2b. Diskrete Zufallsvariable. und ihre Verteilungen
Vorlesung 2b Diskrete Zufallsvariable und ihre Verteilungen 1 1. Die Grundbegriffe 2 Bisher hatten wir uns (vor allem) mit Zufallsvariablen beschäftigt, deren Wertebereich S endlich war. Die (schon in
MehrVorlesung 3a. Der Erwartungswert. von diskreten reellwertigen Zufallsvariablen
Vorlesung 3a Der Erwartungswert von diskreten reellwertigen Zufallsvariablen X sei eine diskrete reellwertige Zufallsvariable, d.h. eine ZV e mit Wertebereich R (oder einer Teilmenge davon), sodass eine
MehrVorlesung 5b. Zufallsvariable mit Dichten
Vorlesung 5b 1 Vorlesung 5b Zufallsvariable mit Dichten Vorlesung 5b Zufallsvariable mit Dichten Wiederholung aus Vorlesung 2b+: Kontinuierlich uniform verteilte Zufallsvariable: Sei S eine Teilmenge des
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert als Var X := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrVorlesung 3b. Der Erwartungswert
Vorlesung 3b Der Erwartungswert von diskreten reellwertigen Zufallsvariablen Teil 2 0. Wiederholung X sei eine diskrete reellwertige Zufallsvariable X S R E[X] := a S a P(X = a). heißt Erwartungswert von
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
MehrUnabhängigkeit von Zufallsvariablen
Unabhängigkeit von Zufallsvariablen Seminar Gegenbeispiele in der Wahrscheinlichkeitstheorie Pascal Beckedorf 12. November 2012 Pascal Beckedorf Unabhängigkeit von Zufallsvariablen 12. November 2012 1
MehrVorlesung 7a. Der Zentrale Grenzwertsatz
Vorlesung 7a Der Zentrale Grenzwertsatz als Erlebnis und Das Schwache Gesetz der Großen Zahlen Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrVorlesung 6b. Zufallsvariable mit Dichten. Teil 1 Uniforme Verteilung & Co.
Vorlesung 6b Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung & Co. 1 1. Uniforme Verteilung auf dem Einheitsintervall 2 Eine Zufallsvariable X mit Zielbereich S = [0, 1] heißt uniform verteilt auf
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 stheorie: Grundbegriffe Prof. Dr. Achim Klenke http://www.aklenke.de 5. Vorlesung: 25.11.2011 1/33 Inhalt 1 Zufallsvariablen 2 Ereignisse 3 2/33 Zufallsvariablen Eine Zufallsvariable
MehrVorlesung 8b. Zweistufige Zufallsexperimente. Teil 1
Vorlesung 8b Zweistufige Zufallsexperimente Teil 1 1 Stellen wir uns ein zufälliges Paar X = (X 1, X 2 ) vor, das auf zweistufige Weise zustande kommt: es gibt eine Regel, die besagt, wie X 2 verteilt
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrStatistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie
Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten 1/43 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.1 Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
MehrSprechstunde zur Klausurvorbereitung
htw saar 1 Sprechstunde zur Klausurvorbereitung Mittwoch, 15.02., 10 12 + 13.30 16.30 Uhr, Raum 2413 Bei Interesse in Liste eintragen: Max. 20 Minuten Einzeln oder Kleingruppen (z. B. bei gemeinsamer Klausurvorbereitung)
MehrVorlesung 13a. Schätzen von Parametern. Teil 2
Vorlesung 13a Schätzen von Parametern Teil 2 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S Ein Logo der Statistik: X Θ S P ϑ (X da) = ρ ϑ (da), ϑ Θ Ein Logo der Statistik: X Θ t S P ϑ (X
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrZweitklausur. b p b. q a. c 1. p a
Elementare Stochastik SoSe 27 Zweitklausur Lösungen. Berechnen Sie für die angegebenen Übergangswahrscheinlichkeiten (mit p a,p b >, q a := p a, q b := p b ) die erwartete Anzahl von Schritten bis zum
MehrVorlesung 9b. Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte
Vorlesung 9b Bedingte Wahrscheinlichkeiten und bedingte Erwartungswerte 1 Definition. Seien E 1, E 2 Ereignisse. Dann ist die bedingte Wahrscheinlichkeit von E 2, gegeben E 1, definiert als P(E 2 E 1 )
MehrStochastik. Peter Pfaffelhuber
Stochastik Peter Pfaffelhuber 1 Grundlegende Bemerkungen Vorlesung orientiert sich an G. Kersting und A. Wakolbinger. Elementare Stochastik. Birkhäuser, 2008 Übungen Volker Pohl Praktikum Ernst August
MehrStatistik für Informatiker, SS Verteilungen mit Dichte
1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches
MehrBinomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.
Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
MehrZusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
MehrVorlesung 8b. Bedingte Erwartung und bedingte Varianz
Vorlesung 8b Bedingte Erwartung und bedingte Varianz 1 1. Zerlegung eines Erwartungswertes nach der ersten Stufe (Buch S. 91) 2 Wie in der vorigen Vorlesung betrachten wir die gemeinsame Verteilung von
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrStatistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie
Bedingte W keit, Unabhängigkeit, gemeinsame Verteilung 1/44 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.3 Bedingte Wahrscheinlichkeiten, Unabhängigkeit, gemeinsame
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrKlausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 003/004 Universität Karlsruhe 05. 04. 004 Prof. Dr. G. Last Klausur zur Vorlesung Stochastik II Dauer: 90 Minuten Name: Vorname: Matrikelnummer: Diese Klausur hat
Mehr5. Stichproben und Statistiken
5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrDie Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten
Die Funktion f ;Y (x; y) := Pr[ = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen und Y. Aus der gemeinsamen Dichte f ;Y kann man ableiten f (x) = y2w Y f ;Y (x; y) bzw. f Y (y) = Die Funktionen
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrAbhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.
Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
Mehr67 Zufallsvariable, Erwartungswert, Varianz
67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In
MehrStatistik I für Betriebswirte Vorlesung 2
Statistik I für Betriebswirte Vorlesung 2 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. April 2018 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 2 Version: 9. April
MehrTeil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung
Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()
MehrDiskrete Strukturen II
SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrStochastik für Studierende der Informatik
Stochastik für Studierende der Informatik von Peter Pfaffelhuber Version: 23 April 2016 Inhaltsverzeichnis 1 Grundlegendes 3 11 Häufige Modelle: Münzwurf, Würfeln, Urnen 3 12 Kombinatorische Formeln 5
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom
Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrMustererkennung: Wahrscheinlichkeitstheorie. D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10
Mustererkennung: Wahrscheinlichkeitstheorie D. Schlesinger () ME: Wahrscheinlichkeitstheorie 1 / 10 Definitionen (axiomatisch) Wahrscheinlichkeitsraum (Ω, σ, P), mit Ω Die Grundmenge, die Menge der elementaren
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrPaarweise Unabhängigkeit vs. Unabhängigkeit
Paarweise Unabhängigkeit vs. Unabhängigkeit Beispiel: Wir betrachten das Szenario von zuvor. Wissen bereits, dass A 1, A 2 und A 1, B unabhängig sind. Analog folgt, dass A 2 und B unabhängige Ereignisse
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrDWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr
Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen
MehrÜ b u n g s b l a t t 7
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 21. 5. 2007 Ü b u n g s b l a t t 7 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrStatistik für Informatiker, SS Erwartungswert, Varianz und Kovarianz
1/65 Statistik für Informatiker, SS 2017 1.3 Erwartungswert, Varianz und Kovarianz Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 7.6.2017 / 14.6.2017 2/65 Der Erwartungswert ist eine
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrVorlesung 12a. Schätzen von Parametern. Teil 2
Vorlesung 12a Schätzen von Parametern Teil 2 1 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S 2 Ein Logo der Statistik: Θ ˆϑ t X S P ϑ (X da) = ρ ϑ (da), ϑ Θ Θ... Parameterraum S... Beobachtungsraum
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrSind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0
Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrDie Probabilistische Methode
Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom
Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrÜbungen zu Wahrscheinlichkeitstheorie und Statistik
Übungen zu Wahrscheinlichkeitstheorie und Statistik SS 2012 (Vorlesung von Prof. Reinhard Bürger) 1) Man gebe für die folgenden Experimente Wahrscheinlichkeitsmodelle an: (a) Wurf mit einer homogenen Münze,
Mehr