1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.
|
|
- Dorothea Voss
- vor 5 Jahren
- Abrufe
Transkript
1 Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin. = cos sin r sin r cos = r(cos2 + sin 2 ) = r DWT 2.2 Normalverteilung 230/460
2 Beweis (Forts.): und wir erhalten I 2 = = Z 2 Z 1 0 Z e r2 =2 r d r d = 1 d = 2: Z 2 0 h i 1 e r2 =2 0 d DWT 231/460
3 1,0 ¼ ½ ¾ 1,0 ¼ ½ ¾ 0,8 0,8 0,6 0,6 0,4 0,4 0,2 0,2 0,0 0,0-3,0-2,0-1,0 0,0 1,0 2,0 3,0-3,0-2,0-1,0 0,0 1,0 2,0 3,0 Dichte und Verteilung von N (0; 2 ) DWT 232/460
4 Satz 93 (Lineare Transformation der Normalverteilung) Sei X eine normalverteilte Zufallsvariable mit X N (; 2 ). Dann gilt fur beliebiges a 2 R n f0g und b 2 R, dass Y = ax + b normalverteilt ist mit Y N (a + b; a 2 2 ). Beweis: Wir betrachten zunachst den Fall " a > 0\: Pr[Y y] = Pr[aX + b y] = Pr X y b a Z = p 1 (y b)=a (u ) 2 exp d u: Nach der Substitution u = (v b)=a und d u = (1=a) d v erhalten wir 1 DWT 233/460
5 Beweis (Forts.): Pr[Y y] = Z 1 y p exp 2a 1 (v a b) 2 2a 2 2 Also Y N (a + b; a 2 2 ). Fur a < 0 verlauft der Beweis analog. d v : DWT 2.2 Normalverteilung 234/460
6 Sei also X eine beliebige N (; 2 )-verteilte Zufallsvariable X und Y := X. Dann ist nach Satz 93 Y N (0; 1)-verteilt. Y heit auch normiert. Ferner gilt a Pr[a < X b] = Pr b = < Y b a : DWT 235/460
7 Satz 94 X sei N (0; 1)-verteilt. Dann gilt E[X] = 0 und Var[X] = 1: Beweis: E[X] = 1 p 2 Z 1 1 x exp x 2 2 d x: Da der Integrand punktsymmetrisch zu (0; 0) ist, folgt E[X] = 0. DWT 236/460
8 Beweis (Forts.): Mittels Lemma 92 und durch partielle Integration erhalten wir p Z 1 x 2 2 = exp d x 1 2 x 2 1 Z 1 x = x exp + x 2 2 exp d x {z } = 0 Daraus folgt, dass E[X 2 ] = 1 ist und somit Var[X] = E[X 2 ] E[X] 2 = 1. DWT 2.2 Normalverteilung 237/460
9 Satz 95 X sei N (; 2 )-verteilt. Dann gilt E[X] = und Var[X] = 2 : Beweis: Y := X ist standardnormalverteilt. Ferner gilt gema der Rechenregeln fur Erwartungswert und Varianz E[X] = E[Y + ] = E[Y ] + = und Var[X] = Var[Y + ] = 2 Var[Y ] = 2 : DWT 238/460
10 2.3 Exponentialverteilung Die Exponentialverteilung ist in gewisser Weise das kontinuierliche Analogon zur geometrischen Verteilung. Wie die geometrische Verteilung ist sie " gedachtnislos\. Sie spielt daher vor allem bei der Modellierung von Wartezeiten eine groe Rolle. DWT 2.3 Exponentialverteilung 239/460
11 Denition 96 Eine Zufallsvariable X heit exponentialverteilt mit dem Parameter, > 0, wenn sie die Dichte ( e x falls x 0; f(x) = 0 sonst besitzt. Fur die entsprechende Verteilungsfunktion gilt (fur x 0) Z x h F (x) = e t d t = e ti x = 1 e x : Fur x < 0 gilt selbstverstandlich F (x) = DWT 2.3 Exponentialverteilung 240/460
12 Z 1 E[X] = t e t d t 0 h i 1 Z 1 = t ( e t ) + e t d t = 0 + e t = 1 0 : DWT 241/460
13 Analog erhalten wir Z 1 E[X 2 ] = t 2 e t d t 0 h i 1 Z 1 = t 2 ( e t ) + 2t e t d t = E[X] = und somit Var[X] = E[X 2 ] E[X] 2 = 1 2 : DWT 242/460
14 2,0 1,6 ¼ ½ ¾ 1,0 0,8 1,2 0,6 0,8 0,4 0,4 0,2 ¼ ½ ¾ 0,0 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 0,0 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 Dichte und Verteilung der Exponentialverteilung DWT 2.3 Exponentialverteilung 243/460
15 2.3.1 Eigenschaften der Exponentialverteilung Satz 97 (Skalierung exponentialverteilter Variablen) Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter. Fur a > 0 ist die Zufallsvariable Y := ax wieder exponentialverteilt mit dem Parameter =a. Beweis: F Y (x) = Pr[Y x] = Pr[aX x] h = Pr X x i x = F X a a = 1 e x a : DWT 244/460
16 Gedachtnislosigkeit Satz 98 (Gedachtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn fur alle x; y > 0 gilt, dass Pr[X > x + y j X > y] = Pr[X > x] : (*) Beweis: Sei X exponentialverteilt mit Parameter. Dann gilt Pr[X > x + y; X > y] Pr[X > x + y j X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] = e (x+y) e y = e x = Pr[X > x] : DWT 2.3 Exponentialverteilung 245/460
17 Beweis (Forts.): Sei umgekehrt X eine kontinuierliche Zufallsvariable, die die Gleichung ( ) erfullt. Wir denieren g(x) := Pr[X > x]. Fur x; y > 0 gilt g(x + y) = Pr[X > x + y] Daraus folgt durch wiederholte Anwendung 1 g(1) = g n = n = Pr[X > x + y j X > y] Pr[X > y] = Pr[X > x] Pr[X > y] = g(x)g(y) : {z } n-mal und somit insbesondere auch g(1=n) = (g(1)) 1=n. 1 n g fur alle n 2 N n DWT 246/460
18 Beweis (Forts.): Da X nur positive Werte annimmt, muss es ein n 2 N geben mit g(1=n) > 0. Wegen 0 < g(1) 1 muss es daher auch ein 0 geben mit g(1) = e. Nun gilt fur beliebige p; q 2 N und somit g(r) = e r fur alle r 2 Q +. Aufgrund der Stetigkeit folgt daraus g(p=q) = g(1=q) p = g(1) p=q ; g(x) = e x : DWT 247/460
19 Beispiel 99 Uber das Casium-Isotop Cs ist bekannt, dass es eine mittlere Lebensdauer von ungefahr 3,03 Jahren oder 1; Minuten besitzt. Die Zufallsvariable X messe die Lebenszeit eines bestimmten Cs-Atoms. X ist exponentialverteilt mit dem Parameter = 1 E[X] = 1 1; ; min Da den Kehrwert einer Zeit als Einheit besitzt, spricht man von der Zerfallsrate. Auch bei anderen Anwendungen ist es ublich, als Rate einzufuhren. DWT 2.3 Exponentialverteilung 248/460
20 2.3.2 Exponentialverteilung als Grenzwert der geometrischen Verteilung Erinnerung: Die Poisson-Verteilung lasst sich als Grenzwert der Binomialverteilung darstellen. Wir betrachten eine Folge geometrisch verteilter Zufallsvariablen X n mit Parameter p n = =n. Fur ein beliebiges k 2 N ist die Wahrscheinlichkeit, dass X n k n, gleich Pr[X n kn] = knx i=1 (1 p n ) i 1 p n = p n = p n 1 (1 p n) kn p n = 1 X kn 1 i=0 1 (1 p n ) i kn : n DWT 249/460
21 Wegen lim n!1 (1 n )n = e gilt daher fur die Zufallsvariablen Y n := 1 n X n, dass lim Pr[Y n t] = lim n!1 Pr[X n t n] n!1" 1 1 = lim n!1 = 1 e t : n tn # Die Folge Y n der (skalierten) geometrisch verteilten Zufallsvariablen geht also fur n! 1 in eine exponentialverteilte Zufallsvariable mit Parameter uber. DWT 2.3 Exponentialverteilung 250/460
22 3. Mehrere kontinuierliche Zufallsvariablen 3.1 Mehrdimensionale Dichten Beobachtung Zu zwei kontinuierlichen Zufallsvariablen X, Y wird der zugrunde liegende gemeinsame Wahrscheinlichkeitsraum uber R 2 durch eine integrierbare (gemeinsame) Dichtefunktion f X;Y : R 2! R + 0 mit Z 1 Z 1 f X;Y (x; y) d x d y = beschrieben. Fur ein Ereignis A R 2 (das aus abzahlbar vielen geschlossenen oder oenen Bereichen gebildet sein muss) gilt Pr[A] = Z A f X;Y (x; y) d x d y: DWT 3.1 Mehrdimensionale Dichten 251/460
23 Unter einem Bereich B verstehen wir dabei Mengen der Art B = f(x; y) 2 R 2 j a x b; c y dg mit a; b; c; d 2 R: Dabei konnen die einzelnen Intervallgrenzen auch " oen\ bzw. 1 sein. DWT 252/460
24 Analog zum eindimensionalen Fall ordnen wir der Dichte f X;Y eine (gemeinsame) Verteilung F X;Y : R 2! [0; 1] zu: Z y Z x F X;Y (x; y) = Pr[X x; Y y] = f X;Y (u; v) d u d v: 1 1 DWT 3.1 Mehrdimensionale Dichten 253/460
25 3.2 Randverteilungen und Unabhangigkeit Denition 100 Sei f X;Y die gemeinsame Dichte der Zufallsvariablen X und Y. Die Randverteilung der Variablen X ist gegeben durch Z x Z 1 F X (x) = Pr[X x] = f X;Y (u; v) d v d u: 1 1 Analog nennen wir Z 1 f X (x) = f X;Y (x; v) d v 1 die Randdichte von X. Entsprechende Denitionen gelten symmetrisch fur Y. DWT 254/460
26 Denition 101 Zwei kontinuierliche Zufallsvariablen X und Y heien unabhangig, wenn fur alle x; y 2 R gilt. Pr[X x; Y y] = Pr[X x] Pr[Y y] Dies ist gleichbedeutend mit F X;Y (x; y) = F X (x) F Y (y) : Dierentiation ergibt f X;Y (x; y) = f X (x) f Y (y) : DWT 255/460
27 Fur mehrere Zufallsvariablen X 1 ; : : : ; X n gilt analog: X 1 ; : : : ; X n sind genau dann unabhangig, wenn bzw. fur alle x 1 ; : : : ; x n 2 R. F X1 ;:::;X n (x 1 ; : : : ; x n ) = F X1 (x 1 ) : : : F Xn (x n ) f X1 ;:::;X n (x 1 ; : : : ; x n ) = f X1 (x 1 ) : : : f Xn (x n ) DWT 3.2 Randverteilungen und Unabhangigkeit 256/460
28 3.3 Warteprobleme mit der Exponentialverteilung Warten auf mehrere Ereignisse Satz 102 Die Zufallsvariablen X 1 ; : : : ; X n seien unabhangig und exponentialverteilt mit den Parametern 1 ; : : : ; n. Dann ist auch X := minfx 1 ; : : : ; X n g exponentialverteilt mit dem Parameter 1 + : : : + n. Beweis: Der allgemeine Fall folgt mittels Induktion aus dem fur n = 2. Fur die Verteilungsfunktion F X gilt: 1 F X (t) = Pr[X > t] = Pr[minfX 1 ; X 2 g > t] = Pr[X 1 > t; X 2 > t] = Pr[X 1 > t] Pr[X 2 > t] = e 1t e 2t = e ( )t : DWT 257/460
29 Anschaulich besagt Satz 102, dass sich die Raten addieren, wenn man auf das erste Eintreten eines Ereignisses aus mehreren unabhangigen Ereignissen wartet. Wenn beispielsweise ein Atom die Zerfallsrate besitzt, so erhalten wir bei n Atomen die Zerfallsrate n (wie uns auch die Intuition sagt). DWT 3.3 Warteprobleme mit der Exponentialverteilung 258/460
30 Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treer geometrisch verteilt ist, so ist ihre Anzahl in einer festen Zeitspanne binomialverteilt. Im Grenzwert n! 1, wobei wir die Treerwahrscheinlichkeit mit p n = =n ansetzen, konvergiert die geometrische Verteilung gegen die Exponentialverteilung und die Binomialverteilung gegen die Poisson-Verteilung. Im Grenzwert n! 1 erwarten wir deshalb die folgende Aussage: Wenn man Ereignisse zahlt, deren zeitlicher Abstand exponentialverteilt ist, so ist die Anzahl dieser Ereignisse in einer festen Zeitspanne Poisson-verteilt. DWT 259/460
31 Seien T 1 ; T 2 : : : unabhangige exponentialverteilte Zufallsvariablen mit Parameter. Die Zufallsvariable T i modelliert die Zeit, die zwischen Treer i 1 und i vergeht. Fur den Zeitpunkt t > 0 denieren wir X(t) := maxfn 2 N j T 1 + : : : + T n tg: X(t) gibt also an, wie viele Treer sich bis zur Zeit t (von Zeit Null ab) ereignet haben. Es gilt: DWT 260/460
32 Fakt 103 Seien T 1 ; T 2 ; : : : unabhangige Zufallsvariablen und sei X(t) fur t > 0 wie oben deniert. Dann gilt: X(t) ist genau dann Poisson-verteilt mit Parameter t, wenn es sich bei T 1 ; T 2 ; : : : um exponentialverteilte Zufallsvariablen mit Parameter handelt. Zum Zufallsexperiment, das durch T 1 ; T 2 ; : : : deniert ist, erhalten wir fur jeden Wert t > 0 eine Zufallsvariable X(t). Hierbei konnen wir t als Zeit interpretieren und X(t) als Verhalten des Experiments zur Zeit t. Eine solche Familie (X(t)) t>0 von Zufallsvariablen nennt man allgemein einen stochastischen Prozess. Der hier betrachtete Prozess, bei dem T 1 ; T 2 ; : : : unabhangige, exponentialverteilte Zufallsvariablen sind, heit Poisson-Prozess und stellt ein fundamentales und zugleich praktisch sehr bedeutsames Beispiel fur einen stochastischen Prozess dar. DWT 261/460
33 Beispiel 104 Wir betrachten eine Menge von Jobs, die auf einem Prozessor sequentiell abgearbeitet werden. Die Laufzeiten der Jobs seien unabhangig und exponentialverteilt mit Parameter = 1=30[1=s]. Jeder Job benotigt also im Mittel 30s. Gema Fakt 103 ist die Anzahl von Jobs, die in einer Minute vollstandig ausgefuhrt werden, Poisson-verteilt mit Parameter t = 60 (1=30) = 2. Die Wahrscheinlichkeit, dass in einer Minute hochstens ein Job abgearbeitet wird, betragt in diesem Fall (t = 2) e t + te t 0;406 : DWT 262/460
Satz 104 (Skalierung exponentialverteilter Variablen)
2.3.1 Eigenschaften der Exponentialverteilung Satz 104 (Skalierung exponentialverteilter Variablen) Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter λ. Für a > 0 ist die Zufallsvariable
MehrDiskrete Strukturen II
SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen
MehrSatz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]
Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr
1.4.4 Laplace-Prinzip in kontinuierlichen Wahrscheinlichkeitsräumen Das folgende Beispiel zeigt, dass im kontinuierlichen Fall die Bedeutung von gleichwahrscheinlich nicht immer ganz klar sein muss. Bertrand
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrDWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr
Poisson-Prozess Wir hatten bei der Diskussion der geometrischen und der Poisson-Verteilung festgestellt: Wenn der zeitliche Abstand der Treffer geometrisch verteilt ist, so ist ihre Anzahl in einer festen
MehrDenition 101 Zwei kontinuierliche Zufallsvariablen X und Y heien unabhangig, wenn
Denition 101 Zwei kontinuierliche Zufallsvariablen X und Y heien unabhangig, wenn fur alle x; y 2 R gilt. Pr[X x; Y y] = Pr[X x] Pr[Y y] Dies ist gleichbedeutend mit F X;Y (x; y) = F X (x) F Y (y) : Dierentiation
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsraume
Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten
MehrDie Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten
Die Funktion f ;Y (x; y) := Pr[ = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen und Y. Aus der gemeinsamen Dichte f ;Y kann man ableiten f (x) = y2w Y f ;Y (x; y) bzw. f Y (y) = Die Funktionen
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrLemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig,
Lemma 23 Die (paarweise verschiedenen) Ereignisse A 1,..., A n sind genau dann unabhängig, wenn für alle (s 1,..., s n ) {0, 1} n gilt, dass wobei A 0 i = Āi und A 1 i = A i. Pr[A s 1 1... Asn n ] = Pr[A
MehrSatz 16 (Multiplikationssatz)
Haug verwendet man die Denition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A \ B] = Pr[BjA] Pr[A] = Pr[AjB] Pr[B] : (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1 ; : : : ; A n
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrDenition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte
5.3 Geometrische Verteilung Man betrachte ein Experiment, das so lange wiederholt wird, bis Erfolg eintritt. Gelingt ein einzelner Versuch mit Wahrscheinlichkeit p, so ist die Anzahl der Versuche bis zum
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrZentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie
SS 2014 Zentralübung zur Vorlesung Diskrete Wahrscheinlichkeitstheorie Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2014ss/dwt/uebung/ 5. Juni 2014 ZÜ DWT ZÜ VI Übersicht:
MehrDichte der geometrischen Verteilung
0,8 Ô ¼ 0,8 Ô ¼ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 0,8 Ô ¼ 0,8 Ô ¼ ¾ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 Dichte der geometrischen
MehrStatistik für Ingenieure Vorlesung 5
Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrWie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das
Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen
Mehr1. Grundbegri e der Stochastik
. Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen
MehrBiostatistik, Sommer 2017
1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrAnzahl der Versuche, bei denen A eingetreten ist : Anzahl aller Versuche Mit Hilfe des obigen Gesetzes der groen Zahlen folgt Z = Pr[jZ pj ] ";
Wahrscheinlichkeit und relative Haugkeit. Sei X eine Indikatorvariable fur ein Ereignis A, Pr[A] = p. Somit ist X Bernoulli-verteilt mit E[X] = p. Z = 1 n (X 1 + : : : + X n ) gibt die relative Haugkeit
MehrDWT 314/460 csusanne Albers
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schatzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schatzvariablen fur Parameter von Verteilungen. Sei ~X = (X 1 ; : : : ; X n ):
MehrVorlesung 5a. Zufallsvariable mit Dichten
Vorlesung 5a 1 Vorlesung 5a Zufallsvariable mit Dichten Vorlesung 5a Zufallsvariable mit Dichten Teil 1 Uniforme Verteilung, Exponentialverteilung. Kontinuierlich uniform verteilte Zufallsvariable: 2 Kontinuierlich
MehrSatz 61 (Chebyshev-Ungleichung)
Die folgende Abschätzung ist nach Pavnuty Lvovich Chebyshev (1821 1894) benannt, der ebenfalls an der Staatl. Universität in St. Petersburg wirkte. Satz 61 (Chebyshev-Ungleichung) Sei X eine Zufallsvariable,
MehrSatz 105 Seien X und Y unabhangige kontinuierliche Zufallsvariablen. Fur die Dichte von Z := X + Y gilt f Z (z) = f X (x) f Y (z x) d x :
3.4 Summen von Zufallsvariablen Satz 105 Seien X und Y unabhangige kontinuierliche Zufallsvariablen. Fur die Dichte von Z := X + Y gilt Z 1 f Z (z) = f X (x) f Y (z x) d x : 1 Beweis: Nach Denition der
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 1. Dezember 21 1 Integralrechnung Flächeninhalt Stammfunktion Rechenregeln 2 Dichten von Erwartungswert und Varianz
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
Mehrp k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 =
Binomialverteilung Für X Bin(n, p) gilt nach der binomischen Formel G X (s) = E[s X ] = n ( ) n p k (1 p) n k s k = (1 p + ps) n. k Geometrische Verteilung Sei X eine geometrisch verteilte Zufallsvariable
Mehr2. Stochastische Prozesse.
SS 2006 Arbeitsblatt 2 / S. 1 von 7 2. Stochastische Prozesse. Warteschlangen treten als Erscheinungsformen von in der Zeit ablaufenden Prozessen auf, von denen wie oben erwähnt mindestens einer nicht
Mehr4.2 Moment und Varianz
4.2 Moment und Varianz Def. 2.10 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: EX p
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenho Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2 Elementare
Mehr7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].
7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := gilt G X(1) = Pr[X = k] s k = E[s X ], k=0 k Pr[X = k] = E[X]. k=1 DWT 7.1 Einführung 182/476 Beispiel 73 Sei X binomialverteilt
MehrBeispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen
4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie
Zentralübung Diskrete Wahrscheinlichkeitstheorie Christian Ivicevic (christian.ivicevic@tum.de) Technische Universität München 14. Juni 2017 Agenda Disclaimer und wichtige Hinweise Übungsaufgaben Disclaimer
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrDichte der geometrischen Verteilung
0,8 Ô ¼ 0,8 Ô ¼ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 1 2 3 4 5 6 7 8 9 10 0,0 1 2 3 4 5 6 7 8 9 10 0,8 Ô ¼ 0,8 Ô ¼ ¾ 0,6 0,6 0,4 0,4 0,2 0,2 0,0 0,0 1 2 3 4 5 6 7 8 9 10 1 2 3 4 5 6 7 8 9 10 Dichte der geometrischen
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrBinomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.
Binomialverteilung Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder nicht. X = Häufigkeit, mit
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
Mehr5 Zufallsvariablen, Grundbegriffe
II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse
MehrÜbungen zur Vorlesung Statistische Methoden Kapitel 1-2
TECHNISCHE UNIVERSITÄT DORTMUND Sommersemester 2011 FAKULTÄT STATISTIK Dr. M. Arnold Dipl.-Stat. R. Walter Übungen zur Vorlesung Statistische Methoden Kapitel 1-2 Aufgabe 1: Gegeben ist eine diskrete Zufallsvariable
MehrStetige Verteilungen Rechteckverteilung
Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a
MehrPaarweise Unabhängigkeit vs. Unabhängigkeit
Paarweise Unabhängigkeit vs. Unabhängigkeit Beispiel: Wir betrachten das Szenario von zuvor. Wissen bereits, dass A 1, A 2 und A 1, B unabhängig sind. Analog folgt, dass A 2 und B unabhängige Ereignisse
MehrKorollar 116 (Grenzwertsatz von de Moivre)
Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige
MehrStatistik für Ingenieure Vorlesung 3
Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr4 MEHRDIMENSIONALE VERTEILUNGEN
4 MEHRDIMENSIONALE VERTEILUNGEN 4.14 Stochastische Vektoren 1. Der Merkmalraum des stochastischen Vektors (X, Y ) sei M = R 2. Betrachten Sie die folgenden Ereignisse und ihre Wahrscheinlichkeiten: A 1
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrLösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
MehrBeziehungen zwischen Verteilungen
Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 24. November 2010 1 Stetige Verteilungen Normalapproximation Gleichverteilung Exponentialverteilung Normalapproximation
MehrWahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19
Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert
MehrDWT 6.1 Die Ungleichungen von Markov und Chebyshev 157/467 Ernst W. Mayr
Die Markov-Ungleichung ist nach Andrey Andreyevich Markov (1856 1922) benannt, der an der Universität von St. Petersburg bei Chebyshev studierte und später dort arbeitete. Neben seiner mathematischen Tätigkeit
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrÜbung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit
Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrStochastik Aufgaben zum Üben: Teil 2
Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
MehrKapitel 8: Zufallsvektoren
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und
MehrExponentialverteilung
Exponentialverteilung Dauer von kontinuierlichen Vorgängen (Wartezeiten; Funktionszeiten technischer Geräte) Grenzübergang von der geometrischen Verteilung Pro Zeiteinheit sei die Eintrittswahrscheinlichkeit
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
Mehr1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.
. Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Mayr)
SS 2011 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Mayr) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2011ss/dwt/uebung/ 30. Juni 2011 ZÜ
Mehr1. Grundbegri e der Stochastik
Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
MehrStatistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie
Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten 1/43 Statistik für Informatiker, SS 2018 1 Grundlagen aus der Wahrscheinlichkeitstheorie 1.1 Ereignisse, Zufallsvariablen und Wahrscheinlichkeiten
MehrZusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen
Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrVorlesung 5b. Zufallsvariable mit Dichten
Vorlesung 5b 1 Vorlesung 5b Zufallsvariable mit Dichten Vorlesung 5b Zufallsvariable mit Dichten Wiederholung aus Vorlesung 2b+: Kontinuierlich uniform verteilte Zufallsvariable: Sei S eine Teilmenge des
MehrWahrscheinlichkeitsräume und Zufallsvariablen
Kapitel Wahrscheinlichkeitsräume und Zufallsvariablen. W-Raum Unter einem Zufallsexperiment verstehen wir einen vom Zufall beeinflussten Vorgang, der ein entsprechend zufälliges Ergebnis hervorbringt.
Mehrf(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212
1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,
MehrStatistik für Informatiker, SS Verteilungen mit Dichte
1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches
MehrDiskrete Zufallsvariable
Diskrete Zufallsvariablen Slide 1 Diskrete Zufallsvariable Wir gehen von einem diskreten W.-raum Ω aus. Eine Abbildung X : Ω Ê heißt diskrete (numerische) Zufallsvariable oder kurz ZV. Der Wertebereich
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion f(x) =
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 11. Übung SS 18: Woche vom
Übungsaufgaben 11. Übung SS 18: Woche vom 25. 6. 29. 6. 2016 Stochastik V: ZG; Momente von ZG; Zufallsvektoren Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
MehrSind f X bzw. f Y die wie auf Folie 242 definierten Dichtefunktionen zur N(µ X, σx 2 )- bzw. N(µ Y, σy 2 )-Verteilung, so gilt (genau) im Fall ρ = 0
Beispiel: Zweidimensionale Normalverteilung I Beispiel: Zweidimensionale Normalverteilung II Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale multivariate Normalverteilung Spezifikation am
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
Mehr