Wie sch atzt man effizient?
|
|
- Bärbel Kohler
- vor 7 Jahren
- Abrufe
Transkript
1 Vorlesung 8a
2 Wie schätzt man
3 Wie schätzt man effizient?
4 Die Maximum-Likelihood Methode
5 Die Maximum-Likelihood Methode
6 BEISPIEL 1
7 BEISPIEL 1 Panther A
8 BEISPIEL 1 Panther A Schätzung der deutschen Panzerproduktion
9 BEISPIEL 1 Panther A Schätzung der deutschen Panzerproduktion im Zweiten Weltkrieg
10 MODELL
11 MODELL (vereinfacht)
12 MODELL (vereinfacht) Fahrgestellnummer: F = 1, 2,..., λ
13 MODELL (vereinfacht) Fahrgestellnummer: F = 1, 2,..., λ Bei Panther A: λ = 1768
14 MODELL (vereinfacht) Fahrgestellnummer: F = 1, 2,..., λ Bei Panther A: λ = 1768 Nummern der erbeuteten Panzer
15 MODELL (vereinfacht) Fahrgestellnummer: F = 1, 2,..., λ Bei Panther A: λ = 1768 Nummern der erbeuteten Panzer F 1, F 2,..., F n
16 MODELL (vereinfacht) Fahrgestellnummer: F = 1, 2,..., λ Bei Panther A: λ = 1768 Nummern der erbeuteten Panzer F 1, F 2,..., F n Zufallsstichprobe aus der Gesamtproduktion FRAGE
17 MODELL (vereinfacht) Fahrgestellnummer: F = 1, 2,..., λ Bei Panther A: λ = 1768 Nummern der erbeuteten Panzer F 1, F 2,..., F n Zufallsstichprobe aus der Gesamtproduktion FRAGE Wie schätzt man λ aus F 1, F 2,..., F n?
18 Kleine Vereinfachung: F kontinuierlich F λ
19 F Uniform [ 0, λ ] F λ
20 Stichprobe F 1,..., F n (n = 10) F λ
21 Wie schätzt man λ aus F 1,...,F n? F λ
22 Methode der Momente
23 Methode der Momente EF = 1 2 λ
24 Methode der Momente EF = 1 2 λ F EF = 1 2 λ
25 Methode der Momente EF = 1 2 λ F EF = 1 2 λ Erster Schätzer ^λ 1 :
26 Methode der Momente EF = 1 2 λ F EF = 1 2 λ Erster Schätzer ^λ 1 : ^λ 1 := 2 F
27 ^λ 1 := 2 F F λ
28 ^λ 1 := 2 F F λ
29 ^λ 1 := 2 F F λ
30 Zweiter Schätzer
31 Zweiter Schätzer M := max { F 1, F 2,..., F n }
32 Zweiter Schätzer M := max { F 1, F 2,..., F n } BEGRÜNDUNG:
33 Zweiter Schätzer M := max { F 1, F 2,..., F n } BEGRÜNDUNG: Gegeben M
34 Zweiter Schätzer M := max { F 1, F 2,..., F n } BEGRÜNDUNG: Gegeben M enthalten die anderen { F i } keine Information über λ
35 Zweiter Schätzer M := max { F 1, F 2,..., F n } BEGRÜNDUNG: Gegeben M enthalten die anderen { F i } keine Information über λ Wie ist M verteilt?
36 Zweiter Schätzer M := max { F 1, F 2,..., F n } BEGRÜNDUNG: Gegeben M enthalten die anderen { F i } keine Information über λ Wie ist M verteilt?
37 Q! Quiz-relevant
38 Verteilungsfunktion
39 Verteilungsfunktion H(x) := P { M < x }
40 Verteilungsfunktion H(x) := P { M < x } Dichte
41 Verteilungsfunktion H(x) := P { M < x } Dichte h(x) x = P { x < M < x + x } + o( x)
42 Verteilungsfunktion H(x) := P { M < x } Dichte h(x) x = P { x < M < x + x } + o( x) Erwartungswert
43 Verteilungsfunktion H(x) := P { M < x } Dichte h(x) x = P { x < M < x + x } + o( x) Erwartungswert EM := xh(x)dx
44 Verteilungsfunktion H(x) := P { M < x } Dichte h(x) x = P { x < M < x + x } + o( x) Erwartungswert EM := xh(x)dx Varianz
45 Verteilungsfunktion H(x) := P { M < x } Dichte h(x) x = P { x < M < x + x } + o( x) Erwartungswert EM := xh(x)dx Varianz σ 2 M := E(X EM) 2 = E(M 2 ) (EM) 2
46 Verteilungsfunktion
47 Verteilungsfunktion H(x) := P { M < x }
48 Verteilungsfunktion H(x) := P { M < x } H(x) = P { max(f 1, F 2,..., F n ) < x }
49 Verteilungsfunktion H(x) := P { M < x } H(x) = P { max(f 1, F 2,..., F n ) < x } H(x) = P { (F 1 < x), (F 2 < x),..., (F n < x) }
50 Verteilungsfunktion H(x) := P { M < x } H(x) = P { max(f 1, F 2,..., F n ) < x } H(x) = P { (F 1 < x), (F 2 < x),..., (F n < x) } H(x) = P { F 1 < x } P { F 2 < x }... P { F n < x }
51 Verteilungsfunktion H(x) := P { M < x } H(x) = P { max(f 1, F 2,..., F n ) < x } H(x) = P { (F 1 < x), (F 2 < x),..., (F n < x) } H(x) = P { F 1 < x } P { F 2 < x }... P { F n < x } H(x) = (x/λ)(x/λ)...(x/λ)
52 Verteilungsfunktion H(x) := P { M < x } H(x) = P { max(f 1, F 2,..., F n ) < x } H(x) = P { (F 1 < x), (F 2 < x),..., (F n < x) } H(x) = P { F 1 < x } P { F 2 < x }... P { F n < x } H(x) = (x/λ)(x/λ)...(x/λ) H(x) = x n /λ n
53 Ausführlicher:
54 Ausführlicher: H(x) = 0 (x < 0)
55 Ausführlicher: H(x) = 0 (x < 0) H(x) = x n /λ n (0 x < λ)
56 Ausführlicher: H(x) = 0 (x < 0) H(x) = x n /λ n (0 x < λ) H(x) = 1 (λ x)
57 Dichte
58 Dichte h(x) x := P { x < M < x + x } + o( x)
59 Dichte h(x) x := P { x < M < x + x } + o( x) h(x) = H (x)
60 Dichte h(x) x := P { x < M < x + x } + o( x) h(x) = H (x) h(x) = (x n ) /λ n
61 Dichte h(x) x := P { x < M < x + x } + o( x) h(x) = H (x) h(x) = (x n ) /λ n h(x) = nx n 1 /λ n
62 Ausführlicher:
63 Ausführlicher: h(x) = 0 (x < 0)
64 Ausführlicher: h(x) = 0 (x < 0) h(x) = nx n 1 /λ n (0 x < λ)
65 Ausführlicher: h(x) = 0 (x < 0) h(x) = nx n 1 /λ n (0 x < λ) h(x) = 0 (λ x)
66 Erwartungswert
67 Erwartungswert EM = xh(x)dx
68 Erwartungswert EM = xh(x)dx EM = λ 0 x(nxn 1 /λ n )dx
69 Erwartungswert EM = xh(x)dx EM = λ 0 x(nxn 1 /λ n )dx EM = n( λ 0 xn dx)/λ n
70 Erwartungswert EM = xh(x)dx EM = λ 0 x(nxn 1 /λ n )dx EM = n( λ 0 xn dx)/λ n EM = n(λ n+1 /(n + 1))/λ n
71 Erwartungswert EM = xh(x)dx EM = λ 0 x(nxn 1 /λ n )dx EM = n( λ 0 xn dx)/λ n EM = n(λ n+1 /(n + 1))/λ n EM = n n+1 λ
72 Erwartungswert EM = xh(x)dx EM = λ 0 x(nxn 1 /λ n )dx EM = n( λ 0 xn dx)/λ n EM = n(λ n+1 /(n + 1))/λ n EM = n n+1 λ (auch ohne Rechnung klar: Kreis)
73 Varianz
74 Varianz σ 2 M = E(M 2 ) (EM) 2
75 Varianz σ 2 M = E(M 2 ) (EM) 2 E(M 2 ) = λ 0 x2 h(x)dx
76 Varianz σ 2 M = E(M 2 ) (EM) 2 E(M 2 ) = λ 0 x2 h(x)dx E(M 2 ) = λ 0 x2 (nx n 1 /λ n )dx
77 Varianz σ 2 M = E(M 2 ) (EM) 2 E(M 2 ) = λ 0 x2 h(x)dx E(M 2 ) = λ 0 x2 (nx n 1 /λ n )dx E(M 2 ) = n( λ 0 xn+1 dx)/λ n
78 Varianz σ 2 M = E(M 2 ) (EM) 2 E(M 2 ) = λ 0 x2 h(x)dx E(M 2 ) = λ 0 x2 (nx n 1 /λ n )dx E(M 2 ) = n( λ 0 xn+1 dx)/λ n E(M 2 ) = n(λ n+2 /(n + 2))/λ n
79 Varianz σ 2 M = E(M 2 ) (EM) 2 E(M 2 ) = λ 0 x2 h(x)dx E(M 2 ) = λ 0 x2 (nx n 1 /λ n )dx E(M 2 ) = n( λ 0 xn+1 dx)/λ n E(M 2 ) = n(λ n+2 /(n + 2))/λ n E(M 2 ) = n n+2 λ2
80 Varianz
81 Varianz σ 2 M = E(M 2 ) (EM) 2
82 Varianz σ 2 M = E(M 2 ) (EM) 2 σ 2 M = ( n n+2 ( n n+1 )2 )λ 2
83 Varianz σ 2 M = E(M 2 ) (EM) 2 σ 2 M = σ 2 M = ( n n+2 ( n n+1 )2 )λ 2 n (n+1) 2 (n+2) ((n + 1)2 n(n + 2))λ 2
84 Varianz σ 2 M = E(M 2 ) (EM) 2 σ 2 M = σ 2 M = ( n n+2 ( n n+1 )2 )λ 2 n (n+1) 2 (n+2) ((n + 1)2 n(n + 2))λ 2 σ 2 M = n (n+1) 2 (n+2) λ2
85 EM = n n+1 λ
86 EM = n n+1 λ ^λ 2 := n+1 n M
87 EM = n n+1 λ ^λ 2 := n+1 n E^λ 2 = λ M
88 EM = n n+1 λ ^λ 2 := n+1 n E^λ 2 = λ Man sagt: M
89 EM = n n+1 λ ^λ 2 := n+1 n E^λ 2 = λ Man sagt: M ^λ 2 ist erwartungstreu.
90 Zwei Schätzer von λ:
91 Zwei Schätzer von λ: ^λ 1 := 2 F
92 Zwei Schätzer von λ: ^λ 1 := 2 F ^λ 2 := n+1 n M
93 Zwei Schätzer von λ: ^λ 1 := 2 F ^λ 2 := n+1 n M Beide erwartungstreu:
94 Zwei Schätzer von λ: ^λ 1 := 2 F ^λ 2 := n+1 n M Beide erwartungstreu: E^λ 1 = E^λ 2 = λ
95 Zwei Schätzer von λ: ^λ 1 := 2 F ^λ 2 := n+1 n M Beide erwartungstreu: E^λ 1 = E^λ 2 = λ Welcher Schätzer ist besser?
96 Zwei Schätzer von λ: ^λ 1 := 2 F ^λ 2 := n+1 n M Beide erwartungstreu: E^λ 1 = E^λ 2 = λ Welcher Schätzer ist besser?
97 λ F
98 ^λ 1 := 2 F F λ
99 ^λ 1 := 2 F F λ
100 ^λ 1 := 2 F F λ
101 ^λ 2 := n+1 n max F i F λ
102 ^λ 2 := n+1 n max F i F λ
103 ^λ 2 := n+1 n max F i F λ
104 Neuer Datensatz F λ
105 ^λ 1 := 2 F F λ
106 ^λ 1 := 2 F F λ
107 ^λ 1 := 2 F F λ
108 ^λ 2 := n+1 n max F i F λ
109 ^λ 2 := n+1 n max F i F λ
110 ^λ 2 := n+1 n max F i F λ
111 Neuer Datensatz F λ
112 ^λ 1 := 2 F F λ
113 ^λ 1 := 2 F F λ
114 ^λ 1 := 2 F F λ
115 ^λ 2 := n+1 n max F i F λ
116 ^λ 2 := n+1 n max F i F λ
117 ^λ 2 := n+1 n max F i F λ
118 100 Datensätze n = F λ
119 100 Datensätze n = F λ
120 ^λ 2 ist λ deutlich näher als ^λ F λ
121 Für n größer ist der Unterschied noch deutlicher F λ
122 n = F λ
123 n = F λ
124 Quantitativ:
125 Quantitativ: σ 2^λ 1 = 1 3n 1 λ 2
126 Quantitativ: σ 2^λ 1 = 1 3n 1 λ 2 σ 2^λ 2 = n 2 (n 2 +1) 2 (n 2 +2) λ2 1 n 2 λ 2 2
127 Quantitativ: σ 2^λ 1 = 1 3n 1 λ 2 σ 2^λ 2 = n 2 (n 2 +1) 2 (n 2 +2) λ2 1 n 2 λ 2 2 Damit σ 2^λ 1 = σ 2^λ 2
128 Quantitativ: σ 2^λ 1 = 1 3n 1 λ 2 σ 2^λ 2 = n 2 (n 2 +1) 2 (n 2 +2) λ2 1 n 2 λ 2 2 Damit σ 2^λ 1 = σ 2^λ 2 braucht man n 1 = (n 2+1) 2 (n 2 +2) 3n 2
129 Quantitativ: σ 2^λ 1 = 1 3n 1 λ 2 σ 2^λ 2 = n 2 (n 2 +1) 2 (n 2 +2) λ2 1 n 2 λ 2 2 Damit σ 2^λ 1 = σ 2^λ 2 braucht man n 1 = (n 2+1) 2 (n 2 +2) 3n 2 n 1 = 48 n 2 = 10
130 Quantitativ: σ 2^λ 1 = 1 3n 1 λ 2 σ 2^λ 2 = n 2 (n 2 +1) 2 (n 2 +2) λ2 1 n 2 λ 2 2 Damit σ 2^λ 1 = σ 2^λ 2 braucht man n 1 = (n 2+1) 2 (n 2 +2) 3n 2 n 1 = 48 n 2 = 10 n 1 = 243 n 2 = 25
131 Quantitativ: σ 2^λ 1 = 1 3n 1 λ 2 σ 2^λ 2 = n 2 (n 2 +1) 2 (n 2 +2) λ2 1 n 2 λ 2 2 Damit σ 2^λ 1 = σ 2^λ 2 braucht man n 1 = (n 2+1) 2 (n 2 +2) 3n 2 n 1 = 48 n 2 = 10 n 1 = 243 n 2 = 25 n 1 = 3468 n 2 = 100
132 FAZIT bisher
133 FAZIT bisher Es gibt verschiedene Schätzer für denselben Parameter.
134 FAZIT bisher Es gibt verschiedene Schätzer für denselben Parameter. Es gibt gute und schlechte.
135 FAZIT bisher Es gibt verschiedene Schätzer für denselben Parameter. Es gibt gute und schlechte. Wie findet man einen guten?
136 BEISPIEL 2 Der Getreidekapuziner Rhizopertha dominica
137 Wenn zwei Larven
138 dasselbe Korn besetzen
139 kämpfen sie, bis die Unterlegene stirbt oder flieht.
140 kämpfen sie, bis die Unterlegene stirbt oder flieht. Werden besetzten Körner vermieden?
141 Aus einem Posten befallenen Weizens
142 Aus einem Posten befallenen Weizens wurden 150 Körner seziert
143 Aus einem Posten befallenen Weizens wurden 150 Körner seziert und die Anzahl Larven pro Korn wurde festgestellt.
144 Aus einem Posten befallenen Weizens wurden 150 Körner seziert und die Anzahl Larven pro Korn wurde festgestellt. Sind die beobachteten Häufigkeiten mit einer rein zufälligen Besetzung vereinbar?
145 Anzahl Larven pro Korn in 150 Weizenkörnern Anzahl Körner k=larven pro Korn
146 Was heißt rein zufällig?
147 Was heißt rein zufällig?
148 MODELL
149 MODELL Sei K die Anzahl Larven in einem Korn.
150 MODELL Sei K die Anzahl Larven in einem Korn. Es gibt n Larven.
151 MODELL Sei K die Anzahl Larven in einem Korn. Es gibt n Larven. Jede Larve gelangt mit Wahrscheinlichkeit p in das Korn
152 MODELL Sei K die Anzahl Larven in einem Korn. Es gibt n Larven. Jede Larve gelangt mit Wahrscheinlichkeit p in das Korn unabhängig von den anderen Larven.
153 MODELL Sei K die Anzahl Larven in einem Korn. Es gibt n Larven. Jede Larve gelangt mit Wahrscheinlichkeit p in das Korn unabhängig von den anderen Larven. K = I 1 + I I n
154 MODELL Sei K die Anzahl Larven in einem Korn. Es gibt n Larven. Jede Larve gelangt mit Wahrscheinlichkeit p in das Korn unabhängig von den anderen Larven. K = I 1 + I I n K Bin(n, p)
155 Schwierigkeit
156 Schwierigkeit n, p unbekannt
157 Schwierigkeit n, p unbekannt Ausweg
158 Schwierigkeit n, p unbekannt Ausweg n 1
159 Schwierigkeit n, p unbekannt Ausweg n 1 p 1
160 Schwierigkeit n, p unbekannt Ausweg n 1 p 1 Bin(n, p) Pois(λ) λ = np
161 Angenommen, diese Daten sind eine Stichprobe aus Pois(λ), Anzahl Körner k = Larven pro Korn
162 wie schätzt man λ? Anzahl Körner k = Larven pro Korn
163 EXKURS Die Poissonverteilung
164 EXKURS Die Poissonverteilung (Wiederholung)
165 EXKURS Die Poissonverteilung (Wiederholung) Q
166 EXKURS Die Poissonverteilung (Wiederholung) Q Quiz-relevant
167 Binomialverteilung
168 Binomialverteilung B Bin(n, p)
169 Binomialverteilung B Bin(n, p) B = Anzahl Erfolge in n unabhängigen Versuchen
170 Binomialverteilung B Bin(n, p) B = Anzahl Erfolge in n unabhängigen Versuchen mit Erfolgswahrscheinlichkeit p in jedem Versuch
171 Binomialverteilung B Bin(n, p) B = Anzahl Erfolge in n unabhängigen Versuchen mit Erfolgswahrscheinlichkeit p in jedem Versuch
172 P{ B = k } = n k p k (1 p) n k
173 P{ B = k } = n k p k (1 p) n k EB = np
174 P{ B = k } = n k p k (1 p) n k EB = np σ 2 B = np(1 p)
175 P{ B = k } = n k p k (1 p) n k EB = np σ 2 B = np(1 p) n p 0 np λ
176 P{ B = k } = n k p k (1 p) n k EB = np σ 2 B = np(1 p) n p 0 np λ P{ B = k } λk k! e λ
177 P{ B = k } = n k p k (1 p) n k EB = np σ 2 B = np(1 p) n p 0 np λ P{ B = k } λk k! e λ EB = np λ
178 P{ B = k } = n k p k (1 p) n k EB = np σ 2 B = np(1 p) n p 0 np λ P{ B = k } λk k! e λ EB = np λ σ 2 B = np(1 p) λ
179 Poissonverteilung
180 Poissonverteilung X Pois(λ)
181 Poissonverteilung X Pois(λ) X = Anzahl Erfolge in n 1 unabhängigen Versuchen
182 Poissonverteilung X Pois(λ) X = Anzahl Erfolge in n 1 unabhängigen Versuchen mit Erfolgswahrscheinlichkeit p 1 in jedem Versuch,
183 Poissonverteilung X Pois(λ) X = Anzahl Erfolge in n 1 unabhängigen Versuchen mit Erfolgswahrscheinlichkeit p 1 in jedem Versuch, wobei np = λ
184 P{ X = k } = λk k! e λ
185 P{ X = k } = λk k! e λ EX = λ
186 P{ X = k } = λk k! e λ EX = λ σ 2 X = λ
187 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = k
188 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = k
189 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = 5 n = k
190 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = 5 n = 6 n = k
191 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = k
192 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = k
193 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = 89 n = k
194 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = n = k
195 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = n = k
196 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = n = k
197 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = n = k
198 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = n = k
199 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = n = k
200 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = n = k
201 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = n = k
202 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = n = k
203 Die Binomialverteilung Bin(n, p) np = 2 P { B = k } n = 4 n = n = n = k
204 Die Poissonverteilung Pois(2) P { X = k } n = 4 n = n = n = k
205 P { B = k } Die Binomialverteilung Bin(n, p) np = k
206 AUFGABE
207 AUFGABE 100 Studenten sitzen in einem Hörsaal am 5. Juni.
208 AUFGABE 100 Studenten sitzen in einem Hörsaal am 5. Juni. Wie groß ist die Wahrscheinlichkeit dafür, dass genau einer von ihnen an diesem Tag Geburtstag hat?
209 AUFGABE 100 Studenten sitzen in einem Hörsaal am 5. Juni. Wie groß ist die Wahrscheinlichkeit dafür, dass genau einer von ihnen an diesem Tag Geburtstag hat? (i) Nach dem Binomialmodell mit p = 1/365?
210 AUFGABE 100 Studenten sitzen in einem Hörsaal am 5. Juni. Wie groß ist die Wahrscheinlichkeit dafür, dass genau einer von ihnen an diesem Tag Geburtstag hat? (i) Nach dem Binomialmodell mit p = 1/365? (ii) Nach der Poissonannäherung dazu?
211 AUFGABE 100 Studenten sitzen in einem Hörsaal am 5. Juni. Wie groß ist die Wahrscheinlichkeit dafür, dass genau einer von ihnen an diesem Tag Geburtstag hat? (i) Nach dem Binomialmodell mit p = 1/365? (ii) Nach der Poissonannäherung dazu?
212 P { B = k } = (i) n p k k (1 p) n k
213 P { B = k } = (i) n p k k (1 p) n k P { B = 1 } = ( ) ( )
214 P { B = k } = (i) n p k k (1 p) n k P { B = 1 } = ( ) ( ) P { B = 1 }
215 (ii) P { X = k } = λk k! e λ
216 (ii) P { X = k } = λk k! e λ λ = np = 100/365 = 0.274
217 (ii) P { X = k } = λk k! e λ λ = np = 100/365 = P { X = 1 } = λe λ
218 (ii) P { X = k } = λk k! e λ λ = np = 100/365 = P { X = 1 } = λe λ P { X = 1 }
219 AUFGABE
220 AUFGABE Bei Café Bauer hat nur 1 Rosinenbrötchen aus 1000 keine Rosine.
221 AUFGABE Bei Café Bauer hat nur 1 Rosinenbrötchen aus 1000 keine Rosine. Wie viele Rosinen hat ein durchschnittliches Brötchen?
222 R := Anzahl in einem Brötchen
223 R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt
224 R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt (Denn im Teig sind viele Rosinen,
225 R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt (Denn im Teig sind viele Rosinen, jede mit einer kleinen Chance in mein Brötchen zu gelangen.)
226 R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt (Denn im Teig sind viele Rosinen, jede mit einer kleinen Chance in mein Brötchen zu gelangen.) P { R = 0 } = e λ = 0.001
227 R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt (Denn im Teig sind viele Rosinen, jede mit einer kleinen Chance in mein Brötchen zu gelangen.) P { R = 0 } = e λ = λ = ln(0.001)
228 R := Anzahl in einem Brötchen R ist (annähernd) poissonverteilt (Denn im Teig sind viele Rosinen, jede mit einer kleinen Chance in mein Brötchen zu gelangen.) P { R = 0 } = e λ = λ = ln(0.001) λ 6.9
229 Ende des Exkurses
230 Ende des Exkurses Zurück zum Schätzen
231 K Pois(λ)
232 K Pois(λ) Wie schätzt man λ?
233 K Pois(λ) Wie schätzt man λ? Es gibt viele Möglichkeiten.
234 EK = λ
235 EK = λ ^λ 1 := K = 1 n Ki
236 EK = λ ^λ 1 := K = 1 n Ki σ 2 K = λ
237 EK = λ ^λ 1 := K = 1 n Ki σ 2 K = λ ^λ 2 := ^σ 2 K = n 1 1 (Ki K) 2
238 EK = λ ^λ 1 := K = 1 n Ki σ 2 K = λ ^λ 2 := ^σ 2 K = n 1 1 (Ki K) 2 P{K = 0} = e λ
239 EK = λ ^λ 1 := K = 1 n Ki σ 2 K = λ ^λ 2 := ^σ 2 K = n 1 1 (Ki K) 2 P{K = 0} = e λ ^λ 3 := ln(^p{k = 0}) = ln( 1 n #{X i X i = 0})
240 EK = λ ^λ 1 := K = 1 n Ki σ 2 K = λ ^λ 2 := ^σ 2 K = n 1 1 (Ki K) 2 P{K = 0} = e λ ^λ 3 := ln(^p{k = 0}) = ln( 1 n #{X i X i = 0}) Was wählen?
241 UMWANDLUNG DER FRAGE
242 UMWANDLUNG DER FRAGE Welche Werte von λ passen zu den Daten?
243 UMWANDLUNG DER FRAGE Welche Werte von λ passen zu den Daten? Sei k der Vektor der Beobachtungen
244 UMWANDLUNG DER FRAGE Welche Werte von λ passen zu den Daten? Sei k der Vektor der Beobachtungen k := (k1,..., k n ) T
245 UMWANDLUNG DER FRAGE Welche Werte von λ passen zu den Daten? Sei k der Vektor der Beobachtungen k := (k1,..., k n ) T und sei f K ( k;λ) seine Wahrscheinlichkeit.
246 UMWANDLUNG DER FRAGE Welche Werte von λ passen zu den Daten? Sei k der Vektor der Beobachtungen k := (k1,..., k n ) T und sei f K ( k;λ) seine Wahrscheinlichkeit. Die Likelihood L(λ)
247 UMWANDLUNG DER FRAGE Welche Werte von λ passen zu den Daten? Sei k der Vektor der Beobachtungen k := (k1,..., k n ) T und sei f K ( k;λ) seine Wahrscheinlichkeit. Die Likelihood L(λ) L(λ) := f K ( k;λ)
248 UMWANDLUNG DER FRAGE Welche Werte von λ passen zu den Daten? Sei k der Vektor der Beobachtungen k := (k1,..., k n ) T und sei f K ( k;λ) seine Wahrscheinlichkeit. Die Likelihood L(λ) L(λ) := f K ( k;λ) ( k fest)
249 Beobachtete Häufigkeiten Anzahl Körner k = Larven pro Korn
250 Anzahl Körner L(λ) =? k = Larven pro Korn
251 L(λ) 0.0e e e e e L(λ) λ
252 ln(L(λ)) ln(l(λ)) λ
253 ln(L(λ)) ln(l(λ)) λ
254 Einige Werte von λ passen viel besser als andere L(λ) 0.0e e e e e λ
255 Welches λ sollten wir wählen? L(λ) 0.0e e e e e λ
256 Warum nicht das beste? L(λ) 0.0e e e e e λ
257 Warum nicht das beste? L(λ) 0.0e e e e e λ
258 Der Maximum-Likelihood-Schätzer L(λ) 0.0e e e e e λ
259 L(λ) 0.0e e e e e ^λ : L(^λ) = max! λ
260 Die Maximum-Likelihood Methode: Nimm das λ, L(λ) 0.0e e e e e λ
261 bei dem das Beobachtete die größtmögliche Wahrscheinlichkeit hat L(λ) 0.0e e e e e λ
262 Formel für ^λ
263 Formel für ^λ (nicht unbedingt notwendig)
264 Formel für ^λ (nicht unbedingt notwendig) L(λ) = f K (k 1 ; λ)...f K (k n ; λ)
265 Formel für ^λ (nicht unbedingt notwendig) L(λ) = f K (k 1 ; λ)...f K (k n ; λ) L(λ) = ( λk 1 k 1! e λ )...( λk n k n! e λ )
266 Formel für ^λ (nicht unbedingt notwendig) L(λ) = f K (k 1 ; λ)...f K (k n ; λ) L(λ) = ( λk 1 k 1! e λ )...( λk n k n! e λ ) L(λ) = λk k n k 1!...k n! e nλ
267 Formel für ^λ (nicht unbedingt notwendig) L(λ) = f K (k 1 ; λ)...f K (k n ; λ) L(λ) = ( λk 1 k 1! e λ )...( λk n k n! e λ ) L(λ) = λk k n k 1!...k n! e nλ ln L(λ) = (k k n ) ln λ nλ + Konst
268 Formel für ^λ (nicht unbedingt notwendig) L(λ) = f K (k 1 ; λ)...f K (k n ; λ) L(λ) = ( λk 1 k 1! e λ )...( λk n k n! e λ ) L(λ) = λk k n k 1!...k n! e nλ ln L(λ) = (k k n ) ln λ nλ + Konst d dλ ln L(λ) = k k n λ n
269 Formel für ^λ (nicht unbedingt notwendig) L(λ) = f K (k 1 ; λ)...f K (k n ; λ) L(λ) = ( λk 1 k 1! e λ )...( λk n k n! e λ ) L(λ) = λk k n k 1!...k n! e nλ ln L(λ) = (k k n ) ln λ nλ + Konst d dλ ln L(λ) = k k n λ n 0 = k k n λ n
270 Formel für ^λ (nicht unbedingt notwendig) L(λ) = f K (k 1 ; λ)...f K (k n ; λ) L(λ) = ( λk 1 k 1! e λ )...( λk n k n! e λ ) L(λ) = λk k n k 1!...k n! e nλ ln L(λ) = (k k n ) ln λ nλ + Konst d dλ ln L(λ) = k k n λ n 0 = k k n λ n ^λ = k
271 Beobachtete Häufigkeiten Anzahl Körner k
272 Angepasste Poissonverteilung Anzahl Körner k
273 nf K (k;^λ) Anzahl Körner k
274 nf K (k;^λ) Anzahl Körner k
275 Sehr gute Anpassung Anzahl Körner k
276 (von formalen statistischen Tests bestätigt) Anzahl Körner k
277 Fazit Anzahl Körner k
278 Offenbar wissen Larven nicht, wenn ein Korn besetzt ist Anzahl Körner k
279 Panzer-Beispiel
280 Panzer-Beispiel Uniformverteilung auf (0, λ)
281 Panzer-Beispiel Uniformverteilung auf (0, λ) f X (x;λ) = 1 λ x (0, λ)
282 Panzer-Beispiel Uniformverteilung auf (0, λ) f X (x;λ) = λ 1 x (0, λ) f X (x;λ) = 0 x / (0, λ)
283 Panzer-Beispiel Uniformverteilung auf (0, λ) f X (x;λ) = λ 1 x (0, λ) f X (x;λ) = 0 x / (0, λ) x := (x 1,...x n ) T
284 Panzer-Beispiel Uniformverteilung auf (0, λ) f X (x;λ) = 1 λ x (0, λ) f X (x;λ) = 0 x / (0, λ) x := (x 1,...x n ) T f X ( x; λ) = 1 λ n M := max{x i } (0, λ)
285 Panzer-Beispiel Uniformverteilung auf (0, λ) f X (x;λ) = 1 λ x (0, λ) f X (x;λ) = 0 x / (0, λ) x := (x 1,...x n ) T f X ( x; λ) = λ 1 M := max{x i } (0, λ) f X ( x;λ) = 0 M :=/ (0, λ)
286 Panzer-Beispiel Uniformverteilung auf (0, λ) f X (x;λ) = 1 λ x (0, λ) f X (x;λ) = 0 x / (0, λ) x := (x 1,...x n ) T f X ( x; λ) = λ 1 M := max{x i } (0, λ) f X ( x;λ) = 0 M :=/ (0, λ)
287 f X (x) x λ
288 x 1,..., x x λ
289 x 1,..., x x λ
290 L(λ) λ
291 ^λ : L(λ) = max! λ
292 ^λ = M λ
293 L(λ) (n = 10) λ
294 x 1,..., x x λ
295 x 1,..., x x λ
296 L(λ) (n = 25) λ
297 LETZTES BEISPIEL
298 LETZTES BEISPIEL Warten auf den ersten Erfolg
299 LETZTES BEISPIEL Warten auf den ersten Erfolg X 1, X 2, X 3,... unabhängig
300 LETZTES BEISPIEL Warten auf den ersten Erfolg X 1, X 2, X 3,... unabhängig mit P { X i = 1 } = p P { X i = 0 } = 1 p
301 LETZTES BEISPIEL Warten auf den ersten Erfolg X 1, X 2, X 3,... unabhängig mit P { X i = 1 } = p P { X i = 0 } = 1 p T := inf { i X i = 1 } Zeitpunkt des ersten Erfolgs
302 Man wartet n-mal auf Erfolg
303 Man wartet n-mal auf Erfolg mit Wartezeiten t 1, t 2,..., t n.
304 Man wartet n-mal auf Erfolg mit Wartezeiten t 1, t 2,..., t n. Wie schätzt man p aus den Wartezeiten?
305 Q
306 Q Quiz-relevant
307 WIEDERHOLUNG ET = 1 p
308 WIEDERHOLUNG ET = 1 p T 1 Misserfolge vor dem ersten Erfolg
309 WIEDERHOLUNG ET = 1 p T 1 Misserfolge vor dem ersten Erfolg E(T 1) = 1 p 1 = 1 p p
310 AUFGABE
311 AUFGABE Das Schwarze in der Mitte einer Zielscheibe von Radius 80 cm hat Radius 8 cm.
312 AUFGABE Das Schwarze in der Mitte einer Zielscheibe von Radius 80 cm hat Radius 8 cm. Ein Schütze trifft rein zufällige Punkte in der Zielscheibe.
313 AUFGABE Das Schwarze in der Mitte einer Zielscheibe von Radius 80 cm hat Radius 8 cm. Ein Schütze trifft rein zufällige Punkte in der Zielscheibe. Wie oft im Mittel schießt er daneben, bis er zum ersten Mal ins Schwarze trifft?
314 AUFGABE Das Schwarze in der Mitte einer Zielscheibe von Radius 80 cm hat Radius 8 cm. Ein Schütze trifft rein zufällige Punkte in der Zielscheibe. Wie oft im Mittel schießt er daneben, bis er zum ersten Mal ins Schwarze trifft? p = ( 1 10 ) 2 = 1 100
315 AUFGABE Das Schwarze in der Mitte einer Zielscheibe von Radius 80 cm hat Radius 8 cm. Ein Schütze trifft rein zufällige Punkte in der Zielscheibe. Wie oft im Mittel schießt er daneben, bis er zum ersten Mal ins Schwarze trifft? p = ( 1 10 ) 2 = E(T 1) = p 1 1 = = 99
316 Der Maximum-Likelihood-Schätzer ^p
317 Der Maximum-Likelihood-Schätzer ^p L(p)
318 Der Maximum-Likelihood-Schätzer ^p L(p) L(p) = [(1 p) t 1 1 p]...[(1 p) t n 1 p]
319 Der Maximum-Likelihood-Schätzer ^p L(p) L(p) = [(1 p) t1 1 p]...[(1 p) tn 1 p] L(p) = (1 p) ( t i n) p n
320 Der Maximum-Likelihood-Schätzer ^p L(p) L(p) = [(1 p) t1 1 p]...[(1 p) tn 1 p] L(p) = (1 p) ( t i n) p n ln L(p) = ( t i n) ln(1 p) + n ln p
321 Der Maximum-Likelihood-Schätzer ^p L(p) L(p) = [(1 p) t 1 1 p]...[(1 p) t n 1 p] L(p) = (1 p) ( t i n) p n ln L(p) = ( t i n) ln(1 p) + n ln p d dp lnl(p) = 0
322 Der Maximum-Likelihood-Schätzer ^p L(p) L(p) = [(1 p) t 1 1 p]...[(1 p) t n 1 p] L(p) = (1 p) ( t i n) p n ln L(p) = ( t i n) ln(1 p) + n ln p d dp lnl(p) = 0 ( t i n) (1 p) + n p = 0
323 Der Maximum-Likelihood-Schätzer ^p L(p) L(p) = [(1 p) t 1 1 p]...[(1 p) t n 1 p] L(p) = (1 p) ( t i n) p n ln L(p) = ( t i n) ln(1 p) + n ln p d dp lnl(p) = 0 ( t i n) (1 p) + n p = 0 p( t i n) = n(1 p)
324 Der Maximum-Likelihood-Schätzer ^p L(p) L(p) = [(1 p) t 1 1 p]...[(1 p) t n 1 p] L(p) = (1 p) ( t i n) p n ln L(p) = ( t i n) ln(1 p) + n ln p d dp lnl(p) = 0 ( t i n) (1 p) + n p = 0 p( t i n) = n(1 p) p( t i ) = n
325 Der Maximum-Likelihood-Schätzer ^p L(p) L(p) = [(1 p) t 1 1 p]...[(1 p) t n 1 p] L(p) = (1 p) ( t i n) p n ln L(p) = ( t i n) ln(1 p) + n ln p d dp lnl(p) = 0 ( t i n) (1 p) + n p = 0 p( t i n) = n(1 p) p( t i ) = n ^p = n/ t i
326 ENDE
Computergestützte Datenanalyse in der Kern- und Teilchenphysik
Computergestützte Datenanalysein der Kern- und Teilchenphysik p. 1/?? Computergestützte Datenanalyse in der Kern- und Teilchenphysik Vorlesung 4 Jan Friedrich Computergestützte Datenanalysein der Kern-
MehrÜ b u n g s b l a t t 11
Einführung in die Stochastik Sommersemester 07 Dr Walter Oevel 8 007 Ü b u n g s b l a t t Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden Lösungen von -Aufgaben sind
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun http://blog.ruediger-braun.net Heinrich-Heine-Universität Düsseldorf 07. Januar 2015 Klausuranmeldung Prüflinge müssen sich bis spätestens 14 Tage vor
MehrLösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
MehrZufallsvariable: Verteilungen & Kennzahlen
Mathematik II für Biologen 12. Juni 2015 Zufallsvariable Kennzahlen: Erwartungswert Kennzahlen: Varianz Kennzahlen: Erwartungstreue Verteilungsfunktion Beispiel: Exponentialverteilung Kennzahlen: Erwartungswert
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrMusterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60
WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach
MehrAusgewählte spezielle Verteilungen
Ausgewählte spezielle Verteilungen In Anwendungen werden oft Zufallsvariablen betrachtet, deren Verteilung einem Standardmodell entspricht. Zu den wichtigsten dieser Modelle gehören: diskrete Verteilungen:
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 10.10.14 Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrEinführung in Quantitative Methoden
Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrAufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:
Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen
MehrSchätzer und Konfidenzintervalle
Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl
Mehr3 Statistische Schätzungen
3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrKapitel 9. Verteilungsmodelle. 9.1 Diskrete Verteilungsmodelle Die Gleichverteilung
Kapitel 9 Verteilungsmodelle Es gibt eine Reihe von Verteilungsmodellen für univariate diskrete und stetige Zufallsvariablen, die sich in der Praxis bewährt haben. Wir wollen uns von diesen einige anschauen.
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ Die Varianz von X ist definiert als Var[X] := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrVerteilung von Summen
Verteilung von Summen Beispiel: Würfelwurf Frage: Wie verhält sich die Verteilung der Augensumme von -Würfeln bei wachsendem? Zur Beantwortung führen wir ein Simulationseperiment durch. 6 Würfe mit 1 Würfel
MehrKapitel 3 Schließende Statistik
Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel
Mehr4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrVorlesung 4b. Die Varianz
Vorlesung 4b Die Varianz 1 X sei reellwertige Zufallsvariable mit endlichem Erwartungswert µ. Die Varianz von X ist definiert als Var X := E[(X µ) 2 ], die erwartete quadratische Abweichung der Zufallsvariablen
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 7. n (Konvergenz, LLN, CLT) n heisst für uns n gross Literatur Kapitel 7 * Statistik in Cartoons: Kapitel 5, Seite 114 in Kapitel 6 * Stahel:
Mehr(8 + 2 Punkte) = = 0.75
Aufgabe 1 (8 + 2 Punkte) Von 20 Teilnehmern einer Bergwanderung geben 8 Personen an Knieschmerzen zu haben. 6 Teilnehmer leiden an Sonnenbrand. 8 Teilnehmer blieben unversehrt. a) Wie groß ist die Wahrscheinlichkeit,
MehrAufgabe Punkte
Institut für Mathematik Freie Universität Berlin Carsten Hartmann, Stefanie Winkelmann Musterlösung für die Nachklausur zur Vorlesung Stochastik I im WiSe 20/202 Name: Matr.-Nr.: Studiengang: Mathematik
MehrStochastik und Statistik für Ingenieure Vorlesung 4
Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl
Mehr4.4 Punktschätzung. E(X 1 )+ +E(X n ) Var(ˆµ) = 1 n 2 ( Var(X1 )+ +Var(X n ) ) = 1 n 2nσ2 = σ2
4 4.4 Punktschätzung Wir betrachten eine endliche oder unendliche Grundgesamtheit, zum Beispiel alle Studierenden der Vorlesung Mathe II für Naturwissenschaften. Im endlichen Fall soll die Anzahl N ihrer
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
Mehrvon x-würfeln bei wachsendem n? Zur Beantwortung führen wir ein Simulationsexperiment durch.
Zentraler Grenzwertsatz Die Normalverteilung verdankt ihre universelle theoretische und praktische Bedeutung dem zentralen Grenzwertsatz. Unabhängig von der konkreten k Ausgangsverteilung konvergiert die
MehrStetige Verteilungen, Unabhängigkeit & ZGS
Mathematik II für Biologen Stetige Verteilungen, & ZGS 19. Juni 2015 Stetige Verteilungen, & ZGS Stetige Zufallsvariable Dichte & Verteilungsfunktion Eigenschaften & Kennzahlen Definition Eigenschaften,
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 7. n (Konvergenz, LLN, CLT) Literatur Kapitel 7 n heisst für uns n gross * Statistik in Cartoons: Kapitel 5, Seite 114 in Kapitel 6 * Stahel:
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
MehrKapitel VI - Maximum-Likelihood-Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VI - Maximum-Likelihood-Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 6. Ausgewählte Verteilungen (Distributions) * diskret: Bernoulli, Binomial, Geometrisch, Poisson * stetig: Uniform, Exponential, Normal, χ 2,
MehrHypergeometrische Verteilung
Hypergeometrische Verteilung Typischer Anwendungsfall: Ziehen ohne Zurücklegen Durch den Ziehungsprozess wird die Wahrscheinlichkeit des auch hier zu Grunde liegenden Bernoulli-Experimentes verändert.
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrDiskrete Wa.verteilungen: Eine Zooführung. Statistik (Biol./Pharm./HST) FS 2015
Diskrete Wa.verteilungen: Eine Zooführung Statistik (Biol./Pharm./HST) FS 2015 Admin: Übungsbetrieb & Quiz Gruppeneinteilung selbstständig via Webseite Eine e-mail mit Link für Einschreibung nur nach Belegung
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
MehrWie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das
Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen
MehrDer Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),
2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Unabhängigkeit Prof. Dr. Achim Klenke http://www.aklenke.de 6. Vorlesung: 02.12.2011 1/30 Inhalt 1 Wahrscheinlichkeit 2 2/30 Wahrscheinlichkeit
MehrWahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom
Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe
MehrModelle diskreter Zufallsvariablen
Statistik 2 für SoziologInnen Modelle diskreter Zufallsvariablen Univ.Prof. Dr. Marcus Hudec Zufallsvariable Eine Variable (Merkmal) X, deren numerische Werte als Ergebnisse eines Zufallsvorgangs aufgefasst
MehrWiederholungsklausur DWT
LÖSUNG Wiederholungsklausur DWT Sommersemester 2008 Hinweis: Alle Antworten sind zu begründen. Insbesondere sollte bei nicht-trivialen Umformungen kurz angegeben werden, weshalb diese Umformungen erlaubt
MehrA: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen:
5 Diskrete Verteilungen 1 Kapitel 5: Diskrete Verteilungen A: Beispiele Beispiel 1: Zwei Zufallsvariablen X und Y besitzen die beiden folgenden Wahrscheinlichkeitsfunktionen: 5 0.6 x 0.4 5 x (i) P x (x)
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrÜbungsrunde 6, Gruppe 2 LVA , Übungsrunde 5, Gruppe 2, Markus Nemetz, TU Wien, 11/2006
1 3.20 1.1 Angabe Übungsrunde 6, Gruppe 2 LVA 107.369, Übungsrunde 5, Gruppe 2, 21.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006 Ein Los aus elektronischen Bauteilen des Umfangs N = 400
MehrStatistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und
Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:
MehrDiskrete Verteilungen
KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 11. November 2010 1 Erwartungswert und Varianz Erwartungswert Varianz und Streuung Rechenregeln Binomialverteilung
MehrProf. Dr. R. Mathar RWTH Aachen, SS 2002 Daniel Catrein Abgabe: bis 15:45 Uhr. 1. Übung zur Einführung in die Stochastik für Informatiker
Daniel Catrein Abgabe: 02.05.02 1. Übung zur Einführung in die Stochastik für Informatiker Aufgabe 1 Bei einem Kartenspiel mit 52 Karten werden an jeden der vier Spieler (A, B, C und D) 13 Karten ausgegeben.
MehrLösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6
1 Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6 Aufgaben zu Kapitel 5 Zu Abschnitt 5.1 Ü5.1.1 Finden Sie eine maximum-likelihood-schätzung
MehrSie wissen noch, dass 18.99% der Surfer, die kein Smartphone haben, pro Monat weniger als 20 Stunden das Internet nutzen, d.h. f(y 1 X 2 ) =
Aufgabe 1 In einer Umfrage wird der Besitz eines Smartphones (Merkmal X) und die Nutzungsdauer des Internets pro Monat (Merkmal Y ) untersucht. Merkmal X hat zwei Ausprägungen: X 1 : Besitz und X 2 : Nichtbesitz.
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
MehrZeigen Sie mittles vollständiger Induktion, dass für jede natürliche Zahl n 1 gilt: k = n (n + 1) 2
Aufgabe 1. (5 Punkte) Zeigen Sie mittles vollständiger Induktion, dass für jede natürliche Zahl n 1 gilt: n k = k=1 n (n + 1). 2 Aufgabe 2. (5 Punkte) Bestimmen Sie das folgende Integral mithilfe partieller
Mehrp k (1 p) n k s k = (1 p + ps) n. k p(1 p) k 1 s k ((1 p)s) k 1 =
Binomialverteilung Für X Bin(n, p) gilt nach der binomischen Formel G X (s) = E[s X ] = n ( ) n p k (1 p) n k s k = (1 p + ps) n. k Geometrische Verteilung Sei X eine geometrisch verteilte Zufallsvariable
MehrVU mathematische methoden in der ökologie: räumliche verteilungsmuster 1/5 h.lettner /
VU mathematische methoden in der ökologie: räumliche verteilungsmuster / h.lettner / Analyse räumlicher Muster und Verteilungen Die Analyse räumlicher Verteilungen ist ein zentrales Gebiet der ökologischen
Mehr5. Stichproben und Statistiken
5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrMathematik 3 für Informatik
Gunter Ochs Wintersemester 20/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt 4 Lösungshinweise (ohne Ganantie auf Fehlerfreiheit. Wenn man beim Roulette auf Rot oder Schwarz setzt, erhält
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
MehrAnliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können.
2 Zufallsvariable 2.1 Einführung Anliegen: Beschreibung von Versuchsergebnissen mit Zahlen, um mit Zahlen bzw. bekannten Funktionen rechnen zu können. Eine Zufallsvariable X ordnet jedem elementaren Versuchsausgang
MehrSei X eine auf dem Intervall [2, 6] (stetig) gleichverteilte Zufallsvariable.
Aufgabe 1 (5 + 2 + 1 Punkte) Sei X eine auf dem Intervall [2, 6] (stetig) gleichverteilte Zufallsvariable. a) Wie lautet die Verteilungsfunktion von X? Zeichnen Sie diese! 0 x < 2 1 F (x) = x 0.5 2 x 6
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrHypothesentests für Erwartungswert und Median. für D-UWIS, D-ERDW, D-USYS und D-HEST SS15
Hypothesentests für Erwartungswert und Median für D-UWIS, D-ERDW, D-USYS und D-HEST SS15 Normalverteilung X N(μ, σ 2 ) : «X ist normalverteilt mit Erwartungswert μ und Varianz σ 2» pdf: f x = 1 2 x μ exp
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 10. November 2010 1 Bedingte Wahrscheinlichkeit Satz von der totalen Wahrscheinlichkeit Bayessche Formel 2 Grundprinzipien
Mehr1 Dichte- und Verteilungsfunktion
Tutorium Yannick Schrör Klausurvorbereitungsaufgaben Statistik Lösungen Yannick.Schroer@rub.de 9.2.26 ID /455 Dichte- und Verteilungsfunktion Ein tüchtiger Professor lässt jährlich 2 Bücher drucken. Die
MehrEinführung in die (induktive) Statistik
Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 24. Oktober 2007 1. Statistik Wir denken an Experimente, bei deren Durchführung die Variable X, um die es dabei geht, verschiedene Werte annehmen
MehrÜbung zur Vorlesung Statistik I WS Übungsblatt 6
Übung zur Vorlesung Statistik I WS 2012-2013 Übungsblatt 6 26. November 2012 Aufgabe 17 (4 Punkte): Sei X B(n, p) eine binomial verteilte Zufallsvariable, die ein Zufallseperiment mit n unabhängigen Wiederholungen
MehrAbbildung 1: Dieses Quiz soll Ihnen helfen, die Residuenplots besser zu verstehen. Am Schluss kommen noch vermischte Aufgaben zur Wiederholung.
Residuals vs Fitted Normal Q Q Residuals 2 1 0 1 2 16 18 30 Standardized residuals 2 1 0 1 2 18 30 16 5 10 15 20 25 30 Fitted values 2 1 0 1 2 Theoretical Quantiles Abbildung 1: Dieses Quiz soll Ihnen
MehrRechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse
Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Karlsruher Institut für Technologie Ulrich Husemann Institut für Experimentelle Kernphysik, Karlsruher Institut für Technologie
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften
MehrSchließende Statistik
Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 206/7 Schließende Statistik (WS 206/7) Folie Einleitung Organisatorisches. Organisatorisches I Vorlesung:
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrStetige Verteilungen Rechteckverteilung
Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrKlausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am von 10:00 bis 11:00 Uhr
Klausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am 5..201 von 10:00 bis 11:00 Uhr Bearbeiten Sie zwei der drei folgenden Aufgaben! Sätze aus der Vorlesung und den Übungen dürfen Sie ohne
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
MehrFormelsammlung: Statistik und Wahrscheinlichkeitstheorie
Formelsammlung: Statistik und Wahrscheinlichkeitstheorie Kapitel 1: Deskriptive und explorative Statistik Empirische Verteilungsfkt (S15): Quantile (S24): Bei Typ7 1.Pkt = 0 Danach 1/(n-1) Median (S24):
MehrWS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.
Fragenkatalog zur Übung Methoden der empirischen Sozialforschung WS 2014/15 Hier finden Sie die denkbaren Fragen zum ersten Teil der Übung. Das bedeutet, dass Sie zu diesem Teil keine anderen Fragen im
MehrInstitut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie (3) Überblick. Deskriptive Statistik I 2. Deskriptive
MehrKapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander
MehrBayes'scher Satz und diskrete Verteilungen
Die Benutzung dieser Materialien ist auf Herbst 2017 beschränkt. Diese Hilfsmaterialien sind nur für unseren Studenten gemeint, dürfen also nicht weiterverteilt werden. Bayes'scher Satz und diskrete Verteilungen
MehrZusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen
Zusammenfassung Mathe II Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen Zufallsexperiment: Ein Vorgang, bei dem mindestens zwei Ereignisse möglich sind
MehrSchließende Statistik
Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 2017/18 Schließende Statistik (WS 2017/18) Folie 1 1 Einleitung Organisatorisches 1.1 Organisatorisches
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
Mehr