Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und
|
|
- Johanna Fuhrmann
- vor 7 Jahren
- Abrufe
Transkript
1 Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4: Schätzen von Parametern /388 2/388 Übersicht über die Vorlesung Teil 5: Testen von Hypothesen Teil 6: Regression und lineare Modelle Teil 7: Einführung in die Bayes- Einleitung Merkmal- und Skalentypen Aussagen und Häufigkeiten Eindimensionale Merkmale Graphische Darstellung Empirische Verteilungsfunktion Kernschätzer Maßzahlen e Teil Deskriptive Teil 8: Simulation von Experimenten Zweidimensionale Merkmale Qualitative Merkmale Quantitative Merkmale Korrelation 3/388 4/388
2 Grenzverteilungssätze Grenzverteilungssätze Eindimensionale Zufallsvariable Diskrete Zufallsvariable Stetige Zufallsvariable Mehrdimensionale Zufallsvariable Randverteilungen und bedingte Verteilungen Wichtige Verteilungen Diskrete Verteilungen Stetige Verteilungen Die und verwandte Verteilungen Momente Erwartung Varianz Schiefe Rechnen mit Verteilungen Faltung und Messfehler Fehlerfortpflanzung, Transformation von Dichten Systematische Fehler Grenzverteilungssätze F(x) Bi(200,0.) No(20,8) x 285/388 Eindimensionale Zufallsvariable Diskrete Zufallsvariable Stetige Zufallsvariable Mehrdimensionale Zufallsvariable Randverteilungen und bedingte Verteilungen Wichtige Verteilungen Diskrete Verteilungen Stetige Verteilungen Die und verwandte Verteilungen Momente Erwartung Varianz Schiefe Rechnen mit Verteilungen Faltung und Messfehler Fehlerfortpflanzung, Transformation von Dichten Systematische Fehler Grenzverteilungssätze ( für großes n) Da eine gemäß Po(λ) verteilte Zufallsvariable als Summe von λ P ()-verteilten Zufallsvariablen dargestellt werden kann, muss die für λ gegen eine streben. Die Abbildung zeigt die Verteilungsfunktion der Po(λ) mit λ = 25, sowie die Verteilungsfunktion der No(µ, σ 2 ) mit µ = λ = 25 und σ 2 = λ = /388 Grenzverteilungssätze Eindimensionale Zufallsvariable Diskrete Zufallsvariable Stetige Zufallsvariable Mehrdimensionale Zufallsvariable Randverteilungen und bedingte Verteilungen Wichtige Verteilungen Diskrete Verteilungen Stetige Verteilungen Die und verwandte Verteilungen Momente Erwartung Varianz Schiefe Rechnen mit Verteilungen Faltung und Messfehler Fehlerfortpflanzung, Transformation von Dichten Systematische Fehler Grenzverteilungssätze F(x) Po(25) N(25,25) x 287/388 n Teil 4 Schätzen von Parametern 288/388
3 Übersicht Teil 4 Abschnitt 3: n n / /388 Unterabschnitt: n n X,..., X n seien unabhängige Zufallsvariable, die alle die gleiche Verteilung F haben. Sie bilden dann eine zufällige Stichprobe der Verteilung F. Eine Zufallsvariable Y = h(x,..., X n ) heißt eine Stichprobenfunktion. In vielen Fällen sind Momente oder die Verteilung von Y zu bestimmen. 29/ /388
4 Unterabschnitt: Definition () n n Das X der Stichprobe X,..., X n ist definiert durch X = X i n Momente des s Hat F das Mittel µ und die Varianz σ 2, gilt: E[X] = µ 2 var[x] = σ2 n 3 Ist F eine, so ist X normalverteilt. 293/ /388 Unterabschnitt: Zentraler Grenzwertsatz n Hat F das Mittel µ und die Varianz σ 2, so konvergiert die Verteilung von U = X µ σ/ n gegen die Standardnormalverteilung. 2 Ist F eine, ist U für alle n standardnormalverteilt. n / /388
5 n Definition () Die S 2 der Stichprobe X,..., X n ist definiert durch S 2 = (X i X) 2 n Erwartung der Hat F die Varianz σ 2, gilt: E[S 2 ] = σ 2 n Satz Ist F eine mit Mittel µ und Varianz σ 2, so gilt: (n )S 2 /σ 2 ist χ 2 -verteilt mit n Freiheitsgraden. 2 X und S 2 sind unabhängig. 3 Die Varianz von S 2 ist gegeben durch 4 Die Größe var[s 2 ] = 2σ4 n T = X µ S/ n ist t-verteilt mit n Freiheitsgraden. 297/ /388 Unterabschnitt: Definition () n n Der X der Stichprobe X,..., X n ist definiert durch X ((n+)/2), n ungerade X = ( ) X(n/2) + X (n/2+), n gerade Momente des s 2 Hat F den Median m und die Dichte f, gilt: lim n E[ X] = m 2 lim n var[ X] = 4 nf 2, wenn f(m) > 0 (m) 3 X ist asymptotisch normalverteilt. 299/ /388
6 Abschnitt 4: Unterabschnitt: n n 3 4 n 5 n 3 4 n 5 30/ /388 n n n Ein ist eine Stichprobenfunktion, die einen möglichst genauen Näherungswert für einen unbekannten Verteilungsparameter ϑ liefern soll: T = g(x,..., X n ) Die Funktion g(x,..., x n ) wird die Schätzfunktion genannt. Die Konstruktion von sinnvollen n für einen Parameter ϑ ist Aufgabe der Schätztheorie. Für einen Parameter ϑ sind viele möglich. Ein guter sollte jedoch gewisse Anforderungen erfüllen. n Definition (Erwartungstreue) Ein T für den Parameter ϑ heißt erwartungstreu oder unverzerrt, wenn für alle zulässigen Werte von ϑ gilt: E ϑ [T ] = ϑ T heißt asymptotisch erwartungstreu, wenn gilt: lim E ϑ[t ] = ϑ n Ist der unbekannte Parameter gleich ϑ, dann ist die Erwartung des s gleich ϑ. Ein erwartungstreuer hat zwar zufällige Abweichungen vom wahren Wert ϑ, aber keine systematische Verzerrung. 303/ /388
7 n n n Definition (MSE) Die mittlere quadratische Abweichung (mean squared error, MSE) eines s T für den Parameter ϑ ist definiert durch: MSE[T ] = E ϑ [(T ϑ) 2 ] Definition (MSE-Konsistenz) Ein T für den Parameter ϑ heißt konsistent im quadratischen Mittel (MSE-konsistent), wenn gilt: lim MSE[T ] = 0 n n Definition (MSE-Effizienz) Ein T heißt MSE-effizienter als der T 2, wenn für alle zulässigen ϑ gilt: Definition (Effizienz) MSE[T ] MSE[T 2 ] Ein erwartungstreuer T heißt effizienter als der erwartungstreue T 2, wenn für alle zulässigen ϑ gilt: var[t ] var[t 2 ] Ein erwartungstreuer T heißt effizient, wenn seine Varianz den kleinsten möglichen Wert annimmt. 305/ /388 n n n Definition (Fisher-Information) Es sei X,..., X n eine Stichprobe mit der gemeinsamen Dichte g(x,..., x n ϑ). Die Erwartung [ ] I ϑ = E 2 ln g(x,..., X n ϑ) ϑ 2 heißt die Fisher-Information der Stichprobe. Satz von Rao und Cramèr Es sei X,..., X n eine Stichprobe mit der gemeinsamen Dichte g(x,..., x n ϑ). Die Varianz eines erwartungstreuen s T für den Parameter ϑ ist nach unten beschränkt durch: var[t ] /I ϑ n Es sei X,..., X n eine Stichprobe aus der Ex(τ). Die gemeinsame Dichte ist dann gleich ( ) g(x,..., x n τ) = τ exp x i/τ n Daraus folgt: [ 2 E ln g(x,..., x n τ) = n ln τ x i/τ 2 τ ln g(x,..., xn τ) = n 2 τ 2 n xi 2 τ 3 ln g(x,..., Xn τ) τ 2 ] = n τ 2 2 nτ τ 3 = n τ 2 307/ /388
8 n Unterabschnitt: (Fortsetzung) n Die Information ist also gleich I τ = n τ 2 Für jeden erwartungstreuen T von τ gilt folglich: var[t ] τ 2 n n 3 4 n 5 309/388 30/388 n Satz Es sei X,..., X n eine Stichprobe aus der Verteilung F mit Erwartung µ. Dann ist das X ein erwartungstreuer von µ. 2 Hat F die endliche Varianz σ 2, so ist X MSE-konsistent. Ist F die No(µ, σ 2 ), so ist X normalverteilt gemäß No(µ, σ 2 /n). Da die Fisher-Information für µ gleich I µ = n/σ 2 ist, ist X effizient für µ. Ist F die Ex(τ), so ist X Gamma-verteilt mit Mittel τ und Varianz τ 2 /n. Da die Fisher-Information für τ gleich I τ = n/τ 2 ist, ist X effizient für τ. n Ist F die Po(λ), hat X Mittel λ und Varianz λ/n. Da die Fisher-Information für λ gleich I λ = n/λ ist, ist X effizient für λ. Ist F die Alternativverteilung Al(p), hat X Mittel p und Varianz p( p)/n. Da die Fisher-Information für p gleich I p = n/[p( p)] ist, ist X effizient für p. 3/388 32/388
9 Unterabschnitt: Satz n 3 4 n 5 n Es sei X,..., X n eine Stichprobe aus der Verteilung F mit Erwartung µ und Varianz σ 2. Dann ist die S 2 ein erwartungstreuer von σ 2. 2 Hat F das endliche vierte zentrale Moment µ 4, so ist var(s 2 ) = µ 4 n (n 3)µ2 2 n(n ) 3 In diesem Fall ist S 2 MSE-konsistent. 33/388 34/388 Unterabschnitt: n Ist F die No(µ, σ 2 ), so ist (n )S 2 /σ 2 χ 2 -verteilt mit n Freiheitsgraden. Die Varianz von S 2 ist dann gleich var(s 2 ) = Die Fisher-Information für σ 2 ist gleich I 2 σ = 2σ4 n n 2σ 4 S 2 ist also ein asymptotisch effizienter für σ 2. n 3 4 n 5 35/388 36/388
10 Satz n Es sei X,..., X n eine Stichprobe aus der stetigen Verteilung F mit Median m und Dichte f. Dann ist der X ein asymptotisch erwartungstreuer von m. 2 Für symmetrisches F ist X erwartungstreu. 3 Der X hat asymptotisch die Varianz var( X) 4nf(m) 2 4 Der ist MSE-konsistent, sofern f(m) > 0. n Es sei X,..., X n eine Stichprobe aus der No(µ, σ 2 ). Die Varianz von X ist gleich var(x) = σ2 n Die Varianz von X ist für großes n gleich var( X) = 2 πσ2 4 n.57 σ2 n Sie ist also um mehr als 50 Prozent größer als die Varianz von X. 37/388 38/388 Unterabschnitt: n Es sei X,..., X n eine Stichprobe aus der t-verteilung t(3). Die Varianz von X ist gleich var(x) = 3 n Die Varianz von X ist für großes n gleich var( X) = 4 nf(0) = n n Sie ist also fast um 40 Prozent kleiner als die Varianz von X. n 3 4 n 5 39/ /388
11 Definition (ML-) (ML-Schätzung eines Bernoulli-Parameters) n Es sei X,..., X n eine Stichprobe mit der gemeinsamen Dichte g(x,..., x n ϑ). Die Funktion L(ϑ X,..., X n ) = g(x,..., X n ϑ) heißt die Likelihoodfunktion der Stichprobe. 2 Der plausible oder ˆϑ ist jener Wert von ϑ, der die Likelihoodfunktion der Stichprobe maximiert. Oft wird statt der Likelihoodfunktion ihr Logarithmus, die Log-Likelihoodfunktion l(ϑ) = ln L(ϑ) maximiert. n Es sei X,..., X n eine Stichprobe aus der Alternativverteilung Al(p). Die gemeinsame Dichte lautet: g(x,..., x n p) = n p x i ( p) x i = p x i ( p) n x i Die Log-Likelihoodfunktion ist daher: ( ) l(p) = X i ln p + n X i ln( p) Ableiten nach p ergibt: l(p) p = p ( X i n p ) X i 32/ /388 (Fortsetzung) (ML-Schätzung eines Poisson-Parameters) n Nullsetzen der Ableitung und Auflösen nach p ergibt: ˆp = n X i = X Der ML- ist unverzerrt und effizient. n Es sei X,..., X n eine Stichprobe aus der Po(λ). Die gemeinsame Dichte lautet: g(x,..., x n λ) = Die Log-Likelihoodfunktion ist daher: l(λ) = Ableiten nach λ ergibt: n λ x i e λ x i! [X i ln λ λ ln(x i!)] l(λ) λ = λ X i n 323/ /388
12 (Fortsetzung) (ML-Schätzung einer mittleren Lebensdauer) n Nullsetzen der Ableitung und Auflösen nach λ ergibt: ˆλ = n X i = X Der ML- ist unverzerrt und effizient. n Es sei X,..., X n eine Stichprobe aus der Ex(τ). Die gemeinsame Dichte lautet: g(x,..., x n τ) = Die Log-Likelihoodfunktion ist daher: Ableiten nach τ ergibt: l(τ) = l(τ) τ n [ ln τ τ = n τ + τ 2 e x i/τ τ X i] X i 325/ /388 (Fortsetzung) (ML-Schätzung der Parameter einer ) n Nullsetzen der Ableitung und Auflösen nach τ ergibt: ˆτ = n X i = X Der ML- ist unverzerrt und effizient. n Es sei X,..., X n eine Stichprobe aus der No(µ, σ 2 ). Die gemeinsame Dichte lautet: g(x,..., x n µ, σ 2 ) = n Die Log-Likelihoodfunktion ist daher: l(µ, σ 2 ) = ] (xi µ)2 exp [ 2πσ 2 σ 2 [ ln 2π 2 ln σ2 Ableiten nach µ und σ 2 ergibt: l(µ, σ 2 ) µ = x i µ σ 2, l(µ, σ 2 ) σ 2 = ] (xi µ)2 2 σ 2 [ ] (xi µ)2 + 2 σ2 2 σ 4 327/ /388
13 n (Fortsetzung) Nullsetzen der Ableitungen und Auflösen nach µ und σ 2 ergibt: ˆµ = n ˆσ 2 = n X i = X (X i X) 2 = n n S2 Der ML- von µ ist unverzerrt und effizient. Der ML- von σ 2 ist asymptotisch unverzerrt und asymptotisch effizient. n Die normierte Likelihoodfunktion kann als a-posteriori Verteilung des geschätzten Parameters interpretiert werden. Für großes n kann man die Varianz der Likelihoodschätzung ˆϑ daher aus dem zweiten zentralen Moment der normierten Likelihoodfunktion ablesen. Ist des geschätzte Parameter ϑ das Mittel einer, so ist diese Vorgangsweise für beliebiges n exakt: [ L(ϑ) = σ n 2 π n exp n ( 2 σ 2 ( ˆϑ ϑ) 2 + )] (xi n ˆϑ) 2 Wird L(ϑ) normiert, so entsteht die Dichte einer mit Mittel ˆϑ und Varianz σ2 n, also gerade die Varianz der Schätzung ˆϑ = n xi. 329/ /388 ( Parameters a einer Gammaverteilung) (Fortsetzung) n Die Stichprobe X,..., X n besteht aus n = 200 Werten, die unabhängig aus einer Γ a,-verteilung gezogen werden: e x i f(x i a) = xa i Γ(a), i =,..., n Der (unbekannte) wahre Wert von a ist a w = 2. Die Log-Likelihoodfunktion lautet ln L(a x) = ln f(x i a) = (a ) ln x i x i n ln Γ(a) n Numerische Maximierung von ln L(a) gibt die Maximum Likelihood-Schätzung â. Das Experiment wird N-mal wiederholt und die Schätzungen der einzelnen Experimente (â (k), k =,..., N) werden histogrammiert. Der Vergleich der individuellen (normierten) Likelihoodfunktion mit dem Histogramm (N = 500) zeigt gute Übereinstimmung der Standardabweichungen. Matlab: make ML gamma 33/ /388
14 Der ML- hat die folgende wichtige Eigenschaft: n Histogram: σ= LF: σ= n Satz Existieren die ersten beiden Ableitungen von L(ϑ), existiert die Information I g (ϑ) für alle ϑ und ist E [(ln L) ] = 0, so ist die Likelihoodschätzung ˆϑ asymptotisch normalverteilt mit Mittel ϑ und Varianz /I g (ϑ). ˆϑ ist daher asymptotisch erwartungstreu und asymptotisch effizient. Satz Daraus folgt sofort die nächste Eigenschaft: Der Likelihoodschätzer ˆϑ ist (unter den selben Voraussetzungen) konsistent. 333/ /388 (ML- Lageparameters einer Cauchyverteilung) Es sei X,..., X n eine Stichprobe aus der Cauchyverteilung t() mit Lageparameter µ. Die gemeinsame Dichte lautet: (Fortsetzung) Man kann zeigen, dass die Fisherinformation der Stichprobe gleich I µ = n 2 n g(x,..., x n µ) = n Die Log-Likelihoodfunktion ist daher: l(µ) = n ln π π[ + (x i µ) 2 ] ln[ + (x i µ) 2 ] Das Maximum ˆµ von l(µ) muss numerisch gefunden werden. Matlab: make ML cauchy n ist. Für große Stichproben muss daher die Varianz des ML-s ˆµ ungefähr gleich 2/n sein. Der x ist ebenfalls ein konsistenter für µ. Seine Varianz ist asymptotisch gleich π 2 /(4n) 2.47/n. Sie ist also um etwa 23 Prozent größer als die Varianz des ML-s. 335/ /388
15 n Simulation von 0000 Stichproben der Größe n = 00: µ= σ= µ=.00 σ= ML Die Korrelation zwischen x und ˆµ ist etwa 90%. n log L(µ) Die Standardabweichung des ML-s kann wieder näherungsweise aus der normierten Likelihoodfunktion einer Stichprobe abgelesen werden: Log Likelihoodfunktion µ L(µ) Normierte Likelihoodfunktion σ= µ 337/ /388 (ML- Obergrenze einer Gleichverteilung) (Fortsetzung) n Es sei X,..., X n eine Stichprobe aus der Gleichverteilung Un(0, b) mit Obergrenze b. Die gemeinsame Dichte lautet: g(x,..., x n b) =, 0 x,..., xn b bn Der größte Wert der Likelihoodfunktion ist daher bei ˆb = max X i i Da ein Randmaximum vorliegt, gelten die üblichen asymptotischen Eigenschaften nicht. n Die Dichte von ˆb = max X i lautet: i f(x) = nxn b n Daraus können Erwartung und Varianz berechnet werden: E[ˆb] = n n +, var[ˆb] b 2 n = (n + 2)(n + ) 2 Der ist asymptotisch erwartungstreu, die Varianz geht aber wie /n 2 gegen Null! Der ist auch nicht asymptotisch normalverteilt. Matlab: make ML uniform 339/ /388
16 Abschnitt 5: n Simulation von 0000 Stichproben (b = ) der Größe n = 25 bzw. n = 00: n=25 µ=0.967 σ= ML n=00 µ= σ= ML n / /388 Unterabschnitt: n n Neben dem Schätzwert selbst ist auch seine Streuung um den wahren Wert von Interesse. Wir wollen aus einer Stichprobe ein Intervall bestimmen, das den wahren Wert mit einer gewissen Wahrscheinlichkeit enthält. Definition (Konfidenzintervall) Es sei X,..., X n eine Stichprobe aus der Verteilung F mit dem unbekannten Parameter ϑ. Ein Intervall mit den Grenzen G = g (X,..., X n ) und G 2 = g 2 (X,..., X n ) heißt ein Konfidenzintervall mit Sicherheit α, wenn gilt: W (G G2) = W (G ϑ G2) α Ein solches Intervall wird kurz als ( α)-konfidenzintervall bezeichnet. 343/ /388
17 Unterabschnitt: n Zu jedem Wert der Sicherheit α gibt es viele verschiedene Konfidenzintervalle. Ist F stetig, gibt es unendlich viele Konfidenzintervalle mit Sicherheit α. Ist F diskret, ist die Sicherheit in der Regel größer als α. Ein symmetrisches Konfidenzintervall liegt vor, wenn gilt: W (ϑ G ) = W (ϑ G 2 ) Ein einseitiges Konfidenzintervall liegt vor, wenn gilt: W (ϑ G 2 ) α oder W (G ϑ) α n / /388 n Es sei Y = h(x,..., X n ) eine Stichprobenfunktion. Die Verteilung G von Y hängt dann ebenfalls vom unbekannten Parameter ϑ ab. Für jeden Wert von ϑ bestimmen wir ein Prognoseintervall [y (ϑ), y 2 (ϑ)] vom Niveau α: W (y (ϑ) Y y 2 (ϑ)) α Ist die Beobachtung gleich Y = y 0, so ist das Konfidenzintervall [G (Y ), G 2 (Y )] gegeben durch: G = min{ϑ y (ϑ) y 0 y 2 (ϑ)} ϑ G2 = max {ϑ y (ϑ) y 0 y 2 (ϑ)} ϑ n Es sei X,..., X n eine Stichprobe aus No(0, σ 2 ) mit unbekannter Varianz σ. Dann ist (n )S 2 /σ 2 χ 2 -verteilt mit n Freiheitsgraden. Für Varianz σ 2 und Y = S 2 ist daher ( ) σ 2 χ 2 α/2,n W S 2 σ2 χ 2 α/2,n = α n n Der Ausdruck in der Klammer kann umgeformt werden zu: Daraus folgt G = (n )S 2 σ 2 (n )S2 χ 2 α/2,n χ 2 α/2,n (n )S2 (n )S2, G χ 2 2 = α/2,n χ 2 α/2,n 347/ /388
18 Unterabschnitt: 0 n σ S 2 Blau: Prognoseintervall für σ 2 = 3; rot: Konfidenzintervall für S 2 = 5 n / /388 n Es sei k eine Beobachtung aus der Bi(n, p). Wir suchen ein Konfidenzintervall für p. Je nach Konstruktion des Prognoseintervalls y (p), y 2 (p) ergeben sich verschiedene Konfidenzintervalle. Intervall nach Clopper und Pearson y (p), y 2 (p) sind die Quantile der Bi(n, p): y (p) = max k y 2 (p) = min k k W (k; n, p) α/2 i=0 W (k; n, p) α/2 i=k n Für die praktische Berechnung des Konfidenzintervalls können die Quantile der Betaverteilung benützt werden: G (k) = max(b α/2,k,n k+, 0) G 2 (k) = min(b α/2,k+,n k, ) Dieses Intervall ist konservativ in dem Sinn, dass die Sicherheit praktisch immer größer als α ist. 35/ /388
19 n Approximation durch Für genügend großes n ist ˆp = k/n annähernd normalverteilt gemäß No(p, p( p)/n). Das Standardscore Z = ˆp p σ[ˆp] ist dann annähernd standardnormalverteilt. Aus folgt W ( z α/2 Z z α/2 ) = α W (ˆp z α/2 σ[ˆp] p ˆp + z α/2 σ[ˆp]) = α n Da p nicht bekannt ist, muss σ[ ˆp] näherungsweise bestimmt werden. Bootstrap-Verfahren: p wird durch ˆp angenähert. Robustes Verfahren: p wird so gewählt, dass σ[ ˆp] maximal ist, also p = 0.5. Korrektur gemäß Agresti-Coull Das Intervall nach dem Bootstrap-Verfahren kann eine kleinere Sicherheit als α haben. Eine Verbesserung wird durch die Definition erzielt. ˆp = k + 2 n / /388 (Fortsetzung) n Angabe: Bei einer Umfrage unter n = 400 Personen geben k = 57 Personen an, Produkt X zu kennen. Wir suchen ein 95%-Konfidenzintervalle für den Bekanntheitsgrad p. Clopper-Pearson: G (k) = B 0.025,57,244 = G 2(k) = B 0.975,58,243 = Approximation durch : Es gilt ˆp = und z =.96. Mit dem Bootstrap-Verfahren ergibt sich σ[ˆp] = Die Grenzen des Konfidenzintervalls sind daher G = = G 2 = = n Mit dem robusten Verfahren ergibt sich σ[ˆp] = und die Grenzen G = = G 2 = = Das robuste Intervall ist nur unwesentlich länger als das Bootstrap-Intervall. Mit der Korrektur von Agresti-Coull ergibt sich ˆp = Die Grenzen des Konfidenzintervalls sind dann Matlab: make KI binomial G = = G 2 = = / /388
20 Unterabschnitt: n α Sicherheit der Konfidenzintervalle Clopper Pearson 0.65 Bootstrap Robust Agresti Coull p n / /388 n Es sei k eine Beobachtung aus der Po(λ). Wir suchen ein Konfidenzintervall für λ. Je nach Konstruktion des Prognoseintervalls [y (λ), y 2 (λ)] ergeben sich verschiedene Konfidenzintervalle. Symmetrisches Intervall y (λ), y 2 (λ) sind die Quantile der Po(λ): y (p) = max k y 2 (p) = min k k W (k; λ) α/2 i=0 W (k; λ) α/2 i=k n Für die praktische Berechnung des Konfidenzintervalls können die Quantile der Gammaverteilung benützt werden: G (k) = Γ α/2,k, G 2 (k) = Γ α/2,k+, Dieses Intervall ist konservativ in dem Sinn, dass die Sicherheit praktisch immer größer als α ist. Liegen n Beobachtungen k,..., k n vor, so ist k = k i Poissonverteilt mit Mittel nλ. Das symmetrische Konfidenzintervall für λ ist daher: G (k) = Γ α/2,k,/n G 2 (k) = Γ α/2,k+,/n 359/ /388
21 n α Sicherheit des symmetrischen Konfidenzintervalls 0.9 n= n=5 n= λ n Linksseitiges Intervall Eine Beobachtung k: y (λ) = 0, Praktische Berechnung: G (k) = 0, y 2 (λ) = min k n Beobachtungen k,..., k n : G (k) = 0, W (k; λ) α i=k G 2 (k) = Γ α,k+, G 2 (k) = Γ α,k+,/n 36/ /388 Unterabschnitt: Sicherheit des linksseitigen Konfidenzintervalls 3 4 n α n= n=5 n= λ n 5 363/ /388
22 n Symmetrisches Intervall für den Mittelwert Es sei X,..., X n eine Stichprobe aus der Ex(τ). Das X = n n X i hat die folgende Dichte: x n ( f(x) = (τ/n) n Γ(n) exp x ) τ/n X ist also Gamma-verteilt gemäß Ga(n, τ/n). Für jedes τ gilt: W ( γ α/2,n,τ/n X γ α/2,n,τ/n ) = α n Daraus folgt ( W γ α/2,n,/n X ) τ γ α/2,n,/n = α und Damit gilt: ( X W τ γ α/2,n,/n G (X) = G 2 (X) = X γ α/2,n,/n X γ α/2,n,/n X γ α/2,n,/n ) = α 365/ /388 Unterabschnitt: Linksseitiges Intervall für den Mittelwert n Für jedes τ gilt: Daraus folgt und W W ( γ α,n,τ/n X ) = α W ( γ α,n,/n X ) = α τ ( 0 τ X γ α,n,/n ) = α Rechtsseitiges Intervall für den Mittelwert ( ) X W τ = α γ α,n,/n n / /388
23 n Konfidenzintervall für den Mittelwert Es sei X,..., X n eine Stichprobe aus der No(µ, σ 2 ). X ist normalverteilt gemäß No(µ, σ 2 /n). Ist σ 2 bekannt, ist das Standardscore Z = X µ σ/ n standardnormalverteilt. Aus W ( z α/2 Z z α/2 ) = α folgt W (X z α/2 σ/ n µ X + z α/2 σ/ n) = α n Ist σ 2 unbekannt, wird σ 2 durch die geschätzt, und das Standardscore T = X µ S/ n ist t-verteilt mit n Freiheitsgraden. Aus folgt W ( t n α/2 T tn α/2 ) = α W (X t n α/2 S/ n µ X + t n α/2 S/ n) = α 369/ /388 n Eine Stichprobe vom Umfang n = 50 aus der Standardnormalverteilung hat das X = und die S 2 = Wird die Varianz als bekannt vorausgesetzt, lautet das symmetrische 95%-Konfidenzintervall für µ: G = / 50 = G 2 = / 50 = Wird die Varianz als unbekannt angenommen, lautet das symmetrische 95%-Konfidenzintervall für µ: G = / 50 = G 2 = / 50 = Matlab: make KI normal n Konfidenzintervall für die Varianz Es sei X,..., X n eine Stichprobe aus der No(µ, σ 2 ). (n )S 2 /σ 2 ist χ 2 -verteilt mit n Freiheitsgraden. Aus folgt W ) 2α/2,n (n )S2 (χ σ 2 χ 2 α/2,n = α W ( (n )S 2 χ 2 σ 2 α/2,n ) (n )S2 χ 2 = α α/2,n 37/ /388
24 Konfidenzintervall für die Differenz von zwei Mittelwerten n Eine Stichprobe vom Umfang n = 50 aus der No(0, 4) hat die S 2 = Das symmetrische 95%-Konfidenzintervall für σ 2 lautet: G = / = G 2 = / = Werden die Quantile der χ 2 -Verteilung χ 2 (n ) durch die Quantile der No(n, 2(n )) ersetzt, laute das Konfidenzintervall: G = / = G 2 = / = Matlab: make KI normal varianz.m n Es seien X,..., X n und Y,..., Y m zwei unabhängige Stichproben aus den en No(µ x, σ 2 x) bzw. No(µ y, σ 2 y). Wir suchen ein Konfidenzintervall für µ x µ y. Die Differenz D = X Y ist normalverteilt gemäß No(µ x µ y, σ 2 ), mit σ 2 D = σ2 x/n + σ 2 y/m. Sind die Varianzen bekannt, ist das Standardscore von D standardnormalverteilt. Aus folgt W ( z α/2 D (µ ) x µ y ) z α/2 = α σ D 373/ /388 Aus n W ( D z α/2 σ D µ x µ y D + z α/2 σ D ) = α Sind die Varianzen unbekannt und gleich, ist S 2 = (n )S2 x + (m )S 2 y n + m 2 χ 2 -verteilt mit m + n 2 Freiheitsgraden. Das Standardscore T = D (µ x µ y ) S D mit S D = S /n + /m ist daher t-verteilt mit n + m 2 Freiheitsgraden. n folgt W ( t α/2,n+m 2 T t α/2,n+m 2 ) = α W ( D t α/2,n+m 2 S D µ x µ y D + t α/2,n+m 2 S D ) = α Eine Stichprobe aus No(2, 4) vom Umfang n = 50 hat X = und S 2 x = ; eine zweite Stichprobe aus No(, 4) vom Umfang m = 25 hat X =.6692 und S 2 x = Werden die Varianzen als bekannt vorausgesetzt, lautet das 95%=Konfidenzintervall für µ x µ y: G = = G 2 = = / /388
25 Unterabschnitt: (Fortsetzung) Werden die Varianzen als unbekannt angenommen, ist S 2 = und S D = Das 95%=Konfidenzintervall für µ x µ y lautet dann: 3 4 n G = = G 2 = =.4935 Matlab: make KI normal difference.m n 5 377/ /388 Es sei X,..., X n eine Stichprobe aus der Verteilung F mit Mittel µ und Varianz σ 2. Aufgrund des zentralen Grenzwertsatzes ist das Standardscore Z des s: Für exponentialverteilte Stichproben vom Umfang n gibt die folgende Tabelle die Sicherheit des 95%-Konfidenzintervalls in Näherung durch, geschätzt aus N = Stichproben: n Z = X µ σ/ n für große Stichproben annähernd normalverteilt. Es gilt also näherungsweise: W (X z α/2 S/ n µ X + z α/2 S/ n) α n n α Matlab: make KI exponential 379/ /388
Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/453
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/453 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
MehrModellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch
Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,
MehrEinführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen
Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrFORMELSAMMLUNG STATISTIK B
Somersemester 2012 FORMELSAMMLUNG STATISTIK B Prof. Kneip / Dr. Scheer / Dr. Arns Version vom April 2012 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 2 2 Diskrete Zufallsvariablen 5 3 Stetige Zufallsvariablen
MehrKapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrKapitel 3 Schließende Statistik
Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
Mehr3 Statistische Schätzungen
3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
Mehr4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1)
Kapitel 4 Stichproben und Schätzungen 4.1 Stichproben, Verteilungen und Schätzwerte Eine physikalische Messung ist eine endliche Stichprobe aus einer Grundgesamtheit, die endlich oder unendlich sein kann.
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 24. Mai 2011 3. Schätzung von Parametern Problemstellung: Aus fehlerbehafteten Messungen möglichst genaue Ergebnisse erarbeiten zusammen mit Aussagen
Mehr1. Grundbegri e der Stochastik
Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt
MehrPhilipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler
Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. Juli 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 13 Version: 7. Juli
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrBiostatistik, Sommer 2017
1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrWahrscheinlichkeitsrechnung und schließende Statistik
Karl Mosler Friedrich Schmid Wahrscheinlichkeitsrechnung und schließende Statistik Vierte, verbesserte Auflage Springer Inhaltsverzeichnis 0 Einführung 1 1 Zufalls Vorgänge und Wahrscheinlichkeiten 5 1.1
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.
Mehr2 Aufgaben aus [Teschl, Band 2]
20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrEinführung in die Statistik
Einführung in die Statistik Analyse und Modellierung von Daten von Prof. Dr. Rainer Schlittgen Universität Hamburg 12., korrigierte Auflage Oldenbourg Verlag München Inhaltsverzeichnis 1 Statistische Daten
MehrKorollar 116 (Grenzwertsatz von de Moivre)
Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrVerteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung
Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:
MehrDiskrete Wahrscheinlichkeitstheorie
SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil V Induktive Statistik Induktive Statistik
MehrStatistik. Andrej Depperschmidt. Sommersemester 2016
Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrStatistische Intervalle
Statistische Intervalle Andreas Handl Inhaltsverzeichnis 1 Statistische Intervalle 2 2 Intervalle bei Normalverteilung 12 2.1 Konfidenzintervalle........................ 13 2.1.1 Konfidenzintervall für
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
MehrStatistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und
Übersicht über die Vorlesung Teil 1: Deskriptive fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 2010 Teil
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrEinführung in die Statistik
Einführung in die Statistik Analyse und Modellierung von Daten Von Prof. Dr. Rainer Schlittgen 4., überarbeitete und erweiterte Auflage Fachbereich Materialwissenschaft! der Techn. Hochschule Darmstadt
MehrAnpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood KARLSRUHER INSTITUT FÜR TECHNOLOGIE (KIT) 0 KIT 06.01.2012 Universität des Fabian Landes Hoffmann Baden-Württemberg und nationales Forschungszentrum
MehrSchätzung des Lageparameters einer symmetrischen Verteilung
Schätzung des Lageparameters einer symmetrischen Verteilung Andreas Handl Inhaltsverzeichnis Maßzahlen zur Beschreibung der Lage eines Datensatzes. MittelwertundMedian.... Getrimmte Mittelwerte und Mittelwerte
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Stetige und diskrete Wahrscheinlichkeitsverteilungen Lageparameter Streuungsparameter Diskrete und stetige Zufallsvariablen Eine Variable (oder Merkmal
Mehrdie wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrDie Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare
17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 017 4 Spezielle Zufallsgrößen Einführung 1 Wahrscheinlichkeit: Definition
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
MehrWahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
Mehr5. Elemente Statistischer Inferenz
5. Elemente Statistischer Inferenz Ziel der Statistik ist es, unter bestimmten Annahmen Aussagen über unbekannte Parameter θ Θ zu machen, nachdem Beobachtungen X gemacht wurden. Dabei unterscheidet man
MehrTeil IX. Verteilungen an Daten anpassen ( Maximum-Likelihood-Schätzung. fitten ) Woche 7: Maximum-Likelihood-Schätzung. Lernziele
Woche 7: Maimum-Lielihood-Schätzung Patric Müller ETHZ Teil IX Verteilungen an Daten anpassen ( fitten ): Maimum-Lielihood-Schätzung WBL 17/19, 12.06.2017 Wahrscheinlicheit
MehrTeil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
MehrSatz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]
Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x
MehrSchätzung von Parametern
Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters
Mehr3 Stetige Zufallsvariablen
3 Stetige Zufallsvariablen Eine Zufallsvariable heißt stetig, falls zu je zwei Werten a < b auch jeder Zwischenwert im Intervall [a, b] möglich ist Beispiele: X = Alter, X = Körpergröße, X = Temperatur,
MehrÜbungen zur Vorlesung Statistische Methoden Kapitel 1-2
TECHNISCHE UNIVERSITÄT DORTMUND Sommersemester 2011 FAKULTÄT STATISTIK Dr. M. Arnold Dipl.-Stat. R. Walter Übungen zur Vorlesung Statistische Methoden Kapitel 1-2 Aufgabe 1: Gegeben ist eine diskrete Zufallsvariable
MehrLösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrWS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.
Fragenkatalog zur Übung Methoden der empirischen Sozialforschung WS 2014/15 Hier finden Sie die denkbaren Fragen zum ersten Teil der Übung. Das bedeutet, dass Sie zu diesem Teil keine anderen Fragen im
MehrKlausur zu Statistik II
GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrEinführung in Quantitative Methoden
Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung
Mehr8. Stetige Zufallsvariablen
8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen
Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung
Mehr2.2 Punktschätzung. Gegeben sei die in Kapitel 2.1 beschriebene Situation, also eine i.i.d. Stichprobe X 1,...,X n eines Merkmales X.
Ziel: Finde ein möglichst gutes Schätzverfahren und damit einen möglichst guten Schätzwert für eine bestimmte Kenngröße ϑ (Parameter) der Grundgesamtheit, z.b. den wahren Anteil der rot/grün-wähler, den
MehrDer Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),
2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Mehr2 Induktive Statistik
Induktive Statistik .1 Grundprinzipien der induktiven Statistik.1 Grundprinzipien der induktiven Statistik Ziel: Inferenzschluss, Repräsentationsschluss: Schluss von einer Stichprobe auf Eigenschaften
Mehr