Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und

Größe: px
Ab Seite anzeigen:

Download "Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und"

Transkript

1 Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4: Schätzen von Parametern /388 2/388 Übersicht über die Vorlesung Teil 5: Testen von Hypothesen Teil 6: Regression und lineare Modelle Teil 7: Einführung in die Bayes- Einleitung Merkmal- und Skalentypen Aussagen und Häufigkeiten Eindimensionale Merkmale Graphische Darstellung Empirische Verteilungsfunktion Kernschätzer Maßzahlen e Teil Deskriptive Teil 8: Simulation von Experimenten Zweidimensionale Merkmale Qualitative Merkmale Quantitative Merkmale Korrelation 3/388 4/388

2 Grenzverteilungssätze Grenzverteilungssätze Eindimensionale Zufallsvariable Diskrete Zufallsvariable Stetige Zufallsvariable Mehrdimensionale Zufallsvariable Randverteilungen und bedingte Verteilungen Wichtige Verteilungen Diskrete Verteilungen Stetige Verteilungen Die und verwandte Verteilungen Momente Erwartung Varianz Schiefe Rechnen mit Verteilungen Faltung und Messfehler Fehlerfortpflanzung, Transformation von Dichten Systematische Fehler Grenzverteilungssätze F(x) Bi(200,0.) No(20,8) x 285/388 Eindimensionale Zufallsvariable Diskrete Zufallsvariable Stetige Zufallsvariable Mehrdimensionale Zufallsvariable Randverteilungen und bedingte Verteilungen Wichtige Verteilungen Diskrete Verteilungen Stetige Verteilungen Die und verwandte Verteilungen Momente Erwartung Varianz Schiefe Rechnen mit Verteilungen Faltung und Messfehler Fehlerfortpflanzung, Transformation von Dichten Systematische Fehler Grenzverteilungssätze ( für großes n) Da eine gemäß Po(λ) verteilte Zufallsvariable als Summe von λ P ()-verteilten Zufallsvariablen dargestellt werden kann, muss die für λ gegen eine streben. Die Abbildung zeigt die Verteilungsfunktion der Po(λ) mit λ = 25, sowie die Verteilungsfunktion der No(µ, σ 2 ) mit µ = λ = 25 und σ 2 = λ = /388 Grenzverteilungssätze Eindimensionale Zufallsvariable Diskrete Zufallsvariable Stetige Zufallsvariable Mehrdimensionale Zufallsvariable Randverteilungen und bedingte Verteilungen Wichtige Verteilungen Diskrete Verteilungen Stetige Verteilungen Die und verwandte Verteilungen Momente Erwartung Varianz Schiefe Rechnen mit Verteilungen Faltung und Messfehler Fehlerfortpflanzung, Transformation von Dichten Systematische Fehler Grenzverteilungssätze F(x) Po(25) N(25,25) x 287/388 n Teil 4 Schätzen von Parametern 288/388

3 Übersicht Teil 4 Abschnitt 3: n n / /388 Unterabschnitt: n n X,..., X n seien unabhängige Zufallsvariable, die alle die gleiche Verteilung F haben. Sie bilden dann eine zufällige Stichprobe der Verteilung F. Eine Zufallsvariable Y = h(x,..., X n ) heißt eine Stichprobenfunktion. In vielen Fällen sind Momente oder die Verteilung von Y zu bestimmen. 29/ /388

4 Unterabschnitt: Definition () n n Das X der Stichprobe X,..., X n ist definiert durch X = X i n Momente des s Hat F das Mittel µ und die Varianz σ 2, gilt: E[X] = µ 2 var[x] = σ2 n 3 Ist F eine, so ist X normalverteilt. 293/ /388 Unterabschnitt: Zentraler Grenzwertsatz n Hat F das Mittel µ und die Varianz σ 2, so konvergiert die Verteilung von U = X µ σ/ n gegen die Standardnormalverteilung. 2 Ist F eine, ist U für alle n standardnormalverteilt. n / /388

5 n Definition () Die S 2 der Stichprobe X,..., X n ist definiert durch S 2 = (X i X) 2 n Erwartung der Hat F die Varianz σ 2, gilt: E[S 2 ] = σ 2 n Satz Ist F eine mit Mittel µ und Varianz σ 2, so gilt: (n )S 2 /σ 2 ist χ 2 -verteilt mit n Freiheitsgraden. 2 X und S 2 sind unabhängig. 3 Die Varianz von S 2 ist gegeben durch 4 Die Größe var[s 2 ] = 2σ4 n T = X µ S/ n ist t-verteilt mit n Freiheitsgraden. 297/ /388 Unterabschnitt: Definition () n n Der X der Stichprobe X,..., X n ist definiert durch X ((n+)/2), n ungerade X = ( ) X(n/2) + X (n/2+), n gerade Momente des s 2 Hat F den Median m und die Dichte f, gilt: lim n E[ X] = m 2 lim n var[ X] = 4 nf 2, wenn f(m) > 0 (m) 3 X ist asymptotisch normalverteilt. 299/ /388

6 Abschnitt 4: Unterabschnitt: n n 3 4 n 5 n 3 4 n 5 30/ /388 n n n Ein ist eine Stichprobenfunktion, die einen möglichst genauen Näherungswert für einen unbekannten Verteilungsparameter ϑ liefern soll: T = g(x,..., X n ) Die Funktion g(x,..., x n ) wird die Schätzfunktion genannt. Die Konstruktion von sinnvollen n für einen Parameter ϑ ist Aufgabe der Schätztheorie. Für einen Parameter ϑ sind viele möglich. Ein guter sollte jedoch gewisse Anforderungen erfüllen. n Definition (Erwartungstreue) Ein T für den Parameter ϑ heißt erwartungstreu oder unverzerrt, wenn für alle zulässigen Werte von ϑ gilt: E ϑ [T ] = ϑ T heißt asymptotisch erwartungstreu, wenn gilt: lim E ϑ[t ] = ϑ n Ist der unbekannte Parameter gleich ϑ, dann ist die Erwartung des s gleich ϑ. Ein erwartungstreuer hat zwar zufällige Abweichungen vom wahren Wert ϑ, aber keine systematische Verzerrung. 303/ /388

7 n n n Definition (MSE) Die mittlere quadratische Abweichung (mean squared error, MSE) eines s T für den Parameter ϑ ist definiert durch: MSE[T ] = E ϑ [(T ϑ) 2 ] Definition (MSE-Konsistenz) Ein T für den Parameter ϑ heißt konsistent im quadratischen Mittel (MSE-konsistent), wenn gilt: lim MSE[T ] = 0 n n Definition (MSE-Effizienz) Ein T heißt MSE-effizienter als der T 2, wenn für alle zulässigen ϑ gilt: Definition (Effizienz) MSE[T ] MSE[T 2 ] Ein erwartungstreuer T heißt effizienter als der erwartungstreue T 2, wenn für alle zulässigen ϑ gilt: var[t ] var[t 2 ] Ein erwartungstreuer T heißt effizient, wenn seine Varianz den kleinsten möglichen Wert annimmt. 305/ /388 n n n Definition (Fisher-Information) Es sei X,..., X n eine Stichprobe mit der gemeinsamen Dichte g(x,..., x n ϑ). Die Erwartung [ ] I ϑ = E 2 ln g(x,..., X n ϑ) ϑ 2 heißt die Fisher-Information der Stichprobe. Satz von Rao und Cramèr Es sei X,..., X n eine Stichprobe mit der gemeinsamen Dichte g(x,..., x n ϑ). Die Varianz eines erwartungstreuen s T für den Parameter ϑ ist nach unten beschränkt durch: var[t ] /I ϑ n Es sei X,..., X n eine Stichprobe aus der Ex(τ). Die gemeinsame Dichte ist dann gleich ( ) g(x,..., x n τ) = τ exp x i/τ n Daraus folgt: [ 2 E ln g(x,..., x n τ) = n ln τ x i/τ 2 τ ln g(x,..., xn τ) = n 2 τ 2 n xi 2 τ 3 ln g(x,..., Xn τ) τ 2 ] = n τ 2 2 nτ τ 3 = n τ 2 307/ /388

8 n Unterabschnitt: (Fortsetzung) n Die Information ist also gleich I τ = n τ 2 Für jeden erwartungstreuen T von τ gilt folglich: var[t ] τ 2 n n 3 4 n 5 309/388 30/388 n Satz Es sei X,..., X n eine Stichprobe aus der Verteilung F mit Erwartung µ. Dann ist das X ein erwartungstreuer von µ. 2 Hat F die endliche Varianz σ 2, so ist X MSE-konsistent. Ist F die No(µ, σ 2 ), so ist X normalverteilt gemäß No(µ, σ 2 /n). Da die Fisher-Information für µ gleich I µ = n/σ 2 ist, ist X effizient für µ. Ist F die Ex(τ), so ist X Gamma-verteilt mit Mittel τ und Varianz τ 2 /n. Da die Fisher-Information für τ gleich I τ = n/τ 2 ist, ist X effizient für τ. n Ist F die Po(λ), hat X Mittel λ und Varianz λ/n. Da die Fisher-Information für λ gleich I λ = n/λ ist, ist X effizient für λ. Ist F die Alternativverteilung Al(p), hat X Mittel p und Varianz p( p)/n. Da die Fisher-Information für p gleich I p = n/[p( p)] ist, ist X effizient für p. 3/388 32/388

9 Unterabschnitt: Satz n 3 4 n 5 n Es sei X,..., X n eine Stichprobe aus der Verteilung F mit Erwartung µ und Varianz σ 2. Dann ist die S 2 ein erwartungstreuer von σ 2. 2 Hat F das endliche vierte zentrale Moment µ 4, so ist var(s 2 ) = µ 4 n (n 3)µ2 2 n(n ) 3 In diesem Fall ist S 2 MSE-konsistent. 33/388 34/388 Unterabschnitt: n Ist F die No(µ, σ 2 ), so ist (n )S 2 /σ 2 χ 2 -verteilt mit n Freiheitsgraden. Die Varianz von S 2 ist dann gleich var(s 2 ) = Die Fisher-Information für σ 2 ist gleich I 2 σ = 2σ4 n n 2σ 4 S 2 ist also ein asymptotisch effizienter für σ 2. n 3 4 n 5 35/388 36/388

10 Satz n Es sei X,..., X n eine Stichprobe aus der stetigen Verteilung F mit Median m und Dichte f. Dann ist der X ein asymptotisch erwartungstreuer von m. 2 Für symmetrisches F ist X erwartungstreu. 3 Der X hat asymptotisch die Varianz var( X) 4nf(m) 2 4 Der ist MSE-konsistent, sofern f(m) > 0. n Es sei X,..., X n eine Stichprobe aus der No(µ, σ 2 ). Die Varianz von X ist gleich var(x) = σ2 n Die Varianz von X ist für großes n gleich var( X) = 2 πσ2 4 n.57 σ2 n Sie ist also um mehr als 50 Prozent größer als die Varianz von X. 37/388 38/388 Unterabschnitt: n Es sei X,..., X n eine Stichprobe aus der t-verteilung t(3). Die Varianz von X ist gleich var(x) = 3 n Die Varianz von X ist für großes n gleich var( X) = 4 nf(0) = n n Sie ist also fast um 40 Prozent kleiner als die Varianz von X. n 3 4 n 5 39/ /388

11 Definition (ML-) (ML-Schätzung eines Bernoulli-Parameters) n Es sei X,..., X n eine Stichprobe mit der gemeinsamen Dichte g(x,..., x n ϑ). Die Funktion L(ϑ X,..., X n ) = g(x,..., X n ϑ) heißt die Likelihoodfunktion der Stichprobe. 2 Der plausible oder ˆϑ ist jener Wert von ϑ, der die Likelihoodfunktion der Stichprobe maximiert. Oft wird statt der Likelihoodfunktion ihr Logarithmus, die Log-Likelihoodfunktion l(ϑ) = ln L(ϑ) maximiert. n Es sei X,..., X n eine Stichprobe aus der Alternativverteilung Al(p). Die gemeinsame Dichte lautet: g(x,..., x n p) = n p x i ( p) x i = p x i ( p) n x i Die Log-Likelihoodfunktion ist daher: ( ) l(p) = X i ln p + n X i ln( p) Ableiten nach p ergibt: l(p) p = p ( X i n p ) X i 32/ /388 (Fortsetzung) (ML-Schätzung eines Poisson-Parameters) n Nullsetzen der Ableitung und Auflösen nach p ergibt: ˆp = n X i = X Der ML- ist unverzerrt und effizient. n Es sei X,..., X n eine Stichprobe aus der Po(λ). Die gemeinsame Dichte lautet: g(x,..., x n λ) = Die Log-Likelihoodfunktion ist daher: l(λ) = Ableiten nach λ ergibt: n λ x i e λ x i! [X i ln λ λ ln(x i!)] l(λ) λ = λ X i n 323/ /388

12 (Fortsetzung) (ML-Schätzung einer mittleren Lebensdauer) n Nullsetzen der Ableitung und Auflösen nach λ ergibt: ˆλ = n X i = X Der ML- ist unverzerrt und effizient. n Es sei X,..., X n eine Stichprobe aus der Ex(τ). Die gemeinsame Dichte lautet: g(x,..., x n τ) = Die Log-Likelihoodfunktion ist daher: Ableiten nach τ ergibt: l(τ) = l(τ) τ n [ ln τ τ = n τ + τ 2 e x i/τ τ X i] X i 325/ /388 (Fortsetzung) (ML-Schätzung der Parameter einer ) n Nullsetzen der Ableitung und Auflösen nach τ ergibt: ˆτ = n X i = X Der ML- ist unverzerrt und effizient. n Es sei X,..., X n eine Stichprobe aus der No(µ, σ 2 ). Die gemeinsame Dichte lautet: g(x,..., x n µ, σ 2 ) = n Die Log-Likelihoodfunktion ist daher: l(µ, σ 2 ) = ] (xi µ)2 exp [ 2πσ 2 σ 2 [ ln 2π 2 ln σ2 Ableiten nach µ und σ 2 ergibt: l(µ, σ 2 ) µ = x i µ σ 2, l(µ, σ 2 ) σ 2 = ] (xi µ)2 2 σ 2 [ ] (xi µ)2 + 2 σ2 2 σ 4 327/ /388

13 n (Fortsetzung) Nullsetzen der Ableitungen und Auflösen nach µ und σ 2 ergibt: ˆµ = n ˆσ 2 = n X i = X (X i X) 2 = n n S2 Der ML- von µ ist unverzerrt und effizient. Der ML- von σ 2 ist asymptotisch unverzerrt und asymptotisch effizient. n Die normierte Likelihoodfunktion kann als a-posteriori Verteilung des geschätzten Parameters interpretiert werden. Für großes n kann man die Varianz der Likelihoodschätzung ˆϑ daher aus dem zweiten zentralen Moment der normierten Likelihoodfunktion ablesen. Ist des geschätzte Parameter ϑ das Mittel einer, so ist diese Vorgangsweise für beliebiges n exakt: [ L(ϑ) = σ n 2 π n exp n ( 2 σ 2 ( ˆϑ ϑ) 2 + )] (xi n ˆϑ) 2 Wird L(ϑ) normiert, so entsteht die Dichte einer mit Mittel ˆϑ und Varianz σ2 n, also gerade die Varianz der Schätzung ˆϑ = n xi. 329/ /388 ( Parameters a einer Gammaverteilung) (Fortsetzung) n Die Stichprobe X,..., X n besteht aus n = 200 Werten, die unabhängig aus einer Γ a,-verteilung gezogen werden: e x i f(x i a) = xa i Γ(a), i =,..., n Der (unbekannte) wahre Wert von a ist a w = 2. Die Log-Likelihoodfunktion lautet ln L(a x) = ln f(x i a) = (a ) ln x i x i n ln Γ(a) n Numerische Maximierung von ln L(a) gibt die Maximum Likelihood-Schätzung â. Das Experiment wird N-mal wiederholt und die Schätzungen der einzelnen Experimente (â (k), k =,..., N) werden histogrammiert. Der Vergleich der individuellen (normierten) Likelihoodfunktion mit dem Histogramm (N = 500) zeigt gute Übereinstimmung der Standardabweichungen. Matlab: make ML gamma 33/ /388

14 Der ML- hat die folgende wichtige Eigenschaft: n Histogram: σ= LF: σ= n Satz Existieren die ersten beiden Ableitungen von L(ϑ), existiert die Information I g (ϑ) für alle ϑ und ist E [(ln L) ] = 0, so ist die Likelihoodschätzung ˆϑ asymptotisch normalverteilt mit Mittel ϑ und Varianz /I g (ϑ). ˆϑ ist daher asymptotisch erwartungstreu und asymptotisch effizient. Satz Daraus folgt sofort die nächste Eigenschaft: Der Likelihoodschätzer ˆϑ ist (unter den selben Voraussetzungen) konsistent. 333/ /388 (ML- Lageparameters einer Cauchyverteilung) Es sei X,..., X n eine Stichprobe aus der Cauchyverteilung t() mit Lageparameter µ. Die gemeinsame Dichte lautet: (Fortsetzung) Man kann zeigen, dass die Fisherinformation der Stichprobe gleich I µ = n 2 n g(x,..., x n µ) = n Die Log-Likelihoodfunktion ist daher: l(µ) = n ln π π[ + (x i µ) 2 ] ln[ + (x i µ) 2 ] Das Maximum ˆµ von l(µ) muss numerisch gefunden werden. Matlab: make ML cauchy n ist. Für große Stichproben muss daher die Varianz des ML-s ˆµ ungefähr gleich 2/n sein. Der x ist ebenfalls ein konsistenter für µ. Seine Varianz ist asymptotisch gleich π 2 /(4n) 2.47/n. Sie ist also um etwa 23 Prozent größer als die Varianz des ML-s. 335/ /388

15 n Simulation von 0000 Stichproben der Größe n = 00: µ= σ= µ=.00 σ= ML Die Korrelation zwischen x und ˆµ ist etwa 90%. n log L(µ) Die Standardabweichung des ML-s kann wieder näherungsweise aus der normierten Likelihoodfunktion einer Stichprobe abgelesen werden: Log Likelihoodfunktion µ L(µ) Normierte Likelihoodfunktion σ= µ 337/ /388 (ML- Obergrenze einer Gleichverteilung) (Fortsetzung) n Es sei X,..., X n eine Stichprobe aus der Gleichverteilung Un(0, b) mit Obergrenze b. Die gemeinsame Dichte lautet: g(x,..., x n b) =, 0 x,..., xn b bn Der größte Wert der Likelihoodfunktion ist daher bei ˆb = max X i i Da ein Randmaximum vorliegt, gelten die üblichen asymptotischen Eigenschaften nicht. n Die Dichte von ˆb = max X i lautet: i f(x) = nxn b n Daraus können Erwartung und Varianz berechnet werden: E[ˆb] = n n +, var[ˆb] b 2 n = (n + 2)(n + ) 2 Der ist asymptotisch erwartungstreu, die Varianz geht aber wie /n 2 gegen Null! Der ist auch nicht asymptotisch normalverteilt. Matlab: make ML uniform 339/ /388

16 Abschnitt 5: n Simulation von 0000 Stichproben (b = ) der Größe n = 25 bzw. n = 00: n=25 µ=0.967 σ= ML n=00 µ= σ= ML n / /388 Unterabschnitt: n n Neben dem Schätzwert selbst ist auch seine Streuung um den wahren Wert von Interesse. Wir wollen aus einer Stichprobe ein Intervall bestimmen, das den wahren Wert mit einer gewissen Wahrscheinlichkeit enthält. Definition (Konfidenzintervall) Es sei X,..., X n eine Stichprobe aus der Verteilung F mit dem unbekannten Parameter ϑ. Ein Intervall mit den Grenzen G = g (X,..., X n ) und G 2 = g 2 (X,..., X n ) heißt ein Konfidenzintervall mit Sicherheit α, wenn gilt: W (G G2) = W (G ϑ G2) α Ein solches Intervall wird kurz als ( α)-konfidenzintervall bezeichnet. 343/ /388

17 Unterabschnitt: n Zu jedem Wert der Sicherheit α gibt es viele verschiedene Konfidenzintervalle. Ist F stetig, gibt es unendlich viele Konfidenzintervalle mit Sicherheit α. Ist F diskret, ist die Sicherheit in der Regel größer als α. Ein symmetrisches Konfidenzintervall liegt vor, wenn gilt: W (ϑ G ) = W (ϑ G 2 ) Ein einseitiges Konfidenzintervall liegt vor, wenn gilt: W (ϑ G 2 ) α oder W (G ϑ) α n / /388 n Es sei Y = h(x,..., X n ) eine Stichprobenfunktion. Die Verteilung G von Y hängt dann ebenfalls vom unbekannten Parameter ϑ ab. Für jeden Wert von ϑ bestimmen wir ein Prognoseintervall [y (ϑ), y 2 (ϑ)] vom Niveau α: W (y (ϑ) Y y 2 (ϑ)) α Ist die Beobachtung gleich Y = y 0, so ist das Konfidenzintervall [G (Y ), G 2 (Y )] gegeben durch: G = min{ϑ y (ϑ) y 0 y 2 (ϑ)} ϑ G2 = max {ϑ y (ϑ) y 0 y 2 (ϑ)} ϑ n Es sei X,..., X n eine Stichprobe aus No(0, σ 2 ) mit unbekannter Varianz σ. Dann ist (n )S 2 /σ 2 χ 2 -verteilt mit n Freiheitsgraden. Für Varianz σ 2 und Y = S 2 ist daher ( ) σ 2 χ 2 α/2,n W S 2 σ2 χ 2 α/2,n = α n n Der Ausdruck in der Klammer kann umgeformt werden zu: Daraus folgt G = (n )S 2 σ 2 (n )S2 χ 2 α/2,n χ 2 α/2,n (n )S2 (n )S2, G χ 2 2 = α/2,n χ 2 α/2,n 347/ /388

18 Unterabschnitt: 0 n σ S 2 Blau: Prognoseintervall für σ 2 = 3; rot: Konfidenzintervall für S 2 = 5 n / /388 n Es sei k eine Beobachtung aus der Bi(n, p). Wir suchen ein Konfidenzintervall für p. Je nach Konstruktion des Prognoseintervalls y (p), y 2 (p) ergeben sich verschiedene Konfidenzintervalle. Intervall nach Clopper und Pearson y (p), y 2 (p) sind die Quantile der Bi(n, p): y (p) = max k y 2 (p) = min k k W (k; n, p) α/2 i=0 W (k; n, p) α/2 i=k n Für die praktische Berechnung des Konfidenzintervalls können die Quantile der Betaverteilung benützt werden: G (k) = max(b α/2,k,n k+, 0) G 2 (k) = min(b α/2,k+,n k, ) Dieses Intervall ist konservativ in dem Sinn, dass die Sicherheit praktisch immer größer als α ist. 35/ /388

19 n Approximation durch Für genügend großes n ist ˆp = k/n annähernd normalverteilt gemäß No(p, p( p)/n). Das Standardscore Z = ˆp p σ[ˆp] ist dann annähernd standardnormalverteilt. Aus folgt W ( z α/2 Z z α/2 ) = α W (ˆp z α/2 σ[ˆp] p ˆp + z α/2 σ[ˆp]) = α n Da p nicht bekannt ist, muss σ[ ˆp] näherungsweise bestimmt werden. Bootstrap-Verfahren: p wird durch ˆp angenähert. Robustes Verfahren: p wird so gewählt, dass σ[ ˆp] maximal ist, also p = 0.5. Korrektur gemäß Agresti-Coull Das Intervall nach dem Bootstrap-Verfahren kann eine kleinere Sicherheit als α haben. Eine Verbesserung wird durch die Definition erzielt. ˆp = k + 2 n / /388 (Fortsetzung) n Angabe: Bei einer Umfrage unter n = 400 Personen geben k = 57 Personen an, Produkt X zu kennen. Wir suchen ein 95%-Konfidenzintervalle für den Bekanntheitsgrad p. Clopper-Pearson: G (k) = B 0.025,57,244 = G 2(k) = B 0.975,58,243 = Approximation durch : Es gilt ˆp = und z =.96. Mit dem Bootstrap-Verfahren ergibt sich σ[ˆp] = Die Grenzen des Konfidenzintervalls sind daher G = = G 2 = = n Mit dem robusten Verfahren ergibt sich σ[ˆp] = und die Grenzen G = = G 2 = = Das robuste Intervall ist nur unwesentlich länger als das Bootstrap-Intervall. Mit der Korrektur von Agresti-Coull ergibt sich ˆp = Die Grenzen des Konfidenzintervalls sind dann Matlab: make KI binomial G = = G 2 = = / /388

20 Unterabschnitt: n α Sicherheit der Konfidenzintervalle Clopper Pearson 0.65 Bootstrap Robust Agresti Coull p n / /388 n Es sei k eine Beobachtung aus der Po(λ). Wir suchen ein Konfidenzintervall für λ. Je nach Konstruktion des Prognoseintervalls [y (λ), y 2 (λ)] ergeben sich verschiedene Konfidenzintervalle. Symmetrisches Intervall y (λ), y 2 (λ) sind die Quantile der Po(λ): y (p) = max k y 2 (p) = min k k W (k; λ) α/2 i=0 W (k; λ) α/2 i=k n Für die praktische Berechnung des Konfidenzintervalls können die Quantile der Gammaverteilung benützt werden: G (k) = Γ α/2,k, G 2 (k) = Γ α/2,k+, Dieses Intervall ist konservativ in dem Sinn, dass die Sicherheit praktisch immer größer als α ist. Liegen n Beobachtungen k,..., k n vor, so ist k = k i Poissonverteilt mit Mittel nλ. Das symmetrische Konfidenzintervall für λ ist daher: G (k) = Γ α/2,k,/n G 2 (k) = Γ α/2,k+,/n 359/ /388

21 n α Sicherheit des symmetrischen Konfidenzintervalls 0.9 n= n=5 n= λ n Linksseitiges Intervall Eine Beobachtung k: y (λ) = 0, Praktische Berechnung: G (k) = 0, y 2 (λ) = min k n Beobachtungen k,..., k n : G (k) = 0, W (k; λ) α i=k G 2 (k) = Γ α,k+, G 2 (k) = Γ α,k+,/n 36/ /388 Unterabschnitt: Sicherheit des linksseitigen Konfidenzintervalls 3 4 n α n= n=5 n= λ n 5 363/ /388

22 n Symmetrisches Intervall für den Mittelwert Es sei X,..., X n eine Stichprobe aus der Ex(τ). Das X = n n X i hat die folgende Dichte: x n ( f(x) = (τ/n) n Γ(n) exp x ) τ/n X ist also Gamma-verteilt gemäß Ga(n, τ/n). Für jedes τ gilt: W ( γ α/2,n,τ/n X γ α/2,n,τ/n ) = α n Daraus folgt ( W γ α/2,n,/n X ) τ γ α/2,n,/n = α und Damit gilt: ( X W τ γ α/2,n,/n G (X) = G 2 (X) = X γ α/2,n,/n X γ α/2,n,/n X γ α/2,n,/n ) = α 365/ /388 Unterabschnitt: Linksseitiges Intervall für den Mittelwert n Für jedes τ gilt: Daraus folgt und W W ( γ α,n,τ/n X ) = α W ( γ α,n,/n X ) = α τ ( 0 τ X γ α,n,/n ) = α Rechtsseitiges Intervall für den Mittelwert ( ) X W τ = α γ α,n,/n n / /388

23 n Konfidenzintervall für den Mittelwert Es sei X,..., X n eine Stichprobe aus der No(µ, σ 2 ). X ist normalverteilt gemäß No(µ, σ 2 /n). Ist σ 2 bekannt, ist das Standardscore Z = X µ σ/ n standardnormalverteilt. Aus W ( z α/2 Z z α/2 ) = α folgt W (X z α/2 σ/ n µ X + z α/2 σ/ n) = α n Ist σ 2 unbekannt, wird σ 2 durch die geschätzt, und das Standardscore T = X µ S/ n ist t-verteilt mit n Freiheitsgraden. Aus folgt W ( t n α/2 T tn α/2 ) = α W (X t n α/2 S/ n µ X + t n α/2 S/ n) = α 369/ /388 n Eine Stichprobe vom Umfang n = 50 aus der Standardnormalverteilung hat das X = und die S 2 = Wird die Varianz als bekannt vorausgesetzt, lautet das symmetrische 95%-Konfidenzintervall für µ: G = / 50 = G 2 = / 50 = Wird die Varianz als unbekannt angenommen, lautet das symmetrische 95%-Konfidenzintervall für µ: G = / 50 = G 2 = / 50 = Matlab: make KI normal n Konfidenzintervall für die Varianz Es sei X,..., X n eine Stichprobe aus der No(µ, σ 2 ). (n )S 2 /σ 2 ist χ 2 -verteilt mit n Freiheitsgraden. Aus folgt W ) 2α/2,n (n )S2 (χ σ 2 χ 2 α/2,n = α W ( (n )S 2 χ 2 σ 2 α/2,n ) (n )S2 χ 2 = α α/2,n 37/ /388

24 Konfidenzintervall für die Differenz von zwei Mittelwerten n Eine Stichprobe vom Umfang n = 50 aus der No(0, 4) hat die S 2 = Das symmetrische 95%-Konfidenzintervall für σ 2 lautet: G = / = G 2 = / = Werden die Quantile der χ 2 -Verteilung χ 2 (n ) durch die Quantile der No(n, 2(n )) ersetzt, laute das Konfidenzintervall: G = / = G 2 = / = Matlab: make KI normal varianz.m n Es seien X,..., X n und Y,..., Y m zwei unabhängige Stichproben aus den en No(µ x, σ 2 x) bzw. No(µ y, σ 2 y). Wir suchen ein Konfidenzintervall für µ x µ y. Die Differenz D = X Y ist normalverteilt gemäß No(µ x µ y, σ 2 ), mit σ 2 D = σ2 x/n + σ 2 y/m. Sind die Varianzen bekannt, ist das Standardscore von D standardnormalverteilt. Aus folgt W ( z α/2 D (µ ) x µ y ) z α/2 = α σ D 373/ /388 Aus n W ( D z α/2 σ D µ x µ y D + z α/2 σ D ) = α Sind die Varianzen unbekannt und gleich, ist S 2 = (n )S2 x + (m )S 2 y n + m 2 χ 2 -verteilt mit m + n 2 Freiheitsgraden. Das Standardscore T = D (µ x µ y ) S D mit S D = S /n + /m ist daher t-verteilt mit n + m 2 Freiheitsgraden. n folgt W ( t α/2,n+m 2 T t α/2,n+m 2 ) = α W ( D t α/2,n+m 2 S D µ x µ y D + t α/2,n+m 2 S D ) = α Eine Stichprobe aus No(2, 4) vom Umfang n = 50 hat X = und S 2 x = ; eine zweite Stichprobe aus No(, 4) vom Umfang m = 25 hat X =.6692 und S 2 x = Werden die Varianzen als bekannt vorausgesetzt, lautet das 95%=Konfidenzintervall für µ x µ y: G = = G 2 = = / /388

25 Unterabschnitt: (Fortsetzung) Werden die Varianzen als unbekannt angenommen, ist S 2 = und S D = Das 95%=Konfidenzintervall für µ x µ y lautet dann: 3 4 n G = = G 2 = =.4935 Matlab: make KI normal difference.m n 5 377/ /388 Es sei X,..., X n eine Stichprobe aus der Verteilung F mit Mittel µ und Varianz σ 2. Aufgrund des zentralen Grenzwertsatzes ist das Standardscore Z des s: Für exponentialverteilte Stichproben vom Umfang n gibt die folgende Tabelle die Sicherheit des 95%-Konfidenzintervalls in Näherung durch, geschätzt aus N = Stichproben: n Z = X µ σ/ n für große Stichproben annähernd normalverteilt. Es gilt also näherungsweise: W (X z α/2 S/ n µ X + z α/2 S/ n) α n n α Matlab: make KI exponential 379/ /388

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/453

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/453 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/453 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,

Mehr

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

FORMELSAMMLUNG STATISTIK B

FORMELSAMMLUNG STATISTIK B Somersemester 2012 FORMELSAMMLUNG STATISTIK B Prof. Kneip / Dr. Scheer / Dr. Arns Version vom April 2012 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 2 2 Diskrete Zufallsvariablen 5 3 Stetige Zufallsvariablen

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

3 Statistische Schätzungen

3 Statistische Schätzungen 3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1)

4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1) Kapitel 4 Stichproben und Schätzungen 4.1 Stichproben, Verteilungen und Schätzwerte Eine physikalische Messung ist eine endliche Stichprobe aus einer Grundgesamtheit, die endlich oder unendlich sein kann.

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 24. Mai 2011 3. Schätzung von Parametern Problemstellung: Aus fehlerbehafteten Messungen möglichst genaue Ergebnisse erarbeiten zusammen mit Aussagen

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler Philipp Sibbertsen Hartmut Lehne Statistik Einführung für Wirtschafts- und Sozialwissenschaftler 2., überarbeitete Auflage 4^ Springer Gabler Inhaltsverzeichnis Teil I Deskriptive Statistik 1 Einführung

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. Juli 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 13 Version: 7. Juli

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Wahrscheinlichkeitsrechnung und schließende Statistik

Wahrscheinlichkeitsrechnung und schließende Statistik Karl Mosler Friedrich Schmid Wahrscheinlichkeitsrechnung und schließende Statistik Vierte, verbesserte Auflage Springer Inhaltsverzeichnis 0 Einführung 1 1 Zufalls Vorgänge und Wahrscheinlichkeiten 5 1.1

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.

Mehr

2 Aufgaben aus [Teschl, Band 2]

2 Aufgaben aus [Teschl, Band 2] 20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Analyse und Modellierung von Daten von Prof. Dr. Rainer Schlittgen Universität Hamburg 12., korrigierte Auflage Oldenbourg Verlag München Inhaltsverzeichnis 1 Statistische Daten

Mehr

Korollar 116 (Grenzwertsatz von de Moivre)

Korollar 116 (Grenzwertsatz von de Moivre) Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:

Mehr

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:

Mehr

Diskrete Wahrscheinlichkeitstheorie

Diskrete Wahrscheinlichkeitstheorie SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil V Induktive Statistik Induktive Statistik

Mehr

Statistik. Andrej Depperschmidt. Sommersemester 2016

Statistik. Andrej Depperschmidt. Sommersemester 2016 Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Statistische Intervalle

Statistische Intervalle Statistische Intervalle Andreas Handl Inhaltsverzeichnis 1 Statistische Intervalle 2 2 Intervalle bei Normalverteilung 12 2.1 Konfidenzintervalle........................ 13 2.1.1 Konfidenzintervall für

Mehr

Biostatistik, Winter 2011/12

Biostatistik, Winter 2011/12 Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung

Mehr

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und Übersicht über die Vorlesung Teil 1: Deskriptive fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 2010 Teil

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Analyse und Modellierung von Daten Von Prof. Dr. Rainer Schlittgen 4., überarbeitete und erweiterte Auflage Fachbereich Materialwissenschaft! der Techn. Hochschule Darmstadt

Mehr

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood KARLSRUHER INSTITUT FÜR TECHNOLOGIE (KIT) 0 KIT 06.01.2012 Universität des Fabian Landes Hoffmann Baden-Württemberg und nationales Forschungszentrum

Mehr

Schätzung des Lageparameters einer symmetrischen Verteilung

Schätzung des Lageparameters einer symmetrischen Verteilung Schätzung des Lageparameters einer symmetrischen Verteilung Andreas Handl Inhaltsverzeichnis Maßzahlen zur Beschreibung der Lage eines Datensatzes. MittelwertundMedian.... Getrimmte Mittelwerte und Mittelwerte

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften Stetige und diskrete Wahrscheinlichkeitsverteilungen Lageparameter Streuungsparameter Diskrete und stetige Zufallsvariablen Eine Variable (oder Merkmal

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare 17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion 4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 017 4 Spezielle Zufallsgrößen Einführung 1 Wahrscheinlichkeit: Definition

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

5. Elemente Statistischer Inferenz

5. Elemente Statistischer Inferenz 5. Elemente Statistischer Inferenz Ziel der Statistik ist es, unter bestimmten Annahmen Aussagen über unbekannte Parameter θ Θ zu machen, nachdem Beobachtungen X gemacht wurden. Dabei unterscheidet man

Mehr

Teil IX. Verteilungen an Daten anpassen ( Maximum-Likelihood-Schätzung. fitten ) Woche 7: Maximum-Likelihood-Schätzung. Lernziele

Teil IX. Verteilungen an Daten anpassen ( Maximum-Likelihood-Schätzung. fitten ) Woche 7: Maximum-Likelihood-Schätzung. Lernziele Woche 7: Maimum-Lielihood-Schätzung Patric Müller ETHZ Teil IX Verteilungen an Daten anpassen ( fitten ): Maimum-Lielihood-Schätzung WBL 17/19, 12.06.2017 Wahrscheinlicheit

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Schätzung von Parametern

Schätzung von Parametern Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters

Mehr

3 Stetige Zufallsvariablen

3 Stetige Zufallsvariablen 3 Stetige Zufallsvariablen Eine Zufallsvariable heißt stetig, falls zu je zwei Werten a < b auch jeder Zwischenwert im Intervall [a, b] möglich ist Beispiele: X = Alter, X = Körpergröße, X = Temperatur,

Mehr

Übungen zur Vorlesung Statistische Methoden Kapitel 1-2

Übungen zur Vorlesung Statistische Methoden Kapitel 1-2 TECHNISCHE UNIVERSITÄT DORTMUND Sommersemester 2011 FAKULTÄT STATISTIK Dr. M. Arnold Dipl.-Stat. R. Walter Übungen zur Vorlesung Statistische Methoden Kapitel 1-2 Aufgabe 1: Gegeben ist eine diskrete Zufallsvariable

Mehr

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI

Lösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.

WS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X. Fragenkatalog zur Übung Methoden der empirischen Sozialforschung WS 2014/15 Hier finden Sie die denkbaren Fragen zum ersten Teil der Übung. Das bedeutet, dass Sie zu diesem Teil keine anderen Fragen im

Mehr

Klausur zu Statistik II

Klausur zu Statistik II GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Einführung in Quantitative Methoden

Einführung in Quantitative Methoden Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung

Mehr

2.2 Punktschätzung. Gegeben sei die in Kapitel 2.1 beschriebene Situation, also eine i.i.d. Stichprobe X 1,...,X n eines Merkmales X.

2.2 Punktschätzung. Gegeben sei die in Kapitel 2.1 beschriebene Situation, also eine i.i.d. Stichprobe X 1,...,X n eines Merkmales X. Ziel: Finde ein möglichst gutes Schätzverfahren und damit einen möglichst guten Schätzwert für eine bestimmte Kenngröße ϑ (Parameter) der Grundgesamtheit, z.b. den wahren Anteil der rot/grün-wähler, den

Mehr

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ), 2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist

Mehr

3 Grundlagen statistischer Tests (Kap. 8 IS)

3 Grundlagen statistischer Tests (Kap. 8 IS) 3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

2 Induktive Statistik

2 Induktive Statistik Induktive Statistik .1 Grundprinzipien der induktiven Statistik.1 Grundprinzipien der induktiven Statistik Ziel: Inferenzschluss, Repräsentationsschluss: Schluss von einer Stichprobe auf Eigenschaften

Mehr