2 Induktive Statistik
|
|
- Emma Dresdner
- vor 6 Jahren
- Abrufe
Transkript
1 Induktive Statistik
2 .1 Grundprinzipien der induktiven Statistik.1 Grundprinzipien der induktiven Statistik Ziel: Inferenzschluss, Repräsentationsschluss: Schluss von einer Stichprobe auf Eigenschaften der Grundgesamtheit, aus der sie stammt. Von Interesse sei ein Merkmal X in der Grundgesamtheit Ω. Ziehe eine Stichprobe (ω 1,..., ω n ) von Elementen aus Ω und werte X jeweils aus. Man erhält Werte x 1,..., x n. Diese sind Realisationen der i.i.d Zufallsvariablen oder Zufallselemente X 1,..., X n, wobei die Wahrscheinlichkeitsverteilung der X 1,..., X n genau die Häufigkeitsverhältnisse in der Grundgesamtheit widerspiegelt. Induktive Statistik 1
3 .1 Grundprinzipien der induktiven Statistik Deduktion wahre Verhältnisse in Gg Induktion (Wahrscheinlichkeitstheorie) gegeben: wahre Wskverteilung P i.i.d. Berechnung Zufallsvariable X 1,..., X n P gesucht: P (X 1 = x 1,..., X n = x n ) für alle möglichen Realisationen x 1,..., x n (Statistik) gesucht: Repräsentationsschluss Inferenzschluss gegeben: x 1,..., x n eine konkrete Realisation Induktive Statistik 13
4 .1 Grundprinzipien der induktiven Statistik Die Frage lautet also: wie kommt man von Realisationen x 1,..., x n X 1,..., X n auf die Verteilung der X i? von i.i.d. Zufallsvariablen Dazu nimmt man häufig an, man kenne den Grundtyp der Verteilung der X 1,..., X n. Unbekannt seien nur einzelne Parameter davon. Beispiel: X i sei normalverteilt, unbekannt seien nur µ, σ. = parametrische Verteilungsannahme (meist im Folgenden) Alternativ: Verteilungstyp nicht oder nur schwach festgelegt (z.b. symmetrische Verteilung) = nichtparametrische Modelle Klarerweise gilt im Allgemeinen (generelles Problem bei der Modellierung): Parametrische Modelle liefern schärfere Aussagen wenn ihre Annahmen zutreffen. Wenn ihre Annahmen nicht zutreffen, dann existiert die große Gefahr von Fehlschlüssen. Induktive Statistik 14
5 .1 Grundprinzipien der induktiven Statistik Wichtige Fragestellungen der induktiven Statistik: Treffe mittels der Auswertung einer Zufallsstichprobe möglichst gute/genaue Aussagen über bestimmte Charakteristika der Grundgesamtheit. Welche Charakteristika sind für die Fragestellung relevant? Natürlich werden für die Inferenz bezüglich des Erwartungswerts andere Methoden als für Schlüsse über die Varianz benötigt. verschiedene Formen: Punktschätzung: z.b. wahrer Anteil Intervallschätzung: z.b. wahrer Anteil liegt zwischen 0.46 und 0.48 Hypothesentest: Die Annahme, der Anteil liegt höchstens bei 50% kann nicht aufrecht erhalten werden Was heißt gut? Festlegung von Gütekriterien (Genauigkeit? Wahrscheinlichkeit eines Fehlers gering?) Wie konstruiert man ein gutes/optimales Verfahren? Sicherheitsstellung der Objektivität der statistischen Analyse. Jeder wendet das beste Verfahren an gleiche Auswertung Induktive Statistik 15
6 . Punktschätzung. Punktschätzung Ziel: Finde einen möglichst guten Schätzwert für eine bestimmte Kenngröße ϑ (Parameter) der Grundgesamtheit, z.b. den wahren Anteil der rot/grün-wähler, den wahren Mittelwert, die wahre Varianz, aber auch z.b. das wahre Maximum (Windgeschwindigkeit)...1 Schätzfunktionen Gegeben sei die in Kapitel.1 beschriebene Situation, also eine i.i.d. Stichprobe X 1,..., X n Merkmales X. eines Definition.1. Sei X 1,..., X n i.i.d. Stichprobe. Eine Funktion heißt Schätzer oder Schätzfunktion. T = g(x 1,..., X n ) Inhaltlich ist g( ) eine Auswertungsregel der Stichprobe: Welche Werte sich auch in der Stichprobe ergeben, ich wende das durch g( ) beschriebene Verfahren auf sie an.(z.b. Mittelwert) Induktive Statistik 16
7 . Punktschätzung Typische Beispiele für Schätzfunktionen: 1. Arithmetisches Mittel der Stichprobe: X = g(x 1,..., X n ) = 1 n X i Für binäre, dummy-kodierte X i ist X auch die relative Häufigkeit des Auftretens von X i = 1 in der Stichprobe. Stichprobenvarianz: S = g(x 1,..., X n ) = 1 n (X i X) = 1 n X i ( X) Induktive Statistik 17
8 . Punktschätzung 3. Korrigierte Stichprobenvarianz: S = g(x 1,..., X n ) = 1 n 1 (X i X) = 1 ( ) X i n 1 n X 4. Größter Stichprobenwert: 5. Kleinster Stichprobenwert: X (n) = g(x 1,..., X n ) = max,...,n X i X (1) = g(x 1,..., X n )) = min,...,n X i Induktive Statistik 18
9 . Punktschätzung Schätzfunktion und Schätzwert: Da X 1,..., X n zufällig sind, ist auch die Schätzfunktion T = g(x 1,..., X n ) zufällig. Zieht man mehrere Stichproben, so erhält man jeweils andere Realisationen von X 1,..., X n, und damit auch von T. Die Realisation t (konkreter Wert) der Zufallsvariable T (Variable) heißt Schätzwert. X 1,... X n Zufallsvariable T = g(x 1,..., X n ) x 1,... x n Realisationen t = g(x 1,..., x n ) Man hat in der Praxis meist nur eine konkrete Stichprobe und damit auch nur einen konkreten Wert t von T. Zur Beurteilung der mathematischen Eigenschaften werden aber alle denkbaren Stichproben und die zugehörigen Realisationen der Schätzfunktion T herangezogen. D.h. beurteilt wird nicht der einzelne Schätzwert als solcher, sondern die Schätzfunktion, als Methode, d.h. als Regel zur Berechnung des Schätzwerts aus der Stichprobe. Andere Notation in der Literatur: ˆϑ Schätzer für ϑ. Dabei wird nicht mehr direkt unterschieden zwischen Zufallsvariable (bei uns Großbuchstaben) und Realisation (bei uns klein). = Schreibe ˆϑ(X 1,..., X n ) bzw. ˆϑ(x 1,..., x n ) wenn die Unterscheidung benötigt wird. Induktive Statistik 19
10 . Punktschätzung Bsp... Durchschnittliche Anzahl der Statistikbücher in einer Grundgesamtheit von Studenten schätzen. Grundgesamtheit: Drei Personen Ω = { ω 1, ω, ω 3 }. Merkmal X: Anzahl der Statistikbücher X( ω 1 ) = 3 X( ω ) = 1 X( ω3 ) =. Wahrer Durchschnittswert: µ =. Stichprobe X 1, X ohne Zurücklegen (Stichprobenumfang n = ): X 1 = X(ω 1 ) X = X(ω ) wobei ω 1 erste gezogene Person, ω zweite gezogene Person. Induktive Statistik 0
11 . Punktschätzung Betrachte folgende möglichen Schätzer: T 1 = g 1 (X 1, X ) = X = X 1 + X T = X 1 T 3 = g(x 1, X ) = 3 X () = 3 max(x 1, X ) Induktive Statistik 1
12 . Punktschätzung Zur Beurteilung: Alle möglichen Stichproben (vom Umfang n =, ohne Zurücklegen) betrachten: Personen in Nummer der Stichprobe Realisationen von der Stichprobe X 1 X T 1 T T 3 1 ω 1, ω ω 1, ω ω, ω ω, ω ω 3, ω ω 3, ω Induktive Statistik
13 . Punktschätzung.. Gütekriterien Beurteile die Schätzfunktionen, also das Verfahren an sich, nicht den einzelnen Schätzwert. bei komplexeren Schätzproblemen sind klar festgelegten Güteeigenschaften wichtig. Besonders Natürlich ist auch zu Beginn genau festzulegen, was geschätzt werden soll. Im Folgenden sei der Parameter ϑ stets eine eindimensionale Kenngröße der Grundgesamtheit (z.b. Mittelwert, Varianz, Maximum) Der Punkt ist, dass T zufällig ist; der Wert schwankt mit der konkreten Stichprobe. Man kann also nicht erwarten, dass man immer den richtigen Wert trifft. Die Beurteilung der Güte des Schätzers bezieht sich auf Kenngrößen seiner Verteilung (v.a. Erwartungswert und Varianz) Induktive Statistik 3
14 . Punktschätzung Erwartungstreue, Bias: Gegeben sei eine Stichprobe X 1,..., X n und eine Schätzfunktion T = g(x 1,..., X n ) (mit existierendem Erwartungswert). T heißt erwartungstreu für den Parameter ϑ, falls gilt für alle ϑ. Die Größe E ϑ (T ) = ϑ Bias ϑ (T ) = E ϑ (T ) ϑ heißt Bias (oder Verzerrung) der Schätzfunktion. Erwartungstreue Schätzfunktionen haben per Definition einen Bias von 0. Man schreibt E ϑ (T ) und Bias ϑ (T ), um deutlich zu machen, dass die Größen von dem wahren ϑ abhängen. Induktive Statistik 4
15 . Punktschätzung Bsp..3. [Fortsetzung des Beispiels] Nehmen Sie an, die Stichprobenziehung sei gemäß einer reinen Zufallsauswahl erfolgt, d.h. jede Stichprobe hat dieselbe Wahrscheinlichkeit gezogen zu werden (hier 1 6 ). Sind die oben betrachteten Schätzfunktionen T 1, T, T 3 erwartungstreu? Für die Träger T i von T i, i = 1,, 3 gilt: T 1 = {1.5,,.5} T = {1,, 3} T 3 = {1. 3, } Bei T 1 gilt: P ({T 1 = 1.5}) = P ({T 1 = }) = P ({T 1 =.5}) = 6 = 1 3 Bei T gilt: P ({T = 1}) = P ({T = }) = P ({T = 3}) = 6 = 1 3 Bei T 3 gilt: P ({T 3 = 1.5}) = 6 = 1 3 ; P ({T 3 = 3}) = 4 6 = 3 Induktive Statistik 5
16 . Punktschätzung und damit bei ϑ = µ = E (T 1 ) = t 1 P ({T 1 = t 1 }) = 1 ( ) = 3 t 1 T 1 In der Tat gilt allgemein: Das arithmetische Mittel ist erwartungstreu für den Erwartungswert. E (T ) = t P ({T = t }) = 1 ( ) = 3 t T Wieder gilt allgemein: Einzelne Stichprobenvariablen ergeben erwartungstreue Schätzer für den Erwartungswert. E (T 3 ) = T 3 ist also nicht erwartungstreu. Es gilt t 3 T 3 t 3 P ({T 3 = t 3 }) = = 16 9 Bias(T 3 ) = E (T 3 ) = = 9 Induktive Statistik 6
17 . Punktschätzung Bias und Erwartungstreue bei einigen typischen Schätzfunktionen Das arithmetische Mittel X = 1 n n X i ist erwartungstreu für den Mittelwert µ einer Grundgesamtheit: Aus X 1,..., X n i.i.d. und E µ (X 1 ) = E µ (X ) =... = µ folgt: ( ) E( X) 1 = E µ X i = 1 ( ) n n E µ X i = 1 n = 1 n E(X i ) µ = 1 n n µ = µ Sei σ die Varianz in der Grundgesamtheit. Es gilt also ist S nicht erwartungstreu für σ. E σ ( S ) = n 1 n σ, Bias σ ( S ) = n 1 n σ σ = 1 n σ Induktive Statistik 7
18 . Punktschätzung (Für n geht Bias σ ( S ) gegen 0, S ist asymptotisch erwartungstreu.) Für die korrigierte Stichprobenvarianz gilt dagegen: E σ (S ) = E σ ( 1 n 1 ) (X i X) ( 1 = E σ n 1 n n ( ) n = E σ n 1 S ) (X i X) = n n 1 n 1 n σ = σ Also ist S erwartungstreu für σ. Diese Eigenschaft ist auch die Motivation für die Korrektur der Stichprobenvarianz. Vorsicht: Im Allgemeinen gilt für beliebige, nichtlineare Funktionen g Eg(X) g(e(x)). Man kann also nicht einfach z.b. und E vertauschen. In der Tat gilt: S ist zwar erwartungstreu für σ, aber S ist nicht erwartungstreu für σ = σ. Induktive Statistik 8
19 . Punktschätzung Bsp..4. [Wahlumfrage] Gegeben sei eine Stichprobe der wahlberechtigten Bundesbürger. Geben Sie einen erwartungstreuen Schätzer des Anteils der rot-grün Wähler an. Grundgesamtheit: Dichotomes Merkmal X = 1 rot/grün: ja 0 rot/grün: nein Der Mittelwert π von X ist der Anteil der rot/grün-wähler in der Grundgesamtheit. Stichprobe X 1,..., X n vom Umfang n: 1 i-te Person wählt rot/grün X i = 0 sonst Induktive Statistik 9
20 . Punktschätzung Aus den Überlegungen zum arithmetischen Mittel folgt, dass X = 1 n X i ein erwartungstreuer Schätzer für den hier betrachteten Parameter π ist. Also verwendet man die relative Häufigkeit in der Stichprobe, um den wahren Anteil π in der Grundgesamtheit zu schätzen. Induktive Statistik 30
21 . Punktschätzung Bedeutung der Erwartungstreue: Erwartungstreue ist ein schwaches Kriterium! Betrachte die offensichtlich unsinnige Schätzfunktion T = g (X 1,..., X n ) = X 1, d.h. T = 100%, falls der erste Befragte rot-grün wählt und T = 0% sonst. Die Schätzfunktion ignoriert fast alle Daten, ist aber erwartungtreu: E(T ) = E(X 1 ) = µ Deshalb betrachtet man zusätzlich die Effizienz eines Schätzers, s.u. Induktive Statistik 31
22 . Punktschätzung..3 Effizienz Beispiel Wahlumfrage: Gegeben sind zwei erwartungstreue Schätzer (n sei gerade): T 1 = 1 n X i T = 1 n/ n/ X i Was unterscheidet formal T 1 von dem unsinnigen Schätzer T, der die in der Stichprobe enthaltene Information nicht vollständig ausnutzt? Vergleiche die Schätzer über ihre Varianz, nicht nur über den Erwartungswert! Induktive Statistik 3
23 . Punktschätzung Wenn n so groß ist, dass der zentrale Grenzwertsatz angewendet werden kann, dann gilt approximativ 1 n (X i π) π(1 π) = X i n π n π(1 π) = 1 X i π n π(1 π) N (0; 1) n und damit Analog kann man zeigen: T 1 = 1 n T = 1 n/ X i N n/ X i N ( π; ( π, ) π(1 π). n ) π(1 π). n/ T 1 und T sind approximativ normalverteilt, wobei T 1 eine deutlich kleinere Varianz als T hat. T 1 und T treffen beide im Durchschnitt den richtigen Wert π. T 1 schwankt aber weniger um das wahre π, ist also im Durchschnitt genauer. Induktive Statistik 33
24 . Punktschätzung Andere Interpretation: Dichte von T 1 Dichte von T π π π + Für jeden Punkt π + > π ist damit P (T 1 > π + ) < P (T > π + ) und für jeden Punkt π < π ist P (T 1 < π ) < P (T < π ). Induktive Statistik 34
25 . Punktschätzung Es ist also die Wahrscheinlichkeit, mindestens um π + π bzw. π π daneben zu liegen, bei T stets größer als bei T 1. Umgekehrt gesagt: Ein konkreter Wert ist damit verlässlicher, wenn er von T 1, als wenn er von T stammt. Diese Überlegung gilt ganz allgemein: Ein erwartungstreuer Schätzer ist umso besser, je kleiner seine Varianz ist. Var(T ) = Erwartete quadratische Abweichung von T von E(T ) }{{} =ϑ! Je kleiner die Varianz, umso mehr konzentriert sich die Verteilung eines erwartungstreuen Schätzers um den wahren Wert. Dies ist umso wichtiger, da der Schätzer den wahren Wert i.a. nur selten exakt trifft. Induktive Statistik 35
26 . Punktschätzung Effizienz: Gegeben seien zwei erwartungstreue Schätzfunktionen T 1 und T für einen Parameter ϑ. Gilt und so heißt T 1 effizienter als T. Var ϑ (T 1 ) Var ϑ (T ) für alle ϑ Var ϑ (T 1 ) < Var ϑ (T ) für mindestens ein ϑ Eine für ϑ erwartungstreue Schätzfunktion T heißt UMVU-Schätzfunktion für ϑ (uniformly minimum v ariance unbiased), falls Var ϑ (T ) Var ϑ (T ) für alle ϑ und für alle erwartungstreuen Schätzfunktionen T. Induktive Statistik 36
27 . Punktschätzung Bem..5. Inhaltliche Bemerkung: Der (tiefere) Sinn von Optimalitätskriterien wird klassischerweise insbesondere auch in der Gewährleistung von Objektivität gesehen. Ohne wissenschaftlichen Konsens darüber, welcher Schätzer in welcher Situation zu wählen ist, wäre die Auswertung einer Stichprobe willkürlich und der Manipulation Tür und Tor geöffnet. Allerdings gibt es wirkliche Eindeutigkeit nur bei idealen, sauberen Daten. Z.B. sind ausreißerunempfindliche Verfahren bei idealen Daten weniger effizient, haben aber den Vorteil, stabiler bei kleinen Abweichungen von den Verteilungsannahmen zu sein. Ist X 1,..., X n eine i.i.d. Stichprobe mit X i N (µ, σ ), dann ist X UMVU-Schätzfunktion für µ und S UMVU-Schätzfunktion für σ. Ist X 1,..., X n mit X i {0, 1} eine i.i.d. Stichprobe mit π = P (X i = 1), dann ist die relative Häufigkeit X UMVU-Schätzfunktion für π. Bei nicht erwartungstreuen Schätzern macht es keinen Sinn, sich ausschließlich auf die Varianz zu konzentrieren. Z.B. hat der unsinnige Schätzer T = g(x 1,..., X n ) = 4, der die Stichprobe nicht beachtet, Varianz 0. Induktive Statistik 37
28 . Punktschätzung Man zieht dann den sogenannten Mean Squared Error zur Beurteilung heran. Es gilt MSE ϑ (T ) := E ϑ (T ϑ) MSE ϑ (T ) = Var ϑ (T ) + (Bias ϑ (T )). Der MSE kann als Kompromiss zwischen zwei Auffassungen von Präzision gesehen werden: möglichst geringe systematische Verzerrung (Bias) und möglichst geringe Schwankung (Varianz). Induktive Statistik 38
29 . Punktschätzung..4 Asymptotische Gütekriterien Asymptotische Erwartungstreue * Eine Schätzfunktion heißt asymptotisch erwartungstreu, falls bzw. gelten. lim E(ˆθ) = θ n lim Bias(ˆθ) = 0 n * Abschwächung des Begriffs der Erwartungstreue: Gilt nur noch bei einer unendlich großen Stichprobe. * Erwartungstreue Schätzer sind auch asymptotisch erwartungstreu. * Sowohl S als auch S sind asymptotisch erwartungstreu. Für komplexere Modelle ist oft die Erwartungstreue der Verfahren ein zu restriktives Kriterium. Man fordert deshalb oft nur, dass sich der Schätzer wenigstens für große Stichproben gut verhält. Hierzu gibt es v.a. zwei verwandte aber etwas unterschiedliche Kriterien. Induktive Statistik 39
30 . Punktschätzung Ein Schätzer heißt MSE-konsistent oder konsistent im quadratischen Mittel, wenn gilt Beispiel: Der MSE von X ist gegeben durch lim (MSE(T )) = 0. n MSE( X) = Var( X) + Bias ( X) = σ n + 0 = σ n 0. X ist also ein MSE-konsistente Schäter für den Erwartungswert. Anschaulich bedeutet die Konsistenz, dass sich die Verteilung des Schätzers für wachsenden Stichprobenumfang n immer stärker beim richtigen Wert zusammenzieht. Er trifft also für unendlich große Stichproben praktische sicher den wahren Wert. (Dies gilt als eine Minimalanforderung an statistische Verfahren.) Induktive Statistik 40
31 . Punktschätzung..5 Konstruktionsprinzipien guter Schätzer Die Methode der kleinsten Quadrate = Regressionsanalyse Das Maximum-Likelihood-Prinzip Aufgabe: Schätze den Parameter ϑ eines parametrischen Modells anhand einer i.i.d. Stichprobe X 1,..., X n mit der konkreten Realisation x 1,..., x n. Idee der Maximium-Likelihood (ML) Schätzung für diskrete Verteilungen: Man kann für jedes ϑ die Wahrscheinlichkeit ausrechnen, genau die Stichprobe x 1,..., x n erhalten: n P ϑ (X 1 = x 1, X = x,..., X n = x n ) = P ϑ (X i = x i ) Je größer für ein gegebenes ϑ 0 die Wahrscheinlichkeit ist, die konkrete Stichprobe erhalten zu haben, umso plausibler ist es, dass tatsächlich ϑ 0 der wahre Wert ist (gute Übereinstimmung zwischen Modell und Daten). zu Induktive Statistik 41
32 . Punktschätzung Bsp..6. I.i.d. Stichprobe vom Umfang n = 5 aus einer B(10, π)-verteilung: Wahrscheinlichkeit der Stichprobe für gegebenes π: P (X 1 = 6,..., X 5 = 4 π) = P (X 1 = 6 π)... P (X 5 = 4 π) = ( 10 ) ( 10 ) π 6 (1 π) 4... π 4 (1 π) P (... π) Wahrscheinlichkeit, wenn π der wahre Parameter ist Induktive Statistik 4
33 . Punktschätzung Wahrscheinlichkeit für einige Werte von π: π P (X 1 = 6,..., X 5 = 4 π) Man nennt daher L(ϑ) = P ϑ (X 1 = x 1,..., X n = x n ), nun als Funktion von ϑ gesehen, die Likelihood (deutsch: Plausibilität, Mutmaßlichkeit) von ϑ gegeben die Realisation x 1,..., x n. Derjenige Wert ˆϑ = ˆϑ(x 1,..., x n ), der L(ϑ) maximiert, heißt Maximum-Likelihood-Schätzwert; die zugehörige Schätzfunktion T (X 1,..., X n ) Maximum-Likelihood-Schätzer (siehe genauer Definition.8). Induktive Statistik 43
34 . Punktschätzung Bem..7. Zwei Sichtweisen auf P ϑ (X 1 = x 1,..., X n = x n ) : Deduktiv (Wahrscheinlichkeitsrechnung): ϑ bekannt, X 1,..., X n zufällig ( unbekannt ). Induktiv (Statistik): ϑ unbekannt, x 1,..., x n bekannt. Deduktiv Induktiv geg: Parameter bekannt ges: Plausibilität des Parameters P ϑ (X 1 = x 1,..., X n = x n ) Funktion von x 1,..., x n bei festem ϑ P ϑ (X 1 = x 1,..., X n = x n ) Funktion von ϑ bei festem x 1,..., x n ges: Wskt von Beobachtungen geg: Beobachtung bekannt Induktive Statistik 44
35 . Punktschätzung Für stetige Verteilungen gilt P ϑ (X 1 = x 1, X = x,..., X n = x n ) = 0 für beliebige Werte ϑ. In diesem Fall verwendet man die Dichte f ϑ (x 1,..., x n ) = n f ϑ (x i ) als Maß für die Plausibilität von ϑ. Für die praktische Berechnung maximiert man statt der Likelihood typischerweise die Log-Likelihood l(ϑ) = ln(l(ϑ)) = ln n P ϑ (X i = x i ) = ln P ϑ (X i = x i ) bzw. l(ϑ) = ln n f ϑ (x i ) = ln f ϑ (x i ). Dies liefert denselben Schätzwert ˆϑ und erspart beim Differenzieren die Anwendung der Produktregel. Der Logarithmus ist streng monoton wachsend. Allgemein gilt für streng monoton wachsende Funktionen g: x 0 Stelle des Maximums von L(x) x 0 auch Stelle des Maximums von g(l(x)). Induktive Statistik 45
36 . Punktschätzung Definition.8. Gegeben sei die Realisation x 1,..., x n einer i.i.d. Stichprobe. Die Funktion in ϑ n P ϑ (X i = x i ) falls X i diskret L(ϑ) = n f ϑ (x i ) falls X i stetig. heißt Likelihood des Parameters ϑ bei der Beobachtung x 1,..., x n. Derjenige Wert ˆϑ = ˆϑ(x 1,..., x n ), der L(ϑ) maximiert, heißt Maximum-Likelihood-Schätzwert; die zugehörige Schätzfunktion T (X 1,..., X n ) Maximum-Likelihood-Schätzer. Induktive Statistik 46
37 . Punktschätzung Bsp..9. X i = 1 falls Rot/Grün 0 sonst Verteilung der X i : Binomialverteilung B(1, π) (Bernoulliverteilung) P (X i = 1) = π P (X i = 0) = 1 π P (X i = x i ) = π xi (1 π) 1 x i, x i {0; 1}. Hier ist π der unbekannte Parameter, der allgemein mit ϑ bezeichnet wird. Induktive Statistik 47
38 . Punktschätzung Likelihood: L(π) = P (X 1 = x 1,..., X n = x n ) = n π x i (1 π) 1 x i = π x i (1 π)n x i Logarithmierte Likelihood: l(π) = ln(p (X 1 = x 1,..., X n = x n )) = x i ln(π) + (n x i ) ln(1 π) Ableiten (nach π): π l(π) = π x i + n 1 π x i ( 1) Induktive Statistik 48
39 . Punktschätzung Nullsetzen und nach π auflösen ergibt: π l(π) = 0 x i n x i π = 1 π (1 π) x i = n π π x i x i = n π also ˆπ = Also ist X der Maximum-Likelihood-Schätzer für π. n x i Induktive Statistik 49
40 . Punktschätzung ML-Schätzung bei Normalverteilung 1. Schritt: Bestimme die Likelihoodfunktion L(µ, σ ) = = n 1 π(σ ) 1 1 π n (σ ) n exp exp ( ( 1 ) σ (x i µ) 1 σ ) (x i µ). Schritt: Bestimme die Log-Likelihoodfunktion l(µ, σ ) = ln(l(µ, σ )) = ln(1) n ln(π) n ln(σ ) 1 σ (x i µ) Induktive Statistik 50
41 . Punktschätzung 3. Schritt: Ableiten und Nullsetzen der Loglikelihoodfunktion l(µ, σ ) µ l(µ, σ ) = 1 σ σ = n (x i µ) = 0 1 σ + 1 (σ ) 4. Schritt: Auflösen der beiden Gleichungen nach µ und σ Aus der ersten Gleichung erhalten wir (x i µ) = 0 x i nµ = 0 also ˆµ = x. Aus der zweiten Gleichung erhalten wir durch Einsetzen von ˆµ = x (x i x) = nσ also ˆσ = 1 n (x i x) Induktive Statistik 51
42 . Punktschätzung Fazit: Der ML-Schätzer ˆµ = X für µ stimmt mit dem üblichen Schätzer für den Erwartungswert überein. Der ML-Schätzer ˆσ = S für σ ist verzerrt, d.h. nicht erwartungstreu. Bem..10. [Einige allgemeine Eigenschaften von ML-Schätzern] ML-Schätzer ˆθ sind im Allgemeinen nicht erwartungstreu. ML-Schätzer ˆθ sind asymptotisch erwartungstreu. ML-Schätzer ˆθ sind konsistent (und meist in einem asymptotischen Sinne effizient). Induktive Statistik 5
43 .3 Intervallschätzung.3 Intervallschätzung.3.1 Motivation und Hinführung Bsp..11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau einen relativen Anteil von 33.7% von rot-grün Anhängern erhalten zu haben? X i = 1, rot/grün 0, sonst P (X i = 1) = π = X = X i B(n, π) mit n = 1000 Induktive Statistik 53
44 .3 Intervallschätzung P (X = 337) = ( n π x) (1 π) n x = ( 1000 ) ( ) = D.h., mit Wahrscheinlichkeit von etwa 97.3%, verfehlt der Schätzer den wahren Wert. Hat man ein stetiges Merkmal, so ist sogar P ( X = a) = 0 für jedes a, d.h. der wahre Wert wird mit Wahrscheinlichkeit 1 verfehlt. Induktive Statistik 54
45 .3 Intervallschätzung Schaut man genauer nach: Es gab gültige Zweitstimmen für SPD und Grüne von insgesamt gültigen Zweitstimmen. Da = ( ist prim), kann der wahre Anteil von / nur in einer Stichprobe mindestens vom Umfang gefunden werden. In einer Stichprobe vom Umfang 1000 ist die Wahrscheinlichkeit, einen Anteil von exakt / zu erhalten, 0. Angenommen, man hätte eine Stichprobe vom Umfang Dann ist die Wahrscheinlichkeit, exakt rot-grün Wähler in der Stichprobe zu haben: P (X = ) = ( ) ( ) ( ) = = Induktive Statistik 55
46 .3 Intervallschätzung Konsequenzen: Insbesondere Vorsicht bei der Interpretation knapper Ergebnisse (z.b. Anteil 50.%) Suche Schätzer mit möglichst kleiner Varianz, um im Durchschnitt möglichst nahe dran zu sein Es ist häufig auch gar nicht nötig, sich genau auf einen Wert festzulegen. Oft reicht die Angabe eines Intervalls, von dem man hofft, dass es den wahren Wert überdeckt: Intervallschätzung Symmetrische Intervallschätzung basierend auf einer Schätzfunktion T = g(x 1,..., X n ): I(T ) = [T a, T + a] Induktive Statistik 56
47 .3 Intervallschätzung Trade off bei der Wahl von a: Je größer man a wählt, also je breiter man das Intervall I(T ) macht, umso größer ist die Wahrscheinlichkeit, dass I(T ) den wahren Wert überdeckt, aber umso weniger aussagekräftig ist dann die Schätzung. Extremfall im Wahlbeispiel: I(T ) = [0, 1] überdeckt sicher π, macht aber eine wertlose Aussage. Wie soll man a wählen? Typisches Vorgehen: Man gebe sich durch inhaltliche Überlegungen einen Sicherheitsgrad (Konfidenzniveau) γ vor. Dann konstruiert man das Intervall so, dass es mindestens mit der Wahrscheinlichkeit γ den wahren Parameter überdeckt. Induktive Statistik 57
48 .3 Intervallschätzung.3. Definition von Konfidenzintervallen: Gegeben sei eine i.i.d. Stichprobe X 1,..., X n zur Schätzung eines Parameters ϑ und eine Zahl γ (0; 1). Ein zufälliges Intervall C(X 1,..., X n ) heißt Konfidenzintervall zum Sicherheitsgrad γ (Konfidenzniveau γ), falls für jedes ϑ gilt: Bem..1. P ϑ (ϑ C(X 1,..., X n ) ) γ. }{{} zufälliges Intervall Die Wahrscheinlichkeitsaussage bezieht sich auf das Ereignis, dass das zufällige Intervall den festen, wahren Parameter überdeckt. Streng genommen darf man im objektivistischen Verständnis von Wahrscheinlichkeit nicht von der Wahrscheinlichkeit sprechen, dass ϑ in dem Intervall liegt, da ϑ nicht zufällig ist und somit keine Wahrscheinlichkeitsverteilung besitzt. Ein Zurückziehen auf subjektive Wahrscheinlichkeiten führt aber auch Widersprüche. Typischerweise konstruiert man Konfidenzintervalle symmetrisch um einen Schätzer T. Es sind aber auch manchmal z.b. einseitige Konfidenzintervalle der Form [ X, X + b] sinnvoll. Induktive Statistik 58
49 .3 Intervallschätzung.3.3 Konstruktion von Konfidenzintervallen Für die Konstruktion praktische Vorgehensweise: Suche Zufallsvariable Z ϑ, die den gesuchten Parameter ϑ enthält und deren Verteilung aber nicht mehr von dem Parameter abhängt, ( Pivotgröße, dt. Angelpunkt). Dann wähle den Bereich C Z so, dass P ϑ (Z ϑ C Z ) = γ und löse nach ϑ auf. Induktive Statistik 59
50 .3 Intervallschätzung Konfidenzintervall für den Mittelwert eines normalverteilten Merkmals bei bekannter Varianz: X 1,..., X n i.i.d. Stichprobe gemäß X i N (µ, σ ), wobei σ bekannt sei. Starte mit der Verteilung von X: X N (µ, σ /n). Dann erfüllt Z = X µ σ n N (0; 1) die obigen Bedingungen an eine Pivotgröße. Bestimme jetzt einen Bereich [ z, z], wobei z so gewählt sei, dass P (Z [ z; z]) = γ Induktive Statistik 60
51 .3 Intervallschätzung 1 γ γ -z 0 z 1 γ Bestimmung von z: beziehungsweise P (Z [ z; z]) = γ P (Z z) = 1 γ P (Z z) = 1 1 γ = 1 + γ = 1 + γ. Der entsprechende Wert lässt sich aus der Tabelle der Standardnormalverteilung ablesen. Typische Beispiele: Induktive Statistik 61
52 .3 Intervallschätzung γ = 90% γ = 95% γ = 99% 1 + γ 1 + γ 1 + γ = 95% z = 1.65 = 97.5% z = 1.96 = 99.5% z =.58 Die Größe z heißt das 1+γ -Quantil und wird mit z 1+γ bezeichnet. Damit gilt also P ( z 1+γ Z µ z 1+γ ) = P ( z 1+γ X µ σ z 1+γ ) = γ Induktive Statistik 6
53 .3 Intervallschätzung Jetzt nach µ auflösen P (... µ...): γ = P ( z 1+γ n σ X µ z 1+γ σ ) n = P ( X z 1+γ σ µ X + n z 1+γ σ ) n = P ( X σ µ X + n z 1+γ z 1+γ σ ) n Damit ergibt sich das Konfidenzintervall [ X σ, X + n z 1+γ z 1+γ σ ] = n [ X ± σ ] n z 1+γ Induktive Statistik 63
54 .3 Intervallschätzung Ceterisparibus-Analyse : Alle Größen bis auf eine festhalten, diese variieren. Bem..13. Je größer σ, desto größer das Intervall! (Größeres σ Grundgesamtheit bezüglich des betrachteten Merkmals heterogener, also größere Streuung von X ungenauere Aussagen.) Je größer γ, desto größer z 1+γ (Je mehr Sicherheit/Vorsicht desto breiter das Intervall) Je größer n und damit n, desto schmaler ist das Intervall (Je größer der Stichprobenumfang ist, desto genauer!) Aufpassen, die Genauigkeit nimmt nur mit n zu. Halbierung des Intervalls, Vervierfachung des Stichprobenumfangs. Kann man zur Stichprobenplanung verwenden! Induktive Statistik 64
55 .3 Intervallschätzung Konfidenzintervall für den Mittelwert eines normalverteilten Merkmals bei unbekannter Varianz: Neben dem Erwartungswert ist auch σ unbekannt und muss entsprechend durch den UMVU-Schätzer S = 1 n 1 (X i X), (mit S = S ) geschätzt werden. Allerdings ist Z = X µ S n jetzt nicht mehr normalverteilt, denn S ist zufällig. Wir führen deshalb ein neues Verteilungsmodell ein. Induktive Statistik 65
56 .3 Intervallschätzung t-verteilung: Gegeben sei eine i.i.d. Stichprobe X 1,..., X n mit X i N (µ, σ ). Dann heißt die Verteilung von Z = X µ S n t-verteilung (oder Student-Verteilung) mit ν = n 1 Freiheitsgraden. In Zeichen: Z t(ν). Wichtige Werte der t-verteilung sind tabelliert. Angegeben sind, für verschiedene δ, die Lösung t δ der Gleichung P (Z t (ν) δ ) = δ, wobei t (ν) δ von der Anzahl ν der Freiheitsgrade abhängt. t δ ist das δ-quantil der entsprechenden t-verteilung (analog zu z δ als Quantil der Standardnormalverteilung). Die Dichte einer t-verteilung ist der Dichte der Standardnormalverteilung sehr ähnlich: Sie ist auch symmetrisch um 0, besitzt aber etwas höhere Dichte für extreme Werte ( schwerere Enden ). Induktive Statistik 66
57 .3 Intervallschätzung f(x) x ( ) ( ) ( ) ( ) Dichten von t-verteilungen für ν = 1 ( ), = ( ), = 5 (- - -) und = 0 ( ) Freiheitsgrade. Induktive Statistik 67
58 .3 Intervallschätzung Je größer ν ist, umso ähnlicher sind sich die t(ν)-verteilung und die Standardnormalverteilung. Für ν sind sie gleich, ab ν = 30 gilt der Unterschied als vernachlässigbar. Je größer n, desto geringer ist der Unterschied zwischen S und σ und damit zwischen X µ n und X µ σ n. Konfidenzintervall zum Konfidenzniveau γ: Ausgehend von ( P t (n 1) 1+γ X µ n ) t (n 1) 1+γ S wie im Beispiel mit bekannter Varianz nach µ auflösen (mit S statt σ) P X t (n 1) 1+γ S µ X + n t (n 1) 1+γ = γ S = γ n S Damit ergibt sich das Konfidenzintervall X ± S n t (n 1) 1+γ Induktive Statistik 68
59 .3 Intervallschätzung Bem..14. Es gelten analoge Aussagen zum Stichprobenumfang und Konfidenzniveau wie bei bekannter Varianz. Für jedes γ (und jedes ν) gilt t 1+γ > z 1+γ also ist das t-verteilungs-konfidenzintervall (etwas) breiter. Da σ unbekannt ist, muss es geschätzt werden. Dies führt zu etwas größerer Ungenauigkeit. Je größer ν, umso kleiner ist der Unterschied. Für n 30 rechnet man einfach auch bei der t-verteilung mit z 1+γ. Induktive Statistik 69
60 .3 Intervallschätzung Bsp..15. Eine Maschine füllt Gummibärchen in Tüten ab, die laut Aufdruck 50g Füllgewicht versprechen. Wir nehmen im folgenden an, dass das Füllgewicht normalverteilt ist. Bei 16 zufällig aus der Produktion herausgegriffenen Tüten wird ein mittleres Füllgewicht von 45g und eine Stichprobenstreuung (Standardabweichung) von 10g festgestellt. a) Berechnen Sie ein Konfidenzintervall für das mittlere Füllgewicht zum Sicherheitsniveau von 95%. b) Wenn Ihnen zusätzlich bekannt würde, dass die Stichprobenstreuung gleich der tatsächlichen Streuung ist, wäre dann das unter a) zu berechnende Konfidenzintervall für das mittlere Füllgewicht breiter oder schmäler? Begründen Sie ihre Antwort ohne Rechnung. Induktive Statistik 70
61 .3 Intervallschätzung Füllgewicht normalverteilt. (µ = 50g nicht benötigt) 16 Tüten gezogen n = 16. Mittleres Füllgewicht in der Stichprobe: x = 45g. Stichprobenstreuung: s = 10g. zu a) Konstruktion des Konfidenzintervalls: Da die Varianz σ unbekannt ist, muss das Konfidenzintervall basierend auf der t-verteilung konstruiert werden: [ X ± t 1+γ (n 1) S n ] Aus dem Sicherheitsniveau γ = 0.95 errechnet sich 1+γ = Nachschauen in t-tabelle bei und 15 Freiheitsgraden (T = X µ S n ist t-verteilt mit n-1 Freiheitsgeraden) liefert t =.13. Einsetzen liefert damit [45 ± ] = [39.675; 50.35] 4 zu b) Jetzt sei σ bekannt. Dann kann man mit dem Normalverteilungs-Intervall rechnen: [ X ± z 1+γ σ n ] Induktive Statistik 71
62 .3 Intervallschätzung Da jetzt σ bekannt, ist die Unsicherheit geringer und damit das Konfidenzintervall schmaler. In der Tat ist z 1+γ < t 1+γ. Rechnerisch ergibt sich mit z 1+γ = 1.96 das Konfidenzintervall [40.100; ] Induktive Statistik 7
63 .3 Intervallschätzung Bsp..16. [Klausurergebnisse (Fiktives Beispiel)] i punkte i punkte i punkte i punkte i punkte i punkte Mittelwert und Varianz der Grundgesamtheit (alle 35 Klausuren): ˆµ = punkte = 1.81 ˆσ = s punkte = 7.56 Wir ziehen insgesamt 80 Stichproben vom Umfang n = 5, n = 10, n = 0, n = 35 und bestimmen Konfidenzintervalle zum Niveau 95%. Induktive Statistik 73
64 .3 Intervallschätzung 95% KI s, Stichprobenumfang n= Stichprobe % KI s, Stichprobenumfang n=10 95% KI s, Stichprobenumfang n= Stichprobe Stichprobe Punktzahl der Klausur Statistik I: Konfidenzintervalle 95% KI s, Stichprobenumfang für 80 Stichproben n=35 mit jeweiligem Stichprobenumfang n = 5 (oben) und n = 0 (unten). Induktive Statistik 74
65 5 10 Statistik II für Studierende der Soziologie und Nebenfachstudierende.3 Intervallschätzung Stichprobe 95% KI s, Stichprobenumfang n= Stichprobe Punktzahl der Klausur Statistik I: Konfidenzintervalle für 80 Stichproben mit jeweiligem Stichprobenumfang n = 35. Induktive Statistik 75
66 .3 Intervallschätzung 95% KI s, Stichprobenumfang n= Stichprobe 95% KI s, 95% Stichprobenumfang KI s, Stichprobenumfang n=5, Varianz n=10bekannt Stichprobe Punktzahl der Klausur Statistik I: Konfidenzintervalle für 80 Stichproben mit Stichprobenumfang n = 5. Oben ist die Varianz unbekannt, unten als bekannt vorausgesetzt. Induktive Statistik 76
67 .3 Intervallschätzung Ergebnis: Die Breite der Konfidenzintervalle nimmt mit wachsendem n ab. Nicht alle Konfidenzintervalle enthalten den wahren Mittelwert µ = 3.1 (per Konstruktion mit Wahrscheinlichkeit 5%). Die Intervalle mit bekannter Varianz sind im Mittel enger. Die Intervalle mit bekannter Varianz sind immer gleich lang. Induktive Statistik 77
68 .3 Intervallschätzung Approximative Konfidenzintervalle: Ist der Stichprobenumfang groß genug, so kann wegen des zentralen Grenzwertsatzes das Normalverteilungs-Konfidenzintervall auf den Erwartungswert beliebiger Merkmale (mit existierender Varianz) angewendet werden. Man erhält approximative Konfidenzintervalle, die meist auch der Berechnung mit Software zugrundeliegen Beispiel: Konfidenzintervall für den Anteil π: Seien X 1,..., X n i.i.d. mit 1 X i =, P (X i = 1) = π. 0 E(X i ) = π Var(X i ) = π (1 π) und approximativ für großes n: E( X) = π Var( X) = π (1 π) n X π π (1 π) n N (0, 1) Induktive Statistik 78
69 .3 Intervallschätzung π im Zähler: unbekannter Anteil = interessierender Parameter π im Nenner: unbekannte Varianz von X; schätzen, indem X für π eingesetzt wird im Nenner π(1 π) n γ P = P z 1+γ X z1+γ X π X(1 X) n z 1+γ X(1 X) n π X + z 1+γ X(1 X) n und damit das Konfidenzintervall X(1 X) X ± z1+γ n Bsp..17. [Wahlumfrage] Seien n = 500, X = 46.5% und γ = 95%. z 1+γ = 1.96 Induktive Statistik 79
70 .3 Intervallschätzung Konfidenzintervall: X ± z1+γ X(1 X) = n ± ( ) 500 = [0.41; 0.508] Inhaltliche Bemerkung Man beachte die relativ große Breite, trotz immerhin mittelgroßer Stichprobe Zum Sicherheitsniveau 95% ist keine eindeutige Aussage über die Mehrheitsverhältnisse möglich. Berücksichtigen, wenn man über Wahlumfrage urteilt In der Praxis sind aber Wahlumfragen etwas genauer, da man Zusatzinformation verwendet (insbesondere auch frühere Wahlergebnisse) Gebundene Hochrechnung Induktive Statistik 80
2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung
0 Einführung 1 Wahrscheinlichkeitsrechnung Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung Motivation und Hinführung Der wahre Anteil der rot-grün Wähler 009 war genau
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
Mehr2.2 Punktschätzung. Gegeben sei die in Kapitel 2.1 beschriebene Situation, also eine i.i.d. Stichprobe X 1,...,X n eines Merkmales X.
Ziel: Finde ein möglichst gutes Schätzverfahren und damit einen möglichst guten Schätzwert für eine bestimmte Kenngröße ϑ (Parameter) der Grundgesamtheit, z.b. den wahren Anteil der rot/grün-wähler, den
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 017 4 Spezielle Zufallsgrößen Einführung 1 Wahrscheinlichkeit: Definition
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Mehr6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrKapitel 3 Schließende Statistik
Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
MehrEinführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen
Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehr1.5.4 Quantile und Modi. Bem [Quantil, Modus]
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.73. [Quantil, Modus] und Vertei- Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
MehrModellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch
Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
Mehrdie wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. Juli 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 13 Version: 7. Juli
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrDie Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare
17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale
Mehr3 Statistische Schätzungen
3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen
MehrEinführung in die (induktive) Statistik
Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrStatistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de
rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
Mehr1. Einführung in die induktive Statistik
Wichtige Begriffe 1. Einführung in die induktive Statistik Grundgesamtheit: Statistische Masse, die zu untersuchen ist, bzw. über die Aussagen getroffen werden soll Stichprobe: Teil einer statistischen
MehrKapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
MehrStatistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und
Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:
MehrBiostatistik, Sommer 2017
1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017
MehrSchließende Statistik
Schließende Statistik [statistical inference] Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.
Mehr5. Stichproben und Statistiken
5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)
MehrKapitel 3 Schließende Statistik
Beispiel 3.4: (Fortsetzung Bsp. 3.) bekannt: 65 i=1 X i = 6, also ˆp = X = 6 65 = 0, 4 Überprüfen der Voraussetzungen: (1) n = 65 30 () n ˆp = 6 10 (3) n (1 ˆp) = 39 10 Dr. Karsten Webel 194 Beispiel 3.4:
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen (Bildbereich also reelle Zahlen, metrische Skala) durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere:
Mehr1.5 Erwartungswert und Varianz
Ziel: Charakterisiere Verteilungen von Zufallsvariablen durch Kenngrößen (in Analogie zu Lage- und Streuungsmaßen der deskriptiven Statistik). Insbesondere: a) durchschnittlicher Wert Erwartungswert, z.b.
MehrStichproben Parameterschätzung Konfidenzintervalle:
Stichproben Parameterschätzung Konfidenzintervalle: Beispiel Wahlprognose: Die Grundgesamtheit hat einen Prozentsatz p der Partei A wählt. Wenn dieser Prozentsatz bekannt ist, dann kann man z.b. ausrechnen,
Mehr5. Statistische Schätztheorie
5. Statistische Schätztheorie Problem: Sei X eine Zufallsvariable (oder X ein Zufallsvektor), die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X (oder
Mehr1. Grundbegri e der Stochastik
Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt
MehrKapitel 3 Schließende Statistik
Bemerkung 3.34: Die hier betrachteten Konfidenzintervalle für unbekannte Erwartungswerte sind umso schmaler, je größer der Stichprobenumfang n ist, je kleiner die (geschätzte) Standardabweichung σ (bzw.
MehrTeil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
Mehr4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrÜbungsaufgaben zu Statistik II
Übungsaufgaben zu Statistik II Prof. Dr. Irene Prof. Dr. Albrecht Ungerer Die Kapitel beziehen sich auf das Buch: /Ungerer (2016): Statistik für Wirtschaftswissenschaftler Springer Gabler 4 Übungsaufgaben
MehrSchätzer und Konfidenzintervalle
Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl
MehrDiskrete Wahrscheinlichkeitstheorie
SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil V Induktive Statistik Induktive Statistik
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrSozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrBereiche der Statistik
Bereiche der Statistik Deskriptive / Exploratorische Statistik Schließende Statistik Schließende Statistik Inferenz-Statistik (analytische, schließende oder konfirmatorische Statistik) baut auf der beschreibenden
MehrKapitel VI - Maximum-Likelihood-Schätzfunktionen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VI - Maximum-Likelihood-Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen
Mehr2 Wiederholung statistischer Grundlagen Schließende Statistik empirischen Information aus Stichprobenrealisation x von X
Hypothesentests Bisher betrachtet: Punkt- bzw. Intervallschätzung des unbekannten Mittelwerts Hierzu: Verwendung der 1 theoretischen Information über Verteilung von X empirischen Information aus Stichprobenrealisation
MehrWebinar Induktive Statistik. - Wahrscheinlichkeitsrechnung - Stichprobentheorie
Webinar Induktive Statistik - Wahrscheinlichkeitsrechnung - Stichprobentheorie Wahrscheinlichkeitstheorie Aufgabe : Zwei Lieferanten decken den Bedarf eines PKW-Herstellers von 00.000 Einheiten pro Monat.
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
Mehr4.1. Nullhypothese, Gegenhypothese und Entscheidung
rof. Dr. Roland Füss Statistik II SS 8 4. Testtheorie 4.. Nullhypothese, Gegenhypothese und Entscheidung ypothesen Annahmen über die Verteilung oder über einzelne arameter der Verteilung eines Merkmals
MehrKlausur zu Statistik II
GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
Mehr1.5.4 Quantile und Modi
1.5.4 Quantile und Modi 1.5 Erwartungswert und Varianz Bem. 1.70. [Quantil, Modus] Analog zu Statistik I kann man auch Quantile und Modi definieren. Gegeben sei eine Zufallsvariable X mit Wahrscheinlichkeitsverteilung
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrVerteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung
Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrFit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrWahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 24. Mai 2011 3. Schätzung von Parametern Problemstellung: Aus fehlerbehafteten Messungen möglichst genaue Ergebnisse erarbeiten zusammen mit Aussagen
Mehr2 Aufgaben aus [Teschl, Band 2]
20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:
MehrFormelsammlung Schließende Statistik
Prof. Dr. Philipp Sibbertsen Wirtschaftswissenschaftliche Fakultät Leibniz Universität Hannover Formelsammlung Schließende Statistik Inhaltsverzeichnis 1 Spezielle theoretische Verteilungen und Grenzwertsätze
MehrZusammenfassung PVK Statistik
Zusammenfassung PVK Statistik (Diese Zusammenfassung wurde von Carlos Mora erstellt. Die Richtigkeit der Formeln ist ohne Gewähr.) Verteilungen von diskreten Zufallsvariablen Beschreibung Binomialverteilung
MehrInstitut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess
Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Name: Vorname: Matrikelnummer: Lösungsvorschlag zur Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik (Stochastik) Datum: 07.
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrStatistik II für Wirtschaftswissenschaftler
Fachbereich Mathematik 20.04.2017 Dr. Hefter & Dr. Herzwurm Übungsblatt 0 Keine Abgabe. Gegeben seien die Mengen A 1 =, A 2 = {1}, A 3 = {1, 1}, A 4 = {1, 3}, A 5 = {1, 2, 4}, A 6 = {1, 2, 3, 4}. a) Bestimmen
MehrStatistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Stetige und diskrete Wahrscheinlichkeitsverteilungen Lageparameter Streuungsparameter Diskrete und stetige Zufallsvariablen Eine Variable (oder Merkmal
Mehr5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung
5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites
MehrZentraler Grenzwertsatz/Konfidenzintervalle
/ Statistik I Sommersemester 2009 Statistik I ZGWS/ (1/37) Kann Ahmadinejad die Wahl gewonnen haben? Im wesentlichen Dreiteilung der polit. Elite 2005: 17.3 Millionen Stimmen (Stichwahl), Wahlbeteiligung
MehrInhaltsverzeichnis. Robert Galata, Sandro Scheid. Deskriptive und Induktive Statistik für Studierende der BWL. Methoden - Beispiele - Anwendungen
Inhaltsverzeichnis Robert Galata, Sandro Scheid Deskriptive und Induktive Statistik für Studierende der BWL Methoden - Beispiele - Anwendungen Herausgegeben von Robert Galata, Markus Wessler ISBN (Buch):
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
MehrWahrscheinlichkeitsrechnung und schließende Statistik
Karl Mosler Friedrich Schmid Wahrscheinlichkeitsrechnung und schließende Statistik Vierte, verbesserte Auflage Springer Inhaltsverzeichnis 0 Einführung 1 1 Zufalls Vorgänge und Wahrscheinlichkeiten 5 1.1
Mehr7. Hypothesentests. Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang. X habe die unbekannte VF F X (x)
7. Hypothesentests Ausgangssituation erneut: ZV X repräsentiere einen Zufallsvorgang X habe die unbekannte VF F X (x) Interessieren uns für einen unbekannten Parameter θ der Verteilung von X 350 Bisher:
Mehr4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1)
Kapitel 4 Stichproben und Schätzungen 4.1 Stichproben, Verteilungen und Schätzwerte Eine physikalische Messung ist eine endliche Stichprobe aus einer Grundgesamtheit, die endlich oder unendlich sein kann.
Mehr8 Stichprobenkennwerteverteilung
8 Stichprobenkennwerteverteilung 8.1 Vorbemerkungen 8.2 Die Normalverteilung: Teil 2 8.3 Die t Verteilung 8.4 Normalverteilungs Approximation: Der zentrale Grenzwertsatz 8.1 Vorbemerkungen Daten x 1,...,
MehrKlassifikation von Signifikanztests
Klassifikation von Signifikanztests Nach Verteilungsannahmen: verteilungsabhängig: parametrischer [parametric] Test verteilungsunabhängig: nichtparametrischer [non-parametric] Test Bei parametrischen Tests
MehrComputergestützte Datenanalyse in der Kern- und Teilchenphysik
Computergestützte Datenanalysein der Kern- und Teilchenphysik p. 1/?? Computergestützte Datenanalyse in der Kern- und Teilchenphysik Vorlesung 4 Jan Friedrich Computergestützte Datenanalysein der Kern-
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrEinführung in einige Teilbereiche der Wirtschaftsmathematik für Studierende des Wirtschaftsingenieurwesens
in einige Teilbereiche der für Studierende des Wirtschaftsingenieurwesens Sommersemester 2014 Hochschule Augsburg : Gliederung 1 Finanzmathematik 2 Lineare Programme 3 Differentialgleichungen 4 Statistik:
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
Mehr