Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
|
|
- Helga Meinhardt
- vor 6 Jahren
- Abrufe
Transkript
1 Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander ermittelt werden. Jeden Messwert sehen wir als unabhängige Realisierung einer Zufallsvariable X an. Als mathematisches Modell für das Entstehen von Messreihen werden im folgenden unabhängige, identisch wie X verteilte Zufallsvariablen X 1,...,X n verwendet. Eine Messreihe x 1,...,x n wird als Realisierung der Zufallsvariablen X 1,...,X n angesehen, wir nehmen also an, dass ein Ergebnis ω Ω existiert mit x 1 = X 1 (ω),...,x n = X n (ω). Es wird nun angenommen, dass die Verteilungsfunktion F von X, die auch die Verteilungsfunktion der unabhängigen, identisch verteilten Zufallsvariablen X i, 1 i n, ist, einer durch einen Parameterθ Θ R k parametrisierten Familie F θ, θ Θ, von Verteilungsfunktionen angehört. Dieser Parameter oder ein durch ihn bestimmter Zahlenwert τ(θ) mit einer Abbildung τ : Θ R sei unbekannt und soll aufgrund der Messreihe näherungsweise geschätzt werden. Beispiel:X und allex 1,...,X n seien normalverteilt.f θ mit θ = (µ,σ 2 ) Θ = R ]0, [ ist dann die Verteilungsfunktion einern(µ,σ 2 )-Verteilung. Soll der Erwartungswert geschätzt werden, so istτ(θ) = µ. Will man die Varianz schätzen, dann istτ(θ) = σ
2 S. Ulbrich: Mathematik IV für Elektrotechnik, Mathematik III für Informatik 102 Definition Ein Schätzverfahren oder eine Schätzfunktion oder kurz ein Schätzer ist eine Abbildung T n : R n R. Sie ordnet einer Messreihe x 1,...,x n einen Schätzwert T n (x 1,...,x n ) für den unbekannten Wert τ(θ) zu. Die ZufallsvariableT n (X 1,...,X n ) heißt Schätzvariable. Erwartungswert und Varianz der Schätzvariablen T n (X 1,...,X n ) sowie aller X i hängen von der VerteilungsfunktionF θ ab, die seiner Berechnung zugrundegelegt wird. Um dies zu verdeutlichen, schreiben wir sowie E θ (T n (X 1,...,X n )), E θ (X 1 ),... Var θ (T n (X 1,...,X n )), Var θ (X 1 ),... Außerdem schreiben wir für durchf θ berechnete Wahrscheinlichkeiten P θ (a T n (X 1,...,X n ) b), P θ (a X 1 b),... Definition Ein SchätzerT n : R n R heißt erwartungstreu fürτ : Θ R, falls gilt Beispiele: E θ (T n (X 1,...,X n )) = τ(θ) für alleθ Θ. 1. τ sei gegeben durch τ(θ) = E θ (X) = µ. Das arithmetische Mittel X (n) = 1 n (X X n ) ist ein erwartungstreuer Schätzer für τ(θ). Tatsächlich gilt E θ ( X (n) ) = E θ ( 1 n (X X n )) = 1 n (E θ(x 1 )+...+E θ (X n )) = 1 nµ = µ. n 2. τ sei gegeben durchτ(θ) = Var θ (X). Die StichprobenvarianzS 2 (n) := 1 n 1 n (X i X (n) ) 2 ist ein erwartungstreuer Schätzer fürτ(θ). Denn es gilt (X i X (n) ) 2 = = = = ((X i µ) ( X (n) µ)) 2 ((X i µ) 2 2(X i µ)( X (n) µ)+( X (n) µ) 2 ) (X i µ) 2 2n( X (n) µ) 2 +n( X (n) µ) 2 (X i µ) 2 n( X (n) µ) 2.
3 S. Ulbrich: Mathematik IV für Elektrotechnik, Mathematik III für Informatik 103 Nun gilte θ (( X (n) µ) 2 ) = Var θ ( X (n) ) = 1 nvar n 2 θ (X), also ( ) E θ (X i X (n) ) 2 = E θ ((X i µ) 2 ) ne θ (( X (n) µ) 2 ) = nvar θ (X) n 1 n Var θ(x) = (n 1)Var θ (X). Als Abschwächung der Erwartungstreue betrachtet man asymptotische Erwartungstreue bei wachsender Stichprobenlänge. Definition Ein Folge von Schätzer T n : R n R, n = 1,2,... heißt asymptotisch erwartungstreu für τ : Θ R, falls gilt lim E θ(t n (X 1,...,X n )) = τ(θ) für alleθ Θ. n Zur Beurteilung der Güte eines Schätzers dient der Mittlere quadratische Fehler (mean squared error): Offensichtlich gilt MSE θ (T) := E θ ((T τ(θ)) 2 ). T erwartungstreu = MSE θ (T) = Var θ (T). SindT 1 undt 2 zwei Schätzer fürτ, dann heißtt 1 effizienter als T 2, wenn gilt MSE θ (T 1 ) MSE θ (T 2 ) θ Θ. SindT 1,T 2 erwartungstreu, dann bedeutet dies Var θ (T 1 ) Var θ (T 2 ) θ Θ. Definition Ein Folge von Schätzern T 1,T 2,... heißt konsistent für τ, wenn für alle ε > 0 und alleθ Θ gilt lim P θ( T n (X 1,...,X n ) τ(θ) > ε) = 0. n Sie heißt konsistent im quadratischen Mittel fürτ, wenn für alleθ Θ gilt Es gilt folgender lim MSE θ(t n ) = 0. n
4 S. Ulbrich: Mathematik IV für Elektrotechnik, Mathematik III für Informatik 104 Satz Ist T 1,T 2,... eine Folge von Schätzern, die erwartungstreu fürτ sind und gilt lim Var θ(t n (X 1,...,X n )) = 0 für alleθ Θ, n dann ist die Folge von Schätzern konsistent fürτ. Beweis: WegenE θ (T n (X 1,...,X n )) = τ(θ) gilt nach der Ungleichung von Tschebyschev P θ ( T n (X 1,...,X n ) τ(θ) > ε) Var θ(t n (X 1,...,X n )) ε 2 0. Allgemeiner haben wir mit ganz ähnlichem Beweis Satz Ist T 1,T 2,... eine Folge von Schätzern, die konsistent im quadratischen Mittel fürτ ist, dann ist die Folge von Schätzern konsistent für τ. Beispiel: Es sei X N(µ,σ 2 )-verteilt, θ = (µ,σ 2 ) Θ = R ]0, [ und τ(θ) = µ. Der Schätzer T n (X 1,...,X n ) = X (n) = 1 n (X X n ) ist nach Satz 8.8.1N(µ,σ 2 /n)-verteilt, also erwartungstreu mit Varianz Var θ (T n (X 1,...,X n )) = σ 2 /n 0 fürn. Daher ist die Schätzerfolge nach Satz auch konsistent. 9.2 Maximum-Likelihood-Schätzer Bei gegebener Verteilungsklasse F θ, θ Θ, lassen sich Schätzer für den Parameter θ oft mit der Maximum-Likelihood-Methode gewinnen. Sind die zugrundeliegenden Zufallsvariablen X 1,...,X n stetig verteilt, so ist die VerteilungsfunktionF θ durch eine Dichte f θ (x), x R, bestimmt. Im Fall diskreter ZufallsvariablenX, bzw.x 1,...,X n definieren wir f θ (x) = P θ (X = x) für allexaus dem Wertevorrat X vonx.
5 S. Ulbrich: Mathematik IV für Elektrotechnik, Mathematik III für Informatik 105 Definition Für eine Messreihex 1,...,x n heißt die FunktionL( ;x 1,...,x n ) mit L(θ;x 1,...,x n ) = f θ (x 1 ) f θ (x 2 )... f θ (x n ) die zu x 1,...,x n gehörige Likelihood-Funktion. Ein Parameterwert ˆθ = ˆθ(x 1,...,x n ) mit L(ˆθ;x 1,...,x n ) L(θ;x 1,...,x n ) für alleθ Θ heißt Maximum-Likelihood-Schätzwert fürθ. Existiert zu jeder möglichen Messreihex 1,...,x n ein Maximum-Likelihood-Schätzwert ˆθ(x 1,...,x n ), dann heißt Maximum-Likelihood-Schätzer. T n : X n R, T n (x 1,...,x n ) = ˆθ(x 1,...,x n ) Beispiel: Die Zufallsvariablen seien Poisson-verteilt mit Parameter θ > 0, also Dies ergibt f θ (x) = θx x! e θ, x N {0}. L(θ;x 1,...,x n ) = 1 x 1! x n! θx xn e nθ, x i N {0}. L wird genau dann maximal, wenn die Log-Likelihood-Funktionln(L), also lnl(θ;x 1,...,x n ) = nθ ln(x 1! x n!)+(x x n )lnθ, maximal wird. Die erste Ableitung dieser Funktion nach θ ist mit der eindeutigen Nullstelle dlnl dθ = n+ x x n θ ˆθ(x 1,...,x n ) = 1 n (x x n ). Da die zweite Ableitung negativ ist, ist ˆθ der Maximum-Likelihood-Schätzer für θ und ist nichts anderes als das arithmetische Mittel.
6 S. Ulbrich: Mathematik IV für Elektrotechnik, Mathematik III für Informatik Konfidenzintervalle Die Situation sei wie beim Schätzen. Es wird eine Messreihe x 1,...,x n beobachtet und es sollen diesmal Ober- und Unterschranken für den Wert τ(θ) aus der Messreihe ermittelt werden. Durch ein Paar U : R n R, O : R n R von Schätzern mit wird ein zufälliges Intervall definiert. U(x 1,...,x n ) O(x 1,...,x n ) I(X 1,...,X n ) = [U(X 1,...,X n ),O(X 1,...,X n )] Definition Sei 0 < α < 1. Das zufällige Intervall I(X 1,...,X n ) heißt Konfidenzintervall für τ(θ) zum Konfidenzniveau 1 α, falls gilt P θ (U(X 1,...,X n ) τ(θ) O(X 1,...,X n )) 1 α für alleθ Θ. Das zu einer bestimmten Messreihex 1,...,x n gehörige Intervall heißt konkretes Schätzintervall fürτ(θ). I(x 1,...,x n ) = [U(x 1,...,x n ),O(x 1,...,x n )] Die Forderung stellt sicher, dass mit Wahrscheinlichkeit 1 α ein konkretes Schätzintervall den Wert τ(θ) enthält Konstruktion von Konfidenzintervallen Wir nehmen an, dass X 1,...,X n unabhängig, identisch normalverteilt sind. Die Verteilungsfunktion F θ ist dann durch den zweidimensionalen Parameter θ = (µ,σ 2 ) bestimmt durch ( ) x µ F θ (x) = F (µ,σ 2 )(x) = Φ. σ Mit den bereits eingeführten Bezeichnungen X (n) := 1 n X i, S 2 (n) := 1 n 1 (X i X (n) ) 2 erhält man folgende Konfidenzintervalle zum Niveau1 α:
7 S. Ulbrich: Mathematik IV für Elektrotechnik, Mathematik III für Informatik 107 Konfidenzintervall für µ bei bekannter Varianzσ 2 = σ 2 0 : Hier istθ = {(µ,σ0 2 ) : µ R} und τ(θ) = µ. Das Konfidenzintervall fürµlautet [ ] σ 0 I(X 1,...,X n ) = X (n) u 1 α/2, X σ 0 (n) +u 1 α/2. n n mit dem(1 α/2)-quantilu 1 α/2 dern(0,1)-verteilung, also Φ(u 1 α/2 ) = 1 α/2. Begründung: X (n) ist nach Satz 8.8.1N(µ,σ 2 0/n)-verteilt. Also gilt: Y n := X (n) µ σ 2 0 /n istn(0,1)-verteilt. WegenΦ( u 1 α/2 ) = α/2 gilt P θ ( u 1 α/2 Y n u 1 α/2 ) = 1 α. Einsetzen und Umformen ergibt P θ ( u 1 α/2 X ( ) (n) µ σ 0 / n u σ 0 1 α/2) = P θ X (n) u 1 α/2 µ X σ 0 (n) +u 1 α/2 = 1 α. n n Konfidenzintervall für µ bei unbekannter Varianzσ 2 : Hier istθ = {(µ,σ 2 ) : µ R,σ 2 > 0} undτ(θ) = µ. Das Konfidenzintervall fürµlautet S(n) 2 I(X 1,...,X n ) = X(n) t n 1;1 α/2 n, X S(n) 2 (n) +t n 1;1 α/2 n mit dem(1 α/2)-quantilt n 1;1 α/2 dert n 1 -Verteilung. Begründung: Nach Satz ist Y n := X (n) µ S 2(n) /n istt n 1 -verteilt. Eine Rechnung völlig analog wie eben liefert das Konfidenzintervall.
8 S. Ulbrich: Mathematik IV für Elektrotechnik, Mathematik III für Informatik 108 Konfidenzintervall für σ 2 bei bekanntem Erwartungswert µ = µ 0 : Hier istθ = {(µ 0,σ 2 ) : σ 2 > 0} undτ(θ) = σ 2. Das Konfidenzintervall fürσ 2 lautet [ n I(X 1,...,X n ) = (X ] i µ 0 ) 2 n, (X i µ 0 ) 2. χ 2 n;1 α/2 χ 2 n;α/2 Begründung: Jedes X i µ 0 ist N(0, 1)-verteilt. Wegen der Unabhängigkeit ist also nach 8.8 σ 1 n σ 2 (X i µ 0 ) 2 χ 2 n-verteilt. Dies ergibt ( ) P θ χ 2 n;α/2 1 (X σ 2 i µ 0 ) 2 χ 2 n;1 α/2 = 1 α und Auflösen nach σ 2 liefert das Konfidenzintervall. Konfidenzintervall für σ 2 bei unbekanntem Erwartungswert: Hier ist Θ = {(µ,σ 2 ) : µ R,σ 2 > 0} und τ(θ) = σ 2. Das Konfidenzintervall für σ 2 lautet [ ] (n 1)S 2 (n) I(X 1,...,X n ) =, (n 1)S2 (n). χ 2 n 1;1 α/2 χ 2 n 1;α/2 Begründung: Nach Satz ist n 1 S 2 σ 2 (n) χ2 n 1-verteilt. Dies ergibt ( P θ χ 2 n 1;α/2 n 1 ) S 2 σ 2 (n) χ 2 n 1;1 α/2 = 1 α und Auflösen nach σ 2 liefert das Konfidenzintervall.
6. Schätzverfahren für Parameter
6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrParameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrFakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.
Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 9. Dezember 2010 1 Konfidenzintervalle Idee Schätzung eines Konfidenzintervalls mit der 3-sigma-Regel Grundlagen
MehrDie Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare
17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrMathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
Mehr3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrStochastik Praktikum Parametrische Schätztheorie
Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrInstitut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess
Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Name: Vorname: Matrikelnummer: Lösungsvorschlag zur Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik (Stochastik) Datum: 07.
MehrSchätzer und Konfidenzintervalle
Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
Mehr5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
Mehr7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.
7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe
MehrKapitel 3 Schließende Statistik
Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
Mehr5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung
5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrKlausur zu Statistik II
GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel
MehrSuffizienz und Vollständigkeit
KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt
MehrSo berechnen Sie einen Schätzer für einen Punkt
htw saar 1 EINFÜHRUNG IN DIE STATISTIK: SCHÄTZEN UND TESTEN htw saar 2 Schätzen: Einführung Ziel der Statistik ist es, aus den Beobachtungen eines Merkmales in einer Stichprobe Rückschlüsse über die Verteilung
MehrStochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie
Stochastik für Mathematiker Teil 2: Wahrscheinlichkeitstheorie Sommersemester 2018 Kapitel 8: Elemente der mathematischen Statistik Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik
Mehrdie wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrNachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011
Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrStatistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und
Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:
MehrEinführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen
Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben
MehrNachklausur Mathematik für Biologen WS 08/09
Aufgabe 1: (5 Punkte) In einer diploiden Population beobachten wir die Ausprägung eines bestimmten Gens, das zwei Allele V und W annimmt. Somit besitzt jedes Individuum V V, V W oder W W als Genotyp. Die
MehrModellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
Mehr1.8 Mehrdimensionale Zufallsvariablen
1.8 Mehrdimensionale Zufallsvariablen 1.8 Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Schnelldurchgang unter Bezug auf das
MehrMan kann also nicht erwarten, dass man immer den richtigen Wert trifft.
2.2.2 Gütekriterien Beurteile die Schätzfunktionen, also das Verfahren an sich, nicht den einzelnen Schätzwert. Besonders bei komplexeren Schätzproblemen sind klar festgelegte Güteeigenschaften wichtig.
MehrWahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik,..3 Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf n wird mit B n bezeichnet, das Lebesgue Maß auf n wird
MehrAufgabe (12 Punkte) Sei A A eine σ-algebra. (a) Man zeige: Ist X : Ω R A -messbar, dann ist X A-messbar. (b) Gilt die Umkehrung von (a)?
Am 5. Mai 2007 wurde zum dritten Mal eine stochastische Eingangsprüfung durchgeführt. Insgesamt konnten maximal 56 Punkte erreicht werden, zum Bestehen der Prüfung waren mindestens 26 Punkte notwendig.
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrBiostatistik, Sommer 2017
1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017
Mehri =1 i =2 i =3 x i y i 4 0 1
Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrStatistik. Sommersemester Stefan Etschberger. für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik
Stefan Etschberger für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2017 Rechenregeln für den Erwartungswert Ist f symmetrisch bzgl. a, so gilt E(X)
MehrZusammenfassung: Kapitel 5, Zusammenhangsmaße
Zusammenfassung: Kapitel 5, Zusammenhangsmaße Kovarianz s xy = 1 n n (x i x)(y i ȳ) i=1 Korrelationskoeffizient nach Bravais-Pearson r xy = s xy s x s y = n (x i x)(y i ȳ) i=1 n (x i x) 2 i=1 n (y i ȳ)
MehrDiskrete Wahrscheinlichkeitstheorie
SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil V Induktive Statistik Induktive Statistik
MehrKonfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt
Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrModellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch
Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,
MehrStatistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 10.10.14 Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß
MehrTeil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
MehrKorollar 116 (Grenzwertsatz von de Moivre)
Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige
MehrBiostatistik, Sommer 2017
1/51 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Verteilungen, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 8. Vorlesung: 09.06.2017 2/51 Inhalt 1 Verteilungen Normalverteilung Normalapproximation
MehrK. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 14. Übung SS 18: Woche vom
Übungsaufgaben 14. Übung SS 18: Woche vom 16. 7. 20. 7. 2018 Stochastik VIII: Statistik; Konf.-interv.; Tests Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...
Mehr2.2 Punktschätzung. Gegeben sei die in Kapitel 2.1 beschriebene Situation, also eine i.i.d. Stichprobe X 1,...,X n eines Merkmales X.
Ziel: Finde ein möglichst gutes Schätzverfahren und damit einen möglichst guten Schätzwert für eine bestimmte Kenngröße ϑ (Parameter) der Grundgesamtheit, z.b. den wahren Anteil der rot/grün-wähler, den
MehrMathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007
Mathematik IV für Maschinenbau und Informatik Stochastik Universität Rostock, Institut für Mathematik Sommersemester 007 Prof. Dr. F. Liese Dipl.-Math. M. Helwich Serie Termin: 9. Juni 007 Aufgabe 3 Punkte
MehrLösung Semesterendprüfung
MAE4 Mathematik: Analysis für Ingenieure 4 Frühlingssemester 26 Dr. Christoph Kirsch ZHAW Winterthur Aufgabe : Lösung Semesterendprüfung Wir betrachten die Ergebnismenge Ω : {, 2,, 4, 5, 6} 2 6 2 6 Elemente,
MehrProbeklausur - Statistik II, SoSe 2017
Probeklausur - Statistik II, SoSe 2017 Aufgabe 1: Mehrdimensionale Zufallsvariablen (15 Punkte) Gegeben sei ein zweidimensionaler stetiger Zufallsvektor X = (X 1, X 2 ) T mit der gemeinsamen Dichtefunktion
Mehr1 Grundlagen der Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsräume. Ein erster mathematischer Blick auf Zufallsexperimente...
Inhaltsverzeichnis 1 Grundlagen der Wahrscheinlichkeitsrechnung 1 1.1 Wahrscheinlichkeitsräume Ein erster mathematischer Blick auf Zufallsexperimente.......... 1 1.1.1 Wahrscheinlichkeit, Ergebnisraum,
MehrEinführung in die (induktive) Statistik
Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung
MehrStatistik. Andrej Depperschmidt. Sommersemester 2016
Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i
MehrStatistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. Juli 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 13 Version: 7. Juli
MehrKlausur zur Vorlesung
Institut für Mathematische Stochastik WS 2006/2007 Universität Karlsruhe 12. Februar 2007 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Aufgabe 1 (15 Punkte) Klausur zur Vorlesung Statistik für Biologen
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 11. Juli 016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrStatistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik II Version A 1. Klausur Sommersemester 2011 Hamburg, 27.07.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................
Mehrp = h n (K)= Juli vl smart vp qk notebook Praktische Lösung des Problems: mit den Werten
I. Eigenschaften von Schätzfunktionen Wir wollen den unbekannten Anteil p von Autos ermitteln, die mit Katalysator fahren. Mathematisch können wir das Problem wie folgt beschreiben: Sei X der Autotyp eines
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
MehrLösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 5: Aufgaben zu den Kapiteln 9 bis 12
Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 0) Teil 5: Aufgaben zu den Kapiteln 9 bis Aufgaben zu Kapitel 9 Zu Abschnitt 9. Ü9.. Es sei ψ : R R stetig differenzierbar.
MehrGrundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
MehrStatistik I für Betriebswirte Vorlesung 4
Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler
MehrDr. H. Grunert Schließende Statistik Vorlesungscharts. Vorlesung 7. Schätzverfahren
Vorlesungscharts Vorlesung 7 Schätzverfahren Konstruktion von Konfidenzintervallen Konfidenzintervalle für den Erwartungswert normalverteilter Grundgesamtheiten Konfidenzintervalle für Anteilswerte Seite
MehrKonfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
MehrTeil IX. Verteilungen an Daten anpassen ( Maximum-Likelihood-Schätzung. fitten ) Woche 7: Maximum-Likelihood-Schätzung. Lernziele
Woche 7: Maimum-Lielihood-Schätzung Patric Müller ETHZ Teil IX Verteilungen an Daten anpassen ( fitten ): Maimum-Lielihood-Schätzung WBL 17/19, 12.06.2017 Wahrscheinlicheit
MehrDer Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),
2.5 Parameter einer Verteilung 2.5. Erwartungswert X eine Zufallsvariable, g : R R stetig. Der Erwartungswert E[g(X)] von g(x) ist definiert durch: E[g(X)] := k g(x k )w(x = x k ), falls X diskret ist
MehrZulassungsprüfung Stochastik,
Zulassungsprüfung Stochastik, 5.5. Wir gehen stets von einem Maßraum (Ω, A, µ) bzw. einem Wahrscheinlichkeitsraum (Ω,A,P) aus. Die Borel σ-algebra auf R n wird mit B n bezeichnet, das Lebesgue Maß auf
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Wahrscheinlichkeitstheorie:, Kenngrößen Prof. Dr. Achim Klenke http://www.aklenke.de 7. Vorlesung: 09.12.2011 1/58 Inhalt 1 2 Kenngrößen von Lagemaße 2/58 mit Dichte Normalverteilung
Mehr