Mathematische Statistik Teil II Schätzen

Größe: px
Ab Seite anzeigen:

Download "Mathematische Statistik Teil II Schätzen"

Transkript

1 Mathematische Statistik Teil II Schätzen R. Kovacevic 1 1 Institut für Statistik und Decision Support Systeme Universität Wien Wintersemester 2009

2 Dieses Werk ist urheberrechtlich geschützt. Jede Vervielfältigung ohne Zustimmung des Autors ist verboten.

3 Gliederung 1 Grundlegende Begrie 2 3 4

4 Gliederung 1 Grundlegende Begrie 2 3 4

5 Schätzen Aufgabe: Anhand der Daten den Wert eines Parameters des Modells aus einer Menge von Alternativen möglichst gut zu bestimmen. Punktschätzer: Der Wert einer Statistik ˆθ(x) wird als Schätzer für den Parameter θ herangezogen. Im Vordergrund steht die Analyse der Stichprobenverteilung von ˆθ(x). Intervallschätzer: Kondenzintervall Prinzipiell eine Entscheidungsproblem, also mit Minimax- und Bayesmethodik zu behandeln. Daneben haben sich Herangehensweisen entwickelt, die mit diesen Hauptmethoden der Entscheidungstheorie nicht direkt in Zusammenhang stehen. Plug-in Schätzer Momentenmethode...

6 Wichtige Eigenschaften von Punktschätzern Unverzerrtheit minimale Varianz Ezienz Konsistenz Suzienz Robustheit

7 Unverzerrte Schätzer Denition Eine Statistik ˆθ(X ) heiÿt unverzerrter (erwartungstreuer) Schätzer für ϑ genau dann, wenn ] E[ˆθ(X ) = ϑ Achtung: Im allgemeinen folgt aus der Unverzerrtheit von ˆθ nicht die Unverzerrtheit von Funktionen von ˆθ: ] [ )] E[ˆθ(X ) = ϑ E g (ˆθ(X ) = g(ϑ) Unverzerrte Schätzer sind nicht notwendigerweise eindeutig. Denition Ein Schätzer ˆθ n (eine Folge von Schätzern) heiÿt asymptotisch unverzerrt (erwartungstreu), genau dann wenn ) lim (ˆθ E n = θ n gilt.

8 minimale Varianz Um zwischen unverzerrten Schätzern auszuwählen, wird oft die Varianz als Kriterium herangezogen: MVUE: minimum variance unbiased estimator Ein Schätzer mit minimaler Varianz heiÿt auch ezient. Bezug zur Entscheidungstheorie: Für unverzerrte Schätzer entspricht die minimale Varianz dem minimalen MSE!

9 minimale Varianz für mehrdimensionale Schätzer Für eine mehrdimensionale Statistik wird die Varianz-Kovarianzmatrix herangezogen. Vergleich von Kovarianzmatrizen: Σ 1 Σ 2 : Σ 1 Σ 2 positiv definit. Ein derartiger Vergleich basiert auf einer Halbordnung: zwei Kovarianzmatrizen sind nicht notwendigerweise vergleichbar.

10 relative Ezienz relative Ezienz: Seien ˆθ (1) n, ˆθ (0) n zwei Punktschätzer, basierend auf einer Stichprobe vom Umfang n. Der Quotient ) e n (ˆθ (1) n, ˆθ (0) n ) = Var Var (ˆθ (1) n (ˆθ (0) n wird als relative Ezienz bezeichnet und miÿt die Ezienz des Schätzers ˆθ (1) n relativ zur Ezienz des Schätzersˆθ (0) n. Die asymptotische relative Ezienz ist durch den Grenzwert deniert. e(ˆθ (1) n, ˆθ (0) n ) = lim e n (ˆθ 1, ˆθ 0 ) n Interpretation: Für groÿe Stichprobenumfänge werden für die Statistik ˆθ (1) n e(ˆθ (1) n, ˆθ (0) n )-mal soviele Beobachtungen gebraucht wie für die Statistik ˆθ (0) n, um dieselbe Varianz zu erreichen. )

11 Konsistenz Beispiel Zuvor wurde die Varianz, bzw. der MSE als Kriterium für die Güte eines Schätzers eingeführt. Es gibt allerdings Situationen, in denen dieses Kriterium nicht funktioniert. Zufallstichprobe aus einer Population mit f (x) = ω ϕ(x) + (1 ω) 1 π (x θ) 2 Eine Alternative: für groÿen Stichprobenumfang n nimmt der Schätzer Werte an, die nahe beim Wert des unbekannten Parameters liegen: Wir können praktisch sicher sein, dass der wahre Wert in einer kleinen Umgebung um den geschätzten Wert liegt.

12 Konsistenz Denition Eine Statistik ˆθ n ist ein konsistenter Schätzer für den Parameter θ genau dann wenn für jedes ε > 0 gilt ( ) lim ˆθ P n θ < ε = 1 n Das entspricht dem Begri der Konvergenz ) in Wahrscheinlichkeit. Alternative Schreibweise: plim (ˆθ n = θ Aus der Konsistenz von ˆθ folgt die Konsistenz von stetigen Funktionen g( ) von ˆθ: ) ( ) plim (ˆθ n = θ plim g(ˆθ n ) = g(θ) Konsistenz ist erstrebenswert, aber ein Schätzer der für realistische Stichprobengröÿen weit neben dem wahren Wert liegt, ist trotz Konsistenz dennoch ungeeignet.

13 Konsistenz Satz Wenn ˆθ n ein unverzerrter ) Schätzer für θ ist und weiters lim n Var (ˆθ n 0 gilt, dann ist ein konsisteneter Schätzer für θ. Beispiel Der Stichprobenmittelwert n i=1 X i ist ein konsistenter Schätzer für n den Erwartungswert E einer i.i.d. Zufallsstichprobe, sofern dieser existiert

14 MSE-Konsistenz Denition Ein Schätzer ˆθ n heisst MSE-konsistent genau dann, wenn ] [ ) t ) lim [ˆθ MSE n = lim E (ˆθ n θ (ˆθ ] n θ 0 n n gilt. Fakt Klarerweise erfordert MSE-Konsistenz asymptotische Erwartungstreue und Aus MSE-Konsistenz folgt Konsistenz. MSE-Konsistenz und und die Bedingungen des Theorems (5) erfordern die Existenz von zweiten Momenten. Konsistenz erfordert dies nicht.

15 Suzienz minimal suziente Schätzer fassen die Daten maximal zusammen.

16 Robustheit Ein Schätzer heiÿt robust, wenn seine Stichprobenverteilung durch Verletzungen der Modellannahmen nicht zu stark verändert wird. Verletzungen: Ausreiÿer Verteilungsannahmen (zb. Lebensdauer: Exponentialverteilung -> Weibullverteilung...) Fragen der Robustheit sind schwierig zu beantworten. (Was heiÿt nicht zu stark verändert). Theoretische Ergebnisse sind daher rar. Computersimulationen können Ergebnisse für konkrete Verletzungen liefern.

17 Gliederung 1 Grundlegende Begrie 2 3 4

18 Rao-Blackwell Theorem Satz Wie kann ein MVUE gefunden werden? Sei X 1,...,X n eine Stichprobe aus einer Verteilung mit Dichtefunktion (WF) f (x;θ), θ Θ. Sei weiters S = u 1 (X 1,...,X n ) eine suziente Statistik für θ und Y = u 2 (X 1,...,X n ) ein unverzerrter Schätzer für θ. Dabei hänge Y nicht ausschlieÿlich von S ab. Dann ist E [Y S = s] = ψ(s) eine Statistik. Diese Statistik ψ(s) ist eine Funktion der suzienten Statistik S, sowie ein unverzerrter Schätzer für θ. Weiters gilt Var(ψ(S)) Var(Y ). Rao-Blackwellisierung: Ersetze einen unverzerrten Schätzer Y durch den unverzerrten Schätzer E [Y S = s] mit geringerer Varianz. Ganz verkürzt: MVUE muss eine Funktion einer suzienten Statistik sein.

19 Vollständigkeit Das Rao-Blackwell Theorem ermöglicht es, die Varianz von unverzerrten Schätzern zu verbessern. Aber wie kommen wir zu einem Schätzer mit minimaler Varianz? Denition Eine Statistik S heiÿt vollständig, wenn für jede Funktion g und jedes θ gilt: E(g(S)) = 0 g(s) = 0 Wenn eine Statistik S vollständig ist, sagen wir auch, dass ihre Dichte (WF) f (s, θ) vollständig ist.

20 Satz von Lehmann und Scheé Satz Sei X 1,...,X n eine Stichprobe aus einer Verteilung mit Dichtefunktion (WF) f (x;θ), θ Θ. Sei weiters S = u 1 (X 1,...,X n ) eine minimal suziente, vollständige Statistik für θ. Wenn es eine Funktion ψ(s) der suzienten Statistik gibt, die auch ein unverzerrter Schätzer für θ ist, dann ist ψ(s) ein MVUE für θ. Achtung: suziente Statistiken, die nicht minimal suzient sind, sind im Allgemeinen nicht vollständig.

21 Exponentialfamilien Fakt Exponentialfamilien sind besonders geeignet um MVUE zu nden: Die natürlichen suzienten Statistiken von Exponentialfamilien sind stets vollständig, sofern der Parameterraum Θ eine oene Menge um 0 enthält. Wie ndet man einen MVUE für Exponentialfamilien? Vorgehensweise: Beispiel Sind die natürlichen suzienten Statistiken von Exponentialfamilien auch minimal suzient? (Beweis)

22 Gliederung 1 Grundlegende Begrie 2 3 4

23 Likelihood Denition Gegeben sei ein vollständig parametriertes Modell P = {P θ : θ Θ} mit (gemeinsamer) Dichte (WF) f ( ;θ). Für xes Daten x ist die Likelihoodfunktion als deniert. L(θ) = L(θ;x) = f (x;θ) Beachte: Für xes θ 0 ist der Wert L(θ 0 ) der Likelihoodfunktion selbst eine Statistik! Denition Die Log-Likelihoodfunktion ist durch l(θ) = ln(l(x))

24 Likelihood Wenn die Daten (x 1,...,x n ) aus einer Zufallsstichprobe (X 1,...,X n ) von i.i.d. Zufallsvariablen stammt ist die Likelihood durch gegeben. L(θ) = n i=1 f (x i ;θ) Für eine homogenen Markov-Kette mit Übergangsdichte (WF) f (x j x j 1 ;θ) ist die Likelihood durch gegeben. L(θ) = f (x 1 ;θ) n j=2 f (x j x j 1 ;θ)

25 Erweiterter Likelihoodbegri Beispiel Normalerweise beruht der Begri - wie in der obigen Denition - auf der gemeinsamen Dichte, bzw. Wahrscheinlichkeitsfunktion. In manchen Situationen muss der Begri der Likelihood geeignet erweitert werden. Zensierte Überlebenszeiten: Überlebenszeiten unterschiedlicher Objekte sind i.i.d. gemäÿ einer Dichte f (x;θ) mit zugehöriger Verteilungsfunktion F (x;θ) verteilt. Die Objekte werden über einen Zeitraum beobachtet. Typischerweise gibt es dann Objekte i, deren Ausscheiden - und somit deren Überlebenszeit x i im Beobachtungszeitraum beobachtet werden konnte und Objekte die während der Beobachtung nicht ausgeschieden sind. Überlebenszeiten werden daher durch (x i,δ i ) beschrieben. δ i heiÿt Zensierungsindikator: δ i = 1, falls die Überlebenszeit x i tatsächlich beobachtet wurde und δ i = 0, falls das beobachtete Objekt bis zum Schluss überlebt hat. L(θ) = n f (x i ;θ) δ i {1 F (x i ;θ)} 1 δ i i=1

26 (statistische) Information Denition In einem Modell mit Log-Likelihood l(θ) und eindimensionalem Parameter θ ist die beobachtete Information deniert als J(θ) = d 2 l(θ) dθ 2. (1) Interpretation: Die Krümmung der Log-Likelihoodfunktion spiegelt die Genauigkeit wieder, mit der das Maximum gefunden werden kann. Hohe Information grenzt den wahren Parameterwert besser ein. Die Information J hängt implizit von den beobachteten Daten ab.

27 (statistische) Information Denition In einem Modell mit Log-Likelihood l(θ) und eindimensionalem Parameter θ ist die beobachtete Information deniert als J(θ) = d 2 l(θ) dθ 2. (1) Interpretation: Die Krümmung der Log-Likelihoodfunktion spiegelt die Genauigkeit wieder, mit der das Maximum gefunden werden kann. Hohe Information grenzt den wahren Parameterwert besser ein. Die Information J hängt implizit von den beobachteten Daten ab.

28 Information und Stichprobenumfang Wenn l(θ) eine Summe von n Kompomenten ist, trit dies auch auf J(θ) zu: J (θ) = d 2 l(θ) dθ 2 = d 2 dθ 2 n i=1 l i (θ) = n i=1 d 2 l i (θ) dθ 2 = n i=1 J i (θ) Die tri insbesondere für den Fall von i.i.d. Zufallsvariablen mit beobachteter Information J i (θ) = d2 l i (θ) dθ 2 zu. Da J i (θ) (zumindest in der Nähe des Maximums) dazu tendiert positiv zu sein, wird der Beitrag einer zusätzlichen Beobachtung die Information im Allgemeinen erhöhen. (2)

29 Fisher-Information Bevor Beobachtungen gemacht werden stehen keine Daten zur Verfügung. Dennoch kann zumindest die erwartete Information (oder Fisher-Information) berechnet werden. Denition Die Fisher-Information ist durch I (θ) = E [ d 2 ] li (θ) dθ 2 (3) deniert. Es handelt sich dabei um die mittlere Information, die die Daten enthalten, wenn das Modell korrekt speziziert ist und der wahre Parameterwert durch θ gegeben ist. Die Fisher-Information ist (in der Nähe des Maximums) stets positiv. Für i.i.d. Zufallsvariable mit Stichprobenumfang [ n, gemeinsamer Dichte (WF) f d und individueller Fisher-Information i(θ) = E 2 ] ln(f (x i ;θ)) dθ 2, ergibt sich aus (2) die Beziehung I (θ) = n i(θ).

30 Information für mehrdimensionale Parameter Denition Sei θ ein p 1-Vektor. Die Informationsmatrizen sind dann durch J (θ) = 2 l(θ) θ θ T und gegeben. [ ] 2 l(θ) I (θ) = E θ θ T Dies sind symmetrische Matrizen, ( ) deren (i, j)-tes Element durch 2 l(θ) θ i θ, bzw. j E 2 l(θ) θ i θ gegeben ist. j

31 Eigenschaften der Fisher-Information (Additionseigenschaft der Fisher-Information) Falls unabhängige Experimente X 1,X 2 mit Dichten f 1 ( ;θ) und f 2 ( ;θ) durchgeführt werden mit Fisher-Information I 1 (θ) und I 2 (θ), so gilt für das gemeinsame Experiment mit gemeinsamer Dichte f 1 ( ;θ) f 2 ( ;θ) I (θ) = I 1 (θ) + I 2 (θ) Sei X eine Zufallsvariable mit Fisher-Information I X (θ). Sei weiters Y eine Funktion von X : Y = T (X ). Dann gilt I Y (θ) I X (θ). Durch Transformation wird also der Informationsgehalt nicht gröÿer. Ist T eine bijektive Abbildung, so gilt I Y (θ) = I X (θ). Falls Integration und Dierentiation vertauschbar ist, gilt [ ( ) ] 2 E θ l(θ) = E [ 2 ] θ 2 l(θ) [ ] [ ] Wegen E θ θ l(θ) = 0 gilt daher in diesem Fall Var θ l(θ) = I (θ)

32 Maximum-Likelihoodschätzer Der Maximum-Likelihood Schätzer θ für einen Parameter θ ist jener Wert, der die Likelihoodfunktion, bzw. die Log-Likelihoodfunktion maximiert. Annahme: (Regularity Conditions) Denition (R0) Die Dichte (WF) nimmt für unterschiedliche Parameterwerte ( unterschiedliche Werte an, d.h. θ θ f (θ) f θ ). (R1) Der Träger der Dichte (WF) hängt nicht von θ ab. (R2) Der wahre Parameterwert θ 0 ist ein innerer Punkt von Θ. Der Parameterraum Θ hat endliche Dimension und ist kompakt. ˆθ = ˆθ(X ) ist ein Maximum-Likelihoodschätzer (MLE) für θ, wenn ˆθ = arg max L(θ), bzw. ˆθ = arg max l(θ),

33 Maximum-Likelihood: Berechnung Oft (Dierenzierbarkeit, keine Nebenbedingungen an θ) erfüllt der Maximum-Likelihoodschätzer die Likelihoodgleichung l(θ) = 0 (4) θ werden (notwendige Bedingung. stationäre Punkte). Der Gradient u(θ) = l(θ) θ wird auch als Score-Statistik oder Scorevektor bezeichnet. (strikte) Konkavität der Zielfunktion an der Stelle θ: J(θ) = 2 l(θ) θ θ T > 0 Manchmal müssen mehrere infragekommende stationäre Punkte verglichen werden. Es gibt allerdings eine Vielzahl von konkaven Log-Likelihoodfunktionen (Log-Konkavität der Likelihoodfunktion).

34 Maximum-Likelihood: Berechnung In vielen Fällen kann die Likelihood-Gleichung (4) nicht analytisch gelöst werden. In der Praxis werden daher oft Varianten des Newton-Raphson Algorithmus verwendet, um die Gleichung iterativ zu lösen. Beginne mit einem Starwert θ 0 (Newton-Raphson): θ n+1 = θ n + J( θ n ) 1 u( θ n ) (Fisher-Scoring): θ n+1 = θ n + I ( θ n ) 1 u( θ n ) Fisher-Scoring hängt von den Daten nur über die Score-Statistik ab und wird vor allem angewandt, wenn die beobachte Informationsmatrix J schlecht konditioniert, bzw. nicht positiv denit ist.

35 Maximum-Likelihood: Hints Bei Nicht-Konkavität führen die iterativen Methoden im Allgemeinen nur zu lokalen Maxima. In diesem Fall empehlt es sich, die Optimierung mehrmals mit unterschiedlichen (ev. zufälligen) Startwerte durchzuführen. Die Iteration führt in einem Schritt zum Optimum, falls l(θ) quadratisch ist. Ist der Parameterraum Θ eingeschränkt (Θ R m ), so ist prinzipiell ein Optimierungsproblem mit Nebenbedingungen zu lösen: ˆθ = arg max {L(θ) : θ Θ} Für häuge Nebenbedingungen kann die Berücksichtigung von Nebenbedingungen durch eine passende Reparametrierung geschehen: θ > 0: Reparametrierung durch η = ln(θ) 0 < θ < 1: Reparametrierung durch η = ln ( ) θ 1 θ

36 Maximum-Likelihood: Eigenschaften Satz Sei X 1,...,X n eine i.i.d. Stichprobe mit gemeinsamer Dichte (WF) f (x;θ). Für eine Funktion g sei η = g(θ) der untersuchte Parameter. Angenommen ˆθ ist der Maximum-Likelihoodschäter für θ. Dann ist ˆη = g( θ) der Maximum-Likelihoodschätzer für η. Denition (Plug-in Prinzip) Sei θ ein Schätzer für den wahren Parameterwert θ 0. Wenn die Funktion g (θ 0 ) durch g( θ) geschätzt wird, wird der resultierende Schätzer als plug-in Schätzer bezeichnet. Plug-in Schätzer die aus Maximum-Likelihoodschätzern abgeleitet werden sind also selbst wiederum Maximum-Likelihoodschätzer.

37 Maximum-Likelihood und Suzienz Satz Sei X 1,...,X n eine i.i.d. Zufallsstichprobe mit Dichtefunktion (WF) f (x,θ),θ Θ. Wenn eine suziente Statistik Y 1 = u 1 (X 1,...,X n ) für θ existiert, und falls ein eindeutiger Maximum-Likelihoodschätzer ˆθ für θ existiert, dann ist der Maximum-Likelihoodschätzer ˆθ eine Funktion der suzienten Statistik Y 1.

38 Maximum-Likelihood: Regularitätsbedingungen Zu den Bedingungen (R0)-(R2) kommen noch weitere technische Regularitätsbedingungen dazu, wenn Aussagen für groÿe Stichprobenumfänge (large sample theory, asymptotische Statistik) erzielt werden sollen. (R3) Es gibt eine Umgebung U um den wahren Parameterwert θ 0 in der die ersten drei Ableitungen der Log-Likelihoodfunktion nach θ fast sicher existieren und für jedes (r,s,t) ist [ 1 n E 3 ] l(θ) θr θs θt gleichmäÿig beschränkt für θ Θ. (R4) In U ist die Fisher-Informationsmatrix I (θ) endlich und positiv denit und für die Matrixelemente gilt: [ I (θ) = E r,s 2 ] [ l(θ) l(θ) = E l(θ) ] θr θs θr θs (R5) Integral und Ableitung sind vertauschbar, es gilt insbesondere 2 [ 2 ] l(θ) E[l(θ)] = E θr θs θr θs Im Folgenden betrachten wir stets i.i.d. Stichproben. Wenn die Regularitätsbedingungen (R0)-(R4) gelten, lassen sich die folgenden Sätze in vielen Fällen auch auf Situationen übertragen, in denen die Daten weder identisch noch unabhängig verteilt sind.

39 Cramér-Rao Schranke Satz Sei die Dichte (WF) f (x; θ) regulär ((R1)-(R5)) für die Maximum-Likelihood Schätzung des eindimensionalen Parameters θ. Wenn T ein unverzerrter Schätzer für den Skalar ψ (θ) ist, dann gilt für alle θ Var [T ] ( ) ψ(θ) 2 θ I (θ) Die rechte Seite der Ungleichung heiÿt auch Cramér-Rao Schranke. Wenn wir einen unverzerrten Schätzer nden mit Var [T ] = ( ψ(θ) θ I (θ) folgt aus dem Theorem, dass es keinen besseren Schätzer geben kann, T also ein MVUE ist. Wenn T einen kleinen Bias hat und die Varianz nahe bei der Cramér-Rao Schranke liegt, wird er zumindest schwer zu übertreen sein. Gleichheit bei endlichem Stichprobenumfang (!) kann nur für bestimmte Familien von Verteilungen gelten, die die Exponentialfamilien enthalten. ) 2,

40 Cramér-Rao Schranke Satz Sei die Dichte (WF) f (x;θ) regulär ((R1)-(R5)) für die Maximum-Likelihood Schätzung des Parameters θ. Wenn T ein unverzerrter Schätzer für eine dierenzierbare Funktion ψ (θ) ist, dann gilt für alle θ Var [T ] ψ(θ) T I (θ) 1 ψ(θ) θ θ

41 Maximum-Likelihood: Asymptotische Eigenschaften Satz Sei θ 0 der wahre Parameter. Unter Voraussetzungen (R0), (R1) gilt für alle θ θ 0 lim P θ n 0 [L(θ 0 ;X n ) L(θ;X n )] = 1 Asymptotisch wird die Likelihoodfunktion durch den wahren Parameterwert maximiert.

42 Maximum-Likelihood: (starke) Konsistenz Satz Sei θ 0 der wahre Wert des Parameters θ. Angenommen die Regularitätsbedingungen (R1)-(R5) gelten. Dann gibt es für n einen Wert ˆθ von θ, so dass l(ˆθ) ein lokales Maximum von l(θ) ist und es gilt ] P [ˆθ θ 0 = 1. Ein Maximum-Likelihoodschätzer ist daher unter den Regularitätsbedingungen ein stark konsistenter Schätzer. Da fast sichere Konvergenz Konvergenz in Wahrscheinlickeit impliziert ist ˆθ auch ein konsistenter Schätzer.

43 Maximum-Likelihood: asymptotische Verteilung Satz Sei θ 0 der wahre Wert des p-dimensionalen Parameters θ. Angenommen die Regularitätsbedingungen (R1)-(R5) gelten. Unter weiteren Voraussetzungen an die Glattheit der Ableitungen der Log-Likelihood l(θ) gilt ) I (θ 0 ) 2 (ˆθ 1 D θ 0 Z, wenn n. Z hat dabei eine N p (0,I p )-Verteilung, wobei I p die p-dimensionale Einheitsmatrix bezeichnet. Die Bedingung n kann oft durch die Bedingung I (θ 0 ) ersetzt werden. Für groÿen ) Stichprobenumfang ) n gilt also annähernd ˆθ N(θ 0,I (θ 0 ) 1 ) Da J (ˆθ und I (ˆθ beide in Wahrscheinlichkeit gegen I (θ 0 ) konvergieren, kann die Verteilung des Maximum-Likelihoodchätzers asymptotisch durch ˆθ N(θ 0,I (ˆθ) 1 ), bzw. ˆθ N(θ 0,J (ˆθ) 1) angenähert werden.

44 Maximum-Likelihood: asymptotische Varianz Denition Ein asymptotisch unverzerrter Schätzer T, der die Cramér-Rao Schranke asymptotisch erreicht heiÿt ezient. Satz (Korrolar) Ein Maximum-Likelihoodschätzer ˆθ ist unter den Regularitätsbedingungen und den zusätzlichen Bedingungen aus Theorem 27 asymptotisch erwartungstreu und erreicht asymptotisch die Cramér-Rao Schranke, ist also ezient.

45 Gliederung 1 Grundlegende Begrie 2 3 4

46 Schätzgleichungen und Schätzfunktionen ML-Schätzer haben hervorragende asymptotische Eigenschaften, das Verhalten bei kleiner Stichprobengröÿe kann allerdings problematisch sein. Unverzerrte (MVUE) Schätzer haben unter bestimmten Voraussetzungen hervorragende Eigenschaften auch bei kleiner Stichprobengröÿe. Andererseits ist die Menge der unverzerrten Schätzer oft zu klein, um praktisch relevante Schätzer zu liefern. Beide Typen von Schätzern können problematisch sein, wenn die Daten kontaminiert, oder das Modell inkorrekt speziziert ist...

47 Maximum-Likelihood: Wiederholung Seien X 1,...,X n i.i.d. verteilte Zufallsvariable und gelten die üblichen Regularitätsbedingungen. Der Maximum-Likelihood Schätzer ˆθ für einen px1-dimensionalen Parameter θ ist dann implizit durch die Lösung der Score-Gleichung u (θ) = n i=1 u(x i ;θ) = n i=1 lnf (X i ;θ) θ = 0 gegeben. Für einen p-dimensionalen Parameter ergibt das ein Gleichungssystem mit p Gleichungen und p Variablen. Wichtige Eigenschaften der Score-Statistik sind E[u (θ)] = 0 und Var [u (θ)] = I (θ). Mit i(θ) = Var [u (X i ;θ)] gilt I (θ) = n i(θ)

48 Schätzfunktionen Denition Sei g eine Funktion R R p R p. Ein Gleichungssystem der Form n i=1 g (X i,θ) = 0 (5) wird Schätzgleichung genannt. Die Funktion g (X i,θ) heiÿt Schätzfunktion. Maximum-Likelihoodgleichung ist ein Sonderfall! Denition Eine Schätzfunktion g heiÿt unverzerrt, wenn E[g (X i,θ)] = n g (y;θ) df (y;θ) = 0 (6)

49 Schätzfunktionen Denition Sei g eine Funktion R R p R p. Ein Gleichungssystem der Form n i=1 g (X i,θ) = 0 (5) wird Schätzgleichung genannt. Die Funktion g (X i,θ) heiÿt Schätzfunktion. Maximum-Likelihoodgleichung ist ein Sonderfall! Denition Eine Schätzfunktion g heiÿt unverzerrt, wenn E[g (X i,θ)] = n g (y;θ) df (y;θ) = 0 (6)

50 Momentenschätzer Sei µ der Erwartungswert der zugrundegelegten Verteilung einer Stichprobe. Wähle als Schätzfunktion g(x; µ) = x µ Daraus resultiert die Schätzgleichung x i = n µ, bzw der Schätzer ˆµ = x i n Allgemeiner sei m r = E [X r ] das r-te (nichtzentrale) Moment der zugrundeliegenden Verteilung. Wähle nun als Schätzfunktion x m 1 x 2 m 2 g(x,(m 1,...,m K ) T ) =. x K m K Um beliebige Parameter zu schätzen, drücke in der obigen Schätzgleichung die Momente durch die zu schätzenden Parameter aus und löse die resultierende Schätzgleichung.

51 Optimalität von Schätzfunktionen Unverzerrteheit der Schätzfunktion ist eine Eigenschaft der Schätzfunktion. Wie gut ist ein Schätzer, der durch eine Schätzfunktion impliziert wird? Denition Eine Schätzfunktion heisst optimal in der Klasse der unverzerrten Schätzfunktionen, wenn sie den Ausdruck Var [g (X ;θ)] minimiert. E [ dg(x ;θ) dθ Es lässt sich zeigen, dass eine untere Schranke existiert: ] 2 i(θ) 1 Var [g (X ;θ)] [ ] dg(x ;θ) 2 E dθ Die Scorefunktion u(y, θ) erreicht diese Schranke (nicht gleichbedeutend mit dem Erreichen der Cramer-Rao Schranke!!) und ist daher eine optimale Schätzfunktion für endliche Stichprobengröÿe.

52 Das Prinzip gleicher Funktionale Satz Die empirische Verteilungsfunktion der Beobachtungen X 1,...,X n ist durch ˆF (t) = 1 n 1 {xi t} gegeben. Seien X 1,...,X n unabhängige, identisch verteilte Zufallsvariablen mit der Verteilungsfunktion F. Sei weiters ˆFn (x) die entsprechende empirische Verteilungsfunktion. Man deniert als gröÿte Abweichung der empirischen Verteilung von der zu Grunde liegenden Verteilung der Zufallsvariablen bezüglich aller Ausprägungen x d n = sup ˆFn (x) F (x). x Dann gilt, dass die Dierenz d n mit der Wahrscheinlichkeit 1 gegen Null konvergiert: P( lim n d n = 0) = 1.

53 Anhang Das Prinzip gleicher Funktionale Ist ein Parameter als Lösung einer Funktionalgleichung der Verteilungsfunktion deutbar, so kann es Sinn machen, als Schätzwert die Lösung der gleichen Funktionalgleichung, angewandt auf die empirische Verteilungsfunktion verwenden. θ = G (F θ ( )) ) ˆθ = G ( F ( )

54 Anhang Weiterführende Literatur Weiterführende Literatur I

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare 17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

Mathematik für Biologen

Mathematik für Biologen Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Mathematische Statistik Teil III Testen

Mathematische Statistik Teil III Testen Mathematische Statistik Teil III Testen R. Kovacevic 1 1 Institut für Statistik und Decision Support Systeme Universität Wien Wintersemester 2009 Dieses Werk ist urheberrechtlich geschützt. Jede Vervielfältigung

Mehr

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel

Mehr

Punktschätzer Optimalitätskonzepte

Punktschätzer Optimalitätskonzepte Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra

Mehr

5. Statistische Schätztheorie

5. Statistische Schätztheorie 5. Statistische Schätztheorie Problem: Sei X eine Zufallsvariable (oder X ein Zufallsvektor), die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X (oder

Mehr

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion 4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,

Mehr

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Einführung in die (induktive) Statistik

Einführung in die (induktive) Statistik Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung

Mehr

Die partielle Likelihood-Funktion

Die partielle Likelihood-Funktion Die partielle Likelihood-Funktion Roger Züst 12. Juni 26 1 Repetition: Maximum-Likelihood-Methode Hat man n unabhängige Beobachtungen x 1, x 2,..., x n einer Zufallsvariablen X und eine Familie von möglichen

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Unterricht 13: Wiederholung.

Unterricht 13: Wiederholung. , 1 I Unterricht 13: Wiederholung. Erinnerungen: Die kleinen Übungen nden diese Woche statt. Zur Prüfung müssen Sie Lichtbildausweis (Personalausweis oder Reisepass) Studierendenausweis mitbringen. I.1

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

5 Optimale erwartungstreue Schätzer

5 Optimale erwartungstreue Schätzer 33 5 Optimale erwartungstreue Schätzer 5.1 Definition Seien X 1,..., X n reelle Zufallsvariablen, T T (X 1,..., X n ) reellwertige Statistik. T heißt linear : c 1,..., c n R mit T n c j X j 5.2 Satz Seien

Mehr

Bootstrap: Punktschätzung

Bootstrap: Punktschätzung Resampling Methoden Dortmund, 2005 (Jenő Reiczigel) 1 Bootstrap: Punktschätzung 1. Die Grundidee 2. Plug-in Schätzer 3. Schätzung des Standardfehlers 4. Schätzung und Korrektur der Verzerrung 5. Konsistenz

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben

Mehr

Kapitel VI - Maximum-Likelihood-Schätzfunktionen

Kapitel VI - Maximum-Likelihood-Schätzfunktionen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VI - Maximum-Likelihood-Schätzfunktionen Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh

Mehr

Korollar 116 (Grenzwertsatz von de Moivre)

Korollar 116 (Grenzwertsatz von de Moivre) Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Die Maximum-Likelihood-Methode

Die Maximum-Likelihood-Methode Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

1.4 Stichproben aus einer Normalverteilung

1.4 Stichproben aus einer Normalverteilung 1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte

Mehr

Schätzer und Konfidenzintervalle

Schätzer und Konfidenzintervalle Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl

Mehr

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Karlsruher Institut für Technologie Ulrich Husemann Institut für Experimentelle Kernphysik, Karlsruher Institut für Technologie

Mehr

Inhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98

Inhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98 Inhaltsverzeichnis 1 Datenbehandlung und Programmierung 11 1.1 Information 11 1.2 Codierung 13 1.3 Informationsübertragung 17 1.4 Analogsignale - Abtasttheorem 18 1.5 Repräsentation numerischer Daten 20

Mehr

Vorlesung: Lineare Modelle

Vorlesung: Lineare Modelle Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen

Mehr

Statistik II SoSe 2006 immer von 8:00-9:30 Uhr

Statistik II SoSe 2006 immer von 8:00-9:30 Uhr Statistik II SoSe 2006 immer von 8:00-9:30 Uhr Was machen wir in der Vorlesung? Testen und Lineares Modell Was machen wir zu Beginn: Wir wiederholen und vertiefen einige Teile aus der Statistik I: Konvergenzarten

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

2.2 Punktschätzung. Gegeben sei die in Kapitel 2.1 beschriebene Situation, also eine i.i.d. Stichprobe X 1,...,X n eines Merkmales X.

2.2 Punktschätzung. Gegeben sei die in Kapitel 2.1 beschriebene Situation, also eine i.i.d. Stichprobe X 1,...,X n eines Merkmales X. Ziel: Finde ein möglichst gutes Schätzverfahren und damit einen möglichst guten Schätzwert für eine bestimmte Kenngröße ϑ (Parameter) der Grundgesamtheit, z.b. den wahren Anteil der rot/grün-wähler, den

Mehr

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301

Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Stetigkeit und Dierenzierbarkeit im R n

Stetigkeit und Dierenzierbarkeit im R n Stetigkeit und Dierenzierbarkeit im R n 1 Stetigkeit Wir übertragen den Stetigkeitsbegri auf mehrstellige reellwertige Funktionen. Denition 1. Sei M R n. Eine Funktion f : M R heiÿt stetig in a M gdw.

Mehr

Klausur zu Statistik II

Klausur zu Statistik II GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel

Mehr

Kapitel 1 Einführung. Angewandte Ökonometrie WS 2012/13. Nikolaus Hautsch Humboldt-Universität zu Berlin

Kapitel 1 Einführung. Angewandte Ökonometrie WS 2012/13. Nikolaus Hautsch Humboldt-Universität zu Berlin Kapitel 1 Einführung Angewandte Ökonometrie WS 2012/13 Nikolaus Hautsch Humboldt-Universität zu Berlin 1. Allgemeine Informationen 2 17 1. Allgemeine Informationen Vorlesung: Mo 12-14, SPA1, 23 Vorlesung

Mehr

Mathematische Statistik Gliederung zur Vorlesung im Wintersemester 2006/07

Mathematische Statistik Gliederung zur Vorlesung im Wintersemester 2006/07 Mathematische Statistik Gliederung zur Vorlesung im Wintersemester 26/7 Markus Reiß Universität Heidelberg reiss@statlab.uni-heidelberg.de VORLÄUFIGE FASSUNG: 9. Februar 27 Inhaltsverzeichnis 1 Einführende

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.

Mehr

4 Statistik der Extremwertverteilungen

4 Statistik der Extremwertverteilungen In diesem Kapitel beschäftigen wir uns mit statistischen Anwendungen der Extremwerttheorie. Wir werden zwei verschiedene Zugänge zur Modellierung von Extremwerten betrachten. Der erste Zugang basiert auf

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1)

4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1) Kapitel 4 Stichproben und Schätzungen 4.1 Stichproben, Verteilungen und Schätzwerte Eine physikalische Messung ist eine endliche Stichprobe aus einer Grundgesamtheit, die endlich oder unendlich sein kann.

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.

Mehr

Auswahl von Schätzfunktionen

Auswahl von Schätzfunktionen Auswahl von Schätzfunktionen Worum geht es in diesem Modul? Überblick zur Punktschätzung Vorüberlegung zur Effizienz Vergleich unserer Schätzer für My unter Normalverteilung Relative Effizienz Einführung

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Inferenzstatistik in Regressionsmodellen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 4.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

Statistik und Wahrscheinlichkeitsrechnung

Statistik und Wahrscheinlichkeitsrechnung Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und

Mehr

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60

Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60 WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

7. Grenzwertsätze. Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012

7. Grenzwertsätze. Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 7. Grenzwertsätze Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Mittelwerte von Zufallsvariablen Wir betrachten die arithmetischen Mittelwerte X n = 1 n (X 1 + X 2 + + X n ) von unabhängigen

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 207/8 Schließende Statistik (WS 207/8) Folie Einleitung Organisatorisches. Organisatorisches I Vorlesung:

Mehr

Schätzung von Parametern

Schätzung von Parametern Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19

Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik. PD Dr. U. Ludwig. Vorlesung 7 1 / 19 Wahrscheinlichkeitsrechnung und Statistik für Studierende der Informatik PD Dr. U. Ludwig Vorlesung 7 1 / 19 2.2 Erwartungswert, Varianz und Standardabweichung (Fortsetzung) 2 / 19 Bedingter Erwartungswert

Mehr

Klausur Stochastik und Statistik 31. Juli 2012

Klausur Stochastik und Statistik 31. Juli 2012 Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Stetige Funktionen. Definition. Seien (X, d) und (Y, D) metrische Räume und f : X Y eine Abbildung. i) f heißt stetig in x 0 (x 0 D(f)), wenn

Stetige Funktionen. Definition. Seien (X, d) und (Y, D) metrische Räume und f : X Y eine Abbildung. i) f heißt stetig in x 0 (x 0 D(f)), wenn Stetige Funktionen Eine zentrale Rolle in der Analysis spielen Abbildungen f : X Y, wobei X und Y strukturierte Mengen sind (wie z.b. Vektorräume oder metrische Räume). Dabei sind i.a. nicht beliebige

Mehr

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood

Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung

Mehr

3 Statistische Schätzungen

3 Statistische Schätzungen 3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 2017/18 Schließende Statistik (WS 2017/18) Folie 1 1 Einleitung Organisatorisches 1.1 Organisatorisches

Mehr

3 Optimierung mehrdimensionaler Funktionen f : R n R

3 Optimierung mehrdimensionaler Funktionen f : R n R 3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)

Mehr

Statistik IV. Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II

Statistik IV. Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II Statistik IV Modul P8: Grundlagen der Statistik II Vorlesung P8.1: Wahrscheinlichkeitstheorie und Inferenz II Prof. Dr. Torsten Hothorn Institut für Statistik Ludwig Maximilians Universität München L A

Mehr

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:

Mehr

Suffizienz und Vollständigkeit

Suffizienz und Vollständigkeit KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

Bootstrap-Methoden zur Ermittlung kritischer Werte für asymptotische FWER-Kontrolle

Bootstrap-Methoden zur Ermittlung kritischer Werte für asymptotische FWER-Kontrolle Bootstrap-Methoden zur Ermittlung kritischer Werte für asymptotische FWER-Kontrolle [Dudoit, van der Laan, Pollard: Multiple Testing. Part I Single-Step Procedures for Control of General Type-I-Error Rates]

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungen stetiger Zufallsvariablen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Grundgesamtheit und Stichprobe

Grundgesamtheit und Stichprobe Grundgesamtheit und Stichprobe Definition 1 Die Menge der Untersuchungseinheiten {U 1,U 2,...,U N } heißt Grundgesamtheit. Die Anzahl N der Einheiten ist der Umfang der Grundgesamtheit. Jeder Einheit U

Mehr

Vorlesung 3: Schätzverfahren

Vorlesung 3: Schätzverfahren Vorlesung 3: Schätzverfahren 1. Beispiel: General Social Survey 1978 2. Auswahl einer Zufallsstichprobe und Illustration des Stichprobenfehlers 3. Stichprobenverteilung eines Regressionskoeffizienten 4.

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist

Mehr

Statistische Methoden

Statistische Methoden Statistische Methoden Dr. C.J. Luchsinger 5 Schätztheorie und Konfidenzintervalle Literatur Kapitel 5 * Lindgren: Kapitel 8 * Cartoon Guide: Kapitel 7 * Krengel: 4, 13 * Stahel: Kapitel 7, 9 Wir wollen

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.

ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3. Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die

Mehr

Schließende Statistik

Schließende Statistik Schließende Statistik Vorlesung an der Universität des Saarlandes Dr. Martin Becker Wintersemester 206/7 Schließende Statistik (WS 206/7) Folie Einleitung Organisatorisches. Organisatorisches I Vorlesung:

Mehr

Innere-Punkt-Methoden

Innere-Punkt-Methoden Innere-Punkt-Methoden Johannes Stemick 26.01.2010 Johannes Stemick () Innere-Punkt-Methoden 26.01.2010 1 / 28 Übersicht 1 Lineare Optimierung 2 Innere-Punkt-Methoden Path-following methods Potential reduction

Mehr

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:

Mehr

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe

Mehr