3.2 Methoden zum Auffinden von Schätzern

Größe: px
Ab Seite anzeigen:

Download "3.2 Methoden zum Auffinden von Schätzern"

Transkript

1 3. Methoden zu Auffinden von Schätzern Manchal ist es sehr einfach, intuitiv zu entscheiden, wie ein Paraeter geschätzt werden soll. Für gewöhnlich ist es sinnvoll, einen Paraeter durch dessen Stichprobenversion zu schätzen. So ist das Stichprobenittel eine gute Schätzung für das Populationsittel. Für koplexere Modelle werden generelle Methoden benötigt, u Paraeter zu schätzen. Wir diskutieren nun die Moentenethode, Maxiu Likelihood Schätzer, und Bayes Schätzer Die Moentenethode Dies ist das älteste Verfahren (Karl Pearson, Ende des 19. Jahrhunderts) und auch sehr einfach in der Anwendung. Oftals liefert diese Methode jedoch Schätzer die noch verbessert werden üssen. 88

2 Sei X 1,...,X n eine Stichprobe aus der Population f(x θ 1,...,θ k ). Schätzer nach der Moentenethode findet an, inde an die ersten k Stichprobenoente j denerstenk Populationsoentenµ j gleichsetztunddiesesgleichungssyste siultan löst. Definiere epirische und theoretische Moente ( u Null ) 1 = 1 n = 1 n k = 1 n Xi 1, µ 1 = E(X 1 ) Xi, µ = E(X ). Xi k, µ k = E(X k ) Die µ j sind typischerweise Funktionen der Paraeter, also µ j = µ j (θ 1,...,θ k ). 89

3 Die Moentenschätzer ( θ 1,..., θ k ) erhält an daher durch Lösen von 1 = µ 1( θ 1,..., θ k ) = µ ( θ 1,..., θ k ). k = µ k( θ 1,..., θ k ) 90

4 Beispiel 3..1: Seien X 1,...,X n iid Noral(µ,σ ), µ und σ unbekannt. 1 = 1 n = 1 n X i, µ 1 = µ Xi, µ = σ +µ. Daher lösen wir nach ( µ, σ ). Dies liefert X = µ und 1 n Xi = σ + µ µ = X und σ = 1 n Xi X = 1 n (X i X). 91

5 Beispiel 3..: Seien X 1,...,X n iid Binoial(k,p), wobei sowohl p als auch k unbekannte Paraeter sind. Dieses Modell wird beispielsweise zur Schätzung von Dunkelziffern bei Verbrechensraten oder Epideien eingesetzt. Dann beschreibt p die Meldewahrscheinlichkeit und k die tatsächliche Anzahl. Wegen E(X) = kp und var(x) = E(X ) E (X) = kp(1 p) folgt 1 n X = k p i X i = k p(1 p)+( k p) also und soit 1 p = 1 n p = 1 X i X i X X ( X 1 n = 1 n i (X i X) X ) (X i X) i 9

6 Weiters ergibt sich wegen k = X/ p noch k = X 1 n X i (X i X) Interessanterweise gilt auch hier p = X k was de Schätzer X/k (relative Häufigkeit) bei k bekannt entspricht. Dies sind nicht die bestöglichen Schätzer. In der Praxis kann k, und soit auch p, auch negativ sein. Dies ist gerade dann der Fall wenn X < S n gilt, also wenn eine große Datenvariabilität vorherrscht. Der Bereich der Schätzer stit hier nicht it de zulässigen Bereich der Paraeter überein! 93

7 Die Moentenethode kann jedoch sehr wertvoll bei der Approxiation der Verteilung von Statistiken sein (oent atching). Hierbei werden die Moente von Verteilungen angeglichen. Theoretisch können die Moente der Verteilung einer beliebigen Statistik jenen einer beliebigen Verteilung angeglichen werden. In der Praxis wird an jedoch ähnliche Verteilungen dazu heranziehen. Beispiel 3..3 (Satterthwaite Approxiation): Betrachte zwei unabhängige iid Zufallsstichproben X 1,...,X n, Y 1,...,Y it X i Noral(µ,σX ), Y iid j Noral(µ,σY ). Wir wollen die Verteilung von X Y studieren und erhalten dafür X Y σ X n + σ Y Noral(0,1). Die Paraeter σ X und σ Y sind unbekannt. 94

8 Wie schon bei der Definition der t-verteilung werden diese durch Schätzer ersetzt. Die Schätzer SX und S Y sind erwartungstreu für σ X und σ Y und es gilt Y 1 = (n 1)S X/σ X χ n 1 und Y = ( 1)S Y/σ Y χ 1. Es ist daher nahe liegend, die Größe S X n + S Y σx n + σ Y = a 1 Y 1 +a Y näher zu betrachten, wobei a 1 = 1 σx nn 1 σx n + σ Y, a = 1 σy 1 σx n + σ Y. 95

9 Wir untersuchen also, wie die Linearkobination von unabhängigen χ -verteilten Variablen verteilt ist, zuindest approxiativ. ind Es ist bekannt, dass für die Sue von unabhängigen Y i χ r i, i = 1,...,k, gilt k Y i χ i r. i Satterthwaite interessierte sich für die Verteilung einer gewichteten Sue und nah an, dass dafür approxiativ gilt k a i Y i χ ν ν. 96

10 Da X von S X und Y von S Y unabhängig sind, kann die Verteilung von X Y σ X n + σ Y S X n + S Y σ X n + σ Y = X Y S X n + S Y = Noral(0,1) χ ν /ν durch eine t ν -Verteilung approxiiert werden. Den Freiheitsgrad ν schätzt an it der Moentenethode. Da E(χ ν/ν) = 1 uss ( k ) E a i Y i = k a i E(Y i ) = k a i r i = 1. Dies liefert nur eine Bedingung an die a i, jedoch keine Schätzung von ν. Beerke, dass diese für unseren Fall a 1 (n 1)+a ( 1) = 1 erfüllt ist. 97

11 Wir betrachten nun auch das zweite Moent und erhalten die notwendige Übereinstiung E ( k ) ( )! χ ( ) a i Y i = E ν χ = var ν ν ν +E ( χ ν ν ) = ν ν + ν ν = ν +1. Dies liefert nun ν = E( i a iy i ) 1. Schätzt an das zweite theoretische Moent u Null ittels Moentenethode, d.h. an lässt den Erwartungswert einfach weg, so folgt ν = ( i a iy i ) 1, ein Schätzer der auch negativ werden kann und daher nicht ier brauchbar ist. 98

12 Satterthwaite ging weiter und studierte i nächsten Schritt das Verhalten von ( ) E a iy i = var i ( i a iy i )+E ( ) i a iy i [ = E ( ) a var( ] i iy a iy i ) i i E ( i a iy i ) +1 = var( i a iy i ) E ( i a iy i ) +1. Die letzte Identität resultiert aus der Bedingung E( i a iy i ) = 1. Wir verwenden noch einal E( i a iy i ) = ν +1 und erhalten die Identität var( i a iy i ) E ( i a iy i ) +1 = ν +1 ν = ( E i a iy i ) var( i a iy i ). 99

13 Da E(Y i ) = r i und wir schreiben können var(y i ) = r i = E (Y i )/r i, folgt ( k ) var a i Y i = k a ivar(y i ) = k a ie (Y i )/r i. Moentenschätzung bedeutet wiederu Weglassen der Erwartungswerte. Dadurch resultiert ( k ) a i Y i ν = k a i Yi r i was nun ier positiv und noch heutzutage weit verbreitet ist., 100

14 Für das otivierende Beispiel it r 1 = n 1, r = 1 und a 1 = 1 σx nn 1 σx n + σ Y, a = 1 σy 1 σx n + σ Y, sowie Y 1 = (n 1)S X /σ X, Y = ( 1)S Y /σ Y gilt a 1 r 1 Y 1 = 1 σx 4 n (n 1) ( σ ) X n + σ Y 1 n 1 (n 1) S 4 X σ 4 X = SX 4 1 n n 1 ( σ ) X n + σ Y a r Y = SY ( σ ). X + σ Y 101

15 Soit ist der Nenner von ν a i r i Y i = SX 4 1 n n 1 + S4 Y 1 1 ( σ ). X + σ Y Weiters ist a 1 Y 1 = 1 σx nn 1 (n 1)SX σ X n + σ Y σ X = S X n σ X n + σ Y a Y = S Y σ X n + σ Y. 10

16 Für den Zähler von ν resultiert daher ( ) a i Y i = ( ) S X n + S Y ( σ ). X n + σ Y Soit folgt für den Freiheitsgrad der von σ X und σ Y unabhängige Schätzer ν = ( ) S X n + S Y SX 4 1 n n 1 + S4 Y

17 3.. Maxiu Likelihood Schätzer Dieses Verfahren ist sehr populär. Sei X 1,...,X n eine Zufallsstichprobe it Dichte- oder Wahrscheinlichkeitsfunktion f(x θ 1,...,θ k ), dann ist die Likelihood Funktion definiert durch L(θ x) = L(θ 1,...,θ k x 1,...,x n ) = n f(x i θ). Definition 3..1: Für jeden Stichprobenpunkt x sei ˆθ(x) ein Paraeterwert für den die Likelihood Funktion L(θ x) ihr Maxiu in θ für festes x erreicht. Der Maxiu Likelihood Schätzer (MLE) für den Paraeter θ basierend auf die Stichprobe X ist ˆθ(X). Beerkung: Diese Konstruktionsethode sichert, dass der Bereich des MLE identisch ist it de Bereich des Paraeters. 104

18 Proble: Maxiiere eine Funktion. Das globale Maxiu ist zu finden und es ist zu prüfen, ob dies auch wirklich das globale Maxiu ist. Falls L(θ x) differenzierbar in θ j, dann sind die öglichen Kandidaten für den MLE jene Werte von θ j für die gilt θ j L(θ x) = 0, j = 1,...,k. Dies ist eine notwendige Bedingung aber nicht hinreichend! Dait findet an nur stationäre Stellen i Inneren des Definitionsbereiches von L(θ x). Falls Extreu a Rand auftritt, dann kann diese Ableitung dort auch ungleich Null sein. Deshalb uss dieser Rand separat geprüft werden. Die Ableitung ist Null für lokale oder globale Minia oder Maxia oder für Wendepunkte. 105

19 Beispiel 3..4 (Noral Likelihood): X 1,...,X n iid Noral(θ,1), θ R, n L(θ x) = (π) 1/ exp [ [ 1 (x i θ) ] = (π) n/ exp 1 ] (x i θ). Weiters resultiert und es gilt θ L(θ x) = (π) n/ exp [ 1 [ (x i θ) ]( ) 1 ] (x i θ) n L(θ x) = 0 θ (x i θ) = 0 ˆθ = 1 n X i = X. Dies ist die einzige Lösung von i (x i θ) = 0 und soit Kandidat für den MLE. 106

20 Weiters ist die zweite Ableitung [ n n [ [ θ L(θ x)=(π) (x i θ)] exp 1 (x i θ) ]+exp [ ] [ n =(π) n exp 1 (x i θ) (x i θ)] n }{{} >0 } {{ } = n in ˆθ = x 1 (x i θ) ]( n) negativ in ˆθ = x. Soit ist der einzige Extrewert i Inneren, x, ein Maxiu. Ist x ein globales Maxiu? Dazu üssen die Ränder geprüft werden. Nun ist li L(θ x) = li L(θ x) = 0 θ θ + und x daher auch globales Maxiu und soit der MLE! 107

21 Alternativ gilt it Satz 1..1 (a) (x i θ) (x i x) it Gleichheit nur für θ = x. Dait gilt für jedes θ R exp [ 1 und X ist der MLE für θ. ] [ (x i θ) exp 1 ] (x i x) Beerkung: Es ist fast ier einfacher it log(l(θ x)) zu arbeiten, der Log- Likelihood Funktion. Dies ist öglich, da die log-funktion onoton wachsend in (0, ) ist. Daher hat L(θ x) dieselben Extrea wie log(l(θ x)). 108

22 Beispiel 3..5 (Bernoulli MLE): Seien X 1,...,X n iid Bernoulli(p) Variablen, jetzt it 0 p 1. Hierfür gilt L(p x) = n p x i (1 p) 1 x i = p i x i (1 p) i (1 xi). Mit y = i x i, 0 y n, folgt dafür L(p x) = p y (1 p) n y, bzw. logl(p x) = ylogp+(n y)log(1 p). Sei 0 < y < n: Dies ist Null wenn p logl(p x) = y p n y 1 p. y(1 ˆp) = (n y)ˆp ˆp = y n. 109

23 Wegen p logl(p x) = y p n y (1 p) < 0 in ˆp = y/n ist ˆp eine Maxialstelle. Da L(0 x) = L(1 x) = 0, ist es ein globales Maxiu. Sei y {0,n}: logl(p x) = { nlog(1 p) falls y = 0 (onoton in p ˆp = 0 = y/n) nlogp falls y = n (onoton in p ˆp = 1 = y/n) Also ist der MLE für p generell (für alle y) ˆp = X = 1 n X i. Soit ist auch der Paraeterrau 0 p 1 äquivalent it de Bereich für den MLE, 0 ˆp

24 Beispiel 3..4 Fortsetzung: Seien X 1,...,X n iid Noral(θ,1), und sei θ 0 (Restricted Range Noral Likelihood). Maxiiere nur über den eingeschränkten Bereich θ 0 der Paraeterwerte! Mit 0 < c 0 folgt als Likelihood Funktion [ ] L(θ x) = c 0 exp (x i θ), für θ 0 1 Da exp [ 1 n (x i θ) ] = exp ( 1 n x i) exp ( 1 nθ +nθx ), folgt L(θ x) = c 1 (x)exp ( 1 nθ +nθx ), für θ 0, it 0 < c 1 (x). Falls x 0: wie vorher gezeigt resultiert MLE ˆθ = X, aber für x < 0 ist L(θ x) onoton fallend in θ für θ 0 und soit axial in ˆθ = 0. Restricted MLE: ˆθ = { X falls X 0 0 falls X <

25 Invarianzprinzip des MLE Die Population ist durch den Paraeter θ indiziert. Wir sind aber interessiert, eine Funktion von θ, z.b. τ(θ), zu schätzen. Die Invarianzeigenschaft ist eine nützliche Eigenschaft von MLEs und sagt aus, dass der MLE von τ(θ) gerade τ(ˆθ) ist, wobei ˆθ den MLE von θ bezeichnet. Ist die Abbildung θ τ(θ) eineindeutig (für jeden Wert von θ gibt es einen eindeutigen Wert von τ(θ) und ugekehrt), gibt es kein Proble. Dann acht es keinen Unterschied ob wir die Likelihood Funktion als Funktion in θ oder in τ(θ) axiieren. Wir bekoen in beiden Fällen dasselbe Ergebnis. 11

26 Sei dazu η = τ(θ), und die Funktion τ( ) eineindeutig. Dann ist die inverse Funktion τ 1 (η) = θ definiert und die Likelihood Funktion zu τ(θ) (als Funktion in η geschrieben) ist L (η x) = n f(x i τ 1 (η)) = L(τ 1 (η) x). Soit folgt auch sup η L (η x) = sup η L(τ 1 (η) x) = sup θ L(θ x) und das Maxiu von L (η x) wird in η = τ(θ) = τ(ˆθ) angenoen. Also ist der MLE von τ(θ) gerade τ(ˆθ). 113

27 Jedoch tauchen technische Problee auf, falls die Abbildung θ τ(θ) nicht eineindeutig ist, z.b. τ(θ 1 ) = τ(θ ) = η für θ 1 θ. Wollen wir z.b. θ, das Quadrat eines Populationsittel, schätzen, so ist die Abbildung θ θ nicht eineindeutig. Hier ist es notwendig, für τ(θ) eine allgeeinere Definition der Likelihood Funktion zu verwenden, die für τ(θ) definierte induzierte Likelihood Funktion L (η x) = sup L(θ x) {θ:τ(θ)=η} Den Wert ˆη, der L (η x) axiiert, nennt an MLE von η = τ(θ), und es ist ersichtlich, dass die Maxia von L (η x) und von L(θ x) übereinstien. 114

28 Satz 3..1: (Invarianzeigenschaft des MLE) Falls ˆθ der MLE von θ ist, dann ist für jede beliebige Funktion τ(θ) der MLE τ(ˆθ). Beerkungen: Verwendet an das Invarianzprinzip, so ist es sofort klar, dass z.b. der MLE von µ gleich X ist. Oder für die Standardabweichungeiner Binoial(n,p) Verteilung resultiert als MLE nˆp(1 ˆp) it der relativen Häufigkeit ˆp. Natürlich hält das Invarianzprinzip auch i ultivariaten Fall. So ist der MLE von τ(θ 1,...,θ k ) gleich τ(ˆθ 1,..., ˆθ k ). Ist θ ultivariat, dann uss zur Berechnung des MLEs eine Funktion in ehreren Variablen axiiert werden. Ist die Likelihood Funktion differenzierbar, so entspricht das Nullsetzen aller partiellen Ableitungen nur der notwendigen Bedingung für ein Extreu i Inneren. U zu prüfen, ob es sich dabei u ein Maxiu handelt uss die Matrix aller zweiten Ableitungen bestit werden was häufig sehr aufwendig ist. Eine sukzessive Maxiierung ist dann gewöhnlich einfacher. 115

29 Beispiel 3..6: Seien X 1,...,X n iid Noral(µ,σ ), it µ und σ unbekannt. [ ] L(µ,σ x) = (πσ ) n/ exp 1 σ (x i µ) logl(µ,σ x) = n log(π) n log(σ ) 1 σ Als partielle Ableitungen erhält an µ logl(µ,σ x) = 1 σ (x i µ) x) = n 1 σ logl(µ,σ σ + 1 σ 4 Nullsetzen liefert ˆµ = x und ˆσ = 1 n (x i ˆµ). (x i µ) (x i µ) 116

30 Prüfen, ob dies ein globales Maxiu ist. Wegen (x i µ) (x i x) folgt für einen beliebigen Wert von σ > 0 (πσ ) n/ exp [ 1 σ ] [ (x i x) (πσ ) n/ exp 1 σ ] (x i µ). Die linke Seite nennt an Profile-Likelihood Funktion für σ. Sie hängt nur noch von σ ab. Die Maxiierung wurde daher auf ein eindiensionales Proble reduziert. 117

31 Es verbleibt zu prüfen, ob L P (σ x) = (σ ) n/ exp ein globales Maxiu hat in ˆσ = 1 n gilt, ist ( [ 1 σ ] (x i x) i (x i x). Da für diesen Ter li L P (σ x) = li L P (σ x) = 0 σ 0 σ X, 1 n ) (X i X) der MLE von (µ,σ ) unter Annahe einer Noralverteilung. 118

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion

4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion 4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

3.3 Methoden zur Evaluierung von Schätzern

3.3 Methoden zur Evaluierung von Schätzern 3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,

Mehr

1.4 Stichproben aus einer Normalverteilung

1.4 Stichproben aus einer Normalverteilung 1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe

1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe 1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch

Mehr

Kapitel 3 Schließende Statistik

Kapitel 3 Schließende Statistik Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel

Mehr

2 Klassische statistische Verfahren unter Normalverteilungs-Annahme

2 Klassische statistische Verfahren unter Normalverteilungs-Annahme 7 Klassische statistische Verfahren unter Normalverteilungs-Annahme. χ s, t s, F r,s -Verteilung a) N,..., N s uiv N (0, ) Verteilung von Y := N +... + N s heißt Chi-Quadrat-Verteilung mit s Freiheitsgraden

Mehr

2. Prinzipien der Datenreduktion

2. Prinzipien der Datenreduktion 2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Wiederholung: Transformationsformel für Dichten

Wiederholung: Transformationsformel für Dichten Der folgende Aufschrieb enthält die fehlenden Beweise aus der Vorlesung. Wiederholung: ransforationsforel für Dichten Zur Herleitung der χ und t-verteilung verwenden wir ehrals die ransforationsforel.

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

LS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch

LS-Schätzer. SSE(β) = (y µ) t (y µ) = y t y 2β t X t y + β t X t Xβ. Minimiere SSE(β) bzgl. β: Minimum definiert durch LS-Schätzer Sei µ = Xβ mit rg(x) = p und β = (β 1,..., β p ) t SSE(β) = (y µ) t (y µ) Minimiere SSE(β) bzgl. β: = y t y 2β t X t y + β t X t Xβ β SSE(β) = 2Xt y + 2X t Xβ. Minimum definiert durch X t X

Mehr

Vorlesung 12a. Schätzen von Parametern. Teil 2

Vorlesung 12a. Schätzen von Parametern. Teil 2 Vorlesung 12a Schätzen von Parametern Teil 2 1 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S 2 Ein Logo der Statistik: Θ ˆϑ t X S P ϑ (X da) = ρ ϑ (da), ϑ Θ Θ... Parameterraum S... Beobachtungsraum

Mehr

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung

Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 014 Musterlösung 1. 8 Punkte) a) 1 Pt)Für das Komplement gilt PR A) = 1 PR c A) = 0.968. b) 1 Pt)Nach Definition der bedingten Wahrscheinlichkeit

Mehr

Statistik. Andrej Depperschmidt. Sommersemester 2016

Statistik. Andrej Depperschmidt. Sommersemester 2016 Statistik Andrej Depperschmidt Sommersemester 2016 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i

Mehr

Stochastik Praktikum Parametrische Schätztheorie

Stochastik Praktikum Parametrische Schätztheorie Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

5 Allgemeine Verfahren zum Testen von Hypothesen

5 Allgemeine Verfahren zum Testen von Hypothesen 5 Allgemeine Verfahren zum Testen von Hypothesen 5.1 Likelihood Schätzung für multivariate Daten Statistisches Modell: Einfache Zufallsstichprobe X 1,..., X n (unabhängige Wiederholungen von X IR d ).

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg Dr. Stan Lai und Prof. Markus Schumacher Physikalisches Institut Westbau 2 OG Raum 008 Telefonnummer

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Statistik I für Betriebswirte Vorlesung 13

Statistik I für Betriebswirte Vorlesung 13 Statistik I für Betriebswirte Vorlesung 13 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 6. Juli 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 13 Version: 7. Juli

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und Übersicht über die Vorlesung Teil : Deskriptive fru@hephy.oeaw.ac.at VO 42.090 http://tinyurl.com/tu42090 Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable und Verteilungen Februar 200 Teil 4:

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

Lösung Übungsblatt 5

Lösung Übungsblatt 5 Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von

Mehr

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1

0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1 Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

1. Eigenschaften einer Zufallsstichprobe

1. Eigenschaften einer Zufallsstichprobe 1. Eigenschaften einer Zufallsstichprobe 1.1 Grundkonzepte Definition 1.1.1: Man nennt die Zufallsvariablen X 1,..., X n zufällige Stichprobe oder Zufallsstichprobe vom Umfang n aus der Population (Grundgesamtheit)

Mehr

FORMELSAMMLUNG STATISTIK B

FORMELSAMMLUNG STATISTIK B Somersemester 2012 FORMELSAMMLUNG STATISTIK B Prof. Kneip / Dr. Scheer / Dr. Arns Version vom April 2012 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 2 2 Diskrete Zufallsvariablen 5 3 Stetige Zufallsvariablen

Mehr

Biostatistik, Sommer 2017

Biostatistik, Sommer 2017 1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

Schätzer und Konfidenzintervalle

Schätzer und Konfidenzintervalle Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl

Mehr

Vorlesung: Lineare Modelle

Vorlesung: Lineare Modelle Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen

Mehr

Teil IX. Verteilungen an Daten anpassen ( Maximum-Likelihood-Schätzung. fitten ) Woche 7: Maximum-Likelihood-Schätzung. Lernziele

Teil IX. Verteilungen an Daten anpassen ( Maximum-Likelihood-Schätzung. fitten ) Woche 7: Maximum-Likelihood-Schätzung. Lernziele Woche 7: Maimum-Lielihood-Schätzung Patric Müller ETHZ Teil IX Verteilungen an Daten anpassen ( fitten ): Maimum-Lielihood-Schätzung WBL 17/19, 12.06.2017 Wahrscheinlicheit

Mehr

2 Invarianz. 2.1 Definitionen

2 Invarianz. 2.1 Definitionen 2 Invarianz 2.1 Definitionen Sei im folgenden immer eine W familie (P θ ) θ Θ (abgekürzte schreibweise (P θ )) auf einem Datenraum Y zugrunde gelegt. Definition [Transformationsgruppe]. Eine Menge G Abb(Y,

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.

7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9. 7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe

Mehr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c

Mehr

Diskrete Wahrscheinlichkeitstheorie

Diskrete Wahrscheinlichkeitstheorie SS 2013 Diskrete Wahrscheinlichkeitstheorie Javier Esparza Fakultät für Informatik TU München http://www7.in.tum.de/um/courses/dwt/ss13 Sommersemester 2013 Teil V Induktive Statistik Induktive Statistik

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen Noémie Becker & Dirk Metzler 31. Mai 2016 Inhaltsverzeichnis 1 Binomialverteilung 1 2 Normalverteilung 2 3 T-Verteilung

Mehr

Einführung in die statistische Testtheorie II

Einführung in die statistische Testtheorie II 1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.

Mehr

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt

Konfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall

Mehr

5. Stichproben und Statistiken

5. Stichproben und Statistiken 5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)

Mehr

Vorlesung 13a. Schätzen von Parametern. Teil 2

Vorlesung 13a. Schätzen von Parametern. Teil 2 Vorlesung 13a Schätzen von Parametern Teil 2 Unser Logo der ersten Stunde: X P ϑ (X da) = ρ ϑ (da), ϑ Θ S Ein Logo der Statistik: X Θ S P ϑ (X da) = ρ ϑ (da), ϑ Θ Ein Logo der Statistik: X Θ t S P ϑ (X

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

Statistik I für Betriebswirte Vorlesung 14

Statistik I für Betriebswirte Vorlesung 14 Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli

Mehr

3.2 Maximum-Likelihood-Schätzung

3.2 Maximum-Likelihood-Schätzung 291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

1.8 Mehrdimensionale Zufallsvariablen

1.8 Mehrdimensionale Zufallsvariablen 1.8 Mehrdimensionale Zufallsvariablen 1.8 Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Schnelldurchgang unter Bezug auf das

Mehr

Formelsammlung Schließende Statistik

Formelsammlung Schließende Statistik Prof. Dr. Philipp Sibbertsen Wirtschaftswissenschaftliche Fakultät Leibniz Universität Hannover Formelsammlung Schließende Statistik Inhaltsverzeichnis 1 Spezielle theoretische Verteilungen und Grenzwertsätze

Mehr

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)

3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes) 3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I 9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig

Mehr

Diskrete Zufallsvariablen (Forts.) I

Diskrete Zufallsvariablen (Forts.) I 9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

FORMELSAMMLUNG STATISTIK B

FORMELSAMMLUNG STATISTIK B Somersemester 2010 FORMELSAMMLUNG STATISTIK B Dr. Scheer / J. Arns Version vom April 2010 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 2 2 Zufallsvariablen 5 3 Diskrete Verteilungsmodelle 7 4 Parameterschätzung

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient

11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient 11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen

Mehr

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik

Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:

Mehr

3 Statistische Schätzungen

3 Statistische Schätzungen 3 Statistische Schätzungen In der Wahrscheinlichkeitstheorie geht es darum, über Modelle Ereignisse zu bewerten bzw. Voraussagen über ihr Eintreten zu treffen. Sind nun umgekehrt Daten bekannt, und wollen

Mehr

Fortgeschrittene Ökonometrie: Maximum Likelihood

Fortgeschrittene Ökonometrie: Maximum Likelihood Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen

Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben

Mehr

Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2

Y = g 2 (U 1,U 2 ) = 2 ln U 1 sin 2πU 2 Bsp. 72 (BOX MÜLLER Transformation) Es seien U 1 und U 2 zwei unabhängige, über dem Intervall [0, 1[ gleichverteilte Zufallsgrößen (U i R(0, 1), i = 1, 2), U = (U 1,U 2 ) T ein zufälliger Vektor. Wir betrachten

Mehr

Schriftliche Prüfung (2 Stunden)

Schriftliche Prüfung (2 Stunden) Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 2015 Schriftliche Prüfung (2 Stunden) Bemerkungen: Erlaubte Hilfsmittel: 10 hand- oder maschinengeschriebene A4 Seiten (=5 Blätter). Taschenrechner

Mehr

Grundidee. χ 2 Tests. Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen. Grundidee. Annahme: Einfache Zufallsstichprobe (X 1,..., X n ).

Grundidee. χ 2 Tests. Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen. Grundidee. Annahme: Einfache Zufallsstichprobe (X 1,..., X n ). Grundidee χ 2 -Anpassungstest χ 2 -Unabhängigkeitstest χ 2 -Homogenitätstest χ 2 Tests Grundidee Ausgangspunkt: Klasseneinteilung der Beobachtungen in k Klassen Annahme: Einfache Zufallsstichprobe (X 1,,

Mehr

Aufgabe (12 Punkte) Sei A A eine σ-algebra. (a) Man zeige: Ist X : Ω R A -messbar, dann ist X A-messbar. (b) Gilt die Umkehrung von (a)?

Aufgabe (12 Punkte) Sei A A eine σ-algebra. (a) Man zeige: Ist X : Ω R A -messbar, dann ist X A-messbar. (b) Gilt die Umkehrung von (a)? Am 5. Mai 2007 wurde zum dritten Mal eine stochastische Eingangsprüfung durchgeführt. Insgesamt konnten maximal 56 Punkte erreicht werden, zum Bestehen der Prüfung waren mindestens 26 Punkte notwendig.

Mehr

Numerische Methoden der Bayes-Inferenz. Helga Wagner Bayes Statistik WS 2010/11 338

Numerische Methoden der Bayes-Inferenz. Helga Wagner Bayes Statistik WS 2010/11 338 Numerische Methoden der Bayes-Inferenz Helga Wagner Bayes Statistik WS 2010/11 338 Nichtkonjugierte Analyse Bei bekannter Likelihood und Priori-Verteilung kann die nichtnormierte Dichte der Posteriori-Verteilung

Mehr

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess Name: Vorname: Matrikelnummer: Lösungsvorschlag zur Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik (Stochastik) Datum: 07.

Mehr

Zusammenfassung: Kapitel 5, Zusammenhangsmaße

Zusammenfassung: Kapitel 5, Zusammenhangsmaße Zusammenfassung: Kapitel 5, Zusammenhangsmaße Kovarianz s xy = 1 n n (x i x)(y i ȳ) i=1 Korrelationskoeffizient nach Bravais-Pearson r xy = s xy s x s y = n (x i x)(y i ȳ) i=1 n (x i x) 2 i=1 n (y i ȳ)

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen Noémie Becker & Dirk Metzler http://evol.bio.lmu.de/_statgen 7. Juni 2013 1 Binomialverteilung 2 Normalverteilung 3 T-Verteilung

Mehr

Statistics, Data Analysis, and Simulation SS 2015

Statistics, Data Analysis, and Simulation SS 2015 Mainz, 2. Juli 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Konjugierte Prior Konjugierte Prior

Mehr

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212

f(x) = P (X = x) = 0, sonst heißt Poisson-verteilt mit Parameter (oder Rate) λ > 0, kurz X P o(λ). Es gilt x x! 1 Wahrscheinlichkeitsrechnung 212 1.6.2 Poisson Verteilung Eine weitere wichtige diskrete Verteilung ist die Poisson-Verteilung. Sie modelliert die Anzahl (eher seltener) Ereignisse in einem Zeitintervall (Unfälle, Todesfälle; Sozialkontakte,

Mehr

Pseude-Likelihood-Methode

Pseude-Likelihood-Methode Pseude-Likelihood-Methode Seminar: Grundlagen der Simulation und Statistik von dynamischen Systemen Andrei Durtca Technische Universität Dortmund 12. Januar 2015 Inhaltsverzeichnis 1 Einleitung 2 Pseude-Likelihood-Methode

Mehr

2 Aufgaben aus [Teschl, Band 2]

2 Aufgaben aus [Teschl, Band 2] 20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:

Mehr

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Mainz, 26. Juni 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011

Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011 Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben

Mehr

Bootstrap: Punktschätzung

Bootstrap: Punktschätzung Resampling Methoden Dortmund, 2005 (Jenő Reiczigel) 1 Bootstrap: Punktschätzung 1. Die Grundidee 2. Plug-in Schätzer 3. Schätzung des Standardfehlers 4. Schätzung und Korrektur der Verzerrung 5. Konsistenz

Mehr

Musterlösung der Klausur vom 29. Juli 2003

Musterlösung der Klausur vom 29. Juli 2003 Statistik für Bioinformatiker SoSe 2003 Rainer Spang Musterlösung der Klausur vom 29. Juli 2003 Aufgabe 1. 10 Definieren Sie die folgenden statistischen Begriffe in einem Satz oder in einer Formel: 1.

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste

Mehr

Das empirische VaR bzw. CVaR

Das empirische VaR bzw. CVaR Das empirische VaR bzw. CVaR Sei x 1, x 2,..., x n eine Stichprobe der unabhängigen identischverteilten ZV X 1, X 2,..., X n mit Verteilungsfunktion F (Notation: Die ZV X 1, X 2,..., X n sind i.i.d. Empirische

Mehr

2.Tutorium Multivariate Verfahren

2.Tutorium Multivariate Verfahren 2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0

y = b 0 + b 1 x 1 x 1 ε 1. ε n b + b 1 1 x n 2) Hat die Größe x einen Einfluss auf y, d.h. gilt die Hypothese: H : b 1 = 0 8 Lineare Modelle In diesem Abschnitt betrachten wir eine spezielle Klasse von statistischen Modellen, in denen die Parameter linear auftauchen Wir beginnen mit zwei Beispielen Beispiel 8 (lineare Regression)

Mehr