3.2 Maximum-Likelihood-Schätzung
|
|
|
- Paul Fürst
- vor 7 Jahren
- Abrufe
Transkript
1 291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen.
2 Schätzkonzept Maximum-Likelihood-Prinzip: Finde Maximum-Likelihood- Schätzwert b,sodass Dazu äquivalent ist L( b ; x) L( ; x) füralle 2. `( b ; x) `( ; x), `( ) = log L( ) mit der Log-Likelihood `. Meist sucht man nach (lokalen) Maxima von `( ) durch Nullsetzen der Score-Funktion s( ) ) p (soweit die 1. Ableitung der Log-Likelihood existiert!) als Lösung der sogenannten ML-Gleichung s( b )=0.
3 Schätzkonzept Dies funktioniert (meist) unter Annahme von Fisher-Regularität. Nur in einfachen Fällen ist die Lösung analytisch zugänglich. Die numerische Lösung geschieht über Verfahren wie Newton-Raphson, Fisher-Scoring, Quasi-Newton oder über den EM-Algorithmus. Erstere drei Verfahren arbeiten mit der Hesse-Matrix der Log-Likelihood bzw. Approximationen an diese: J( ; x) @ > heißt beobachtete Informationsmatrix. Bildet man den Erwartungswert bezüglich aller möglichen Stichproben X aus X,so erhält man die erwartete Informationsmatrix I ( ) =E [J( ; X )]. Unter Fisher-Regularität gilt (vgl. Abschnitt 86): E [s( )] = 0 und Cov (s( )) = E [s( )s( ) > ]=I ( ).
4 Schätzkonzept Beispiel 3.3 (Lineares Modell) Betrachte y = Z + " mit " N(0, 2 I). I Likelihood: L(, 1 2 ) / ( 2 ) n/2 exp ky Z k2 2 2 I Log-Likelihood: `(, 2 )= n 2 log( 2 ) 1 ky Z k2 2 2 {z } KQ-Kriterium
5 Schätzkonzept I Score-Funktion: s (, s 2(, 2 ) 2 ) = 2 Z> (y Z ) 2 n ) = ( 2 ky Z k2 ) 2 Man verifiziert leicht, dass E[s ] = E[s 2] = 0 ist. Aus den ML-Gleichungen, die sich durch Nullsetzen der Score-Funktionen ergeben, folgt: b ML = (Z > Z) 1 Z > y, 2 ML = 1 n ky Z k2.
6 Schätzkonzept I Score-Funktion (fortgeführt): Der ML-Schätzer für entspricht also dem KQ-Schätzer. Der ML-Schätzer für 2 ist verzerrt, aber asymptotisch erwartungstreu. Der Restricted Maximum Likelihood (REML) Schätzer 2 REML = 1 ky Z k2 n p ist erwartungstreu für 2.Dabeiistp die Dimension von.
7 Schätzkonzept I 2` > = 1 2 Z> Z = Cov( b 1 ) (von y 2` 2 = 1 2` 4 Z> (y Z ) 2 2` 2 = n ky Z 2` 2( 2 + ) 2 ( 2 ) 3 ) 2 = n 2 4 Der letzte Erwartungswert folgt aus ky Z k 2 = nx " 2 i 2 2 (n). i=1
8 Schätzkonzept Beispiel 3.4 (GLM) Seien y i unabh. f (y i µ i )füri =1,...,n mit µ i = h(x > i ), etwa y i Po( i )und i =exp(x > i ) (loglineares Poisson-Modell, vgl. generalisierte Regression).
9 Schätzkonzept Beispiel 3.5 (GLMM für Longitudinaldaten) Sei y i =(y i1,...,y it,...,y it ) mit bedingt unabhängigen Komponenten y it f (y it µ it )undµ it = h(z > it + w > it i). Die i sind z.b. individuenspezifische Intercepts (w it 1) mit i.i.d. Prioriverteilung i N(0, 2 ). Die Likelihood des Parameters =(, 2 )lautet Z L(, 2 )= ny i=1 t=1 TY f (y it, 2, i)p( i ) d i. Lösungsansätze für die Maximierung der Likelihood: EM-Algorithmus oder numerische Integration mit REML bzw. Bayes-Inferenz. Siehe die Vorlesungen Gemischte Modelle und Analyse Longitudinaler Daten.
10 300 EM (Expectation-Maximization)-Algorithmus Der EM-Algorithmus ist eine Alternative zu Newton-Raphson, Fisher-Scoring usw., vor allem in Modellen mit unvollständigen Daten oder latenten (nicht direkt beobachtbaren) Variablen oder Faktoren (vgl. Computerintensive Methoden).
11 301 Beispiele: I Bei einer Screening-Untersuchung werden positive Testergebnisse eines Schnelltests durch den Goldstandard geprüft, negative Testergebnisse edoch nicht. Daher ist die Verteilung der Anzahl positiver Testergebnisse aus k Tests bei den wirklich Kranken bekannt, nicht edoch die Häufigkeit von 0 positiven Testergebnissen aus k. Für die Ermittlung der Falsch-Negativrate wäre dieser nicht beobachtete Wert edoch relevant. I Die Daten stammen aus einer Mischverteilung, aus welcher Mischungskomponente ede Beobachtung stammt, ist edoch unbekannt. I Gemischte Modelle
12 302 Notation: I x beobachtbare ( unvollständige ) Daten I z unbeobachtbare Daten/latente Variablen I (x, z) vollständige Daten I L( ; x) = f (x ) Likelihood der beobachtbaren Daten I L( ; x, z) = f (x, z ) Likelihood der vollständigen Daten Der EM-Algorithmus ist insbesondere nützlich, wenn L( ; x) schwierig zu berechnen und L( ; x, z) leichterzuhandhabenist.
13 303 Intuition: `( ; x, z) = `( ; z x)+`( ; x) ) E[`( ; x, Z)] {z } Q( ; (k) ) = E[`( ; Z x)] +`( ; x), {z } C( ; (k) ) wobei der Erwartungswert E bzgl. f (Z x; (k) ) genommen wird. Es gilt C( (k) ; (k) ) C( (k+1) ; (k) ) wegen der Informationsungleichung. Daher folgt aus Q( (k+1) ; (k) ) Q( (k) ; (k) ) `( (k+1) ; x) `( (k) ; x). Vorgehen: Für gegebenes (k) maximiere Q( ; (k) )über. Neues (k+1) erhöht die Likelihood. Iteriere.
14 304 Algorithmus 1 : EM-Algorithmus Startwert: (0) I E-Schritt: Berechne Q( ) =Q( ; (0) )=E z x [`( ; x, Z) x, (0) ]. I M-Schritt: Berechne (1),sodassQ( ) maximiertwird: (1) = argmax Q( ). Iteriere E/M-Schritte: (0), (1),..., (k) bis zur Konvergenz.
15 305 Satz 3.3 Unter relativ allgemeinen Annahmen gilt (k)! b ML für k! 1. Eigenschaften des EM-Algorithmus: I Monotonie: `( (k+1) ; x) I Langsame Konvergenz. `( (k) ; x). I Der Standardfehler des resultierenden Schätzers ist schwierig zu bestimmen, die Informationsmatrix ist nicht direkt zugänglich wie beim Fisher-Scoring. Eine Alternative bietet u.a. die Bayes-Inferenz.
16 306 Beispiel 3.6 (Mischverteilungen) Seien X 1,...,X n i.i.d. wie X f (x ). Betrachte die Mischverteilung f (x ) = Dabei sind JX f (x ) mit =({ } J =1, { } J =1). (3.2) =1 I unbekannte Mischungsanteile, P J =1 = 1, I f (x )die-te Mischungskomponente, I der unbekannte Parameter(-vektor).
17 307 Speziell: Bei einer Mischung von Normalverteilungen erhalten wir 1 f (x ) / 1/2 exp 2 (x µ ) > 1 (x µ ) X 1 N(µ 1, 1 )+ 2 N(µ 2, 2 )+...+ J N(µ J, J ). Im univariaten Fall mit zwei Mischungskomponenten also: X 1 N(µ 1, 2 1)+ 2 N(µ 2, 2 2). Interpretation des Mischungsmodells (3.2): x i entstammt einer von J Subpopulationen, wobei in Subpopulation gilt: X i f (x i ).
18 308 Definiere die unbeobachtete (latente) Indikatorvariable Z i für =1,...,J durch Z i =, x i ist aus Population. Die Randverteilung sei P(Z i = ) =, =1,...,J. Dannlautet die bedingte Verteilung von x i Z i : x i Z i = f (x i ).
19 309 Die Log-Likelihood der beobachteten Daten x ist 0 1 nx JX `( ; x) = f (x i ) A, i=1 die der vollständigen Daten (x, z) =1 `( ; x, z) = = = nx log f (x i, z i ) i=1 nx log (f (x i z i ; ) f (z i )) i=1 nx (log f zi (x i zi ) + log zi ). i=1
20 310 E-Schritt: Q( ) =E z x [`( ; x, Z) x, (k) ] nx JX = p (k) 1 i {log 2 log i=1 1 2 (x i µ ) T 1 (x i µ )} wobei wir nur p (k) i = P(Z i = x i, (k) ) Bayes = (k) f (x i (k) ) P J s=1 (k) s f (x i s (k) ). für i =1,...,n, =1,...,J tatsächlich in der Praxis berechnen müssen.
21 Q( ) = nx i=1 JX M-Schritt: Berechne (k+1) µ (k+1) (k+1) p (k) i {log 1 2 log = argmax Q( ) 1. = 1 n = argmax Q( ) = 2. µ = argmax Q( ) = 3. nx i=1 nx i=1 nx i=1 p (k) i w (k) i x i 1 2 (x i µ ) T 1 (x i µ )} w (k) i (x i µ (k+1) )(x i µ (k+1) ) T mit w (k) i = p(k) i P J s=1 p(k) is. 1. folgt für J = 2 als Maximierer der binomialen Likelihood (für J > 2 braucht man Lagrange) folgt als Maximierer der gewichteten Normalverteilungslikelihood. 311
Methoden der statistischen Inferenz
Leonhard Held Methoden der statistischen Inferenz Likelihood und Bayes Unter Mitwirkung von Daniel Sabanes Bove Spektrum KJL AKADEMISCHER VERLAG Vorwort vii 1 Einführung 1 1.1 Statistische Inferenz 1 1.2
Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Fortgeschrittene Ökonometrie: Maximum Likelihood
Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,
Varianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
Vorlesung: Lineare Modelle
Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
Willkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Inferenzstatistik in Regressionsmodellen Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für
Einführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran [email protected] Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
OLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
Wahrscheinlichkeitsrechnung und Statistik
10. Vorlesung - 2018 Grundbegriffe der Statistik statistische Einheiten = Objekte an denen interessierende Größen erfaßt werden z.b. Bevölkerung einer Stadt; Schüler einer bestimmten Schule; Patienten
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
SBWL Tourismusanalyse und Freizeitmarketing
SBWL Tourismusanalyse und Freizeitmarketing Vertiefungskurs 4: Multivariate Verfahren 2 Teil 3: Mischmodelle / Modellgestützte Clusteranalyse Achim Zeileis & Thomas Rusch Institute for Statistics and Mathematics
2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme)
2. Fehlerhafte Auswahl der exogenen Variablen (Verletzung der A1-Annahme) Annahme A1: Im multiplen Regressionsmodell fehlen keine relevanten exogenen Variablen und die benutzten exogenen Variablen x 1,
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Clusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse
Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse Karlsruher Institut für Technologie Ulrich Husemann Institut für Experimentelle Kernphysik, Karlsruher Institut für Technologie
Maximum-Likelihood Schätzung
Maximum-Likelihood Schätzung VL Forschungsmethoden 1 Wiederholung Einführung: Schätzung 2 Likelihood-Schätzung und Generalisiertes Lineares Modell Zufallsverteilungen 3 Lernziele 1 Grundzüge der Likelihood-Schätzung
Schätzen und Testen I in 90 Minuten. 8. Februar 2010
Schätzen und Testen I in 90 Minuten 8. Februar 2010 1. Einführung in statistische Modelle und Inferenzkonzepte 2. Klassische Schätz- und Testtheorie 3. Likelihood-Inferenz 4. Bayes-Inferenz 5. Einführung
Nicht-kontinuierliche abhängige Variablen: Das generalisierte lineare Modell und die Parameterschätzung via Maximum Likelihood
Nicht-kontinuierliche abhängige Variablen: Das generalisierte lineare Modell und die Parameterschätzung via Maximum Likelihood Interaktionseffekte Varianz-Kovarianz-Matrix Interaktionseffekte Varianz-Kovarianz-Matrix
DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch
Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,
Statistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
Statistische Datenanalyse
Werner A. Stahel Statistische Datenanalyse Eine Einführung für Naturwissenschaftler 3., durchgesehene Auflage vieweg VII 1 Einleitung 1 1.1 Was ist Statistische Datenanalyse? 1 1.2 Ziele 6 1.3 Hinweise
Das Bayes'sche Prinzip
Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem
Optimieren unter Nebenbedingungen
Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht
Simultane Mehrgleichungssysteme: Parameterschätzung
Simultane Mehrgleichungssysteme: Parameterschätzung Stichwörter: Eigenschaften des OLS-Schätzers Hilfsvariablenschätzer 2SLS limited information Methoden 3SLS FIML full information Methoden o1-21.tex/0
Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011
Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben
Nachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!
Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:
Die Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik
1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:
Modellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
Poisson Regression. Verallgemeinerte Lineare Modelle (GLMs)
Poisson Regression Verallgemeinerte Lineare Modelle (GLMs) 28.11.2011 Poisson Regression Aus der Einführungsvorlesung Poisson-Verteilung ist in der Regel gut geeignet, um Anzahlen zu modellieren. Frage
Mehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Definition 18 (Die verallgemeinerte Pareto Verteilung (GPD)) Die standard GPD G γ : ) 1/γ. G γ,ν,β = 1 (1 + γ x ν β
Die POT Methode (Peaks over Threshold) Definition 18 (Die verallgemeinerte Pareto Verteilung (GPD)) Die standard GPD G γ : G γ (x) = { 1 (1 + γx) 1/γ für γ 0 1 exp{ x} für γ = 0 wobei x D(γ) D(γ) = { 0
ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.
Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die
Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Prof. Dr. Michael Havbro Faber 8.04.009 Inhalt der heutigen Vorlesung Auswahl einer Verteilungsfunktion: Wahrscheinlichkeitspapier pp Schätzung und Modellentwicklung:
3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur
Kap. 2: Generalisierte lineare Modelle (GLMs) Lineare und generalisierte lineare Modelle Schätzung und Inferenz in GLMs Literatur 2.1 Lineare und generalisierte lineare Modelle Das klassische lineare Regressionsmodell
Statistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)
5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte
Wahrscheinlichkeitsrechnung und schließende Statistik
Karl Mosler Friedrich Schmid Wahrscheinlichkeitsrechnung und schließende Statistik Vierte, verbesserte Auflage Springer Inhaltsverzeichnis 0 Einführung 1 1 Zufalls Vorgänge und Wahrscheinlichkeiten 5 1.1
Schätzen und Testen I
Schätzen und Testen I Wintersemester 2014/15 Skript zur Vorlesung von Sonja Greven Christian Heumann nach einer Vorlage von Christiane Fuchs (geb. Dargatz) Ludwig Fahrmeir Volker Schmid 2. Oktober 2014
Frequentisten und Bayesianer. Volker Tresp
Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben
Inhalt. 1 Motivation. 2 Das lineare gemischte Modell. 3 Likelihood-Schätzung für lineare gemischte Modelle
Inhalt 1 Motivation 2 Das lineare gemischte Modell 3 Likelihood-Schätzung für lineare gemischte Modelle Schätzung der festen und Vorhersage der zufälligen Effekte Schätzung der Kovarianzstruktur Numerische
Vorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
7. Übung: Aufgabe 1. b), c), e) Aufgabe 2. a), c), e) Aufgabe 3. c), e) Aufgabe 4. Aufgabe 5. Aufgabe 6. Aufgabe 7. Aufgabe 8. Aufgabe 9.
7. Übung: Aufgabe 1 b), c), e) Aufgabe a), c), e) Aufgabe 3 c), e) Aufgabe 4 b) Aufgabe 5 a) Aufgabe 6 b) Aufgabe 7 e) Aufgabe 8 c) Aufgabe 9 a), c), e) Aufgabe 10 b), d) Aufgabe 11 a) Aufgabe 1 b) Aufgabe
Einführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
Lösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
Inferenz im multiplen Regressionsmodell
1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall
Poisson Regression & Verallgemeinerte lineare Modelle
Poisson Regression & Verallgemeinerte lineare Modelle 20.11.2017 Motivation Ausgangslage Wir haben Anzahldaten (count data) Y i, cf. Vorlesung zu kategoriellen Variablen. Zu jeder Beobachtung Y i haben
Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk
Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC Referenten: Linda Gräfe & Konstantin Falk 1 Agenda Schätzverfahren ML REML Beispiel in SPSS Modellbeurteilung Devianz AIC BIC
Wahrscheinlichkeitsrechnung und schließende Statistik
Springer-Lehrbuch Wahrscheinlichkeitsrechnung und schließende Statistik Bearbeitet von Karl Mosler, Friedrich Schmid 4., verb. Aufl. 2010. Taschenbuch. XII, 347 S. Paperback ISBN 978 3 642 15009 8 Format
Numerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
Uwe Hassler. Statistik im. Bachelor-Studium. Eine Einführung. für Wirtschaftswissenschaftler. ^ Springer Gabler
Uwe Hassler Statistik im Bachelor-Studium Eine Einführung für Wirtschaftswissenschaftler ^ Springer Gabler 1 Einführung 1 2 Beschreibende Methoden univariater Datenanalyse 5 2.1 Grundbegriffe 5 2.2 Häufigkeitsverteilungen
X =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
Probeklausur - Statistik II, SoSe 2017
Probeklausur - Statistik II, SoSe 2017 Aufgabe 1: Mehrdimensionale Zufallsvariablen (15 Punkte) Gegeben sei ein zweidimensionaler stetiger Zufallsvektor X = (X 1, X 2 ) T mit der gemeinsamen Dichtefunktion
Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte
Hochschule RheinMain WS 2018/19 Prof. Dr. D. Lehmann Probe-Klausur zur Vorlesung Ökonometrie Theorie-Teil: Aufgaben 1-3: 30 Punkte Programmier-Teil: Aufgaben 4-9: 60 Punkte (die eigentliche Klausur wird
Statistik II. Regressionsanalyse. Statistik II
Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)
Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Statistische Inferenz bei ROC Kurven. Notation. Man unterscheidet:
Statistische Inferenz bei ROC Kurven Notation Man unterscheidet: 1. Nichtparametrische, empirische Methoden zur Berechnung der empirischen ROC Kurve 2. Parametrische Ansätze, die recht starke Annahmen
Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
