Die Maximum-Likelihood-Methode

Ähnliche Dokumente
Statistik und Wahrscheinlichkeitsrechnung

Numerische Methoden und Algorithmen in der Physik

Klassifikation von Daten Einleitung

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

diskrete und kontinuierliche Verteilungen

Statistik, Datenanalyse und Simulation

die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen

Mathematik für Biologen

VL 08: Testen von Hypothesen

5. Spezielle stetige Verteilungen

Grundlagen der Statistik und Fehlerrechnung

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

3.1 Punktschätzer für Mittelwert µ und Varianz σ 2. Messungen x 1,..., x N, die unabhängig voneinander auf gleiche Weise gewonnen worden sind

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Programm. Wiederholung. Gleichverteilung Diskrete Gleichverteilung Stetige Gleichverteilung. Binomialverteilung. Hypergeometrische Verteilung

Clusteranalyse: Gauß sche Mischmodelle

Logistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios

Methode der kleinsten Quadrate

Rechnernutzung in der Physik

Wahrscheinlichkeitsrechnung und Statistik für Biologen Wiederholung: Verteilungen

1 Gemischte Lineare Modelle

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Wahrscheinlichkeitsrechnung und Statistik für Biologen Spezielle Verteilungen

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

Schätzverfahren ML vs. REML & Modellbeurteilung mittels Devianz, AIC und BIC. Referenten: Linda Gräfe & Konstantin Falk

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und


Kapitel V - Erwartungstreue Schätzfunktionen

Mathematische und statistische Methoden II

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Das Histogramm ist glockenförmig. Es würde bei mehr als vier Fehlerquellen sich der Glockenform noch besser annähern.

Fehlerfortpflanzung. M. Schlup. 27. Mai 2011

7.5 Erwartungswert, Varianz

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Einführungsseminar S1 Elemente der Fehlerrechnung. Physikalisches Praktikum der Fakultät für Physik und Astronomie Ruhr-Universität Bochum

Statistik II für Betriebswirte Vorlesung 12

1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Mathematik für Naturwissenschaften, Teil 2

Anleitung: Standardabweichung

Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models

Fehler- und Ausgleichsrechnung

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Motivation. Benötigtes Schulwissen. Übungsaufgaben. Wirtschaftswissenschaftliches Zentrum 10 Universität Basel. Statistik

Exponentialverteilung

Wahrscheinlichkeitstheorie und Statistik vom

Stochastik I. Vorlesungsmitschrift

Grundlegende Eigenschaften von Punktschätzern

Einführung in die Statistik

Statistik und Wahrscheinlichkeitsrechnung

I. Zahlen, Rechenregeln & Kombinatorik

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Einführung in die Maximum Likelihood Methodik

4 Statistik der Extremwertverteilungen

Signalverarbeitung 2. Volker Stahl - 1 -

Klausur (Modulprüfung) zum Lehrerweiterbildungskurs Stochastik am von 10:00 bis 11:00 Uhr

Lösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 3: Aufgaben zu den Kapiteln 5 und 6

Standardnormalverteilung

Kapitel XIII - p-wert und Beziehung zwischen Tests und Konfidenzintervallen

Das Bayes'sche Prinzip

3 Grundlagen statistischer Tests (Kap. 8 IS)

Schätzer und Konfidenzintervalle

Einführung in die Fehlerrechnung und Messdatenauswertung

Wintersemester 2015/16

Statistik, Datenanalyse und Simulation

Einführung in die (induktive) Statistik

2 Aufgaben aus [Teschl, Band 2]

Mathematik für Biologen

Mathematik IV für Maschinenbau und Informatik (Stochastik) Universität Rostock, Institut für Mathematik Sommersemester 2007

3. Kombinatorik und Wahrscheinlichkeit

Zufallsvariablen [random variable]

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

10. Vorlesung. Grundlagen in Statistik. Seite 291. Martin-Luther-Universität Halle/Wittenberg

Überbestimmte lineare Gleichungssysteme

Mathematik für Ingenieure und Naturwissenschaftler BandS

Klausur zu Statistik II

Stetige Verteilungen Rechteckverteilung

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Willkommen zur Vorlesung Statistik (Master)

Einführung in die biologische Datenanalyse mit Matlab SS 2009 Tag8

Prüfungsteil 2, Aufgabe 8 Stochastik

Ökonometrie. Hans Schneeweiß. 3., durchgesehene Auflage. Physica-Verlag Würzburg-Wien 1978 ISBN

Statistik - Fehlerrechnung - Auswertung von Messungen

1 Dichte- und Verteilungsfunktion

Zweiseitiger Test für den unbekannten Mittelwert µ einer Normalverteilung bei unbekannter Varianz

Einführung in die Wahrscheinlichkeitsrechnung

F7: Statistik und Radioaktivität

Schließende Statistik

Statistische Methoden der Datenanalyse

Statistics, Data Analysis, and Simulation SS 2015

Glossar Biometrie / Statistik. Auszug für Fragebogen Fallzahlberechnung/-begründung

Messunsicherheit und Fehlerrechnung

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

11 Untermannigfaltigkeiten des R n und lokale Extrema mit Nebenbedingungen

Transkript:

Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu

Kleinste Quadrate & Maximum Likelihood Zwei Möglichkeiten, die am besten zur Messung passende Verteilung zu finden: kleinster Abstand Messung Erwartungswert Minimiere Abstand vom Sollwert Messung Maximale Wahrscheinlichkeit Maximiere Höhe der pdf Likelihood-Methode Beide Methoden bevorzugen in diesem Beispiel die durchgezogene Verteilung

Likelihood-Methode Mehrere unabhängige Messgrößen x i, i =1,, n einer Größe folgen einer Verteilungsdichte p(x,a) mit Parametern a i. Als Verteilungsdichte ist p(x;a) positiv und normiert (bzgl. x, aber nicht bzgl. a!) Beispiel von 7 Messungen und Likelihood bzgl. zweier Verteilungen Skript likelihood-pdf.py Likelihood ist das Produkt der Wahrscheinlichkeiten p(x i a) aller Messungen

[** Anmerkung Likelihood-Methode ] Mit Hilfe der Likelihood-Methode können neben der Parameterabhängigkeit auch verschiedene Verteilungen verglichen werden: Wichtig für Hypothesentests

Maximum Likelihood-Prinzip Likelihood-Funktion: Produkt der Werte der Wahrscheinlichkeitsdichte, P i, für n unabhängige Messungen x i : hängt nur noch von den Parametern a ab! Maximum-Likelihood-Prinzip: Der beste Schätzwert für den Parametervektor der die Likelihood-Funktion maximiert ist derjenige,

Anmerkungen zur Likelihood-Methode Maximum Likelihood (ML) Eingeführt von Sir Ronald A. Fisher 1912 zur bestmöglichen Schätzung von Parametern von Verteilungen aus Stichproben engl. likelihood = Wahrscheinlichkeit (ähnlich probability ); im Deutschen wird der Begriff Likelihood übernommen Basis der mathematischen Statistik ( Fisher-Information) sehr universell einsetzbare Methode ( ältere Methode der kleinsten Quadrate ist Spezialfall) Likelihood ist eine zentrale Größe in der klassischen (frequentistischen) und in der Bayes'schen Statistik erlaubt die Schätzung von Konfidenzintervallen für Parameterwerte Für gegebene Stichprobenwerte x i aus einer zu Grunde liegenden Verteilungsdichte f ist die Likelihood-Funktion eine Funktion der Modellparameter: (L lebt im Parameterraum)

Maximum Likelihood in der Praxis Technische und theoretische Gründe: Minimiere den negativen Logarithmus der Likelihood-Funktion: Likelihood-Gleichung definiert Schätzwert(e)

Beispiel: Likelihood der Gaußverteilung = χ 2! const. bzgl. a Für Gauß-förmig um f(x i, a) verteilte Messungen y i ist χ 2 äquivalent zu lnl Ist f(x i, a) zusätzlich eine lineare Funktion der Parameter a = (a i ), dann ist lnl (a i y i ) ( und χ 2 (a i, y i ) ) eine Parabel Näherungsweise kann lnl (a i y i ) in der Nähe des Minimums häufig durch eine Parabel approximiert werden!

Beispiel: Likelihood beim Münzwurf Erinnerung: Binomialverteilung beim Wurf einer Münze: Skript nllcoin.py relative Häufigkeit des Auftretens des Ergebnisses Kopf Für einige der Ergebnisse aus der Reihe von Münzwürfen oben ist nebenan die jeweilige Likelihood-Funktion gezeigt: ist eine Funktion des Parameters p für gegebene Beobachtung (N, k ) Mit zunehmender Zahl an Würfen wird der Parameter p durch die Likelihood-Funktion immer genauer eingegrenzt

Parameterunsicherheiten mit Hilfe der Likelihood-Funktion

Maximum-Likelihood: Prameterunsicherheiten Parabel aus Krümmung am Minimum F(a) näherungsweise quadratisch um das Minimum; ±1σ ±1σ - Intervall (=68%) aus ΔF = 0.5 1. Ableitung näherungsweise linear, =0 am Minimum 2. Ableitung ~ konstant Varianz 1 / Krümmung 1/σ 2 2 F / a 2 bei mehreren Parametern a i : (cov-1) ij 2 F / a i a j Typischer Verlauf einer negativen log-likelihood- Funktion und ihrer 1. und 2. Ableitungen Mathematisch exakt: die angegebenen Fehlerabschätzungen sind Untergrenzen Nur für Parabel-förmigen Verlauf von F(a) sind die beiden Fehlerdefinitionen äquivalent

Prameterunsicherheiten (2) Plausibilitätserklärung (kein Beweis, Stichwort Cramer-Rao-Frechet Grenze ) nur ein Parameter a, betrachten Taylor-Entwicklung von F(a) um Minimum: näherungsweise parabelförmig Likelihood = exp(-f(a)) als Verteilungsdichte in a auffassen: ist Gauß-Verteilung (mit Normierungsfaktor A) Standardabweichung gegeben durch weiter gilt mit dieser Beziehung für σ:

Einschub: Parabel-Eigenschaften allg. Darstellung einer Parabel Wenn F(a) eine negative Log-Likelihood Funktion ist, dann ist

Prameterunsicherheiten (3) zur Fehlerbestimmung aus F(a): Log-Likelihood- Differenz bestimmt Fehler. Vorteil dieser Methode: invariant unter Variablentransformation a a'(a): F(a) F(â) = F( a'(a) ) F( a'(â) ) Das so bestimme Unsicherheitsintervall entspricht 1σ einer Gaußverteilung (68% Konfidenz-Intervall) Fehlerbestimmung: Δ (-ln L) Δχ 2 1σ 0.5 1 2σ 2.0 4 3σ 4.5 9 n σ n2/2 n2 Wichtig, wenn ln L nicht parabelförmig in der Nähe des Minimums: Angabe eines asymmetrischen Fehlerintervalls

Übersicht: Methoden zur Bestimmung der Unsicherheiten Lineare Probleme mit gaußförmigen Unsicherheiten: - analytische Lösung möglich (χ 2 -Minimierung) - Position des Minimums gegeben durch Linearkombination der Messwerte: - Varianz der Parameterschätzung durch Fehlerfortpflanzung: Nicht- lineare Probleme oder andere als gaußförmige Unsicherheiten: - Likelihood-Analyse: Ausnutzen der Cramer-Rao-Frechet-Grenze: 2. Ableitungen am Minimum: Nicht-lineare Probleme - Scan der (Profil-) Likelihood in der mit nicht-parabolischer Nähe des Minimums Likelihood am Minimum: (für Grenzfall hoher Statistik) Bei Unklarheit oder sehr kleiner Statistik: Monte-Carlo-Studie: Anpassung an viele der Genauigkeit und Verteilung der Daten entsprechende Stichproben, Verteilungen der Parameter studieren. Achtung: nur die letzten beiden Methoden liefern Konfidenz-Intervalle (z. B. 1σ 68%)