Statistik, Datenanalyse und Simulation

Ähnliche Dokumente
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood

4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1)

Schätzung von Parametern

Numerische Methoden und Algorithmen in der Physik

Institut für Stochastik Prof. Dr. N. Henze Dipl.-Math. V. Riess

Computergestützte Datenanalyse in der Kern- und Teilchenphysik

Statistics, Data Analysis, and Simulation SS 2017

Wichtige Definitionen und Aussagen

Statistics, Data Analysis, and Simulation SS 2017

Mathematik für Biologen

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Statistik und Datenanalyse (Handout zum Seminarvortrag von Norman Bhatti, gehalten am )

DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr

6. Schätzverfahren für Parameter

Kapitel 3 Schließende Statistik

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Vorlesung: Statistik II für Wirtschaftswissenschaft

Statistik - Fehlerrechnung - Auswertung von Messungen

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse

Parameteranpassung mit kleinsten Quadraten und Maximum Likelihood

Statistik. R. Frühwirth Teil 1: Deskriptive Statistik. Statistik. Einleitung Grundbegriffe Merkmal- und Skalentypen Aussagen und

Inhaltsverzeichnis. 4 Statistik Einleitung Wahrscheinlichkeit Verteilungen Grundbegriffe 98

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Vorlesung Stetige Verteilungen / Mathematische Behandlung

Die Maximum-Likelihood-Methode

7.2 Moment und Varianz

Wahrscheinlichkeit und Statistik: Zusammenfassung

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Statistische Grundlagen

Statistik, Datenanalyse und Simulation

1.3 Wiederholung der Konvergenzkonzepte

Statistik II für Wirtschaftswissenschaftler

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom

Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:

Übungen mit dem Applet Wahrscheinlichkeitsnetz

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Moderne Methoden der Datenverarbeitung in der Physik I

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die (induktive) Statistik

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

Biostatistik, Sommer 2017

Stetige Verteilungen Rechteckverteilung

Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare

Mathematik für Naturwissenschaften, Teil 2

2.3 Intervallschätzung

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

7.5 Erwartungswert, Varianz

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

Statistik Einführung // Stichprobenverteilung 6 p.2/26

Der Erwartungswert E[g(X)] von g(x) ist definiert. g(x k )w(x = x k ),

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Schätzer und Konfidenzintervalle

Einführung in die Maximum Likelihood Methodik

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Einführung in die wissenschaftliche Datenanalyse

Mathematik für Biologen

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

Klassifikation von Daten Einleitung

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung

Willkommen zur Vorlesung Statistik (Master)

Verteilungen mehrerer Variablen

Statistik, Datenanalyse und Simulation

Diskrete Wahrscheinlichkeitstheorie

OLS-Schätzung: asymptotische Eigenschaften

Willkommen zur Vorlesung Statistik (Master)

Auswertung von Messungen Teil II

= = = 3 10 = = 33

1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler

Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch

b) Bestimmen Sie die Varianz der beiden Schätzer. c) Ist ein oder sind beide Schätzer konsistent? Begründen Sie!

Philipp Sibbertsen Hartmut Lehne. Statistik. Einführung für Wirtschafts- und. Sozialwissenschaftler. 2., überarbeitete Auflage. 4^ Springer Gabler

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Aufgabe Punkte

4. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

Zufallsvariablen [random variable]

Wie sch atzt man effizient?

Korollar 116 (Grenzwertsatz von de Moivre)

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Vorlesung: Statistik II für Wirtschaftswissenschaft

Wahrscheinlichkeitstheorie und Statistik vom

Statistik - Fehlerrechnung - Auswertung von Messungen

3 Statistische Schätzungen

Wahrscheinlichkeiten. Verteilungen

Willkommen zur Vorlesung Statistik (Master)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review)

2.3 Intervallschätzung

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Forschungsstatistik I

Statistik I für Betriebswirte Vorlesung 13

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

2. Formulieren von Hypothesen. Nullhypothese: H 0 : µ = 0 Gerät exakt geeicht

Spezielle Verteilungen

Statistik I für Betriebswirte Vorlesung 14

Einführung in die Induktive Statistik: Testen von Hypothesen

Normalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.

Transkript:

Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 24. Mai 2011

3. Schätzung von Parametern Problemstellung: Aus fehlerbehafteten Messungen möglichst genaue Ergebnisse erarbeiten zusammen mit Aussagen über Zuverlässigkeit und Grenzen. Vorsicht: Messungen unterliegen einer Reihe von unkontrollierbaren Einflüssen, welche zufällig genannt werden - sie sind also mit statistischen Fehlern versehen. Daneben gibt es aber noch systematische Fehler, die durch eine fehlerhafte Methode hervorgerufen werden, etwa durch falsche Messinstrumente oder falsche Formeln bei der Auswertung. Systematische Fehler müssen anders behandelt werden als statistische Fehler. So können sie auch durch Mittelung über mehrere Messungen nicht reduziert werden.

Schätzung von Parametern Formal: Messung von n unabhängigen Werten x 1, x 2,..., x n der Zufallsvariablen x bzw. x. (Stichprobe) Aufgabe: Beste Schätzung eines (mehrerer) Parameter. Diese Schätzung ist selbst auch eine Zufallsvariable. Deshalb sollen auch Aussagen über Fehler und Korrelationskoeffizienten gemacht werden. Allgemeine Kriterien für eine Methode zur Bestimmung von Parametern mit Schätzwert â und wahrem Wert a 0 : 1 Konsistenz: lim n â = a 0. 2 Erwartungstreue: E[â] = a 0. 3 Effizienz: Varianz von â klein. 4 Robustheit gegenüber falschen Daten und Voraussetzungen. Wobei die letzten beiden Kriterien häufig im Widerspruch sind.

3.1 Robuste Schätzung von Mittelwerten n x = 1 n i=1 x i Konsistenz? ok (Zentraler Grenzwertsatz) Erwartungstreue? ok E[ˆx] = 1 n n i=1 E[x i] =< x >. Effizienz? Robustheit?

Mittelwert einer symmetrischen Verteilung Für symmetrische Verteilungen (die keine Gauß-Verteilungen sind) ist das Stichprobenmittel weder effizient noch robust. Wahrscheinlichkeitsdichte p(x) 0.5 0.45 0.4 0.35 0.3 0.25 0.2 0.15 0.1 0.05 0 4 2 0 2 4 Zufallsvariable x f(x) g(x) h(x) 1 x 2 +1 Breit-Wigner-Verteilung: f (x) = 1 π Gauß-Verteilung: g(x) = 1 e x 2 /2 2π Doppelt-Exponentiell: h(x) = 1 2 e x

Mittelwert einer symmetrischen Verteilung Besser: Getrimmter Mittelwert (Mittelwert mit Abschneiden) Weglassen der (1 2r)n/2 größten und kleinsten Messwerte einer Stichprobe. Grenzfälle: r = 0,5: Mittelwert r 0: Median. Für eine unbekannte sym. Verteilung liefert r = 0,23 das robustete Verfahren mit einer Effizienz von 82%.

Mittelwert einer Gleichverteilung Die genaueste Schätzung ist gegeben durch: x = ˇx + ˆx 2 mit ˇx (ˆx) kleinster (größter) Wert der Stichprobe. 1800 0.1 1600 0.01 1400 0.001 1200 0.0001 Häufigkeit 1000 800 600 absoluter Fehler 1e 05 1e 06 1e 07 400 1e 08 200 1e 09 0 0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 Mittelwert der Stichprobe 1e 10 10 100 1000 10000 100000 1e+06 1e+07 1e+08 Größe der Stichprobe Die beste Schätzung liefert die bessere Varianz, die wie (1/n) 2 (statt (1/ n) 2 ) gegen Null geht.

3.2 Die Maximum-Likelihood-Methode Stichprobe von n Werten x i. Zugrunde liegende Wahrscheinlichkeitsdichte f (x a) sei bekannt und normiert f (x a) dx = 1. Likelihood-Funktion: L(a) = f (x 1 a) f (x 2 a)... f (x n a) = n f (x i a) Die beste Schätzung für â entspricht dem Maximum der Likelihood-Funktion. Maximum wie üblich durch Ableiten und Nullsetzen: i=1 dl(a) da oder L(a k ) a k für alle k

Die Maximum-Likelihood-Methode In der Praxis meist Logarithmus der Likelihood-Funktion l(a) = ln L(a) bzw. negativer Logarithmus: F(a) = l(a) = n ln f (x i a) i=1 Natürlich muss F(a) minimiert werden. negative Log-Likelihood-Funktion

Die Maximum-Likelihood-Methode Beispiel: Die Zerfallswinkelverteilung eins bestimmten Teilchens möge durch die folgende Wahrscheinlichkeitsdichte gegeben sein: f (x a) = 1 (1 + ax) 2 mit x = cos θ Angenommen, n Werte x i = cos θ i (θ i = Zerfallswinkel) sind gemessen worden. Die Aufgabe besteht darin, die beste Schätzung â des Zerfallsparameters a zu finden, welcher das Teilchen charakterisiert. Die Wahrscheinlichkeitsdichte ist für Werte 1 x +1 bereits richtig normiert, und kann so direkt in der negativen Log-Likelihood-Funktion verwendet werden: F(a) = n ln 1 2 (1 + ax i) i=1

Die Maximum-Likelihood-Methode