Frequentisten und Bayesianer. Volker Tresp
|
|
|
- Innozenz Schuler
- vor 7 Jahren
- Abrufe
Transkript
1 Frequentisten und Bayesianer Volker Tresp 1
2 Frequentisten 2
3 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben y i = x T i w + ɛ i Weiterhin nehmen wir an, dass das Rauschen einer Gaussverteilung folgt P (ɛ i ) = 1 ( 2πσ 2 exp 1 ) 2σ 2ɛ2 i Daraus folgt, dass P (y i x i, w) = 1 ( 2πσ 2 exp 1 ) 2σ 2(y i x T i w)2 Leichter handhabbar ist der Logarithmus dieses Ausdrucks log P (y i x i, w) = 1 2 log(2πσ2 ) 1 2σ 2(y i x T i w)2 3
4 Die Likelihood Betrachten wir nun den ganzen Datensatz, so nimmt man häufig an, dass das Rauschen unabhängig ist und man die Wahrscheinlichkeit des Datensatzes gegeben die Parameter als Produkt schreiben läßt N P (y X, w) = P (y i x i, w) i=1 Diesen Ausdruck bezeichnet man als Likelihood des Modells L(w). = P (y X, w) Entsprechend ergibt sich die Log-Likelihood zu l(w). = log L(w) Nehmen wir nun unabhängiges Gaussrauschen an, so ergibt sich l(w) = N 2 log(2πσ2 ) 1 2σ 2 N (y i x T i w)2 i=1 4
5 Der Maximum-Likelihood Schätzer Unter der Annahme von Gauss-Rauschen folgt daher, dass der Maximum Likelihood (ML) Schätzer gleich dem Least-squares-Schätzer ist ŵ ML. = arg max(l(w)) = ŵ LS 5
6 Das frequentistische Experiment Die Likelihoodfunktion ist bekannt Die Natur wählt einen wahren Parametervektor w Die Natur generiert unendlich viele Datensätze (Sticproben) D 1, D 2,... D L, L, jeder der Größe N Für jeden dieser Datensätze D i berechne ich einen Parameterschätzer ŵ i (zum Beispiel den ML-Schätzer) Man interessiert sich nun zum Beispiel, ob dieser Schätzer, gemittelt über alle Datensätze gleich dem wahren Schätzer ist lim L 1 L L i=1 ŵ i = E D (ŵ) Wenn E D (ŵ) = w, dann nennt man diesen Schätzer (unverzerrt) unbiased oder erwartungstreu 6
7 Der Bias ist definiert als Bias(ŵ) = E D (ŵ) w Ein Schätzer ist asymptotisch erwartungstreu, wenn: E N (ŵ) = w
8
9 Konsistenz Varianz eines Schätzers Erwarteter mittlerer quadratischer Fehler V ar(ŵ) = E D ( (ŵ E D (ŵ)) 2) MSE = E D ((ŵ w) 2) = V ar D (ŵ) + Bias D (ŵ) 2 MSE-Konsistenz: MSE N 0 ŵ(1) ist MSE-wirksamer als ŵ(2) falls MSE[ŵ(1)] MSE[ŵ(2)] Ein Schätzer ŵ(i) ist MSE-wirksamst, falls MSE[ŵ(i)] MSE[ŵ(j)] ŵ(j) 7
10 Eigenschaften des ML-Schätzers Einer der wichtigste Schätzer ist der Maximum-Likelihood (ML)-Schätzer. Der ML-Schätzer hat viele positive Eigenschaften, die seine Beliebtheit begründen: Der ML-Schätzer ist asymptotisch N unverzerrt (unbiased) MSE-wirksamst (efficient) unter allen asymptotisch unverzerrten Schätzern Gauss-verteilt 8
11 Verzerrtheit des ML-Schätzers bei endlichen Daten Für endliche Daten können ML-Schätzer verzerrt sein ˆσ 2 ML = 1 N N (y i x T i ŵls) 2 ) i=1 ˆσ 2 u = 1 N M 1 N (y i x T i ŵls) 2 i=1 9
12 Diskussion: ML Auch für komplexere Modelle lässt sich die (Log)-Likelihood in der Regel berechnen (Modelle mit latenten Variablen) Da Daten oft unabhängig generiert werden, ist die Log-Likelihood in der Regel eine Summe über die Anzahl der Datenpunkte l(w) = N i=1 log P (y i w) 10
13 Diskussion: ML (2) Die Notwendigkeit, das datengenerierende Modell nachzubilden, führt zu interessanten problemangepassten Modellen Nachteil: man muss annehmen, das das wahre Modell sich in der Klasse der betrachteten Modelle befindet Mit endlichen Daten führt der ML-Schätzer zum Überfitten, d.h. komplexere Modelle werden bevorzugt (siehe ERM) Die frequentistische Statistik ist stark fokussiert auf die Eigenschaften von Parametern (Signifikanz,...) Zu den Themen Hypothesentests und p-werte kann man etwas im Appendix finden 11
14 Bayesianer 12
15 Der Bayes sche Ansatz Der Bayes sche Ansatz unterscheidet sich zunächst sehr vom frequenstistischen Ansatz Der wesentliche Unterschied ist, dass auch Parameter als Zufallsvariable behandelt werden Dies bedeutet, dass der Benutzer zunächst eine a prior Annahme über die Verteilung der Parameter machen muss: P (w) Man erhält ein komplettes probabilistisches Modell P (w)p (D w) In diesem Modell muss man keine Parameter schätzen; Lernen reduziert sich auf probabilistische Inferenz 13
16 Sind Daten D gemessen worden, wird nicht ein bester Parametervektor w opt bestimmt, sondern es wir die Parameterverteilung nach der Bayes schen Regel adaptiert P (w D) = P (D w)p (w) P (D) A priori ist die Prognose P (y x) = P (w)p (y x, w)dw = P (w)p (y x, w)dx dann ist diese nach dem Empfang der Daten (a posteriori) P (y x, D) = P (w)p (D w)p (y x, w)dw P (D) = P (w D)P (y w, x)dw Anstelle von Optimierungsproblemen muss man Integrale lösen
17 Das Bayes sche Experiment Die Likelihoodfunktion ist bekannt Der Prior P (w) ist bekannt Die Natur wählt einen wahren Parametervektor w Die Natur generiert einen Datensatz der Größe N Man berechnet und wertet aus P (w D) = P (D w)p (w) P (D) 14
18
19 Lineare Regression: die Bayes sche Lösung (2) Eine typische prior Annahme ist, dass P (w) = (2πα 2 ) M/2 exp 1 2α 2 M 1 i=0 w 2 i Diese Annahme gibt kleineren Gewichten eine höhere a priori Wahrscheinlichkeit Wir werden im folgenden annehmen, dass sogenannte Hyperparameter wie die Rauschvarianz σ 2 und α 2 bekannt sind; sind diese nicht bekannt, so definiert man a priori Verteilungen über diese Größen; der Bayes sche Programm wird auf dieses Modell angewandt, d.h. es wird entsprechend komplexer Occam s Razor: einfache Erklärungen sind komplexeren Erklärungen vorzuziehen 15
20 Lineare Regression: die Bayes sche Lösung (3) Likelihood Funktion, wie zuvor P (D w) = L(w) = (2πσ 2 ) N/2 exp 1 N 2σ 2 (y i x T i w)2 i=1 16
21 Lineare Regression: die Bayes sche Lösung (4) Aus der Likelihood-Funktion, der a priori Verteilungsannahme über die Parameter läßt sich mit der Bayes schen Formel die a posteriori Verteilung über die Parameter berechnen P (w)p (D w) P (w D) = P (D) 17
22 Lineare Regression: die Bayes sche Lösung (5) P (w D) = P (w)p (D w) P (D) exp 1 2α 2 M 1 j=0 w 2 i 1 2σ 2 N (y i x T i w)2 i=1 log P (w D) = const 1 2σ 2 N (y i x T i w)2 1 2α 2 i=1 M 1 j=0 w 2 i = const N (y i x T i w)2 σ2 i=1 α 2 M 1 j=0 w 2 i 18
23 Lineare Regression: die Bayes sche Lösung (6) Somit erhalten wir für den wahrscheinlichsten Parameterwert nach Erhalt der Daten (die maximum a posteriori (MAP) Schätzung) mit λ = σ2 α 2. ŵ MAP. = arg max(p (w D)) = ŵ P en Dies bedeutet, dass trotz unterschiedlicher Herangehensweise der Frequentisten und der Bayesianer die Ergebnisse sehr ähnlich sind; die MAP Schätzung entspricht der regularisierten LS-Schätzung (Penalized Least Squares)! 19
24 Lineare Regression: die Bayes sche Lösung Wir können nun auch die gesamte Verteilung berechnen A posterior ist der Parametervektor gaussverteilt mit Mittelwert P (w D) = N (w; ŵ MAP, cov(w D)) und Varianz ŵ MAP = ) 1 (X T X + σ2 α 2I X T y ( ) 1 cov(w D) = σ 2 X T X + σ2 α 2I 20
25 Prädiktive Verteilung Man kann ebenfalls die Verteilung einer Vorhersage berechnen A posteriori P (y x, D) = P (y w, x)p (w D)dw ist gaussverteilt mit Mittelwert x T ŵ MAP und Varianz x T cov(w D)x + σ 2 Beachte, dass in der Vorhersage über alle möglichen Parameterwerte integriert wird Dies ist ein wesentlicher Vorteil des Bayes schen Ansatzes: er berücksichtigt nicht nur den wahrscheinlichsten Parameterwert sondern wertet auch die Parameterverteilung aus; dadurch können zum Beispiel auch Nebenoptima in der Lösung berücksichtigt werden! Dies ist jedoch auch ein wesentliches technisches Problem der Bayes schen Lösung: zur Prognose müssen komplex integrale gelöst, b.z.w. approximiert werden! 21
26 Lineare Regression: die Bayes sche Lösung Persönlicher Belief wird als Wahrscheinlichkeit formuliert Vorwissen kann konsistent integriert werden Konsistenter Umgang mit den verschiedenen Formen der Modellierungsunsicherheit Bayes sche Lösungen führen zu Integralen, die in der Regel nicht analytisch lösbar sind Im Folgenden werden wir spezielle Näherungen kennen lernen (Monte-Carlo Integration, Evidence Framework) Die vielleicht einfachste Näherung ist P (y x, D) = P (y w, x)p (w D)dw P (y x, w MAP ) d.h. man macht eine Punktschätzung des unbekannten Parameters und setzt dies in das Modell ein (analog zum frequentistischen Ansatz) 22
27 APPENDIX: Likelihood und Entropie Der Abstand zweier Verteilungen wird durch die relative Entropie oder die Kullack- Leibler Divergenz bestimmt D(P Q) = P (x) log P (x) Q(x) dx Dieses ist genau dann Null, wenn P = Q Die relative Entropie zwischen der wahren unbekannten Verteilung P (y) und der approximativen Verteilung P (y w) ist D(P (y) P (y w)) = P (y) log P (y) P (y w) dy Zeigen Sie, dass die ML-Lösung für N die relative Entropie minimiert Berechnen Sie die Log-Likelihood für N für die wahre Verteilung. Wie nennt man diesen Ausdruck? 23
28 Likelihood und Entropie Der Abstand zweier Verteilungen wird durch die relative Entropie oder die Kullack- Leibler Divergenz bestimmt D(P Q) = P (x) log P (x) Q(x) dx Dieses ist nur Null, wenn P = Q Die relative Entropie zwischen der wahren unbekannten Verteilung P (y) und der approximativen Verteilung P (y w) ist P (y) log P (y) dy = const P (y) log P (y w) P (y w) const 1 N N i=1 log P (y i w) = const 1 N l(w) Dies bedeutet, dass der ML-Ansatz asymptotisch N diejenige Verteilung findet, die der wahren Verteilung in Bezug auf die relative Entropie am ähnlichsten ist 24
29 Der beste Fit ist die wahre Verteilung selber, für die gilt für N 1 l(w) Entropy(Y ) N
30 APPENDIX: Hypothesentests Beispiel: ist ein Parameter von Null verschieden? Nullhypothese: H 0 : µ = 0, Alternativhypothese: H a : µ 0 Teststatistik: normierter Mittelwert z = ˆµ σ 2 /N ; Die Nullhypothese soll verworfen werden, wenn z > 2.58; dann ist die Wahrscheinlichkeit, dass die Nullhypothese verworfen wird, obwohl sie wahr ist 0.01% (Fehler erster Art). Die Wahrscheinlichkeit des Fehlers erster Art wird als α bezeichnet. Hier im Beispiel: α = 0.01 = 2 x=z 1 α/2 1 2π exp( 1 2 x2 )dx z 1 α/2 findet man in Standardtabellen Der Fehler zweiter Art ist die Annahme der Nullhypothese, obwohl die alternative Hypothese wahr ist; dieser Fehler ist häufig schwer oder unmöglich zu berechnen; Die 25
31 Wahrscheinlichkeit des Fehlers zweiter Art wird als β bezeichnet. Die Wahrscheinlichkeit, die Nullhypothese zu verwerfen, wenn sie tatsächlich falsch 1 β ist die Mächtigkeit des Tests Um einen Eindruck zu gewinnen über den Fehler 2ter Art kann man die Gütefunktion berechnen g(µ) = 1 P (H 0 wird angenommen µ). Dies gibt einen Eindruck vom Fehler 2ter Art für die möglichen Werte der Parameter der alternativen Hypothese; für einen guten Test ist die Gütefunktion nahe 1. Der p-wert ist definiert als die Wahrscheinlichkeit, unter H 0 den beobachteten Prüfwert z zu erhalten. Im Beispiel ist der p-wert das α, für welches z = z 1 α/2
32
33
Frequentistische Statistik und Bayessche Statistik. Volker Tresp
Frequentistische Statistik und Bayessche Statistik Volker Tresp 1 Frequentistische Statistik 2 Herangehensweise Die Naturwissenschaft versucht es, der Natur Gesetzmäßigkeiten zu entringen: F = ma Gesetze
Varianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
Die Datenmatrix für Überwachtes Lernen
Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x
Modellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
Einführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran [email protected] Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
Statistik I für Betriebswirte Vorlesung 13
Statistik I für Betriebswirte Vorlesung 13 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 4. Juli 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung
Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................
Allgemeines zu Tests. Statistische Hypothesentests
Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer
Lösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
Wichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)
Prof. Dr. M. Maathuis ETH Zürich Winter 2010 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe
Fortgeschrittene Ökonometrie: Maximum Likelihood
Universität Regensburg, Lehrstuhl für Ökonometrie Sommersemester 202 Fortgeschrittene Ökonometrie: Maximum Likelihood Poissonverteilung Man betrachte die poisson-verteilten Zufallsvariablen y t, t =, 2,...,
Lineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
Schätzung von Parametern
Schätzung von Parametern Schätzung von Parametern Quantitative Wissenschaft: Messung von Parametern Gemessene Werte weichen durch (statistische und systematische) Messfehler vom wahren Wert des Parameters
Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer Musterlösung
Dr. L. Meier Statistik und Wahrscheinlichkeitsrechnung Sommer 014 Musterlösung 1. 8 Punkte) a) 1 Pt)Für das Komplement gilt PR A) = 1 PR c A) = 0.968. b) 1 Pt)Nach Definition der bedingten Wahrscheinlichkeit
Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011
Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben
4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60
WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
Die Stochastischen Eigenschaften von OLS
Die Stochastischen Eigenschaften von OLS Das Bivariate Modell Thushyanthan Baskaran [email protected] Alfred Weber Institut Ruprecht Karls Universität Heidelberg Wiederholung
So berechnen Sie einen Schätzer für einen Punkt
htw saar 1 EINFÜHRUNG IN DIE STATISTIK: SCHÄTZEN UND TESTEN htw saar 2 Schätzen: Einführung Ziel der Statistik ist es, aus den Beobachtungen eines Merkmales in einer Stichprobe Rückschlüsse über die Verteilung
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood
Anpassungsrechnungen mit kleinsten Quadraten und Maximum Likelihood Hauptseminar - Methoden der experimentellen Teilchenphysik WS 2011/2012 Fabian Hoffmann 2. Dezember 2011 Inhaltsverzeichnis 1 Einleitung
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
OLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
Mathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch
Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,
Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
Bayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft
Prof. Dr. Marc Gürtler WS 015/016 Prof. Dr. Marc Gürtler Klausur zur 10/1 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Lösungsskizze Prof. Dr. Marc Gürtler WS 015/016 Aufgabe 1: (11+5+1+8=56
Statistik II. Version A. 1. Klausur Sommersemester 2011 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik II Version A 1. Klausur Sommersemester 2011 Hamburg, 27.07.2011 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................
x t2 y t = 160, y = 8, y y = 3400 t=1
Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =
Statistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
4.1 Stichproben, Verteilungen und Schätzwerte. N(t) = N 0 e λt, (4.1)
Kapitel 4 Stichproben und Schätzungen 4.1 Stichproben, Verteilungen und Schätzwerte Eine physikalische Messung ist eine endliche Stichprobe aus einer Grundgesamtheit, die endlich oder unendlich sein kann.
Statistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
Proxies, Endogenität, Instrumentvariablenschätzung
1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes
Statistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
Lineare Regression. Kapitel Regressionsgerade
Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell
Gauß-Prozess-Regression
Bayessche Regression und Gaußprozesse Dr. rer. nat. Johannes Riesterer Motivation Kriging Der südafrikanische Bergbauingenieur Danie Krige versuchte 1951, eine optimale Interpolationsmethode für den Bergbau
Bayessche Lineare Regression
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.
Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
ML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.
Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die
3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne
Statistisches Testen
Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall
DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
Wahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Statistische Methoden der Datenanalyse. Übung XI
Albert-Ludwigs-Universität Freiburg Wintersemester 203/204 Statistische Methoden der Datenanalyse Markus Schumacher, Stan Lai, Florian Kiss Übung XI 2..204, 22..204 Anwesenheitsaufgaben Aufgabe 53 Vergleich
Vorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression
Überblic Grundonepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münwürfe Lineare Regression Logistische Regression Bayes sche Vorhersage Münwürfe Lineare Regression 14 Modell für Münwürfe
Die Momentenmethode. Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare
17.1.3 Die Momentenmethode Vorteil: Oft einfach anwendbar. Nachteil: Güte kann nur schwer allgemein beurteilt werden; liefert zum Teil unbrauchbare Lösungen. Sei ϑ = (ϑ 1,...,ϑ s ) der unbekannte, s-dimensionale
Wie liest man Konfidenzintervalle? Teil II. Premiu m
Wie liest man Konfidenzintervalle? Teil II Premiu m - Hintergrund Anderer Wahrscheinlichkeitsbegriff subjektiver Wahrscheinlichkeitsbegriff Beispiel: Was ist die Wahrscheinlichkeit dafür, dass ein Patient
2 Aufgaben aus [Teschl, Band 2]
20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:
Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:
Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen
Stochastik Serie 11. ETH Zürich HS 2018
ETH Zürich HS 208 RW, D-MATL, D-MAVT Prof. Marloes Maathuis Koordinator Dr. Marvin Müller Stochastik Serie. Diese Aufgabe behandelt verschiedene Themenbereiche aus dem gesamten bisherigen Vorlesungsmaterial.
Beispiel für Gütefunktionen Rechtsseitiger Test (µ 0 = 500) zum Signifikanzniveau α = 0.10
6 Hypothesentests Gauß-Test für den Mittelwert bei bekannter Varianz 6.3 Beispiel für Gütefunktionen Rechtsseitiger Test (µ 0 = 500) zum Signifikanzniveau α = 0.10 G(µ) 0 α 0. 0.4 0.6 0.8 1 n = 10 n =
Bayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
Bayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161
Bayesianische Modellwahl Helga Wagner Bayes Statistik WS 2010/11 161 Modellwahl Problem der Modellwahl: Welches von K möglichen Modellen M 1,...,M K ist für die Daten y am besten geeignet? Klassisch: LQ-Test
Aufgaben. d) Seien X und Y Poissonverteilt mit Parameter µ, X, Y P(µ). 2. Dann ist die Summe auch Poissonverteilt mit (X + Y ) P(2µ).
Aufgaben 1. Bei den folgenden 10 Fragen ist jeweils genau eine Antwort richtig. Es gibt pro richtig beantwortete Frage 1 Punkt und pro falsche Antwort 1/2 Punkt Abzug. Minimal erhält man für die gesamte
Probeklausur - Statistik II, SoSe 2017
Probeklausur - Statistik II, SoSe 2017 Aufgabe 1: Mehrdimensionale Zufallsvariablen (15 Punkte) Gegeben sei ein zweidimensionaler stetiger Zufallsvektor X = (X 1, X 2 ) T mit der gemeinsamen Dichtefunktion
1 Gemischte Lineare Modelle
1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst
y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.
Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf
Maximum-Likelihood Schätzung
Maximum-Likelihood Schätzung VL Forschungsmethoden 1 Wiederholung Einführung: Schätzung 2 Likelihood-Schätzung und Generalisiertes Lineares Modell Zufallsverteilungen 3 Lernziele 1 Grundzüge der Likelihood-Schätzung
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
Wahrscheinlichkeit und Statistik BSc D-INFK
Prof. Dr. M. Schweizer ETH Zürich Sommer 4 Wahrscheinlichkeit und Statistik BSc D-INFK. a (iii b (ii c (iii d (i e (ii f (i g (iii h (iii i (i j (ii. a Die Anzahl der bestellten Weine in einem Monat kann
Numerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate
Multivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
Teekonsum in den USA (in 1000 Tonnen), Nimmt den Wert 1 an für alle Perioden, Durchschnittlicher Preis des Tees in Periode t (in Tausend $/Tonne).
Aufgabe 1 (5 Punkte) Gegeben sei ein lineares Regressionsmodell in der Form. Dabei ist y t = x t1 β 1 + x t β + e t, t = 1,..., 10 (1) y t : x t1 : x t : Teekonsum in den USA (in 1000 Tonnen), Nimmt den
Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe
Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,
Mathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen
Kapitel 8 Schätzung von Parametern 8.1 Schätzmethoden Gegeben seien Beobachtungen Ü Ü ¾ Ü Ò die wir als Realisationen von unabhängig und identisch verteilten Zufallsvariablen ¾ Ò auffassen. Die Verteilung
