Das Bayes'sche Prinzip
|
|
|
- Arwed Jaeger
- vor 9 Jahren
- Abrufe
Transkript
1 Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem Seminar konzentrieren wir uns auf die schliessende Statistik. Die schliessende Statistik verwendet die Realisierungen von Zufallsvariablem um damit Rückschlüsse auf die entsprechenden Verteilungen zu machen. Die unbekannte Verteilung ist bekannt bis auf einen Parameter θ. Denition 1.1. Ein parametrisches statistisches Modell besteht aus einer Realisierung einer Zufallsariablen x, mit Verteilungsdichte f(x θ), wobei θ unbekannt ist und zu einem Vektorraum Θ gehöhrt. Typischerweise gilt Θ R p. Bemerkung. Wir gehen immer davon aus, dass die betrachteten Verteilungen absolutstetig sind in Bezug auf ein xes Referenzmass µ auf dem Stichprobenraum. Ist der Stichprobenraum gleich R n, so wählen wir für µ meist das Lebesguemass, ist der Stichprobenraum hingegen diskret, so wählen wir das Zählmass. 1.2 Bayes'sches statistisches Modell Wir nehmen nun an, dass ein parametrisches Modell gegeben ist und möchten auf Grund von vorliegenden Daten/Experimenten Informationen über den Parameter erhalten. Die einfachste Möglichkeit dafür ist die Likelihood Funktion. Denition 1.2. Sei ein parametrisches statistisches Modell mit Dichten f(x θ) gegeben. Die Likelihood Funktion ist deniert als l(θ x) := f(x θ). Intuitiv könnte man die Likelihood Funktion l(θ x) als die Wahrscheinlichkeit interpretieren, dass θ der wahre Parameter ist, falls man die Daten x kennt. Im allgemeinen ist jedoch l(θ, x) nicht integrabel, geschweige denn l(θ, x)dθ = 1. 1
2 Die Basis für das Bayes'sche Modell ist die Bayes Formel, die wir in der ersten Stunde bereits kennen gelernt haben. Die stetige Version davon lautet wie folgt: Lemma 1. Seien x, y Zufallsvariablen, wobei die Randverteilung von y durch g(y) und die Verteilung von x gegeben y durch f(x y) beschrieben sei. Dann hat die bedingte Verteilung von y gegeben x die Dichte g(y x) = f(x y)g(y) f(x y)g(y)dy. Denition 1.3. Ein Bayes'sches statistisches Modell ist ein parametrisches Modell f(x θ) mit einer Wahrscheinlichkeitsverteilung auf dem Parameterraum, die wir a priori Verteilung nennen. Wir nehmen an, dass die a priori Verteilung absolutstetig ist mit Dichte π(θ). 1.3 A Posteriori Verteilung Sei ein Bayes'sches statistisches Modell f(x θ) mit einer a priori Verteilung π(θ) gegeben. Die a posteriori Verteilung erhalten wir durch Einsetzen von π an der Stelle von g in Lemma 1: π(θ x) = f(x θ)π(θ) f(x θ)π(θ)dθ. Bemerkung. 1. Beachte, dass π(θ x) proportional zur Likelihood Funktion multipliziert mit der a priori Verteilung ist. 2. Mit der a posteriori Verteilung kann man Punktschätzer, Prognosen, Vertrauensintervalle und allgemeiner statistische Verfahren denieren. Darauf möchten wir im nächten Abschnitt genauer eingehen. 1.4 Bayes'sches Prinzip Das Bayes'sche Prinzip ist das Arbeiten mit der a posteriori Verteilung, insbesondere das Denieren statistischer Verfahren, die nur von der a posteriori Verteilung abhängen. Wir geben in den folgenden Paragraphen eine kurze Erklärung von Prognosen und vom Bayes Verfahren. Letzeres wird im Vortrag über Entscheidungstheorie ausführlicher behandelt. Prognosen Mit der a posteriori Verteilung können wir Prognosen berechnen. Sei also eine Zufallsvariable y mit der Verteilung g(y θ, x) gegeben. Dann gilt g(y x) = g(y θ, x)π(θ x)dθ. Weil die Prognose g(y x) nur von der a posteriori Verteilung abhängt, ist sie ein Beispiel für das Bayes'sche Prinzip. 2
3 Bayes Verfahren Sei X = R n ein Stichprobenraum, A ein Aktionsraum und d : X A ein statistisches Verfahren. Wir denieren eine Verlustfunktion L : Θ A R, das Risiko R(θ, d) := L(θ, d(x))f(x θ)dx des Verfahrens bei wahrem Parameter θ, und schliesslich das über alle θ gemittelte Risiko X r(π, θ) = R(θ, d)π(dθ). Ein Bayes Verfahren ist nun ein Abbildung d, welche Θ das gemittelte Risiko r, auch Bayes Risiko genannt, minimiert. Dank Satz 2.1 aus [2] gilt dann d(x) = argmin a E[L(θ, a) x], falls das Minimum existiert. Damit ist das Bayes Verfahren nur von der a posteriori Verteilung abhängig. Setzt man A = Θ = R, so ist das Verfahren d ein Punktschätzer. Man kann zeigen, dass für quadratischen Verlust L(θ, a) = (θ a) 2 der Punktschätzer d(x) = E[θ x], auch Posterior Mean genannt, resultiert. Das folgende Beispiel soll die Idee der a posteriori Verteilung und der Prognose konkretsieren. Beispiel 1. Wir betrachten das Interval [, 1] und wählen in einem ersten Schritt mit einer a priori Verteilung π einen Punkt darin aus, den wir θ nennen. Weil wir keine weiteren Informationen haben, nehmen wir die Gleichverteilung als a priori Verteilung an. In einem zweiten Schritt wählen wir, ebenfalls mit der Gleichverteilung, zufällig n Punkte in [, 1] aus. Die Anzahl Punkte X links von θ ist dann Bin(n, θ)-verteilt. Wir erhalten also mit der a priori Verteilungsdichte π(θ) 1 ( ) n f(x θ) := P (X = x θ) = θ x (1 θ) n x x ( n ) x θ x (1 θ) n x π(θ x) = ( n ) x θx (1 θ) n x dθ = θ x (1 θ) n x Beta(x + 1, n x + 1), wobei wir folgende Identität benutzt haben t l (1 t) m dt = Γ(l + 1)Γ(m + 1) Γ(l + m + 2) = Beta(l + 1, m + 1). Wir gehen davon aus, dass wir nicht θ, aber X kennen. Wir wählen nun zusätzlich einen weiteren Punkt p in [, 1] wie oben und setzen Y {, 1} genau dann eins, wenn p links von θ liegt. Eine Prognose für Y kann nun aus der a posteriori 3
4 Verteilung wie folgt bestimmt werden: g(y θ, x) := P (Y = y θ, X = x) = θ1 {y=1} + (1 θ)1 {y=} P (Y = 1 X = x) = = = g(y θ, x)π(θ x)dθ = θx+1 (1 θ) n x θx (1 θ) n x dθ dθ = x + 1 ( 1 n ) P (Y = X = x) = n x + 1 folglich erhalten wir die Prognose = n x n ( 1 n θ x (1 θ) n x θ θx (1 θ) n x dθ dθ ) n n x n, g(y x) := P (Y X = x) = x {y=1} + n x {y=}. Die Wahrscheinlichkeit für das Ereignis {Y = 1} ist eine konvexe Kombination der a priori Wahrscheinlichkeit 1 2 und der bisherigen Erfolgsquote k n, die wir aus den Daten X erhalten haben. Dabei wird bei wachsendem n die empirische Erfolgsquote immer stärker gewichtet. 2 Likelihood-Prinzip 2.1 Denition der Prinzipien Denition 2.1. Sei x f(x θ). Eine Funktion T von x (auch Statistik genannt) heisst suzient für das Modell f(x θ), wenn die Verteilung von x bedingt auf T (x) unabhängig von θ ist. Das Faktorisierungslemma (siehe [2]) sagt aus, dass eine Statistik genau dann suzient ist, wenn sie wie folgt zerlegt werden kann Das folgende Prinzip ist wichtig: f(x θ) = g(t (x) θ)h(x T (x)). (1) Prinzip 2.2 (Suzienz). Für zwei Beobachtungen x und y mit T (x) = T (y), müssen die Rückschlüsse auf θ gleich sein. Korollar 2.3. Das Bayes-Verfahren erfüllt das Suzienz-Prinzip. Beweis. Sei eine suziente Statistik T gegeben. Wegen dem Faktorisierungslemma hängt die a posteriori Verteilung nur durch T (x) von den Daten x ab π(θ x) π(θ)f(x θ) = π(θ)g(t (x) θ)h(x) π(θ)g(t (x) θ). (2) Weil das Bayes-Verfahren nur von der a posteriori Verteilung abhängt, folgt damit die Behauptung. 4
5 Während dieses Prinzip generell anerkannt wird, weil nach dem Theorem von Rao-Blackwell zulässige Verfahren bei konvexen Verlustfunktionen nur von suzienten Statistiken abhängen (siehe [2]), wird das folgende Prinzip in der frequentistischen Statistik manchmal verletzt. Prinzip 2.4 (Likelihood). Die Information einer Beobachtung x über θ ist vollständig in der Likelihood-Funktion l(θ x) enthalten. Ausserdem, falls x 1 und x 2 twei Beobachtungen sind, die vom gleichen Parameter θ abhängen, so dass eine Konstante c existiert, mit l 1 (θ x) 1 = cl 2 (θ x 2 ) für jedes θ, dann enthalten sie die gleichen Informationen über θ und sollten deshalb die gleichen Rückschlüsse bewirken. Das nächste Prinzip ist das letzte was wir vorstellen müssen, um unser Hauptresultat präsentieren zu können. Prinzip 2.5 (Conditionality). Wenn zwei Experimente ɛ 1 and ɛ 2, für einen Parameter θ, zu Verfügung stehen und wenn eines der Experimente mit Wahrscheinlichkeit p gewählt wird, dann sollte der resultierende Rückschluss auf θ nur vom gewähltem Experiment abhängen. 2.2 Äquivalenz des Likelihood-Prinzips zum Suzienz- und Conditionality-Prinzip Theorem 2.6. Das Likelihood-Prinzip ist äquivalent zum Suzienz- plus Conditionality-Prinzip. Aus dem generell akzeptierten Suzienz-Prinzip und dem vertretbaren Conditionality-Prinzip folgt also das umstrittene Likelihood-Prinzip. Die Annahme des Likelihood-Prinzips wird dadurch gerechtfertigt. 2.3 Maximum Likelihood Estimate Gegeben ein statistisches Modell f(x, θ) wir möchten einen Punktschätzer für den Wert θ konstruieren, der das Likelihood-Prinzip erfüllt. Wir wissen bereits, dass alle Bayes Punktschätzer, zum Beispiel der Posterior Mean, eine Lösung zu diesem Problem sind. Eine natürlichere und intuitivere Implementation des Likelihood-Prinzips ist aber auch der folgende Punktschätzer. Denition 2.7. Sei f(x, θ) ein statistisches Modell. Wir erinnern an die Likelihoodfunktion l(θ, x) := f(x, θ) und denieren den Punktschätzer als θ := argmax θ l(θ x). Oensichtlich hängt dieser Schätzer nur von der Likelihood Funktion ab. 5
6 Beispiel 2. Sei x = (x 1,..., x n ) eine Familie von i.i.d. Zufallsvariablen mit der gemeinsamen Dichte f(x θ) = 1 (2π) n e 1 n 2 i=1 (xi θ)2. Anstatt l(θ x) zu maximieren, maximieren wir durch Ableiten und Null setzen die Funktion log l(θ x) = n log( 1 2π ) 1 n (x i θ) 2. 2 i=1 Wir erhalten als Schätzer den Mittelwert θ = 1 n n i=1 x i. Die Maximum Likelihood Methode wird oft verwendent, weil sie sehr intuitiv ist und gute asymptotische Eigenschaften hat. Die Methode hat jedoch keinen entscheidungstheoretischen Hintergrund und kann oft nur numerisch (z.b. mit dem EM-Algorithmus) berechnet werden. Literatur [1] The Bayesian Choice Robert, Springer NY 27 [2] Mathematische Statistik Künsch, October 27 6
2. Prinzipien der Datenreduktion
2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete
Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
3.3 Methoden zur Evaluierung von Schätzern
3.3 Methoden zur Evaluierung von Schätzern Bis jetzt haben wir nur glaubwürdige Techniken zur Konstruktion von Punktschätzern besprochen. Falls unterschiedliche Schätzer für einen Parameter resultieren,
Wichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),
Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu
Punktschätzer Optimalitätskonzepte
Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra
Vorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
Vorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
Bayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301
Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise
Errata für: Methoden der statistischen Inferenz: Likelihood und Bayes
Errata für: Methoden der statistischen Inferenz: Likelihood und Bayes Leonhard Held 9. Juli 2009 2 Einführung 1. Auf Seite 9, muss es in Abschnitt 1.2.8, Zeile 6-7 richtig heissen: Wir werden nur die
3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
Modellanpassung. Einführung in die induktive Statistik. Statistik. Statistik. Friedrich Leisch
Modellanpassung Einführung in die induktive Statistik Friedrich Leisch Institut für Statistik Ludwig-Maximilians-Universität München SS 2009 Statistik Statistik Wahrscheinlichkeitsrechnung: Gesetze bekannt,
Die Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen
Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion
2 Invarianz. 2.1 Definitionen
2 Invarianz 2.1 Definitionen Sei im folgenden immer eine W familie (P θ ) θ Θ (abgekürzte schreibweise (P θ )) auf einem Datenraum Y zugrunde gelegt. Definition [Transformationsgruppe]. Eine Menge G Abb(Y,
Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
Mathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 8. Dezember 2010 Teil V Schließende Statistik 1 Parameterschätzung Erwartungstreue und Konsistenz Maximum-Likelihood
Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen
Einführung in die Induktive Statistik: Schätzen von Parametern und Verteilungen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Inhalt Stichproben
Step-Down Prozeduren
Step-Down Prozeduren zur Kontrolle der Family-Wise Error Rate WS 2010/2011 Jakob Gierl HU Berlin 07.02.2011 1 / 19 Modell Schrittweise Step-Down Modell mathematische Stichprobe X 1,..., X n iid im R J
Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator
Überblick Grundlagen Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Wahrscheinlichkeitsverteilungen
Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet
Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung
Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische
Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander
1. Grundbegri e der Stochastik
Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt
Statistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
Lösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Die Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten
Die Funktion f ;Y (x; y) := Pr[ = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen und Y. Aus der gemeinsamen Dichte f ;Y kann man ableiten f (x) = y2w Y f ;Y (x; y) bzw. f Y (y) = Die Funktionen
Einführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran [email protected] Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
5 Optimale erwartungstreue Schätzer
33 5 Optimale erwartungstreue Schätzer 5.1 Definition Seien X 1,..., X n reelle Zufallsvariablen, T T (X 1,..., X n ) reellwertige Statistik. T heißt linear : c 1,..., c n R mit T n c j X j 5.2 Satz Seien
Wahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1
Einführung in die Bayes-Statistik Helga Wagner Ludwig-Maximilians-Universität München WS 2010/11 Helga Wagner Bayes Statistik WS 2010/11 1 Organisatorisches Termine: Montag: 16.00-18.00 AU115 Dienstag:
Mehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
Statistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
Institut für Stochastik, SoSe K L A U S U R , 13:
Institut für Stochastik, SoSe 2014 Mathematische Statistik Paravicini/Heusel 1. K L A U S U R 12.7.2014, 13:00-16.00 Name: Geburtsdatum: Vorname: Matrikelnummer: Übungsgruppe bei: Studiengang & angestrebter
Wahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
Mathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
Zufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
1 Verteilungsfunktionen, Zufallsvariable etc.
4. Test M3 ET 27 6.6.27 4. Dezember 27 Regelung für den.ten Übungstest:. Wer bei den Professoren Dirschmid, Blümlinger, Vogl oder Langer die UE aus Mathematik 2 gemacht hat, sollte dort die WTH und Statistik
Schätzer und Konfidenzintervalle
Kapitel 2 Schätzer und Konfidenzintervalle Bisher haben wir eine mathematische Theorie entwickelt, die es uns erlaubt, gewisse zufällige Phänomene zu modellieren. Zum Beispiel modellieren wir die Anzahl
Kapitel II Kontinuierliche Wahrscheinlichkeitsraume
Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
Statistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,
2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung
Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
Seminar zur Energiewirtschaft:
Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable
Satz 16 (Multiplikationssatz)
Haug verwendet man die Denition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A \ B] = Pr[BjA] Pr[A] = Pr[AjB] Pr[B] : (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1 ; : : : ; A n
I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Bayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung
Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
2.2 Klassische Testtheorie
192 2.2.1 Problemstellung Ziel: Finde Test zum Niveau mit optimaler Güte (Power) für 2 1.Dabeiistn finit. Problemstellung: I Sei der Parameterraum; die Hypothesen seien H 0 : 2 0 vs. H 1 : 2 1, mit 0 \
Modellanpassung und Parameterschätzung. A: Übungsaufgaben
7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit
BZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp
Datenanalyse (PHY31) Herbstsemester 015 Olaf Steinkamp 36-J- [email protected] 044 63 55763 Einführung, Messunsicherheiten, Darstellung von Messdaten Grundbegriffe der Wahrscheinlichkeitsrechnung und
VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN
KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut
I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Fit for Abi & Study Stochastik
Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen
Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe
Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,
4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
Suffizienz und Vollständigkeit
KAPITEL 7 Suffizienz und Vollständigkeit 7.1. Definition der Suffizienz im diskreten Fall Beispiel 7.1.1. Betrachten wir eine unfaire Münze, wobei die Wahrscheinlichkeit θ, dass die Münze Kopf zeigt, geschätzt
Musterlösung zur Klausur im Fach Fortgeschrittene Statistik am Gesamtpunktzahl: 60
WESTFÄLISCHE WILHELMS - UNIVERSITÄT MÜNSTER Wirtschaftswissenschaftliche Faktultät Prof. Dr. Bernd Wilfling Professur für VWL, insbesondere Empirische Wirtschaftsforschung Musterlösung zur Klausur im Fach
Stochastik für Ingenieure
Otto-von-Guericke-Universität Magdeburg Fakultät für Mathematik Institut für Mathematische Stochastik Stochastik für Ingenieure (Vorlesungsmanuskript) von apl.prof. Dr. Waltraud Kahle Empfehlenswerte Bücher:
Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL)
Prof. Dr. M. Maathuis ETH Zürich Winter 2010 Stochastik (BSc D-MAVT / BSc D-MATH / BSc D-MATL) Schreiben Sie für Aufgabe 2-4 stets alle Zwischenschritte und -rechnungen sowie Begründungen auf. Aufgabe
Die Maximum-Likelihood-Methode
Vorlesung: Computergestützte Datenauswertung Die Maximum-Likelihood-Methode Günter Quast Fakultät für Physik Institut für Experimentelle Kernphysik SS '17 KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft
Stochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 4. Zufallsgrösse X Literatur Kapitel 4 * Storrer: Kapitel (37.2)-(37.8), (38.2)-(38.3), (38.5), (40.2)-(40.5) * Stahel: Kapitel 4, 5 und 6 (ohne
Einführung in die statistische Testtheorie
1 Seminar Simulation und Bildanalyse mit Java von Benjamin Burr und Philipp Orth 2 Inhalt 1. Ein erstes Beispiel 2. 3. Die Gütefunktion 4. Gleichmäßig beste Tests (UMP-Tests) 1 Einführendes Beispiel 3
5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
Wie groß ist die Wahrscheinlichkeit Pr[X > y + x X > x]? Da bei den ersten x Versuchen kein Erfolg eintrat, stellen wir uns vor, dass das
Sei X geometrisch verteilt mit Erfolgswahrscheinlichkeit p. Dann ist Pr[X = k] die Wahrscheinlichkeit, dass wir bei einem binären Experiment mit Erfolgswahrscheinlichkeit p genau in der k-ten unabhängigen
Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie
Einführung in die Statistik Kapitel 6: Crash-Course in Statistik: Testtheorie Jung Kyu Canci Universität Basel HS2015 1 / 15 Literatur Kapitel 6 Statistik in Cartoons : Kapitel 8 Krengel : 6 und 14 Storrer
Kapitel 1: Elemente der Statistik
1 Kapitel 1: Elemente der Statistik 1.1 Beispiel Ein Elektromarkt erhält eine Lieferung von N = 10000 Glühbirnen. Darunter ist eine unbekannte Anzahl h defekt, wobei h 0 1 = {0, 1,..., N}. Um Kenntnisse
Statistik für Ingenieure Vorlesung 2
Statistik für Ingenieure Vorlesung 2 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 24. Oktober 2016 2.4 Bedingte Wahrscheinlichkeiten Häufig ist es nützlich, Bedingungen
4 Statistik der Extremwertverteilungen
In diesem Kapitel beschäftigen wir uns mit statistischen Anwendungen der Extremwerttheorie. Wir werden zwei verschiedene Zugänge zur Modellierung von Extremwerten betrachten. Der erste Zugang basiert auf
DWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
Der Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
Gegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom
Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe
Beispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
1 Diskriminanzanalyse
Multivariate Lineare Modelle SS 2008 1 Diskriminanzanalyse 1. Entscheidungstheorie 2. DA für normalverteilte Merkmale 3. DA nach Fisher 1 Problemstellungen Jedes Subjekt kann einer von g Gruppen angehören
Signifikanztests Optimalitätstheorie
Kapitel Signifikanztests Optimalitätstheorie Randomisierte Tests In einem statistischen Modell M, A, P ϑ sei ein Testproblem gegeben: H : ϑ Θ gegen H : ϑ Θ ; wobei also durch Θ Θ Θ eine Zerlegung des Parameterbereichs
