Post Data Inferenz. Ein Überblick über Verfahren aus frequentistischer Sichtweise
|
|
- Horst Lichtenberg
- vor 7 Jahren
- Abrufe
Transkript
1 1/23 Post Data Inferenz Ein Überblick über Verfahren aus frequentistischer Sichtweise Betreuung: Marco Cattaneo Referent: Paul Fink München, 14. Januar 2011
2 2/23 Gliederung 1 2 Relevante Teilmengenn Induzierte Partitionen Kleinste Partition 3 4 5
3 Warum frequentistische Post Data-Inferenz? 3/23 Frequentistische Inferenz ist Pre Data Inferenz (Betrachtung Long Run Verhalten von relativen Häufigkeiten) Verfahren können für Anwender unplausible Ergebnisse liefern Nach Beobachtung der Daten verlieren z.b. Konfidenzintervalle Charackter der Zufälligkeit Alle Zufälligkeit liegt in Beobachtungen und nicht im unbekannten Parameter = Keine Wahrscheinlichkeitsaussagen mehr möglich Lösungsvorschlag: Frequentistische Post Data Infernez mit konditionalen Verfahren
4 Warum frequentistische Post Data-Inferenz? 3/23 Frequentistische Inferenz ist Pre Data Inferenz (Betrachtung Long Run Verhalten von relativen Häufigkeiten) Verfahren können für Anwender unplausible Ergebnisse liefern Nach Beobachtung der Daten verlieren z.b. Konfidenzintervalle Charackter der Zufälligkeit Alle Zufälligkeit liegt in Beobachtungen und nicht im unbekannten Parameter = Keine Wahrscheinlichkeitsaussagen mehr möglich Lösungsvorschlag: Frequentistische Post Data Infernez mit konditionalen Verfahren
5 Konfidenzintervall bei Gleichverteilung 4/23 Sei X 1, X 2,..., X 10 iid U(θ 1 2, θ ) 90% Konfidenzintervall für θ ist dann: ( x(10) + x (1) C U (x) = , x (10) + x (1) + 1 ) , Datensituation 1: x (1) = 0.01 und x (10) = 0.99 = C U (x) = (0.397, 0.603) Nach Konstruktion ist P(θ C U (x)) = 1 = Konfidenzintervall zu pessimistisch
6 5/23 Datensituation 2: x (1) = 0.49 und x (10) = 0.51 = C U (x) = (0.397, 0.603) Gleiches theoretisches Konfidenzintervall aber deutlich unsicherer, ob θ C U (x). 90% Konfidenzintervall als Kennzahl ungeeigent um Überdeckungswahrscheinlichkeit für konkrete Daten anzugeben Ansatz nach Fisher und Kiefer: Bedingen auf Teilmengen des Stichprobenraums
7 5/23 Datensituation 2: x (1) = 0.49 und x (10) = 0.51 = C U (x) = (0.397, 0.603) Gleiches theoretisches Konfidenzintervall aber deutlich unsicherer, ob θ C U (x). 90% Konfidenzintervall als Kennzahl ungeeigent um Überdeckungswahrscheinlichkeit für konkrete Daten anzugeben Ansatz nach Fisher und Kiefer: Bedingen auf Teilmengen des Stichprobenraums
8 6/23 Konzept Relevante Teilmengenn Induzierte Partitionen Kleinste Partition Idee nach Fisher: Aufteilung des Datenraums und Bedingen von Überdeckungswahrscheinlichkeiten bei Konfidenzintervallen darauf γ(x) ist geeignete Kennzahl der Konfidenz Relevante Teilmenge A für Konfidenzprozedur C(x), γ(x) wenn oder für alle θ und ein ε > 0 gilt P θ (θ C(X ) X A) γ > ε P θ (θ C(X ) X A) γ < ε
9 Vor-/ Nachteile Relevante Teilmengenn Induzierte Partitionen Kleinste Partition Vorteil: Verbesserung der Konfidenzaussage gegenüber Pre Data Situation Nachteile: Relevanten Teilmengen existieren nicht für jede Konfidenzprozedur Es können mehrere relevante Teilmengen existieren (Auswahl beliebig) Auffindung unter Umständen sehr aufwendig Interpretation: Schätzer der unteren Schranke der wahren Überdeckungswahrscheinlichkeit Schätzer der auf A bedingten Überdeckungswahrscheinlichkeit 7/23
10 Vor-/ Nachteile Relevante Teilmengenn Induzierte Partitionen Kleinste Partition Vorteil: Verbesserung der Konfidenzaussage gegenüber Pre Data Situation Nachteile: Relevanten Teilmengen existieren nicht für jede Konfidenzprozedur Es können mehrere relevante Teilmengen existieren (Auswahl beliebig) Auffindung unter Umständen sehr aufwendig Interpretation: Schätzer der unteren Schranke der wahren Überdeckungswahrscheinlichkeit Schätzer der auf A bedingten Überdeckungswahrscheinlichkeit 7/23
11 Vor-/ Nachteile Relevante Teilmengenn Induzierte Partitionen Kleinste Partition Vorteil: Verbesserung der Konfidenzaussage gegenüber Pre Data Situation Nachteile: Relevanten Teilmengen existieren nicht für jede Konfidenzprozedur Es können mehrere relevante Teilmengen existieren (Auswahl beliebig) Auffindung unter Umständen sehr aufwendig Interpretation: Schätzer der unteren Schranke der wahren Überdeckungswahrscheinlichkeit Schätzer der auf A bedingten Überdeckungswahrscheinlichkeit 7/23
12 8/23 Konzept und Beispiel Relevante Teilmengenn Induzierte Partitionen Kleinste Partition Verwendung von Partitionen, die durch Statistik induziert werden: Ergänzende Statistiken (engl.: ancillary statistics) Beispiel: Gleichverteilung wie im ersten Beispiel Suffiziente Statisik für θ: ( X (10) + X (1), X (10) X (1) ) Betrachtung von { X (10) X (1) } als Partition: { ( ) 1 10 } α P θ θ C(X ) X(10) X (1) = min 1 ( ), 1 X (10) X (1) Daraus lässt sich ε für Vorliegen von relevanter Teilmenge bestimmen
13 9/23 Vor-/ Nachteile Relevante Teilmengenn Induzierte Partitionen Kleinste Partition Vorteile: Einschränkung der Beliebigkeit gegenüber allg. relevanten Teilmengen Schnelle Konstruktion Nachteile: Induzierung von verschiedene Partitionen bei anderen ergänzende Statistiken zur gleichen Prozedur Ergänzende Statistik kann von Nuisance Parameter abhängen
14 9/23 Vor-/ Nachteile Relevante Teilmengenn Induzierte Partitionen Kleinste Partition Vorteile: Einschränkung der Beliebigkeit gegenüber allg. relevanten Teilmengen Schnelle Konstruktion Nachteile: Induzierung von verschiedene Partitionen bei anderen ergänzende Statistiken zur gleichen Prozedur Ergänzende Statistik kann von Nuisance Parameter abhängen
15 10/23 Konzept Relevante Teilmengenn Induzierte Partitionen Kleinste Partition Kleinstes Reference Set bei Vorliegen von Daten: {X = x} Überdeckungswahrscheinlichkeit als Indikatorfunktion: P 0 (θ C(X ) X = x) = P 0 (θ C(x)) = I (θ C(x)). Schätzung und Vergleich dieser Indikatorfunktion über Verlust-/ und Risikofunktionen Goutis und Casella empfehlen die quadratische Verlustfunktion mit zugehöriger Risikofunktion L 2 (θ, γ) = (I (θ C(x)) γ(x)) 2, R(θ, γ) = E θ (I (θ C(X )) γ(x )) 2
16 11/23 Vor-/ Nachteile Relevante Teilmengenn Induzierte Partitionen Kleinste Partition Vorteile: Nicht abhängig von einer künstlichen der Partition Konstruktion von besseren Post Data Schätzern für Konfidenz als 1 α Bei Anwendung von Bayes Regel Schätzer interpretierbar als Posteriori Schätzung mit flacher Priori Nachteile: Pre Data Dominanzrelation bleibt nicht erhalten Bessere Post Data Schätzung, die 1 α dominiert, aufwendig
17 11/23 Vor-/ Nachteile Relevante Teilmengenn Induzierte Partitionen Kleinste Partition Vorteile: Nicht abhängig von einer künstlichen der Partition Konstruktion von besseren Post Data Schätzern für Konfidenz als 1 α Bei Anwendung von Bayes Regel Schätzer interpretierbar als Posteriori Schätzung mit flacher Priori Nachteile: Pre Data Dominanzrelation bleibt nicht erhalten Bessere Post Data Schätzung, die 1 α dominiert, aufwendig
18 Beispiel nach Kiefer I 12/23 Sei X N(θ, 1) und das zugehörige Testproblem: H 0 : θ = 1 vs. H 1 : θ = 1 Betrachtung von symmetrischem Neyman Pearson Test (α = β) Ablehnung von H 0 wenn X 0 mit α = 0.16 Pre Data Konfidenz für richtige Entscheidung ist 0.16 für alle x > 0 Intuitiv spricht x = 5 mehr für Plausibilität von H 0 als x = 0.5 Mit klassischer Testtheorie diese Intuition weder quantifizierbar noch gültig
19 13/23 Lösungsansätze Betrachtung von sind keine adäquate Lösung: Bedingter Fehler 1.Art P 1 (X 0 X A) kann alle Werte zwischen 0 und 1 annehmen für geeigentes A Quantifizierung von intuitiver Plausibilität kein Problem von Bedingen, sondern von Berechnung einer Kennzahl für erreichte Konfidenz Goutis und Casella: Quantifizierung durch Zurückführung auf Schätzung von Indikatorfunktion
20 14/23 Vereinfachung des Testproblems: H 0 : θ Θ 0 vs. H 1 : θ / Θ 0 mit Beobachtung von X = x und X F (x θ) Der Ablehnbereich von H 0 sei R Fehler 1. Art (Pre Data-Version) P(X R θ Θ 0 ) = P θ (X R)I (θ Θ 0 ) Fehler 1. Art (Post Data-Version) P(X R θ Θ 0 ) = I (x R)I (θ Θ 0 ) x, R bekannt = Schätzung von I (θ Θ 0 )
21 15/23 Schätzung Schätzung der Indikatorfunktion mit Verlustfunktionen vom Typ L k (θ, φ) = I (θ Θ 0 ) φ(x) k, k = 1, 2,..., Für k = 1 optimale Entscheidungsregeln in Form einer 0 1 Regel Das Risiko entspricht den Fehlern 1. bzw 2. Art Nachteil: Verlustfunktion lässt nur Entscheidungsregeln zu, die Pre Data Wahrscheinlichkeiten der Fehler entsprechen
22 Schätzung bei k = 2 16/23 Optimale Bayes Regeln ergeben Posteriori Wahrscheinlichkeiten Datengestützte Wahrscheinlichkeitsaussagen möglich (p Werte) Scheinbar nur Aussagen über Plausibilität von H 0 möglich, nicht über Kiefer: analog zu Konfidenzintervallen und Schätzung von bedingter Konfidenz betrachten
23 Beispiel nach Kiefer II 17/23 Bisherige Partition des Stichprobenraums: {(, 0], (0, )} Annahme: x > 1 entspricht starkem Hinweis für Ablehnung der jeweiligen Hypothese Entscheidungsregel unverändert: Ablehnung von H 0 falls X 0 Neue Partition: {(, 1), [ 1, 0], (0, 1], (1, )} Bedingte Berechnung der Konfidenz: P ±1 ( Richtige Entscheidung x 1) bzw. P ±1 ( Richtige Entscheidung x > 1).
24 Beispiel nach Kiefer III 18/23 Für x = 5 ergibt die bedingte Konfidenz P 1 (X > 0 x > 1) = 0.96, aber für x = 0.5 nur P 1 (X > 0 x 1) = 0.71 Prinzipiell beliebige Partitionierung des Stichprobenraumes möglich Aber: Änderung in Partitonierung führt zu anderen Werten der bedingten Konfidenz Goutis und Casella: Schätzung der äquivalent zu Schätzung von I (θ Θ)
25 19/23 Schwachstellen Folgende Fragen zeigen Schwachstellen der frequentistischen Post Data Inferenz durch konditionale Verfahren Existenz von relevanten Teilmengen? Nicht immer Existenz gesichert Welche Partitonierung ist zu wählen? Auswahl dem Anwender überlassen Welches Verfahren liefert ein Ergebnis? ergänzende Statistiken liefern mehrere
26 19/23 Schwachstellen Folgende Fragen zeigen Schwachstellen der frequentistischen Post Data Inferenz durch konditionale Verfahren Existenz von relevanten Teilmengen? Nicht immer Existenz gesichert Welche Partitonierung ist zu wählen? Auswahl dem Anwender überlassen Welches Verfahren liefert ein Ergebnis? ergänzende Statistiken liefern mehrere
27 19/23 Schwachstellen Folgende Fragen zeigen Schwachstellen der frequentistischen Post Data Inferenz durch konditionale Verfahren Existenz von relevanten Teilmengen? Nicht immer Existenz gesichert Welche Partitonierung ist zu wählen? Auswahl dem Anwender überlassen Welches Verfahren liefert ein Ergebnis? ergänzende Statistiken liefern mehrere
28 Kritik von J. Berger 20/23 Konditionale Sichtweise als eigenständiger Zweig (wie Kiefer) Aber Rechtfertigung der Verfahren als valide frequentistische Verfahren (zeigen auch Goutis und Casella) Hauptkritikpunkte: Frequentistisch konditionale Methoden verletzen starkes Likelihood Prinzip Frequentistische Vorgehensweisen verletzen Prinzip der Stoppzeit Seine Schlussfolgerungen: Vorgehensweisen nicht allgemein valide Keine frequentistische Rechtfertigung für konditionale Ansätze (frequentistischen Post Data Analyse)
29 21/23 Vielen Dank für Ihre Aufmerksamkeit
30 22/23 I Basu, D. (1964), Recovery of ancillary information, Sankhyā Ser. A 26, Berger, James ( 1985), The frequentist viewpoint and conditioning, in Proceedings of the Berkeley conference in honor of Jerzy Neyman and Jack Kiefer, Vol. I (Berkeley, Calif., 1983), Wadsworth Statist./Probab. Ser., Wadsworth, Belmont, CA, pp Efron, B ( 1978), Controversies in Foundations of Statistics, American Mathematical monthly 85(4), George, Edward I. and George Casella ( 1994), An empirical Bayes confidence report, Statist. Sinica 4(2), Goutis, C and G Casella ( 1995), Frequentist Post-Data Inference, International Statistical Review 63(3),
31 23/23 II Kiefer, J. ( 1977), Conditional confidence statements and confidence estimators, J. Amer. Statist. Assoc. 72(360, part 1), With comments by George A. Barnard, Lawrence D. Brown, Robert J. Buehler, Arthur P. Dempster, Oscar Kempthorne, Dennis V. Lindley and J. Wolfowitz and a rejoinder by the author. Lu, K. L. and James O. Berger ( 1989), Estimation of normal means: frequentist estimation of loss, Ann. Statist. 17(2), Robert, Christian and George Casella ( 1994), Improved confidence statements for the usual multivariate normal confidence set, in Statistical decision theory and related topics, V (West Lafayette, IN, 1992), Springer, New York, pp
Arbeit zum Seminar über Philosophische Grundlagen der Statistik. Post Data Inferenz
Arbeit zum Seminar über Philosophische Grundlagen der Statistik Paul Fink 28. März 2011 Post Data Inferenz Ein Überblick über Verfahren aus frequentistischer Sichtweise Betreuer: Dr. Marco Cattaneo Institut
MehrSchulen statistischer Inferenz
Schulen statistischer Inferenz Fisher s Fiduzialargument Matthias Mittermayer betreut durch Frau Dr. Dr. Christina Schneider Institut für Statistik, LMU München 11. März 2013 Fisher s Fiduzialargument
MehrEinführung in die statistische Testtheorie II
1 Seminar: Simulation und Bildanalyse mit Java Einführung in die statistische Testtheorie II Guntram Seitz Sommersemester 2004 1 WIEDERHOLUNG 2 1 Wiederholung Grundprinzip: Annahme: Beobachtungen bzw.
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrNachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester Oktober 2011
Nachklausur Wahrscheinlichkeitstheorie und Inferenz II Sommersemester 2011 28. Oktober 2011 Prof. Dr. Torsten Hothorn Institut für Statistik Nachname: Vorname: Matrikelnummer: Anmerkungen: ˆ Schreiben
MehrKonfidenzintervalle. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt
Konfidenzintervalle Annahme: X 1,..., X n iid F θ. Gesucht: U = U(X 1,..., X n ), O = O(X 1,..., X n ), sodass für das wahre θ gilt P θ (U θ O) = 1 α, α (0, 1). Das Intervall [U, O] ist ein Konfidenzintervall
MehrSignifikanztests Optimalitätstheorie
Kapitel Signifikanztests Optimalitätstheorie Randomisierte Tests In einem statistischen Modell M, A, P ϑ sei ein Testproblem gegeben: H : ϑ Θ gegen H : ϑ Θ ; wobei also durch Θ Θ Θ eine Zerlegung des Parameterbereichs
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrPunktschätzer Optimalitätskonzepte
Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra
MehrWie liest man Konfidenzintervalle? Teil II. Premiu m
Wie liest man Konfidenzintervalle? Teil II Premiu m - Hintergrund Anderer Wahrscheinlichkeitsbegriff subjektiver Wahrscheinlichkeitsbegriff Beispiel: Was ist die Wahrscheinlichkeit dafür, dass ein Patient
MehrPraktikum zur Statistik
mit R Institut für Mathematische Statistik Universität Münster 7. Oktober 2010 Gliederung 1 Testtheorie: Ziel und Überblick Testtheorie Andere Entscheidungsprobleme 2 3 4 p-wert, Binomialtest Mittelwertvergleiche:
MehrSchätzen und Testen I in 90 Minuten. 8. Februar 2010
Schätzen und Testen I in 90 Minuten 8. Februar 2010 1. Einführung in statistische Modelle und Inferenzkonzepte 2. Klassische Schätz- und Testtheorie 3. Likelihood-Inferenz 4. Bayes-Inferenz 5. Einführung
MehrDas Bayes'sche Prinzip
Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem
MehrKapitel III - Grundannahmen der schließenden Statistik
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel III - Grundannahmen der schließenden Statistik Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo
MehrWahrscheinlichkeitsrechnung und Statistik für Biologen 7. Konfidenzintervalle
Wahrscheinlichkeitsrechnung und Statistik für Biologen 7. Konfidenzintervalle Matthias Birkner & Dirk Metzler http://www.zi.biologie.uni-muenchen.de/evol/statgen.html 9. Juni 2009 1 Wiederholung: Bedingte
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
MehrEinführung in die statistische Testtheorie
1 Seminar Simulation und Bildanalyse mit Java von Benjamin Burr und Philipp Orth 2 Inhalt 1. Ein erstes Beispiel 2. 3. Die Gütefunktion 4. Gleichmäßig beste Tests (UMP-Tests) 1 Einführendes Beispiel 3
MehrBAYES SCHE STATISTIK
BAES SCHE STATISTIK FELIX RUBIN EINFÜHRUNG IN DIE STATISTIK, A.D. BARBOUR, HS 2007 1. Einführung Die Bayes sche Statistik gibt eine weitere Methode, um einen unbekannten Parameter θ zu schätzen. Bisher
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
MehrBayesianische FDR (Teil 1)
Bayesianische FDR (Teil 1) Mareile Große Ruse Seminar Multiples Testen 08.11.2010 Übersicht Übersicht Übersicht Alternative: Übersicht Alternative: Übersicht Alternative: Bedingte Wahrscheinlichkeit (Ω,
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrNeyman-Pearson. - Schulen statistischer Inferenz - Christian Schnell. betreut von Dr. Marco Cattaneo
Neyman-Pearson - Schulen statistischer Inferenz - Christian Schnell betreut von Dr. Marco Cattaneo Seminar für methodologische und historische Grundlagen des Wahrscheinlichkeitsbegriffs und der statistischen
Mehr2. Prinzipien der Datenreduktion
2. Prinzipien der Datenreduktion Man verwendet die Information in einer Stichprobe X 1,..., X n, um statistische Inferenz über einen unbekannten Parameter zu betreiben. Falls n groß ist, so ist die beobachtete
Mehr4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion
4.2 Methoden um Tests zu finden: Likelihood Quotienten Tests (LRT) Falls X 1,..., X n iid aus f(x θ), so gilt für die Likelihood Funktion L(θ x) = f(x θ) = n f(x i θ). Falls L(θ x) > L(θ x), für θ, θ Θ,
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrMethoden der statistischen Inferenz
Leonhard Held Methoden der statistischen Inferenz Likelihood und Bayes Unter Mitwirkung von Daniel Sabanes Bove Spektrum KJL AKADEMISCHER VERLAG Vorwort vii 1 Einführung 1 1.1 Statistische Inferenz 1 1.2
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrMultiplizitätskorrektur bei Variablenselektion
Multiplizitätskorrektur bei Variablenselektion Seminar: Multiples Testen Dozent: Prof. Dr. T. Dickhaus Referent: Maximilian Mönch - 22.11.2010 - Überblick 1) Einleitung 2) Multiplizitätskorrektur 3) Median
MehrStatistische Entscheidungsmodelle
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Statistische Entscheidungsmodelle Von o. Prof. Dipl.-Vw. Dr. Gerhard
Mehr(Reine) Bayes-Punktschätzung
233 3.4.3 (Reine) Bayes-Punktschätzung Def. 3.33 (MPD-Schätzung) Gegeben eine Beobachtung x und die posteriori Verteilung mit Dichte bzw. Wahrscheinlichkeitsfunktion π(ϑ x) heißt ϑ mit π(ˆϑ x) = max ϑ
MehrFormelsammlung zur Vorlesung: Einführung in die Bayes-Statistik
1 Verteilungen Formelsammlung zur Vorlesung: Einführung in die Bayes-Statistik 1.1 Diskrete Verteilungen Helga Wagner und Gero Walter Binomialverteilung: Y BiNom (n, π) Parameter: n > 0, π [0, 1] Wahrscheinlichkeitsfunktion:
MehrStatistik II. Statistische Tests. Statistik II
Statistik II Statistische Tests Statistik II - 5.5.2006 1 Ausgangslage Wir können Schätzen (z.b. den Erwartungswert) Wir können abschätzen, wie zuverlässig unsere Schätzungen sind: In welchem Intervall
MehrA Kurzskript: Stochastische Majorisierung und Testtheorie
A Kurzskript: Stochastische Majorisierung und Testtheorie A.1 Stochastische Majorisierung Denition A.1 (stochastisch gröÿer) Seien Q und P zwei W'Maÿe auf (R, B). Dann heiÿt Q stochastisch gröÿer als P
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
MehrSchließende Statistik
Schließende Statistik [statistical inference] Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.
MehrVorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen
Prof Dr Rainer Dahlhaus Statistik 1 Wintersemester 2016/2017 Vorbereitung auf Übungsblatt (Präsenzübungen) - Lösungen Aufgabe P9 (Prognosen und Konfidenzellipsoide in der linearen Regression) Wir rekapitulieren
MehrGRUNDPRINZIPIEN statistischen Testens
Fragestellungen beim Testen GRUNDPRINZIPIEN statistischen Testens. Vergleiche Unterscheidet sich die Stichprobenbeobachtung von einer vorher spezifizierten Erwartung ( Hypothese ) mit ausreichender Sicherheit?
MehrDer frequentistische Wahrscheinlichkeitsbegriff
17. Dezember 2010 Zwei Feststellungen und drei Fragen Grundlagen des frequentistischen Wahrscheinlichkeitsbegriffs: Objektivistisches Wahrscheinlichkeitsverständnis, ohne Bezug auf subjektive Einschätzungen
Mehr11 Testen von Hypothesen
Testen von Hypothesen Ausgehend von einem statistischen Modell X, B,P ϑ,x, ϑ Θ, interessiert manchmal nicht der genaue Wert des unbekannten Parameters ϑ, sondern lediglich, ob ϑ in einer echten Teilmenge
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrStatistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe
Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung
Mehr3.Wiederholung: Toleranzbereiche Für EX Geg:
3.Wiederholung: Toleranzbereiche Für EX Geg: Vl. 24.2.2017 Schätzfunktion für Güte: Ist X Problem: Feb 17 13:21 > Wir berechnen Bereiche (Toleranzbereiche) für sind untere und obere Grenzen, berechnet
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.22 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 203 3.4.1 Begrifflicher Hintergrund Satz 3.22 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.15. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler unter allen Wählern war 2009 auf eine Nachkommastelle gerundet genau 33.7%. Wie groß ist die Wahrscheinlichkeit,
MehrWie liest man Konfidenzintervalle? Teil I. Premiu m
Wie liest man Konfidenzintervalle? Teil I Premiu m Was sind Konfidenzintervalle? Ein Konfidenzintervall (KI) ist ein Maß für die Unsicherheit bezüglich einer Schätzung eines Effekts. Es ist ein Intervall
MehrKapitel VIII - Tests zum Niveau α
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel VIII - Tests zum Niveau α Induktive Statistik Prof. Dr. W.-D. Heller Hartwig Senska Carlo Siebenschuh Testsituationen
MehrNachholklausur zur Vorlesung Schätzen und Testen I. 04. April Bitte ausfüllen und unterschreiben!!!
Nachholklausur zur Vorlesung Schätzen und Testen I 04. April 2013 Volker Schmid, Ludwig Bothmann, Julia Sommer Aufgabe 1 2 3 4 5 6 Punkte Note Bitte ausfüllen und unterschreiben!!! Name, Vorname: Matrikelnummer:
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 : Binomial, Gauß Prof. Dr. Achim Klenke http://www.aklenke.de 10. Vorlesung: 20.01.2012 1/31 Inhalt 1 Einführung Binomialtest 2/31 Beispiel Einführung Bohnenlieferant liefert
Mehr2 Wiederholung statistischer Grundlagen Schließende Statistik empirischen Information aus Stichprobenrealisation x von X
Hypothesentests Bisher betrachtet: Punkt- bzw. Intervallschätzung des unbekannten Mittelwerts Hierzu: Verwendung der 1 theoretischen Information über Verteilung von X empirischen Information aus Stichprobenrealisation
MehrEinführung in die Stochastik
R. Viertl Einführung in die Stochastik mit Elementen der Bayes-Statistik und Ansätzen für die Analyse unscharfer Daten Springer-Verlag Wien New York Inhalt / Einleitung 1 Kapitel I. Elementare Wahrscheinlichkeitsrechnung
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung
0 Einführung 1 Wahrscheinlichkeitsrechnung Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung Motivation und Hinführung Der wahre Anteil der rot-grün Wähler 009 war genau
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2
Mehr3.4 Bayes-Verfahren Begrifflicher Hintergrund. Satz 3.19 (allgemeines Theorem von Bayes)
3.4 Bayes-Verfahren 202 3.4.1 Begrifflicher Hintergrund Satz 3.19 (allgemeines Theorem von Bayes) Seien X und U zwei Zufallsvariablen mit gemeinsamer Wahrscheinlichkeitsfunktion f X,U ( ) bzw. Dichte f
MehrCredibility Theory. Christoph Chlubna. 10. Januar / 18
10. Januar 2012 1 / 18 Gliederung 1 Was ist 2 Das Problem der Risikobewertung 3 Das individuelle Risiko 4 Die verschiedenen Prämienarten 5 Die Risikofunktion 6 Die Prämie im einfachen Modell 2 / 18 Gliederung
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung Dr. Jochen Köhler 1 Inhalt der heutigen Vorlesung Statistik und Wahrscheinlichkeitsrechnung Zusammenfassung der vorherigen Vorlesung Übersicht über Schätzung und
MehrSo berechnen Sie einen Schätzer für einen Punkt
htw saar 1 EINFÜHRUNG IN DIE STATISTIK: SCHÄTZEN UND TESTEN htw saar 2 Schätzen: Einführung Ziel der Statistik ist es, aus den Beobachtungen eines Merkmales in einer Stichprobe Rückschlüsse über die Verteilung
MehrEinführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
Mehr2.2 Klassische Testtheorie
192 2.2.1 Problemstellung Ziel: Finde Test zum Niveau mit optimaler Güte (Power) für 2 1.Dabeiistn finit. Problemstellung: I Sei der Parameterraum; die Hypothesen seien H 0 : 2 0 vs. H 1 : 2 1, mit 0 \
MehrStatistik und Wahrscheinlichkeitsrechnung
Statistik und Wahrscheinlichkeitsrechnung 11. Vorlesung Jochen Köhler 10.05.011 1 Inhalt der heutigen Vorlesung Zusammenfassung Parameterschätzung Übersicht über Schätzung und Modellbildung Modellevaluation
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,
MehrKapitel 13. Grundbegriffe statistischer Tests
Kapitel 13 Grundbegriffe statistischer Tests Oft hat man eine Vermutung über die Verteilung einer Zufallsvariablen X. Diese Vermutung formuliert man als Hypothese H 0.Sokönnte man daran interessiert sein
MehrKritik an Bayes-Inferenz
Seminararbeit zu Philosophische Grundlagen der Statistik Kritik an Bayes-Inferenz Autor: Malte Schierholz Betreuer: Dr. Marco Cattaneo Bayesian methods constitute a radically different way of doing science.
MehrLösungen ausgewählter Übungsaufgaben zum Buch. Elementare Stochastik (Springer Spektrum, 2012) Teil 5: Aufgaben zu den Kapiteln 9 bis 12
Lösungen ausgewählter Übungsaufgaben zum Buch Elementare Stochastik (Springer Spektrum, 0) Teil 5: Aufgaben zu den Kapiteln 9 bis Aufgaben zu Kapitel 9 Zu Abschnitt 9. Ü9.. Es sei ψ : R R stetig differenzierbar.
MehrBayesianische Modellwahl. Helga Wagner Bayes Statistik WS 2010/11 161
Bayesianische Modellwahl Helga Wagner Bayes Statistik WS 2010/11 161 Modellwahl Problem der Modellwahl: Welches von K möglichen Modellen M 1,...,M K ist für die Daten y am besten geeignet? Klassisch: LQ-Test
MehrBayesianische FDR (Teil2)
des Multiplen Testens FDR, FNR FDR 13.12.2010 Inhalt FDR, FNR FDR 1 2 FDR, FNR FDR Inhalt FDR, FNR FDR 1 2 FDR, FNR FDR Bedingte Wahrscheinlichkeit FDR, FNR FDR (Ω, F, P) W-Raum, A 1, A 2,...A n F, A i
MehrComputergestützte Datenanalyse in der Kern- und Teilchenphysik
Computergestützte Datenanalysein der Kern- und Teilchenphysik p. 1/?? Computergestützte Datenanalyse in der Kern- und Teilchenphysik Vorlesung 4 Jan Friedrich Computergestützte Datenanalysein der Kern-
MehrKapitel 3 Schließende Statistik
Bemerkung 3.34: Die hier betrachteten Konfidenzintervalle für unbekannte Erwartungswerte sind umso schmaler, je größer der Stichprobenumfang n ist, je kleiner die (geschätzte) Standardabweichung σ (bzw.
MehrStatistische Entscheidungstheorie
KAPITEL 6 Statistische Entscheidungstheorie 6.1. Verlustfunktion, Risiko, Minimax Schätzer Es sei (, A, (P θ ) θ ) ein statistisches Modell. Das heißt, ist die Menge aller möglichen Stichproben, A ist
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 017 4 Spezielle Zufallsgrößen Einführung 1 Wahrscheinlichkeit: Definition
Mehr2.2 Klassische Testtheorie
2.2 Klassische Testtheorie iel: Finde Test zum Niveau mit optimaler Güte (Power) für 2 1. Dabei ist n finit. 2.2.1 Problemstellung Sei der Parameterraum; die Hypothesen seien H 0 : 2 0 vs. H 1 : 2 1, mit
MehrBayes Inferenz Schätzen und Testen von Hypothesen. Helga Wagner Bayes Statistik WS 2010/11 301
Bayes Inferenz Schätzen und Testen von Hypothesen Helga Wagner Bayes Statistik WS 2010/11 301 Bayes Punktschätzung Entscheidungstheoretischer Ansatz: Wahl des Punktschätzers ist eine Aktion, die möglicherweise
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrÜberblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung
Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg
für Betriebswirtschaft, Internationales Management, Wirtschaftsinformatik und Informatik Sommersemester 2016 Prof. Dr. Stefan Etschberger Hochschule Augsburg Einstichproben-t-Test und approximativer Gaußtest
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrMethodenlehre. Vorlesung 13. Prof. Dr. Björn Rasch, Cognitive Biopsychology and Methods University of Fribourg
Methodenlehre Vorlesung 13 Prof. Dr., Cognitive Biopsychology and Methods University of Fribourg 1 19.05.15 Methodenlehre II Woche Datum Thema 1 FQ Einführung, Verteilung der Termine 1 18.2.15 Psychologie
MehrBlockpraktikum zur Statistik mit R
Blockpraktikum zur Statistik mit R 30. September 2011 Till Breuer und Matti Schneider Institut für Mathematische Statistik Universität Münster WS 2010/11 Gliederung 1 Testtheorie: Ziel und Überblick Testtheorie
MehrP(D H1) P(D H0) = Y X
Der Likelihood-Quotient Grundlage datenbasierender Entscheidungsfindung D: Daten, Messungen, Beobachtungen, Informationen H0: Nullhypothese H1: Alternativhypothese über das zu Stande kommen von D P(D H1)
MehrPflege Deine Vorurteile! A statistician is a person who draws a mathematically precise line from an unwarranted assumption to a foregone conclusion.
Pflege Deine Vorurteile! A statistician is a person who draws a mathematically precise line from an unwarranted assumption to a foregone conclusion. Statistik als wissenschaftliche Qualitätskontrolle Quo
Mehr1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.
0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:
MehrBayes-Verfahren und frequentischer Ansatz in der medizinischen Biometrie
Bayes-Verfahren und frequentischer Ansatz in der medizinischen Biometrie Johannes Hüsing, Institut für Medizinische Informatik, Biometrie und Epidemiologie, Universität Essen Homburg (Saar), den 19. März
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
Mehr2 Invarianz. 2.1 Definitionen
2 Invarianz 2.1 Definitionen Sei im folgenden immer eine W familie (P θ ) θ Θ (abgekürzte schreibweise (P θ )) auf einem Datenraum Y zugrunde gelegt. Definition [Transformationsgruppe]. Eine Menge G Abb(Y,
MehrVarianzkomponentenschätzung
Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler
Mehr5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung
5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites
MehrTesten von Hypothesen, Beurteilende Statistik
Testen von Hypothesen, Beurteilende Statistik Was ist ein Test? Ein Test ist ein Verfahren, mit dem man anhand von Beobachtungen eine begründete Entscheidung über die Gültigkeit oder Ungültigkeit einer
MehrStochastik Praktikum Testtheorie
Stochastik Praktikum Testtheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 11.10.2010 Definition X: Zufallsgröße mit Werten in Ω, (Ω, F, (P ϑ ) ϑ Θ ) statistisches Modell Problem: Teste H 0 : ϑ
MehrStatistics, Data Analysis, and Simulation SS 2017
Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler
Mehr3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte
Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +
MehrMathematische Statistik Teil III Testen
Mathematische Statistik Teil III Testen R. Kovacevic 1 1 Institut für Statistik und Decision Support Systeme Universität Wien Wintersemester 2009 Dieses Werk ist urheberrechtlich geschützt. Jede Vervielfältigung
MehrAllgemeines zu Tests. Statistische Hypothesentests
Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer
MehrKapitel 4.3 Testen von Verteilungshypothesen. Stochastik SS
Kapitel 4.3 Testen von Verteilungshypothesen Stochastik SS 2017 1 Beispiele 1) Landwirt wird Verfahren zur Änderung des Geschlechtsverhältnisses von Nutztieren angeboten, so dass z.b. mehr Kuhkälber als
MehrHypothesen über die Grundgesamtheit. Aufgabenstellung der Testtheorie Hypothesen (Annahmen, Vermutungen oder
Hypothesen über die Grundgesamtheit Aufgabenstellung der Testtheorie Hypothesen (Annahmen, Vermutungen oder Behauptungen) über die unbekannte Grundgesamtheit anhand einer Stichprobe als richtig oder falsch
MehrLikelihood- & Fiduzialinferenz. ein Seminarvortrag von Lisa Oemisch am betreut von Andrea Wiencierz
Likelihood- & Fiduzialinferenz ein Seminarvortrag von Lisa Oemisch am 14.01. 2011 betreut von Andrea Wiencierz 2 Gliederung 1. Ronald A. Fisher 2. Likelihoodinferenz 2.1 Das Likelihood-Prinzip 2.2 Beispiel
MehrSeminar: Statistische Methoden in der Infektionsepidemiologie
Seminar: Statistische Methoden in der Infektionsepidemiologie Verzweigungsprozess-Modelle für surveillance von infektiösen Krankheiten, kontrolliert durch Massenimpfung 1 1. Einleitung Impfprogramme zur
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
Mehr