Forschungsstatistik I

Ähnliche Dokumente
Mathematische und statistische Methoden I

Mathematische und statistische Methoden I

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II

Forschungsstatistik I

Mathematische und statistische Methoden I

Korrelation und Regression

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Forschungsstatistik I

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Mathematische und statistische Methoden I

Forschungsstatistik I

Annahmen des linearen Modells

Statistik, Datenanalyse und Simulation

Mathematische und statistische Methoden II

Drittvariablenkontrolle in der linearen Regression: Trivariate Regression

Korrelation Regression. Wenn Daten nicht ohne einander können Korrelation

Mathematische und statistische Methoden I

Teil: lineare Regression

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Einführung in die Maximum Likelihood Methodik

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Mathematische und statistische Methoden II

Lineare Regression. Y = b 0

Fehler- und Ausgleichsrechnung

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.

VS PLUS

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Statistik II Übung 2: Multivariate lineare Regression

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Überbestimmte lineare Gleichungssysteme

Ziel der linearen Regression

Fehlerfortpflanzung. M. Schlup. 27. Mai 2011

Quantitative Methoden der Bildungsforschung

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

Ökonometrische Methoden III: Die lineare Regression

Diagnostik von Regressionsmodellen (1)

Statistik II Übung 1: Einfache lineare Regression

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler

Statistik, Datenanalyse und Simulation

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief. Statistik II

Statistische Tests (Signifikanztests)

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2003

Hypothesentests mit SPSS

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS

Lineare Regression II

Numerische Methoden und Algorithmen in der Physik

Bivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154

Regression und Korrelation

Ohmscher Spannungsteiler

Vorlesung 8a. Kovarianz und Korrelation

Wie hängen Löhne von Bildung ab? - Eine Einführung in die statistische Analyse von Zusammenhängen. Axel Werwatz Technische Universität Berlin

Ziel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X.

Statistik II Übung 1: Einfache lineare Regression

Messunsicherheit und Fehlerrechnung

Korrelation - Regression. Berghold, IMI

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Statistik. Ronald Balestra CH St. Peter

Das Identifikationsproblem

TEIL 13: DIE EINFACHE LINEARE REGRESSION

Studierende die bereits jetzt im B.Sc.-Studiengang studieren, können in die neue Mathematik-Ausbildungsvariante wechseln.

Klausur zu Statistik II

Analysen politikwissenschaftlicher Datensätze mit Stata. Sitzung 5: Lineare Regression

Klausur in Mikroökonometrie Dauer: 90 Minuten

Mathematische und statistische Methoden II

Statistik Einführung // Lineare Regression 9 p.2/72

Quantitative Methoden (Vertretung für Prof. Th. Pechmann)

STATISTIK 2 Teil 1 Regressionsanalyse Von: Anne Schmidt. Anordnung von Zahlen in Zeilen und Spalten (Tabelle)

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50, ,5 51,7 48,8

Einführung in die biologische Datenanalyse mit Matlab SS 2009 Tag8

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Varianz und Kovarianz

Modul G.1 WS 07/08: Statistik Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Kapitel 2: Gauß-Markov-Annahmen

Multiple Regressionsanalyse - Kurzabriss

Aufgaben zu Kapitel 5:

Klassifikation von Signifikanztests

Einführung in Panel-Verfahren

Datenanalyse mit Excel und Gretl

1. Lösungen zu Kapitel 7

Korrelation und Regression

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Regression I. Statistik I. Sommersemester Lineare Regression Zusammenhang und Modell Ein Beispiel: Armut und Gewaltverbrechen Zusammenfassung

Mathematik für Naturwissenschaften, Teil 2

ÜBUNGSAUFGABEN ZUR DESKRIPTIVEN UND EXPLORATIVEN DATENANALYSE

Mathematische und statistische Hilfsmittel für Pharmazeuten

Mathematik in den Life Siences

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Die Maximum-Likelihood-Methode

Forschungsstatistik I

Ergänzungsmaterial zur Vorlesung. Statistik 2. Modelldiagnostik, Ausreißer, einflussreiche Beobachtungen

Vorlesung: Statistik II für Wirtschaftswissenschaft

Bivariate Zusammenhänge

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Transkript:

Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/ WS 2008/2009 Fachbereich Sozialwissenschaften Psychologisches Institut Johannes Gutenberg Universität Mainz

Die Korrelation charakterisiert den Zusammenhang zwischen zwei Zufallsvariablen numerisch. Oft ist in der aber die Vorhersage des Wertes einer bestimmten ZV unter Kenntnis der Ausprägung einer anderen ZV gefordert. Die bekannte Variable wird dabei oft auch als Prädiktor, Unabhängige Variable (UV) oder Erklärende Variable bezeichnet Die vorherzusagende Variable wird als Kriterium, Abhängige Variable (AV) oder Response bezeichnet

Drei Hauptfragestellungen der srechnung: 1. Gibt es eine statistische Beziehung zwischen zwei Variablen, die die Vorhersage der AV aus der UV erlaubt? 2. Kann eine möglichst einfache mathematische Regel formuliert werden, die diesen Zusammenhang beschreibt? 3. Wie gut ist diese Regel im Hinblick auf die Vorhersage?

Einfache lineare Allgemeine Gleichung der einfachen linearen : ŷ = a x+ b Abzissenabschnitt Vorhergesagter Wert (geschätzte AV) Steigungsparameter Gemessene Werte der UV Der geschätzte Wert des Kriteriums wird nur selten mit dem tatsächlich gemessenen Wert übereinstimmen. Prinzipiell wird also angenommen, dass ein Messwert so entsteht: y = yˆ + e= a x+ b+ e Messfehler

Einfache lineare Über den Messfehler werden in der srechnung häufig drei zentrale Annahmen gemacht: 1. Messfehler sind normalverteilt 2. Der Mittelwert der Messfehler ist Null 3. Die Messfehler sind unkorreliert (der Messfehler einer bestimmten Messung hängt weder von den Messfehlern anderer Messungen noch von der Höhe der UV ab).

Einfache lineare Gründe für die Annahme einer linearen Gleichung: Lineare Zusammenhänge sind einfach zu verstehen Lineare Zusammenhänge sind mathematisch und statistisch einfach zu behandeln Lineare Gleichungen haben sich vielfach als gute Approximationen für komplexe Beziehungen erwiesen Achtung: Auch wenn die Beziehung zwischen zwei ZVn linear aussieht, muss es sich nicht zwangsläufig um einen linearen Zusammenhang handeln.

Methode der kleinsten Quadrate () Zur Minimierung des Vorhersagefehlers wird in der Statistik häufig das Kleinste-Quadrate Kriterium verwendet (KQ; oder Ordinary Least Squares, OLS) Die Parameter der sgleichung werden so gewählt, dass das Quadrat der Abweichungen von gemessenem und geschätztem Wert minimiert wird Für eine Versuchsperson i gelte: y = yˆ + e e = y yˆ i i i i i i Dann soll für alle n Datenpunkte erreicht werden, dass n ( y yˆ ) 2 e2 = i i i i= 1 i= 1 n min Minimierung der Varianz des Vorhersagefehlers

Methode der kleinsten Quadrate () Mithilfe der Allgemeinen Gleichung der einfachen linearen lässt sich für die Streuung des Vorhersagefehlers SS e also schreiben: n n 2 2 ( ˆ e i i) ( i i ) i= 1 i= 1 = = SS y y y a x b Bei gemessenen Daten x 1 i und y 1 i entscheiden also nur die sparameter a und b über die Höhe des Vorhersagefehlers Damit kann SS e als mathematische Funktion von a und b aufgefasst werden Die konkreten Werte von werden nun über partielle Ableitungen nach a und b gewonnen min