Forschungsstatistik I

Größe: px
Ab Seite anzeigen:

Download "Forschungsstatistik I"

Transkript

1 Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R (Persike) R (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2009/2010 Fachbereich Sozialwissenschaften Psychologisches Institut Johannes Gutenberg Universität Mainz

2 Psychologie Multiple Regression I Multiple Regression II Grundlagen Gleichung Minimierung Normalgleichungen Multiple Regression Grundlagen Oft werden in psychologischen Untersuchungen nicht nur ein sondern mehrere UVn betrachtet. Beispiele: Abhängigkeit der Lebenszufriedenheit von sozialem, ökonomischem und Gesundheitsstatus; Beeinflussung sportlicher Leistung durch Trainingszustand und Anwesenheit von Zuschauern. Solche Fragestellungen werden auch als multifaktoriell bezeichnet Problem: Die Berechnung mehrerer Korrelationen vernachlässigt mögliche Zusammenhänge zwischen den Prädiktoren

3 Psychologie Multiple Regression I Multiple Regression II Grundlagen Gleichung Minimierung Normalgleichungen Multiple Regression Grundgleichung Die Vorhersagegleichung der multiplen Regression mit k Prädiktoren wird geschrieben als yˆ = b + b x + b x + + b x ˆ k k Bei standardisierten disie ten Daten verwendet endet man das Symbol β für die k Regressionsparameter (bzw. -gewichte ) ŷy = β z + β z + + β z k k Die vorhergesagte Variable (AV) wird als Kriterium bezeichnet, die vorhersagenden Variablen (UV) als Prädiktoren.

4 Psychologie Multiple Regression I Multiple Regression II Grundlagen Regression Methode der kleinsten Quadrate (KQ-Kriterium) Gleichung Zur Minimierung des Vorhersagefehlers wird oft das Kleinste-Quadrate Kriterium verwendet (KQ; oder Ordinary Least Squares, OLS) Minimierung Parameter der multiplen Regressionsgleichung werden so gewählt, dass das Quadrat der Abweichungen von gemessenem und geschätztem Wert minimiert wird Normalgleichungen Für eine Versuchsperson i aus allen n gelte: y = yˆ + e e = y yˆ i i i i i i Dann soll für alle n Datenwerte erreicht werden, dass n ( ) 2 n y ˆ 2 i y i ei i= 1 i= 1 n n Minimierung der = min Varianz des Vorhersagefehlers

5 Psychologie Multiple Regression I Multiple Regression II Grundlagen Regression Methode der kleinsten Quadrate (KQ-Kriterium) Gleichung Mithilfe der Allgemeinen Gleichung der einfachen linearen Regression lässt sich für die Streuung des Vorhersagefehlers SS e also schreiben: Minimierung n n 2 2 SS = y yˆ = y b b x b x b x min ( ) ( ) e i i i 0 1 i1 2 i2 k ik i= 1 i= 1 Normalgleichungen bzw. in der standardisierten Form n n ( ˆ ) ( β1 β2 β ) SS = z z = z z z z e y y y x x k x i= 1 i= 1 i i i i i ik min Die Minimierung der Regressionsparameter erfolgt über partielle Differenzierung nach jedem einzelnen der b- bzw. β-gewichte

6 Psychologie Multiple Regression I Multiple Regression II Grundlagen Gleichung Minimierung Normalgleichungen Regression Normalgleichungen der multiplen Regression Die partielle Differenzierung der nichtstandardisierten Gleichung mit k Prädiktoren führt immer auf ein System von k+1 Normalgleichungen, das wie folgt aufgebaut ist: n n n n n y = b + b x + b x + + b x k k i= 1 i= 1 i= 1 i= 1 i= 1 n n n n n 2 yx1 = b0 x1+ b1 x 1 + b2 x1x bk x1x k i= 1 i= 1 i= 1 i= 1 i= 1 n n n n n 2 yx2 = b0 x2 + b1 xx b2 x2 + + b k xx 2 k i= 1 i= 1 i= 1 i= 1 i= 1 n n n n yx = b x + b x x + b x x + + b 2 k xk k 0 k 1 1 k 2 2 k i= 1 i= 1 i= 1 i= 1 n i= 1

7 Psychologie Multiple Regression I Multiple Regression II Grundlagen Gleichung Minimierung Normalgleichungen Regression Normalgleichungen der multiplen Regression In der standardisierten Form ergibt sich ein System von k Normalgleichungen: n n n n 2 zx z 1 y = β1 zx + β 1 2 zx z 1 x + + β 2 k zx z 1 xk i= 1 i= 1 i= 1 i= 1 n n n n 2 zx z 2 y = β1 zx z 1 x + β 2 2 zx + + β 2 k zx z 2 x k i= 1 i= 1 i= 1 i= 1 n n n n 2 zx zy = β1 zx zx + β2 zx zx + + βk zx i= 1 i= 1 i= 1 i= 1 k 1 k 2 k k

8 Psychologie Multiple Regression I Multiple Regression II Grundlagen Gleichung Minimierung Normalgleichungen Regression Multiple Regression - Zusammenfassung Die partielle Differenzierung einer multiplen Regressionsgleichung mit k Prädiktoren führt immer auf ein System von k+1 (bzw. k) Normalgleichungen Prinzip: Die summierte Ausgangsgleichung wird nacheinander mit jeder Prädiktorpotenz x 0 x k (bzw. z 1 z k ) multipliziert Die Normalgleichungen liefern dann für k+1 (bzw. k) unbekannte Regressionsparameter genau so viele Gleichungen. Di Gl i h t k d h S b tit ti Dieses Gleichungssystem kann nun durch Substitution oder Diagonalisierung für die Parameter gelöst werden

9 Psychologie Multiple Regression I Multiple Regression II Interpretation der b und β Matrixalgebraische Berechnung Matrixalgebra- ische Berechnung der multiplen Regression Wir haben gesehen, dass die Normalgleichungen der multiplen Regression für standardisierte Daten lauteten: n n n n 2 zx z 1 y = β1 zx + β 1 2 zx z 1 x + + β 2 k zx z 1 x i= 1 i= 1 i= 1 i= 1 n n n n 2 zx z 2 y = β1 zx z 1 x + β 2 2 zx + + β 2 k zx z 2 x i= 1 i= 1 i= 1 i= 1 n n n n 2 zx zy = β1 zx zx + β2 zx zx + + βk zx i= 1 i= 1 i= 1 i= 1 k 1 k 2 k k k k Weiterhin ist die Korrelation zweier Variablen x m und x n : n 1 1 rx,, xm mx = z n ix z m ix = z z n N N i= 1 x n

10 Psychologie Multiple Regression I Multiple Regression II Matrixalgebraische Berechnung Matrixalgebra- ische Berechnung der multiplen Regression Damit reduziert sich das Normalgleichungssystem zu: Interpretation r = β + β r + β r + + β r x1y 1 2 x1x2 3 x1x3 k x1x k r = β r + β + β r + + β r der b und β x2 y 1 x1x2 2 3 x2x3 k x2x r = β r + β r + β + + β r x y 1 x x 2 x x 3 k x x r = β r + β r + β r + + β x y 1 x x 2 x x 3 x x k k 1 k 2 k 3 k k k In Matrixnotation ist dies: R xx 1 T xy = Z Z N β = r mit Rxx

11 Psychologie Multiple Regression I Multiple Regression II Interpretation der b und β Matrixalgebraische Berechnung Matrixalgebra- ische Berechnung der multiplen Regression In Matrixnotation ist dies: wobei: R xx β = r 1 xy mit R T xx = Z Z N Rxx = k k Matrix der Prädiktorinterkorrelationen

12 Psychologie Multiple Regression I Multiple Regression II Matrixalgebraische Berechnung Interpretation der b und β Exkurs: Die Korrelationsmatrix R Aufbau und Bedeutung Die Korrelationsmatrix R stellt die Korrelationen zwischen k Variablen in Matrixschreibweise dar. Sie ist quadratisch und enthält k k Korrelationen x x x 1 2 k x1 1 r12 r1 k x2 r21 1 r2 k xk rk1 rk2 1 Die Hauptdiagonale enthält die Korrelationen der Variablen mit sich selbst (r xx = 1) Die untere und obere Dreiecksmatrix sind symmetrisch

13 Psychologie Multiple Regression I Multiple Regression II Interpretation der b und β Matrixalgebraische Berechnung Matrixalgebra- ische Berechnung der multiplen Regression In Matrixnotation ist dies: wobei: R xx β = r 1 xy mit R T xx = Z Z N Rxx = k k Matrix der Prädiktorinterkorrelationen r xy = k 1 Vektor der Kriteriumskorrelationen β = k 1 Vektor der Regressionsgewichte Z = n k Vektor der z-standardisierten Daten Lösung: Inverse Interkorrelationsmatrix vormultiplizieren R R β = R r 1 1 xx xx xx xy I β = R r 1 xx xy

14 Psychologie Multiple Regression I Multiple Regression II Matrixalgebraische Berechnung Interpretation der b und β Matrixalgebraische Berechnung Rückrechnung der unstandardisierten Parameter Wurden die β-parameter für die z-standardisierten Daten matrixalgebraisch bestimmt, kann die Berechnung der unstandardisierten b-parameter vorgenommen werden über SDy bi = βi mit i = 1,2,..., k SD SD xi Die Konstante b 0 wird dann berechnet als b0 = y bx 1 1 b2x2... bkxk

15 Psychologie Multiple Regression I Multiple Regression II Interpretation der b und β Interpretation der Lösung Matrixalgebra- ische Berechnung b- und β-gewichte Die Größe eines b-gewichtes gibt an, um wieviele Einheiten sich der Wert des unstandardisierten Kriteriums verändert, wenn der Betrag des unstandardisierten Prädiktors um 1 steigt. Die Größe des β-gewichtes gibt dasselbe für die standardisierten Variablen an Das b-gewicht beantwortet die Frage: Ich möchte einen der Prädiktoren um 1 erhöhen. Welchen sollte ich wählen, damit das Kriterium maximal steigt? Das β-gewicht beantwortet die Frage: Mit welchem Prädiktor erhöhe ich das Kriterium am effizientesten? Das b-gewicht liefert also eine absolute, das β-gewicht eine relative Information.

16 Psychologie Multiple Regression I Multiple Regression II Kennwerte Test der Gewichte gegen Null Kennwerte der multiplen Regression 1. Der multiple Korrelationskoeffizient R Definition: Der multiple Korrelationskoeffizient R repräsentiert die Korrelation zwischen dem Kriterium y und allen Prädiktoren x 1 x k Dabei berücksichtigt R etwaige Interkorrelationen zwischen den Prädiktoren (und entfernt sie) Der multiple Korrelationskoeffizient R ist definiert als R yxx 1 2 xk j xjy j=1= 1 k = β r Er ist mathematisch äquivalent zur Korrelation zwischen den gemessenen y-werten und den vorhergesagten y dach -Werten, also R yxx x = ryy 1 2 k ˆ

17 Psychologie Multiple Regression I Multiple Regression II Kennwerte Test der Gewichte gegen Null Kennwerte der multiplen Regression 2. Der multiple Determinationskoeffizient R² Definition: Der multiple Determinationskoeffizient R² repräsentiert die Varianzaufklärung, die alle Prädiktoren x 1 x k am Kriterium y leisten Der multiple Determinationskoeffizient R² ist definiert als 2 Erklärte Streuung Fehlerstreuung R = = 1 Gesamt-Streuung Gesamt-Streuung Rechnerisch: 1 Var( yˆ ) Var( e) n Var( y) Var( y) 1 2 i= 1 R = = 1 = n n n i = 1 ( y yˆ ) ( y y) 2 2

18 Psychologie Multiple Regression I Multiple Regression II Kennwerte Test der Gewichte gegen Null Kennwerte der multiplen Regression 3. Abhängigkeit a) Sind die Prädiktoren unabhängig, so sind die ß-Gewichte gleich den Kriteriumskorrelationen und die aufgeklärte Varianz ist die Summe der Quadrate der ß-Gewichte Erklärung: Bei perfekt unabhängigen Prädiktoren ist die Prädiktorinterkorrelationsmatrix R xx gleich der Identitätsmatrix t i I. β = I r β = r xy xy k Damit gilt für den multiplen 2 R = Korrelationskoeffizienten R 1 2 r k j Und R² ist einfach die Summe der quadrierten R Kriteriumskorrelationen 1 2 yxx x x y j= 1 k 2 2 yxx x = r k xjy j= 1

19 Psychologie Multiple Regression I Multiple Regression II Kennwerte Test der Gewichte gegen Null Kennwerte der multiplen Regression 3. Abhängigkeit a) Sind die Prädiktoren unabhängig, so sind die ß-Gewichte gleich den Kriteriumskorrelationen und die aufgeklärte Varianz ist die Summe der Quadrate der ß-Gewichte b) Sind die Prädiktoren abhängig (interkorreliert), t) so sind 3 Fälle zu unterscheiden: 1. Der Prädiktor klärt zumindest Teile der Varianz am Kriterium auf, die andere Prädiktoren nicht aufklären: er ist nützlich. 1. Der Prädiktor enthält Information, die bereits andere Prädiktoren enthalten: er ist redundant 2. Der Prädiktor unterdrückt irrelevante Varianz in anderen Prädiktoren: er ist ein Suppressor

20 Psychologie Multiple Regression I Multiple Regression II Kennwerte Kennwerte der multiplen Regression 3a. Nützlichkeit Test der Nützlichkeit = Der Beitrag, den eine Variable zur Gewichte Varianzaufklärung des Kriteriums leistet, der von gegen Null den anderen Variablen nicht geleistet wird Die Nützlichkeit einer Variablen x j berechnet sich als U = R R 2 2 j y, x y, x 1,2,..., k + j 1,2,..., k j U j it ist also der Betrag, Bt um den R² wächst, äht wenn die Variable x j in die multiple Regressionsgleichung aufgenommen wird.

21 Psychologie Multiple Regression I Multiple Regression II Kennwerte Test der Gewichte gegen Null Kennwerte der multiplen Regression 3b. Redundanz Redundanz = die vielen Variablen messen Aspekte gemeinsam, so dass man prinzipiell weniger Prädiktoren benötigte unerwünschter Aspekt Die Variable x j ist redundant zur Vorhersage von Variable y wenn gilt β r < r 2 x x y x y j j j Prädiktoren enthalten empirisch nahezu immer gemeinsame Varianzanteile und sind somit teilweise redundant. d Echte Redundanz d liegt aber erst gemäß obiger Definition vor. Multikollinearität: Die Kovarianz eines Prädiktors mit dem Kriterium ist in den anderen Prädiktoren (fast) vollständig enthalten extremer Fall von Redundanz.

22 Psychologie Multiple Regression I Multiple Regression II Kennwerte Test der Gewichte gegen Null Kennwerte der multiplen Regression 3c. Suppression r x1 y x 1 r x1 x2 r x2 y =0 x1 x2 X 2 Y x 2 bindet irrelevante Prädiktorinformation x 2 hängt nicht mit y zusammen, trotzdem erhöht sie R²

23 Psychologie Multiple Regression I Multiple Regression II Kennwerte Kennwerte der multiplen Regression 3c. Suppression Test der Defintion: Eine Variable x j ist ein Suppressor,, Gewichte wenn gilt: gegen Null 2 Ux > rx y Die Zunahme der erklärten Varianz durch Aufnahme der Variable ist also größer als die einzelne Varianzaufklärung. j Vereinfachung: Bei nur zwei Prädiktoren x 1 und x 2 it ist x 2 ein Supressor, wenn gilt: r 2 1-r x 1 x 2 xzx 1. > r 2 xz rx z j 2

24 Psychologie Lineare Regression Polynomische Regression Zusammenfassung Regression Zusammenfassung Vereinfachung bei nur 1 UV Oft ist in der Psychologie die Vorhersage des Wertes einer bestimmten Variablen unter Kenntnis der Ausprägung anderer Variablen gefordert. Die bekannten Variablen wird dabei als Prädiktoren, Unabhängige Variablen (UVn) oder Erklärende Variablen bezeichnet Die vorherzusagende Variable wird als Kriterium, Abhängige Variable (AVn) oder Response bezeichnet

25 Psychologie Lineare Regression Polynomische Regression Zusammenfassung Regression Zusammenfassung Vereinfachung bei nur 1 UV Drei Hauptfragestellungen der Regressionsrechnung: 1. Gibt es eine statistische Beziehung zwischen zwei Variablen, die die Vorhersage der AV aus der UV erlaubt? 2. Kann eine möglichst einfache mathematische Regel formuliert werden, die diesen Zusammenhang beschreibt? ˆ = k k y b b x b x b x 3. Wie gut ist diese Regel im Hinblick auf die Vorhersage?

26 Psychologie Lineare Regression Polynomische Regression Zusammenfassung Regression Zusammenfassung Vereinfachung bei nur 1 UV Gründe für die Annahme einer linearen Gleichung: Lineare Zusammenhänge sind einfach zu verstehen Lineare Zusammenhänge sind mathematisch und statistisch einfach zu behandeln Lineare Gleichungen haben sich vielfach als gute Approximationen für komplexe Beziehungen erwiesen Achtung: Auch wenn die Beziehung zwischen zwei ZVn linear aussieht, muss es sich nicht zwangsläufig um einen linearen Zusammenhang handeln.

27 Psychologie Lineare Regression Polynomische Regression Zusammenfassung Regression Zusammenfassung Vereinfachung bei nur 1 UV Vorsicht bei der Interpretation der Regressionsgleichung Bei der Korrelationsrechnung bedeutet ein Zusammenhang niemals Kausalität, lediglich Assoziation Bei der Regressionsrechnung g gilt zunächst dasselbe Die Kausalitätsvermutung wird (wenn überhaupt) schon bei der Aufstellung der Regressionsgleichung g g getroffen, nicht erst bei der Interpretation der Ergebnisse. Um tatsächlich Kausalität festzustellen, müssen weitere Randbedingungen vorliegen (z.b. zeitliche Antezedenz von Ursache vor Wirkung).

28 Psychologie Lineare Regression Polynomische Regression Zusammenfassung Regression Vereinfachung bei nur einem Prädiktor Vereinfachung bei nur 1 UV Bei nur einem Prädiktor vereinfacht sich die Berechnung der Regressionsgewichte erheblich. ŷ = b0 + b1 x b 1 = r 1. Steigung: oder xy s y s x b 1 = cov( xy, ) s s x b = y b x 2. y-achsenabschnitt: 0 1

29 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Fragestellung Neben der Aussage über die Nützlichkeit eines Prädiktors ist man oft daran interessiert, ob er überhaupt mit dem Kriterium zusammenhängt Grundgedanke: d Ein Prädiktor, der in keiner Verbindung zum Kriterium steht, sollte den Wert β j = 0 haben. Ein Prädiktor, der an der Veränderung des Kriteriums beteiligt ist, sollte einen Wert β j 0 haben. Problem: Allein aufgrund der zufälligen Auswahl der Merkmalsträger für die Stichprobe wird ein β-gewicht niemals perfekt Null sein ( Stichprobenfehler ). Frage: Wie unterschiedlich zu Null muss ein β-gewicht Frage: Wie unterschiedlich zu Null muss ein β Gewicht sein, damit wir begründet annehmen können, dass diese Abweichung nicht zufällig ist?

30 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Grundannahmen Die Häufigkeitsverteilung einer Variablen ist oft nicht vollkommen zufällig, sondern folgt einer systematischen Form Beispiele: Körpergrößen, IQ, Augensummen beim Wurf zweier Würfel Oftmals lässt sich die Form einer solchen Häufigkeitsverteilung theoretisch durch eine mathematische Formel beschreiben. Beispiel Normalverteilung: f ( x ) 1 = e σ 2π 1 x μ 2 σ 2

31 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Grundannahmen Die Häufigkeitsverteilung einer Variablen ist oft nicht vollkommen zufällig, sondern folgt einer systematischen Form Beispiele: Körpergrößen, IQ, Augensummen beim Wurf zweier Würfel Oftmals lässt sich die Form einer solchen Häufigkeitsverteilung theoretisch durch eine mathematische Formel beschreiben. Beispiel χ²-verteilung: f ( x ) = x 2 n x n 2 e Γ ( n ) 2

32 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Grundannahmen χ²-verteilung Normalverteilung

33 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Beispiel Körpergrößen von deutschen Frauen sind etwa wie folgt verteilt: Relative e Häufigkeit 35% 30% 25% 20% 15% 10% 5% 0% Körpergrößenverteilung deutscher Frauen Normalverteilung Körpergröße Ist eine Körpergröße von h=170cm typisch? Wie ist es mit einer Körpergröße von h=120cm?

34 Psychologie Lineare Regression Polynomische Regression Kennwerte Statistischer Test der Gewichte Prinzip des Tests gegen Null Test der Wenn eine im Experiment beobachtete Ausprägung g zu Gewichte unwahrscheinlich ist, um unter der gegebenen gegen Null Häufigkeitsverteilung zu entstehen, kann sie als nicht zu dieser Verteilung gehörig betrachtet werden. Dabei wird immer die theoretische Häufigkeitsverteilung (i.e. die mathematische Formel) benutzt, nicht die empirisch erhaltene (fehlerbehaftete) Bezogen auf die β-gewichte fragen wir uns also: Angenommen, ein β itt ist tatsächlich t h Null, wie wahrscheinlich ist dann das an den Stichprobendaten gemessene β? Problem: Wie gelangt man an die theoretische Häufigkeitsverteilung der β-gewichte?

35 Psychologie Lineare Regression Polynomische Regression Kennwerte Statistischer Test der Gewichte Häufigkeitsverteilung transformierter Daten Test der Ausgangslage: g g Man habe am einer Stichprobe Gewichte Messwerte erhoben, die eine bestimmte gegen Null Häufigkeitsverteilung haben Transformation: Man bildet aus diesen Daten ein aggregiertes Maß Beispiele: Mittelwert, Standardabweichung, χ²-wert, β- Gewichte Oft kann in einem solchen Fall die theoretische ti h Häufigkeitsverteilung des aggregierten Maßes bestimmt werden, teilweise erst nach einer weiteren mathematischen Transformation des Maßes

36 Psychologie Lineare Regression Polynomische Regression Kennwerte Statistischer Test der Gewichte Berechnung der Auftretenswahrscheinlichkeit Test der Man berechne: Prüfgröße Gewichte gegen Null n k F ( ) 2 = β β j 1 2 rjj Regressionsgewicht Transformationsterm (Verteilung (hin unbekannt) zur F-Verteilung) 1 mit df Zähler = 1 ( 1 R ) und dfnenner = n k 1 n ist die Stichprobengröße, k die Anzahl der Prädiktoren r -1 jj ist das Diagonalelement j in der inversen Korrelationsmatrix, R² der multiple Determinationskoeffizient Die Prüfgröße folgt einer theoretischen Häufigkeitsverteilung, die F-Verteilung genannt wird Die F-Verteilung hat zwei Parameter, nämlich die so genannten Zähler- und Nenner-Freiheitsgrade

37 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Die F-Verteilung Zähler FG Nenner FG

38 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Bewertung der Auftretenswahrscheinlichkeit Die Freiheitsgrade sind einfach Zahlen, die die konkrete Form der theoretischen Häufigkeitsverteilung festlegen ( Wie schief ist sie? Wo ist sie zentriert? ) Man berechnet zunächst die Prüfgröße F(β) Die F-Verteilung gibt nun an, welche Wahrscheinlichkeit p(f) das Auftreten der Prüfgröße hat Dies ist gleichzeitig die Wahrscheinlichkeit p(β) für den gemessenen oder einen noch extremeren Wert für β, unter der Annahme, dass das β in Wahrheit 0 ist. Die Aussage kann direkt auf das zugehörige b Gewicht Die Aussage kann direkt auf das zugehörige b-gewicht übertragen werden.

39 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Bewertung der Auftretenswahrscheinlichkeit Ist die berechnete Wahrscheinlichkeit zu klein, weicht der β-parameter vermutlich eher nicht zufällig von 0 ab, sondern systematisch. Er ist dann statistisch signifikant von 0 verschieden. Problem: Wie klein ist zu unwahrscheinlich? Hier haben sich in der Praxis zwei Cut-Off Werte eingebürgert, die als α Niveaus oder Signifikanzniveaus bezeichnet werden. Es gilt: α 0.05 statistisch nicht signifikant α < statistisch signifikant α < 0.01 statistisch hochsignifikant

40 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Bewertung der Auftretenswahrscheinlichkeit Angenommen, im Experiment erhalte man ein β= Für dieses berechnet man nun die Prüfgröße F und deren Auftretenswahrscheinlichkeit p(β) unter der Annahme, dass in Wahrheit gilt β=0. Es sei nun p= Nach unseren Konventionen würden wir auf jedem α- Niveau sagen, dass sich β signifikant von 0 unterscheidet. Aber Achtung: Das β=0.123 hat eine Auftretenswahrscheinlichkeit von p(β)= Mit dieser Wahrscheinlichkeit kann es also auch dann vorkommen, wenn in Wahrheit β=0 gilt.

41 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Bewertung der Auftretenswahrscheinlichkeit Die Aussage, ein β sei signifikant von Null verschieden, ist eine Wahrscheinlichkeitsaussage bei der immer ein Restirrtum verbleibt, die Irrtumswahrscheinlichkeit. Diese Irrtumswahrscheinlichkeit hängt nicht von der konkret erhaltenen Wahrscheinlichkeit p ab, sondern vom gewählten Signifikanzniveau α. Bei α=0.05 beträgt die Irrtumswahrscheinlichkeit also 5%, bei α=0.01 ist sie 1%. Praxis: In der Praxis wird α demzufolge entweder als α Niveau, Signifikanzniveau oder auch Irrtumswahrscheinlichkeit bezeichnet.

42 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Prinzip des Testens Beobachtung im Experiment: β= Frage: Kann dieses β in Wahrheit Null sein? Geht die Abweichung von 0 auf einen Stichprobenfehler zurück? (1) Festlegung eines Signifikanzniveaus α (2) Berechnung der Prüfgröße: F(β) deren Häufigkeitsverteilung i il theoretisch h bekannt ist (F-Verteilung) (3) Berechnung der Wahrscheinlichkeit für diese Prüfgröße: p(f) (4) Rückschluss: p(f) = p(β) = p(b) Aber: Bei dieser Aus- sage irrt man sich mit (5) Vergleich von p mit α und einer Wahrscheinlichkeit von Treffen der Signifikanzaussage α 100%

43 Psychologie Lineare Regression Polynomische Regression Kennwerte Test der Gewichte gegen Null Statistischer Test der Gewichte Voraussetzungen Das zu wählende α-niveau muss vor der Berechnung der Prüfgröße festgelegt werden (nicht: Oh, p ist 0.034, dann nehmen wir doch α=0.05 ). Der statistische Test der Regressionsgewichte ist nur dann gültig, wenn die Prüfgröße tatsächlich einer F- Verteilung folgt. Dies kann immer dann angenommen werden wenn die Häufigkeitsverteilungen der Messwerte der Prädiktoren multivariat i t normalverteilt sind (statistisch ti ti sehr schwierige Prüfung) Als Faustregel gilt: Bei n >20undk k <10istdie Annahme der F-Verteilung hinreichend gut begründet

44 Psychologie Lineare Regression Polynomische Regression Grundlagen Nichtlineare Regression Grundlagen Linearisierbare Bei einer Reihe psychologischer py Fragestellungen g ergeben Formen sich nichtlineare Zusammenhänge zwischen UV & AV. Polynome Beispiele: Reaktionszeit, Blutalkohol und psychomotorische Leistungen, Fehlerraten in Leistungstests bei verschiedenen Aufgabenschwierigkeiten Solche nichtlinearen Zusammenhänge lassen sich in zwei Klassen einteilen: 1. Zusammenhänge, die sich durch eine einfache (nichtlineare) Transformationen in lineare Zusammenhänge überführen lassen 2. Zusammenhänge, für die eine nichtlineare Regressionsgleichung gelöst werden muss.

45 Psychologie Lineare Regression Polynomische Regression Grundlagen Nichtlineare Regression Linearisierbare und polynomische Formen Linearisierbare Fall 1: Linearisierende Transformation, z.b. Formen ˆ ( ) ln ˆ ln ln ln y = b xb1 y = b + b x ( ) ( ) ( ) Polynome (hier nicht behandelt) Fall 2: Nicht (einfach) linearisierbar ŷ = b + b x+ b x

46 Psychologie Lineare Regression Polynomische Regression Grundlagen Nichtlineare Regression 1 Beispiel: Logistische Regression 0.8 Linearisierbare Formen Gemessene Daten verlaufen ogivenförmig und variieren Polynome zwischen 0 und 1 0 Umformung der y-werte durch Logarithmieren bewirkt eine Linearisierung der Daten Mithilfe dieser neuen y-werte kann eine lineare Regression bestimmt werden, um die Parameter b 0 und b 1 zu errechnen

47 Psychologie Lineare Regression Polynomische Regression Grundlagen Linearisierbare Formen Polynome Polynomische Regression Grundlagen und Durchführung Häufig können Merkmalszusammenhänge durch Polynome 2. oder 3. Ordnung gut beschrieben werden, d.h. oder ŷ = b + b x+ b x ŷ = b + b x+ b x + b x Dies ist formal eine lineare multiple Regression, allerdings nicht mit mehreren Prädiktoren, sondern mit einem Prädiktor sowie Transformationen seiner selbst.

48 Psychologie Lineare Regression Polynomische Regression Grundlagen Linearisierbare Formen Polynome Polynomische Regression Grundlagen und Durchführung Eine solche polynomische Regression wird berechnet, indem die transformierten Prädiktorterme bestimmt werden Dann wird eine übliche lineare multiple Regression durchgeführt Die Einträge der Korrelationsmatrix sind dabei dann die Korrelationen des Prädiktors mit sich selbst in den transformierten Formen Es können alle von Kennwerte und Gütemaße der multiplen Regression bestimmt werden. Die polyn. Regression ist auch über die KQ-Methode p y g Q (inkl. Normalgleichungen) herzuleiten. Dies führt auf dasselbe Ergebnis wie der hier verfolgte Ansatz.

49 Psychologie Spezielle Regressionen Partialkorrelation Dichotome UV Spezielle Regressionsvarianten Lineare Regression mit einem dichtomen Prädiktor Dichotome AV Bei psychologischen py Fragestellungen g interessiert häufig die Wirkung von dichotomen Prädiktoren. Polytome AV Kanonische Korrelation Beispiele: Akademiker und Lebenszufriedenheit, Morningness und Neurotizismus, Therapieerfahrung (ja/nein) und Therapiebereitschaft. Es soll hier bestimmt werden, wie stark sich die Ausprägung im dichotomen Prädiktor auf das intervallskalierte Kriterium auswirkt. Hier kann die übliche Berechnung eines linearen Regressionsmodells durchgeführt werden.

50 Psychologie Spezielle Regressionen Partialkorrelation Dichotome UV Dichotome AV Polytome AV Spezielle Regressionsvarianten Lineare Regression mit einem dichtomen Prädiktor Die dichotome Variable wird hierzu per Dummykodierung erfasst Eine der beiden Ausprägungen erhält den Wert 0, die andere den Wert 1. Kanonische Geschlecht ht Kodierung Korrelation männlich 0 weiblich 1 weiblich 1 männlich 0

51 Psychologie Spezielle Regressionen Partialkorrelation Dichotome UV Dichotome AV Polytome AV Kanonische Korrelation Spezielle Regressionsvarianten Lineare Regression mit einem dichtomen Prädiktor Nach der Dummykodierung kann eine lineare Regression der intervallskalierten auf die dichotome ZV berechnet werden Der y-achsenabschnitt ist der Mittelwert der Gruppe, die mit 0 kodiert wurde wegen y = a x + b y = b für x = 0 Die Steigung ist der Unterschied zwischen den beiden Gruppen yˆ yˆ = a x + b b= a wegen 1 0 1

52 Psychologie Spezielle Regressionen Partialkorrelation Dichotome UV Spezielle Regressionsvarianten Lineare Regression mit einem dichtomen Prädiktor Dichotome AV Polytome AV Kanonische Korrelation

53 Psychologie Spezielle Regressionen Partialkorrelation Dichotome UV Dichotome AV Polytome AV Kanonische Korrelation Spezielle Regressionsvarianten Regression mit einem dichtomen Kriterium In vielen Bereichen der Psychologie spielen dichotome Kriterien eine Rolle Beispiele: Bestehen eines Leistungstests abhängig vom IQ, Entdecken eines sehr leisen Tons abhängig von der Frequenz des Tons, Ausbildung einer Essstörung abhängig vom elterlichen Fürsorgeverhalten Durch die Prädiktoren muss dann ein 0/1-kodiertes / Kriterium vorhergesagt werden. Zu diesem Zweck kommt die logistische Regression zum Einsatz (hier nicht behandelt)

54 Psychologie Spezielle Regressionen Partialkorrelation Dichotome UV Dichtotome AV Polytome AV Kanonische Korrelation Spezielle Regressionsvarianten Regression mit einem polytomen Kriterium Liegt eine diskrete AV mit mehr als zwei Stufen vor, so spricht man von einem polytomen Kriterium Beispiele: Erreichter Schulabschluss abhängig vom IQ, Gewählter Leistungskurs abhängig vom Grad der Nerdiness, präferierte Automarke abhängig vom Neurotizismuswert Durch die Prädiktoren muss dann ein in k Stufen kodiertes Kriterium vorhergesagt werden. Zu diesem Zweck kommt die multinomiale logistische Regression zum Einsatz (hier nicht behandelt)

55 Psychologie Spezielle Regressionen Partialkorrelation Dichotome UV Dichtotome AV Polytome AV Kanonische Korrelation Spezielle Regressionsvarianten Regression mit mehreren Kriterien Eine Reihe psychologischer Fragestellungen beinhaltet multiple Prädiktoren und multiple Kriterien Beispiele: Veränderung von Reaktionszeit und Fehlerhäufigkeit abhängig von Alkoholisierungsgrad, Geschlecht und Fahrpraxis; Beeinflussung von Schlafdauer, Schlafqualität und Erholungsgrad g durch Medikamentengabe, autogenes Training, Einschlafzeit und Zimmerhelligkeit Durch k Prädiktoren sollen dann m Kriterienwerte vorhergesagt werden. Zu diesem Zweck kommt die kanonische Korrelation (oder multivariate Regression) zum Einsatz (hier nicht behandelt)

56 Psychologie Spezielle Regressionen Partialkorrelation Partialkorrelation Semipartialkorrelation Multiple Parti- alkorrelation Partialkorrelation Deutungsmöglichkeiten der einfachen Regression 1. Zufall 2. Kausalität: X Y 3. Latente Drittvariable(n) ξ x 1 x 2 4. Direkte und indirekte ξ Kausalität x 1 x 2

57 Psychologie Spezielle Regressionen Partialkorrelation Partialkorrelation Semipartialkorrelation Partialkorrelation im Fall zweier korrelierter Variablen Definition: Eine Partialkorrelation ist die Korrelation zweier Variablen, die vom Effekt anderer Variablen bereinigt wurden. Einsatzzweck: Prüfung einer Kausalvermutung G Kommt r y1y2 dadurch zustande, dass eine Drittvariable x ursächlich auf y 1 und y 2 einwirkt? x r x,y1 G G r x, y2 r y1,y2 y 1 y 2 Multiple Parti- alkorrelation Scheinkorrelation

58 Psychologie Spezielle Regressionen Partialkorrelation Partialkorrelation Berechnung und Prüfung Partialkorrelation Semipartialkorrelation 1. Sage y 1 aus x voraus und berechne Residuen e y1 2. Sage y 2 aus x voraus und berechne Residuen e y2 3. Berechne die Korrelation r ey1 e y2 Schreibe: r y1y2 12 x Multiple Parti- alkorrelation r ey1 e y2 y 1 y r 2 y1y2 x x ohne Ist Partialkorrelation nahe Null, so beruht die Korrelation Ist Partialkorrelation nahe Null, so beruht die Korrelation r y1y2 tatsächlich vor allem auf der Einwirkung von x. (Prüfung mit Korrelationstest)

59 Psychologie Spezielle Regressionen Partialkorrelation Partialkorrelation Semipartialkorrelation Multiple Parti- alkorrelation Partialkorrelation Vereinfachte Berechnung Für die Varianz der Vorhersagefehler galt Var( e ) = Var ( y ) (1 r ) 2 Var( e x, y ) = Var( y1 ) (1 rx, y ) 2 xy, 2 xy, Die Korrelation der Fehler lässt sich schreiben als r e e xy, 1 xy, 1 Man kann nun zeigen, dass gilt Cov( exy, e 1 xy, ) 2 = s s e e xy, 1 xy, 2 Cov ( e, e ) = Cov( y, y ) b b Var ( x ) xy, xy, 1 2 xy, xy, Und damit errechnet sich die Partialkorrelation als r y, y x 1 2 = r r r y, y xy, xy, r 1 r 2 2 x, y x, y 1 2

60 Psychologie Spezielle Regressionen Partialkorrelation Semipartialkorrelation Multiple Parti- alkorrelation Semipartialkorrelation Partialkor- relation im Fall zweier korrelierter Variablen Definition: Eine Semipartialkorrelation ist die Korrelation zweier Variablen, von denen eine vom Effekt einer anderen Variablen bereinigt wurden. Einsatzzweck: Prüfung der zusätzlichen Information eines Prädiktors bei der Erklärung des Kriteriums Die Semipartialkorrelation ist eng verbunden mit der Nützlichkeit. Es gilt nämlich U = r² x 1 y(x1 x2) r ey1 y2 y 1 y 2 x r y1y2

61 Psychologie Spezielle Regressionen Partialkorrelation Semipartialkorrelation Berechnung Partialkorrelation Semipartialkorrelation 1. Sage y 2 aus x voraus und berechne Residuen e y2 2. Berechne die Korrelation r y1 e y2 Schreibe: r y1(y2 x) (analog für Auspartialisierung von x aus y1) Multiple Parti- alkorrelation 3. Oder verwende die vereinfachte Formel ohne r y ( y x) = 1 2 r r r y, y x, y x, y r 2 xy, 2

62 Psychologie Spezielle Regressionen Partialkorrelation Partialkorrelation Semipartialkorrelation Multiple Parti- alkorrelation (Semi-)Partialkorrelation höherer Ordnung Prinzip Soll der Zusammenhang zwischen zwei Variablen um mehrere andere Variablen bereinigt werden, spricht man von (Semi-)Partialkorrelationen höherer Ordnung Die Berechnung verläuft analog zu den (Semi-)Partialkorrelationen bei nur einer auszupartialisierenden Variable x 1 x 2 x 3 r y1y2 y 1 y 2

63 Psychologie Spezielle Regressionen Partialkorrelation (Semi-)Partialkorrelation höherer Ordnung Berechnung über multiple Regression Partialkorrelation Semipartialkorrelation Multiple Parti- alkorrelation 1. Sage y 1 aus den x 1 x k voraus und berechne Residuen e y1 2. Sage y 2 aus den x 1 x k und berechne Residuen e y2 3. Berechne die Korrelation r ey1 e y2 r y 1y2 x1 xk (Partialkorrelation) oder Berechne die Korrelation r y1 e y2 (Semipartialkorrelation) r y 1(y2 x1 xk)

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Methodenlehre Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Dr. Malte Persike persike@uni-mainz.de

Mehr

Multiple Regressionsanalyse - Kurzabriss

Multiple Regressionsanalyse - Kurzabriss Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Statistik & Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 6-6) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-31 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Methodenlehre e e Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Drittvariablenkontrolle in der linearen Regression: Trivariate Regression

Drittvariablenkontrolle in der linearen Regression: Trivariate Regression Drittvariablenkontrolle in der linearen Regression: Trivariate Regression 14. Januar 2002 In der Tabellenanalyse wird bei der Drittvariablenkontrolle für jede Ausprägung der Kontrollvariablen eine Partialtabelle

Mehr

VS PLUS

VS PLUS VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psmet03.sowi.uni-mainz.de/

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Forschungsstatistik II

Forschungsstatistik II Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-3 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik II Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Korrelation Regression. Wenn Daten nicht ohne einander können Korrelation

Korrelation Regression. Wenn Daten nicht ohne einander können Korrelation DAS THEMA: KORRELATION UND REGRESSION Korrelation Regression Wenn Daten nicht ohne einander können Korrelation Korrelation Kovarianz Pearson-Korrelation Voraussetzungen für die Berechnung die Höhe der

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

1 Beispiel zur Methode der kleinsten Quadrate

1 Beispiel zur Methode der kleinsten Quadrate 1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Statistik & Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Statistisches Testen

Statistisches Testen Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall

Mehr

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen. Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de lordsofthebortz.de lordsofthebortz.de/g+

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg R. 06-06 (Persike) R. 06-31 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Vorlesung: Multivariate Statistik für Psychologen

Vorlesung: Multivariate Statistik für Psychologen Vorlesung: Multivariate Statistik für Psychologen 6. Vorlesung: 28.04.2003 Organisatorisches Terminverlegung Übungsgruppen Gruppe 5 alter Termin: Donnerstag, 01.05.03, 12 14 Uhr, IfP SR 9 neuer Termin:

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Korrelation und Regression

Korrelation und Regression FB 1 W. Ludwig-Mayerhofer und 1 und FB 1 W. Ludwig-Mayerhofer und 2 Mit s- und sanalyse werden Zusammenhänge zwischen zwei metrischen Variablen analysiert. Wenn man nur einen Zusammenhang quantifizieren

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Primer: Inferenzstatistik 1.0

Primer: Inferenzstatistik 1.0 : 1.0 Dr. Malte Persike persike@uni-mainz.de methodenlehre.com twitter.com/methodenlehre methodenlehre.com/g+ iversity.org/schoolinger Inhalte der nächsten Minuten Die Frage aller Fragen: Ist etwas groß?

Mehr

Die Familie der χ 2 (n)-verteilungen

Die Familie der χ 2 (n)-verteilungen Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +

Mehr

Kapitel 4: Merkmalszusammenhänge

Kapitel 4: Merkmalszusammenhänge Kapitel 4: Merkmalszusammenhänge Korrelationen 1 Lineare Regression 3 Literatur 5 Korrelationen Mit Hilfe von G*Power lässt sich analog zum Vorgehen beim t-test (Kapitel 3, Band I) vor einer Untersuchung

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1

Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Biomathematik für Mediziner, Klausur WS 1999/2000 Seite 1 Aufgabe 1: Wieviele der folgenden Variablen sind quantitativ stetig? Schulnoten, Familienstand, Religion, Steuerklasse, Alter, Reaktionszeit, Fahrzeit,

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Mathematische und statistische Methoden II

Mathematische und statistische Methoden II Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de

Mehr

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Informationen zur KLAUSUR am

Informationen zur KLAUSUR am Wiederholung und Fragen 1 Informationen zur KLAUSUR am 24.07.2009 Raum: 032, Zeit : 8:00 9:30 Uhr Bitte Lichtbildausweis mitbringen! (wird vor der Klausur kontrolliert) Erlaubte Hilfsmittel: Alle Unterlagen,

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Die Funktion f wird als Regressionsfunktion bezeichnet.

Die Funktion f wird als Regressionsfunktion bezeichnet. Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften t-test Varianzanalyse (ANOVA) Übersicht Vergleich von Mittelwerten 2 Gruppen: t-test einfaktorielle ANOVA > 2 Gruppen: einfaktorielle ANOVA Seeigel und

Mehr

Annahmen des linearen Modells

Annahmen des linearen Modells Annahmen des linearen Modells Annahmen des linearen Modells zusammengefasst A1: Linearer Zusammenhang: y = 0 + 1x 1 + 2x 2 + + kx k A2: Zufallsstichprobe, keine Korrelation zwischen Beobachtungen A3: Erwartungswert

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 2. Stock, Nordflügel R. 02-429 (Persike) R. 02-431 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de WS 2008/2009

Mehr

Quantitative Methoden (Vertretung für Prof. Th. Pechmann)

Quantitative Methoden (Vertretung für Prof. Th. Pechmann) Quantitative Methoden (Vertretung für Prof. Th. Pechmann) Inferenzstatistik I: Zusammenhänge (Korrelationen) Logik inferenzstatistischer Verfahren Andreas Opitz Universität Leipzig Institut für Linguistik

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau

Mehr

Test von Hypothesen: Signifikanz des Zusammenhangs (F-Test)

Test von Hypothesen: Signifikanz des Zusammenhangs (F-Test) Test von Hyothesen: Signifikanz des Zusammenhangs (F-Test) Die Schätzung der Regressionsfunktion basiert auf Daten einer Stichrobe Inwiefern können die Ergebnisse dieser Schätzung auf die Grundgesamtheit

Mehr

Klassen diskreter Variablen

Klassen diskreter Variablen Modelle diskreter Variablen Klassen diskreter Variablen binär multinomial Weitere Klassifizierung multinomialer diskreter Variablen: kategorial y = 1, falls Einkommen < 3000 e. y = 2, falls Einkommen zw.

Mehr

Chi-Quadrat Verfahren

Chi-Quadrat Verfahren Chi-Quadrat Verfahren Chi-Quadrat Verfahren werden bei nominalskalierten Daten verwendet. Die einzige Information, die wir bei Nominalskalenniveau zur Verfügung haben, sind Häufigkeiten. Die Quintessenz

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Ziel der linearen Regression

Ziel der linearen Regression Regression 1 Ziel der linearen Regression Bei der linearen Regression wird untersucht, in welcher Weise eine abhängige metrische Variable durch eine oder mehrere unabhängige metrische Variablen durch eine

Mehr

5. Seminar Statistik

5. Seminar Statistik Sandra Schlick Seite 1 5. Seminar 5. Seminar Statistik 30 Kurztest 4 45 Testen von Hypothesen inkl. Übungen 45 Test- und Prüfverfahren inkl. Übungen 45 Repetitorium und Prüfungsvorbereitung 15 Kursevaluation

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Bivariate Analyseverfahren

Bivariate Analyseverfahren Bivariate Analyseverfahren Bivariate Verfahren beschäftigen sich mit dem Zusammenhang zwischen zwei Variablen Beispiel: Konservatismus/Alter Zusammenhangsmaße beschreiben die Stärke eines Zusammenhangs

Mehr

Bivariater Zusammenhang in der Mehrfeldertafel PEΣO

Bivariater Zusammenhang in der Mehrfeldertafel PEΣO Bivariater Zusammenhang in der Mehrfeldertafel PEΣO 9. November 2001 Bivariate Häufigkeitsverteilungen in Mehrfeldertabellen In der Mehrfeldertabelle werden im Gegensatz zur Vierfeldertabelle keine dichotomen

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

TEIL 13: DIE EINFACHE LINEARE REGRESSION

TEIL 13: DIE EINFACHE LINEARE REGRESSION TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen

Mehr

2. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

2. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 . Lösung weitere Übungsaufgaben Statistik II WiSe 016/017 1. Aufgabe: Bei der Produktion eines Werkstückes wurde die Bearbeitungszeit untersucht. Für die als normalverteilt angesehene zufällige Bearbeitungszeit

Mehr

Lineare Regression. Y = b 0

Lineare Regression. Y = b 0 Lineare Regression 2 Lineare Regression 2 Lineare Regression 2 Bei der linearen Regression wird eine Kriteriumsvariable Y auf die Prädiktorvariable X zurückgeführt, indem die beste lineare Gleichung Y

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

8. Konfidenzintervalle und Hypothesentests

8. Konfidenzintervalle und Hypothesentests 8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade

Formelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade Version 2015 Formelsammlung für das Modul Statistik 2 Bachelor Sven Garbade Prof. Dr. phil. Dipl.-Psych. Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Analyse von Kontingenztafeln

Analyse von Kontingenztafeln Analyse von Kontingenztafeln Mit Hilfe von Kontingenztafeln (Kreuztabellen) kann die Abhängigkeit bzw. die Inhomogenität der Verteilungen kategorialer Merkmale beschrieben, analysiert und getestet werden.

Mehr

Statistik, Datenanalyse und Simulation

Statistik, Datenanalyse und Simulation Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der

Mehr

Modul G.1 WS 07/08: Statistik

Modul G.1 WS 07/08: Statistik Modul G.1 WS 07/08: Statistik 10.01.2008 1 2 Test Anwendungen Der 2 Test ist eine Klasse von Verfahren für Nominaldaten, wobei die Verteilung der beobachteten Häufigkeiten auf zwei mehrfach gestufte Variablen

Mehr

Diagnostik von Regressionsmodellen (1)

Diagnostik von Regressionsmodellen (1) Diagnostik von Regressionsmodellen (1) Bei Regressionsanalysen sollte immer geprüft werden, ob das Modell angemessen ist und ob die Voraussetzungen eines Regressionsmodells erfüllt sind. Das Modell einer

Mehr

Das Lineare Regressionsmodell

Das Lineare Regressionsmodell Das Lineare Regressionsmodell Bivariates Regressionsmodell Verbrauch eines Pkw hängt vom Gewicht des Fahrzeugs ab Hypothese / Theorie: Je schwerer ein Auto, desto mehr wird es verbrauchen Annahme eines

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Methodenlehre Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-206 Dr. Malte Persike persike@uni-mainz.de

Mehr

Messwiederholungen und abhängige Messungen

Messwiederholungen und abhängige Messungen Messwiederholungen und abhängige Messungen t Tests und Varianzanalysen für Messwiederholungen Kovarianzanalyse Thomas Schäfer SS 009 1 Messwiederholungen und abhängige Messungen Bei einer Messwiederholung

Mehr

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren) 5.1. Einführung Schätzen unbekannter Parameter im Modell, z.b. Wahrscheinlichkeiten p i (Anteile in der Gesamtmenge), Erwartungswerte

Mehr

Anpassungstests VORGEHENSWEISE

Anpassungstests VORGEHENSWEISE Anpassungstests Anpassungstests prüfen, wie sehr sich ein bestimmter Datensatz einer erwarteten Verteilung anpasst bzw. von dieser abweicht. Nach der Erläuterung der Funktionsweise sind je ein Beispiel

Mehr

Konkretes Durchführen einer Inferenzstatistik

Konkretes Durchführen einer Inferenzstatistik Konkretes Durchführen einer Inferenzstatistik Die Frage ist, welche inferenzstatistischen Schlüsse bei einer kontinuierlichen Variablen - Beispiel: Reaktionszeit gemessen in ms - von der Stichprobe auf

Mehr

2. Formulieren von Hypothesen. Nullhypothese: H 0 : µ = 0 Gerät exakt geeicht

2. Formulieren von Hypothesen. Nullhypothese: H 0 : µ = 0 Gerät exakt geeicht 43 Signifikanztests Beispiel zum Gauß-Test Bei einer Serienfertigung eines bestimmten Typs von Messgeräten werden vor der Auslieferung eines jeden Gerätes 10 Kontrollmessungen durchgeführt um festzustellen,

Mehr