Kapitel 3: 1. Interpretation von Outputs allgemein... 1 2. Interpretation von Signifikanzen... 1 2.1. Signifikanztests / Punktschätzer... 1 2.2. Konfidenzintervalle... 2 3. Interpretation von Parametern... 2 3.1. Lineare Einfachregression... 3 3.2. Nicht lineare Einfachregression... 4 3.2.1. Beispiel 1: Parabolische Funktion... 4 3.2.2. Beispiel 2: Exponentialfunktion... 5 3.2.3. Beispiel 3: Kubische Funktion... 6 3.2.4. Beispiel 4: Inverse Funktion... 8 3.2.5. Falsche Modellannahmen... 9 3.3. Multiple Regression... 10 4. Dummy-Kodierung... 11 4.1. Einfaktorielle Varianzanalyse als multiple Regression... 13 4.2. Mehrfaktorielle Varianzanalyse als multiple Regression... 16 4.3. Kovarianzanalyse als multiple Regression... 17 5. Signifikante und nicht signifikante Regressionskoeffizienten... 18 6. Wie in der Klausur... 19
1. Interpretation von Outputs allgemein Statistikprogramme geben verschiedene Outputs aus, die alle etwas anderes Aussagen. Im Folgenden werden lediglich Regressionsparameteroutputs interpretiert, weil das wahrscheinlich auch die einzigen sein werden, die ihr in der Klausur bekommen werdet. Bei der Interpretation von Outputs geht es um zwei Dinge. Zum einen möchten wir wissen, ob es einen signifikanten Zusammenhang zwischen dem (den) Prädiktor (Prädiktoren) und dem Kriterium geht und zum anderen, wie große dieser Zusammenhang ist. Der Wert des Parameterschätzers gibt uns die Größe des Zusammenhangs an. Sind die Parameterschätzer aber nicht signifikant, würde das bedeuten, dass der dazugehörige Prädiktor gar keinen Einfluss auf unser Kriterium hat. Deswegen interpretiert man zuerst die Signifikanzen (schaut zuerst auf die Punktschätzer bzw. auf das Konfidenzintervall) und dann interpretiert man die Höhe der Parameterschätzer. Für die Klausur ist es nicht relevant die Größe des Zusammenhanges zu interpretieren! Lediglich die Richtung (handelt es sich um einen positiven oder negativen Wert) des Effekts ist bei der Interpretation zu beachten. 2. Interpretation von Signifikanzen Ich kann über zwei verschiedene Wege eine Aussage über die Signifikanz eines Parameters machen. Entweder ich errechne einen Punktschätzer und Stelle Hypothesen für die Parameter auf die ich dann über einen t-test, F-Test, -Test teste (je nachdem welcher Verteilung der jeweilige Punktschätzer folgt) oder ich ermittel Konfidenzintervalle für die Parameter. Da es eigentlich egal ist ob ich mir einen t-wert und den dazugehörigen p-wert angucke oder die Konfidenzintervalle interpretiere, wird standardmäßig oft nur eines von beiden in Outputs angegeben. Es kann sein, dass bei Spieß auch nur eines von beiden vorkommen wird. 2.1. Signifikanztests / Punktschätzer Siehe auch Kap.1 Parameterschätzung & Inferenzstatistik. Hier nur die Kurzfassung: - Es wird getestet ob die beibehalten werden muss oder die angenommen werden kann - Nicht signifikant bedeutet, dass der Parameterschätzer mit relativ hoher Wahrscheinlichkeit zu der Verteilung der gehört o Der Erwartungswert der ist 0 o Bedeutet, dass der Wert des Parameters eigentlich 0 ist und damit eigentlich gar keinen Einfluss auf das Kriterium hat o Schlussfolgerung: Der zu diesem Parameterschätzer gehöriger Prädiktor hat keinen Einfluss auf das Kriterium! - Signifikant bedeutet, dass der Parameterschätzer mit relativ niedriger Wahrscheinlichkeit zu der Verteilung der gehört. Wenn die ausschließe, muss ich annehmen, dass der Parameterschätzer zu der Verteilung der gehört Seite 1 von 21
o Der Erwartungswert der ist der Parameter selbst o Würde also bedeutet, dass der Wert des Parameters nicht 0 ist und somit nicht wegfallen würde o Schlussfolgerung: Der zu diesem Parameterschätzer gehöriger Prädiktor hat tatsächlich einen Einfluss auf das Kriterium! - Die Höhe von Wahrscheinlichkeit definiere ich über mein vorher festgelegtes Signifkanzniveau: I. d. R. liegt das Signifkanzniveau bei 0,05 o Wenn der p-wert kleiner 0,05 ist, dann halte ich es für unwahrscheinlich, dass die zutrifft 2.2. Konfidenzintervalle Ein Konfidenzintervall ist ein Intervall, in der man zu einer bestimmten (vorher festgelegten) Wahrscheinlichkeit sich sicher sein kann, dass der wahre Wert darin liegt. Beträgt die vorher festgelegte Irrtumswahrscheinlichkeit bspw. 0,05, dann kann ich zu 95% Sicherheit sagen, dass der wahre Wert in diesem Intervall liegt. Das Intervall hängt von zwei wesentlichen Dingen ab: 1. Irrtumswahrscheinlichkeit: Je größer ich die Irrtumswahrscheinlichkeit wähle, desto SCHMALER das Intervall. Ich kann zwar eine genauere Aussage über den wahren Parameter machen, muss aber auch damit rechnen, dass es eher falsch ist. 2. Standardabweichung, bzw. Standardfehler: Je größer der SE, desto größer das Intervall Bei der Interpretation ist nun folgendes zu beachten: Das Intervall darf NICHT 0 kreuzen! Hätten wir einen Parameter, dessen Wert bei bspw. 0,5 liegt und sein 95%-Konfidenzintervall liegt bei -0,5 und 1,5, würde das bedeutet, dass in manchen Fällen der Effekt einen positiven, gar keinen oder einen negativen Effekt haben kann. In 95% der Fälle weiß man also gar nicht wohin die Fahrt geht! Bedenkt man, dass die 5% Irrtumswahrscheinlichkeit ja noch dazu kommen, weiß man eigentlich nur, dass man gar nichts weiß. 3. Interpretation von Parametern Der Parameter ist in Regressionsmodellen eine Änderungsrate: Er misst um wie viele Einheiten sich ändert, wenn sich um eine Einheit ändert. Diese Interpretation gilt aber nur unter ceteris paribus, d. h. wenn alle anderen Variablen im Modell konstant gehalten werden. Alle anderen Variablen im Modell sind zum einen alle anderen Prädiktoren, als derjenige, für den die Aussage getroffen wird wenn gilt und zum anderen der Fehler, der ja auch eine Variable ist. Für die Klausur interessiert uns aber nicht die Größe der Änderungsrate, sondern lediglich die Richtung, also ob die jeweils einen positiven oder negativen Wert angenommen haben. Es gibt mehrere Regressionsmodelle, deren Outputs sich etwas unterscheiden. Im Folgenden werden einige Modelle vorgestellt, die evtl. in der Klausur vorkommen könnten. Die meisten Outputs folgen folgendem Schema: Seite 2 von 21
3.1. Lineare Einfachregression Bei der linearen Einfachregression wird ein linearer Zusammenhang zwischen einem kontinuierlich ausgeprägten Prädiktor und einem kontinuierlich ausgeprägten Kriterium ermittelt. Das geschätzte Modell sähe dann wie folgt aus: Beispiel: (in cm) Wir überprüfen, ob Körpergröße einen Effekt auf den IQ hat (Interpretation der Signifikanz) und wenn ja, in welche Richtung dieser Effekt geht (positiver oder negativer Wert). Nun gilt es die unbekannten Regressionsparameter zu schätzen: Die Konstante und die Gewichtung unseres Prädiktor, der uns sagt, wie wichtig unser Prädiktor eigentlich ist. a Nicht standardisierte Standardisierte 95,0% Konfidenzintervalle für B Modell RegressionskoeffizientB Std. Error Beta t Sig. Untergrenze Obergrenze 1 (Konstante) 83,040 30,736 2,702,012 20,080 146,001 Körpergröße,084,170,093,496,624 -,264,432 a. Abhängige Variable: IQ Der erste Blick geht auf die Signifikanzspalte: Die Konstante ist anscheinend signifikant: und damit ist p kleiner als 0,05. Das ist nicht sonderlich spannend, da dies inhaltlich einfach nur bedeutet, dass die Regressionsgerade ihren Ursprung im Koordinatensystem nicht bei 0 hat. Das ist für die meisten psychologischen Hypothesen die getestet werden nicht weiter relevant. Deswegen wird auch eigentlich die Signifikanz der Konstante ignoriert, außerdem wird die Konstante eh meistens signifikant ist da schon interessanter! Der Regressionskoeffizient für unseren Prädiktor ist nicht signifikant: ; und damit ist p nicht kleiner als 0,05. Körpergröße hat keinen signifikanten linearen Einfluss auf den IQ. Dieselben eben getroffenen Aussagen kann ich auch machen, wenn ich mir das Konfidenzintervall anschaue. Kreuzen die Werte nicht 0 interpretiere ich die Regressionskoeffizienten als signifikant. Seite 3 von 21
Das Intervall der Konstante kreuzt nicht 0 (=signifikant), das Intervall des Regressionskoeffizienten für den Prädiktor aber schon (=nicht signifikant). Damit erübrigt sich jede weitere Interpretation, also ob es einen negativen oder positiven linearen Zusammenhang zwischen IQ und Körpergröße gibt, denn anscheinend gibt es ja gar keinen! 3.2. Nicht lineare Einfachregression Bei nicht linearen Regressionsmodellen wird ein nicht linearer Zusammenhang zwischen kontinuierlich ausgeprägten Prädiktoren und einem kontinuierlich ausgeprägten Kriterium ermittelt. Nicht linear ist dabei ein weit gefasster Begriff. Nicht linear kann exponential oder logarithmisch ( oder eine sonstige Transformation des Prädiktors sein. Es geht dabei immer nur um eine Modellanpassung. Die Frage ist immer, wie der Prädiktor transformiert werden kann, damit er am besten die Daten wiederspiegeln kann, also der Zusammenhang zwischen Prädiktor und Kriterium am besten modelliert wird. 3.2.1. Beispiel 1: Parabolische Funktion Die parabolischen Funktion entspricht einer Funktion zweiten Grades: Es gibt ein Intercept und das x im ersten und zweiten Grad. Beispiel: (in ms) (in Liter) (in Liter) Wir überprüfen also, ob Alkohol einen Effekt auf die Reaktionszeit hat, der irgendwie einer Parabel gleich kommt: Standardisierte Nicht standardisierte B Standardfehler Beta t Sig. Liter -174,125 48,180 -,542-3,614,005 Liter ** 2 208,456 20,555 1,521 10,141,000 (Konstante) 99,848 24,554 4,066,002 Abhängige Variable: ms Seite 4 von 21
Alle Parameter sind signifikant. Das bedeutet, dass Alkohol ganz anscheinend einen quadratischen Effekt auf die Reaktionszeit hat. Abbildung 1: Scatterplot für Reaktionszeit auf Alkoholkonsum: Parabel In der Abbildung sieht man sehr deutlich, wie ein parabolisches Modell (gestrichelte Linie) die Daten besser repräsentiert, als ein nur einfacher linearer Zusammenhang (durchgehende Linie). 3.2.2. Beispiel 2: Exponentialfunktion Ein anderer Forscher möchte untersuchen, ob eine Exponentialfunktion für x die Reaktionszeiten ebenso gut repräsentieren könnte. Beispiel: (in ms) (in Liter) Wir überprüfen also, ob Alkohol einen exponentiellen Effekt auf die Reaktionszeit hat: Seite 5 von 21
Nicht standardisierte Standardisierte B Standardfehler Beta t Sig. Liter 1,449,030,998 49,110,000 (Konstante) 33,427 1,268 26,361,000 Abhängige Variable:ln(ms). Achtung: SPSS formt die Gleichung durch den natürlichen Logarithmus um. Das erkenne ich an der Output-Beschreibung. Es wird also quasi folgendes Modell getestet: Alle Parameter sind signifikant. Das bedeutet, dass Alkohol anscheinend einen exponentiellen Effekt auf die Reaktionszeit hat. Abbildung 2: Scatterplot für Reaktionszeit auf Alkohol: Exponentialfunktion Die Exponentialfunktion scheint die Daten sogar noch besser zu repräsentieren, als die parabolische Funktion. 3.2.3. Beispiel 3: Kubische Funktion Die kubischen Funktion entspricht einer Funktion dritten Grades: Es gibt ein Intercept und das x im ersten, zweiten und dritten Grad. Seite 6 von 21
Ein Beispiel könnte sein, dass man ein neues Medikament testen möchte: (in Stunden) (in Stunden) (in Stunden) Wir überprüfen also, ob das neue Medikament über die Zeit hinweg Nebenwirkungen auslöst. Dabei nehmen wir an, dass diese Nebenwirkungen erst ansteigen, dann wieder abfallen und später wieder ansteigen. Nicht standardisierte Standardisierte B Standardfehler Beta t Sig. Zeit 705,371 121,695 12,001 5,796,000 Zeit ** 2-729,174 118,596-29,078-6,148,000 Zeit ** 3 216,942 34,796 17,479 6,235,000 (Konstante) -79,251 36,763-2,156,059 Abhängige Variable: Beschwerde Bis auf das Intercept sind alle Regressionsparameter signifikant. Da mich das Intercept eh nicht interessiert (siehe weiter oben), ist dies auch nicht weiter schlimm. Wichtig sind die Steigungskoeffizienten der anderen Parameter. Sie sind alle signifikant, was wiederum bedeutet, dass die Zeit einen kubischen Effekt auf die Beschwerden hat. Seite 7 von 21
Abbildung 3: Scatterplot für Beschwerden auf Zeit: Kubische Funktion In der Abbildung sieht man sehr gut, wie die kubische Funktion die Daten repräsentieren kann. 3.2.4. Beispiel 4: Inverse Funktion Bei einer inversen Funktion eines Parameters, wird die eins durch den Parameter geteilt. Beispiel: (BDI-Werte) (in Sitzungen) Wir überprüfen also, ob die Depression besonders stark am Anfang der Therapie ist, dann relativ stark abnimmt, aber dann immer langsamer abnimmt. Es gibt also am Anfang einen großen Effekt von Therapie und dieser wird dann stetig geringer. Seite 8 von 21
Nicht standardisierte Standardisierte B Standardfehler Beta t Sig. 1 / Sitzungen 134,360 17,862,915 7,522,000 (Konstante) 8,794 1,285 6,841,000 Alle Parameter sind signifikant. Das bedeutet, dass Therapiesitzungen anscheinend einen inversförmigen Effekt auf die Depressionswerte haben. Abbildung 4: Scatterplot BDI-Werte auf Therapiesitzungen: Inverse Funktion In der Abbildung erkennt man gut den inversverlaufenden Zusammenhang zwischen Therapie und Depression. Am Anfang gehen die BDI-Werte noch stark zurück und auch wenn sie auch kontinuierlich zurückgehen, so gehen sie zum Ende der Therapie hin nicht mehr so stark zurück. 3.2.5. Falsche Modellannahmen Angenommen ein zweiter Forscher erhebt eine zweite Stichprobe und will den parabolischen Zusammenhang von Alkohol auf Reaktion replizieren. Er bekommt dabei folgende Ergebnisse: Seite 9 von 21
Nicht standardisierte Standardisierte B Standardfehler Beta t Sig. Liter 67,695 11,917,731 5,681,000 Liter ** 2 10,666 5,084,270 2,098,062 (Konstante) 32,069 6,073 5,280,000 Abhängige Variable: ms Der Regressionsparameter für das x zweiten Grades ist nicht signifikant. Daher kann der Forscher nicht davon ausgehen, dass er hier einen quadratischen Effekt von Alkohol auf die Reaktionszeit gefunden hat. Ein anderer Forscher will den kubischen Effekt von dem neuen Medikament über die Zeit hinweg ebenfalls replizieren und bekommt folgende Ergebnisse: Nicht standardisierte Standardisierte B Standardfehler Beta t Sig. Zeit 137,558 93,156,428 1,477,174 Zeit ** 2-112,032 90,784 -,817-1,234,248 Zeit ** 3 95,158 26,636 1,403 3,573,006 (Konstante) 18,780 28,142,667,521 Abhängige Variable: Beschwerde Zwar ist der Regressionsparameter für das x dritten Grades signifikant, aber dafür nicht die des ersten und zweiten Grades. Also kann dieser Forscher nicht davon ausgehen, dass hier ein Effekt von Zeit auf Beschwerden vorliegt, der einer kubischen Funktion folgt. Wichtig: Ich kann ausgehend von Nicht-Signifikanz keine weiteren Annahmen über das Modell machen! Ich kann weder bei dem ersten Ergebnis auf einen linearen Zusammenhang schließen, noch bei dem zweiten Ergebnis von einem exponentiellen oder quadratischen Zusammenhang ausgehen. Auf der Grundlage von Nicht-Signifikanz darf keine Interpretation folgen. Wir können nur sagen wie etwas NICHT ist. Andere Annahmen müssten erst in einem neuen Modell überprüfen werden. 3.3. Multiple Regression Bei der multiplen Regression wird der Zusammenhang zwischen mehreren kontinuierlich ausgeprägten Prädiktoren und einem kontinuierlich ausgeprägten Kriterium ermittelt. Dabei kann es insgesamt Prädiktoren im Modell geben, Seite 10 von 21
Beispiel für Prädiktoren: (in Tausend EUR) (in Minuten) Wir überprüfen, objeweils Einkommen und Lesen einen Effekt auf den IQ haben. a Nicht standardisierte Standardisierte 95,0% Konfidenzintervalle für B Modell Regressionskoeffizient B Std. Error Beta t Sig. Untergrenze Obergrenze 1 (Konstante) 78,132,947 82,497,000 76,189 80,075 Tausend EUR,443,061,723 7,325,000,319,567 Minuten,125,045,273 2,768,010,032,218 a. Abhängige Variable: IQ Alle Parameter sind signifikant: Sowohl Einkommen als auch Lesen haben einen positiven (beide Werte >0) Effekt auf den IQ. 4. Dummy-Kodierung Bei den ein- und mehrfaktoriellen Varianzanalysen und der Kovarianzanalyse werden normalerweise die Varianzen von den einzelnen Ausprägungen der Prädiktoren miteinander verglichen und mit Hilfe eines F-Tests auf Signifikanz überprüft. Es gibt aber noch die Möglichkeit die verschiedenen Ausprägungen mit Hilfe einer multiplen Regression darzustellen. Dazu muss aber erst das Konzept der Dummy-Variablen eingeführt werden. Bisher ging es nur um kontinuierlich ausgeprägte Prädiktoren. Bei den verschiedenen varianzanalytischen Modellen geht es aber um diskontinuierlich ausgeprägte Prädiktoren (siehe dazu auch Dokument Statistik-Regression Punkt 1.1. die festen und zufälligen Effekte). Das heißt wir stecken die verschiedenen Ausprägungen des Prädiktors in Kategorien und vergleichen dann diese Kategorien miteinander. Seite 11 von 21
Vorliegender Fall: Ich möchte den Zusammenhang zwischen Schule und Note wissen. Dafür untersuchen wir 3 verschiedene Schulen (jeweils eine Schule aus Ingolstadt, Leipzig und Cloppenburg). Schule ist dann ein Beispiel für einen diskontinuierlich ausgeprägten Prädiktor. Allgemein gilt, dass je eine DV stellvertretend für je eine Ausprägung eines Prädiktors eingesetzt wird. Dabei gilt, dass man entweder auf der jeweilige Schule ist oder nicht. Entweder man geht in Ingolstadt zur Schule oder nicht. Entweder Leipzig oder nicht. Entweder Cloppenburg oder nicht. Man kann nicht in Ingolstadt und Leipzig zur Schule gehen. Eine DV steht jeweils für eine Ausprägung des Prädiktors. Eine DV kann immer nur eine 1 oder 0 annehmen: Intuitiv würde man wohl folgende Regressionsgleichung aufstellen: Dieses Vorgehen ist zwar auf den ersten Blick einleuchtend aber falsch. Die, und repräsentieren jeweils die Höhe des Effekts der jeweilige Schule auf die Note. Wie sieht das für Ingolstädter aus? Ich setze hier meine Dummy auf 1, da es sich hier um einen Ingolstädter handelt Ich setze hier meine Dummy auf 0, da es sich um einen Ingolstädter und nicht um einen Leipziger handelt Ich setze hier meine Dummy auf 0, da es sich um einen Ingolstädter und nicht um einen Cloppenburger handelt Das verkürzt sich zu: Dieses Vorgehen kann ich auch für die Leipziger und Cloppenburger machen. Für Leipziger sieht die Gleichung wie folgt aus: Und für Cloppenburger: Seite 12 von 21
Jetzt haben wir folgendes Problem: Wir können keine der Gleichungen auflösen, denn egal welche Ausprägung vorliegt, stehen immer zwei Unbekannte in der Gleichung. Eine Gleichung mit zwei Unbekannten kann aber nicht aufgelöst werden, da es unendlich viele Möglichkeiten gibt, wie die Werte zustande kommen! Irgendwie muss also alleine in der Gleichung stehen, denn dann hätten wir:. Das Intercept gibt den y-achsenabschnitt an, also wenn gilt. In unserem Beispiel ist die Schule. Die Schule müsste also die Ausprägung 0 haben, um identifizieren zu können. Aber die Ausprägung 0 macht für Schule inhaltlich keinen Sinn, also bedeutet das im Umkehrschluss, dass wir tatsächlich eine DV für eine bestimmte Ausprägung weglassen müssen. repräsentiert dann die ausgelassene Ausprägung des Prädiktors. Welche DV weggelassen wird, ist rechnerisch egal. Für den Fall, dass wir die Ausprägung Ingolstadt weglassen, sieht die Regressionsgleichung wie folgt aus: Der geschätzte Effekt für Ingolstadt sieht nun wie folgt aus: Geschätzter Effekt für Leipzig: Geschätzter Effekt für Cloppenburg: Das bedeutet, dass der geschätzte Effekt für Leipzig und Cloppenburg nicht ohne den geschätzten Effekt für Ingolstadt ermittelt werden kann. Genauer gesagt ermitteln wir den Effekt für Leipzig und Cloppenburg im Verhältnis zu Ingolstadt. Daher bezeichnen wir unsere Kategorie, die bei der Dummy-Kodierung wegfällt, auch als Referenzkategorie. Allgemeiner ausgedrückt: Wir ermitteln bei diskontinuierlich ausgeprägten Prädiktoren, mit Hilfe von Dummy-Variablen, den Effekt einer bestimmten Ausprägung des Prädiktor im Verhältnis zu der Referenzkategorie. 4.1. Einfaktorielle Varianzanalyse als multiple Regression Bei der einfaktoriellen Varianzanalyse werden mehrere kategoriale Ausprägungen eines Prädiktors miteinander verglichen. Wenn der Prädiktor kategoriale Ausprägungen hat, muss ich mein Modell mit Dummy-Variablen aufstellen. Wie der Name schon sagt gibt es in der einfaktoriellen Varianzanalyse nur einen Faktor. Faktor ist lediglich nur ein anderes Wort für Prädiktor. In diesem Modell wird es also nur um EINEN Prädiktor gehen 1. Dabei gilt, dass der Prädiktor Ausprägungen haben kann. ist der Laufindex für die Ausprägungen des Prädiktors und insgesamt 1 Die Betonung liegt hier auf einen Prädiktor, weil Studenten die Anzahl an Prädiktoren gerne mit der Anzahl an Ausprägungen eines Prädiktors verwechsel Seite 13 von 21
gibt es Ausprägungen. Für die Anzahl an DV in meinem Modell gilt, dass es immer eine DV weniger in mein Modell gibt, als es maximale Ausprägungsmöglichkeiten für den Prädiktor gibt: Nehmen wir das Beispiel aus dem Abschnitt Dummy-Kodierung: Ich weiß, dass ich eine DV weniger in meinem Modell haben muss, als es maximale Ausprägungsmöglichkeiten meines Prädiktors gibt: Ich brauche also 2 DV. Die Konstante in meinem Regressionsmodell repräsentiert nun die übrig gebliebene Ausprägung des Prädiktors, die nicht durch eine DV dargestellt wird. Diese Ausprägung ist dann meine Referenzkategorie 2. Nehmen wir an Ingolstadt sei unsere Referenzkategorie. Die Ausprägung 1 (=Ingolstadt) fliegt also aus unserem Modell raus 3 : Wenn wir dieses Modell schätzen kommt folgendes Ergebnis heraus: a Nicht standardisierte Standardisierte 95,0% Konfidenzintervalle für B Modell Regressionskoeffizient B Std. Error Beta t Sig. Untergrenze Obergrenze 1 (Konstante) 2,250,254 8,853,000 1,741 2,759 Ingol_vs_Leipzig 1,179,355,394 3,319,002,467 1,890 Ingol_vs_Clopp 2,224,364,726 6,107,000 1,495 2,953 a. Abhängige Variable: Note 2 Welche Ausprägung ich als Referenzkategorie nehme ist, wie bereits erwähnt, egal. 3 Eigentlich könnte man das im Index von der DV weglassen. Das sagt uns nur, dass die DV zum Prädiktor gehört. Wenn wir nur einen Prädiktor haben (wie in diesem Beispiel) ist diese Info redundant. Aber wenn es mehrere Prädiktoren gibt (=mehrfaktorielle Designs, kommen später) brauchen wir den Hinweis zu welchem Prädiktor die jeweilige DV gehört! Deswegen wird auch hier der Vollständigkeit halber noch das eingefügt Seite 14 von 21
Alle Ausprägungen sind signifikant, d. h. ich kann die Höhe bzw. die Richtung des Effekts interpretieren! Nun können wir unsere Regressionsgleichung aufstellen: Nun kann man sagen, dass der Effekt, der Ausprägung Leipzig unseres Prädiktors Schule einen positiven Effekt (da 1,179 > 0) im Vergleich zur Referenzkategorie hat. Und in Cloppenburg Schüler zu sein, hat einen ebenfalls positiven Effekt (da 2,224 > 0) im Vergleich zu Ingolstadt. Inhaltlich kann man auch sagen, dass die Noten in Leipzig schlechter sind, als in Ingolstadt und die Noten in Cloppenburg sind ebenfalls schlechter als in Ingolstadt. SPSS bspw. nimmt grundsätzlich die Ausprägung mit den höchsten Werten als Referenzkategorie. Abhängige Variable:Note Parameterschätzer 95%-Konfidenzintervall Parameter Regressionskoeffizient B Std. Error t Sig. Untergrenze Obergrenze Konstanter Term 4,474,261 17,157,000 3,952 4,996 Ingolstadt -2,224,364-6,107,000-2,953-1,495 Leipzig -1,045,360-2,904,005-1,766 -,325 Cloppenburg 0 a..... a. Dieser Parameter wird auf Null gesetzt, weil er redundant ist. Die Regressionsgleichung, wenn Cloppenburg unsere Referenzkategorie darstellt, sieht dann wie folgt aus: Jetzt wäre die Interpretation, dass der Effekt, der Ausprägung Ingolstadt unseres Prädiktors Schule einen negativen Effekt (da -2,224 < 0) im Vergleich zur Referenzkategorie hat. Und in Leipzig Schüler zu sein, hat einen ebenfalls negativen Effekt (da -1,045 < 0) im Vergleich zu Cloppenburg. Inhaltlich kann man auch sagen, dass die Noten in Ingolstadt besser sind, als in Cloppenburg und die Noten in Leipzig sind ebenfalls besser als in Cloppenburg. Für die Interpretation ist es egal, was ich als Referenzkategorie wähle! Es ändert sich nur die Regressionsgleichung, da das Intercept anders gewählt wird und daher auch die Steigungsparameter anders sind. Das Ergebnis ist aber jedes Mal dasselbe. Achtung: Bei SPSS steht noch einmal extra die Referenzkategorie als Ausprägung, mit dem Hinweis, dass dieser Term redundant ist: Cloppenburg : Parameter = 0, so weiß ich, dass ich hierfür mein Intercept betrachten muss. Manche Statistikprogramme haben in ihrem Output nicht so einen Term! D. h. Cloppenburg würde da nicht stehen! Dann muss man sich einfach erschließen können, dass es Seite 15 von 21
noch eine dritte Ausprägung des Prädiktors gibt und dass diese die Konstante, darstellt und dass die anderen beiden Ausprägungen die Änderungsrate von dieser Konstanten sind. 4.2. Mehrfaktorielle Varianzanalyse als multiple Regression Bei der mehrfaktoriellen Varianzanalyse werden mehrere kategoriale Ausprägungen mehrerer Prädiktors miteinander verglichen. Auch hier muss ich mein Modell mit DV aufstellen. Nach wie vor gilt, dass jeder Ausprägungen haben kann. Für die Anzahl an DV in meinem Modell gilt ebenfalls nach wie vor, dass es immer eine DV weniger in mein Modell gibt, als es maximale Ausprägungsmöglichkeiten für den Prädiktor gibt: Allerdings gilt das nun für JEDEN Prädiktor! Ein Beispiel: Ich nehme an aus welchem Land man kommt und welches Geschlecht man hat, hat jeweils einen Einfluss auf das Gewicht. (in kg) hat 2 maximale Ausprägungsmöglichkeiten, also brauche ich für diesen Prädiktor 1 DV hat 4 maximale Ausprägungsmöglichkeiten, also brauche ich für diesen Prädiktor 3 DV Das Modell sähe dann wie folgt aus: Repräsentiert den Effekt von Geschlecht Repräsentiert den Effekt von Nationalität Wie man sieht gilt, dass je mehr Prädiktoren es in einem Modell gibt und je mehr Ausprägungsmöglichkeiten es für jeden Prädiktor gibt, desto größer und damit komplizierter wird das Modell. Dieses 2 x 3 mehrfaktorielles Modell kann man aber noch aufstellen: Seite 16 von 21
Parameterschätzer Abhängige Variable:Gewicht Parameter Regressionskoeffizient B Std. Error t Sig. 95%-Konfidenzintervall Untergrenze Obergrenze Konstanter Term 65,200 1,905 34,219,000 61,404 68,996 Männlich 4,900 1,704 2,875,005 1,505 8,295 Weiblich 0 a..... England 27,900 2,410 11,576,000 23,099 32,701 Niederlande -8,650 2,410-3,589,001-13,451-3,849 Frankreich -15,850 2,410-6,576,000-20,651-11,049 Deutschland 0 a..... a. Dieser Parameter wird auf Null gesetzt, weil er redundant ist. Alle Werte sind signifikant, also darf ich auch alle Werte interpretieren. Eingesetzt in unsere Regressionsgleichung Das besondere ist nun, dass unsere Referenzkategorie nun zwei Ausprägungen repräsentieren muss, nämlich eine für den Prädiktor Geschlecht und eine für den Prädiktor Nationalität. In diesem Fall repräsentiert die Konstante eine weibliche Deutsche. Geschlecht hat einen Effekt auf das Gewicht. Da der Wert für Männlich positiv ist und die Konstante unteranderem weiblich repräsentiert, kann ich daraus schließen, dass Männer mehr wiegen als Frauen (wäre der Wert negativ könnte ich daraus schließen, dass Männer weniger wiegen als Frauen). Nationalität hat einen Effekt auf das Gewicht. Engländer wiegen mehr als Deutsche, aber Niederländer und Holländer wiegen weniger als Deutsche. Achtung: Ich habe mein Modell hier nicht mit einem Interaktionsterm modelliert, also ob das Geschlecht und die Nationalität ZUSAMMEN einen Effekt auf das Gewicht haben. Z. B. könnte es ja sein, dass Deutsche Männer schwerer sind als englische Männer, aber deutsche Frauen sind leichter als englische Frauen. Interaktionsterme machen die Modellgleichung NOCH komplizierter und die wird er auch nicht abfragen. 4.3. Kovarianzanalyse als multiple Regression Bei der Kovarianzanalyse werden mehrere kategoriale Ausprägungen eines oder mehrere Prädiktoren mit einem zusätzlich kontinuierlich ausgeprägten Prädiktor verglichen. Für die kategorial Seite 17 von 21
ausgeprägten Prädiktoren gilt wieder, dass wir DV benötigen. Mit der Kovarianzanalyse rechnet man eine ungewollte Einflussgröße heraus um dann die kategorialen Ausprägungen interpretieren zu können. Beispiel für eine Kovarianzanalyse: Ein Forscher will herausgefunden haben, dass Menschen mit Migrationshintergrund weniger Intelligent sind, als Menschen ohne Migrationshintergrund. Ein zweiter Forscher überlegt sich, ob nicht eine Dritte Variable einen Einfluss auf diesen Zusammenhang haben könnte und erhebt zusätzlich noch das monatliche Einkommen. (Jahreseinkommen in Tausend EUR) Der Prädiktor Migrationshintergrund muss mit einer DV kodiert werden. Es gibt 2 max. Ausprägungen, also reicht eine DV. Einkommen geht als stetige Variable in das Modell mit ein: Abhängige Variable:IQ Parameter Parameterschätzer Regressionskoeffizient B Std. Error t Sig. 95%-Konfidenzintervall Untergrenze Obergrenze Konstanter Term 62,021 3,309 18,746,000 55,317 68,725 Einkommen 1,656,149 11,075,000 1,353 1,959 Migrationshintergrund -2,988 1,809-1,652,107-6,653,677 Kein Migrationshintergrund 0 a..... a. Dieser Parameter wird auf Null gesetzt, weil er redundant ist. Eigentlich würde man davon ausgehen, dass Menschen mit Migrationshintergrund tatsächlich einen niedrigeren IQ haben, als Menschen ohne Mirgationshintergrund, da einen negativen Wert hat und unsere Konstante Menschen ohne Migrationshintergrund darstellen. ABER Dieser Wert ist nicht signifikant! Stattdessen ist der Wert für Einkommen signifikant. Das heißt wie viel jmd. verdient kann besser den IQ erklären, als der Migrationshintergrund. Vielleicht, weil jmd. mit viel Geld eher an Bildung heran kommt. 5. Signifikante und nicht signifikante Regressionskoeffizienten Wie lautet die Interpretation, wenn ich sowohl signifikante, als auch nicht signifikante Regressionskoeffizienten im Output habe? Seite 18 von 21
Nehmen wir an, wir hätten zusätzlich noch die Noten aus Hamburg ermittelt und bekommen folgende Ergebnis: Abhängige Variable:Note Parameterschätzer Parameter Regressionskoeffizient B Standardfehler t Sig. 95%-Konfidenzintervall Untergrenze Obergrenze Konstanter Term 2,500,265 9,439,000 1,972 3,028 Ingolstadt -,250,375 -,667,507 -,996,496 Leipzig,929,370 2,509,014,191 1,666 Cloppenburg 1,974,379 5,201,000 1,218 2,729 Hamburg 0 a..... a. Dieser Parameter wird auf Null gesetzt, weil er redundant ist. Jetzt ist Hamburg meine Referenzkategorie (wie gesagt, SPSS nimmt immer die Ausprägung mit den höchsten Werten als Referenzkategorie) und nicht mehr Cloppenburg. Mein Modell sieht nun wie folgt aus: Aber Achtung: ist nicht signifikant von der Konstanten verschieden, also p > 0,05. Das bedeutet inhaltlich, dass sich Ingolstadt nicht signifikant von Hamburg unterscheidet. Der Regressionskoeffizient von Ingolstadt liegt quasi auf der Konstanten (also auf Hamburg). Deswegen sollte ich auch nur die Leipzig und Cloppenburg interpretieren: Leipzig hat größere Notenwerte als Hamburg, was also bedeutet, dass Leipzig schlechter ist als Hamburg. Cloppenburg ist ebenfalls schlechter als Hamburg, da auch hier die Notenwerte höher sind. Ingolstadt und Hamburg unterscheiden sich dagegen nicht signifikant voneinander. 6. Wie in der Klausur In der Forschung überlegt man sich zuerst ein Modell, erhebt die Daten und interpretiert dann die Ergebnisse. In der Klausur wird das andersherum sein. Ihr bekommt die Daten und musst diese Interpretieren. Das KANN man das dazugehörige Modell aufschreiben, muss es aber nicht. Zur Interpretation der Regressionskoeffizienten, bietet es sich aber an, das Modell aufzuschreiben. Seite 19 von 21
Klausurbeispiel 1) Ihr bekommt folgenden Output: Nicht standardisierte B Standardfehler t Sig. (Konstante) 241,5948 2,9155 82,87 0,0000 Laerm2-4,5413 2,2027-2,06 0,0401 Laerm3-5,9514 2,2176-2,6837 0,0077 Geschl 2,1225 1,9371 1,0957 0,2741 Alk 48,4541 22,5937 2,1446 0,0328 Alk^2 71,6341 36,5994 1,9573 0,0513 In dem Modell gibt es 3 Prädiktoren: (soll einen quadratischen Einfluss auf das Kriterium haben) Anscheinend hat der Prädiktor Lärm (die hier nicht weiter definiert wird) einen Effekt. Lärmdbedingung 1 (repräsentiert durch die Konstante) und hat die geringste Ausprägung im Kriterium (dass ich hier nicht erkennen kann). Aber Lärmbedingung 2 unterscheidet sich nicht signifikant von der Lärmbedingung 1 (p > 0,05). Aber Lärmbedingung 3 unterscheidet sich signifikant von Lärmbedingung 1 (p < 0,05). Geschlecht hat keinen signifikanten Einfluss auf das Kriterium (p > 0,05). Es wurde ein parabolischer Zusammenhang zwischen Alkohol und dem Krterium angenommen. Anscheinend war das eine falsche Annahme, denn damit dieses Modellannahme angenommen werden kann müssen der Regresisonskoeffizient für alk als auch alk^2 signifikant sein. Das ist bei alk^2 aber nicht der Fall! Seite 20 von 21
Klausurbeispiel 2) Ihr bekommt dasselbe Output, aber mit folgendem zusätzlichem Output: Auf dem Scatterplott sieht man die prädizierten Schätzwerte und die Residuen. Es wäre egal, wären die Residuen alle gleich verteilt (egal ob sehr nah an der Null-Linie oder sehr weit weg) aber so sind sie sehr unterschiedlich verteilt, was auf Heteroskedastizität hindeuten könnte. Die Folge? Die KQ- Schätzer sind noch erwartungstreu, aber nicht mehr effizient oder anders ausgedrückt, die Varianzen der KQ-Schätzer werden nicht mehr erwartungstreu geschätzt. Das bedeutet ich kann dem t-wert und damit den p-werten nicht mehr trauen. Lösungsvorschlag siehe Kap. 2. Seite 21 von 21