1.1. Zusammenhänge und Vorhersagen In diesem Kapitel dreht sich alles um Zusammenhänge und Vorhersagen. Anstatt uns zu fragen Was ist größer / mehr / ausgeprägter?, versuchen wir Aussagen zu treffen wie je mehr von A, desto mehr von B oder je mehr von A, desto weniger von B. 1.1.1. Korrelationen Der einfachste Fall eines Zusammenhangs ist die Korrelation. Eine Korrelation besteht immer zwischen genau zwei Variablen und gibt an, wie gut wir die eine aus der anderen vorhersagen können. 1.1.1.1. Die Produkt-Moment-Korrelation nach Pearson - DIE Korrelation Die am weitesten verbreitete Korrelation ist die Produkt-Moment-Korrelation (auch Pearson- Korrelation). Wir verwenden sie, wenn wir untersuchen wollen, wie stark zwei intervallskalierte Merkmale miteinander zusammenhängen. Der Wertebereich der Produkt-Momentkorrelation liegt zwischen -1 und +1. Eine Korrelation von 0 (oder ungefähr 0) bedeutet, dass kein (linearer) Zusammenhang zwischen den Variablen besteht. Anders ausgedrückt: Wenn wir eine Korrelation von 0 zwischen zwei Variablen finden, verrät uns der Wert, den eine Person auf der einen Variable hat, nichts darüber, welchen Wert sie auf der anderen hat. Finden wir eine Korrelation im positiven Bereich, bedeutet das, dass Personen, die auf der einen Variablen einen hohen Wert haben, auch in der anderen Variablen eher einen hohen Wert haben. Solche Zusammenhänge werden oft auch als gleichsinnig bezeichnet. Je näher an 1 unsere Korrelation liegt, desto genauer ist unsere Vorhersage. Finden wir eine Korrelation im negativen Bereich, bedeutet das, dass Personen, die auf der einen Variablen einen hohen Wert haben, in der anderen Variablen eher einen niedrigen Wert haben. Solche Zusammenhänge bezeichnet man als gegensinnig. Wieder gilt: Je naher unsere Korrelation an -1 liegt, desto genauer ist unsere Vorhersage. Um zu berichten wie genau unsere Vorhersage ist, hat ein Herr Cohen Richtlinien aufgestellt, wann wir von einem schwachen / mittleren / starken Zusammenhang sprechen sollten: Ist die Korrelation größer als 0.1 oder kleiner als -0.1, handelt es sich mindestens um einen schwachen Zusammenhang. Ist die Korrelation größer als 0.3 oder kleiner als -0.3, handelt es sich mindestens um einen mittel starken Zusammenhang. Ist die Korrelation größer als 0.5 oder kleiner als -0.5, handelst es sich um einen starken Zusammenhang. Kurz: Wir haben einen schwachen / mittleren / starken Zusammenhang, wenn unsere Korrelation im Betrag größer als.1,.3 oder.5 ist.
Sollten wir jemals eine Korrelation von genau 1 oder genau -1 finden, bedeutet das, dass wir die eine Variable perfekt aus der anderen vorhersagen können, die beiden sind also quasi identisch. Ted möchte untersuchen, wie das Alter, die Dienstjahre, das Gehalt, die Arbeitszufriedenheit und die Lebenszufriedenheit der Mitarbeiter des Sacred Hearts zusammenhängen. Hierfür berechnet er die Korrelationen jeder der Variablen mit jeder anderen. Über Analysieren Korrelation bivariat kommt er in das Dialogfeld für Korrelationen: Hier packt er alle Variablen, die er miteinander korrelieren möchte, in das rechte Feld. Wichtig bei der Interpretation ist dabei (insbesondere, wenn wir uns später die Regression anschaun): Die Korrelationen werden immer paarweise zwischen zwei Variablen berechnet, ohne dass berücksichtigt würde, welche anderen Variablen noch ausgewählt waren. Z.B. die Korrelation zwischen Alter und Dienstjahren ist also immer dieselbe, egal ob wir sie alleine oder gleichzeitig mit allen anderen Korrelationen berechnen berechnen. In die Syntax eingefügt sieht das dann so aus: Führen wir diese Syntax aus, kommt folgende Korrelationsmatrix dabei heraus:
In jeder Zelle stehen drei Werte: Die Korrelation selbst, darunter ihr Signifikanzwert und wiederum darunter die Anzahl an Wertepaaren, die in sie eingeflossen sind (im Idealfall sollte das immer dieselbe Zahl sein, es können aber unterschiede auftreten, wenn in einigen Variablen Werte fehlen). Die Signifikanz wird wie immer interpretiert: Ist der p-wert kleiner als 5%, gibt es eine signifikante Abweichung aber wovon? Ted ist verwirrt, weil wir eigentlich festgestellt hatten, dass wir in diesem Kapitel Zusammenhänge (und keine Unterschiede/Abweichungen) testen. Das stimmt, aber einen Zusammenhang können wir immer als Abweichung von keinem Zusammenhang interpretieren. Die Signifikanztests bei den Korrelationen geben an, ob die gefundene Korrelation so groß ist, dass sie wirklich (also auch in der Population) vorhanden ist, oder ob sie so klein ist, dass sie in Wahrheit 0 sein könnte. Wir testen also, ob die gefundene Korrelation signifikant von 0 abweicht. Damit wir uns noch weniger Mühe geben müssen, hilft uns SPSS sogar noch weiter: Korrelationen, die einen Signifikanzwert von unter 5% haben, werden mit einem Sternchen markiert. Ist das p sogar kleiner als 1%, werden uns zwei Sternchen angezeigt. Nun interpretiert Ted mit Molly s Hilfe einige der Korrelationen (bevor er mit allen fertig ist, beginnt seine Mittagspause): Die Korrelation zwischen dem Alter und den Dienstjahren ist extrem hoch positiv. Das heißt je älter eine Person ist, desto mehr Dienstjahre hat sie auf dem Buckel. Dieser Zusammenhang ist signfikant (p<.001). Die Korrelation liegt zudem nahe 1, das heißt wir können anhand des Alters fast perfekt auf die Dienstjahre schließen (und umgekehrt). Die Korrelation zwischen dem Alter und dem Gehalt ist mittelhoch (r >.3, fast hoch) positiv. Das heißt je älter eine Person ist, desto mehr verdient sie im Schnitt. Dieser Zusammenhang ist allerdings nur mittelhoch, also bei weitem nicht perfekt. Dennoch wird er signifikant (p<.001). Es gibt einen leichten positiven Zusammenhang von Alter und Lebenszufriedenheit (r>.1). Es besteht also eine leichte Tendenz, dass ältere Personen auch zufriedener mit ihrem Leben sind. Dieser Zusammenhang wird nur knapp signifikant (p=.037). Es lässt sich kein signifikanter Zusammenhang zwischen der Anzahl der Dienstjahre und der Arbeitszufriedenheit finden (p>.05, r<.1). Wir können also - auch wenn wir die Dienstjahre einer Person kennen keinerlei Rückschlüsse auf ihre Arbeitszufriedenheit ziehen. Das bedeutet allerdings
nicht, dass kein Zusammenhang besteht. Möglicherweise hätten wir nur eine größere Stichprobe benötigt. Wichtig: Bei der Interpretation von Korrelationen sollten wir stets im Hinterkopf behalten, dass wir meistens nicht einfach auf kausale Zusammenhänge schließen dürfen. Das als ultimative Antwort in Klausuren zu schreiben reicht aber auch nicht. Es gibt durchaus Fälle, in denen solche Aussagen nämlich gerechtfertigt wären. Insbesondere die Richtung der Kausalität ist oftmals klar: Es ist sehr sehr unwahrscheinlich, dass ein höheres Gehalt zu mehr Dienstjahren führt. Zumindest die Richtung des Zusammenhangs ist hier klar: Nämlich dass mehr Dienstjahre (mehr Erfahrung) zu einem höheren Gehalt führen und sicherlich nicht umgekehrt. 1.1.1.2. Die Korrelation per Syntax Auch per Syntax funktioniert die Korrelation sehr einfach. Wir müssen nämlich bei weitem nicht so viel eingeben, wie uns die automatisch per Menü eingefügte Syntax glauben lassen will. Die kürzeste Form ist folgende: Wir benötigen also nur den Befehl CORRELATIONS und dann eine Liste der Variablen, die wir miteinander korrelieren wollen (zum Abschluss natürlich noch einen Punkt). Der einzige Wermutstropfen ist, dass uns dann die signifikanten Korrelationen nicht mit Sternchen markiert werden 1. Um das nachzuholen, setzen wir noch ein /PRINT NOSIG hinter die Variablen: Dieser Befehl produziert dann exakt die gleiche Korrelationstabelle wie das Klicken über die Menüs. Aber wir haben per Syntax sogar noch eine weitere Option, die wir über die Menüs nicht erreichen können! Hier haben wir also tatsächlich den speziellen Fall, dass wir keine Alternative zur Syntax haben. Die bisher erstellten Korrelationsmatrizen können nämlich sehr unübersichtlich werden, wenn wir sehr viele Variablen korrelieren wollen. Oftmals interessieren uns viele der berechneten Korrelation überhaupt nicht. Zum Beispiel ist Ted nur daran interessiert, wie die Lebenszufriedenheit mit den anderen vier Variablen korreliert. Wie das Alter, die Dienstjahre, das Gehalt und die Arbeitszufriedenheit untereinander korrelieren, interessiert ihn nicht. Molly hilft ihm: Sie setzt innerhalt der Variablenliste ein WITH ein: Der Effekt ist, dass nun keine quadratische Korrelationsmatrix mehr erstellt wird (in der jede Variable in einer Zeile UND in einer Spalte auftaucht), sondern dass die Variable(n) vor dem WITH nur noch als Zeilen, die Variable(n) nach dem WITH nur noch als Spalten auftauchen: 1 Was für ausgefuchste manchmal aber sogar erwünscht sein kann, wenn wir z.b. in Excel mit den Korrelationen weiterrechnen wollen
1.1.2. Regression Die Regressionsverfahren sind eine Erweiterung der Korrelation. Hier geht es nicht mehr darum, eine Variable aus einer anderen vorherzusagen. Vielmehr wollen wir eine Variable aus vielen anderen vorhersagen. Wir bezeichnen dabei die Variable, die wir vorhersagen wollen, als Kriterium und die übrigen Variablen als Prädiktoren. Oft setzt man diese Begriffe auch mit AV und UV (Abhängige Variable und Unabhängige Variable) gleich. Wir interessieren uns in der Regel für zwei Informationen: Erstens wollen wir wissen, wie gut wir das Kriterium (die AV) insgesamt aus allen Variablen vorhersagen können. Man könnte nun einfach das Kriterium mit allen Prädiktoren einzeln korrelieren. Das Problem hieran wäre, dass wir bestimmte Informationen mehrfach zählen würden, weil sie in mehreren Prädiktoren vorhanden sind. Das folgende Beispiel hinkt ein wenig, aber wir können uns dieses mehrfachzählen von Information in etwa so vorstellen: Die Anfänger im Sacred Heart müssen einen kleinen Test schreiben, der aus vier Aufgaben besteht. Natürlich arbeiten JD und Turk zusammen. Wir wollen nun vorhersagen, wie gut sie gemeinsam abschneiden (wie gut sie also die perfekte Lösung des Tests vorhersagen können). Turk und JD sind also zwei Prädiktoren, die Musterlösung ist das Kriterium. Turk kann nur zwei der Aufgaben lösen. JD ist nicht besser und kann ebenfalls nur zwei Aufgaben lösen. Schauen wir uns die Antworten der beiden getrennt an, sehen wir aber, dass sie gemeinsam 4 Aufgaben korrekt lösen können (2 [von Turk]+ 2 [von JD] = 4). Da der Test nur 4 Aufgaben hat, würden wir also erwarten, dass sie 100% der Punkte bekommen. Tatsächlich können sie aber nur 3 Aufgaben lösen. Woran liegt das? Beim Durchgehen der Lösungen stellen wir fest, dass Turk die Aufgaben 1 und 2 lösen konnte, JD die Aufgaben 2 und 3. Wenn wir also blind die Anzahl korrekter Lösungen aufsummieren, zählen wir Aufgabe 2 doppelt (es hilft den beiden nicht, dass sie sie beide lösen können, einer von ihnen hätte ja gereicht). Die korrekte Lösung von Aufgabe 2 ist also in beiden Prädiktoren enthalten und somit zum Teil überflüssig. Mit eben diesem Problem beschäftigt sich die Regression. Es reicht uns nicht zu wissen, wie viel Information die Prädiktoren einzeln für sich über das Kriterium enthalten, wir wollen wissen, wieviel einzigartige Information sie enthalten, die nicht schon in den anderen Prädiktoren steckt. 1.1.2.1. Die Multiple Lineare Regression Die Multiple Lineare Regression ist der Standardfall der Regressionen. Das Multiple bedeutet einfach nur, dass wir mehrere Prädiktoren verwenden. Das werden wir aber auch immer tun. Würden wir nur einen einzigen Prädiktor betrachten, hätten wir viel einfacher eine Korrelation berechnen können, die Information wäre (in den von uns betrachteten Fällen) dieselbe. Das Lineare steht dafür, dass wir uns, wie auch bei der Produkt-Moment-Korrelation, nur mit linearen Zusammenhängen beschäftigen. Auf seiner Suche nach dem Glück möchte Ted herausfinden, wodurch man die Lebenszufriedenheit eines Menschen vorhersagen kann. Aus der oben berechneten Korrelationsmatrix entnimmt er, dass alle untersuchten Variablen mit der Lebenszufriedenheit korrelieren. Um zu überprüfen, ob
tatsächlich alle von ihnen nötig sind und welche von ihnen die Wichtigsten sind, packt er das Alter, die Dienstjahre, das Gehalt und die Arbeitszufriedenheit als Prädiktoren in eine Multiple Lineare Regression mit dem Kriterium Lebenszufriedenheit. Er findet den Regressions-Dialog über Analysieren Regression Linear. Er wählt Lebenszufriedenheit als Abhängige Variable aus, die übrigen Variablen als Unabhängige Variable(n). Weitere Einstellungen braucht er hier nicht, obwohl wir uns im Kapitel zur Hierarchischen Regression noch ein wenig mehr mit diesem Dialogfeld beschäftigen werden. In die Syntax eingefügt sieht die Regression so aus:
Die wichtigen Tabellen der Ausgabe sind dann die Folgenden: In der Modellübersicht wird uns das R² angezeigt, also der prozentuale Anteil der Varianz, den unsere Prädiktoren am Kriterium aufklären. Nach Cohen gilt hier:.2 (also 20%) ist wenig,.5 (also 50%) ist mittelmäßig, ab.8 (also 80%) ist viel. Darüber hinaus steht unter der Tabelle noch einmal, welche Prädiktoren wir eigentlich verwendet haben. Als nächstes können wir der ANOVA-Tabelle 2 entnehmen, ob dieses R² so groß ist, dass wir es auch in der Population finden sollten. Wir testen also, ob unser gefundenes R² in Wahrheit 0 sein könnte. Ist der p-wert (unter Sig. ) kleiner als 5% sagen wir wie üblich: Dieses R² kann nicht 0 sein, sondern ist tatsächlich vorhanden. Sollten wir hier einen p-wert größer als 5% finden können wir sofort aufhören weiter zu suchen und sagen: Das gesamte Regressionsmodell funktioniert nicht. Schließlich bekommen wir noch die Koeffizienten-Tabelle: Hier bekommen wir für jeden Prädiktor die Regressionsgewichte mit ihrem Signifikanztest angezeigt. Die nicht standardisierten Koeffizienten (links, B ) sind die b-gewichte, die wir schon aus Excel kennen. Zur Erinnerung: Sie geben an, um wie viel sich das Kriterium im Schnitt verändert, wenn sich 2 Zerbrecht euch bitte nicht den Kopf darüber, warum eine ANOVA innerhalb der Regression vorkommt, sondern schaut einfach nur auf die Signifikanz.
der Prädiktor um einen Punkt verändert. Z.B.: Mit jedem Zusätzlichem Lebensjahr steigt die Lebenszufriedenheit im Schnitt um 0.028 Punkte (blauer Kasten). Die b-gewichte sind nicht mit einander vergleichbar, weil sie abhängig von der Skala sind, auf der die Prädiktoren und das Kriterium gemessen werden (das b-gewicht des Alters wäre ein anderes, wenn wir das Alter in Monaten statt in Jahren ausdrücken würden, obwohl das am inhaltlichen Zusammenhang von Alter und Lebenszufriedenheit nichts ändern würde). Viel wichtiger für uns sind die Beta-Gewichte (β). Diese können wir wie Korrelationen interpretieren 3 (auch hier gilt für die Effektstärke also Cohens.1.3.5 Regel), nur dass die doppelt gezählten Informationsanteile 4 entfernt wurden. Sie haben also den Vorteil, dass sie zum einen nicht von der Skala abhängen 5, auf der wir uns bewegen, und zum anderen miteinander vergleichbar sind (ein höheres Beta-Gewicht weißt auf einen stärkeren Zusammenhang hin). Die Signifikanzwerte ganz rechts sagt uns schließlich, ob wir den Einfluss des jeweiligen Prädiktors auch in der Population finden sollten. Hier sehen wir, dass nur die Arbeitszufriedenheit signifikant wird. Das bedeutet, dass wir nur auf diesen Prädiktor wirklich vertrauen können, die anderen könnten durchaus auch null sein (obwohl das Gehalt wirklich sehr sehr knapp vor der Signifikanz steht). Wichtig: Hier sehen wir eine der Gefahren bei der Interpretation der Regression. Es sieht so aus, als gäbe es keinerlei Zusammenhänge von Lebenszufriedenheit mit dem Alter, den Dienstjahren und dem Gehalt. Allerdings hatten wir bei den Korrelationen gesehen, dass es diese Zusammenhänge durchaus gibt. Das zeigt: Die Beta-Gewichte selbst und natürlich auch ihre Signifikanzen hängen massiv davon ab, welche anderen Prädiktoren mit im Modell sind. Alter, Dienstjahre und das Gehalt haben also genau dann keinen signifikanten Einfluss auf die Lebenszufriedenheit, wenn wir sie gleichzeitig mit der Arbeitszufriedenheit betrachten (offensichtlich haben sie also nur keine einzigartige Information, die nicht schon in der Arbeitszufriedenheit enthalten wäre). Hier können wir also interpretieren: Das Gesamtmodell wird signifikant, wir können anhand des Alters, der Dienstjahre, des Gehalt und der Arbeitszufriedenheit also einen Teil der Lebenszufriedenheit vorhersagen. Das funktioniert mittelmäßig gut, wenn wir Cohens Kriterien anlegen (R² >.5, aber <.8). In der Praxis ist man aber oftmals etwas liberaler und würde das Modell sogar noch positiver bewerten. Allerdings wird nur der Prädiktor Arbeitszufriedenheit signifikant, er hat einen stark positiven Zusammenhang mit der Lebenszufriedenheit: Je höher die Arbeitszufriedenheit, desto höher die Lebenszufriedenheit. Die übrigen Prädiktoren tragen (solange die Arbeitszufriedenheit mit berücksichtig wird) keine zusätzliche Information. Noch am bedeutendsten von ihnen scheint das Alter zu sein, da sein Beta- Gewicht immerhin noch im kleinen Bereich liegt (β>.1, aber wie gesagt nicht signifikant). 3 Mit dem leichten Unterschied, dass Beta-Gewichte in Einzelfällen größer 1 bzw. kleiner -1 werden können 4 Genauer: Die Interkorrelationen der Prädiktoren 5 Für Ausgefuchste: Wenn wir eine Regression nur mit z-standardisierten Variablen rechnen, sind b-gewichte und Beta-Gewichte identisch