1.1. Zusammenhänge und Vorhersagen

Ähnliche Dokumente
Einfache statistische Auswertungen mit dem Programm SPSS

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Auswerten mit Excel. Viele Video-Tutorials auf Youtube z.b.

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Webergänzung zu Kapitel 10

Kommentierter SPSS-Ausdruck zur logistischen Regression

Modul G.1 WS 07/08: Statistik Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Teil II: Einführung in die Statistik

Datenanalyse mit SPSS spezifische Analysen

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER

Fortgeschrittene Statistik Logistische Regression

Gratis Excel SVERWEIS Funktions-Anleitung, Tutorial, ebook, PDF-E-Book

Datenauswertung mit Hilfe von Pivot-Tabellen in Excel

Datenanalyse mit Excel. Wintersemester 2013/14

Quantitative Methoden der Bildungsforschung

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur.

2. Korrelation, lineare Regression und multiple Regression

Erstellen von statistischen Auswertungen mit Excel in den Sozialwissenschaften

Erste Schritte mit SPSS - eine Anleitung

Standardab er des. Testwert = % Konfidenzintervall. T df Sig. (2-seitig) Differenz Untere Obere

DAS THEMA: INFERENZSTATISTIK II. Standardfehler Konfidenzintervalle Signifikanztests. Standardfehler

Methoden Quantitative Datenanalyse

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression

Noten ausrechnen mit Excel/Tabellenkalkulation. 1) Individuellen Notenschlüssel/Punkteschlüssel erstellen

Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA)

Auswertung mit dem Statistikprogramm SPSS:

Access Grundlagen. David Singh

Korrelation - Regression. Berghold, IMI

Kapitel 3: Interpretationen

3 Zusammenhangsmaße Zusammenhangshypothesen

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Microsoft Excel 2013 Automatisches Ausfüllen

Aufgepasst hier verrate ich Ihnen mein Geheimnis

Tutorial: Entlohnungsberechnung erstellen mit LibreOffice Calc 3.5

Kommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17)

Univariate/ multivariate Ansätze. Klaus D. Kubinger. Test- und Beratungsstelle. Effektgrößen

Varianzanalyse ANOVA

Eigenen Feedbackbogen erstellen

Abhängigkeit zweier Merkmale

Die Herkunft des Geldes

Namen immer über das unten angezeigte DropDown Menü eingeben: Frau Ingrid Müller oder Herr Berthold Müller

8 Bilder in TYPO3 (RichTextEditor & Elemente Text mit Bild, Bilder

Florian Frötscher und Demet Özçetin

4 ANALYSE VON TABELLEN

4. Erstellen von Klassen

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table("c:\\compaufg\\kredit.

Inhalt. Allgemeine Einführung. Argumentationsvermögen. Räumliches Vorstellungsvermögen. Begabungen und Fähigkeiten messen

Grundlagen der Tabellenkalkulation Die wichtigsten Funktionen im Überblick Christian Schett

Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008. Aufgabe 1

Einleitung 19. Teil I Datenanalyse und Modellbildung Grundlagen 25

Access [basics] Gruppierungen in Abfragen. Beispieldatenbank. Abfragen gruppieren. Artikel pro Kategorie zählen

Christian FG Schendera. Regressionsanalyse. mit SPSS. 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG

Dynamisch unterrichten mit Excel

Zahlen auf einen Blick

Auswertung von kritischen Daten Vorgehensweise anhand eines Beispiels Visual-XSel 10.0

Einfache statistische Testverfahren

Multivariate Statistik

Faktorenanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007

Institut für Soziologie Benjamin Gedon. Methoden 2. Regressionsanalyse IV: Transformation und Interaktion

Vorübung 1 Beschriften Sie die Tabelle wie in der Abbildung dargestellt.

Versuchsauswertung mit Polynom-Regression in Excel

Smart-Grid-Tools Beschleunigen Sie die Erstellung von Bauteilen ZUSAMMENFASSUNG. IM WORKSHOP Tip #14. Die Herausforderung, große Bauteile zu erstellen

(2) Mittels welcher Methode ist es im ALM möglich kategoriale Variablen als Prädiktoren in eine Regressionsgleichung zu überführen?

Wie Sie mit Pivottabellen komplexe Daten perfekt analysieren und präsentieren

Einführung in SPSS. 1. Die Datei Seegräser

How-To : Nachtragen von Tagesdiagrammen auf der Solarlog Homepage

Kapitel 23 Lineare Regression

Dingsda - Bedienungsanleitung unter Windows

Mediatioranalyse & Moderatoranalyse How to do

EINFACHE LINEARE REGRESSION MODUL 13 PROSEMINAR DESKRIPTIVE STATISTIK ANALYSE UND DARSTELLUNG VON DATEN I GÜNTER HAIDER WS 1999/2000

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

Iris Treppner. astro. Wie Trader mit Astrologie die Börse schlagen FBV

Dossier: Rechnungen und Lieferscheine in Word

Programme deinstallieren,

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel

Herzlich Willkommen zur Vorlesung Statistik

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: Weitere Informationen oder Bestellungen unter

Einflussfaktoren für den Lernerfolg von Englisch an der Primarschule

Erstellen von x-y-diagrammen in OpenOffice.calc

ARBEITSPAPIERE WORKING PAPERS NR. 14, JULI 2012

Die 3 größten Fehler bei der Neukundengewinnung Sind Sie auch betroffen?

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1

9.2 Weitergeben Online-Album. 9.2 Weitergeben. Flash-Player

Text-Zahlen-Formatieren

Betragsgleichungen und die Methode der Fallunterscheidungen

1 Testentwicklung und Beschreibung der Stichproben

Varianzanalyse * (1) Varianzanalyse (2)

Die R-Homepage R herunterladen

NiceMemMaster Anwenderhandbuch

Transkript:

1.1. Zusammenhänge und Vorhersagen In diesem Kapitel dreht sich alles um Zusammenhänge und Vorhersagen. Anstatt uns zu fragen Was ist größer / mehr / ausgeprägter?, versuchen wir Aussagen zu treffen wie je mehr von A, desto mehr von B oder je mehr von A, desto weniger von B. 1.1.1. Korrelationen Der einfachste Fall eines Zusammenhangs ist die Korrelation. Eine Korrelation besteht immer zwischen genau zwei Variablen und gibt an, wie gut wir die eine aus der anderen vorhersagen können. 1.1.1.1. Die Produkt-Moment-Korrelation nach Pearson - DIE Korrelation Die am weitesten verbreitete Korrelation ist die Produkt-Moment-Korrelation (auch Pearson- Korrelation). Wir verwenden sie, wenn wir untersuchen wollen, wie stark zwei intervallskalierte Merkmale miteinander zusammenhängen. Der Wertebereich der Produkt-Momentkorrelation liegt zwischen -1 und +1. Eine Korrelation von 0 (oder ungefähr 0) bedeutet, dass kein (linearer) Zusammenhang zwischen den Variablen besteht. Anders ausgedrückt: Wenn wir eine Korrelation von 0 zwischen zwei Variablen finden, verrät uns der Wert, den eine Person auf der einen Variable hat, nichts darüber, welchen Wert sie auf der anderen hat. Finden wir eine Korrelation im positiven Bereich, bedeutet das, dass Personen, die auf der einen Variablen einen hohen Wert haben, auch in der anderen Variablen eher einen hohen Wert haben. Solche Zusammenhänge werden oft auch als gleichsinnig bezeichnet. Je näher an 1 unsere Korrelation liegt, desto genauer ist unsere Vorhersage. Finden wir eine Korrelation im negativen Bereich, bedeutet das, dass Personen, die auf der einen Variablen einen hohen Wert haben, in der anderen Variablen eher einen niedrigen Wert haben. Solche Zusammenhänge bezeichnet man als gegensinnig. Wieder gilt: Je naher unsere Korrelation an -1 liegt, desto genauer ist unsere Vorhersage. Um zu berichten wie genau unsere Vorhersage ist, hat ein Herr Cohen Richtlinien aufgestellt, wann wir von einem schwachen / mittleren / starken Zusammenhang sprechen sollten: Ist die Korrelation größer als 0.1 oder kleiner als -0.1, handelt es sich mindestens um einen schwachen Zusammenhang. Ist die Korrelation größer als 0.3 oder kleiner als -0.3, handelt es sich mindestens um einen mittel starken Zusammenhang. Ist die Korrelation größer als 0.5 oder kleiner als -0.5, handelst es sich um einen starken Zusammenhang. Kurz: Wir haben einen schwachen / mittleren / starken Zusammenhang, wenn unsere Korrelation im Betrag größer als.1,.3 oder.5 ist.

Sollten wir jemals eine Korrelation von genau 1 oder genau -1 finden, bedeutet das, dass wir die eine Variable perfekt aus der anderen vorhersagen können, die beiden sind also quasi identisch. Ted möchte untersuchen, wie das Alter, die Dienstjahre, das Gehalt, die Arbeitszufriedenheit und die Lebenszufriedenheit der Mitarbeiter des Sacred Hearts zusammenhängen. Hierfür berechnet er die Korrelationen jeder der Variablen mit jeder anderen. Über Analysieren Korrelation bivariat kommt er in das Dialogfeld für Korrelationen: Hier packt er alle Variablen, die er miteinander korrelieren möchte, in das rechte Feld. Wichtig bei der Interpretation ist dabei (insbesondere, wenn wir uns später die Regression anschaun): Die Korrelationen werden immer paarweise zwischen zwei Variablen berechnet, ohne dass berücksichtigt würde, welche anderen Variablen noch ausgewählt waren. Z.B. die Korrelation zwischen Alter und Dienstjahren ist also immer dieselbe, egal ob wir sie alleine oder gleichzeitig mit allen anderen Korrelationen berechnen berechnen. In die Syntax eingefügt sieht das dann so aus: Führen wir diese Syntax aus, kommt folgende Korrelationsmatrix dabei heraus:

In jeder Zelle stehen drei Werte: Die Korrelation selbst, darunter ihr Signifikanzwert und wiederum darunter die Anzahl an Wertepaaren, die in sie eingeflossen sind (im Idealfall sollte das immer dieselbe Zahl sein, es können aber unterschiede auftreten, wenn in einigen Variablen Werte fehlen). Die Signifikanz wird wie immer interpretiert: Ist der p-wert kleiner als 5%, gibt es eine signifikante Abweichung aber wovon? Ted ist verwirrt, weil wir eigentlich festgestellt hatten, dass wir in diesem Kapitel Zusammenhänge (und keine Unterschiede/Abweichungen) testen. Das stimmt, aber einen Zusammenhang können wir immer als Abweichung von keinem Zusammenhang interpretieren. Die Signifikanztests bei den Korrelationen geben an, ob die gefundene Korrelation so groß ist, dass sie wirklich (also auch in der Population) vorhanden ist, oder ob sie so klein ist, dass sie in Wahrheit 0 sein könnte. Wir testen also, ob die gefundene Korrelation signifikant von 0 abweicht. Damit wir uns noch weniger Mühe geben müssen, hilft uns SPSS sogar noch weiter: Korrelationen, die einen Signifikanzwert von unter 5% haben, werden mit einem Sternchen markiert. Ist das p sogar kleiner als 1%, werden uns zwei Sternchen angezeigt. Nun interpretiert Ted mit Molly s Hilfe einige der Korrelationen (bevor er mit allen fertig ist, beginnt seine Mittagspause): Die Korrelation zwischen dem Alter und den Dienstjahren ist extrem hoch positiv. Das heißt je älter eine Person ist, desto mehr Dienstjahre hat sie auf dem Buckel. Dieser Zusammenhang ist signfikant (p<.001). Die Korrelation liegt zudem nahe 1, das heißt wir können anhand des Alters fast perfekt auf die Dienstjahre schließen (und umgekehrt). Die Korrelation zwischen dem Alter und dem Gehalt ist mittelhoch (r >.3, fast hoch) positiv. Das heißt je älter eine Person ist, desto mehr verdient sie im Schnitt. Dieser Zusammenhang ist allerdings nur mittelhoch, also bei weitem nicht perfekt. Dennoch wird er signifikant (p<.001). Es gibt einen leichten positiven Zusammenhang von Alter und Lebenszufriedenheit (r>.1). Es besteht also eine leichte Tendenz, dass ältere Personen auch zufriedener mit ihrem Leben sind. Dieser Zusammenhang wird nur knapp signifikant (p=.037). Es lässt sich kein signifikanter Zusammenhang zwischen der Anzahl der Dienstjahre und der Arbeitszufriedenheit finden (p>.05, r<.1). Wir können also - auch wenn wir die Dienstjahre einer Person kennen keinerlei Rückschlüsse auf ihre Arbeitszufriedenheit ziehen. Das bedeutet allerdings

nicht, dass kein Zusammenhang besteht. Möglicherweise hätten wir nur eine größere Stichprobe benötigt. Wichtig: Bei der Interpretation von Korrelationen sollten wir stets im Hinterkopf behalten, dass wir meistens nicht einfach auf kausale Zusammenhänge schließen dürfen. Das als ultimative Antwort in Klausuren zu schreiben reicht aber auch nicht. Es gibt durchaus Fälle, in denen solche Aussagen nämlich gerechtfertigt wären. Insbesondere die Richtung der Kausalität ist oftmals klar: Es ist sehr sehr unwahrscheinlich, dass ein höheres Gehalt zu mehr Dienstjahren führt. Zumindest die Richtung des Zusammenhangs ist hier klar: Nämlich dass mehr Dienstjahre (mehr Erfahrung) zu einem höheren Gehalt führen und sicherlich nicht umgekehrt. 1.1.1.2. Die Korrelation per Syntax Auch per Syntax funktioniert die Korrelation sehr einfach. Wir müssen nämlich bei weitem nicht so viel eingeben, wie uns die automatisch per Menü eingefügte Syntax glauben lassen will. Die kürzeste Form ist folgende: Wir benötigen also nur den Befehl CORRELATIONS und dann eine Liste der Variablen, die wir miteinander korrelieren wollen (zum Abschluss natürlich noch einen Punkt). Der einzige Wermutstropfen ist, dass uns dann die signifikanten Korrelationen nicht mit Sternchen markiert werden 1. Um das nachzuholen, setzen wir noch ein /PRINT NOSIG hinter die Variablen: Dieser Befehl produziert dann exakt die gleiche Korrelationstabelle wie das Klicken über die Menüs. Aber wir haben per Syntax sogar noch eine weitere Option, die wir über die Menüs nicht erreichen können! Hier haben wir also tatsächlich den speziellen Fall, dass wir keine Alternative zur Syntax haben. Die bisher erstellten Korrelationsmatrizen können nämlich sehr unübersichtlich werden, wenn wir sehr viele Variablen korrelieren wollen. Oftmals interessieren uns viele der berechneten Korrelation überhaupt nicht. Zum Beispiel ist Ted nur daran interessiert, wie die Lebenszufriedenheit mit den anderen vier Variablen korreliert. Wie das Alter, die Dienstjahre, das Gehalt und die Arbeitszufriedenheit untereinander korrelieren, interessiert ihn nicht. Molly hilft ihm: Sie setzt innerhalt der Variablenliste ein WITH ein: Der Effekt ist, dass nun keine quadratische Korrelationsmatrix mehr erstellt wird (in der jede Variable in einer Zeile UND in einer Spalte auftaucht), sondern dass die Variable(n) vor dem WITH nur noch als Zeilen, die Variable(n) nach dem WITH nur noch als Spalten auftauchen: 1 Was für ausgefuchste manchmal aber sogar erwünscht sein kann, wenn wir z.b. in Excel mit den Korrelationen weiterrechnen wollen

1.1.2. Regression Die Regressionsverfahren sind eine Erweiterung der Korrelation. Hier geht es nicht mehr darum, eine Variable aus einer anderen vorherzusagen. Vielmehr wollen wir eine Variable aus vielen anderen vorhersagen. Wir bezeichnen dabei die Variable, die wir vorhersagen wollen, als Kriterium und die übrigen Variablen als Prädiktoren. Oft setzt man diese Begriffe auch mit AV und UV (Abhängige Variable und Unabhängige Variable) gleich. Wir interessieren uns in der Regel für zwei Informationen: Erstens wollen wir wissen, wie gut wir das Kriterium (die AV) insgesamt aus allen Variablen vorhersagen können. Man könnte nun einfach das Kriterium mit allen Prädiktoren einzeln korrelieren. Das Problem hieran wäre, dass wir bestimmte Informationen mehrfach zählen würden, weil sie in mehreren Prädiktoren vorhanden sind. Das folgende Beispiel hinkt ein wenig, aber wir können uns dieses mehrfachzählen von Information in etwa so vorstellen: Die Anfänger im Sacred Heart müssen einen kleinen Test schreiben, der aus vier Aufgaben besteht. Natürlich arbeiten JD und Turk zusammen. Wir wollen nun vorhersagen, wie gut sie gemeinsam abschneiden (wie gut sie also die perfekte Lösung des Tests vorhersagen können). Turk und JD sind also zwei Prädiktoren, die Musterlösung ist das Kriterium. Turk kann nur zwei der Aufgaben lösen. JD ist nicht besser und kann ebenfalls nur zwei Aufgaben lösen. Schauen wir uns die Antworten der beiden getrennt an, sehen wir aber, dass sie gemeinsam 4 Aufgaben korrekt lösen können (2 [von Turk]+ 2 [von JD] = 4). Da der Test nur 4 Aufgaben hat, würden wir also erwarten, dass sie 100% der Punkte bekommen. Tatsächlich können sie aber nur 3 Aufgaben lösen. Woran liegt das? Beim Durchgehen der Lösungen stellen wir fest, dass Turk die Aufgaben 1 und 2 lösen konnte, JD die Aufgaben 2 und 3. Wenn wir also blind die Anzahl korrekter Lösungen aufsummieren, zählen wir Aufgabe 2 doppelt (es hilft den beiden nicht, dass sie sie beide lösen können, einer von ihnen hätte ja gereicht). Die korrekte Lösung von Aufgabe 2 ist also in beiden Prädiktoren enthalten und somit zum Teil überflüssig. Mit eben diesem Problem beschäftigt sich die Regression. Es reicht uns nicht zu wissen, wie viel Information die Prädiktoren einzeln für sich über das Kriterium enthalten, wir wollen wissen, wieviel einzigartige Information sie enthalten, die nicht schon in den anderen Prädiktoren steckt. 1.1.2.1. Die Multiple Lineare Regression Die Multiple Lineare Regression ist der Standardfall der Regressionen. Das Multiple bedeutet einfach nur, dass wir mehrere Prädiktoren verwenden. Das werden wir aber auch immer tun. Würden wir nur einen einzigen Prädiktor betrachten, hätten wir viel einfacher eine Korrelation berechnen können, die Information wäre (in den von uns betrachteten Fällen) dieselbe. Das Lineare steht dafür, dass wir uns, wie auch bei der Produkt-Moment-Korrelation, nur mit linearen Zusammenhängen beschäftigen. Auf seiner Suche nach dem Glück möchte Ted herausfinden, wodurch man die Lebenszufriedenheit eines Menschen vorhersagen kann. Aus der oben berechneten Korrelationsmatrix entnimmt er, dass alle untersuchten Variablen mit der Lebenszufriedenheit korrelieren. Um zu überprüfen, ob

tatsächlich alle von ihnen nötig sind und welche von ihnen die Wichtigsten sind, packt er das Alter, die Dienstjahre, das Gehalt und die Arbeitszufriedenheit als Prädiktoren in eine Multiple Lineare Regression mit dem Kriterium Lebenszufriedenheit. Er findet den Regressions-Dialog über Analysieren Regression Linear. Er wählt Lebenszufriedenheit als Abhängige Variable aus, die übrigen Variablen als Unabhängige Variable(n). Weitere Einstellungen braucht er hier nicht, obwohl wir uns im Kapitel zur Hierarchischen Regression noch ein wenig mehr mit diesem Dialogfeld beschäftigen werden. In die Syntax eingefügt sieht die Regression so aus:

Die wichtigen Tabellen der Ausgabe sind dann die Folgenden: In der Modellübersicht wird uns das R² angezeigt, also der prozentuale Anteil der Varianz, den unsere Prädiktoren am Kriterium aufklären. Nach Cohen gilt hier:.2 (also 20%) ist wenig,.5 (also 50%) ist mittelmäßig, ab.8 (also 80%) ist viel. Darüber hinaus steht unter der Tabelle noch einmal, welche Prädiktoren wir eigentlich verwendet haben. Als nächstes können wir der ANOVA-Tabelle 2 entnehmen, ob dieses R² so groß ist, dass wir es auch in der Population finden sollten. Wir testen also, ob unser gefundenes R² in Wahrheit 0 sein könnte. Ist der p-wert (unter Sig. ) kleiner als 5% sagen wir wie üblich: Dieses R² kann nicht 0 sein, sondern ist tatsächlich vorhanden. Sollten wir hier einen p-wert größer als 5% finden können wir sofort aufhören weiter zu suchen und sagen: Das gesamte Regressionsmodell funktioniert nicht. Schließlich bekommen wir noch die Koeffizienten-Tabelle: Hier bekommen wir für jeden Prädiktor die Regressionsgewichte mit ihrem Signifikanztest angezeigt. Die nicht standardisierten Koeffizienten (links, B ) sind die b-gewichte, die wir schon aus Excel kennen. Zur Erinnerung: Sie geben an, um wie viel sich das Kriterium im Schnitt verändert, wenn sich 2 Zerbrecht euch bitte nicht den Kopf darüber, warum eine ANOVA innerhalb der Regression vorkommt, sondern schaut einfach nur auf die Signifikanz.

der Prädiktor um einen Punkt verändert. Z.B.: Mit jedem Zusätzlichem Lebensjahr steigt die Lebenszufriedenheit im Schnitt um 0.028 Punkte (blauer Kasten). Die b-gewichte sind nicht mit einander vergleichbar, weil sie abhängig von der Skala sind, auf der die Prädiktoren und das Kriterium gemessen werden (das b-gewicht des Alters wäre ein anderes, wenn wir das Alter in Monaten statt in Jahren ausdrücken würden, obwohl das am inhaltlichen Zusammenhang von Alter und Lebenszufriedenheit nichts ändern würde). Viel wichtiger für uns sind die Beta-Gewichte (β). Diese können wir wie Korrelationen interpretieren 3 (auch hier gilt für die Effektstärke also Cohens.1.3.5 Regel), nur dass die doppelt gezählten Informationsanteile 4 entfernt wurden. Sie haben also den Vorteil, dass sie zum einen nicht von der Skala abhängen 5, auf der wir uns bewegen, und zum anderen miteinander vergleichbar sind (ein höheres Beta-Gewicht weißt auf einen stärkeren Zusammenhang hin). Die Signifikanzwerte ganz rechts sagt uns schließlich, ob wir den Einfluss des jeweiligen Prädiktors auch in der Population finden sollten. Hier sehen wir, dass nur die Arbeitszufriedenheit signifikant wird. Das bedeutet, dass wir nur auf diesen Prädiktor wirklich vertrauen können, die anderen könnten durchaus auch null sein (obwohl das Gehalt wirklich sehr sehr knapp vor der Signifikanz steht). Wichtig: Hier sehen wir eine der Gefahren bei der Interpretation der Regression. Es sieht so aus, als gäbe es keinerlei Zusammenhänge von Lebenszufriedenheit mit dem Alter, den Dienstjahren und dem Gehalt. Allerdings hatten wir bei den Korrelationen gesehen, dass es diese Zusammenhänge durchaus gibt. Das zeigt: Die Beta-Gewichte selbst und natürlich auch ihre Signifikanzen hängen massiv davon ab, welche anderen Prädiktoren mit im Modell sind. Alter, Dienstjahre und das Gehalt haben also genau dann keinen signifikanten Einfluss auf die Lebenszufriedenheit, wenn wir sie gleichzeitig mit der Arbeitszufriedenheit betrachten (offensichtlich haben sie also nur keine einzigartige Information, die nicht schon in der Arbeitszufriedenheit enthalten wäre). Hier können wir also interpretieren: Das Gesamtmodell wird signifikant, wir können anhand des Alters, der Dienstjahre, des Gehalt und der Arbeitszufriedenheit also einen Teil der Lebenszufriedenheit vorhersagen. Das funktioniert mittelmäßig gut, wenn wir Cohens Kriterien anlegen (R² >.5, aber <.8). In der Praxis ist man aber oftmals etwas liberaler und würde das Modell sogar noch positiver bewerten. Allerdings wird nur der Prädiktor Arbeitszufriedenheit signifikant, er hat einen stark positiven Zusammenhang mit der Lebenszufriedenheit: Je höher die Arbeitszufriedenheit, desto höher die Lebenszufriedenheit. Die übrigen Prädiktoren tragen (solange die Arbeitszufriedenheit mit berücksichtig wird) keine zusätzliche Information. Noch am bedeutendsten von ihnen scheint das Alter zu sein, da sein Beta- Gewicht immerhin noch im kleinen Bereich liegt (β>.1, aber wie gesagt nicht signifikant). 3 Mit dem leichten Unterschied, dass Beta-Gewichte in Einzelfällen größer 1 bzw. kleiner -1 werden können 4 Genauer: Die Interkorrelationen der Prädiktoren 5 Für Ausgefuchste: Wenn wir eine Regression nur mit z-standardisierten Variablen rechnen, sind b-gewichte und Beta-Gewichte identisch