Skript Einführung in SPSS
|
|
|
- Nadine Winter
- vor 9 Jahren
- Abrufe
Transkript
1 SPSSinteraktiv Korrelationen & Regression Skript Einführung in SPSS Korrelation & Regression Korrelation 1. Bivariate Korrelation 2. Partialkorrelation 3. Semipartialkorrelation Lineare Regression 1. einfache Regression 2. multiple Regression Hinweise zum Schreiben eines statistischen Reports Einige Tipps zur Formatierung des Outputs: 1. Spracheinstellung in Output-Tabellen auf Deutsch festlegen: Edit Options Registerkarte General Language (rechts, mittig) German auswählen 2. Tabellen so formatieren, dass sie den Richtlinien für Tabellen in wissenschaftlichen Arbeiten entsprechen: Edit Options Registerkarte Pivot Tables Table Looks (links) Acadamic auswählen
2 SPSSinteraktiv Korrelationen & Regression Korrelation Bivariate Korrelation Analysieren Korrelation (Correlate) Bivariat In dem sich öffnenden Fenster werden die Variablen ausgewählt, die korreliert werden sollen. Es ist auch möglich, mehr als zwei Variablen auszuwählen, korreliert wird dann jede mit jeder anderen Variablen. intervallskalierte, normalverteilte Variablen: Voreinstellung Pearson beibehalten ordinalskalierte Variablen oder nicht normalverteilte intervallskalierte Variablen: a) Spearman auswählen und eine Rangkorrelation berechnen oder b) die Rangkorrelation Kendall s tau wählen (besonders bei Ausreißern geeignet!!!) Output Die Korrelationen werden in Form einer Kreuztabelle ausgegeben, die entlang der Diagonalen spiegelbildlich ist, d.h., unter der Diagonalen steht noch einmal dasselbe wie über der Diagonalen. Die Diagonale selbst ist stellt die Korrelationen der Variablen mit sich selbst dar und ist somit informationslos. Zusätzlich werden zu jeder Korrelation das Signifikanzniveau und die Anzahl der Fälle angegeben. Intelligenzquotient Mittelwert Schulnoten Correlations Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N **. Correlation is significant at the 0.01 level (2-tailed). bestehen Vorannahmen über die Richtung der Korrelation (negativ oder positiv), kann auch ein einseitiger Test durchgeführt werden Intelligenz Mittelwert quotient Schulnoten 1,856**., ,856** 1, r =.86 N= 45 p <0.01, das Ergebnis ist sehr signifikant (auch erkennbar an den ** bei r!)
3 SPSSinteraktiv Korrelationen & Regression Partialkorrelation Soll aus einer Korrelation r xy eine Kontrollvariable z herauspartialisiert werden, weil die Vermutung besteht, dass diese den eigentlichen Zusammenhang zwischen X und Y verursacht, berechnet man eine Partialkorrelation r xy.z Analysieren Correlate Partiell (Partial) In dem sich öffnenden Fenster werden die Variablen für die Korrelation (X, Y) ausgewählt und ist das obere rechte Fenster eingefügt, die Kontrollvariable Z kommt in das untere rechte Fenster. Output Correlations Es ist möglich, auch mehrere Kontrollvariablen einzufügen. Berechnet wird dann eine Partialkorrelation höherer Ordnung! Optional kann man sich deskriptive Statistiken und die Korrelation Nullter Ordnung ausgeben lassen (entspricht der bivariaten Korrelation ohne Berücksichtigung der Kontrollvariablen) Control Variables Interesse der Eltern Intelligenzquotient Mittelwert Schulnoten Correlation Significance (2-tailed) df Correlation Significance (2-tailed) df Intelligenz Mittelwert quotient Schulnoten 1,000,641., ,641 1,000, r xy.z =.64 p <0.01, auch die Partialkorrelation ist noch sehr signifikant! Was heißt das nun? Der Zusammenhang zwischen IQ (x) und Schulnote (y) lag zunächst bei r=.86. Nach Herauspartialisieren des Interesses der Eltern ist diese Korrelation zwar auf.64 gefallen, aber damit immer noch recht hoch. Das heißt, der Zusammenhang zwischen IQ und Schulnote kann nicht allein durch den Einfluss des Interesses der Eltern (z) erklärt werden, obwohl es, da die Partialkorrelation r xy.z geringer als die Korrelation r xy ist, offensichtlich in irgendeiner Form eine Rolle spielt. Das Modell, dass z allein auf x und y wirkt und für den Zusammenhang zwischen x und y verantwortlich ist, ist unzureichend!
4 SPSSinteraktiv Korrelationen & Regression Semipartialkorrelation Bei einer Semipartialkorrelation r x(y.z) wird der Einfluss einer Kontrollvariablen z nur aus einer der Variablen x und y (in dem Fall aus y) herauspartialisiert. Die Durchführung dazu ist über zwei Wege möglich. 1. über das Regressionsmenü Analysieren Regression Linear Im sich öffnenden Fenster wählt man als abhängige Variable (Dependent) diejenige, die nicht auspartialisiert werden soll, als unabhängige Variablen (Independent) diejenige, aus der die Kontrollvariable(n) auspartialisiert werden soll(en) und die Variable(n) die auspartialisiert werden soll(en) (also die Kontrollvariable(n)). Danach den Button Statistiken betätigen. Variable, aus der nicht auspartialisiert werden soll (z.b. Leistung) Kontrollvariable, die auspartialisiert werden soll (z.b. Interesse der Eltern) Variable, aus der auspartialisiert werden soll (z.b. Intelligenzquotient) In dem sich öffnenden Menü Statistiken wählt man die Option Teil- und partielle Korrelationen aus. Bestätigt mit Weiter und klickt in dem Regressionsmenü auf OK. Die Outputinterpretation wird nach Erläuterung der zweiten Möglichkeit für die Semipartialkorrelation beschrieben.
5 SPSSinteraktiv Korrelationen & Regression über das Regressions- und anschließend über das Korrelationsmenü (diese Möglichkeit ist etwas umständlicher) Dazu erinnert Euch zunächst noch mal: Partialisiert man aus einer Variablen y den Einfluss einer Variablen z heraus, wird der Rest als Residuum bezeichnet. In der graphischen Veranschaulichung einer Regression ist dies die Abweichung eines Punktes von der Regressionsgeraden. Das Residuum wird mit e y bezeichnet, wobei e = y-y mit y = a + b z. Das Residuum ist also einfach die Differenz zwischen y und y, also der Teil von y, der von z unbeeinflusst ist. Um nun die Semipartialkorrelation berechnen zu können, berechnet man zunächst dieses Residuum und korreliert das dann mit x. Analysieren Regression Linear Im sich öffnenden Fenster wählt man als unabhängige Variable (Independent) diejenige, die auspartialisiert werden soll (also die Kontrollvariable), als abhängige (Dependent) die Variable, deren Residuum berechnet werden soll, d.h., aus der die Kontrollvariable auspartialisiert werden soll. Danach den Button Speichern ( Save ) betätigen Variable, aus der auspartialisiert werden soll (z.b. IQ) Kontrollvariable, die auspartialisiert wird (z.b. Interesse der Eltern) In diesem Untermenü können verschiedene Werte als Variablen gespeichert werden, u. a. die Residuen. Für die Semipartialkorrelation lasst Ihr Euch die unstandardisierten Residuen berechnen.
6 SPSSinteraktiv Korrelationen & Regression Bestätigt mit Continue, klickt in dem Regressionsmenü auf OK. Der Output interessiert in dem Fall erst mal gar nicht. Wichtig ist jetzt, dass eine neue Variable, die die Residuen für jede Person enthält, erstellt wurde! Datenansicht Ihr solltet auf jeden Fall darauf achten, die Variable umzubenennen, sonst wisst Ihr später nicht mehr, um welches Residuum es sich handelte! Bsp: Residuum IQ.Eltern Variablenansicht Um nun die Semipartialkorrelation r x(y z) zu erhalten, rechnet man einfach über das Korrelationsmenü eine bivariate Korrelation (siehe oben) zwischen der Variablen x, aus der nichts auspartialisiert wurde (z.b. Schulnote) und dem Residuum! Output 1. Möglichkeit 2.Möglichkeit In der Spalte Teil stehen die Semipartialkorrelationen Der in der Zeile stehende Wert entspricht jeweils der Korrelation der abhängigen Variable (Schulnoten) mit der Variable aus der Zeile (Intelligenzquotient) ohne den Einfluss aller anderen Variablen (Interesse der Eltern). Koeffizienten a Correlations Modell 1 Interesse der Eltern Intelligenzquotient a. Abhängige Variable: Mittelwert Schulnoten Korrelationen Nullter Ordnung Partiell Teil,897,754,389,856,641,283 Mittelwert Schulnoten Residuum IQ.Eltern Pearson Correlation Sig. (2-tailed) N Pearson Correlation Sig. (2-tailed) N Mittelwert Residuum Schulnoten IQ.Eltern 1,283., ,283 1, Die Semipartialkorrelation beträgt nur noch.28 und ist auch nicht mehr signifikant. Es gibt nur einen schwachen direkten Zusammenhang zwischen der Schulnote und dem IQ, wenn der Einfluss der Eltern aus dem IQ heraus partialisiert wird. Diese Korrelation spricht dafür, dass ein Großteil des Zusammenhanges zwischen x und y auf den Zusammenhang zwischen y und z zurückzuführen ist. Eine mögliche kausale Interpretation wäre z.b., dass die Eltern maßgeblich den IQ beeinflussen, der wiederum die Schulnoten beeinflusst. Dieses Modell wäre mit den Korrelationen zumindest nicht falsifiziert. Aber Vorsicht: Dies ist nur ein mögliches Modell, weitere wären denkbar, wobei nicht immer alle gleich plausibel sind!
7 SPSSinteraktiv Korrelationen & Regression Lineare Regression Die Regression dient der Erstellung einer Regressionsgleichung, mit der es möglich ist, aufgrund der Kenntnis einer oder mehrerer unabhängiger Variablen (Prädiktoren) eine abhängige Variable vorherzusagen. Im Falle der linearen Regression ist die abhängige Variable intervallskaliert und normal verteilt, ebenso die unabhängige(n) Variable(n). Ausnahme: die unabhängigen Variablen können auch nominal gestuft sein, müssen dazu jedoch kodiert werden, z.b. per Dummy- oder Effektcodierung, siehe dazu z.b. Bortz, Statistik für Sozialwissenschaftler Wichtig: - Voraussetzung für die Regressionsrechnung sind normal verteilte Variablen. Dies sollte vorab unbedingt geprüft werden (siehe erstes Handout!). - Die Regression reagiert sehr anfällig auf Ausreißer. Diese sollten ggf. nicht in die Berechnung eingehen. Die Überprüfung findet mithilfe des Boxplots statt (siehe erstes Handout). - Eine weitere Voraussetzung sind normal verteilte Residuen. Das Vorgehen zur Überprüfung wird weiter unten erklärt! - Da in der linearen Regression lineare Zusammenhänge unterstellt werden, sollten diese auch zunächst geprüft werden Am einfachsten geschieht dies mithilfe des Streudiagramms: Graphiken Streudiagramm (Scatter ) Einfach die entsprechenden Variablen für Abszisse und Ordinate auswählen 15,00 12,00 Mittelwert Schulnoten 9,00 6,00 Optional kann die Regressionslinie hinzugefügt werden: Diagramm doppelt anklicken Punktewolke anklicken Chart Add Chart Element Fit line linear ins Diagramm wird dann automatisch auch die Varianzaufklärung durch die Regression eingefügt! 3,00 R Sq Linear = 0,798 0,00 0,00 2,00 4,00 6,00 8,00 10,00 12,00 Interesse der Eltern
8 SPSSinteraktiv Korrelationen & Regression Einfache Regression In die einfache Regression geht nur ein Prädiktor in die Regressionsgleichung (y^=a+b x) ein. Durchführung Analysieren Regression Linear abhängige, vorherzusagende Variable, z.b.iq Prädiktor, z.b. Interesse der Eltern In dem sich öffnenden Fenster werden die abhängige Variable und der Prädiktor ausgewählt. Kennwerte Untermenü Statistiken (Statistics): alle wichtigen Kennwerte für die einfache lineare Regression sind in der Abbildung erläutert. Schätzungen für die Regressionskoeffizienten a und b in der Regressionsgleichung Konfidenzintervalle für die Schätzungen der Regressionskoeffizienten Überprüfung der Modellanpassung Mittelwerte, Standardabweichun gen und N für alle verwendeten Variablen Output Als erstes werden die deskriptiven Statistiken und die Korrelationen zwischen Prädiktor und abhängiger Variable ausgegeben. Im Anschluss folgt eine Übersicht über alle Modelle (im Beispiel nur eines!) und die jeweiligen Prädiktoren, die eingegangen/entfernt sind.
9 SPSSinteraktiv Korrelationen & Regression Modellzusammenfassung Korrelation zwischen Prädiktor und abhängiger Variable Model 1 Model Summary b Adjusted Std. Error of R R Square R Square the Estimate,894 a,798,794 1,00950 a. Predictors: (Constant), Interesse der Eltern b. Dependent Variable: Mittelwert Schulnoten Varianzaufklärung: R² 100% ergibt den prozentualen Anteil der erklärten Varianz an der Gesamtvarianz, im Beispiel also 79.8% Standardfehler der Schätzung von R² korrigiertes R², je mehr Prädiktoren eingehen, umso stärker muss R² nach unten korrigiert werden Prüfung des Modells auf Signifikanz: Ein Regressionsmodell soll, da es der Vorhersage dient, einen möglichst hohen Anteil der Varianz erklären können, sonst ist es nicht brauchbar. Dazu wird eine einfaktorielle Varianzanalyse berechnet, in der der Anteil der erklärten Varianz am Anteil der Fehlervarianz relativiert wird. Ist der durch die Regression erklärte Varianzanteil deutlich höher als der Fehlervarianzanteil, wird die Varianzanalyse signifikant. Quadratsumme, Freiheitsgrade und Varianz der Regression Quadratsumme, Freiheitsgrade und Varianz der Residuen (also Fehler) Modell 1 Regression Residuen Gesamt ANOVA b Quadrats Mittel der umme df Quadrate F Signifikanz 193, , ,174,000 a 48, , , a. Einflußvariablen : (Konstante), Interesse der Eltern Prüfgröße F b. Abhängige Variable: Mittelwert Schulnoten p-wert, da p<.001 ist, ist das Modell hoch signifikant, also geeignet, die abhängige Variable gut vorhersagen zu können Koeffizienten Konstante a in der Gleichung y^= a + b x (Schnittpunkt mit der Ordinate) Koeffizient b für den Prädiktor x (Steigung der Regressionsgeraden) Modell 1 t-test zur Überprüfung der Signifikanz der Koeffizienten (getestet wird die H0, dass der Koeffizient in der Population Null ist, dass also der Prädiktor unbedeutend ist) (Konstante) Interesse der Eltern Nicht standardisierte Koeffizienten a. Abhängige Variable: Mittelwert Schulnoten Koeffizienten a Standardisie rte Koeffizienten Konfidenzintervall für B (je schmaler, desto genauer die Schätzung; ist Null im Intervall umschlossen, kann der t-test auch nicht signifikant werden! 95%-Konfidenzintervall für B Standardf B ehler Beta T Signifikanz Untergrenze Obergrenze 1,389,429 3,239,002,527 2,252,848,062,894 13,790,000,725,972 unstandardisierte Werte für a und b, die Regressionsgleichung lautet: y^= x, für einen x-wert von 8 würde man eine mittlere Schulnote von 8.17 vorhersagen standardisierter Wert für b (die Konstante a ist in dem Fall Null), Vorhersage von z-standardisierten y- Werten, besonders geeignet, um bei mehreren Prädiktoren deren Gewichtung zu vergleichen! In der einfachen Regression ist ß = r xy
10 SPSSinteraktiv Korrelationen & Regression Prüfung der Residuen auf Normalverteilung Um diese Voraussetzung zu überprüfen, ist es möglich, sich ein Histogramm mit Normalverteilungskurve oder ein PP-Diagramm für die standardisierten Residuen erstellen zu lassen: Analysieren Regression Linear Plots In der Dialogbox gibt es unten links die Möglichkeit, findet man diese zwei Optionen. Output Histogramm Abhängige Variable: Mittelwert Schulnoten Häufigkeit N Regression Standardisiertes Residuum Parameter der Normalverteilung a,b Kolmogorov-Smirnov-Anpassungstest Mittelwert Standardabweichung Extremste Differenzen Absolut Positiv Negativ Kolmogorov-Smirnov-Z Asymptotische Signifikanz (2-seitig) Mean = -2,05E- 15 Std. Dev. = 0,99 N = 50 Standardized Residual a. Die zu testende Verteilung ist eine Normalverteilung. b. Aus den Daten berechnet. 50, , ,085,085 -,084,604,859 Die Residuen sind nicht perfekt normalverteilt, weichen aber auch nicht übermäßig von der Kurve ab! Wem diese optische Prüfung nicht reicht, kann auch über das Menü Regression Save die standardisierten Residuen als Variable speichern (vgl. auch Semipartialkorrelation) und diese Variable per Kolmogoroff-Smirnov-Test auf Normalverteilung prüfen (entweder über Analyze Deskriptives Explore Plots, vgl. erstes Handout, oder über Analyze Nonparametric 1-Sample K-S). Wird der Test nicht signifikant, weicht die Verteilung nicht signifikant von der Normalverteilung ab! Die Verteilung weicht nicht signifikant von einer Normalverteilung ab!
11 SPSSinteraktiv Korrelationen & Regression Multiple Regression Die multiple Regression dient der Vorhersage einer abhängigen Variablen y aufgrund mehrerer unabhängiger Variablen x i. Die Regressionsgleichung lautet in dem Fall: y^=a + b 1 x 1 + b 2 x b i x i Bestimmt werden die Regressionskoeffizienten a und b i. Durchführung Analysieren Regression Linear (vgl. einfache Regression!) Es wird wieder eine abhängige Variable ausgewählt, diesmal gehen jedoch auch mehrere unabhängige Variablen ein. Als Methode sollte die Einstellung Stepwise gewählt werden (dabei gehen die Variablen schrittweise nach der eingegebenen Reihenfolge (entsprechend der Theorie) in die Regression ein, solange, bis jede weitere Variable nicht mehr bedeutend mehr Varianz erklären kann als die vorherigen; zur Erläuterung der anderen Methoden vgl. z.b. Backhaus oder Bühl & Zöfel). Die Methode Einschluss ist als Nachtrag am Ende dieses Handouts erklärt. Wichtig ist dabei auch die Reihenfolge, in der man diese auswählt, da sie in der Reihenfolge in die Modellprüfung eingehen! Diese Abfolge wird theoriegeleitet oder sachlogisch festgelegt. Die am bedeutendsten scheinende Variable als erstes, die zweitwichtigste danach usw Beispiel-Theorie: Das Interesse der Eltern hat einen starken Einfluss auf die Schulnoten, da die Kinder somit extrinsisch motiviert sind, gute Leistungen zu erbringen. Der Intelligenzquotient sagt etwas über die kognitiven Fähigkeiten und sollte somit zusätzlich zum Aspekt der Motivation (Eltern) Varianz in den Schulnoten aufklären können. Die Anzahl der Bücher könnte etwas über die Allgemeinbildung des Kindes aussagen und somit einen weiteren Einfluss auf die Note haben. Kennwerte Im Untermenü Statistics sollten folgende Kennwerte ausgewählt werden: R²change gibt das Ausmaß der Verbesserung der Varianzaufklärung durch jede zusätzliche unabhängige Variable an; dieser Unterschied wird auch auf Signifikanz geprüft Besteht die Vermutung, dass die unabhängigen Variablen hoch korrelieren, sollte man sich auch die Kollinearität der Prädiktoren ansehen: Ist diese hoch, klären diese Prädiktoren einen großen gemeinsamen Teil der Varianz der abhängigen Variablen auf, so dass der zweite Prädiktor auch nicht mehr Information liefert als der erste!
12 SPSSinteraktiv Korrelationen & Regression Output Modellzusammenfassung Die Modellzusammenfassung zeigt wieder die Varianzaufklärung durch die Modelle (vgl. einfache Regression). Den Fußnoten kann man entnehmen, welche Variablen in welches Modell eingegangen sind. Offensichtlich ist die Variable Anzahl der Bücher nicht eingegangen. Modellzusammenfassung c Modell 1 umfasst nur die 1. Variable in jedes weitere Modell geht sukzessiv eine weitere Variable ein, bis jede weitere nicht mehr viel zur Varianzaufklärung beitragen kann Modell 1 2 Änderungsstatistiken Änderung in Korrigiertes Standardfehler Änderung in Signifikanz R R-Quadrat R-Quadrat des Schätzers R-Quadrat Änderung in F df1 df2 von F,897 a,805,800 1,02403, , ,000,941 b,885,879,79556,080 29, ,000 a. Einflußvariablen : (Konstante), Interesse der Eltern b. Einflußvariablen : (Konstante), Interesse der Eltern, Intelligenzquotient c. Abhängige Variable: Mittelwert Schulnoten p-wert Die Änderungstatistiken untersuchen, inwiefern R² von Modell zu Modell zunimmt und ob diese Änderung signifikant ist (p<.05?) Modellprüfung Die sich anschließende Varianzanalyse untersucht wieder das Modell auf Signifikanz (vgl. einfache Regression). Koeffizienten Die berechneten Koeffizienten berechnen sich ebenfalls wie in der einfachen Regression, mit dem Unterschied, dass pro Modell für jeden Prädiktor ein Koeffizient berechnet wird. Koeffizienten a Modell 1 2 (Konstante) Interesse der Eltern Intelligenzquotient (Konstante) Interesse der Eltern Intelligenzquotient Nicht standardisierte Koeffizienten Standardisierte Koeffizienten 95%-Konfidenzintervall für B B Standardfehler Beta T Signifikanz Untergrenze Obergrenze 1,468,442 3,324,002,577 2,359,840,063,897 13,311,000,713,967-3,981 1,064-3,740,001-6,129-1,833,545,073,582 7,438,000,397,693,064,012,423 5,408,000,040,087 a. Abhängige Variable: Mittelwert Schulnoten Bsp. Modell 2: Die Regressionsgleichung würde in dem Fall y^= x x 2 lauten. Damit könnte man durch Einsetzen der Ausprägungen der Prädiktoren (x 1, x 2 ) die Schätzungen y^ für jede Person bestimmen! Bsp. Modell 2: Die standardisierte Regressionsgleichung würde y^=0.582 x x 2 lauten. Damit würde man z-standardisierte Schätzungen z y^ vorhersagen Achtung, die ß-Gewichte entsprechen in der multiplen Regression nicht mehr den Korrelationen! Trotzdem eignen sie sich gut für den Vergleich der Gewichtung der Prädiktoren: Je höher der Betrag eines ß-Gewichtes, umso bedeutender ist der Prädiktor. Dieser Vergleich ist bei den unstandardisierten B-Koeffizienten nicht möglich, da sie maßstabsabhängig sind Bsp: Der B-Koeffizient für das Interesse der Eltern ist ca. neunmal so groß wie der für den IQ. Vergleicht man aber die ß-Gewichte, wird deutlich dass er nur um ca. 20% stärker gewichtet wird!)
13 SPSSinteraktiv Korrelationen & Regression Ausgeschlossene Variablen Warum bestimmte Variablen ausgeschlossen werden, ist an der folgenden Tabelle erkennbar: Ausgeschlossene Variablen c Das ß-Gewicht wäre vergleichsweise gering und ist auch nicht signifikant von Null verschieden (siehe Signifikanz). Modell 1 Intelligenzquotient Anzahl Bücher in der Familie 2 Intelligenzquotient Anzahl Bücher in der Familie Kollinearit Partielle ätsstatistik Beta In T Signifikanz Korrelation Toleranz,423 a 5,408,000,641,447,410 a 2,140,038,314,114,230 b 1,467,150,223,108 a. Einflußvariablen im Modell: (Konstante), Interesse der Eltern b. Einflußvariablen im Modell: (Konstante), Interesse der Eltern, Intelligenzquotient c. Abhängige Variable: Mittelwert Schulnoten Dies ist die Partialkorrelation des Prädiktors mit der vorhergesagten Variablen, wobei der Einfluss aller Prädiktoren, die schon im Modell sind, herauspartialisiert wurde. Man sieht, dass diese Korrelation nur noch recht gering ist (die bivariate Korrelation zwischen diesem Prädiktor und der abhängigen Variable lag bei.89!) Die Toleranz gibt den Anteil der Varianz eines Prädiktors an, der nicht durch die anderen Prädiktoren erklärt werden kann. Ist die Toleranz gering, ergeben sich mathematische Probleme, die sich in unplausiblen Beta-Gewichten und ungenauen Schätzungen ausdrücken. Je geringer die Toleranz, umso höher die Kollinearität dieses Prädiktors mit den anderen Prädiktoren. Im Beispiel liegt die Toleranz bei.108 (Wertebereich 0 bis 1)! D.h., nur rund 11% seiner Varianz können durch die anderen Prädiktoren nicht erklärt werden. Er kann somit kaum zusätzliche Information über die Vorhersage von y beitragen! Das bedeutet, dass die Anzahl der Bücher stark mit den anderen Prädiktoren konfundiert ist, möglicherweise sogar durch sie kausal beeinflusst wird. In dem Fall hat sie wenig Zusätzliches zur Vorhersage von y beizutragen, wenn die anderen Prädiktoren schon im Modell sind!
14 SPSSinteraktiv Korrelationen & Regression Überprüfung von Voraussetzungen o Die Regression ist anfällig für Ausreißer. Diese sollten mit einem Boxplot überprüft werden (vgl. erstes Handout!) o Prüfung auf Normalverteilung der Variablen (siehe erstes Handout!) o optische Prüfung des linearen Zusammenhanges (siehe S. 6!) o Voraussetzungen für die Berechnung einer Regression: Residuen: normalverteilte Fehler (zur Überprüfung siehe S. 9!) wenn erfüllt, dann ist der Erwartungswert der Residuen E(e) = 0. Der Mittelwert sieht man auch in der Residuenstatistik, diese wird automatisch mit ausgegeben (vgl. auch Mittelwert im Histogramm im Beispiel S. 9). Homoskedasdizität (konstante Varianz der Fehler): Plot über die Residuen erstellen: Analyze Regression Linear Plots Für X wird die Schätzung der abhängigen Variablen angegeben (*ZPRED), für Y die standardisierten Residuen (*ZRESID) Continue OK Regression Standardisiertes Residuum Abhängige Variable: Mittelwert Schulnoten Regression Standardisierter geschätzter Wert Homoskedasdizität: Die Residuen weisen über die gesamt Horizontale hinweg keine Zu- oder Abnahme in der Streuung auf (dies wäre z.b. der Fall, wenn sie im linken Bereich sehr eng um die Null-Linie schwanken, im rechten Bereich dann aber sehr weit auseinander liegen) allgemein sollte in diesem Plot keinerlei Systematik erkennbar sein, da dies bedeuten würde, dass die Fehler in irgendeiner Form nicht zufallsbedingt sind (dass sie entweder voneinander abhängig sind oder mit den geschätzten Werten kovariieren), ebenso sollten keine Ausreißer auftreten (Werte über/unter 2/-2) Prädiktoren Unkorreliertheit zwischen Fehler und Prädiktor (r x,e = 0) Residuen als Variable speichern (siehe S. 4), bivariate Korrelationen r x,e errechnen keine perfekte Kollinearität: Analysieren Regression Statistik Kollinearitätsdiagnostik auswählen, in der Tabelle zu den Regressionskoeffizienten erscheint eine Spalte zur Toleranz. Diese gibt an, wie groß der Varianzanteil des jeweiligen Prädiktors ist, der nicht durch andere Variablen aufgeklärt wird. Es werden also alle anderen Prädiktoren aus dem betreffenden Prädiktor auspartialisiert. Ist die Toleranz Null, so ist er lediglich eine Linearkombination der anderen Prädiktoren. Folgende Probleme treten dabei auf: Bei Toleranz = 0: Berechnung des Regressionskoeffizienten mathematisch nicht mehr möglich
15 SPSSinteraktiv Korrelationen & Regression bei geringer Toleranz: o Verzerrung der Teststatistiken, unplausible Ergebnisse o der Prädiktor trägt kaum zusätzliche Information bei o der Standardschätzfehler für den Regressionskoeffizient erhöht sich, somit wird die Schätzung ungenauer o erschwerte Interpretation der Regressionskoeffizienten Je höher die Toleranz eines Prädiktors ist, umso besser. Die Toleranz hat einen Wertebereich von 0 bis 1. Es existieren jedoch keine verbindlichen Richtlinien, ab wann die Toleranz zu gering ist. Dies muss individuell entschieden werden (eine mögliche Schranke wäre z.b. 0.1) und optimalerweise vorher festgelegt werden. Die Prüfung der Kollinearität ist eine Möglichkeit, Ursachen für unplausible Ergebnisse zu zu entdecken, warum manche Regressionskoeffizienten nicht signifikant werden! Hinweise zum Schreiben eines statistischen Reports In Eurem Report sollten folgende Aspekte auf jeden Fall erscheinen: konkrete Formulierung der Fragestellung Modellannahmen (theoretische Überlegungen) Bedeutung der Prädiktoren (Wichtigkeit der einzelnen Prädiktoren, Reihenfolge, in der sie in das Modell eingehen, theoretisch oder sachlogisch begründen) Deskriptive Statistik siehe erstes Handout! Beschreibung der verwendeten Methoden Ergebnisdarstellung der durchgeführten Verfahren - Überprüfung der Voraussetzungen - Korrelationsmatrizen (dabei wird nur der Teil unter der Diagonalen übernommen, alles andere ist redundant!) - Regression o Kenngrößen für die Modellgüte: R, R², R²adjusted nur bei großen Abweichungen von R² (besonders bei mehreren Prädiktoren), Standardfehler des Schätzers für jedes Modell, (R hange bei Stepwise Regression) Signifikanz (F, df, p) o Kennwerte für die Koeffizienten: ß-Koeffizienten (unstandardisierte Koeffizienten und Konstante für den Report nicht erforderlich), Konfidenzintervalle, Signifikanz (t, df = n-k-1 1, p) o ausgeschlossene Variablen: ß, falls es eine Theorie zu ihnen gab: warum wurden sie ausgeschlossen? (Kollinearität, zu geringe Varianzaufklärung?) o Tipp: bei nur einem oder zwei Modellen werden die Kenngrößen im Text genannt, bei mehr Modellen in Tabellenform! ausführliche Interpretation 1 n = Anzahl der Vpn, k = Anzahl der Prädiktoren
16 SPSSinteraktiv Korrelationen & Regression Ergänzung: Methode Einschluss (Enter) Achtung: Im Handout ist die schrittweise Regression beschrieben! Für Euren Report ist es jedoch besser, wenn Ihr die Methode Einschluss bzw. Enter wählt! Unterschiede: Schrittweise Regression: Die Prädiktoren gehen schrittweise in die Regression ein. Im ersten Schritt wird die Regression nur mit dem ersten Prädiktor berechnet, im zweiten Schritt mit dem ersten und dem zweiten, im dritten mit dem ersten bis dritten Prädiktor usw. Bei jedem Schritt wird berechnet, wie viel mehr Varianz durch den zusätzlichen Prädiktor erklärt wird. Trägt dieser nicht ausreichend zusätzliche Information bei, wird er nicht ins Modell aufgenommen. Die Reihenfolge, in der man die Prädiktoren auswählt, spielt eine Rolle, da sie in der Abfolge in das Modell eingehen. Es kann passieren, dass man zwei Prädiktoren hat, die beide hoch mit dem Kriterium korrelieren, aber etwas sehr Ähnliches messen. Somit würde der erste in das Modell aufgenommen werden, der zweite nicht, weil fast alles, was er beisteuern kann, schon durch den ersten erklärt wird. Hätte man diese Prädiktoren in der Reihenfolge vertauscht, würde der ursprünglich zweite Prädiktor mit eingehen, der ursprünglich erste nicht. Somit ist das jeweils resultierende Modell von der Reihenfolge der angegebenen Prädiktoren abhängig. Nachteil: SPSS entscheidet, welche Prädiktoren aufgenommen werden. Einschlussmethode: Alle Prädiktoren werden in einem Schritt aufgenommen, es wird sofort das gesamte Modell geprüft. Es spielt dabei keine Rolle, in welcher Reihenfolge die Prädiktoren eingehen. Die Entscheidung, welche Prädiktoren aufgenommen werden, muss dann vom Nutzer selbst getroffen werden. Durchführung: Analysieren Regression Linear als Methode Einschluss (Enter) stehen lassen. Alles weitere analog zur Beschreibung der schrittweisen Regression!
Signifikanztests zur Prüfung von Unterschieden in der zentralen Tendenz -Teil 1-
SPSSinteraktiv Signifikanztests (Teil ) - - Signifikanztests zur Prüfung von Unterschieden in der zentralen Tendenz -Teil - t-test bei einer Stichprobe - SPSS-Output Der t-test bei einer Stichprobe wird
Kapitel 5 FRAGESTELLUNG 1. Öffne die Datei alctobac.sav.
Kapitel 5 FRAGESTELLUNG 1 Öffne die Datei alctobac.sav. Zuerst werden wir ein Streudiagramm erstellen, um einen grafischen Überblick von diesem Datensatz zu erhalten. Gehe dazu auf Grafiken / Streudiagramm
Kapitel 4: Merkmalszusammenhänge
Kapitel 4: Merkmalszusammenhänge Streudiagramme SPSS bietet die Möglichkeit, verschiedene Arten von Streudiagrammen zu zeichnen. Gehen Sie auf Grafiken Streu-/Punkt-Diagramm und wählen Sie die Option Einfaches
ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II
ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II 1.1 Durch welche Elemente lässt sich laut der Formel für die multiple Regression der Wert einer Person auf einer bestimmten abhängigen Variable Y vorhersagen? a)
Tutorial: Regression Output von R
Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen
Statistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
Hypothesentests mit SPSS
Beispiel für eine einfache Regressionsanalyse (mit Überprüfung der Voraussetzungen) Daten: bedrohfb_v07.sav Hypothese: Die Skalenwerte auf der ATB-Skala (Skala zur Erfassung der Angst vor terroristischen
Methodik der multiplen linearen Regression
Methodik der multiplen linearen Regression Sibel Aydemir Statistisches Amt, Direktorium Landeshauptstadt München Name, Stadt Regressionsanalyse: Schritt für Schritt Schritt 1 Schritt 2 Schritt 3 Schritt
TEIL 13: DIE EINFACHE LINEARE REGRESSION
TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen
B. Regressionsanalyse [progdat.sav]
SPSS-PC-ÜBUNG Seite 9 B. Regressionsanalyse [progdat.sav] Ein Unternehmen möchte den zukünftigen Absatz in Abhängigkeit von den Werbeausgaben und der Anzahl der Filialen prognostizieren. Dazu wurden über
Übersicht über verschiedene Signifikanztests und ihre Voraussetzungen
SPSSinteraktiv von Signifikanztests - 1 - Übersicht über verschiedene Signifikanztests und ihre Verfahren zur Überprüfung von Unterschieden in der zentralen Tendenz Unterschieden werden können Testsituationen
Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13
Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Grundidee: Eine abhängige Variable soll als Linearkombination mehrerer unabhängiger
Statistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
TEIL 13: DIE LINEARE REGRESSION
TEIL 13: DIE LINEARE REGRESSION Dozent: Dawid Bekalarczyk GLIEDERUNG Dozent: Dawid Bekalarczyk Lineare Regression Grundlagen Prognosen / Schätzungen Verbindung zwischen Prognose und Zusammenhang zwischen
Bivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154
Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch
Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167
Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine
Eigene MC-Fragen SPSS. 1. Zutreffend auf die Datenerfassung und Datenaufbereitung in SPSS ist
Eigene MC-Fragen SPSS 1. Zutreffend auf die Datenerfassung und Datenaufbereitung in SPSS ist [a] In der Variablenansicht werden für die betrachteten Merkmale SPSS Variablen definiert. [b] Das Daten-Editor-Fenster
Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011
Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Es können von den Antworten alle, mehrere oder keine Antwort(en) richtig sein. Nur bei einer korrekten Antwort (ohne Auslassungen
1. Erklären Sie den Unterschied zwischen einem einseitigen und zweiseitigen Hypothesentest.
Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden
Kapitel 4: Merkmalszusammenhänge
Kapitel 4: Merkmalszusammenhänge Streudiagramme 1 Korrelationen 3 Lineare Regression 6 Zusammenhang zwischen Korrelation, Regression und t-test 8 Streudiagramme SPSS bietet die Möglichkeit, verschiedene
Statistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau
2. Korrelation, lineare Regression und multiple Regression
2., Linear 2., lineare multiple 2., lineare 2.1 2.2 Lineare 2.1 2.2 Lineare 2.7 Partielle 2.7 Partielle 1 / 149 2., Linear 2., lineare 2.1 2.2 Lineare 2.1 2.7 Partielle 2 / 149 2.1 Beispiel: Arbeitsmotivation
Statistik II Übung 3: Hypothesentests
Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden
Lösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die
Statistik für Kommunikationswissenschaftler Wintersemester 2010/2011 Vorlesung Prof. Dr. Nicole Krämer Übung Nicole Krämer, Cornelia Oberhauser, Monia Mahling Lösung Thema 9 Homepage zur Veranstaltung:
Willkommen zur Vorlesung Statistik
Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Das lineare Regressionsmodell Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften
Gibt es einen Zusammenhang zwischen Merkmalen? Korrelationen
Arbeitsblatt SPSS Kapitel 8 Seite Gibt es einen Zusammenhang zwischen Merkmalen? Korrelationen Wie in allen Kapiteln gehen wir im Folgenden davon aus, dass Sie die Datei elporiginal.sav geöffnet haben.
Syntax. Ausgabe *Ü12. *1. corr it25 with alter li_re kontakt.
Syntax *Ü2. *. corr it25 with alter li_re kontakt. *2. regression var=it25 alter li_re kontakt/statistics /dependent=it25 /enter. regression var=it25 li_re kontakt/statistics /dependent=it25 /enter. *3.
Kapitel 1: Deskriptive Statistik
Kapitel 1: Deskriptive Statistik Grafiken Mit Hilfe von SPSS lassen sich eine Vielzahl unterschiedlicher Grafiken für unterschiedliche Zwecke erstellen. Wir besprechen hier die zwei in Kapitel 1.1 thematisierten
7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav
Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Hypothese: Die Beschäftigung mit Kunst ist vom Bildungsgrad abhängig. 1. Annahmen Messniveau: Modell: Die Skala zur Erfassung der
Kapitel 5: Einfaktorielle Varianzanalyse
Kapitel 5: Einfaktorielle Varianzanalyse Durchführung einer einfaktoriellen Varianzanalyse ohne Messwiederholung 1 Berechnung der Effektstärke und der beobachteten Teststärke einer einfaktoriellen Varianzanalyse
Korrelation - Regression. Berghold, IMI
Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden
Inhaltsverzeichnis. Über die Autoren Einleitung... 21
Inhaltsverzeichnis Über die Autoren.... 7 Einleitung... 21 Über dieses Buch... 21 Was Sie nicht lesen müssen... 22 Törichte Annahmen über den Leser... 22 Wie dieses Buch aufgebaut ist... 23 Symbole, die
Übungsblätter zu Methoden der Empirischen Sozialforschung IV: Regressionsanalyse. Lösungsblatt zu Nr. 2
Martin-Luther-Universität Halle-Wittenberg Institut für Soziologie Dr. Wolfgang Langer 1 Übungsblätter zu Methoden der Empirischen Sozialforschung IV: Regressionsanalyse Lösungsblatt zu Nr. 2 1. a) Je
2. Generieren Sie deskriptive Statistiken (Mittelwert, Standardabweichung) für earny3 und kidsunder6yr3 und kommentieren Sie diese kurz.
Statistik II Übung : Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (6-24 Jahre alt) und der Anzahl der unter
Aufgaben zu Kapitel 4
Rasch, Friese, Hofmann & aumann (2006). Quantitative Methoden. Band (2. Auflage). Heidelberg: Springer. Aufgaben zu Kapitel 4 Aufgabe a) Berechnen Sie die Korrelation zwischen dem Geschlecht und der Anzahl
Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS
Sommersemester 2009 Statistik mit SPSS 15. Mai 2009 15. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Überblick 1. Korrelation vs. Regression 2. Ziele der Regressionsanalyse 3. Syntax für
Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg
Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten
Statistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services
Statistische Datenanalyse mit R, Korrelation und Regression Dr. Andrea Denecke Leibniz Universität IT-Services Korrelationsanalyse Eine Korrelationsanalyse soll herausfinden Ob ein linearer Zusammenhang
Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
Korrelation Regression. Wenn Daten nicht ohne einander können Korrelation
DAS THEMA: KORRELATION UND REGRESSION Korrelation Regression Wenn Daten nicht ohne einander können Korrelation Korrelation Kovarianz Pearson-Korrelation Voraussetzungen für die Berechnung die Höhe der
Statistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
Statistik II: Signifikanztests /2
Medien Institut : Signifikanztests /2 Dr. Andreas Vlašić Medien Institut (0621) 52 67 44 [email protected] Gliederung 1. Korrelation 2. Exkurs: Kausalität 3. Regressionsanalyse 4. Key Facts 2 I
SPSS III Mittelwerte vergleichen
SPSS III Mittelwerte vergleichen A Zwei Gruppen ------------ Zwei-Stichproben t-test Beispieldatei: Seegräser Fragestellung: Unterscheidet sich die Anzahl der Seegräser in Gebieten mit und ohne Seeigelvorkommen
Ziel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X.
Lineare Regression Einfache Regression Beispieldatensatz: trinkgeld.sav Ziel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X. H0: Y lässt sich nicht durch X erklären, das heißt
Einfache lineare Regressionsanalyse
Dr. Matthias Rudolf Modul M3: Multivariate Statistik Aufgaben und Lösungshinweise zum Computerseminar ERA: Einfache lineare Regressionsanalyse Dr. Matthias Rudolf: Modul BA-M3 Multivariate Statistik Seite
1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests
1.3 Das Testen von Hypothesen am Beispiel des Einstichproben t-tests Statistische Tests dienen dem Testen von Vermutungen, so genannten Hypothesen, über Eigenschaften der Gesamtheit aller Daten ( Grundgesamtheit
Einfache statistische Auswertungen mit dem Programm SPSS
Einfache statistische Auswertungen mit dem Programm SPSS Datensatz: fiktive_daten.sav Dipl. Päd. Anne Haßelkus Dr. Dorothea Dette-Hagenmeyer 11/2011 Überblick 1 Deskriptive Statistiken; Mittelwert berechnen...
Standardab er des. Testwert = 145.5 95% Konfidenzintervall. T df Sig. (2-seitig) Differenz Untere Obere -2.011 698.045-5.82-11.50 -.14.
Aufgabe : einfacher T-Test Statistik bei einer Stichprobe Standardfehl Standardab er des Mittelwert weichung Mittelwertes 699 39.68 76.59 2.894 Test bei einer Sichprobe Testwert = 45.5 95% Konfidenzintervall
Test von Hypothesen: Signifikanz des Zusammenhangs (F-Test)
Test von Hyothesen: Signifikanz des Zusammenhangs (F-Test) Die Schätzung der Regressionsfunktion basiert auf Daten einer Stichrobe Inwiefern können die Ergebnisse dieser Schätzung auf die Grundgesamtheit
Biostatistik 101 Korrelation - Regressionsanalysen
Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 [email protected] Korrelation Sind Alter und Blutdruck miteinander
Multivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
Statistik II Übung 3: Hypothesentests Aktualisiert am
Statistik II Übung 3: Hypothesentests Aktualisiert am 12.04.2017 Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier
Hypothesentests mit SPSS
Beispiel für eine zweifaktorielle Varianzanalyse mit Messwiederholung auf einem Faktor (univariate Lösung) Daten: POKIII_AG4_V06.SAV Hypothese: Die physische Attraktivität der Bildperson und das Geschlecht
Die Korrelation von Merkmalen
Die Korrelation von Merkmalen In der Analse von Datenmaterial ist eines der Hauptziele der Statistik eine Abhängigkeit bzw. einen Zusammenhang zwischen Merkmalen zu erkennen. Die Korrelation ermittelt
1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
» S C H R I T T - F Ü R - S C H R I T T - A N L E I T U N G «M U L T I P L E L I N E A R E R E G R E S S I O N M I T S P S S / I B M Daniela Keller
» SCHRITT-FÜR-SCHRITTANLEITUNG«MULTIPLE LINEARE REGRESSION MIT SPSS/IBM Daniela Keller Daniela Keller - MULTIPLE LINEARE REGRESSION MIT SPSS/IBM Impressum 2016 Statistik und Beratung Dipl.-Math. Daniela
Crashkurs Einführung Biostatistik
Crashkurs Einführung Biostatistik Prof. Burkhardt Seifert Abteilung Biostatistik, ISPM Universität Zürich Deskriptive Statistik Wahrscheinlichkeitsrechnung, ersuchsplanung Statistische Inferenz Prinzip
Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 9A a.
LÖSUNG 9A a. Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Das Regressionsmodell soll nur für Büropersonal angewendet werden Management- und Bewachungspersonal (MIND =0) soll nicht einbezogen
Kapitel 5: Einfaktorielle Varianzanalyse
Kapitel 5: Einfaktorielle Varianzanalyse Durchführung einer einfaktoriellen Varianzanalyse ohne Messwiederholung Dieser Abschnitt zeigt die Durchführung der in Kapitel 5 vorgestellten einfaktoriellen Varianzanalyse
Computergestützte Methoden. Master of Science Prof. Dr. G. H. Franke WS 07/08
Computergestützte Methoden Master of Science Prof. Dr. G. H. Franke WS 07/08 1 Seminarübersicht 1. Einführung 2. Recherchen mit Datenbanken 3. Erstellung eines Datenfeldes 4. Skalenniveau und Skalierung
Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.
Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression
Forschungsmethodik II Mag.rer.nat. M. Kickmeier-Rust Karl-Franzens-Universität Graz. Lisza Gaiswinkler, Daniela Gusel, Tanja Schlosser
Kolmogorov-Smirnov-Test Forschungsmethodik II Mag.rer.nat. M. Kickmeier-Rust Karl-Franzens-Universität Graz 1 Kolmogorov- Smirnov Test Andrei Nikolajewitsch Kolmogorov * 25.4.1903-20.10.1987 2 Kolmogorov-
Inhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden
Inhaltsverzeichnis Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist Spaß 3 Warum Statistik? 3 Checkpoints 4 Daten 4 Checkpoints 7 Skalen - lebenslang wichtig bei der Datenanalyse
Gliederung. 1. Einführung. Heute schon Musik gehört?
Regressionsanalyse Technische Universität Chemnitz Seminar: Forschungsmethodik und Evalua
Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
Multiple Regression III
Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen
Kapitel 3: Der t-test
Kapitel 3: Der t-test Durchführung eines t-tests für unabhängige Stichproben 1 Durchführung eines t-tests für abhängige Stichproben 4 Durchführung eines t-tests für eine Stichprobe 6 Vertiefung: Vergleich
Statistik. Jan Müller
Statistik Jan Müller Skalenniveau Nominalskala: Diese Skala basiert auf einem Satz von qualitativen Attributen. Es existiert kein Kriterium, nach dem die Punkte einer nominal skalierten Variablen anzuordnen
Eine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
Statistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:
Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60
Multiple Regressionsanalyse - Kurzabriss
Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen
Statistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
Klausur Statistik I Dr. Andreas Voß Wintersemester 2005/06
Klausur Statistik I Dr. Andreas Voß Wintersemester 2005/06 Hiermit versichere ich, dass ich an der Universität Freiburg mit dem Hauptfach Psychologie eingeschrieben bin Name: Mat.Nr.: Unterschrift: Bearbeitungshinweise:
SPSS (20.0) Hilfe Version 1
SPSS (20.0) Hilfe Version 1 Statistik-UE SS 2015 Datenmanagement Informationen zur Syntax: Öffnen der Syntax: Datei Öffnen Syntax Eingabe z. B. COMPUTE bzw. wenn Sie einen Befehl in SPSS ausführen, drücken
Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19
Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist
Parametrische vs. Non-Parametrische Testverfahren
Parametrische vs. Non-Parametrische Testverfahren Parametrische Verfahren haben die Besonderheit, dass sie auf Annahmen zur Verteilung der Messwerte in der Population beruhen: die Messwerte sollten einer
Basis-Kurs Statistik und SPSS für Mediziner Lösungen. SPSS-Übung Korrelation, Regression und diagnostische Tests
Basis-Kurs Statistik und SPSS für Mediziner Lösungen SPSS-Übung Korrelation, Regression und diagnostische Tests Mit Datensatz Daten_SPSS_Kurs_I.sav Berechnung der Blutdruckreduktion vom Studienbeginn zum
Mittelwertvergleiche, Teil I: Zwei Gruppen
FB W. Ludwig-Mayerhofer Statistik II Mittelwertvergleiche Herzlich willkommen zur Vorlesung Mittelwertvergleiche, Teil I: Zwei Gruppen FB W. Ludwig-Mayerhofer Statistik II Mittelwertvergleiche Mittelwertvergleiche:
VS PLUS
VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN
Mathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike [email protected]
Geschlecht + Anfangsgehalt. T-Test für das Anfangsgehalt Gruppenstatistiken. Der SPSS Output der aktuellen Computerübung zum Aufgabenblatt 3
Der SPSS Output der aktuellen Computerübung zum Aufgabenblatt 3 Geschlecht + Anfangsgehalt 14000 399 403 7000 12000 335 Anfangsgehalt 10000 8000 6000 4000 2000 N = 28 63 185 291 227 52 215 158 88 284 193
Diagnostik von Regressionsmodellen (1)
Diagnostik von Regressionsmodellen (1) Bei Regressionsanalysen sollte immer geprüft werden, ob das Modell angemessen ist und ob die Voraussetzungen eines Regressionsmodells erfüllt sind. Das Modell einer
Einführung in die Statistik für Politikwissenschaftler Wintersemester 2011/2012
Einführung in die Statistik für Politikwissenschaftler Wintersemester 2011/2012 Es können von den Antwortmöglichkeiten alle, mehrere, eine oder keine Antwort(en) richtig sein. Nur bei einer korrekten Antwort
Teil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
