Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie

Größe: px
Ab Seite anzeigen:

Download "Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie"

Transkript

1 Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1 und X 2 sowie X 1. X Regressionsanalytische Berechnung der ANOVA mit Typ III Quadratsummen Variante mit Kontrastkodierung 10 3 Modell mit 0-1 kodiertem nominalem Prädiktor X 1, intervallskaliertem Prädiktor X 2 sowie X 1. X Regressionsanalytische Berechnung der ANOVA mit Typ III Quadratsummen 14 4 Modell mit intervallskalierten Prädiktoren X 1 und X 2 sowie X 1. X Variablentransformation ohne Einfluss auf den Regressionskoeffizienten der Interaktion 21 6 Statistische Gleichheit von Interaktionen Varianzanalyse Kovarianzanalyse Multiple Regression mit intervallskalierten Prädiktoren 30 1" 2"

2 1 Einleitung Modelle mit Interaktion enthalten Produkte von Prädiktoren. Jeder an einem Produkt beteiligte Prädiktor muss auch einzeln im Modell enthalten sein. Ausgehend vom einfachst möglichen Modell mit den Prädiktoren X 1, X 2 und X 1. X 2 soll untersucht werden, was Interaktionen bedeuten. Modellgleichung: umgeformt: ŷ = B ŷ = B ( ) ŷ = B 0 + ( ) + Die umgeformten Regressionsgleichungen zeigen, dass die Stärke des Einflusses von X 2 linear von X 1 und die Stärke des Einflusses von X 1 linear von X 2 abhängt. 3" Die Darstellung und die Interpretation von Interaktionen hängt vom Skalenniveau der Prädiktoren ab. Die Grafiken zeigen die Bedeutung der Regressionskoeffizienten. Es ist zu beachten, dass diese Bedeutung von der Kodierung der Faktoren abhängt. Die in den folgenden Beispielen verwendeten nominalen Prädiktoren (Faktoren) enthalten nur zwei Stufen, die mit 0 und 1 kodiert sind (Dummy-Kodierung). Varianzanalytische Designs mit mehr als zwei Stufen pro Faktor werden in den Folien "Regressionsanalytische Darstellung von Kontrasten" behandelt. X 1 und X 2 Faktoren mit Stufen (0, 1) X 1 Faktor mit Stufen (0, 1) X 2 intervallskaliert X 1 und X 2 intervallskaliert X 1 : = 0 = 1 X 1 : 0 1 +B 3 Steigung: +B 3 X 1 +B 3 +B 3 Steigung B B 0 + B 0 X 2 X 2 B 0 - /B 3 B 0 + X 1 - / X 2 4"

3 Jeden dieser drei Fälle gehen wir anhand eines Beispieldatensatzes durch. Zuerst werden mit Hilfe der multiplen Regression die Regressionskoeffizienten geschätzt und auf Signifikanz getestet. Die Bedeutung der Regressionskoeffizienten wird anhand des Interaktionsplots illustriert. Um die inhaltsbezogene Interpretation der Effekte intuitiver zu gestalten, geben wir den Variablen nachvollziehbare Bedeutungen. Wenn das Modell nominale Prädiktoren enthält, werden die Effekte in der Praxis häufig varianzanalytisch getestet. Aus diesem Grund rechnen wir für diese Fälle auch eine ANOVA. Der direkte Vergleich der Signifikanztests zeigt, dass die Ergebnisse der Haupteffekte zum Teil nicht übereinstimmen. Dies hängt mit der Kodierung der nominalen Variablen zusammen. Bei intervallskalierten Prädiktoren macht es einen Unterschied, ob sie mittelwertzentriert sind oder nicht. Es lässt sich zeigen, dass sich die Quadratsummen der ANOVA durch geeignete Vergleiche von Regressionsmodellen berechnen lassen. Die ANOVAs werden mit Quadratsummenzerlegung Typ III gerechnet. Bei dieser Variante werden bei der Berechnung der Quadratsumme eines Effektes zuerst alle andern Effekte herauspartialisiert. Interaktionen können sehr verschieden aussehen und trotzdem statisch gleich sein. Wir werden dies an einigen Beispielen illustrieren. Der Vergleich von Interaktionen ist bei dreifaktoriellen ANOVAs wichtig. Wenn die Interaktion zweiter Ordnung signifikant ist, unterscheiden sich gewisse Interaktionen erster Ordnung. Es kann aber auch sein, dass die Interaktion zweiter Ordnung nicht signifikant ist, obwohl die Interaktionen erster Ordnung sehr verschieden aussehen. 5" 6"

4 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1 und X 2 sowie X 1. X 2 # Datensatz X1 <- rep(c(0,1,0,1), each=8) X2 <- rep(c(0,1), each=16) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data <- data.frame(x1, X2, ) # Signifikanzteststs # Regressionsanalytisch getestete Effekte # Interaktionsterm data$x1.x2 <- data$x1*data$x2 # Multiple Regression m <- lm(~x1+x2+x1.x2, data) summary(m) # Varianzanalyse mit Typ III Quadratsummen data$block <- 1:nrow(data) library(afex) aov_ez(id="block", dv="", data=data, between=c("x1","x2"), return="anova") Hinweis: Der Unterschied in den p-werten für X 1 und X 2 kommt daher, dass bei der Regressionsanalyse der Effekt von X 1 ( ) für Stufe 0 von X 2 und der Effekt von X 2 ( ) für Stufe 0 von X 1 getestet wird, vgl. Folie 8. Bei der ANOVA wird der mittlere Effekt von X 1 über beide Stufen von X 2 und der mittlere Effekt von X 2 über beide Stufen von X 1 getestet. Wenn man für die nominalen Variablen die Kontrastkodierung wählt, stimmen die p-werte überein. Multiple Regression Call: lm(formula = ~ X1 + X2 + X1.X2, data = data) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 *** X X * X1.X * --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 28 degrees of freedom Multiple R-squared: 0.664, Adjusted R-squared: F-statistic: on 3 and 28 DF, p-value: 8.392e-07 Varianzanalyse Anova Table (Type III tests) Response: dv (Intercept) < 2.2e-16 *** X *** X e-06 *** X1:X * Residuals Signif. codes: 0 *** ** 0.01 * " ŷ = B Regressionsanalyse: ŷ = B ( ) Interpretation: X 2 (0=Placebo, 1=Medikament), ŷ = B 0 + ( ) + X 1 (0=Kontroll, 1=Therapie), =Wirkung Regressionsanalyse: Für die Probanden in der Placebobedingung (X 2 =0) beträgt der Unterschied y 11 zwischen den Therapierten und den Nicht-Therapierten 20 =1. Für die Probanden in der Kontrollgruppe (X 1 =0) beträgt der Unterschied zwischen denjenigen mit Medikament und denjenigen mit Placebo =2. Mit B Medikament (X 2 =1) ist der Unterschied zwischen 1 +B 3 B Therapie- und Kontrollbedingung um B X1 3 =3 grösser als in 2 +B der Placebobedingung (X 2 =0). Oder: In der 1 Therapiebedingung (X 1 =1) ist der Unterschied zwischen y Medikament und Placebo um B 3 =3 grösser als als in der 01 Kontrollbedingung (X 1 =0). ANOVA: Die Mittelwerte der Placebo- und der y 10 Medikamentengruppe sind verschieden (QS 16 X2 ). Die Mittelwerte der Kontroll- und der Therapiegruppe sind y verschieden (QS X1 ). Der Unterschied zwischen Placebo- 00 B und Medikamentengruppe ist für die Kontrollgruppe nicht gleich wie für die Therapiegruppe. Oder: Der X2 Unterschied zwischen Kontroll- und Therapiegruppe ist für die Placebogruppe nicht gleich wie für die y 00 = B 0 B 0 = y 00 Medikamentengruppe (QS X1X2 ). y 01 = B 0 + = y 10 y 00 y 10 = B 0 + y 11 = B = y 01 y 00 B 3 = y 11 y 10 y 01 + y 00 8"

5 2.1 Regressionsanalytische Berechnung der ANOVA mit Typ III Quadratsummen Nominale Variablen müssen vom Typ "factor" sein. Nominale Variablen müssen durch Kontrast-Indikatorvariablen ersetzt werden. Der Ausdruck "X1*X2" bedeutet "X1 + X2 + X1:X2", d.h. Haupteffekt "X1" + Haupteffekt "X2" + Interaktion "X1:X2". Die Funktion "dropl" rechnet folgende drei Modelle: (1) lm(~x2 + X1:X2, data) (2) lm(~x1 + X1:X2, data) (3) lm(~x1 + X2, data) Jedes dieser Modelle wird gegen das Gesamtmodell "lm(~x1*x2, data)" getestet. Modell (1) vs. Gesamtmodell ergibt den Test für "X1", Modell (2) vs. Gesamtmodell den Test für "X2" und Modell (3) vs. Gesamtmodell den Test für "X1:X2". data$x1 <- as.factor(data$x1) data$x2 <- as.factor(data$x2) options(contrasts = c("contr.sum","contr.poly")) model <- lm(~x1*x2, data=data) drop1(model,.~., test="f") Regressionsanalytisch berechnet Single term deletions Model: ~ X1 * X2 Df Sum of Sq RSS AIC F value Pr(>F) <none> X *** X e-06 *** X1:X * --- Signif. codes: 0 *** ** 0.01 * Vergleich mit Varianzanalyse (Intercept) < 2.2e-16 *** X *** X e-06 *** X1:X * Residuals " 2.2 Variante mit Kontrastkodierung X 2 (-1=Placebo, 1=Medikament), X 1 (-1=Kontroll, 1=Therapie), =Wirkung # Datensatz X1 <- rep(c(-1,1,-1,1), each=8) X2 <- rep(c(-1,1), each=16) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data <- data.frame(x1, X2, ) # Signifikanzteststs # Regressionsanalytisch getestete Effekte # Interaktionsterm data$x1.x2 <- data$x1*data$x2 # Multiple Regression m <- lm(~x1+x2+x1.x2, data) summary(m) Regressionsanalyse: B 0 =17.25 entspricht dem Gesamtmittelwert, =1.25 der Hälfte des Unterschiedes zwischen Therapie- und Kontrollgruppe und =1.75 der Hälfte des Unterschiedes zwischen Medikamenten- und Placebogruppe. B 3 =0.75 entspricht der Hälfte des Unterschiedes der Nützlichkeit des Medikaments gegenüber Placebo in der Therapiegruppe verglichen mit der Kontrollgruppe. Oder: Die Hälfte des Unterschiedes der Nützlichkeit der Therapiegegenüber der Kontrollbedingung in der Medikamentengruppe verglichen mit der Placebogruppe. Die p-werte stimmen mit denjenigen der ANOVA überein. Multiple Regression Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** X *** X e-06 *** X1.X * 20 Mittelwert Therapie 18 Gesamtmittelwert: B 0 16 Mittelwert Placebo y 1 1 y 1 1 y 1 1 = B 0 y 11 = B 0 + B 3 y 1 1 = B 0 + B 3 y 11 = B X2 y 11 y 11 B 3 Mittelwert Medikament X1 ( ) 4 ( ) 4 ( ) 4 ( ) 4 B 0 = y y 11 + y y 11 = y 1 1 y 11 + y y 11 = y y 11 y y 11 B 3 = y 1 1 y 11 y y 11-1 Mittelwert Kontroll 1 10"

6 3 Modell mit 0-1 kodiertem nominalem Prädiktor X 1, intervallskaliertem Prädiktor X 2 sowie X 1. X 2 Damit und eine sinnvolle Bedeutung haben, sollte man im Rahmen einer Regressionsanalyse mit Interaktionen die intervallskalierten Prädiktoren mittelwertzentrieren. In unserem Beispiel sollte X 2 mittelwertzentriert sein. Ohne Mittelwertzentrierung gibt an, um wie viel ändert, wenn X 1 um 1 zunimmt und X 2 =0 ist, d.h. ist die Stärke des Effektes von X 1 wenn X 2 =0 ist. In den Sozialwissenschaften haben intervallskalierte Prädiktorvariablen häufig keinen sinnvoll interpretierbaren Nullpunkt. In solchen Fällen hat keine praktische Bedeutung. Eine Variable wird mittelwertzentriert, indem man von jedem Messwert den Mittelwert der Variable subtrahiert. Das hat zur Folge, dass der Mittelwert von mittelwertzentrierten Variablen Null ist. Mit Mittelwertzentrierung gibt an, um wie viel ändert, wenn X 1 um 1 zunimmt und X 2 gleich dem Mittelwert von X 2 ist. entspricht dem über alle Werte von X 2 gemittelten Regressionskoeffizienten für den Zusammenhang zwischen X 1 und. Wenn man standardisierte Regressionskoeffizienten berechnen will, muss man die Prädiktoren zuerst standardisieren und für die Interaktionen Variablen mit den Produkten der entsprechenden standardisierten Prädiktoren bilden. Das mit diesen Variablen spezifizierte Modell liefert die korrekten standardisierten Regressionskoeffizienten für die Interaktionsterme. Gewisse Statistikprogramme (z.b. SPSS) geben nebst den unstandardisierten auch die standardisierten Regressionskoeffizienten aus. Für die Berechnung der standardisierten Regressionskoeffizienten wird jeder Prädiktor standardisiert, also auch die aus den Produkten der Originalvariablen gebildeten Interaktionsterme, was jedoch nicht korrekt ist. 11" # Datensatz X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- rep(c(0,1), each=20) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data <- data.frame(x1, X2, ) # Signifikanzteststs # Regressionsanalytisch getestete Effekte # Mittelwertzentrierung von X2 data$x2 <- data$x2-mean(data$x2) # Interaktionsterm data$x1.x2 <- data$x1*data$x2 # Multiple Regression m <- lm(~x1+x2+x1.x2, data) summary(m) # Kovarianzanalyse mit Typ III Quadratsummen data$x1 <- as.factor(data$x1) library(car) Anova(lm(~X1*x2, data=data, contrasts=list(x1=contr.sum)), type=3) Multiple Regression Call: lm(formula = ~ X1 + x2 + X1.x2, data = data) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** X e-05 *** x X1.x * --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 36 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 3 and 36 DF, p-value: 2.089e-06 Kovarianzanalyse Mit der Funktion aov_ez() lassen sich keine Interaktionen zwischen Faktoren und Kovariablen testen. Deshalb verwenden wir die Funktion Anova(). Hinweis: Anova Table (Type III tests) Da bei der Regressionsanalyse der Response: Effekt von X 2 für Stufe 0 von X 1 (Intercept) < 2.2e-16 *** und bei der ANCOVA der mittlere X e-05 *** Effekt von X 2 über beide Stufen von x *** X X1:x * 1 getestet wird, sind die p-werte Residuals für X 2 verschieden. 12"

7 Interpretation für: X 2 = IQ, X 1 (0=kontroll, 1=treatment), =Leistung Regressionsanalyse: Beim Gesamtmittelwert des IQ (X 2 =0) ist die Leistung der Treatment-Gruppe (X 1 =1) um =4 höher als die Leistung der Kontrollgruppe (X 1 =0). Für die Probanden in der Kontrollgruppe (X 1 = 0 ) b e t r ä g t d e r Regressionskoeffizient für den Zusammenhang zwischen IQ und Leistung =0.04. Bei der Treatment-Gruppe (X 1 =1) ist der Regressionskoeffizient um B 3 =0.12 höher als bei der Kontrollgruppe (X 1 =0). Oder: Der Unterschied zwischen Treatment- und Kontrollgruppe nimmt mit dem IQ zu ( X 2 ). X 1. ANCOVA: Es besteht ein über die beiden Gruppen gemittelter Zusammenhang zischen IQ und Leistung (QS X2 ). Beim Gesamtmittelwert des IQ sind die Mittelwerte der Kontroll- und der Treatment-Gruppe verschieden (QS X1 ). Der Zusammenhang zwischen IQ und Leistung ist für die beiden Gruppe verschieden. Oder: Der Unterschied zwischen den beiden Gruppen hängt vom IQ ab (QS X1X2 ). Regressionsanalyse: ŷ = B ŷ = B ( ) ŷ = B 0 + ( ) X2 X 2 mittelwertzentriert +B 3 Steigung X " 3.1 Regressionsanalytische Berechnung der ANCOVA mit Typ III Quadratsummen Nominale Variablen müssen vom Typ "factor" sein. Nominale Variablen müssen durch Kontrast-Indikatorvariablen ersetzt werden. Der Ausdruck "X1*x2" bedeutet "X1 + x2 + X1:x2", d.h. Haupteffekt "X1" + Haupteffekt "x2" + Interaktion "X1:x2". Die Funktion "dropl" rechnet folgende drei Modelle: (1) lm(~x2 + X1:x2, data) (2) lm(~x1 + X1:x2, data) (3) lm(~x1 + x2, data) Jedes dieser Modelle wird gegen das Gesamtmodell "lm(~x1*x2, data)" getestet. Modell (1) vs. Gesamtmodell ergibt den Test für "X1", Modell (2) vs. Gesamtmodell den Test für "x2" und Modell (3) vs. Gesamtmodell den Test für "X1:x2". options(contrasts = c("contr.sum","contr.poly")) model <- lm(~x1*x2, data=data) drop1(model,.~., test="f") Regressionsanalytisch berechnet Single term deletions Model: ~ X1 * x2 Df Sum of Sq RSS AIC F value Pr(>F) <none> X e-05 *** x *** X1:x * --- Signif. codes: 0 *** ** 0.01 * Vergleich mit Kovarianzanalyse (Intercept) < 2.2e-16 *** X e-05 *** x *** X1:x * Residuals "

8 4 Modell mit intervallskalierten Prädiktoren X 1 und X 2 sowie X 1. X 2 Damit und eine sinnvolle Bedeutung haben, sollte man im Rahmen einer Regressionsanalyse mit Interaktionen die Prädiktoren mittelwertzentrieren. Ohne Mittelwertzentrierung gibt an, um wie viel ändert, wenn X 1 um 1 zunimmt und X 2 =0 ist, d.h. ist die Stärke des Effektes von X 1 wenn X 2 =0 ist. In den Sozialwissenschaften haben intervallskalierte Prädiktorvariablen häufig keinen sinnvoll interpretierbaren Nullpunkt, so dass keine praktische Bedeutung hat. Eine Variable wird mittelwertzentriert, indem man von jedem Messwert den Mittelwert der Variable subtrahiert. Das hat zur Folge, dass der Mittelwert von mittelwertzentrierten Variablen ist Null ist. Für mittelwertzentrierte Prädiktoren ist die Stärke des Effektes von X 1 beim Mittelwert von X 2 oder der mittlere Effekt von X 1 über alle Werte von X 2. Entsprechend für. Diese Interpretation hat eine praktische Bedeutung. Für mittelwertzentrierte Prädiktoren erhält man in der Regel andere Werte für und und auch andere Signifikanztests als für nicht mittelwertzentrierte. Der Regressionskoeffizient und der Signifikanztest der Interaktion höchster Ordnung ändern nicht. Wenn im Modell keine Interaktionen vorhanden sind, muss nicht mittelwertzentriert werden, da beide Varianten - ausser dem Schätzwert für B 0 - übereinstimmen. Wenn man standardisierte Regressionskoeffizienten berechnen will, muss man die Prädiktoren zuerst standardisieren und für die Interaktionen Variablen mit den Produkten der entsprechenden standardisierten Prädiktoren bilden. Das mit diesen Variablen spezifizierte Modell liefert die korrekten standardisierten Regressionskoeffizienten für die Interaktionsterme. Gewisse Statistikprogramme (z.b. SPSS) geben nebst den unstandardisierten auch die standardisierten Regressionskoeffizienten aus. Für die Berechnung der standardisierten Regressionskoeffizienten wird jeder Prädiktor standardisiert, also auch die aus den Produkten der Originalvariablen gebildeten Interaktionsterme, was jedoch nicht korrekt ist. Die Mittelwertzentrierung reduziert Multikollinearitätseffekte. Es wird stark empfohlen, im Fall von Interaktionen mittelwertzentrierte Prädiktoren zu verwenden. 15" # Datensatz X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data <- data.frame(x1, X2, ) # Signifikanzteststs # Mittelwertzentrierte Prädiktoren data$x1 <- data$x1 - mean(data$x1) data$x2 <- data$x2 - mean(data$x2) # Interaktionsterm data$x1.x2 <- data$x1*data$x2 # Multiple Regression summary(lm(~x1+x2+x1.x2, data)) Multiple Regression mit mittelwertzentrierten Prädiktoren Call: lm(formula = ~ x1 + x2 + x1.x2, data = data) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** x ** x * x1.x e-08 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: 3.07 on 46 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 3 and 46 DF, p-value: 3.199e-10 Interpretation für: X 2 = IQ, X 1 Motivation, =Leistung Beim Mittelwert der Motivation (X 1 =0) beträgt der Regressionskoeffizient für den Zusammenhang zwischen IQ und Leistung = Beim Mittelwert des IQ (X 2 =0) beträgt der Regressionskoeffizient für den Zusammenhang zwischen Motivation und Leistung = Der Regressionskoeffizient für den Zusammenhang zwischen IQ und Leistung nimmt mit der Motivation zu ( X 1 ). X 2. Oder: Der Regressionskoeffizient für den Zusammenhang zwischen Motivation und Leistung nimmt mit dem IQ zu ( X 2 ). X 1. 16"

9 3D-Streudiagramm mit Plot der Regressionsfunktion (mittelwertzentrierte Prädiktoren) Die Linien sind Regressionsgeraden für den Zusammenhang zwischen X 2 und gegeben X 1 und den Zusammenhang zwischen X 1 und gegeben X 2. Zusätzlich sind die Regressionskoeffizienten für X 1 gegeben X 2 und X 2 gegeben X 1 angegeben. +B 3. X 1 +B 3. X 2 +B 3. X 1 +B 3. X 2 X 2 mittelwertzentriert X 1 mittelwertzentriert 17" # Signifikanzteststs # Nicht mittelwertzentrierte Prädiktoren data$x1.x2 <- data$x1*data$x2 summary(lm(~x1+x2+x1.x2, data)) Multiple Regression mit nicht mittelwertzentrierten Prädiktoren Call: lm(formula = ~ X1 + X2 + X1.X2, data = data) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-08 *** X e-07 *** X e-07 *** X1.X e-08 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: 3.07 on 46 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 3 and 46 DF, p-value: 3.199e-10 18"

10 3D-Streudiagramm mit Plot der Regressionsfunktion (nicht mittelwertzentriert) Die Linien sind Regressionsgeraden für den Zusammenhang zwischen X 2 und gegeben X 1 und den Zusammenhang zwischen X 1 und gegeben X 2. X2 X1 19" 20"

11 5 Variablentransformation ohne Einfluss auf den Regressionskoeffizienten der Interaktion Wenn man die Werte eines Prädiktors um einen konstanten Wert erhöht oder verringert, ändert dies nichts am Regressionskoeffizienten der Interaktion höchster Ordnung. Dies lässt sich anhand der Regressionsgleichung zeigen: ŷ = B (1) Nun generieren wir eine neue Regressionsgleichung, indem wir anstelle von X 1 X 1 +k einsetzen: ŷ = B 0 + ( X 1 + k) + ( X 1 + k) (2) Durch Umformung erhalten wir: ŷ = B 0 + k + + ( k) (3) Aus (3) erhalten wir die neuen Regressionskoeffizienten b 0 =B 0 +. k, b 1 =, b 2 = +B 3. k und b 3 =B 3. ŷ = b 0 + b 1 + b 2 + b 3 (4) Die Regressionskoeffizienten von X 1 und X 1. X 2 haben nicht geändert. Wenn zugleich auch X 2 additiv transformiert wird, ändern die Regressionskoeffizienten von X 1 und X 2, derjenige der Interaktion X 1. X 2 jedoch nicht. Die Mittelwertzentrierung ist ein Beispiel für diese Transformation. 21" 22"

12 6 Statistische Gleichheit von Interaktionen 6.1 Varianzanalyse Interaktionen können zwar auf den ersten Blick sehr verschieden aussehen, statistisch aber gleiche F-Werte und gleiche p-werte haben. Der F- und der p-wert der Interaktion eines ausbalancierten zweifaktoriellen Designs ändert nicht, wenn man die Mittelwerte einer Stufe eines Faktors um einen konstanten Wert erhöht oder verringert. Der Interaktionseffekt (ab) jk für Zelle jk des Designs ergibt sich aus dem Zelleffekt [ab] jk abzüglich der Haupteffekte von für Stufe j von Faktor A und Stufe k von Faktor B. ( ab) jk = [ ab] jk a j b k = ( jk.. ) ( j... ) (.k.. ) = jk j..k +.. Nun schauen wir, wie sich die Interaktionseffekte verhalten, wenn wir zu jedem Zellmittelwert der Stufe k von Faktor B die Konstante C addieren.! B k! B K Randmittel A ! 1k + C! 1K 1. + C A ! 2k + C! 2K 2. + C " " " " " " A j j1 j2! jk + C! jk j. + C " " " " " " A J J1 J1! Jk + C! JK K. + C Randmittel.1.2.k + C.K.. + C ' ( ) jk ( ) ( j. + C).k + C ( ) + (.. + C) = jk j..k +.. = ab ( ) jk Interaktionseffekte: ab = jk + C Daraus folgt: Die Interaktionseffekte ändern nicht. 23" Wir illustrieren diesen Sachverhalt anhand von drei Datensätzen. Zuerst vergleichen wir die Interaktionsplots und anschliessend die varianzanalytischen Ergebnisse. # Datensätze # Datensatz 1 A <- rep(rep(c("a1","a2","a3"), each=6), 2) B <- rep(c("b1","b2"), each=18) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data1 <- data.frame(block=1:36, A, B, ) # Datensatz 2 A <- rep(rep(c("a1","a2","a3"), each=6), 2) B <- rep(c("b1","b2"), each=18) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data2 <- data.frame(block=1:36, A, B, ) # Datensatz 3 A <- rep(rep(c("a1","a2","a3"), each=6), 2) B <- rep(c("b1","b2"), each=18) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data3 <- data.frame(block=1:36, A, B, ) # Zusammengefügter Datensatz data <- rbind(data1, data2, data3) data$block <- 1:nrow(data) C <- rep(c("c1", "C2", "C3"), each=36) data$c <- C 24"

13 Interaktionsplots Obwohl die Interaktionen sehr verschieden aussehen, sind ihre Signifikanztests identisch. Im Plot links ist jeweils rot angedeutet, durch welche Transformation man zum Plot rechts kommt. Bei der ersten Transformation werden die Mittelwerte von Stufe A1 um 2 erhöht. Bei der zweiten Transformation werden die Mittelwerte von um 1.5 erhöht und diejenigen von um 1.5 verringert. Die Transformationen können auch verkettet werden. 6 Datensatz 1 Datensatz 2 Datensatz 3 C1 C2 C3 5 4 B B1 B2 3 2 A1 A2 A3 A1 A2 A3 A1 A2 A3 A 25" Varianzanalysen Die Signifikanztests für die Interaktion sind bei allen zweifaktoriellen ANOVAs identisch. Deshalb ist die Interaktion zweiter Ordnung der dreifaktoriellen ANOVA nicht signifikant: p-wert=1, was auf den ersten Blick erstaunt. # Datensatz 1 library(afex) aov_ez(id="block", dv="", data=data1, between=c("a", "B"), return="anova") # Datensatz 2 aov_ez(id="block", dv="", data=data2, between=c("a", "B"), return="anova") # Datensatz 3 aov_ez(id="block", dv="", data=data3, between=c("a", "B"), return="anova") # Zusammengefügter Datensatz aov_ez(id="block", dv="", data=data, between=c("a", "B", "C"), return="anova") Ergebnisse Datensatz 1 (Intercept) < 2.2e-16 *** A ** ** A:B Residuals Datensatz 2 (Intercept) < 2.2e-16 *** A ** A:B Residuals Datensatz 3 (Intercept) < 2.2e-16 *** A ** A:B Residuals Dreifaktorielle ANOVA (Intercept) < 2.2e-16 *** A * C A: ** A:C * B:C e-06 *** A:B:C Residuals "

14 6.2 Kovarianzanalyse Bei der einfaktoriellen ANCOVA ändert die Interaktion nicht, wenn man die Zellmittelwerte ändert und sonst alles gleich lässt, oder wenn die Regressionskoeffizienten um einen konstanten Wert erhöht oder verringert werden und die Residuen gleich bleiben. Wir illustrieren diesen Sachverhalt anhand von drei Datensätzen. # Datensätze # Datensatz 1 X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- rep(c(0,1), each=20) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data1 <- data.frame(x1, X2, ) # Mittelwertzentrierung von X2 data1$x2 <- data1$x2-mean(data1$x2) # Datensatz 2 X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- rep(c(0,1), each=20) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data2 <- data.frame(x1, X2, ) # Mittelwertzentrierung von X2 data2$x2 <- data2$x2-mean(data2$x2) # Datensatz 3 X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- rep(c(0,1), each=20) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data3 <- data.frame(x1, X2, ) # Mittelwertzentrierung von X2 data3$x2 <- data3$x2-mean(data2$x2) 27" Interaktionsplots Veränderung von Datensatz 1 zu 2: Der Mittelwert der Gruppe X 1 =1 wird auf 20 gesetzt, die Residuen bleiben gleich. Veränderung von Datensatz 2 zu 3: Die beiden Regressionskoeffizienten werden um 0.16 reduziert, die Residuen bleiben gleich. Datensatz 1 Datensatz 2 Datensatz X X X X2 X 2 mittelwertzentriert X 2 mittelwertzentriert X 2 mittelwertzentriert 28"

15 Varianzanalysen # Datensatz 1 data1$x1 <- as.factor(data1$x1) library(car) Anova(lm(~X1*x2, data=data1, contrasts=list(x1=contr.sum)), type=3) # Datensatz 2 data2$x1 <- as.factor(data2$x1) Anova(lm(~X1*x2, data=data2, contrasts=list(x1=contr.sum)), type=3) # Datensatz 3 data3$x1 <- as.factor(data3$x1) Anova(lm(~X1*x2, data=data3, contrasts=list(x1=contr.sum)), type=3) Ergebnisse Datensatz 1 (Intercept) < 2.2e-16 *** X e-05 *** x *** X1:x * Residuals Datensatz 2 (Intercept) < 2.2e-16 *** X x *** X1:x * Residuals Datensatz 3 (Intercept) < 2e-16 *** X x * X1:x * Residuals " 6.3 Multiple Regression mit intervallskalierten Prädiktoren Der Regressionskoeffizient für die Interaktion ändert nicht, wenn entweder +B 3. X 2 und/oder +B 3. X 1 additiv um einen konstanten Wert erhöht oder verringert werden und die Residuen gleich bleiben (vgl. Folie 31). # Datensätze # Datensatz 1 X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data1 <- data.frame(x1, X2, ) # Mittelwertzentrierte Prädiktoren data1$x1 <- data1$x1 - mean(data1$x1) data1$x2 <- data1$x2 - mean(data1$x2) # Interaktionsterm data1$x1.x2 <- data1$x1*data1$x2 # Datensatz 2 X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data1 <- data.frame(x1, X2, ) # Mittelwertzentrierte Prädiktoren data2$x1 <- data2$x1 - mean(data2$x1) data2$x2 <- data2$x2 - mean(data2$x2) # Interaktionsterm data2$x1.x2 <- data2$x1*data1$x2 30"

16 Veränderung von Datensatz 1 zu 2: +B 3. X 1 wird um 0.7 verringert, die Residuen bleiben gleich. Die Linien sind Regressionsgeraden für den Zusammenhang zwischen X 2 und gegeben X 1 und den Zusammenhang zwischen X 1 und gegeben X 2. Zusätzlich sind die Regressionskoeffizienten für X 1 gegeben X 2 und X 2 gegeben X 1 angegeben. Datensatz 1 Datensatz 2 +B 3. X 1 +B 3. X 2 +B 3. X 2 X 2 mittelwertzentriert X 2 mittelwertzentriert 31" Multiple Regressionen # Datensatz 1 summary(lm(~x1+x2+x1.x2, data1)) # Datensatz 2 summary(lm(~x1+x2+x1.x2, data2)) Ergebnisse Datensatz 1 Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** x ** x * x1.x e-08 *** Datensatz 2 Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** x ** x < 2e-16 *** x1.x e-08 *** 32"

Tutorial: Regression Output von R

Tutorial: Regression Output von R Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen

Mehr

Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann

Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Contents Aufgabe 1 1 b) Schätzer................................................. 3 c) Residuenquadratsummen........................................

Mehr

Lineare Modelle in R: Einweg-Varianzanalyse

Lineare Modelle in R: Einweg-Varianzanalyse Lineare Modelle in R: Einweg-Varianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon in der Vorlesung wollen wir hier zur Illustration der Einweg-Analyse die logarithmierten Ausgaben der

Mehr

V A R I A N Z A N A L Y S E

V A R I A N Z A N A L Y S E V A R I A N Z A N A L Y S E Ziel / Funktion: statistische Beurteilung des Einflusses von nominal skalierten (kategorialen) Faktoren auf intervallskalierte abhängige Variablen Vorteil: die Wirkung von mehreren,

Mehr

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Univariate Varianz- und Kovarianzanlyse, Multivariate Varianzanalyse und Varianzanalyse mit Messwiederholung finden sich unter

Mehr

Regression mit Faktoren, Interaktionen und transformierten Variablen

Regression mit Faktoren, Interaktionen und transformierten Variablen Kap. 5: Regression mit Faktoren, Interaktionen und transformierten Variablen Motivation Regressionen mit transformierten Variablen Ausblick: Nichtlineare Regression Mehr zu Regressionen mit qualitativen

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13 Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Grundidee: Eine abhängige Variable soll als Linearkombination mehrerer unabhängiger

Mehr

Lösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die

Lösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die Statistik für Kommunikationswissenschaftler Wintersemester 2010/2011 Vorlesung Prof. Dr. Nicole Krämer Übung Nicole Krämer, Cornelia Oberhauser, Monia Mahling Lösung Thema 9 Homepage zur Veranstaltung:

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Etwas positive Tendenz ist beim Wechsel der Temperatur von 120 auf 170 zu erkennen.

Etwas positive Tendenz ist beim Wechsel der Temperatur von 120 auf 170 zu erkennen. Explorative Datenanalyse Erstmal die Grafiken: Aufreisskraft und Temperatur 3 1-1 N = 1 15 17 Temperatur Diagramm 3 1 95% CI -1 N = 1 15 17 Temperatur Etwas positive Tendenz ist beim Wechsel der Temperatur

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Varianzanalyse * (1) Varianzanalyse (2)

Varianzanalyse * (1) Varianzanalyse (2) Varianzanalyse * (1) Einfaktorielle Varianzanalyse (I) Die Varianzanalyse (ANOVA = ANalysis Of VAriance) wird benutzt, um Unterschiede zwischen Mittelwerten von drei oder mehr Stichproben auf Signifikanz

Mehr

Kapitel 3: Interpretationen

Kapitel 3: Interpretationen Kapitel 3: 1. Interpretation von Outputs allgemein... 1 2. Interpretation von Signifikanzen... 1 2.1. Signifikanztests / Punktschätzer... 1 2.2. Konfidenzintervalle... 2 3. Interpretation von Parametern...

Mehr

Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167

Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167 Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine

Mehr

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben

SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben ÜBERSICHT: Testverfahren bei abhängigen (verbundenen) Stichproben parametrisch nicht-parametrisch 2 Gruppen t-test bei verbundenen

Mehr

Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS (ab V. 11.0)

Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS (ab V. 11.0) Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische e Lösung von Grundaufgaben mit SPSS (ab V..0) Text: akmv_v.doc Daten: akmv??.sav Lehrbuch: W. Timischl, Biostatistik. Wien - New York:

Mehr

VS PLUS

VS PLUS VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN

Mehr

Lösung zu Kapitel 11: Beispiel 1

Lösung zu Kapitel 11: Beispiel 1 Lösung zu Kapitel 11: Beispiel 1 Eine Untersuchung bei 253 Personen zur Kundenzufriedenheit mit einer Einzelhandelskette im Südosten der USA enthält Variablen mit sozialstatistischen Daten der befragten

Mehr

Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS Statistics 20.0

Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS Statistics 20.0 1 Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS Statistics 20.0 Text: grund1_spss20.doc Daten: grund1_?.sav Lehrbuch: W. Timischl, Biostatistik.

Mehr

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS Sommersemester 2009 Statistik mit SPSS 15. Mai 2009 15. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Überblick 1. Korrelation vs. Regression 2. Ziele der Regressionsanalyse 3. Syntax für

Mehr

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Einfaktorielle Versuchspläne 27/40 Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Abweichung Einfach Differenz Helmert Wiederholt Vergleich Jede Gruppe mit Gesamtmittelwert

Mehr

1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen

1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen Modelle mit Interationsvariablen I Modelle mit Interationsvariablen II In der beim White-Test verwendeten Regressionsfuntion y = β 0 + β 1 x 1 + β 2 x 2 + β 3 x 2 1 + β 4 x 2 2 + β 5 x 1 x 2, ist anders

Mehr

Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA)

Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) Interdisziplinäres Seminar Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) WS 2008/09 19.11.2008 Julia Schiele und Lucie Wink Dozenten: Prof. Dr. Bühner, Prof. Dr. Küchenhoff

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder

Mehr

Log-lineare Analyse I

Log-lineare Analyse I 1 Log-lineare Analyse I Einleitung Die log-lineare Analysemethode wurde von L.A. Goodman in den 60er und 70er Jahren entwickelt. Sie dient zur Analyse von Zusammenhängen in mehrdimensionalen Kontingenztafeln

Mehr

Analysis of Variance (ANOVA) in R

Analysis of Variance (ANOVA) in R Analysis of Variance (ANOVA) in R Jens Schumacher June 21, 2007 Die Varianzanalyse ist ein sehr allgemeines Verfahren zur statistischen Bewertung von Mittelwertunterschieden zwischen mehr als zwei Gruppen.

Mehr

Kapitel 4: Merkmalszusammenhänge

Kapitel 4: Merkmalszusammenhänge Kapitel 4: Merkmalszusammenhänge Streudiagramme 1 Korrelationen 3 Lineare Regression 6 Zusammenhang zwischen Korrelation, Regression und t-test 8 Streudiagramme SPSS bietet die Möglichkeit, verschiedene

Mehr

Varianzanalyse (ANOVA: analysis of variance)

Varianzanalyse (ANOVA: analysis of variance) Varianzanalyse (AOVA: analysis of variance) Einfaktorielle VA Auf der Basis von zwei Stichproben wird bezüglich der Gleichheit der Mittelwerte getestet. Variablen müssen Variablen nur nominalskaliert sein.

Mehr

Teil II: Einführung in die Statistik

Teil II: Einführung in die Statistik Teil II: Einführung in die Statistik (50 Punkte) Bitte beantworten Sie ALLE Fragen. Es handelt sich um multiple choice Fragen. Sie müssen die exakte Antwortmöglichkeit angeben, um die volle Punktzahl zu

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

10. Übung (Korrelation und lineare Regressionsanalyse)

10. Übung (Korrelation und lineare Regressionsanalyse) 10. Übung (Korrelation und lineare Regressionsanalyse) Es wird untersucht, ob ein linearer Zusammenhang zwischen zwei Variablen besteht. Mit anderen Worten: ob ein solcher Zusammenhang gibt, wenn der beobachteter

Mehr

Statistik Einführung // Lineare Regression 9 p.2/72

Statistik Einführung // Lineare Regression 9 p.2/72 Statistik Einführung Lineare Regression Kapitel 9 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Ledold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Lineare Regression

Mehr

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate

3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate 31 und 31 und (), Methode der 33 Das allgemeine (), Methode der kleinsten Quadrate 37 Modelle mit Messwiederholungen 1 / 113 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele Ähnlichkeiten zwischen

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

Auswertung mit dem Statistikprogramm SPSS: 30.11.05

Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Seite 1 Einführung SPSS Was ist eine Fragestellung? Beispiel Welche statistische Prozedur gehört zu welcher Hypothese? Statistische Berechnungen mit

Mehr

Die Varianzanalyse ohne Messwiederholung. Jonathan Harrington. Bi8e noch einmal datasets.zip laden

Die Varianzanalyse ohne Messwiederholung. Jonathan Harrington. Bi8e noch einmal datasets.zip laden Die Varianzanalyse ohne Messwiederholung Jonathan Harrington Bi8e noch einmal datasets.zip laden Variablen, Faktoren, Stufen Eine Varianzanalyse ist die Erweiterung von einem t- test t- test oder ANOVA

Mehr

Fortgeschrittene Statistik Logistische Regression

Fortgeschrittene Statistik Logistische Regression Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E

Mehr

Versuchsplanung. Inhalt. Grundlagen. Faktor-Effekt. Allgemeine faktorielle Versuchspläne. Zweiwertige faktorielle Versuchspläne

Versuchsplanung. Inhalt. Grundlagen. Faktor-Effekt. Allgemeine faktorielle Versuchspläne. Zweiwertige faktorielle Versuchspläne Inhalt Versuchsplanung Faktorielle Versuchspläne Dr. Tobias Kiesling Allgemeine faktorielle Versuchspläne Faktorielle Versuchspläne mit zwei Faktoren Erweiterungen Zweiwertige

Mehr

fh management, communication & it Constantin von Craushaar fh-management, communication & it Statistik Angewandte Statistik

fh management, communication & it Constantin von Craushaar fh-management, communication & it Statistik Angewandte Statistik fh management, communication & it Folie 1 Angewandte Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines einfachen Beispieles Häufigkeitsauswertungen Grafiken Datenmanipulationen

Mehr

Kapitel 4: Merkmalszusammenhänge

Kapitel 4: Merkmalszusammenhänge Kapitel 4: Merkmalszusammenhänge Streudiagramme SPSS bietet die Möglichkeit, verschiedene Arten von Streudiagrammen zu zeichnen. Gehen Sie auf Grafiken Streu-/Punkt-Diagramm und wählen Sie die Option Einfaches

Mehr

Varianzanalyse. Seminar: Multivariate Verfahren Dr. Thomas Schäfer. Datum: 25. Mai 2010

Varianzanalyse. Seminar: Multivariate Verfahren Dr. Thomas Schäfer. Datum: 25. Mai 2010 Varianzanalyse Seminar: Multivariate Verfahren Dozent: Dr. Thomas Schäfer Referenten: Ralf Hopp, Michaela Haase, Tina Giska Datum: 25. Mai 2010 Gliederung I Theorieteil 1. Das Prinzip der Varianzanalyse

Mehr

Bivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154

Bivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154 Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch

Mehr

Grundlagen Statistik Angewandte Statistik 3. Semester

Grundlagen Statistik Angewandte Statistik 3. Semester Angewandte Statistik 3. Semester Zur Person Constantin von Craushaar Consultant / Partner Innstat e.u. (www.innstat.com) info@innstat.com Grundlagen der Statistik Übersicht Semester 1 Einführung ins SPSS

Mehr

Statistik II Übung 2: Multivariate lineare Regression

Statistik II Übung 2: Multivariate lineare Regression Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

fh management, communication & it Constantin von Craushaar FH-management, communication & it Statistik Angewandte Statistik

fh management, communication & it Constantin von Craushaar FH-management, communication & it Statistik Angewandte Statistik fh management, communication & it Folie 1 Angewandte Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines einfachen Beispieles Häufigkeitsauswertungen Grafiken Datenmanipulationen

Mehr

Musterlösung zu Serie 14

Musterlösung zu Serie 14 Dr. Lukas Meier Statistik und Wahrscheinlichkeitsrechnung FS 21 Musterlösung zu Serie 14 1. Der Datensatz von Forbes zeigt Messungen von Siedepunkt (in F) und Luftdruck (in inches of mercury) an verschiedenen

Mehr

Analyse von Querschnittsdaten. Regression mit Dummy-Variablen

Analyse von Querschnittsdaten. Regression mit Dummy-Variablen Analyse von Querschnittsdaten Regression mit Dummy-Variablen Warum geht es in den folgenden Sitzungen? Datum Vorlesung 9.0.05 Einführung 26.0.05 Beispiele 02..05 Forschungsdesigns & Datenstrukturen 09..05

Mehr

Beispiel für eine multivariate Varianzanalyse (MANOVA) Daten: POKIV_Terror_V12.sav

Beispiel für eine multivariate Varianzanalyse (MANOVA) Daten: POKIV_Terror_V12.sav Beispiel für eine multivariate Varianzanalyse () Daten: POKIV_Terror_V12.sav Es soll überprüft werden, inwieweit das ATB-Syndrom (Angst vor mit den drei Subskalen affektive Angst von, Terrorpersistenz,

Mehr

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Hypothese: Die Beschäftigung mit Kunst ist vom Bildungsgrad abhängig. 1. Annahmen Messniveau: Modell: Die Skala zur Erfassung der

Mehr

Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz

Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen Dr. Uwe Waschatz Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz Inhalt Problembeschreibung Multiple lineare Regressionsanalyse Statistische Versuchsplanung / Design of Experiments

Mehr

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Speziell im Zusammenhang mit der Ablehnung der Globalhypothese werden bei einer linearen Einfachregression weitere Fragestellungen

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

Statistik I. Übungklausur. Prof. Dr. H. Toutenburg

Statistik I. Übungklausur. Prof. Dr. H. Toutenburg Statistik I Übungklausur Prof. Dr. H. Toutenburg Hinweis: Die Zeitangaben sollen Ihnen aufzeigen wieviel Zeit Ihnen für eine Aufgabe von gewissem Umfang eingeräumt wird. Die Punktzahlen für die einzelnen

Mehr

I Einführung 1. 1 Über den Umgang mit Statistik 3

I Einführung 1. 1 Über den Umgang mit Statistik 3 I Einführung 1 1 Über den Umgang mit Statistik 3 1.1 Statistik richtig lehren und lernen 3 1.2 Testergebnisse richtig interpretieren 6 1.3 Einfluss des Zufalls 8 1.4 Die Interpretation von Zusammenhängen

Mehr

Constantin von Craushaar FH-Management & IT Statistik Angewandte Statistik (Übungen) Folie 1

Constantin von Craushaar FH-Management & IT Statistik Angewandte Statistik (Übungen) Folie 1 FHManagement & IT Folie 1 Angewandte Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines einfachen Beispieles Häufigkeitsauswertungen Grafiken Datenmanipulationen Mehrfachantworten

Mehr

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift:

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift: 20-minütige Klausur zur Vorlesung Lineare Modelle im Sommersemester 20 PD Dr. Christian Heumann Ludwig-Maximilians-Universität München, Institut für Statistik 2. Oktober 20, 4:5 6:5 Uhr Überprüfen Sie

Mehr

Formale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung

Formale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung Übung Formale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung BACHELOR FT 2013 (HSU) Übung Emp. WiFo FT 2013 1 / 1 Maßzahlen für den Zusammenhang zwischen Merkmalen Kontingenztabelle:

Mehr

Prof. Dr. Karl-Werner Hansmann

Prof. Dr. Karl-Werner Hansmann Die Gelddruck-Maschine der Notenbanken ist für die Bekämpfung der Arbeitslosigkeit ungeeignet. von Prof. Dr. Karl-Werner Hansmann Universität Hamburg Vortrag beim Academic Network der Roland Berger School

Mehr

Christian FG Schendera. Regressionsanalyse. mit SPSS. 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG

Christian FG Schendera. Regressionsanalyse. mit SPSS. 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG Christian FG Schendera Regressionsanalyse mit SPSS 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG Inhalt Vorworte V 1 Korrelation 1 1.1 Einführung 1 1.2 Erste Voraussetzung: Das Skalenniveau

Mehr

Biostatistik Erne Einfuhrung fur Biowissenschaftler

Biostatistik Erne Einfuhrung fur Biowissenschaftler Matthias Rudolf Wiltrud Kuhlisch Biostatistik Erne Einfuhrung fur Biowissenschaftler PEARSON Studium Inhaltsverzeichnis Vorwort xi Kapitel 1 Einfiihrung 1 1.1 Biostatistik als Bestandteil biowissenschafllicher

Mehr

Kapitel 7: Varianzanalyse mit Messwiederholung

Kapitel 7: Varianzanalyse mit Messwiederholung Kapitel 7: Varianzanalyse mit Messwiederholung Durchführung einer einfaktoriellen Varianzanalyse mit Messwiederholung 1 Durchführung einer zweifaktoriellen Varianzanalyse mit Messwiederholung auf einem

Mehr

Statistik für Psychologen und Sozialwissenschaftler

Statistik für Psychologen und Sozialwissenschaftler Markus Bühner Matthias Ziegler Statistik für Psychologen und Sozialwissenschaftler Mit über 480 Abbildungen PEARSON Studium Ein Imprint von Pearson Education München Boston San Francisco Harlow, England

Mehr

Inferenzstatistik Vergleich mehrerer Stichproben - Varianzanalyse

Inferenzstatistik Vergleich mehrerer Stichproben - Varianzanalyse Vergleich mehrerer Stichproben - Varianzanalyse Zweifache VA mit hierarchischen Faktoren Voraussetzungen zwei unabhängige Variablen (Faktoren), die unabhängige Gruppen definiert zweite Faktor ist innerhalb

Mehr

Nichtparametrische statistische Verfahren

Nichtparametrische statistische Verfahren Nichtparametrische statistische Verfahren (im Wesentlichen Analyse von Abhängigkeiten) Kategorien von nichtparametrischen Methoden Beispiel für Rangsummentests: Wilcoxon-Test / U-Test Varianzanalysen 1-faktorielle

Mehr

Im Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des.

Im Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des. Einfatorielle Varianzanalyse Varianzanalyse untersucht den Einfluss verschiedener Bedingungen ( = nominalsalierte(r) Variable(r)) auf eine metrische Variable. Die Bedingungen heißen auch atoren und ihre

Mehr

Methodik der multiplen linearen Regression

Methodik der multiplen linearen Regression Methodik der multiplen linearen Regression Sibel Aydemir Statistisches Amt, Direktorium Landeshauptstadt München Name, Stadt Regressionsanalyse: Schritt für Schritt Schritt 1 Schritt 2 Schritt 3 Schritt

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall ) Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels

Mehr

Institut für Soziologie Benjamin Gedon. Methoden 2. Regressionsanalyse IV: Transformation und Interaktion

Institut für Soziologie Benjamin Gedon. Methoden 2. Regressionsanalyse IV: Transformation und Interaktion Institut für Soziologie Methoden 2 Regressionsanalyse IV: Transformation und Interaktion Inhalt 1. Zusammenfassung letzte Sitzung 2. Weitere Annahmen und Diagnostik 3. Transformationen zur besseren Interpretierbarkeit

Mehr

(2) Mittels welcher Methode ist es im ALM möglich kategoriale Variablen als Prädiktoren in eine Regressionsgleichung zu überführen?

(2) Mittels welcher Methode ist es im ALM möglich kategoriale Variablen als Prädiktoren in eine Regressionsgleichung zu überführen? Beispielaufgaben LÖSUNG (1) Grenzen Sie eine einfache lineare Regression von einem Random Intercept Modell mit nur einem Level1-Prädiktor ab! a. Worin unterscheiden sich die Voraussetzungen? - MLM braucht

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

2.Tutorium Generalisierte Regression

2.Tutorium Generalisierte Regression 2.Tutorium Generalisierte Regression - Binäre Regression - Moritz Berger: 04.11.2013 und 11.11.2013 Shuai Shao: 06.11.2013 und 13.11.2013 Institut für Statistik, LMU München 1 / 16 Gliederung 1 Erweiterte

Mehr

Aufgaben zu Kapitel 7:

Aufgaben zu Kapitel 7: Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn

Mehr

Unsystematische Störvariablen

Unsystematische Störvariablen wirken auf AV, variieren aber nicht mit UV haben keinen Einfluss auf Unterschiede zwischen den Bedingungen Unsystematische Störvariablen (Eid, Gollwitzer & Schmitt, 2010, S. 56f) Es gibt individuelle Unterschiede

Mehr

Grundlagen der Datenanalyse am Beispiel von SPSS

Grundlagen der Datenanalyse am Beispiel von SPSS Grundlagen der Datenanalyse am Beispiel von SPSS Einführung Dipl. - Psych. Fabian Hölzenbein hoelzenbein@psychologie.uni-freiburg.de Einführung Organisatorisches Was ist Empirie? Was ist Statistik? Dateneingabe

Mehr

(GENERAL FULL FACTORIALS)

(GENERAL FULL FACTORIALS) TQU BUSINESS GMBH VOLLFAKTORIELLE VERSUCHSPLÄNE (GENERAL FULL FACTORIALS) Lernziele Sie können vollfaktorielle Versuchspläne auf und mehr Stufen erstellen. Sie kennen Haupteffekte und Wechselwirkungen

Mehr

Inhaltsverzeichnis. Vorwort 1. Kapitel 1 Einführung 3. Kapitel 2 Messtheorie und deskriptive Statistik 13

Inhaltsverzeichnis. Vorwort 1. Kapitel 1 Einführung 3. Kapitel 2 Messtheorie und deskriptive Statistik 13 Inhaltsverzeichnis Vorwort 1 Kapitel 1 Einführung 3 1.1 Ziele... 4 1.2 Messtheorie und deskriptive Statistik... 8 1.3 Grundlagen der Wahrscheinlichkeitsrechnung... 9 1.4 Inferenzstatistik... 9 1.5 Parametrische

Mehr

Kapitel 5 FRAGESTELLUNG 1. Öffne die Datei alctobac.sav.

Kapitel 5 FRAGESTELLUNG 1. Öffne die Datei alctobac.sav. Kapitel 5 FRAGESTELLUNG 1 Öffne die Datei alctobac.sav. Zuerst werden wir ein Streudiagramm erstellen, um einen grafischen Überblick von diesem Datensatz zu erhalten. Gehe dazu auf Grafiken / Streudiagramm

Mehr

4 Binäre Regressionsmodelle, Folien 2

4 Binäre Regressionsmodelle, Folien 2 4 Binäre Regressionsmodelle, Folien 2 Ludwig Bothmann (basierend auf Unterlagen von Nora Fenske) Statistik III für Nebenfachstudierende WS 2014/2015 4.5 Hypothesentests Lineare Hypothesen Betrachtet werden

Mehr

15 Mehr-Weg-Varianzanalyse (Für SPSS 6.x)

15 Mehr-Weg-Varianzanalyse (Für SPSS 6.x) Janssen/Laatz: Ergänzung aus früheren Auflagen 15 Mehr-Weg-Varianzanalyse (Für SPSS 6.x) Die Mehr-Weg-Varianzanalyse unterscheidet sich von der Ein-Weg-Varianzanalyse dadurch, daß nicht ein, sondern zwei

Mehr

Angewandte Statistik 3. Semester

Angewandte Statistik 3. Semester Angewandte Statistik 3. Semester Übung 5 Grundlagen der Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines Beispieles Häufigkeitsauswertungen Grafiken Statistische Grundlagen

Mehr

Varianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav)

Varianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav) Zweifaktorielle Versuchspläne 4/13 Durchführung in SPSS (File Trait Angst.sav) Analysieren > Allgemeines Lineares Modell > Univariat Zweifaktorielle Versuchspläne 5/13 Haupteffekte Geschlecht und Gruppe

Mehr

Die Varianzanalyse. Analysis of Variance (ANOVA) Jonathan Harrington

Die Varianzanalyse. Analysis of Variance (ANOVA) Jonathan Harrington Die Varianzanalyse Analysis of Variance (ANOVA) Jonathan Harrington path = "Verzeichnis wo Sie anova1 gespeichert haben" attach(paste(path, "anova1", sep="/")) Variablen, Faktoren, Ebenen Faktoren oder

Mehr

Sonderanhang: Manuelle Berechnungen der Statistikaufgaben

Sonderanhang: Manuelle Berechnungen der Statistikaufgaben Albert/Marx 04: Empirisches Arbeiten Sonderanhang: Manuelle Berechnungen der Statistikaufgaben Kaum jemand führt heutzutage statistische Berechnungen noch von Hand durch, weil es sehr viele Computerprogramme

Mehr

BIOL, HST HS 2014 Dr. M. Kalisch. MC-Quiz 1. Einsendeschluss: Dienstag, der :59 Uhr

BIOL, HST HS 2014 Dr. M. Kalisch. MC-Quiz 1. Einsendeschluss: Dienstag, der :59 Uhr BIOL, HST HS 2014 Dr. M. Kalisch MC-Quiz 1 Einsendeschluss: Dienstag, der 23.09.2014 23:59 Uhr Dieses Quiz soll Ihnen helfen, die Regression mit Faktoren und Wechselwirkungen besser zu verstehen. Zum Teil

Mehr

Mehrebenenanalyse. Seminar: Multivariate Analysemethoden Referentinnen: Barbara Wulfken, Iris Koch & Laura Früh

Mehrebenenanalyse. Seminar: Multivariate Analysemethoden Referentinnen: Barbara Wulfken, Iris Koch & Laura Früh Mehrebenenanalyse Seminar: Multivariate Analysemethoden Referentinnen: Barbara Wulfken, Iris Koch & Laura Früh Inhalt } Einführung } Fragestellung } Das Programm HLM } Mögliche Modelle } Nullmodell } Random

Mehr

ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II

ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II 1.1 Durch welche Elemente lässt sich laut der Formel für die multiple Regression der Wert einer Person auf einer bestimmten abhängigen Variable Y vorhersagen? a)

Mehr

6.1 Grundbegriffe und historischer Hintergrund

6.1 Grundbegriffe und historischer Hintergrund Kapitel 6 Regression 61 Grundbegriffe und historischer Hintergrund Bedeutung der Regression: Eines der am häufigsten verwendeten statistischen Verfahren Vielfache Anwendung in den Sozialwissenschaften

Mehr

Marketing III - Angewandte Marktforschung (SS 2016)

Marketing III - Angewandte Marktforschung (SS 2016) TECHNISCHE UNIVERSITÄT ILMENAU Fakultät für Wirtschaftswissenschaften und Medien Fachgebiet Marketing Univ.-Prof. Dr. rer. pol. habil. Anja Geigenmüller Marketing III - Angewandte Marktforschung (SS 2016)

Mehr

Einfache statistische Auswertungen mit dem Programm SPSS

Einfache statistische Auswertungen mit dem Programm SPSS Einfache statistische Auswertungen mit dem Programm SPSS Datensatz: fiktive_daten.sav Dipl. Päd. Anne Haßelkus Dr. Dorothea Dette-Hagenmeyer 11/2011 Überblick 1 Deskriptive Statistiken; Mittelwert berechnen...

Mehr

Modul G.1 WS 07/08: Statistik 31.01.2008 1

Modul G.1 WS 07/08: Statistik 31.01.2008 1 Modul G.1 WS 07/08: Statistik 31.01.2008 1 Varianzanalyse Als Varianzanalyse bezeichnet man eine große Gruppe datenanalytischer und mustererkennender statistischer Verfahren, die zahlreiche unterschiedliche

Mehr