Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie
|
|
- Hermann Breiner
- vor 6 Jahren
- Abrufe
Transkript
1 Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1 und X 2 sowie X 1. X Regressionsanalytische Berechnung der ANOVA mit Typ III Quadratsummen Variante mit Kontrastkodierung 10 3 Modell mit 0-1 kodiertem nominalem Prädiktor X 1, intervallskaliertem Prädiktor X 2 sowie X 1. X Regressionsanalytische Berechnung der ANOVA mit Typ III Quadratsummen 14 4 Modell mit intervallskalierten Prädiktoren X 1 und X 2 sowie X 1. X Variablentransformation ohne Einfluss auf den Regressionskoeffizienten der Interaktion 21 6 Statistische Gleichheit von Interaktionen Varianzanalyse Kovarianzanalyse Multiple Regression mit intervallskalierten Prädiktoren 30 1" 2"
2 1 Einleitung Modelle mit Interaktion enthalten Produkte von Prädiktoren. Jeder an einem Produkt beteiligte Prädiktor muss auch einzeln im Modell enthalten sein. Ausgehend vom einfachst möglichen Modell mit den Prädiktoren X 1, X 2 und X 1. X 2 soll untersucht werden, was Interaktionen bedeuten. Modellgleichung: umgeformt: ŷ = B ŷ = B ( ) ŷ = B 0 + ( ) + Die umgeformten Regressionsgleichungen zeigen, dass die Stärke des Einflusses von X 2 linear von X 1 und die Stärke des Einflusses von X 1 linear von X 2 abhängt. 3" Die Darstellung und die Interpretation von Interaktionen hängt vom Skalenniveau der Prädiktoren ab. Die Grafiken zeigen die Bedeutung der Regressionskoeffizienten. Es ist zu beachten, dass diese Bedeutung von der Kodierung der Faktoren abhängt. Die in den folgenden Beispielen verwendeten nominalen Prädiktoren (Faktoren) enthalten nur zwei Stufen, die mit 0 und 1 kodiert sind (Dummy-Kodierung). Varianzanalytische Designs mit mehr als zwei Stufen pro Faktor werden in den Folien "Regressionsanalytische Darstellung von Kontrasten" behandelt. X 1 und X 2 Faktoren mit Stufen (0, 1) X 1 Faktor mit Stufen (0, 1) X 2 intervallskaliert X 1 und X 2 intervallskaliert X 1 : = 0 = 1 X 1 : 0 1 +B 3 Steigung: +B 3 X 1 +B 3 +B 3 Steigung B B 0 + B 0 X 2 X 2 B 0 - /B 3 B 0 + X 1 - / X 2 4"
3 Jeden dieser drei Fälle gehen wir anhand eines Beispieldatensatzes durch. Zuerst werden mit Hilfe der multiplen Regression die Regressionskoeffizienten geschätzt und auf Signifikanz getestet. Die Bedeutung der Regressionskoeffizienten wird anhand des Interaktionsplots illustriert. Um die inhaltsbezogene Interpretation der Effekte intuitiver zu gestalten, geben wir den Variablen nachvollziehbare Bedeutungen. Wenn das Modell nominale Prädiktoren enthält, werden die Effekte in der Praxis häufig varianzanalytisch getestet. Aus diesem Grund rechnen wir für diese Fälle auch eine ANOVA. Der direkte Vergleich der Signifikanztests zeigt, dass die Ergebnisse der Haupteffekte zum Teil nicht übereinstimmen. Dies hängt mit der Kodierung der nominalen Variablen zusammen. Bei intervallskalierten Prädiktoren macht es einen Unterschied, ob sie mittelwertzentriert sind oder nicht. Es lässt sich zeigen, dass sich die Quadratsummen der ANOVA durch geeignete Vergleiche von Regressionsmodellen berechnen lassen. Die ANOVAs werden mit Quadratsummenzerlegung Typ III gerechnet. Bei dieser Variante werden bei der Berechnung der Quadratsumme eines Effektes zuerst alle andern Effekte herauspartialisiert. Interaktionen können sehr verschieden aussehen und trotzdem statisch gleich sein. Wir werden dies an einigen Beispielen illustrieren. Der Vergleich von Interaktionen ist bei dreifaktoriellen ANOVAs wichtig. Wenn die Interaktion zweiter Ordnung signifikant ist, unterscheiden sich gewisse Interaktionen erster Ordnung. Es kann aber auch sein, dass die Interaktion zweiter Ordnung nicht signifikant ist, obwohl die Interaktionen erster Ordnung sehr verschieden aussehen. 5" 6"
4 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1 und X 2 sowie X 1. X 2 # Datensatz X1 <- rep(c(0,1,0,1), each=8) X2 <- rep(c(0,1), each=16) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data <- data.frame(x1, X2, ) # Signifikanzteststs # Regressionsanalytisch getestete Effekte # Interaktionsterm data$x1.x2 <- data$x1*data$x2 # Multiple Regression m <- lm(~x1+x2+x1.x2, data) summary(m) # Varianzanalyse mit Typ III Quadratsummen data$block <- 1:nrow(data) library(afex) aov_ez(id="block", dv="", data=data, between=c("x1","x2"), return="anova") Hinweis: Der Unterschied in den p-werten für X 1 und X 2 kommt daher, dass bei der Regressionsanalyse der Effekt von X 1 ( ) für Stufe 0 von X 2 und der Effekt von X 2 ( ) für Stufe 0 von X 1 getestet wird, vgl. Folie 8. Bei der ANOVA wird der mittlere Effekt von X 1 über beide Stufen von X 2 und der mittlere Effekt von X 2 über beide Stufen von X 1 getestet. Wenn man für die nominalen Variablen die Kontrastkodierung wählt, stimmen die p-werte überein. Multiple Regression Call: lm(formula = ~ X1 + X2 + X1.X2, data = data) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) <2e-16 *** X X * X1.X * --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 28 degrees of freedom Multiple R-squared: 0.664, Adjusted R-squared: F-statistic: on 3 and 28 DF, p-value: 8.392e-07 Varianzanalyse Anova Table (Type III tests) Response: dv (Intercept) < 2.2e-16 *** X *** X e-06 *** X1:X * Residuals Signif. codes: 0 *** ** 0.01 * " ŷ = B Regressionsanalyse: ŷ = B ( ) Interpretation: X 2 (0=Placebo, 1=Medikament), ŷ = B 0 + ( ) + X 1 (0=Kontroll, 1=Therapie), =Wirkung Regressionsanalyse: Für die Probanden in der Placebobedingung (X 2 =0) beträgt der Unterschied y 11 zwischen den Therapierten und den Nicht-Therapierten 20 =1. Für die Probanden in der Kontrollgruppe (X 1 =0) beträgt der Unterschied zwischen denjenigen mit Medikament und denjenigen mit Placebo =2. Mit B Medikament (X 2 =1) ist der Unterschied zwischen 1 +B 3 B Therapie- und Kontrollbedingung um B X1 3 =3 grösser als in 2 +B der Placebobedingung (X 2 =0). Oder: In der 1 Therapiebedingung (X 1 =1) ist der Unterschied zwischen y Medikament und Placebo um B 3 =3 grösser als als in der 01 Kontrollbedingung (X 1 =0). ANOVA: Die Mittelwerte der Placebo- und der y 10 Medikamentengruppe sind verschieden (QS 16 X2 ). Die Mittelwerte der Kontroll- und der Therapiegruppe sind y verschieden (QS X1 ). Der Unterschied zwischen Placebo- 00 B und Medikamentengruppe ist für die Kontrollgruppe nicht gleich wie für die Therapiegruppe. Oder: Der X2 Unterschied zwischen Kontroll- und Therapiegruppe ist für die Placebogruppe nicht gleich wie für die y 00 = B 0 B 0 = y 00 Medikamentengruppe (QS X1X2 ). y 01 = B 0 + = y 10 y 00 y 10 = B 0 + y 11 = B = y 01 y 00 B 3 = y 11 y 10 y 01 + y 00 8"
5 2.1 Regressionsanalytische Berechnung der ANOVA mit Typ III Quadratsummen Nominale Variablen müssen vom Typ "factor" sein. Nominale Variablen müssen durch Kontrast-Indikatorvariablen ersetzt werden. Der Ausdruck "X1*X2" bedeutet "X1 + X2 + X1:X2", d.h. Haupteffekt "X1" + Haupteffekt "X2" + Interaktion "X1:X2". Die Funktion "dropl" rechnet folgende drei Modelle: (1) lm(~x2 + X1:X2, data) (2) lm(~x1 + X1:X2, data) (3) lm(~x1 + X2, data) Jedes dieser Modelle wird gegen das Gesamtmodell "lm(~x1*x2, data)" getestet. Modell (1) vs. Gesamtmodell ergibt den Test für "X1", Modell (2) vs. Gesamtmodell den Test für "X2" und Modell (3) vs. Gesamtmodell den Test für "X1:X2". data$x1 <- as.factor(data$x1) data$x2 <- as.factor(data$x2) options(contrasts = c("contr.sum","contr.poly")) model <- lm(~x1*x2, data=data) drop1(model,.~., test="f") Regressionsanalytisch berechnet Single term deletions Model: ~ X1 * X2 Df Sum of Sq RSS AIC F value Pr(>F) <none> X *** X e-06 *** X1:X * --- Signif. codes: 0 *** ** 0.01 * Vergleich mit Varianzanalyse (Intercept) < 2.2e-16 *** X *** X e-06 *** X1:X * Residuals " 2.2 Variante mit Kontrastkodierung X 2 (-1=Placebo, 1=Medikament), X 1 (-1=Kontroll, 1=Therapie), =Wirkung # Datensatz X1 <- rep(c(-1,1,-1,1), each=8) X2 <- rep(c(-1,1), each=16) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data <- data.frame(x1, X2, ) # Signifikanzteststs # Regressionsanalytisch getestete Effekte # Interaktionsterm data$x1.x2 <- data$x1*data$x2 # Multiple Regression m <- lm(~x1+x2+x1.x2, data) summary(m) Regressionsanalyse: B 0 =17.25 entspricht dem Gesamtmittelwert, =1.25 der Hälfte des Unterschiedes zwischen Therapie- und Kontrollgruppe und =1.75 der Hälfte des Unterschiedes zwischen Medikamenten- und Placebogruppe. B 3 =0.75 entspricht der Hälfte des Unterschiedes der Nützlichkeit des Medikaments gegenüber Placebo in der Therapiegruppe verglichen mit der Kontrollgruppe. Oder: Die Hälfte des Unterschiedes der Nützlichkeit der Therapiegegenüber der Kontrollbedingung in der Medikamentengruppe verglichen mit der Placebogruppe. Die p-werte stimmen mit denjenigen der ANOVA überein. Multiple Regression Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** X *** X e-06 *** X1.X * 20 Mittelwert Therapie 18 Gesamtmittelwert: B 0 16 Mittelwert Placebo y 1 1 y 1 1 y 1 1 = B 0 y 11 = B 0 + B 3 y 1 1 = B 0 + B 3 y 11 = B X2 y 11 y 11 B 3 Mittelwert Medikament X1 ( ) 4 ( ) 4 ( ) 4 ( ) 4 B 0 = y y 11 + y y 11 = y 1 1 y 11 + y y 11 = y y 11 y y 11 B 3 = y 1 1 y 11 y y 11-1 Mittelwert Kontroll 1 10"
6 3 Modell mit 0-1 kodiertem nominalem Prädiktor X 1, intervallskaliertem Prädiktor X 2 sowie X 1. X 2 Damit und eine sinnvolle Bedeutung haben, sollte man im Rahmen einer Regressionsanalyse mit Interaktionen die intervallskalierten Prädiktoren mittelwertzentrieren. In unserem Beispiel sollte X 2 mittelwertzentriert sein. Ohne Mittelwertzentrierung gibt an, um wie viel ändert, wenn X 1 um 1 zunimmt und X 2 =0 ist, d.h. ist die Stärke des Effektes von X 1 wenn X 2 =0 ist. In den Sozialwissenschaften haben intervallskalierte Prädiktorvariablen häufig keinen sinnvoll interpretierbaren Nullpunkt. In solchen Fällen hat keine praktische Bedeutung. Eine Variable wird mittelwertzentriert, indem man von jedem Messwert den Mittelwert der Variable subtrahiert. Das hat zur Folge, dass der Mittelwert von mittelwertzentrierten Variablen Null ist. Mit Mittelwertzentrierung gibt an, um wie viel ändert, wenn X 1 um 1 zunimmt und X 2 gleich dem Mittelwert von X 2 ist. entspricht dem über alle Werte von X 2 gemittelten Regressionskoeffizienten für den Zusammenhang zwischen X 1 und. Wenn man standardisierte Regressionskoeffizienten berechnen will, muss man die Prädiktoren zuerst standardisieren und für die Interaktionen Variablen mit den Produkten der entsprechenden standardisierten Prädiktoren bilden. Das mit diesen Variablen spezifizierte Modell liefert die korrekten standardisierten Regressionskoeffizienten für die Interaktionsterme. Gewisse Statistikprogramme (z.b. SPSS) geben nebst den unstandardisierten auch die standardisierten Regressionskoeffizienten aus. Für die Berechnung der standardisierten Regressionskoeffizienten wird jeder Prädiktor standardisiert, also auch die aus den Produkten der Originalvariablen gebildeten Interaktionsterme, was jedoch nicht korrekt ist. 11" # Datensatz X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- rep(c(0,1), each=20) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data <- data.frame(x1, X2, ) # Signifikanzteststs # Regressionsanalytisch getestete Effekte # Mittelwertzentrierung von X2 data$x2 <- data$x2-mean(data$x2) # Interaktionsterm data$x1.x2 <- data$x1*data$x2 # Multiple Regression m <- lm(~x1+x2+x1.x2, data) summary(m) # Kovarianzanalyse mit Typ III Quadratsummen data$x1 <- as.factor(data$x1) library(car) Anova(lm(~X1*x2, data=data, contrasts=list(x1=contr.sum)), type=3) Multiple Regression Call: lm(formula = ~ X1 + x2 + X1.x2, data = data) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** X e-05 *** x X1.x * --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 36 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 3 and 36 DF, p-value: 2.089e-06 Kovarianzanalyse Mit der Funktion aov_ez() lassen sich keine Interaktionen zwischen Faktoren und Kovariablen testen. Deshalb verwenden wir die Funktion Anova(). Hinweis: Anova Table (Type III tests) Da bei der Regressionsanalyse der Response: Effekt von X 2 für Stufe 0 von X 1 (Intercept) < 2.2e-16 *** und bei der ANCOVA der mittlere X e-05 *** Effekt von X 2 über beide Stufen von x *** X X1:x * 1 getestet wird, sind die p-werte Residuals für X 2 verschieden. 12"
7 Interpretation für: X 2 = IQ, X 1 (0=kontroll, 1=treatment), =Leistung Regressionsanalyse: Beim Gesamtmittelwert des IQ (X 2 =0) ist die Leistung der Treatment-Gruppe (X 1 =1) um =4 höher als die Leistung der Kontrollgruppe (X 1 =0). Für die Probanden in der Kontrollgruppe (X 1 = 0 ) b e t r ä g t d e r Regressionskoeffizient für den Zusammenhang zwischen IQ und Leistung =0.04. Bei der Treatment-Gruppe (X 1 =1) ist der Regressionskoeffizient um B 3 =0.12 höher als bei der Kontrollgruppe (X 1 =0). Oder: Der Unterschied zwischen Treatment- und Kontrollgruppe nimmt mit dem IQ zu ( X 2 ). X 1. ANCOVA: Es besteht ein über die beiden Gruppen gemittelter Zusammenhang zischen IQ und Leistung (QS X2 ). Beim Gesamtmittelwert des IQ sind die Mittelwerte der Kontroll- und der Treatment-Gruppe verschieden (QS X1 ). Der Zusammenhang zwischen IQ und Leistung ist für die beiden Gruppe verschieden. Oder: Der Unterschied zwischen den beiden Gruppen hängt vom IQ ab (QS X1X2 ). Regressionsanalyse: ŷ = B ŷ = B ( ) ŷ = B 0 + ( ) X2 X 2 mittelwertzentriert +B 3 Steigung X " 3.1 Regressionsanalytische Berechnung der ANCOVA mit Typ III Quadratsummen Nominale Variablen müssen vom Typ "factor" sein. Nominale Variablen müssen durch Kontrast-Indikatorvariablen ersetzt werden. Der Ausdruck "X1*x2" bedeutet "X1 + x2 + X1:x2", d.h. Haupteffekt "X1" + Haupteffekt "x2" + Interaktion "X1:x2". Die Funktion "dropl" rechnet folgende drei Modelle: (1) lm(~x2 + X1:x2, data) (2) lm(~x1 + X1:x2, data) (3) lm(~x1 + x2, data) Jedes dieser Modelle wird gegen das Gesamtmodell "lm(~x1*x2, data)" getestet. Modell (1) vs. Gesamtmodell ergibt den Test für "X1", Modell (2) vs. Gesamtmodell den Test für "x2" und Modell (3) vs. Gesamtmodell den Test für "X1:x2". options(contrasts = c("contr.sum","contr.poly")) model <- lm(~x1*x2, data=data) drop1(model,.~., test="f") Regressionsanalytisch berechnet Single term deletions Model: ~ X1 * x2 Df Sum of Sq RSS AIC F value Pr(>F) <none> X e-05 *** x *** X1:x * --- Signif. codes: 0 *** ** 0.01 * Vergleich mit Kovarianzanalyse (Intercept) < 2.2e-16 *** X e-05 *** x *** X1:x * Residuals "
8 4 Modell mit intervallskalierten Prädiktoren X 1 und X 2 sowie X 1. X 2 Damit und eine sinnvolle Bedeutung haben, sollte man im Rahmen einer Regressionsanalyse mit Interaktionen die Prädiktoren mittelwertzentrieren. Ohne Mittelwertzentrierung gibt an, um wie viel ändert, wenn X 1 um 1 zunimmt und X 2 =0 ist, d.h. ist die Stärke des Effektes von X 1 wenn X 2 =0 ist. In den Sozialwissenschaften haben intervallskalierte Prädiktorvariablen häufig keinen sinnvoll interpretierbaren Nullpunkt, so dass keine praktische Bedeutung hat. Eine Variable wird mittelwertzentriert, indem man von jedem Messwert den Mittelwert der Variable subtrahiert. Das hat zur Folge, dass der Mittelwert von mittelwertzentrierten Variablen ist Null ist. Für mittelwertzentrierte Prädiktoren ist die Stärke des Effektes von X 1 beim Mittelwert von X 2 oder der mittlere Effekt von X 1 über alle Werte von X 2. Entsprechend für. Diese Interpretation hat eine praktische Bedeutung. Für mittelwertzentrierte Prädiktoren erhält man in der Regel andere Werte für und und auch andere Signifikanztests als für nicht mittelwertzentrierte. Der Regressionskoeffizient und der Signifikanztest der Interaktion höchster Ordnung ändern nicht. Wenn im Modell keine Interaktionen vorhanden sind, muss nicht mittelwertzentriert werden, da beide Varianten - ausser dem Schätzwert für B 0 - übereinstimmen. Wenn man standardisierte Regressionskoeffizienten berechnen will, muss man die Prädiktoren zuerst standardisieren und für die Interaktionen Variablen mit den Produkten der entsprechenden standardisierten Prädiktoren bilden. Das mit diesen Variablen spezifizierte Modell liefert die korrekten standardisierten Regressionskoeffizienten für die Interaktionsterme. Gewisse Statistikprogramme (z.b. SPSS) geben nebst den unstandardisierten auch die standardisierten Regressionskoeffizienten aus. Für die Berechnung der standardisierten Regressionskoeffizienten wird jeder Prädiktor standardisiert, also auch die aus den Produkten der Originalvariablen gebildeten Interaktionsterme, was jedoch nicht korrekt ist. Die Mittelwertzentrierung reduziert Multikollinearitätseffekte. Es wird stark empfohlen, im Fall von Interaktionen mittelwertzentrierte Prädiktoren zu verwenden. 15" # Datensatz X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data <- data.frame(x1, X2, ) # Signifikanzteststs # Mittelwertzentrierte Prädiktoren data$x1 <- data$x1 - mean(data$x1) data$x2 <- data$x2 - mean(data$x2) # Interaktionsterm data$x1.x2 <- data$x1*data$x2 # Multiple Regression summary(lm(~x1+x2+x1.x2, data)) Multiple Regression mit mittelwertzentrierten Prädiktoren Call: lm(formula = ~ x1 + x2 + x1.x2, data = data) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** x ** x * x1.x e-08 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: 3.07 on 46 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 3 and 46 DF, p-value: 3.199e-10 Interpretation für: X 2 = IQ, X 1 Motivation, =Leistung Beim Mittelwert der Motivation (X 1 =0) beträgt der Regressionskoeffizient für den Zusammenhang zwischen IQ und Leistung = Beim Mittelwert des IQ (X 2 =0) beträgt der Regressionskoeffizient für den Zusammenhang zwischen Motivation und Leistung = Der Regressionskoeffizient für den Zusammenhang zwischen IQ und Leistung nimmt mit der Motivation zu ( X 1 ). X 2. Oder: Der Regressionskoeffizient für den Zusammenhang zwischen Motivation und Leistung nimmt mit dem IQ zu ( X 2 ). X 1. 16"
9 3D-Streudiagramm mit Plot der Regressionsfunktion (mittelwertzentrierte Prädiktoren) Die Linien sind Regressionsgeraden für den Zusammenhang zwischen X 2 und gegeben X 1 und den Zusammenhang zwischen X 1 und gegeben X 2. Zusätzlich sind die Regressionskoeffizienten für X 1 gegeben X 2 und X 2 gegeben X 1 angegeben. +B 3. X 1 +B 3. X 2 +B 3. X 1 +B 3. X 2 X 2 mittelwertzentriert X 1 mittelwertzentriert 17" # Signifikanzteststs # Nicht mittelwertzentrierte Prädiktoren data$x1.x2 <- data$x1*data$x2 summary(lm(~x1+x2+x1.x2, data)) Multiple Regression mit nicht mittelwertzentrierten Prädiktoren Call: lm(formula = ~ X1 + X2 + X1.X2, data = data) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) e-08 *** X e-07 *** X e-07 *** X1.X e-08 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: 3.07 on 46 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 3 and 46 DF, p-value: 3.199e-10 18"
10 3D-Streudiagramm mit Plot der Regressionsfunktion (nicht mittelwertzentriert) Die Linien sind Regressionsgeraden für den Zusammenhang zwischen X 2 und gegeben X 1 und den Zusammenhang zwischen X 1 und gegeben X 2. X2 X1 19" 20"
11 5 Variablentransformation ohne Einfluss auf den Regressionskoeffizienten der Interaktion Wenn man die Werte eines Prädiktors um einen konstanten Wert erhöht oder verringert, ändert dies nichts am Regressionskoeffizienten der Interaktion höchster Ordnung. Dies lässt sich anhand der Regressionsgleichung zeigen: ŷ = B (1) Nun generieren wir eine neue Regressionsgleichung, indem wir anstelle von X 1 X 1 +k einsetzen: ŷ = B 0 + ( X 1 + k) + ( X 1 + k) (2) Durch Umformung erhalten wir: ŷ = B 0 + k + + ( k) (3) Aus (3) erhalten wir die neuen Regressionskoeffizienten b 0 =B 0 +. k, b 1 =, b 2 = +B 3. k und b 3 =B 3. ŷ = b 0 + b 1 + b 2 + b 3 (4) Die Regressionskoeffizienten von X 1 und X 1. X 2 haben nicht geändert. Wenn zugleich auch X 2 additiv transformiert wird, ändern die Regressionskoeffizienten von X 1 und X 2, derjenige der Interaktion X 1. X 2 jedoch nicht. Die Mittelwertzentrierung ist ein Beispiel für diese Transformation. 21" 22"
12 6 Statistische Gleichheit von Interaktionen 6.1 Varianzanalyse Interaktionen können zwar auf den ersten Blick sehr verschieden aussehen, statistisch aber gleiche F-Werte und gleiche p-werte haben. Der F- und der p-wert der Interaktion eines ausbalancierten zweifaktoriellen Designs ändert nicht, wenn man die Mittelwerte einer Stufe eines Faktors um einen konstanten Wert erhöht oder verringert. Der Interaktionseffekt (ab) jk für Zelle jk des Designs ergibt sich aus dem Zelleffekt [ab] jk abzüglich der Haupteffekte von für Stufe j von Faktor A und Stufe k von Faktor B. ( ab) jk = [ ab] jk a j b k = ( jk.. ) ( j... ) (.k.. ) = jk j..k +.. Nun schauen wir, wie sich die Interaktionseffekte verhalten, wenn wir zu jedem Zellmittelwert der Stufe k von Faktor B die Konstante C addieren.! B k! B K Randmittel A ! 1k + C! 1K 1. + C A ! 2k + C! 2K 2. + C " " " " " " A j j1 j2! jk + C! jk j. + C " " " " " " A J J1 J1! Jk + C! JK K. + C Randmittel.1.2.k + C.K.. + C ' ( ) jk ( ) ( j. + C).k + C ( ) + (.. + C) = jk j..k +.. = ab ( ) jk Interaktionseffekte: ab = jk + C Daraus folgt: Die Interaktionseffekte ändern nicht. 23" Wir illustrieren diesen Sachverhalt anhand von drei Datensätzen. Zuerst vergleichen wir die Interaktionsplots und anschliessend die varianzanalytischen Ergebnisse. # Datensätze # Datensatz 1 A <- rep(rep(c("a1","a2","a3"), each=6), 2) B <- rep(c("b1","b2"), each=18) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data1 <- data.frame(block=1:36, A, B, ) # Datensatz 2 A <- rep(rep(c("a1","a2","a3"), each=6), 2) B <- rep(c("b1","b2"), each=18) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data2 <- data.frame(block=1:36, A, B, ) # Datensatz 3 A <- rep(rep(c("a1","a2","a3"), each=6), 2) B <- rep(c("b1","b2"), each=18) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data3 <- data.frame(block=1:36, A, B, ) # Zusammengefügter Datensatz data <- rbind(data1, data2, data3) data$block <- 1:nrow(data) C <- rep(c("c1", "C2", "C3"), each=36) data$c <- C 24"
13 Interaktionsplots Obwohl die Interaktionen sehr verschieden aussehen, sind ihre Signifikanztests identisch. Im Plot links ist jeweils rot angedeutet, durch welche Transformation man zum Plot rechts kommt. Bei der ersten Transformation werden die Mittelwerte von Stufe A1 um 2 erhöht. Bei der zweiten Transformation werden die Mittelwerte von um 1.5 erhöht und diejenigen von um 1.5 verringert. Die Transformationen können auch verkettet werden. 6 Datensatz 1 Datensatz 2 Datensatz 3 C1 C2 C3 5 4 B B1 B2 3 2 A1 A2 A3 A1 A2 A3 A1 A2 A3 A 25" Varianzanalysen Die Signifikanztests für die Interaktion sind bei allen zweifaktoriellen ANOVAs identisch. Deshalb ist die Interaktion zweiter Ordnung der dreifaktoriellen ANOVA nicht signifikant: p-wert=1, was auf den ersten Blick erstaunt. # Datensatz 1 library(afex) aov_ez(id="block", dv="", data=data1, between=c("a", "B"), return="anova") # Datensatz 2 aov_ez(id="block", dv="", data=data2, between=c("a", "B"), return="anova") # Datensatz 3 aov_ez(id="block", dv="", data=data3, between=c("a", "B"), return="anova") # Zusammengefügter Datensatz aov_ez(id="block", dv="", data=data, between=c("a", "B", "C"), return="anova") Ergebnisse Datensatz 1 (Intercept) < 2.2e-16 *** A ** ** A:B Residuals Datensatz 2 (Intercept) < 2.2e-16 *** A ** A:B Residuals Datensatz 3 (Intercept) < 2.2e-16 *** A ** A:B Residuals Dreifaktorielle ANOVA (Intercept) < 2.2e-16 *** A * C A: ** A:C * B:C e-06 *** A:B:C Residuals "
14 6.2 Kovarianzanalyse Bei der einfaktoriellen ANCOVA ändert die Interaktion nicht, wenn man die Zellmittelwerte ändert und sonst alles gleich lässt, oder wenn die Regressionskoeffizienten um einen konstanten Wert erhöht oder verringert werden und die Residuen gleich bleiben. Wir illustrieren diesen Sachverhalt anhand von drei Datensätzen. # Datensätze # Datensatz 1 X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- rep(c(0,1), each=20) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data1 <- data.frame(x1, X2, ) # Mittelwertzentrierung von X2 data1$x2 <- data1$x2-mean(data1$x2) # Datensatz 2 X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- rep(c(0,1), each=20) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data2 <- data.frame(x1, X2, ) # Mittelwertzentrierung von X2 data2$x2 <- data2$x2-mean(data2$x2) # Datensatz 3 X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- rep(c(0,1), each=20) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data3 <- data.frame(x1, X2, ) # Mittelwertzentrierung von X2 data3$x2 <- data3$x2-mean(data2$x2) 27" Interaktionsplots Veränderung von Datensatz 1 zu 2: Der Mittelwert der Gruppe X 1 =1 wird auf 20 gesetzt, die Residuen bleiben gleich. Veränderung von Datensatz 2 zu 3: Die beiden Regressionskoeffizienten werden um 0.16 reduziert, die Residuen bleiben gleich. Datensatz 1 Datensatz 2 Datensatz X X X X2 X 2 mittelwertzentriert X 2 mittelwertzentriert X 2 mittelwertzentriert 28"
15 Varianzanalysen # Datensatz 1 data1$x1 <- as.factor(data1$x1) library(car) Anova(lm(~X1*x2, data=data1, contrasts=list(x1=contr.sum)), type=3) # Datensatz 2 data2$x1 <- as.factor(data2$x1) Anova(lm(~X1*x2, data=data2, contrasts=list(x1=contr.sum)), type=3) # Datensatz 3 data3$x1 <- as.factor(data3$x1) Anova(lm(~X1*x2, data=data3, contrasts=list(x1=contr.sum)), type=3) Ergebnisse Datensatz 1 (Intercept) < 2.2e-16 *** X e-05 *** x *** X1:x * Residuals Datensatz 2 (Intercept) < 2.2e-16 *** X x *** X1:x * Residuals Datensatz 3 (Intercept) < 2e-16 *** X x * X1:x * Residuals " 6.3 Multiple Regression mit intervallskalierten Prädiktoren Der Regressionskoeffizient für die Interaktion ändert nicht, wenn entweder +B 3. X 2 und/oder +B 3. X 1 additiv um einen konstanten Wert erhöht oder verringert werden und die Residuen gleich bleiben (vgl. Folie 31). # Datensätze # Datensatz 1 X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data1 <- data.frame(x1, X2, ) # Mittelwertzentrierte Prädiktoren data1$x1 <- data1$x1 - mean(data1$x1) data1$x2 <- data1$x2 - mean(data1$x2) # Interaktionsterm data1$x1.x2 <- data1$x1*data1$x2 # Datensatz 2 X2 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) X1 <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) <- c( , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , , ) data1 <- data.frame(x1, X2, ) # Mittelwertzentrierte Prädiktoren data2$x1 <- data2$x1 - mean(data2$x1) data2$x2 <- data2$x2 - mean(data2$x2) # Interaktionsterm data2$x1.x2 <- data2$x1*data1$x2 30"
16 Veränderung von Datensatz 1 zu 2: +B 3. X 1 wird um 0.7 verringert, die Residuen bleiben gleich. Die Linien sind Regressionsgeraden für den Zusammenhang zwischen X 2 und gegeben X 1 und den Zusammenhang zwischen X 1 und gegeben X 2. Zusätzlich sind die Regressionskoeffizienten für X 1 gegeben X 2 und X 2 gegeben X 1 angegeben. Datensatz 1 Datensatz 2 +B 3. X 1 +B 3. X 2 +B 3. X 2 X 2 mittelwertzentriert X 2 mittelwertzentriert 31" Multiple Regressionen # Datensatz 1 summary(lm(~x1+x2+x1.x2, data1)) # Datensatz 2 summary(lm(~x1+x2+x1.x2, data2)) Ergebnisse Datensatz 1 Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** x ** x * x1.x e-08 *** Datensatz 2 Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) < 2e-16 *** x ** x < 2e-16 *** x1.x e-08 *** 32"
Tutorial: Regression Output von R
Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen
MehrVersuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann
Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Contents Aufgabe 1 1 b) Schätzer................................................. 3 c) Residuenquadratsummen........................................
MehrLineare Modelle in R: Einweg-Varianzanalyse
Lineare Modelle in R: Einweg-Varianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon in der Vorlesung wollen wir hier zur Illustration der Einweg-Analyse die logarithmierten Ausgaben der
MehrV A R I A N Z A N A L Y S E
V A R I A N Z A N A L Y S E Ziel / Funktion: statistische Beurteilung des Einflusses von nominal skalierten (kategorialen) Faktoren auf intervallskalierte abhängige Variablen Vorteil: die Wirkung von mehreren,
MehrAllgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse
Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Univariate Varianz- und Kovarianzanlyse, Multivariate Varianzanalyse und Varianzanalyse mit Messwiederholung finden sich unter
MehrRegression mit Faktoren, Interaktionen und transformierten Variablen
Kap. 5: Regression mit Faktoren, Interaktionen und transformierten Variablen Motivation Regressionen mit transformierten Variablen Ausblick: Nichtlineare Regression Mehr zu Regressionen mit qualitativen
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
MehrVorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13
Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Grundidee: Eine abhängige Variable soll als Linearkombination mehrerer unabhängiger
MehrLösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die
Statistik für Kommunikationswissenschaftler Wintersemester 2010/2011 Vorlesung Prof. Dr. Nicole Krämer Übung Nicole Krämer, Cornelia Oberhauser, Monia Mahling Lösung Thema 9 Homepage zur Veranstaltung:
MehrKlausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik
Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:
MehrEtwas positive Tendenz ist beim Wechsel der Temperatur von 120 auf 170 zu erkennen.
Explorative Datenanalyse Erstmal die Grafiken: Aufreisskraft und Temperatur 3 1-1 N = 1 15 17 Temperatur Diagramm 3 1 95% CI -1 N = 1 15 17 Temperatur Etwas positive Tendenz ist beim Wechsel der Temperatur
MehrKapitel 4: Binäre Regression
Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,
MehrVarianzanalyse * (1) Varianzanalyse (2)
Varianzanalyse * (1) Einfaktorielle Varianzanalyse (I) Die Varianzanalyse (ANOVA = ANalysis Of VAriance) wird benutzt, um Unterschiede zwischen Mittelwerten von drei oder mehr Stichproben auf Signifikanz
MehrKapitel 3: Interpretationen
Kapitel 3: 1. Interpretation von Outputs allgemein... 1 2. Interpretation von Signifikanzen... 1 2.1. Signifikanztests / Punktschätzer... 1 2.2. Konfidenzintervalle... 2 3. Interpretation von Parametern...
MehrMultivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167
Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine
MehrSPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben
SPSS V Gruppenvergleiche ( 2 Gruppen) abhängige (verbundene) Stichproben ÜBERSICHT: Testverfahren bei abhängigen (verbundenen) Stichproben parametrisch nicht-parametrisch 2 Gruppen t-test bei verbundenen
MehrAusgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS (ab V. 11.0)
Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische e Lösung von Grundaufgaben mit SPSS (ab V..0) Text: akmv_v.doc Daten: akmv??.sav Lehrbuch: W. Timischl, Biostatistik. Wien - New York:
MehrVS PLUS
VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN
MehrLösung zu Kapitel 11: Beispiel 1
Lösung zu Kapitel 11: Beispiel 1 Eine Untersuchung bei 253 Personen zur Kundenzufriedenheit mit einer Einzelhandelskette im Südosten der USA enthält Variablen mit sozialstatistischen Daten der befragten
MehrAusgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS Statistics 20.0
1 Ausgewählte Kapitel der Statistik: Regressions- u. varianzanalytische Modelle Lösung von Grundaufgaben mit SPSS Statistics 20.0 Text: grund1_spss20.doc Daten: grund1_?.sav Lehrbuch: W. Timischl, Biostatistik.
MehrSozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS
Sommersemester 2009 Statistik mit SPSS 15. Mai 2009 15. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Überblick 1. Korrelation vs. Regression 2. Ziele der Regressionsanalyse 3. Syntax für
MehrWeitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell
Einfaktorielle Versuchspläne 27/40 Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Abweichung Einfach Differenz Helmert Wiederholt Vergleich Jede Gruppe mit Gesamtmittelwert
Mehr1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen
Modelle mit Interationsvariablen I Modelle mit Interationsvariablen II In der beim White-Test verwendeten Regressionsfuntion y = β 0 + β 1 x 1 + β 2 x 2 + β 3 x 2 1 + β 4 x 2 2 + β 5 x 1 x 2, ist anders
MehrLineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA)
Interdisziplinäres Seminar Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) WS 2008/09 19.11.2008 Julia Schiele und Lucie Wink Dozenten: Prof. Dr. Bühner, Prof. Dr. Küchenhoff
MehrWebergänzung zu Kapitel 10
Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder
MehrLog-lineare Analyse I
1 Log-lineare Analyse I Einleitung Die log-lineare Analysemethode wurde von L.A. Goodman in den 60er und 70er Jahren entwickelt. Sie dient zur Analyse von Zusammenhängen in mehrdimensionalen Kontingenztafeln
MehrAnalysis of Variance (ANOVA) in R
Analysis of Variance (ANOVA) in R Jens Schumacher June 21, 2007 Die Varianzanalyse ist ein sehr allgemeines Verfahren zur statistischen Bewertung von Mittelwertunterschieden zwischen mehr als zwei Gruppen.
MehrKapitel 4: Merkmalszusammenhänge
Kapitel 4: Merkmalszusammenhänge Streudiagramme 1 Korrelationen 3 Lineare Regression 6 Zusammenhang zwischen Korrelation, Regression und t-test 8 Streudiagramme SPSS bietet die Möglichkeit, verschiedene
MehrVarianzanalyse (ANOVA: analysis of variance)
Varianzanalyse (AOVA: analysis of variance) Einfaktorielle VA Auf der Basis von zwei Stichproben wird bezüglich der Gleichheit der Mittelwerte getestet. Variablen müssen Variablen nur nominalskaliert sein.
MehrTeil II: Einführung in die Statistik
Teil II: Einführung in die Statistik (50 Punkte) Bitte beantworten Sie ALLE Fragen. Es handelt sich um multiple choice Fragen. Sie müssen die exakte Antwortmöglichkeit angeben, um die volle Punktzahl zu
MehrKorrelation - Regression. Berghold, IMI
Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines
Mehr10. Übung (Korrelation und lineare Regressionsanalyse)
10. Übung (Korrelation und lineare Regressionsanalyse) Es wird untersucht, ob ein linearer Zusammenhang zwischen zwei Variablen besteht. Mit anderen Worten: ob ein solcher Zusammenhang gibt, wenn der beobachteter
MehrStatistik Einführung // Lineare Regression 9 p.2/72
Statistik Einführung Lineare Regression Kapitel 9 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Ledold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Lineare Regression
Mehr3.3 Das allgemeine lineare Modell (ALM), Methode der kleinsten Quadrate
31 und 31 und (), Methode der 33 Das allgemeine (), Methode der kleinsten Quadrate 37 Modelle mit Messwiederholungen 1 / 113 Eine grundsätzliche Bemerkung zu Beginn Es bestehen viele Ähnlichkeiten zwischen
MehrMultiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)
Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang
MehrAuswertung mit dem Statistikprogramm SPSS: 30.11.05
Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Seite 1 Einführung SPSS Was ist eine Fragestellung? Beispiel Welche statistische Prozedur gehört zu welcher Hypothese? Statistische Berechnungen mit
MehrDie Varianzanalyse ohne Messwiederholung. Jonathan Harrington. Bi8e noch einmal datasets.zip laden
Die Varianzanalyse ohne Messwiederholung Jonathan Harrington Bi8e noch einmal datasets.zip laden Variablen, Faktoren, Stufen Eine Varianzanalyse ist die Erweiterung von einem t- test t- test oder ANOVA
MehrFortgeschrittene Statistik Logistische Regression
Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E
MehrVersuchsplanung. Inhalt. Grundlagen. Faktor-Effekt. Allgemeine faktorielle Versuchspläne. Zweiwertige faktorielle Versuchspläne
Inhalt Versuchsplanung Faktorielle Versuchspläne Dr. Tobias Kiesling Allgemeine faktorielle Versuchspläne Faktorielle Versuchspläne mit zwei Faktoren Erweiterungen Zweiwertige
Mehrfh management, communication & it Constantin von Craushaar fh-management, communication & it Statistik Angewandte Statistik
fh management, communication & it Folie 1 Angewandte Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines einfachen Beispieles Häufigkeitsauswertungen Grafiken Datenmanipulationen
MehrKapitel 4: Merkmalszusammenhänge
Kapitel 4: Merkmalszusammenhänge Streudiagramme SPSS bietet die Möglichkeit, verschiedene Arten von Streudiagrammen zu zeichnen. Gehen Sie auf Grafiken Streu-/Punkt-Diagramm und wählen Sie die Option Einfaches
MehrVarianzanalyse. Seminar: Multivariate Verfahren Dr. Thomas Schäfer. Datum: 25. Mai 2010
Varianzanalyse Seminar: Multivariate Verfahren Dozent: Dr. Thomas Schäfer Referenten: Ralf Hopp, Michaela Haase, Tina Giska Datum: 25. Mai 2010 Gliederung I Theorieteil 1. Das Prinzip der Varianzanalyse
MehrBivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154
Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch
MehrGrundlagen Statistik Angewandte Statistik 3. Semester
Angewandte Statistik 3. Semester Zur Person Constantin von Craushaar Consultant / Partner Innstat e.u. (www.innstat.com) info@innstat.com Grundlagen der Statistik Übersicht Semester 1 Einführung ins SPSS
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrWillkommen zur Vorlesung Statistik
Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang
Mehrfh management, communication & it Constantin von Craushaar FH-management, communication & it Statistik Angewandte Statistik
fh management, communication & it Folie 1 Angewandte Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines einfachen Beispieles Häufigkeitsauswertungen Grafiken Datenmanipulationen
MehrMusterlösung zu Serie 14
Dr. Lukas Meier Statistik und Wahrscheinlichkeitsrechnung FS 21 Musterlösung zu Serie 14 1. Der Datensatz von Forbes zeigt Messungen von Siedepunkt (in F) und Luftdruck (in inches of mercury) an verschiedenen
MehrAnalyse von Querschnittsdaten. Regression mit Dummy-Variablen
Analyse von Querschnittsdaten Regression mit Dummy-Variablen Warum geht es in den folgenden Sitzungen? Datum Vorlesung 9.0.05 Einführung 26.0.05 Beispiele 02..05 Forschungsdesigns & Datenstrukturen 09..05
MehrBeispiel für eine multivariate Varianzanalyse (MANOVA) Daten: POKIV_Terror_V12.sav
Beispiel für eine multivariate Varianzanalyse () Daten: POKIV_Terror_V12.sav Es soll überprüft werden, inwieweit das ATB-Syndrom (Angst vor mit den drei Subskalen affektive Angst von, Terrorpersistenz,
MehrHypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav
Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Hypothese: Die Beschäftigung mit Kunst ist vom Bildungsgrad abhängig. 1. Annahmen Messniveau: Modell: Die Skala zur Erfassung der
MehrStatistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz
Statistische Versuchsplanung - zuverlässiger und schneller zu Ergebnissen" Dr. Uwe Waschatz Inhalt Problembeschreibung Multiple lineare Regressionsanalyse Statistische Versuchsplanung / Design of Experiments
MehrWeitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression
Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Speziell im Zusammenhang mit der Ablehnung der Globalhypothese werden bei einer linearen Einfachregression weitere Fragestellungen
MehrModul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.
Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes
MehrStatistik I. Übungklausur. Prof. Dr. H. Toutenburg
Statistik I Übungklausur Prof. Dr. H. Toutenburg Hinweis: Die Zeitangaben sollen Ihnen aufzeigen wieviel Zeit Ihnen für eine Aufgabe von gewissem Umfang eingeräumt wird. Die Punktzahlen für die einzelnen
MehrI Einführung 1. 1 Über den Umgang mit Statistik 3
I Einführung 1 1 Über den Umgang mit Statistik 3 1.1 Statistik richtig lehren und lernen 3 1.2 Testergebnisse richtig interpretieren 6 1.3 Einfluss des Zufalls 8 1.4 Die Interpretation von Zusammenhängen
MehrConstantin von Craushaar FH-Management & IT Statistik Angewandte Statistik (Übungen) Folie 1
FHManagement & IT Folie 1 Angewandte Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines einfachen Beispieles Häufigkeitsauswertungen Grafiken Datenmanipulationen Mehrfachantworten
MehrName (in Druckbuchstaben): Matrikelnummer: Unterschrift:
20-minütige Klausur zur Vorlesung Lineare Modelle im Sommersemester 20 PD Dr. Christian Heumann Ludwig-Maximilians-Universität München, Institut für Statistik 2. Oktober 20, 4:5 6:5 Uhr Überprüfen Sie
MehrFormale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung
Übung Formale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung BACHELOR FT 2013 (HSU) Übung Emp. WiFo FT 2013 1 / 1 Maßzahlen für den Zusammenhang zwischen Merkmalen Kontingenztabelle:
MehrProf. Dr. Karl-Werner Hansmann
Die Gelddruck-Maschine der Notenbanken ist für die Bekämpfung der Arbeitslosigkeit ungeeignet. von Prof. Dr. Karl-Werner Hansmann Universität Hamburg Vortrag beim Academic Network der Roland Berger School
MehrChristian FG Schendera. Regressionsanalyse. mit SPSS. 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG
Christian FG Schendera Regressionsanalyse mit SPSS 2. korrigierte und aktualisierte Auflage DE GRUYTER OLDENBOURG Inhalt Vorworte V 1 Korrelation 1 1.1 Einführung 1 1.2 Erste Voraussetzung: Das Skalenniveau
MehrBiostatistik Erne Einfuhrung fur Biowissenschaftler
Matthias Rudolf Wiltrud Kuhlisch Biostatistik Erne Einfuhrung fur Biowissenschaftler PEARSON Studium Inhaltsverzeichnis Vorwort xi Kapitel 1 Einfiihrung 1 1.1 Biostatistik als Bestandteil biowissenschafllicher
MehrKapitel 7: Varianzanalyse mit Messwiederholung
Kapitel 7: Varianzanalyse mit Messwiederholung Durchführung einer einfaktoriellen Varianzanalyse mit Messwiederholung 1 Durchführung einer zweifaktoriellen Varianzanalyse mit Messwiederholung auf einem
MehrStatistik für Psychologen und Sozialwissenschaftler
Markus Bühner Matthias Ziegler Statistik für Psychologen und Sozialwissenschaftler Mit über 480 Abbildungen PEARSON Studium Ein Imprint von Pearson Education München Boston San Francisco Harlow, England
MehrInferenzstatistik Vergleich mehrerer Stichproben - Varianzanalyse
Vergleich mehrerer Stichproben - Varianzanalyse Zweifache VA mit hierarchischen Faktoren Voraussetzungen zwei unabhängige Variablen (Faktoren), die unabhängige Gruppen definiert zweite Faktor ist innerhalb
MehrNichtparametrische statistische Verfahren
Nichtparametrische statistische Verfahren (im Wesentlichen Analyse von Abhängigkeiten) Kategorien von nichtparametrischen Methoden Beispiel für Rangsummentests: Wilcoxon-Test / U-Test Varianzanalysen 1-faktorielle
MehrIm Modell der Varianzanalyse (mit festen Effekten) ist das. aus dem Durchschnittsmesswert für y plus dem Effekt des.
Einfatorielle Varianzanalyse Varianzanalyse untersucht den Einfluss verschiedener Bedingungen ( = nominalsalierte(r) Variable(r)) auf eine metrische Variable. Die Bedingungen heißen auch atoren und ihre
MehrMethodik der multiplen linearen Regression
Methodik der multiplen linearen Regression Sibel Aydemir Statistisches Amt, Direktorium Landeshauptstadt München Name, Stadt Regressionsanalyse: Schritt für Schritt Schritt 1 Schritt 2 Schritt 3 Schritt
MehrInhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1
Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...
MehrRegressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )
Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels
MehrInstitut für Soziologie Benjamin Gedon. Methoden 2. Regressionsanalyse IV: Transformation und Interaktion
Institut für Soziologie Methoden 2 Regressionsanalyse IV: Transformation und Interaktion Inhalt 1. Zusammenfassung letzte Sitzung 2. Weitere Annahmen und Diagnostik 3. Transformationen zur besseren Interpretierbarkeit
Mehr(2) Mittels welcher Methode ist es im ALM möglich kategoriale Variablen als Prädiktoren in eine Regressionsgleichung zu überführen?
Beispielaufgaben LÖSUNG (1) Grenzen Sie eine einfache lineare Regression von einem Random Intercept Modell mit nur einem Level1-Prädiktor ab! a. Worin unterscheiden sich die Voraussetzungen? - MLM braucht
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
Mehr2.Tutorium Generalisierte Regression
2.Tutorium Generalisierte Regression - Binäre Regression - Moritz Berger: 04.11.2013 und 11.11.2013 Shuai Shao: 06.11.2013 und 13.11.2013 Institut für Statistik, LMU München 1 / 16 Gliederung 1 Erweiterte
MehrAufgaben zu Kapitel 7:
Aufgaben zu Kapitel 7: Aufgabe 1: In einer Klinik sollen zwei verschiedene Therapiemethoden miteinander verglichen werden. Zur Messung des Therapieerfolges werden die vorhandenen Symptome einmal vor Beginn
MehrUnsystematische Störvariablen
wirken auf AV, variieren aber nicht mit UV haben keinen Einfluss auf Unterschiede zwischen den Bedingungen Unsystematische Störvariablen (Eid, Gollwitzer & Schmitt, 2010, S. 56f) Es gibt individuelle Unterschiede
MehrGrundlagen der Datenanalyse am Beispiel von SPSS
Grundlagen der Datenanalyse am Beispiel von SPSS Einführung Dipl. - Psych. Fabian Hölzenbein hoelzenbein@psychologie.uni-freiburg.de Einführung Organisatorisches Was ist Empirie? Was ist Statistik? Dateneingabe
Mehr(GENERAL FULL FACTORIALS)
TQU BUSINESS GMBH VOLLFAKTORIELLE VERSUCHSPLÄNE (GENERAL FULL FACTORIALS) Lernziele Sie können vollfaktorielle Versuchspläne auf und mehr Stufen erstellen. Sie kennen Haupteffekte und Wechselwirkungen
MehrInhaltsverzeichnis. Vorwort 1. Kapitel 1 Einführung 3. Kapitel 2 Messtheorie und deskriptive Statistik 13
Inhaltsverzeichnis Vorwort 1 Kapitel 1 Einführung 3 1.1 Ziele... 4 1.2 Messtheorie und deskriptive Statistik... 8 1.3 Grundlagen der Wahrscheinlichkeitsrechnung... 9 1.4 Inferenzstatistik... 9 1.5 Parametrische
MehrKapitel 5 FRAGESTELLUNG 1. Öffne die Datei alctobac.sav.
Kapitel 5 FRAGESTELLUNG 1 Öffne die Datei alctobac.sav. Zuerst werden wir ein Streudiagramm erstellen, um einen grafischen Überblick von diesem Datensatz zu erhalten. Gehe dazu auf Grafiken / Streudiagramm
Mehr4 Binäre Regressionsmodelle, Folien 2
4 Binäre Regressionsmodelle, Folien 2 Ludwig Bothmann (basierend auf Unterlagen von Nora Fenske) Statistik III für Nebenfachstudierende WS 2014/2015 4.5 Hypothesentests Lineare Hypothesen Betrachtet werden
Mehr15 Mehr-Weg-Varianzanalyse (Für SPSS 6.x)
Janssen/Laatz: Ergänzung aus früheren Auflagen 15 Mehr-Weg-Varianzanalyse (Für SPSS 6.x) Die Mehr-Weg-Varianzanalyse unterscheidet sich von der Ein-Weg-Varianzanalyse dadurch, daß nicht ein, sondern zwei
MehrAngewandte Statistik 3. Semester
Angewandte Statistik 3. Semester Übung 5 Grundlagen der Statistik Übersicht Semester 1 Einführung ins SPSS Auswertung im SPSS anhand eines Beispieles Häufigkeitsauswertungen Grafiken Statistische Grundlagen
MehrVarianzanalytische Methoden Zweifaktorielle Versuchspläne 4/13. Durchführung in SPSS (File Trait Angst.sav)
Zweifaktorielle Versuchspläne 4/13 Durchführung in SPSS (File Trait Angst.sav) Analysieren > Allgemeines Lineares Modell > Univariat Zweifaktorielle Versuchspläne 5/13 Haupteffekte Geschlecht und Gruppe
MehrDie Varianzanalyse. Analysis of Variance (ANOVA) Jonathan Harrington
Die Varianzanalyse Analysis of Variance (ANOVA) Jonathan Harrington path = "Verzeichnis wo Sie anova1 gespeichert haben" attach(paste(path, "anova1", sep="/")) Variablen, Faktoren, Ebenen Faktoren oder
MehrSonderanhang: Manuelle Berechnungen der Statistikaufgaben
Albert/Marx 04: Empirisches Arbeiten Sonderanhang: Manuelle Berechnungen der Statistikaufgaben Kaum jemand führt heutzutage statistische Berechnungen noch von Hand durch, weil es sehr viele Computerprogramme
MehrBIOL, HST HS 2014 Dr. M. Kalisch. MC-Quiz 1. Einsendeschluss: Dienstag, der :59 Uhr
BIOL, HST HS 2014 Dr. M. Kalisch MC-Quiz 1 Einsendeschluss: Dienstag, der 23.09.2014 23:59 Uhr Dieses Quiz soll Ihnen helfen, die Regression mit Faktoren und Wechselwirkungen besser zu verstehen. Zum Teil
MehrMehrebenenanalyse. Seminar: Multivariate Analysemethoden Referentinnen: Barbara Wulfken, Iris Koch & Laura Früh
Mehrebenenanalyse Seminar: Multivariate Analysemethoden Referentinnen: Barbara Wulfken, Iris Koch & Laura Früh Inhalt } Einführung } Fragestellung } Das Programm HLM } Mögliche Modelle } Nullmodell } Random
MehrÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II
ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II 1.1 Durch welche Elemente lässt sich laut der Formel für die multiple Regression der Wert einer Person auf einer bestimmten abhängigen Variable Y vorhersagen? a)
Mehr6.1 Grundbegriffe und historischer Hintergrund
Kapitel 6 Regression 61 Grundbegriffe und historischer Hintergrund Bedeutung der Regression: Eines der am häufigsten verwendeten statistischen Verfahren Vielfache Anwendung in den Sozialwissenschaften
MehrMarketing III - Angewandte Marktforschung (SS 2016)
TECHNISCHE UNIVERSITÄT ILMENAU Fakultät für Wirtschaftswissenschaften und Medien Fachgebiet Marketing Univ.-Prof. Dr. rer. pol. habil. Anja Geigenmüller Marketing III - Angewandte Marktforschung (SS 2016)
MehrEinfache statistische Auswertungen mit dem Programm SPSS
Einfache statistische Auswertungen mit dem Programm SPSS Datensatz: fiktive_daten.sav Dipl. Päd. Anne Haßelkus Dr. Dorothea Dette-Hagenmeyer 11/2011 Überblick 1 Deskriptive Statistiken; Mittelwert berechnen...
MehrModul G.1 WS 07/08: Statistik 31.01.2008 1
Modul G.1 WS 07/08: Statistik 31.01.2008 1 Varianzanalyse Als Varianzanalyse bezeichnet man eine große Gruppe datenanalytischer und mustererkennender statistischer Verfahren, die zahlreiche unterschiedliche
Mehr