Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA)

Größe: px
Ab Seite anzeigen:

Download "Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA)"

Transkript

1 Interdisziplinäres Seminar Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) WS 2008/ Julia Schiele und Lucie Wink Dozenten: Prof. Dr. Bühner, Prof. Dr. Küchenhoff Inhaltsverzeichnis 1 Einführung 2 2 Pfadanalyse Einschub: lineare Regression Pfad- & und Regressionsanalyse Berechnung der Pfadkoeffizienten Mess- & Strukturmodell Messmodell Strukturmodell Lineare Strukturgleichungsmodelle korrelierte Fehler Identifikation Unteridentifikation Gerade identifizierte Modelle Überidentifikation Metrik Konfirmatorische Faktorenanalyse - CFA Grundstruktur der EFA & CFA Nachteile Explorative Faktorenanalyse

2 5.3 CFA - Modell Richtlinien Zusammenhang zw. beobachteter Kovarianzmatrix & Modellparametern Zusammenfassung Schritte der Modellierung einer CFA Literatur 15 1 Einführung Lineare Strukturgleichungsmodelle sind auch unter dem Namen LISREL, als Linear Structural Relationships, bekannt. Es handelt sich dabei um ein Allgemeines Modell zur Analyse eines Systems linearer Strukturgleichungsmodelle. Entwickelt wurden diese erstmalig 1973 von Jöreskog und Sörbom. Ein LISREL ist zweigeteilt und besteht aus Mess- & Strukturmodell. Inzwischen wurden einige Pakete in verschieden Programmen implementiert, zb AMOS (SPSS), Pro Calis (SAS), Pakte LISREL, SEM (R). Lineare Strukturgleichungsmodelle kombinieren Ideen der Faktorenanalyse (in den Messmodellen) mit den Methoden der Pfadanalyse (im Strukturmodell). Konfirmatorische Faktorenanalysen (CFAs) sind eine Methode LISRELs anzuwenden. Zunächst wird deshalb die Methodik der LISRELs erklärt, die dann auch für die CFA übernommen werden kann. Nachdem die Faktorenanalyse in den vorherigen Seminarstunden schon behandelt wurde, gehen wir nun zunächst auf die eben erwähnte Pfadanalyse, also dem Grundkonzept des Strukturmodells, ein. 2 Pfadanalyse Die Pfadanalyse kann als Erweiterung der multiplen Korrelations- und Regressionsanalyse angesehen werden. Sie enthält nur manifeste Variablen (z.b. Items), jedoch keine latenten Variablen. Das zu prüfende Modell wird vom 2

3 Anwender vorgegeben. Das Modell enthält also Beziehungen zwischen manifesten Variablen, deren Pfade ermittelt werden. Dabei werden die folgende Effekte unterschieden: direkter Effekt: zwischen Variablen indirekter Effekt: über vermittelnde Variablen (Mediator) totaler Effekt: Summe aller direkten und indirekten Effekte Nun soll auf die graphische Darstellung einer Pfadanalyse eingegangen werden. Pfade stehen für einen gerichteten Zusammenhang & stellen i.d.r. partielle standardisierte Regressionsgewichte dar Korrelationen bzw. Kovarianzen Boxen stehen für manifeste Variablen Zwischen X und Y besteht also eine Korrelation, X und Y beeinflussen beide Z. Zu beachten ist der Störterm ε 3, der die Effekte beeinflusst, denn es bleibt immer ein Varianzanteil übrig, der durch die Items nicht erklärt werden kann. 3

4 2.1 Einschub: lineare Regression Da es sich bei der Pfadanalyse, wie schon erwähnt, um eine Erweiterung der Regressionsanalyse handelt, hier eine kurze Wiederholung des einfaches linearen Regressionsmodells Y i = β 0 + x i β 1 + ε i i = 1,..., n Es gelten dabei folgende Annahmen: E(ε i ) = 0 V ar(ε i ) = σ 2 {ε i i = 1,..., n} stoch. unabhängig ε i normalverteilt Analog sieht das multiple lineare Regressionsmodell folgendermaßen aus: Y i = β 0 + x i1 β x ip β p + ε i Die Annahmen sind dabei i = 1,..., n E(ε i ) = 0 E(ε) = 0 V ar(ε i ) = σ 2 V ar(ε) = σ 2 I {ε i i = 1,..., n} stoch. unabhängig ε i und ε normalverteilt 4

5 2.2 Pfad- & und Regressionsanalyse Die Unterschiede zwischen Regressions- & Pfadanalyse sind: Bei der Pfadanalyse handelt es sich um ein kausalanalytisches Modell, welches Zusammenhänge zwischen unabhängigen Variablen zulässt. Bei der Regressionsanalyse wirken unabhängige Variablen auf abhängige. Somit lässt sich die Regressionsanalyse als Spezialfall der Pfadanalyse betrachten. Die Nachteile der Regressionsanalyse sind zum einen, dass sie oftmals als Ziel ein hohes Bestimmtheitsmaß R 2 haben und zum andereren die Gefahren wie Scheinkorrelation und Multikollinearität mit sich bringen. Unter Scheinkorrelation versteht man einen statistisch gemessenen Zusammenhang zwischen zwei Variablen, welcher nur auftritt, wenn die Variablen systematisch von einer dritten Variablen abhängen. Multikollinearität bedeutet eine wechselseitige Abhängigkeit von unabhängigen Variablen in einem statistischen Modell. Die Vorteile der Pfadanalyse sind, dass mehr theoretisches Vorverständnis benötigt wird, wodurch es zur Komplexitätszunahme kommt. Voraussetzungen für Pfadanalyse sind zum einen kausale Zusammenhänge, additive & lineare Beziehungen zwischen beteiligten Variablen und die dass die Residuen normalverteilt sein müssen, was auch den Voraussetzungen einer Regressionsanalyse entspricht. 2.3 Berechnung der Pfadkoeffizienten Die Pfadkoeffizienten entsprechen ˆβ, dh. partiellen Regressionsgewichten. Die Berechnung der Pfade, also den direkten Effekten, erfolgt über Korrelationen, siehe folgendes Beispiel. 5

6 Seien die Korrelation r XY =.2, r XZ =.4 und r Y Z =.45, so folgt aus r XY = a, r XZ = b+(a c) und r Y Z = c+(a b) ein lineares Gleichungssystem mit den Lösungen a =.2, b =.323, und c =.385. Anhand des konkreten Beispiels, wie Motivation und Intelligenz den Schulerfolg beeinflussen, soll nun auf die Berechnung der indirekten und totalen Effekte eingegangen werden. Als direkte Effekte werden hierbei a de,ms = β 1 =.2, a de,is = β 2 =.4 und a de,mi = β 3 =.3 angenommen. Die indirekten Effekte werden durch Multiplikation der Pfadkoeffizienten berechnet. Motivation hat nicht nur einen direkten Effekt, sondern auch über die Intelligenz als Mediatorvariable einen indirekten Effekt auf Schulerfolg..4.3 =.12 β 2 β 3 Der totale Effekt von Motivation auf Schulerfolg errechnet sich über die Summe des direkten und des indirekten Effekts =.32 6

7 β 1 + (β 2 β 3 ). Im bivariaten Fall entsprechen die Pfadkoeffizienten nicht nur den partiellen Regressionsgewichten, sondern auch den Korrelationskoeffizienten. Dies sei anhand des Datensatzes Lesen gezeigt, hierbei wurde die Fehleranzahl beim Lesen eines Textes von Schülern untersucht. Bei der Betrachtung des einfachen linearen Modells F ehlerzahl i = β 0 + W ieoftlesen β 1 + ε i lässt sich sofort erkennen, dass der Korrelationskoeffizient nach Pearson r sp = zwischen der abhängigen Variable F ehlerzahl und der unabhängigen Variable W ieoftlesen gleich dem geschätzten β 1 = ist. > cor(cbind( Fehlerzahl, Geschlecht, WieOftLesen)) Fehlerzahl Geschlecht WieOftLesen Fehlerzahl WieOftLesen > summary(lm(fz_s~wieoftlesen)) Call: lm(formula = FZ_s ~ WieOftLesen) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) 1.453e e e-15 1 WieOftLesen 3.428e e e-06 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 178 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 178 DF, p-value: 2.466e-06 7

8 3 Mess- & Strukturmodell Nachdem die Theorie der Pfadanalyse erläutert wurde, soll nun näher auf lineare Strukturgleichungsmodelle eingegangen werden. Diese bestehen aus Mess- und Strukturmodellen. Ein erstes Messmodell wäre beispielsweise anhand des NEO-FFI zur Erklärung der latenten Variablen Neurotizimus (ξ 1 ). Ein zweites Messmodell wäre hier zur Erklärung der latenten Variable Extraversion (η 1 ). Ein mögliches Strukturmodell könnte der Fragestellung nachgehen, ob Neurotizimus als unabhängige Variable Einfluss auf Extraversion hat, die nun als abhängige Variable betrachtet wird. Insgesamt beschreibt dies ein lineares Strukturgleichungsmodell. Wenn dieses nun auf seine Übereinstimmung mit der Beobachtung getestet wird, handelt es sich um eine konfirmatorische Faktorenanalyse; diese wird später ausführlicher behandelt. Zum besseren Verständnis der nun folgenden Gleichungen führen wir hier eine einheitliche Notation ein: y: beobachtbare abh. Variable x: beobachtbare unabh. Variable η: latente abh. Variable ξ: latente unabh. Variable ε: Fehlerterm der abh. Variable δ: Fehlerterm der unabh. Variable ζ: Fehlerterm im Strukturmodell 8

9 Λ y : Ladungsmatrix (Regressionsparameter der Reg von y auf η) Λ x : Ladungsmatrix (Regressionsparameter der Reg von x auf ξ) 3.1 Messmodell Nun zu den Teilmodellen eines LISREL: Ein Messmodell spezifiziert, welche Items von welchen latenten Variablen beeinflusst werden mit der Modellgleichung x = Λ x ξ + ε und den Annahmen E(ε) = 0 und es handelt sich um zentrierte Werte (xi x) bzw. z-standardisierte Werte x i x, wodurch der Intercept entfällt; mit S = P (xi x) 2 n 1. Im Detail ist ein Messmodell folgendermaßen aufgebaut: S Die Korrelation zwischen x 1 und x 2 wird auf auf gemeinsame latente Variable (Faktor) zurückgeführt. Item x 1 wäre beispielsweise im NEO-FFI N6, x 2 N26 der latenten Variable Neurotizimus (ξ). Die Fehlerterme ε i stehen für den nicht durch latente Variable erklärten Varianzanteil. 3.2 Strukturmodell Ein Strukturmodell spezifiziert die Beziehungen der latenten Variablen untereinander. Das Modell lautet η = γ ξ + ζ 9

10 Wie oben schon erwähnt, könnte die unabhängige latente Variable hier Neurotizimus und die latente abhängige Variable Extraverion sein. Der Fehlerterm ζ steht für den nicht durch die unabhängige latente Variable (Neurotizimus) erklärten Varianzanteil. 3.3 Lineare Strukturgleichungsmodelle Lineare Strukturgleichungsmodelle implizieren eine spezifische Zusammenhangsstruktur zwischen den beobachteten Variablen. Die Schätzung der Modellparameter soll diese implizite Struktur mit der beobachteten Kovarianzstruktur in Übereinstimmung bringen. 3.4 korrelierte Fehler In Strukturgleichungsmodellen ist es möglich, zwischen Residuen von latenten oder manifesten Variablen Zusammenhänge zuzulassen. Mit der Annahme, dass Cov(δ 3, δ 5 ) 0 ist, folgt dass die Items x 3 und x 5 höher korrelieren (a). Alternativ ist es möglich, ξ 3 als neue latente Variable hinzuzufügen, die inhaltlich Gemeinsames erklären soll (b). (a) (b) 10

11 4 Identifikation Nachdem die entsprechenden Gleichungen aufgestellt wurden, muss überprüft werden, ob das Modell identifizierbar ist. Das heißt, die Anzahl der Parameter, die in einem Modell geschätzt werden können, hängt von der Menge an empirischen Informationen ab, die für die Analyse zur Verfügung stehen. Wenn alle Parameter geschätzt werden können, ist das Modell identifiziert. Empirische Grundlage der Schätzungen sind die Varianzen und Kovarianzen der beobachtbaren Variablen. Zur Bestimmung der Anzahl der Parameter gilt die t-rule n(n + 1) 2 Zusätzlich gilt, dass jede latente Variable und jede Fehlervarianz eine Metrik aufweisen muss. 4.1 Unteridentifikation Es gibt drei unterschiedlichen Identifikationsarten. Wenn ein Modell mehr zu schätzende Parameter besitzt als beobachtete Korrelationen/Kovarianzen, dann ist es unteridentifiziert. Folglich gibt es viele mögliche Lösungen für die Parameterschätzung, wodurch keine eindeutige Schätzung möglich ist. Beispielweise die Gleichung a+b = 6 wobei a und b zu schätzen sind, 6 ist die beobachtete Variable. Dies ist nicht eindeutig lösbar, denn z.b. 2+4 = 6 und = 6 etc. Deshalb also weitere beobachtete Variable hinzufügen, z.b. a = 2. Dadurch gilt 2 + b = 6 und b = Gerade identifizierte Modelle Wenn ein Modell genau so viele zu schätzende Parameter besitzt wie beobachtete Korrelationen/Kovarianzen, dann ist es gerade identifiziert. Daher gilt es eine eindeutige Lösung (df = 0) Bsp. a + b = 6 und 2a + b = 10 a = 6 b 11

12 2(6 b) + b = b + b = 10 b = 2 und a = Überidentifikation Wenn ein Modell weniger zu schätzende Parameter besitzt als beobachtete Korrelationen/Kovarianzen, dann ist es überidentifiziert. Folglich gibt es nur eine näherungsweise Parameterschätzung (df > 0), eine Modellprüfung ist durch Test möglich. Bsp. a + b = 6, 2a + b = 10 und 3a + b = 12 Keine eindeutige Lösung, sondern nur Abschätzung a = 3 und b = 3.3 mit Fehler von (1. Gleichung), (2.Gleichung) und (3. Gleichung) 4.4 Metrik Wie bereits erwähnt, ist die zweite Voraussetzung für die Identifikation des Modells, dass jede latente Variable und jede Fehlervarianz eine Metrik aufweisen muss. Dies kann erfüllt werden durch Referenzvariable: Die Ladung einer manifesten auf eine latente Variable gleich 1 setzen, dabei ist Referenzvariable bester Indikator für latente Variable oder hohe Reliabilität. Eine andere Möglichkeit ist, da Fehlervariable latent, Pfad auf manifeste Variable auf 1 setzen oder die Varianz der latenten Variable auf 1 setzen. Dadurch ist die Signifikanz der Ladungen ermittelbar und es gilt Cov = Korr, da standardisiert. nächste Woche mehr! 12

13 5 Konfirmatorische Faktorenanalyse - CFA 5.1 Grundstruktur der EFA & CFA Bei der Explorativen Faktorenanalys (EFA) wird noch keine Modellgleichung aufgestellt und explorativ nach möglichen Faktoren gesucht. Im Gegensatz dazu steht bei der CFA im Vordergrund, ein bereits aufgestelltes Modell zu prüfen. Bei einer EFA werden zusätzlich Ladungen zu Items eines anderen Faktors zugelassen. explorative F aktorenanalyse konf irmatorische F aktorenanalyse 5.2 Nachteile Explorative Faktorenanalyse Die Nachteile der EFA sind, dass das Faktorenauswahlkriterium über Eigenwert > 1 gilt und dass die Ladungen 0 sein müssen. Es erlaubt keine korrelierten Störterme und eine Datenreduzierung wird angestrebt. Die Konfirmatorische Faktorenanalyse überwindet diese Probleme durch die Festlegung eines theoretischen Modells. 5.3 CFA - Modell Die Konfirmatorische Faktorenanalyse wird verwendet zur Überprüfung des Modells auf seine Güte, d.h. auf seine Übereinstimmung mit der empirischen Kovarianzmatrix durch Modelltest. Das Modell lautet x = Λ x ξ + δ Die Annahmen sind, dass E(δ) = 0 und E(ξδ ) = 0, Cov(ξ, δ) = 0 und δ = s + e mit s (Varianz) und e: (nicht spezifizierter Störterm). 13

14 Die Ladungen können als Regressionskoeffizienten betrachtet werden.. Dies bedeutet: Wenn sich ξ um eine Einheit ändert, ändert sich x um den Faktor λ (bei festem δ). 5.4 Richtlinien Allgemein soll für ein CFA gelten, dass mindestens 3 Items pro latente Variable und eine Stichprobengröße mit n = 200 vorliegen. Aus statistischer Sicht soll zusätzlich gelten, dass Beziehungen zwischen Variablen linear sind, die Additivität der Effekte gilt, die Variablen metrisch sind und die Daten durch Erwartungswerte, Varianzen & Kovarianzen erklärt werden. 5.5 Zusammenhang zw. beobachteter Kovarianzmatrix & Modellparametern Sobald ein Modell spezifiziert ist, können durch die beobachteten Varianzen und Kovarianzen die Modellparameter geschätzt werden mit Cov(x, ξ) = E(xx ) = E[(Λ x ξ + δ)(ξλ x + δ) ] = Λ x ΦΛ x + Θ δ wobei Φ = Cov(ξ, ξ) Kovarianzmatrix zwischen latenten Variablen und Θ δ = Cov(δ, δ) Kovarianzmatrix zwischen Störtermen. Nächste Schritte sind nun die Identifikation (wie bei LISREL) und die Parameterschätzung (siehe nächste Woche). Der Modelltest prüft, ob die berechnete Kovarianzmatrix von der beobachteten signifikant abweicht (siehe übernächste Woche). 14

15 6 Zusammenfassung Zusammenfassend lässt sich folgende Begriffe differenzieren: Ein Lineares Strukturmodell (LISREL) besteht aus einem Mess- und einem Strukturmodell. Ein Messmodell erklärt latente Variablen durch Items, ein Strukturmodell stellt die Beziehungen zwischen latenten Variablen dar. Die Konfirmatorische Faktorenanalyse überprüft die Übereinstimmung des Modells mit der empirischen Kovarianzmatrix durch einen Modelltest. 6.1 Schritte der Modellierung einer CFA Als Ausblick aber gleichzeitig auch als Praxisbezug sollen hier die Schritte der Modellierung einer CFA noch einmal dargestellt werden: 1. Aufstellen eines Strukturgleichungsmodell gemäß Hypothesen 2. Erheben der Daten 3. Berechnen der Varianz-/Kovarianzmatrix aus den Daten 4. Schätzung der Modellparameter 5. Beurteilung des Modells bzw. Vergleich mit Alternativmodell 6. ggf. Modellmodifikation 7 Literatur Literatur Bühner, M. (2004). Einführung in die Test- und Fragebogenkonstruktion. München: Pearson. Bühner, M. (2006). Einführung in die Test- und Fragebogenkonstruktion. München: Pearson. Bollen, KA. (1989). Structuralequationswithlatent variables. New York: Wiley. Leonhart, R. (2003). Lehrbuch Statistik: Einstieg und Vertiefung. Bern: Verlag Hans Huber. Howitt, D. & Cramer, D. (2005). Introduction to Statistics in Psychology. Pearson Prentice Hall. 15

Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA)

Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) Interdisziplinäres Seminar Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) WS 2008/09 19.11.2008 Julia Schiele und Lucie Wink Dozenten: Prof. Dr. Bühner, Prof. Dr. Küchenhoff

Mehr

Tutorial: Regression Output von R

Tutorial: Regression Output von R Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen

Mehr

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13 Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Grundidee: Eine abhängige Variable soll als Linearkombination mehrerer unabhängiger

Mehr

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)

Mehr

Variablen und Parameter in LISREL

Variablen und Parameter in LISREL Variablen und Parameter in LISREL 1 Konfirmatorische Faktorenanalyse: Pfaddiagramm Dieses Diagramm stellt den denkbar einfachsten Fall einer konfirmatorischen Faktorenanalyse dar. Empirisch sind Modelle

Mehr

Literatur: Rudolf & Müller, S Dr. Matthias Rudolf: M3 Multivariate Statistik Vorlesung Einführung SEM Folie Nr. 1

Literatur: Rudolf & Müller, S Dr. Matthias Rudolf: M3 Multivariate Statistik Vorlesung Einführung SEM Folie Nr. 1 1 Korrelation und Kausalität 2 Grundsätzliches 3 Pfaddiagramme und lineare Strukturgleichungen 4 Struktur- und Messmodell 5 Modellspezifikation 6 Parameterschätzungen 7 Beurteilung der Schätzergebnisse

Mehr

Forschungspraktikum Gruppenbezogene Menschenfeindlichkeit. 21. Juni 2007: Pfadanalyse und lineare Strukturgleichungsmodelle

Forschungspraktikum Gruppenbezogene Menschenfeindlichkeit. 21. Juni 2007: Pfadanalyse und lineare Strukturgleichungsmodelle Forschungspraktikum Gruppenbezogene Menschenfeindlichkeit 2. Juni 2007: Pfadanalyse und lineare Strukturgleichungsmodelle In vielen Untersuchungen soll eine komplexere Beziehungsstruktur untersucht werden.

Mehr

Methodik der multiplen linearen Regression

Methodik der multiplen linearen Regression Methodik der multiplen linearen Regression Sibel Aydemir Statistisches Amt, Direktorium Landeshauptstadt München Name, Stadt Regressionsanalyse: Schritt für Schritt Schritt 1 Schritt 2 Schritt 3 Schritt

Mehr

Biostatistik 101 Korrelation - Regressionsanalysen

Biostatistik 101 Korrelation - Regressionsanalysen Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander

Mehr

Bivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154

Bivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154 Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch

Mehr

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60

Mehr

TEIL 13: DIE EINFACHE LINEARE REGRESSION

TEIL 13: DIE EINFACHE LINEARE REGRESSION TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Konfirmatorische Faktorenanalyse

Konfirmatorische Faktorenanalyse Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable nicht direkt beobachtbare Größe die beobachtbare Variablen ( Indikatoren

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

Prognoseintervalle für y 0 gegeben x 0

Prognoseintervalle für y 0 gegeben x 0 10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen

Mehr

Konfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler

Konfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse

Mehr

Interdisziplinäres Seminar. Multivariate Statistik bei psychologischen Fragestellungen. Markus Bühner und Helmut Küchenhoff WS 2008/09

Interdisziplinäres Seminar. Multivariate Statistik bei psychologischen Fragestellungen. Markus Bühner und Helmut Küchenhoff WS 2008/09 Interdisziplinäres Seminar Multivariate Statistik bei psychologischen Fragestellungen Markus Bühner und Helmut Küchenhoff WS 2008/09, Homepage: http://www.stat.uni-muenchen.de/~helmut/seminar_0809.html

Mehr

Strukturgleichungsmodelle. Sozialwissenschaften. R.Oldenbourg Verlag München Wien. Von Universitätsprofessor Dr. Jost Reinecke

Strukturgleichungsmodelle. Sozialwissenschaften. R.Oldenbourg Verlag München Wien. Von Universitätsprofessor Dr. Jost Reinecke Strukturgleichungsmodelle in den Sozialwissenschaften Von Universitätsprofessor Dr. Jost Reinecke R.Oldenbourg Verlag München Wien 1 Einleitung 3 2 Die Entwicklung der statistischen Modellbildung mit Strukturgleichungen

Mehr

Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167

Multivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167 Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte) Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf

Mehr

4 Binäre Regressionsmodelle, Folien 2

4 Binäre Regressionsmodelle, Folien 2 4 Binäre Regressionsmodelle, Folien 2 Ludwig Bothmann (basierend auf Unterlagen von Nora Fenske) Statistik III für Nebenfachstudierende WS 2014/2015 4.5 Hypothesentests Lineare Hypothesen Betrachtet werden

Mehr

Versuchsplanung. Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling

Versuchsplanung. Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling Versuchsplanung Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling Gliederung Grundlagen der Varianzanalyse Streuungszerlegung und Modellschätzer Modellannahmen und Transformationen

Mehr

Jost Reinecke. Strukturgleich ungsmodelle. Sozialwissenschaften. 2., aktualisierte und erweiterte Auflage DE GRUYTER OLDENBOURG

Jost Reinecke. Strukturgleich ungsmodelle. Sozialwissenschaften. 2., aktualisierte und erweiterte Auflage DE GRUYTER OLDENBOURG Jost Reinecke Strukturgleich ungsmodelle in den Sozialwissenschaften 2., aktualisierte und erweiterte Auflage DE GRUYTER OLDENBOURG Inhaltsverzeichnis 1 Einleitung 1 2 Die Entwicklung der statistischen

Mehr

TEIL 13: DIE LINEARE REGRESSION

TEIL 13: DIE LINEARE REGRESSION TEIL 13: DIE LINEARE REGRESSION Dozent: Dawid Bekalarczyk GLIEDERUNG Dozent: Dawid Bekalarczyk Lineare Regression Grundlagen Prognosen / Schätzungen Verbindung zwischen Prognose und Zusammenhang zwischen

Mehr

Lean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 ***

Lean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 *** Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

Einführung in die Induktive Statistik: Varianzanalyse

Einführung in die Induktive Statistik: Varianzanalyse Einführung in die Induktive Statistik: Varianzanalyse Jörg Drechsler LMU München Wintersemester 2011/2012 Varianzanalyse bisher: Vergleich der Erwartungswerte für zwei normalverteilte Variablen durch t-test

Mehr

1 Kodierung kategorialer Einflussgrößen

1 Kodierung kategorialer Einflussgrößen Übung zur Vorlesung Generalisierte Regressionsmodelle Blatt 1 Christiane Fuchs, Moritz Berger, Micha Schneider WiSe 16/17 1 Kodierung kategorialer Einflussgrößen Lösung zu Aufgabe 3 Einlesen der Daten:

Mehr

Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016

Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016 ETH Zürich D-USYS Institut für Agrarwissenschaften Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016 Peter von Rohr Datum 30. Mai 2016 Beginn 08:00 Uhr Ende 08:45

Mehr

Ziel der linearen Regression

Ziel der linearen Regression Regression 1 Ziel der linearen Regression Bei der linearen Regression wird untersucht, in welcher Weise eine abhängige metrische Variable durch eine oder mehrere unabhängige metrische Variablen durch eine

Mehr

Auswertung und Lösung

Auswertung und Lösung Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden

Mehr

Statistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services

Statistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services Statistische Datenanalyse mit R, Korrelation und Regression Dr. Andrea Denecke Leibniz Universität IT-Services Korrelationsanalyse Eine Korrelationsanalyse soll herausfinden Ob ein linearer Zusammenhang

Mehr

Lösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die

Lösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die Statistik für Kommunikationswissenschaftler Wintersemester 2010/2011 Vorlesung Prof. Dr. Nicole Krämer Übung Nicole Krämer, Cornelia Oberhauser, Monia Mahling Lösung Thema 9 Homepage zur Veranstaltung:

Mehr

Biostatistik 101 Korrelation - Regressionsanalysen

Biostatistik 101 Korrelation - Regressionsanalysen Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander

Mehr

Formale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung

Formale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung Übung Formale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung BACHELOR FT 2013 (HSU) Übung Emp. WiFo FT 2013 1 / 1 Maßzahlen für den Zusammenhang zwischen Merkmalen Kontingenztabelle:

Mehr

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

Multiple Regressionsanalyse - Kurzabriss

Multiple Regressionsanalyse - Kurzabriss Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen

Mehr

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.

Instrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen. Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression

Mehr

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014

11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer

Mehr

Deskriptive Statistik Lösungen zu Blatt 5 Christian Heumann, Susanne Konrath SS Lösung Aufgabe 27. f X Y (a i b j ) = f i j = f ij f j

Deskriptive Statistik Lösungen zu Blatt 5 Christian Heumann, Susanne Konrath SS Lösung Aufgabe 27. f X Y (a i b j ) = f i j = f ij f j 1 Deskriptive Statistik Lösungen zu Blatt 5 Christian Heumann, Susanne Konrath SS 2011 Lösung Aufgabe 27 (a) Notation: X: Rauchen, Y : chronische Bronchitis S X {ja, nein} {a 1, a 2 }, S Y {ja, nein} {b

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II

ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II 1.1 Durch welche Elemente lässt sich laut der Formel für die multiple Regression der Wert einer Person auf einer bestimmten abhängigen Variable Y vorhersagen? a)

Mehr

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)

Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden

Mehr

Die Korrelation von Merkmalen

Die Korrelation von Merkmalen Die Korrelation von Merkmalen In der Analse von Datenmaterial ist eines der Hauptziele der Statistik eine Abhängigkeit bzw. einen Zusammenhang zwischen Merkmalen zu erkennen. Die Korrelation ermittelt

Mehr

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen

Breusch-Pagan-Test I auf Heteroskedastie in den Störgrößen Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.

Mehr

Wiederholung Drittvariablen Nicht-lineare Effekte Zusammenfassung. Regression III. Statistik I. Sommersemester 2009. Statistik I Regression III (1/36)

Wiederholung Drittvariablen Nicht-lineare Effekte Zusammenfassung. Regression III. Statistik I. Sommersemester 2009. Statistik I Regression III (1/36) Regression III Statistik I Sommersemester 2009 Statistik I Regression III (1/36) Wiederholung Zuwandererquote FN 2004 10 15 20 25 5 10 15 20 Statistik I Regression III (2/36) Zum Nachlesen Agresti/Finlay

Mehr

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen

Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen 4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives

Mehr

Pfadanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007

Pfadanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007 Pfadanalyse Bacher, SoSe2007 1. Grundlegende Verfahren Explorative Pfadanalyse: Kausale Beziehungen zwischen Variablen werden aufgedeckt, erforderlich ist eine kausale Anordnung der Variablen. Konfirmatorische

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Das lineare Regressionsmodell Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Kapitel 4: Merkmalszusammenhänge

Kapitel 4: Merkmalszusammenhänge Kapitel 4: Merkmalszusammenhänge Korrelationen 1 Lineare Regression 3 Literatur 5 Korrelationen Mit Hilfe von G*Power lässt sich analog zum Vorgehen beim t-test (Kapitel 3, Band I) vor einer Untersuchung

Mehr

Freisetzen und Fixieren von Parametern in Strukturgleichungsmodellen

Freisetzen und Fixieren von Parametern in Strukturgleichungsmodellen Freisetzen und Fixieren von Parametern in Strukturgleichungsmodellen 1 Variablen und Parameter Variablen haben für verschiedene Personen unterschiedliche Werte. Parameter haben für eine gegebene Population

Mehr

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse

Einleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen

Mehr

Multiple Regression III

Multiple Regression III Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen

Mehr

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.

Teil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression. Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL

Mehr

Inhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik...

Inhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik... Inhaltsverzeichnis 1 Über dieses Buch... 11 1.1 Zum Inhalt dieses Buches... 13 1.2 Danksagung... 15 2 Zur Relevanz der Statistik... 17 2.1 Beispiel 1: Die Wahrscheinlichkeit, krank zu sein, bei einer positiven

Mehr

Die Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird

Die Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird Die Faktorenanalyse Zielsetzung Datenreduktion: eine größere Anzahl von Variablen auf eine kleinere Anzahl unabhängiger Einflussgrößen zurückführen Grundlegende Idee Direkt beobachtbare Variablen spiegeln

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

x(n x) cm 2 ) zweier Betonsorten wird überprüft. Dabei ergaben Sorte 1 185 186 184 186 185 187 186 187 185 Sorte 2 183 182 185 182 181 179

x(n x) cm 2 ) zweier Betonsorten wird überprüft. Dabei ergaben Sorte 1 185 186 184 186 185 187 186 187 185 Sorte 2 183 182 185 182 181 179 . Aufgabe: Zwei bis drei Millionen deutsche Haushalte sind überschuldet. Einer der Hauptgründe für die Überschuldung privater Haushalte ist eine gescheiterte Selbstständigkeit. In einer Stichprobe von

Mehr

Empirische Wirtschaftsforschung in R

Empirische Wirtschaftsforschung in R Empirische Wirtschaftsforschung in R Schätzung der keynesianischen Geldnachfragefunktion auf Basis von Daten der dänischen Volkswirtschaft Jonas Richter-Dumke Universität Rostock, Institut für Volkswirtschaftslehre

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

epg = read.table(file.path(pfadu, "epg.txt")) amp = read.table(file.path(pfadu, "dbdauer.txt"))

epg = read.table(file.path(pfadu, epg.txt)) amp = read.table(file.path(pfadu, dbdauer.txt)) Kovarianz, Korrela-on, (lineare) Regression Jonathan Harrington & Ulrich Reubold library(laece) epg = read.table(file.path(pfadu, "epg.txt")) amp = read.table(file.path(pfadu, "dbdauer.txt")) Kovarianz,

Mehr

1 Matrixdarstellung von Strukturgleichungsmodellen

1 Matrixdarstellung von Strukturgleichungsmodellen Matrixdarstellung von Strukturgleichungsmodellen. Einführung Ein in Mplus mit Hilfe der Syntax-Statements spezifiziertes Modell wird zur Modellschätzing in Matrizenform repräsentiert. Aus diesen Matrizen

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte) Aufgabe 3 (14 + 2 + 7 + 7 + 3 + 5 + 9 + 11 = 58 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus

Mehr

Bachelorprüfung: Statistik (1 Stunde)

Bachelorprüfung: Statistik (1 Stunde) Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!

Mehr

Drittvariablenkontrolle in der linearen Regression: Trivariate Regression

Drittvariablenkontrolle in der linearen Regression: Trivariate Regression Drittvariablenkontrolle in der linearen Regression: Trivariate Regression 14. Januar 2002 In der Tabellenanalyse wird bei der Drittvariablenkontrolle für jede Ausprägung der Kontrollvariablen eine Partialtabelle

Mehr

Kapitel 5 FRAGESTELLUNG 1. Öffne die Datei alctobac.sav.

Kapitel 5 FRAGESTELLUNG 1. Öffne die Datei alctobac.sav. Kapitel 5 FRAGESTELLUNG 1 Öffne die Datei alctobac.sav. Zuerst werden wir ein Streudiagramm erstellen, um einen grafischen Überblick von diesem Datensatz zu erhalten. Gehe dazu auf Grafiken / Streudiagramm

Mehr

Inhalt. 2. Ein empirisches Beispiel als Hintergrund 2.1 Die Studie von Preckel & Freund (2006) 2.2 Rückblick

Inhalt. 2. Ein empirisches Beispiel als Hintergrund 2.1 Die Studie von Preckel & Freund (2006) 2.2 Rückblick Inhalt 2. Ein empirisches Beispiel als Hintergrund 2.1 2.2 Rückblick EDV-Tutorium (A) Buchwald & Thielgen (2008) 12 Theoretischer Hintergrund Phänomen 1: false>correct (F>C)-Phänomen Wenn Personen kognitive

Mehr

Vorlesung: Multivariate Statistik für Psychologen

Vorlesung: Multivariate Statistik für Psychologen Vorlesung: Multivariate Statistik für Psychologen 7. Vorlesung: 05.05.2003 Agenda 2. Multiple Regression i. Grundlagen ii. iii. iv. Statistisches Modell Verallgemeinerung des Stichprobenmodells auf Populationsebene

Mehr

Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie

Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1

Mehr

Die Technik und Logik von linearen Strukturgleichungsmodellen

Die Technik und Logik von linearen Strukturgleichungsmodellen Die Technik und Logik von linearen Strukturgleichungsmodellen Empfehlenswerte Einführungen in die Arbeit mit Strukturgleichungsmodellen ( structural equation modeling ) finden sich in Byrne (1994) (spezifisch

Mehr

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische

Mehr

Kovarianzanalyse. Truthahngewicht. Truthahngewicht. Methoden empirischer Sozialforschung. 1 metrische und mehrere metrische und kategoriale Variablen

Kovarianzanalyse. Truthahngewicht. Truthahngewicht. Methoden empirischer Sozialforschung. 1 metrische und mehrere metrische und kategoriale Variablen Kovarianzanalyse 1 metrische und mehrere metrische und kategoriale Variablen Methoden empirischer Sozialforschung Lineare Modelle (2. Teil) Wie läßt sich die Abhängigkeit einer metrischen Variablen von

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Wiederholung Eine Menge von Vektoren a 1, a 2,, a k heisst linear unabhängig, wenn eine Linearkombination c 1 a 1 + c 2 a 2 + + c k a k = k c i a i (1) i=1 nur dann Null sein

Mehr

Konfirmatorische Faktorenanalyse

Konfirmatorische Faktorenanalyse Konfirmatorische Faktorenanalyse Kapitel 6 Einführung in die Test- und Fragebogenkonstruktion, Pearson Education 2003, Markus Bühner, 1 6.1 Grundkonzeption Die konfirmatorische Faktorenanalyse (CFA) dient

Mehr

> r.lm < lm(log10(ersch) log10(dist), > summary(r.lm) > r.lms < summary(r.lm) R-Funktionen zur linearen Regression. data = d.

> r.lm < lm(log10(ersch) log10(dist), > summary(r.lm) > r.lms < summary(r.lm) R-Funktionen zur linearen Regression. data = d. 3.4 S-Funktionen 75 R-Funktionen zur linearen Regression a Im package stat (immer vorhanden): lm > r.lm < lm(log10(ersch) log10(dist), data = d.spreng) b Funktion summary produziert Resultate, die man

Mehr

Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann

Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Contents Aufgabe 1 1 b) Schätzer................................................. 3 c) Residuenquadratsummen........................................

Mehr

Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst.

Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst. Aufgabe 1 (2 + 4 + 2 + 1 Punkte) Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen X und Y : { 2x + 2y für 0.5 x 0.5, 1 y 2 f(x, y) = 3 0 sonst. a) Berechnen

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression 2., Linear 2., lineare multiple 2., lineare 2.1 2.2 Lineare 2.1 2.2 Lineare 2.7 Partielle 2.7 Partielle 1 / 149 2., Linear 2., lineare 2.1 2.2 Lineare 2.1 2.7 Partielle 2 / 149 2.1 Beispiel: Arbeitsmotivation

Mehr

Probeklausur zur Vorlesung Statistik II für Studierende der Soziologie und Nebenfachstudierende

Probeklausur zur Vorlesung Statistik II für Studierende der Soziologie und Nebenfachstudierende Probeklausur zur Vorlesung Statistik II für Studierende der Soziologie und Nebenfachstudierende im Sommersemester 2012 Prof. Dr. H. Küchenhoff, J. Brandt, G. Schollmeyer, G. Walter Aufgabe 1 Betrachten

Mehr

6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal

6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - soziale Kontakte (6 Items) - Markenbewusstsein (6 Items) - Werbeakzeptanz (6 Items) - materielle

Mehr

Konfidenzintervall für den Anteilswert θ. Konfidenzintervalle. Jost Reinecke. Universität Bielefeld. 13. Juni 2005

Konfidenzintervall für den Anteilswert θ. Konfidenzintervalle. Jost Reinecke. Universität Bielefeld. 13. Juni 2005 Universität Bielefeld 13. Juni 2005 Einführung Einführung Wie kann die Kenntnis der Wahrscheinlichkeitsverteilung der Parameter einer Stichprobe dazu verhelfen auf die wahren Werte der Grundgesamtheit

Mehr

Eine Einführung in R: Varianzanalyse

Eine Einführung in R: Varianzanalyse Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2011 Bernd Klaus, Verena Zuber Das

Mehr

Schweizer Statistiktage, Aarau, 18. Nov. 2004

Schweizer Statistiktage, Aarau, 18. Nov. 2004 Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der

Mehr

Multiple Regression. Statistik II

Multiple Regression. Statistik II Statistik II Übersicht Wiederholung Literatur Regression Assoziation und Kausalität Statistische Kontrolle Multivariate Beziehungen Inferenz Das Multivariate Modell Beispiel: Bildung und Verbrechen Fit

Mehr

Strukturgleichungsmodellierung

Strukturgleichungsmodellierung Rolf Weiber Daniel Mühlhaus Strukturgleichungsmodellierung Eine anwendungsorientierte Einführung in die Kausalanalyse mit Hilfe von AMOS, SmartPLS und SPSS ^J Springer ABKÜRZUNGS- UND SYMBOL VERZEICHNIS

Mehr

2.2 Multiples Regressionsmodell

2.2 Multiples Regressionsmodell Multiples Regressionsmodell In vielen Anwendungen: mehr als ein Regressor notwendig Beispiel: Schülerleistungen nicht nur von KG abhängig, sondern auch z. B. von o Schulcharakteristika (Lehrerqualität,

Mehr

Ü b u n g s b l a t t 15

Ü b u n g s b l a t t 15 Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine

Mehr

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS)

Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Vorbereitungen Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Falls das R - Paket car noch nicht installiert wurde, kann dies mit der Funktion install.packages() erledigt werden. install.packages("car")

Mehr

I.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03

I.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03 I.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03 Vorlesung: 12.11.2002 He uses statistics as a drunken man use lampposts - for support rather than for illumination. Andrew Lang Dr. Wolfgang Langer

Mehr

6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal

6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - Preisorientierung (6 Items) - Werbeakzeptanz (6 Items) - Qualitätsbewusstsein (6 Items) - Trendbewusstsein

Mehr

ANalysis Of VAriance (ANOVA) 1/2

ANalysis Of VAriance (ANOVA) 1/2 ANalysis Of VAriance (ANOVA) 1/2 Markus Kalisch 16.10.2014 1 ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich)?

Mehr