Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA)
|
|
- Linus Krause
- vor 7 Jahren
- Abrufe
Transkript
1 Interdisziplinäres Seminar Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) WS 2008/ Julia Schiele und Lucie Wink Dozenten: Prof. Dr. Bühner, Prof. Dr. Küchenhoff Inhaltsverzeichnis 1 Einführung 2 2 Pfadanalyse Einschub: lineare Regression Pfad- & und Regressionsanalyse Berechnung der Pfadkoeffizienten Mess- & Strukturmodell Messmodell Strukturmodell Lineare Strukturgleichungsmodelle korrelierte Fehler Identifikation Unteridentifikation Gerade identifizierte Modelle Überidentifikation Metrik Konfirmatorische Faktorenanalyse - CFA Grundstruktur der EFA & CFA Nachteile Explorative Faktorenanalyse
2 5.3 CFA - Modell Richtlinien Zusammenhang zw. beobachteter Kovarianzmatrix & Modellparametern Zusammenfassung Schritte der Modellierung einer CFA Literatur 15 1 Einführung Lineare Strukturgleichungsmodelle sind auch unter dem Namen LISREL, als Linear Structural Relationships, bekannt. Es handelt sich dabei um ein Allgemeines Modell zur Analyse eines Systems linearer Strukturgleichungsmodelle. Entwickelt wurden diese erstmalig 1973 von Jöreskog und Sörbom. Ein LISREL ist zweigeteilt und besteht aus Mess- & Strukturmodell. Inzwischen wurden einige Pakete in verschieden Programmen implementiert, zb AMOS (SPSS), Pro Calis (SAS), Pakte LISREL, SEM (R). Lineare Strukturgleichungsmodelle kombinieren Ideen der Faktorenanalyse (in den Messmodellen) mit den Methoden der Pfadanalyse (im Strukturmodell). Konfirmatorische Faktorenanalysen (CFAs) sind eine Methode LISRELs anzuwenden. Zunächst wird deshalb die Methodik der LISRELs erklärt, die dann auch für die CFA übernommen werden kann. Nachdem die Faktorenanalyse in den vorherigen Seminarstunden schon behandelt wurde, gehen wir nun zunächst auf die eben erwähnte Pfadanalyse, also dem Grundkonzept des Strukturmodells, ein. 2 Pfadanalyse Die Pfadanalyse kann als Erweiterung der multiplen Korrelations- und Regressionsanalyse angesehen werden. Sie enthält nur manifeste Variablen (z.b. Items), jedoch keine latenten Variablen. Das zu prüfende Modell wird vom 2
3 Anwender vorgegeben. Das Modell enthält also Beziehungen zwischen manifesten Variablen, deren Pfade ermittelt werden. Dabei werden die folgende Effekte unterschieden: direkter Effekt: zwischen Variablen indirekter Effekt: über vermittelnde Variablen (Mediator) totaler Effekt: Summe aller direkten und indirekten Effekte Nun soll auf die graphische Darstellung einer Pfadanalyse eingegangen werden. Pfade stehen für einen gerichteten Zusammenhang & stellen i.d.r. partielle standardisierte Regressionsgewichte dar Korrelationen bzw. Kovarianzen Boxen stehen für manifeste Variablen Zwischen X und Y besteht also eine Korrelation, X und Y beeinflussen beide Z. Zu beachten ist der Störterm ε 3, der die Effekte beeinflusst, denn es bleibt immer ein Varianzanteil übrig, der durch die Items nicht erklärt werden kann. 3
4 2.1 Einschub: lineare Regression Da es sich bei der Pfadanalyse, wie schon erwähnt, um eine Erweiterung der Regressionsanalyse handelt, hier eine kurze Wiederholung des einfaches linearen Regressionsmodells Y i = β 0 + x i β 1 + ε i i = 1,..., n Es gelten dabei folgende Annahmen: E(ε i ) = 0 V ar(ε i ) = σ 2 {ε i i = 1,..., n} stoch. unabhängig ε i normalverteilt Analog sieht das multiple lineare Regressionsmodell folgendermaßen aus: Y i = β 0 + x i1 β x ip β p + ε i Die Annahmen sind dabei i = 1,..., n E(ε i ) = 0 E(ε) = 0 V ar(ε i ) = σ 2 V ar(ε) = σ 2 I {ε i i = 1,..., n} stoch. unabhängig ε i und ε normalverteilt 4
5 2.2 Pfad- & und Regressionsanalyse Die Unterschiede zwischen Regressions- & Pfadanalyse sind: Bei der Pfadanalyse handelt es sich um ein kausalanalytisches Modell, welches Zusammenhänge zwischen unabhängigen Variablen zulässt. Bei der Regressionsanalyse wirken unabhängige Variablen auf abhängige. Somit lässt sich die Regressionsanalyse als Spezialfall der Pfadanalyse betrachten. Die Nachteile der Regressionsanalyse sind zum einen, dass sie oftmals als Ziel ein hohes Bestimmtheitsmaß R 2 haben und zum andereren die Gefahren wie Scheinkorrelation und Multikollinearität mit sich bringen. Unter Scheinkorrelation versteht man einen statistisch gemessenen Zusammenhang zwischen zwei Variablen, welcher nur auftritt, wenn die Variablen systematisch von einer dritten Variablen abhängen. Multikollinearität bedeutet eine wechselseitige Abhängigkeit von unabhängigen Variablen in einem statistischen Modell. Die Vorteile der Pfadanalyse sind, dass mehr theoretisches Vorverständnis benötigt wird, wodurch es zur Komplexitätszunahme kommt. Voraussetzungen für Pfadanalyse sind zum einen kausale Zusammenhänge, additive & lineare Beziehungen zwischen beteiligten Variablen und die dass die Residuen normalverteilt sein müssen, was auch den Voraussetzungen einer Regressionsanalyse entspricht. 2.3 Berechnung der Pfadkoeffizienten Die Pfadkoeffizienten entsprechen ˆβ, dh. partiellen Regressionsgewichten. Die Berechnung der Pfade, also den direkten Effekten, erfolgt über Korrelationen, siehe folgendes Beispiel. 5
6 Seien die Korrelation r XY =.2, r XZ =.4 und r Y Z =.45, so folgt aus r XY = a, r XZ = b+(a c) und r Y Z = c+(a b) ein lineares Gleichungssystem mit den Lösungen a =.2, b =.323, und c =.385. Anhand des konkreten Beispiels, wie Motivation und Intelligenz den Schulerfolg beeinflussen, soll nun auf die Berechnung der indirekten und totalen Effekte eingegangen werden. Als direkte Effekte werden hierbei a de,ms = β 1 =.2, a de,is = β 2 =.4 und a de,mi = β 3 =.3 angenommen. Die indirekten Effekte werden durch Multiplikation der Pfadkoeffizienten berechnet. Motivation hat nicht nur einen direkten Effekt, sondern auch über die Intelligenz als Mediatorvariable einen indirekten Effekt auf Schulerfolg..4.3 =.12 β 2 β 3 Der totale Effekt von Motivation auf Schulerfolg errechnet sich über die Summe des direkten und des indirekten Effekts =.32 6
7 β 1 + (β 2 β 3 ). Im bivariaten Fall entsprechen die Pfadkoeffizienten nicht nur den partiellen Regressionsgewichten, sondern auch den Korrelationskoeffizienten. Dies sei anhand des Datensatzes Lesen gezeigt, hierbei wurde die Fehleranzahl beim Lesen eines Textes von Schülern untersucht. Bei der Betrachtung des einfachen linearen Modells F ehlerzahl i = β 0 + W ieoftlesen β 1 + ε i lässt sich sofort erkennen, dass der Korrelationskoeffizient nach Pearson r sp = zwischen der abhängigen Variable F ehlerzahl und der unabhängigen Variable W ieoftlesen gleich dem geschätzten β 1 = ist. > cor(cbind( Fehlerzahl, Geschlecht, WieOftLesen)) Fehlerzahl Geschlecht WieOftLesen Fehlerzahl WieOftLesen > summary(lm(fz_s~wieoftlesen)) Call: lm(formula = FZ_s ~ WieOftLesen) Residuals: Min 1Q Median 3Q Max Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) 1.453e e e-15 1 WieOftLesen 3.428e e e-06 *** --- Signif. codes: 0 *** ** 0.01 * Residual standard error: on 178 degrees of freedom Multiple R-squared: , Adjusted R-squared: F-statistic: on 1 and 178 DF, p-value: 2.466e-06 7
8 3 Mess- & Strukturmodell Nachdem die Theorie der Pfadanalyse erläutert wurde, soll nun näher auf lineare Strukturgleichungsmodelle eingegangen werden. Diese bestehen aus Mess- und Strukturmodellen. Ein erstes Messmodell wäre beispielsweise anhand des NEO-FFI zur Erklärung der latenten Variablen Neurotizimus (ξ 1 ). Ein zweites Messmodell wäre hier zur Erklärung der latenten Variable Extraversion (η 1 ). Ein mögliches Strukturmodell könnte der Fragestellung nachgehen, ob Neurotizimus als unabhängige Variable Einfluss auf Extraversion hat, die nun als abhängige Variable betrachtet wird. Insgesamt beschreibt dies ein lineares Strukturgleichungsmodell. Wenn dieses nun auf seine Übereinstimmung mit der Beobachtung getestet wird, handelt es sich um eine konfirmatorische Faktorenanalyse; diese wird später ausführlicher behandelt. Zum besseren Verständnis der nun folgenden Gleichungen führen wir hier eine einheitliche Notation ein: y: beobachtbare abh. Variable x: beobachtbare unabh. Variable η: latente abh. Variable ξ: latente unabh. Variable ε: Fehlerterm der abh. Variable δ: Fehlerterm der unabh. Variable ζ: Fehlerterm im Strukturmodell 8
9 Λ y : Ladungsmatrix (Regressionsparameter der Reg von y auf η) Λ x : Ladungsmatrix (Regressionsparameter der Reg von x auf ξ) 3.1 Messmodell Nun zu den Teilmodellen eines LISREL: Ein Messmodell spezifiziert, welche Items von welchen latenten Variablen beeinflusst werden mit der Modellgleichung x = Λ x ξ + ε und den Annahmen E(ε) = 0 und es handelt sich um zentrierte Werte (xi x) bzw. z-standardisierte Werte x i x, wodurch der Intercept entfällt; mit S = P (xi x) 2 n 1. Im Detail ist ein Messmodell folgendermaßen aufgebaut: S Die Korrelation zwischen x 1 und x 2 wird auf auf gemeinsame latente Variable (Faktor) zurückgeführt. Item x 1 wäre beispielsweise im NEO-FFI N6, x 2 N26 der latenten Variable Neurotizimus (ξ). Die Fehlerterme ε i stehen für den nicht durch latente Variable erklärten Varianzanteil. 3.2 Strukturmodell Ein Strukturmodell spezifiziert die Beziehungen der latenten Variablen untereinander. Das Modell lautet η = γ ξ + ζ 9
10 Wie oben schon erwähnt, könnte die unabhängige latente Variable hier Neurotizimus und die latente abhängige Variable Extraverion sein. Der Fehlerterm ζ steht für den nicht durch die unabhängige latente Variable (Neurotizimus) erklärten Varianzanteil. 3.3 Lineare Strukturgleichungsmodelle Lineare Strukturgleichungsmodelle implizieren eine spezifische Zusammenhangsstruktur zwischen den beobachteten Variablen. Die Schätzung der Modellparameter soll diese implizite Struktur mit der beobachteten Kovarianzstruktur in Übereinstimmung bringen. 3.4 korrelierte Fehler In Strukturgleichungsmodellen ist es möglich, zwischen Residuen von latenten oder manifesten Variablen Zusammenhänge zuzulassen. Mit der Annahme, dass Cov(δ 3, δ 5 ) 0 ist, folgt dass die Items x 3 und x 5 höher korrelieren (a). Alternativ ist es möglich, ξ 3 als neue latente Variable hinzuzufügen, die inhaltlich Gemeinsames erklären soll (b). (a) (b) 10
11 4 Identifikation Nachdem die entsprechenden Gleichungen aufgestellt wurden, muss überprüft werden, ob das Modell identifizierbar ist. Das heißt, die Anzahl der Parameter, die in einem Modell geschätzt werden können, hängt von der Menge an empirischen Informationen ab, die für die Analyse zur Verfügung stehen. Wenn alle Parameter geschätzt werden können, ist das Modell identifiziert. Empirische Grundlage der Schätzungen sind die Varianzen und Kovarianzen der beobachtbaren Variablen. Zur Bestimmung der Anzahl der Parameter gilt die t-rule n(n + 1) 2 Zusätzlich gilt, dass jede latente Variable und jede Fehlervarianz eine Metrik aufweisen muss. 4.1 Unteridentifikation Es gibt drei unterschiedlichen Identifikationsarten. Wenn ein Modell mehr zu schätzende Parameter besitzt als beobachtete Korrelationen/Kovarianzen, dann ist es unteridentifiziert. Folglich gibt es viele mögliche Lösungen für die Parameterschätzung, wodurch keine eindeutige Schätzung möglich ist. Beispielweise die Gleichung a+b = 6 wobei a und b zu schätzen sind, 6 ist die beobachtete Variable. Dies ist nicht eindeutig lösbar, denn z.b. 2+4 = 6 und = 6 etc. Deshalb also weitere beobachtete Variable hinzufügen, z.b. a = 2. Dadurch gilt 2 + b = 6 und b = Gerade identifizierte Modelle Wenn ein Modell genau so viele zu schätzende Parameter besitzt wie beobachtete Korrelationen/Kovarianzen, dann ist es gerade identifiziert. Daher gilt es eine eindeutige Lösung (df = 0) Bsp. a + b = 6 und 2a + b = 10 a = 6 b 11
12 2(6 b) + b = b + b = 10 b = 2 und a = Überidentifikation Wenn ein Modell weniger zu schätzende Parameter besitzt als beobachtete Korrelationen/Kovarianzen, dann ist es überidentifiziert. Folglich gibt es nur eine näherungsweise Parameterschätzung (df > 0), eine Modellprüfung ist durch Test möglich. Bsp. a + b = 6, 2a + b = 10 und 3a + b = 12 Keine eindeutige Lösung, sondern nur Abschätzung a = 3 und b = 3.3 mit Fehler von (1. Gleichung), (2.Gleichung) und (3. Gleichung) 4.4 Metrik Wie bereits erwähnt, ist die zweite Voraussetzung für die Identifikation des Modells, dass jede latente Variable und jede Fehlervarianz eine Metrik aufweisen muss. Dies kann erfüllt werden durch Referenzvariable: Die Ladung einer manifesten auf eine latente Variable gleich 1 setzen, dabei ist Referenzvariable bester Indikator für latente Variable oder hohe Reliabilität. Eine andere Möglichkeit ist, da Fehlervariable latent, Pfad auf manifeste Variable auf 1 setzen oder die Varianz der latenten Variable auf 1 setzen. Dadurch ist die Signifikanz der Ladungen ermittelbar und es gilt Cov = Korr, da standardisiert. nächste Woche mehr! 12
13 5 Konfirmatorische Faktorenanalyse - CFA 5.1 Grundstruktur der EFA & CFA Bei der Explorativen Faktorenanalys (EFA) wird noch keine Modellgleichung aufgestellt und explorativ nach möglichen Faktoren gesucht. Im Gegensatz dazu steht bei der CFA im Vordergrund, ein bereits aufgestelltes Modell zu prüfen. Bei einer EFA werden zusätzlich Ladungen zu Items eines anderen Faktors zugelassen. explorative F aktorenanalyse konf irmatorische F aktorenanalyse 5.2 Nachteile Explorative Faktorenanalyse Die Nachteile der EFA sind, dass das Faktorenauswahlkriterium über Eigenwert > 1 gilt und dass die Ladungen 0 sein müssen. Es erlaubt keine korrelierten Störterme und eine Datenreduzierung wird angestrebt. Die Konfirmatorische Faktorenanalyse überwindet diese Probleme durch die Festlegung eines theoretischen Modells. 5.3 CFA - Modell Die Konfirmatorische Faktorenanalyse wird verwendet zur Überprüfung des Modells auf seine Güte, d.h. auf seine Übereinstimmung mit der empirischen Kovarianzmatrix durch Modelltest. Das Modell lautet x = Λ x ξ + δ Die Annahmen sind, dass E(δ) = 0 und E(ξδ ) = 0, Cov(ξ, δ) = 0 und δ = s + e mit s (Varianz) und e: (nicht spezifizierter Störterm). 13
14 Die Ladungen können als Regressionskoeffizienten betrachtet werden.. Dies bedeutet: Wenn sich ξ um eine Einheit ändert, ändert sich x um den Faktor λ (bei festem δ). 5.4 Richtlinien Allgemein soll für ein CFA gelten, dass mindestens 3 Items pro latente Variable und eine Stichprobengröße mit n = 200 vorliegen. Aus statistischer Sicht soll zusätzlich gelten, dass Beziehungen zwischen Variablen linear sind, die Additivität der Effekte gilt, die Variablen metrisch sind und die Daten durch Erwartungswerte, Varianzen & Kovarianzen erklärt werden. 5.5 Zusammenhang zw. beobachteter Kovarianzmatrix & Modellparametern Sobald ein Modell spezifiziert ist, können durch die beobachteten Varianzen und Kovarianzen die Modellparameter geschätzt werden mit Cov(x, ξ) = E(xx ) = E[(Λ x ξ + δ)(ξλ x + δ) ] = Λ x ΦΛ x + Θ δ wobei Φ = Cov(ξ, ξ) Kovarianzmatrix zwischen latenten Variablen und Θ δ = Cov(δ, δ) Kovarianzmatrix zwischen Störtermen. Nächste Schritte sind nun die Identifikation (wie bei LISREL) und die Parameterschätzung (siehe nächste Woche). Der Modelltest prüft, ob die berechnete Kovarianzmatrix von der beobachteten signifikant abweicht (siehe übernächste Woche). 14
15 6 Zusammenfassung Zusammenfassend lässt sich folgende Begriffe differenzieren: Ein Lineares Strukturmodell (LISREL) besteht aus einem Mess- und einem Strukturmodell. Ein Messmodell erklärt latente Variablen durch Items, ein Strukturmodell stellt die Beziehungen zwischen latenten Variablen dar. Die Konfirmatorische Faktorenanalyse überprüft die Übereinstimmung des Modells mit der empirischen Kovarianzmatrix durch einen Modelltest. 6.1 Schritte der Modellierung einer CFA Als Ausblick aber gleichzeitig auch als Praxisbezug sollen hier die Schritte der Modellierung einer CFA noch einmal dargestellt werden: 1. Aufstellen eines Strukturgleichungsmodell gemäß Hypothesen 2. Erheben der Daten 3. Berechnen der Varianz-/Kovarianzmatrix aus den Daten 4. Schätzung der Modellparameter 5. Beurteilung des Modells bzw. Vergleich mit Alternativmodell 6. ggf. Modellmodifikation 7 Literatur Literatur Bühner, M. (2004). Einführung in die Test- und Fragebogenkonstruktion. München: Pearson. Bühner, M. (2006). Einführung in die Test- und Fragebogenkonstruktion. München: Pearson. Bollen, KA. (1989). Structuralequationswithlatent variables. New York: Wiley. Leonhart, R. (2003). Lehrbuch Statistik: Einstieg und Vertiefung. Bern: Verlag Hans Huber. Howitt, D. & Cramer, D. (2005). Introduction to Statistics in Psychology. Pearson Prentice Hall. 15
Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA)
Interdisziplinäres Seminar Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) WS 2008/09 19.11.2008 Julia Schiele und Lucie Wink Dozenten: Prof. Dr. Bühner, Prof. Dr. Küchenhoff
MehrTutorial: Regression Output von R
Tutorial: Regression Output von R Eine Firma erzeugt Autositze. Ihr Chef ist besorgt über die Anzahl und die Kosten von Maschinenausfällen. Das Problem ist, dass die Maschinen schon alt sind und deswegen
MehrVorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13
Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Grundidee: Eine abhängige Variable soll als Linearkombination mehrerer unabhängiger
Mehr7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien
Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)
MehrVariablen und Parameter in LISREL
Variablen und Parameter in LISREL 1 Konfirmatorische Faktorenanalyse: Pfaddiagramm Dieses Diagramm stellt den denkbar einfachsten Fall einer konfirmatorischen Faktorenanalyse dar. Empirisch sind Modelle
MehrLiteratur: Rudolf & Müller, S Dr. Matthias Rudolf: M3 Multivariate Statistik Vorlesung Einführung SEM Folie Nr. 1
1 Korrelation und Kausalität 2 Grundsätzliches 3 Pfaddiagramme und lineare Strukturgleichungen 4 Struktur- und Messmodell 5 Modellspezifikation 6 Parameterschätzungen 7 Beurteilung der Schätzergebnisse
MehrForschungspraktikum Gruppenbezogene Menschenfeindlichkeit. 21. Juni 2007: Pfadanalyse und lineare Strukturgleichungsmodelle
Forschungspraktikum Gruppenbezogene Menschenfeindlichkeit 2. Juni 2007: Pfadanalyse und lineare Strukturgleichungsmodelle In vielen Untersuchungen soll eine komplexere Beziehungsstruktur untersucht werden.
MehrMethodik der multiplen linearen Regression
Methodik der multiplen linearen Regression Sibel Aydemir Statistisches Amt, Direktorium Landeshauptstadt München Name, Stadt Regressionsanalyse: Schritt für Schritt Schritt 1 Schritt 2 Schritt 3 Schritt
MehrBiostatistik 101 Korrelation - Regressionsanalysen
Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander
MehrBivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154
Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch
Mehr1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:
Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60
MehrTEIL 13: DIE EINFACHE LINEARE REGRESSION
TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrBeispiel: Multiples Modell/Omitted Variable Bias I
4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss
MehrKonfirmatorische Faktorenanalyse
Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable nicht direkt beobachtbare Größe die beobachtbare Variablen ( Indikatoren
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrEinfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
MehrPrognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
MehrKonfirmatorische Faktorenanalyse. Regressionsmodelle für Politikwissenschaftler
Konfirmatorische Faktorenanalyse Regressionsmodelle für Politikwissenschaftler Was ist ein Faktor? Faktor oder latente Variable Regressionsmodelle für Politikwissenschaftler Konfirmatorische Faktorenanalyse
MehrInterdisziplinäres Seminar. Multivariate Statistik bei psychologischen Fragestellungen. Markus Bühner und Helmut Küchenhoff WS 2008/09
Interdisziplinäres Seminar Multivariate Statistik bei psychologischen Fragestellungen Markus Bühner und Helmut Küchenhoff WS 2008/09, Homepage: http://www.stat.uni-muenchen.de/~helmut/seminar_0809.html
MehrStrukturgleichungsmodelle. Sozialwissenschaften. R.Oldenbourg Verlag München Wien. Von Universitätsprofessor Dr. Jost Reinecke
Strukturgleichungsmodelle in den Sozialwissenschaften Von Universitätsprofessor Dr. Jost Reinecke R.Oldenbourg Verlag München Wien 1 Einleitung 3 2 Die Entwicklung der statistischen Modellbildung mit Strukturgleichungen
MehrMultivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167
Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)
Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf
Mehr4 Binäre Regressionsmodelle, Folien 2
4 Binäre Regressionsmodelle, Folien 2 Ludwig Bothmann (basierend auf Unterlagen von Nora Fenske) Statistik III für Nebenfachstudierende WS 2014/2015 4.5 Hypothesentests Lineare Hypothesen Betrachtet werden
MehrVersuchsplanung. Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling
Versuchsplanung Teil 2 Varianzanalyse (ANOVA) Dr. Tobias Kiesling Gliederung Grundlagen der Varianzanalyse Streuungszerlegung und Modellschätzer Modellannahmen und Transformationen
MehrJost Reinecke. Strukturgleich ungsmodelle. Sozialwissenschaften. 2., aktualisierte und erweiterte Auflage DE GRUYTER OLDENBOURG
Jost Reinecke Strukturgleich ungsmodelle in den Sozialwissenschaften 2., aktualisierte und erweiterte Auflage DE GRUYTER OLDENBOURG Inhaltsverzeichnis 1 Einleitung 1 2 Die Entwicklung der statistischen
MehrTEIL 13: DIE LINEARE REGRESSION
TEIL 13: DIE LINEARE REGRESSION Dozent: Dawid Bekalarczyk GLIEDERUNG Dozent: Dawid Bekalarczyk Lineare Regression Grundlagen Prognosen / Schätzungen Verbindung zwischen Prognose und Zusammenhang zwischen
MehrLean Body Mass [kg] Estimate Std. Error t value Pr(> t ) (Intercept) ??? lbm <2e-16 ***
Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden
MehrEinführung in die Induktive Statistik: Varianzanalyse
Einführung in die Induktive Statistik: Varianzanalyse Jörg Drechsler LMU München Wintersemester 2011/2012 Varianzanalyse bisher: Vergleich der Erwartungswerte für zwei normalverteilte Variablen durch t-test
Mehr1 Kodierung kategorialer Einflussgrößen
Übung zur Vorlesung Generalisierte Regressionsmodelle Blatt 1 Christiane Fuchs, Moritz Berger, Micha Schneider WiSe 16/17 1 Kodierung kategorialer Einflussgrößen Lösung zu Aufgabe 3 Einlesen der Daten:
MehrLösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016
ETH Zürich D-USYS Institut für Agrarwissenschaften Lösungen zur Prüfung Angewandte Statistische Methoden in den Nutzierwissenschaften FS 2016 Peter von Rohr Datum 30. Mai 2016 Beginn 08:00 Uhr Ende 08:45
MehrZiel der linearen Regression
Regression 1 Ziel der linearen Regression Bei der linearen Regression wird untersucht, in welcher Weise eine abhängige metrische Variable durch eine oder mehrere unabhängige metrische Variablen durch eine
MehrAuswertung und Lösung
Körperkraft [Nm] 0 50 100 150 200 250 0 20 40 60 80 Lean Body Mass [kg] Dieses Quiz soll Ihnen helfen, den R Output einer einfachen linearen Regression besser zu verstehen (s. Kapitel 5.4.1) Es wurden
MehrStatistische Datenanalyse mit R, Korrelation und Regression. Dr. Andrea Denecke Leibniz Universität IT-Services
Statistische Datenanalyse mit R, Korrelation und Regression Dr. Andrea Denecke Leibniz Universität IT-Services Korrelationsanalyse Eine Korrelationsanalyse soll herausfinden Ob ein linearer Zusammenhang
MehrLösung Aufgabe 1 (Regression) Es wurden in einer Befragung zwei metrische Merkmale X und Y erhoben. Betrachten Sie dazu die
Statistik für Kommunikationswissenschaftler Wintersemester 2010/2011 Vorlesung Prof. Dr. Nicole Krämer Übung Nicole Krämer, Cornelia Oberhauser, Monia Mahling Lösung Thema 9 Homepage zur Veranstaltung:
MehrBiostatistik 101 Korrelation - Regressionsanalysen
Good Data don't need statistics Biostatistik 101 Korrelation - Regressionsanalysen Carl Herrmann IPMB Uni Heidelberg & DKFZ B080 carl.herrmann@uni-heidelberg.de Korrelation Sind Alter und Blutdruck miteinander
MehrFormale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung
Übung Formale Methoden der Ökonomik: Einführung in die empirische Wirtschaftsforschung BACHELOR FT 2013 (HSU) Übung Emp. WiFo FT 2013 1 / 1 Maßzahlen für den Zusammenhang zwischen Merkmalen Kontingenztabelle:
Mehr9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T
9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon
MehrMultiple Regressionsanalyse - Kurzabriss
Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen
MehrInstrument zur Untersuchung eines linearen Zusammenhangs zwischen zwei (oder mehr) Merkmalen.
Gliederung Grundidee Einfaches lineares Modell KQ-Methode (Suche nach der besten Geraden) Einfluss von Ausreißern Güte des Modells (Bestimmtheitsmaß R²) Multiple Regression Noch Fragen? Lineare Regression
Mehr11. Übungsblatt zur Vorlesung Ökonometrie SS 2014
Universität des Saarlandes Lehrstab Statistik Dr. Martin Becker Dipl.-Kfm. Andreas Recktenwald 11. Übungsblatt zur Vorlesung Ökonometrie SS 2014 Aufgabe 45 Die in Aufgabe 43 getroffene Annahme heteroskedastischer
MehrDeskriptive Statistik Lösungen zu Blatt 5 Christian Heumann, Susanne Konrath SS Lösung Aufgabe 27. f X Y (a i b j ) = f i j = f ij f j
1 Deskriptive Statistik Lösungen zu Blatt 5 Christian Heumann, Susanne Konrath SS 2011 Lösung Aufgabe 27 (a) Notation: X: Rauchen, Y : chronische Bronchitis S X {ja, nein} {a 1, a 2 }, S Y {ja, nein} {b
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de
MehrÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II
ÜBUNGSAUFGABEN ZU INFERENZSTATISTIK II 1.1 Durch welche Elemente lässt sich laut der Formel für die multiple Regression der Wert einer Person auf einer bestimmten abhängigen Variable Y vorhersagen? a)
MehrLineare Regressionen mit R (Ökonometrie SS 2014 an der UdS)
Lineare Regressionen mit R (Ökonometrie SS 2014 an der UdS) Es soll untersucht werden, ob und wie sich Rauchen während der Schwangerschaft auf den Gesundheitszustand des Neugeborenen auswirkt. Hierzu werden
MehrDie Korrelation von Merkmalen
Die Korrelation von Merkmalen In der Analse von Datenmaterial ist eines der Hauptziele der Statistik eine Abhängigkeit bzw. einen Zusammenhang zwischen Merkmalen zu erkennen. Die Korrelation ermittelt
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.
MehrWiederholung Drittvariablen Nicht-lineare Effekte Zusammenfassung. Regression III. Statistik I. Sommersemester 2009. Statistik I Regression III (1/36)
Regression III Statistik I Sommersemester 2009 Statistik I Regression III (1/36) Wiederholung Zuwandererquote FN 2004 10 15 20 25 5 10 15 20 Statistik I Regression III (2/36) Zum Nachlesen Agresti/Finlay
MehrKonfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen
4 Multiple lineare Regression Heteroskedastische Störgrößen 4.10 Konfidenz-, Prognoseintervalle und Hypothesentests IV im multiplen linearen Regressionsmodell mit heteroskedastischen Störgrößen Ein approximatives
MehrPfadanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007
Pfadanalyse Bacher, SoSe2007 1. Grundlegende Verfahren Explorative Pfadanalyse: Kausale Beziehungen zwischen Variablen werden aufgedeckt, erforderlich ist eine kausale Anordnung der Variablen. Konfirmatorische
MehrWillkommen zur Vorlesung Statistik
Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Das lineare Regressionsmodell Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften
MehrKapitel 4: Merkmalszusammenhänge
Kapitel 4: Merkmalszusammenhänge Korrelationen 1 Lineare Regression 3 Literatur 5 Korrelationen Mit Hilfe von G*Power lässt sich analog zum Vorgehen beim t-test (Kapitel 3, Band I) vor einer Untersuchung
MehrFreisetzen und Fixieren von Parametern in Strukturgleichungsmodellen
Freisetzen und Fixieren von Parametern in Strukturgleichungsmodellen 1 Variablen und Parameter Variablen haben für verschiedene Personen unterschiedliche Werte. Parameter haben für eine gegebene Population
MehrEinleitung. Statistik. Bsp: Ertrag Weizen. 6.1 Einfache Varianzanalyse
Einleitung Statistik Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Der Begriff Varianzanalyse (analysis of variance, ANOVA) taucht an vielen Stellen in der Statistik mit unterschiedlichen
MehrMultiple Regression III
Multiple Regression III Werner Brannath VO Biostatistik im WS 2006/2007 Inhalt Überprüfung der Modellannahmen Residuen-Plot Normal-Q-Q-Plot Cook s Distanz-Plot Maßnahmen bei Abweichungen von Modellannahmen
MehrTeil XIII. Multiple lineare Regression. Woche 11: Multiple lineare Regression. Zusammenfassung Einfache lineare Regression.
Woche 11: Multiple lineare Regression Patric Müller Teil XIII Multiple lineare Regression ETHZ WBL 17/19, 10.07.017 Wahrscheinlichkeit und Statistik Patric Müller WBL
MehrInhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik...
Inhaltsverzeichnis 1 Über dieses Buch... 11 1.1 Zum Inhalt dieses Buches... 13 1.2 Danksagung... 15 2 Zur Relevanz der Statistik... 17 2.1 Beispiel 1: Die Wahrscheinlichkeit, krank zu sein, bei einer positiven
MehrDie Faktorenanalyse. Anwendung dann, wenn zwischen beobachtbaren und nicht direkt beobachtbaren Variablen ein kausales Verhältnis vermutet wird
Die Faktorenanalyse Zielsetzung Datenreduktion: eine größere Anzahl von Variablen auf eine kleinere Anzahl unabhängiger Einflussgrößen zurückführen Grundlegende Idee Direkt beobachtbare Variablen spiegeln
MehrDeskriptive Beschreibung linearer Zusammenhänge
9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,
Mehrx(n x) cm 2 ) zweier Betonsorten wird überprüft. Dabei ergaben Sorte 1 185 186 184 186 185 187 186 187 185 Sorte 2 183 182 185 182 181 179
. Aufgabe: Zwei bis drei Millionen deutsche Haushalte sind überschuldet. Einer der Hauptgründe für die Überschuldung privater Haushalte ist eine gescheiterte Selbstständigkeit. In einer Stichprobe von
MehrEmpirische Wirtschaftsforschung in R
Empirische Wirtschaftsforschung in R Schätzung der keynesianischen Geldnachfragefunktion auf Basis von Daten der dänischen Volkswirtschaft Jonas Richter-Dumke Universität Rostock, Institut für Volkswirtschaftslehre
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
Mehrepg = read.table(file.path(pfadu, "epg.txt")) amp = read.table(file.path(pfadu, "dbdauer.txt"))
Kovarianz, Korrela-on, (lineare) Regression Jonathan Harrington & Ulrich Reubold library(laece) epg = read.table(file.path(pfadu, "epg.txt")) amp = read.table(file.path(pfadu, "dbdauer.txt")) Kovarianz,
Mehr1 Matrixdarstellung von Strukturgleichungsmodellen
Matrixdarstellung von Strukturgleichungsmodellen. Einführung Ein in Mplus mit Hilfe der Syntax-Statements spezifiziertes Modell wird zur Modellschätzing in Matrizenform repräsentiert. Aus diesen Matrizen
MehrAufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2017/18. ( = 58 Punkte)
Aufgabe 3 (14 + 2 + 7 + 7 + 3 + 5 + 9 + 11 = 58 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe der Statistiksoftware R soll der Datensatz HousePrices aus
MehrBachelorprüfung: Statistik (1 Stunde)
Prof. H.R. Künsch D-BIOL, D-CHAB Winter 2010 Bachelorprüfung: Statistik (1 Stunde) Bemerkungen: Es sind alle mitgebrachten schriftlichen Hilfsmittel und der Taschenrechner erlaubt. Natels sind auszuschalten!
MehrDrittvariablenkontrolle in der linearen Regression: Trivariate Regression
Drittvariablenkontrolle in der linearen Regression: Trivariate Regression 14. Januar 2002 In der Tabellenanalyse wird bei der Drittvariablenkontrolle für jede Ausprägung der Kontrollvariablen eine Partialtabelle
MehrKapitel 5 FRAGESTELLUNG 1. Öffne die Datei alctobac.sav.
Kapitel 5 FRAGESTELLUNG 1 Öffne die Datei alctobac.sav. Zuerst werden wir ein Streudiagramm erstellen, um einen grafischen Überblick von diesem Datensatz zu erhalten. Gehe dazu auf Grafiken / Streudiagramm
MehrInhalt. 2. Ein empirisches Beispiel als Hintergrund 2.1 Die Studie von Preckel & Freund (2006) 2.2 Rückblick
Inhalt 2. Ein empirisches Beispiel als Hintergrund 2.1 2.2 Rückblick EDV-Tutorium (A) Buchwald & Thielgen (2008) 12 Theoretischer Hintergrund Phänomen 1: false>correct (F>C)-Phänomen Wenn Personen kognitive
MehrVorlesung: Multivariate Statistik für Psychologen
Vorlesung: Multivariate Statistik für Psychologen 7. Vorlesung: 05.05.2003 Agenda 2. Multiple Regression i. Grundlagen ii. iii. iv. Statistisches Modell Verallgemeinerung des Stichprobenmodells auf Populationsebene
MehrInteraktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie
Interaktion unter Berücksichtigung des Skalenniveaus der Prädiktoren Dr. Markus Stöcklin, Universität Basel, Fakultät für Psychologie 1 Einleitung 3 2 Modell mit 0-1 kodierten nominalen Prädiktoren X 1
MehrDie Technik und Logik von linearen Strukturgleichungsmodellen
Die Technik und Logik von linearen Strukturgleichungsmodellen Empfehlenswerte Einführungen in die Arbeit mit Strukturgleichungsmodellen ( structural equation modeling ) finden sich in Byrne (1994) (spezifisch
MehrDeskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien
Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische
MehrKovarianzanalyse. Truthahngewicht. Truthahngewicht. Methoden empirischer Sozialforschung. 1 metrische und mehrere metrische und kategoriale Variablen
Kovarianzanalyse 1 metrische und mehrere metrische und kategoriale Variablen Methoden empirischer Sozialforschung Lineare Modelle (2. Teil) Wie läßt sich die Abhängigkeit einer metrischen Variablen von
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme 1 Wiederholung Eine Menge von Vektoren a 1, a 2,, a k heisst linear unabhängig, wenn eine Linearkombination c 1 a 1 + c 2 a 2 + + c k a k = k c i a i (1) i=1 nur dann Null sein
MehrKonfirmatorische Faktorenanalyse
Konfirmatorische Faktorenanalyse Kapitel 6 Einführung in die Test- und Fragebogenkonstruktion, Pearson Education 2003, Markus Bühner, 1 6.1 Grundkonzeption Die konfirmatorische Faktorenanalyse (CFA) dient
Mehr> r.lm < lm(log10(ersch) log10(dist), > summary(r.lm) > r.lms < summary(r.lm) R-Funktionen zur linearen Regression. data = d.
3.4 S-Funktionen 75 R-Funktionen zur linearen Regression a Im package stat (immer vorhanden): lm > r.lm < lm(log10(ersch) log10(dist), data = d.spreng) b Funktion summary produziert Resultate, die man
MehrVersuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann
Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Contents Aufgabe 1 1 b) Schätzer................................................. 3 c) Residuenquadratsummen........................................
MehrGegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen. 0 sonst.
Aufgabe 1 (2 + 4 + 2 + 1 Punkte) Gegeben sei folgende zweidimensionale Wahrscheinlichkeitsdichtefunktion zweier Zufallsvariablen X und Y : { 2x + 2y für 0.5 x 0.5, 1 y 2 f(x, y) = 3 0 sonst. a) Berechnen
Mehr2. Korrelation, lineare Regression und multiple Regression
2., Linear 2., lineare multiple 2., lineare 2.1 2.2 Lineare 2.1 2.2 Lineare 2.7 Partielle 2.7 Partielle 1 / 149 2., Linear 2., lineare 2.1 2.2 Lineare 2.1 2.7 Partielle 2 / 149 2.1 Beispiel: Arbeitsmotivation
MehrProbeklausur zur Vorlesung Statistik II für Studierende der Soziologie und Nebenfachstudierende
Probeklausur zur Vorlesung Statistik II für Studierende der Soziologie und Nebenfachstudierende im Sommersemester 2012 Prof. Dr. H. Küchenhoff, J. Brandt, G. Schollmeyer, G. Walter Aufgabe 1 Betrachten
Mehr6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal
Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - soziale Kontakte (6 Items) - Markenbewusstsein (6 Items) - Werbeakzeptanz (6 Items) - materielle
MehrKonfidenzintervall für den Anteilswert θ. Konfidenzintervalle. Jost Reinecke. Universität Bielefeld. 13. Juni 2005
Universität Bielefeld 13. Juni 2005 Einführung Einführung Wie kann die Kenntnis der Wahrscheinlichkeitsverteilung der Parameter einer Stichprobe dazu verhelfen auf die wahren Werte der Grundgesamtheit
MehrEine Einführung in R: Varianzanalyse
Eine Einführung in R: Varianzanalyse Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig 6. Januar 2011 Bernd Klaus, Verena Zuber Das
MehrSchweizer Statistiktage, Aarau, 18. Nov. 2004
Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der
MehrMultiple Regression. Statistik II
Statistik II Übersicht Wiederholung Literatur Regression Assoziation und Kausalität Statistische Kontrolle Multivariate Beziehungen Inferenz Das Multivariate Modell Beispiel: Bildung und Verbrechen Fit
MehrStrukturgleichungsmodellierung
Rolf Weiber Daniel Mühlhaus Strukturgleichungsmodellierung Eine anwendungsorientierte Einführung in die Kausalanalyse mit Hilfe von AMOS, SmartPLS und SPSS ^J Springer ABKÜRZUNGS- UND SYMBOL VERZEICHNIS
Mehr2.2 Multiples Regressionsmodell
Multiples Regressionsmodell In vielen Anwendungen: mehr als ein Regressor notwendig Beispiel: Schülerleistungen nicht nur von KG abhängig, sondern auch z. B. von o Schulcharakteristika (Lehrerqualität,
MehrÜ b u n g s b l a t t 15
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 2. 7. 2007 Ü b u n g s b l a t t 15 Hier ist zusätzliches Übungsmaterial zur Klausurvorbereitung quer durch die Inhalte der Vorlesung. Eine
MehrAufgabe 35 mit R (Ökonometrie SS 2014 an der UdS)
Vorbereitungen Aufgabe 35 mit R (Ökonometrie SS 2014 an der UdS) Falls das R - Paket car noch nicht installiert wurde, kann dies mit der Funktion install.packages() erledigt werden. install.packages("car")
MehrI.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03
I.V. Methoden 4: Regressionsund Pfadanalyse WiSe 02/03 Vorlesung: 12.11.2002 He uses statistics as a drunken man use lampposts - for support rather than for illumination. Andrew Lang Dr. Wolfgang Langer
Mehr6-Variablen-Fall. Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße Wuppertal
Dipl.-Ök. John Yun Bergische Universität Wuppertal Gaußstraße 20 42097 Wuppertal Allgemein 6 Konstrukte: - Preisorientierung (6 Items) - Werbeakzeptanz (6 Items) - Qualitätsbewusstsein (6 Items) - Trendbewusstsein
MehrANalysis Of VAriance (ANOVA) 1/2
ANalysis Of VAriance (ANOVA) 1/2 Markus Kalisch 16.10.2014 1 ANOVA - Idee ANOVA 1: Zwei Medikamente zur Blutdrucksenkung und Placebo (Faktor). Gibt es einen sign. Unterschied in der Wirkung (kontinuierlich)?
Mehr