Jun.-Prof. Dr. phil. Falk Radisch. radisch@uni-wuppertal.de +49 (0) 202.439-3192



Ähnliche Dokumente
Korrelation - Regression. Berghold, IMI

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Analyse von Querschnittsdaten. Regression mit Dummy-Variablen

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Quantitative Methoden der Bildungsforschung

Fortgeschrittene Statistik Logistische Regression

Willkommen zur Vorlesung Statistik

Einfache statistische Auswertungen mit dem Programm SPSS

Binäre abhängige Variablen

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

Einführung in statistische Analysen

Korrelation (II) Korrelation und Kausalität

Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester Juli 2005

Statistische Auswertung:

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert.

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x y = x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

Auswerten mit Excel. Viele Video-Tutorials auf Youtube z.b.

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

4. Erstellen von Klassen

Musterlösung zu Serie 14

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50, ,5 51,7 48,8

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift:

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER

Tutorial: Homogenitätstest

AUTOMATISIERTE HANDELSSYSTEME

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Interne und externe Modellvalidität

Modul G.1 WS 07/08: Statistik Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

1.3 Die Beurteilung von Testleistungen

Berechnung der Erhöhung der Durchschnittsprämien

Senkung des technischen Zinssatzes und des Umwandlungssatzes

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Auswertung mit dem Statistikprogramm SPSS:

QM: Prüfen -1- KN

Varianzanalyse (ANOVA: analysis of variance)

Mehrebenenanalyse. Seminar: Multivariate Analysemethoden Referentinnen: Barbara Wulfken, Iris Koch & Laura Früh

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

1 Mathematische Grundlagen

Zeichen bei Zahlen entschlüsseln

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Überblick über die Verfahren für Ordinaldaten

Dokumentation. estat Version 2.0

Die Beschreibung bezieht sich auf die Version Dreamweaver 4.0. In der Version MX ist die Sitedefinition leicht geändert worden.

Inhaltsverzeichnis. Regressionsanalyse. - Stand vom:

9. Schätzen und Testen bei unbekannter Varianz

Grundlagen der Inferenzstatistik

einfache Rendite

Beispiel Zusammengesetzte Zufallsvariablen

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

Einführung in die Geostatistik (7) Fred Hattermann (Vorlesung), Michael Roers (Übung),

Business Value Launch 2006

Informationsblatt Induktionsbeweis

Pfadanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007

Statistische Thermodynamik I Lösungen zur Serie 1

Mean Time Between Failures (MTBF)

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

W-Rechnung und Statistik für Ingenieure Übung 11

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS?

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

AZK 1- Freistil. Der Dialog "Arbeitszeitkonten" Grundsätzliches zum Dialog "Arbeitszeitkonten"

Kommentierter SPSS-Ausdruck zur logistischen Regression

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Lineare Gleichungssysteme

Kontingenzkoeffizient (nach Pearson)

Musterlösungen zur Linearen Algebra II Blatt 5

Messgeräte: Mess-System-Analyse und Messmittelfähigkeit

Zahlenwinkel: Forscherkarte 1. alleine. Zahlenwinkel: Forschertipp 1

Aufgabenblatt 3: Rechenbeispiel zu Stiglitz/Weiss (AER 1981)

Speicher in der Cloud

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

Erweiterung der Aufgabe. Die Notenberechnung soll nicht nur für einen Schüler, sondern für bis zu 35 Schüler gehen:

Funktionsbeschreibung. Lieferantenbewertung. von IT Consulting Kauka GmbH

Zusammenhänge zwischen metrischen Merkmalen

Lineare Funktionen. 1 Proportionale Funktionen Definition Eigenschaften Steigungsdreieck 3

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1

3. LINEARE GLEICHUNGSSYSTEME

Kapitalerhöhung - Verbuchung

Professionelle Seminare im Bereich MS-Office

Webergänzung zu Kapitel 10

Einfache Varianzanalyse für abhängige

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Access [basics] Gruppierungen in Abfragen. Beispieldatenbank. Abfragen gruppieren. Artikel pro Kategorie zählen

Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, am:

Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER

Häufigkeitstabellen. Balken- oder Kreisdiagramme. kritischer Wert für χ2-test. Kontingenztafeln

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Theoretische Grundlagen der Informatik WS 09/10

Übersicht: Modul 2. Methoden der empirischen Sozialforschung, Statistik und computergestützte Datenanalyse. Dr. H.-G. Sonnenberg

Lineare Gleichungssysteme

Korrelation. Übungsbeispiel 1. Übungsbeispiel 4. Übungsbeispiel 2. Übungsbeispiel 3. Korrel.dtp Seite 1

Quantilsschätzung als Werkzeug zur VaR-Berechnung

Transkript:

Einführung in die Mehrebenenanalyse mit HLM 6 AEPF/Universität Jena 12. September 2010

Kontakt radisch@uni-wuppertal.de i ld +49 (0) 202.439-3192

Wichtige Literatur und Software Literatur Ditton, H. (1998). Mehrebenenanalyse. Grundlagen und Anwendungen des Hierarchisch Linearen Modells. Weinheim: Juventa. Bryk, A. S. & Raudenbush, S. W. (1997). Hierarchical Linear Models. Applications and Data Analysis Methods. London: SAGE. Snijders, T. A. B.; Bosker, R. J. (1999): Multilevel Analysis. An introduction to basic and advanced multilevel modeling. London: SAGE. Engel, U. (1998). Einführung in die Mehrebenenanalyse. Grundlagen, Auswertungs verfahren und praktische Beispiele. Opladen: Westdeutscher Verlag. Goldstein, H. (1987). Multilevel Models in Educational and Social Research. Oxford: Oxford University Press. Hox, J. (1994). Applied Multilevel Analysis. Amsterdam: TT Publikaties. Hox, J. (1998). Multilevel modeling. When and why. In: Balderjahn, I; Mathar, R.; Schader, M. (Eds.). Classification, data analysis, and data highways. New Yorg. Springer. 147 154 Hox, J. (2002). Multilevel Analysis. Techniques and Applications. Mahwah: Erlbaum. Schwetz, H.; Subramanian, S. V. (2005): Einführung in die Mehrebenenanalyse mit MLWin. Von der Regressionsanalyse zum Random Slope Modell. Landau: Empirische Pädagogik e. V..

Wichtige Literatur und Software Software HLM (aktuell Version 6.06) http://www.ssicentral.com/hlm/ MLWin (aktuell Version 2.02) http://www.mlwin.com/ MPlus (aktuell Version 5) http://www.statmodel.com/ Statistikpakete wie SAS & SPSS enthalten in optionalen Erweiterungen ebenfalls Module für einfache ML Analysen

Gliederung Warum Mehrebenenanalysen? Mögliche Problemlösungsstrategien und ihre Nachteile Exkurs: Einfache lineare Regression Das Grundprinzip der Mehrebenenanalyse Das Ebene 1 Modell Vom Ebene 1 Modell zum Ebene 2 Modell Das Ebene 2 Modell Anforderungen an die Datensätze Exkurs: Standardisierung Exkurs: Cross Level Effekte/ Wechselwirkungen Ek Exkurs: Dummy Variable Arbeiten mit HLM Übungsaufgaben b

Warum Mehrebenenanalysen? Sozialwissenschaftliche, psychologische und speziell erziehungswissenschaftliche Daten haben häufig eine hierarchische/ verschachtelte Struktur ( nested structure ). Dies ist immer dann der Fall, wenn einzelne Untersuchungseinheiten eindeutig übergeordneten Gruppen angehören. Dabei sind diese Gruppen beobachtbar und klar definiert. Schüler Klassen Schulen

Warum Mehrebenenanalysen? Die eigentlich notwendige Unabhängigkeit der Beobachtungen ist in hierarchischen Datenstrukturen nicht erfüllt, da die untersuchten Individuen innerhalb der Gruppen oder Aggregateinheiten gemeinsamen Einflüssen oder Erfahrungen unterliegen, die für die Einheiten eines Aggregats charakteristisch sind. Schüler einer Schulklasse haben z.b. die gleichen Lehrer, eine bestimmte Art der Sozialbeziehungen miteinander usw. Diese Merkmale unterscheiden sie gemeinsam von Schülern anderer Klassen.

Warum Mehrebenenanalysen? Neben natürlichen Hierarchien (Schüler Klasse Schule) Schule) gibt es auch solche, die durch bestimmte Methoden der Datenerhebung oder der Stichprobenziehung entstehen: Klumpenstichproben: ganze Klassen, Jahrgänge oder Schulen (Klumpen oder Cluster) werden als repräsentativ für die Grundgesamtheit untersucht. (Wiederspricht der Zufallsstichprobe, da nicht jeder Schüler einzeln zufällig gezogen wurde, sondern als Zugehöriger der zufällig gezogenen Klasse usw.). Längsschnittdaten: Längsschnitte beinhalten ebenfalls eine hierarchische Struktur: Die Beobachtungen zu mehreren Zeitpunkten (b (Ebene 1) sind dden untersuchten Individuen id (Ebene 2) zuordenbar

Warum Mehrebenenanalysen? Was passiert, wenn die hierarchische Datenstruktur missachtet wird? Analysen hierarchischer Daten unter Ignorierung ihrer Mehrebenenstruktur können zwar interpretierbare und plausible Ergebnisse hervorbringen, sie führen aber fast unausweichlich zu teilweise gravierenden Fehlschlüssen und sind unter Umständen sogar völlig unbrauchbar! Warum?

Warum Mehrebenenanalysen? Ganz allgemein lässt sich sagen, dass Zusammenhänge zwischen den Variablen je Aggregateinheit unterschiedlich aussehen können ( wirksame Klassen, nicht wirksame Klassen ). Das wird bei einer einfachen Regression über alle Individuen hinweg missachtet. Schule 1 Schule 2 Schule 3 isei isei isei isei Schulfreude Schulfreude Schulfreude Schulfreude Die herkömmliche statistische Auswertung hierarchisch strukturierter Daten (z.b. Varianz oder Regressionsanalysen) bietet 2 Möglichkeiten das Problem zu umgehen: die Aggregierung von Individualdaten die Ergänzung von Individualdaten um Aggregatmerkmale ABER: Ist das sinnvoll?

Warum Mehrebenenanalysen? Aggregation von Individualdaten? Nach einer Aggregierung sind nur noch Aussagen auf der Gruppenebene (z.b. Schulklassen) möglich, nicht aber mehr auf der Ebene individueller Einheiten (z.b. Schüler). Viele Fragestellungen und Analysen verbieten sich somit von vornherein. Aggregateinheiten werden irrtümlicherweise als homogen betrachtet. Die Aggregation von Variablen führt gleichzeitig zu einem Verlust an Varianz, was eine Verringerung der Effektstärke zur Folge haben kann. Je nach betrachteter Ebene wechselt die Bedeutung vieler Variablen. Schulklima individuell = persönlich wahrgenommen und aggregiert = Merkmal der Schule. Der wechselnde Bedeutungsgehalt kann zu abweichenden Effekten in den verschiedenen Ebenen führen ( aggregation bias, Robinson Effect, ökologischer Fehlschluss ).

Warum Mehrebenenanalysen? Die Level 1-Variablen werden Die Zahl der Fälle wird z.b. durch Mittelwertsbildung auf die Anzahl der Level innerhalb der Level 2-2-Einheiten reduziert Einheiten aggregiert

Exkurs: Robinson Effekt/ ökologischer Fehlschluss: Robinson präsentierte Anfang der 1950er Jahre aggregierte Daten, die den Zusammenhang zwischen dem AnteilanFarbigen undderder Analphabetenrateinneun neun geographischen Regionen der USA in den 1930er Jahren wiedergeben sollten: Ökologische Korrelation (Korrellation der aggr. Variablen auf Regionalebene) = 0.95 Individual Korrelation (Korrelation der Variablen auf Personenebene) = 0.20 Es besteht die Gefahr eines ökologischen Fehlschlusses wenn aufgrund von Ergebnissen die anhand von Aggregateinheiten gewonnen wurden, auf Eigenschaften der Individuen in diesen Aggregateinheiten it geschlossen wird. id

Warum Mehrebenenanalysen? Problemlösung Disaggregation von Aggregatsmerkmalen? Die Verwendung von Kontextvariablen auf Individualebene führt schon allein durch die künstlich aufgeblähte Fallzahlder Kontextmerkmale zu signifikanten Parameterschätzungen! Denn: Es kommt zu einer Überschätzung der statistischen Bedeutung der Kontextprädiktoren, da die Standardfehler ihrer Koeffizienten unterschätzt werden. Der Standardfehler ist u.a. eine Funktion der Stichprobengröße. Je größer das N einer Stichprobe, desto kleiner der Standardfehler. Der Standardfehler wiederum ist Grundlage der Signifikanztests (z.b. bei Regressionen).

Warum Mehrebenenanalysen? Werte der Level 2-Prädiktoren Level sind innerhalb 1-Prädiktor jeder Level 2- Einheit konstant

Warum Mehrebenenanalysen? Fazit: Die Aggregation g von Individualmerkmalen oder die Disaggregation g von Merkmalen der Aggregatseinheiten: schränktdie Zuverlässigkeit statistischer Schlüsse ein führt zu Problemen bei der inhaltlichen Interpretation von Ergebnissen Aus diesem Grund sind Mehrebenenanalysen mit dem hierarchisch linearen Modell (HLM) dringend angeraten.

Exkurs: Einfache lineare Regression Die Regressionsanalyse dient der Untersuchung von Zusammenhängen zwischen einer abhängigen metrischen Variablen und einer (oder auch mehrerer) unabhängigen metrischen Variablen. Sie wird eingesetzt um: Zusammenhänge zu erkennen und zu erklären, Werte der abhängigen Variablen zu schätzen bzw. zu prognostizieren. Es wird davon ausgegangen, dass der Zusammenhang zwischen beiden Variablen eine lineare Struktur aufweist. Linearität bedeutet, dass sich die abhängige Variable Y (Kriterium) und die unabhängige Variable X (Prädiktor) nur in konstanten Relationen verändern: Δ Y Δ X constant

Exkurs: Einfache lineare Regression Notwendige Voraussetzungen an die Daten: mindestens intervall skaliert Ausnahme: Binäre/Dichotome Variablen mit nominalem/ordinalem Messniveau (0/1 kodiert) Beispielhypothese: Wenn der sozioökonomische Hintergrund der Schülerinnen und Schüler um eine Standardabweichung d höher h ist, dann ist ihre Leseleistung um mindestens eine halbe hlb Standardabweichung besser. Kausalitätsannahme: Leseleistung hängt vom sozioökonomischen Hintergrund ab. Abhängige Variable Unabhängige Variable

Exkurs: Einfache lineare Regression Der durchschnittliche Zusammenhang wird als lineare Funktion geschätzt. Die resultierende Gerade (Regressionsgerade) repräsentiert den optisch nachvollziehbaren Anstieg der Punktewolke. Eine derartige lineare Beziehung wird mathematisch durch die folgende Formel ausgedrückt: isei 1 Einheit Y β 0 β 1 X Ziel der linearen Regression ist es, die Parameter so zu schätzen, dass sich die Gerade der empirischen Punkteverteilung möglichst gut anpasst. Schulfreude Dazu werden die Abweichungen der individuellen Werte von der Regressionsgeraden betrachtet.

Exkurs: Einfache lineare Regression Die Regressionsgleichung erweitert sich demnach auf: ŶY 1X 0 e isei e Mathematisch entspricht die möglichst gute Anpassung der Regressionsgeraden an die empirische Punktewolke der Minimierung der Summe dieser Residuen. n i1 e n 2 2 i min! min (yi 0 1xi ) i1 Shlf Schulfreude D.h. die Koeffizienten 0 und 1 sollen so gewählt werden, dass die Summe der quadrierten Residuen minimiert wird. (Methode der kleinsten Fehlerquadrate KFQ; Ordinary Least Squares OLS).

Exkurs: Einfache lineare Regression Bedeutung des Fehlerterms/ Quellen des Fehlerterms: Theoretische Unterspezifizierung des Modells Unverfügbare Daten Intrinsische Zufallskomponente menschlichen Handelns Sparsamkeit des Modells Fehlspezifikation der funktionalen Form des Modells

Exkurs: Einfache lineare Regression Der Parameter b1 beschreibt die Veränderung in Y, wenn sich X1 um den Wert 1 verändert. Sperrig UND bei mehr als einer unabhängigen Variable sind die Koeffizienten so nicht direkt vergleichbar. Lösung: Standardisierung der Koeffizienten: * 1 1 X SD 1 * SD DerstandardisierteKoeffizient gibt an, um wie vielestandardabweichungen sich Y verändert, wenn sich X1 um eine Standardabweichung ändert. Y Immer unter Konstanthaltung aller anderen Prädikatoren/ Regressoren

Exkurs: Einfache lineare Regression Die Regressionsanalyse basiert auf mehreren Annahmen: A1: Linearität Alle Parameter (Zusammenhänge) sind linear A2: Im Mittel ist der Fehler null E (ε i ) = 0, für alle i A3: Homoskedastizität: Die Varianz der Fehler ist konstant Fehlerterme sind unabhängig von den UVs A4: Keine Autokorrelation Die Fehlerterme sind voneinander unabhängig; keine räumliche Abhängigkeit in der Stichprobe A5: Keine exakte Multikollinearität Die UVs sind untereinander nicht exakt linear voneinander abhängig A6: Normalverteilung Die Fehlerterme sind normalverteilt, also zufällig

Exkurs: Einfache lineare Regression

Exkurs: Einfache lineare Regression Zusammenfassung Regression gibt Auskunft ftüber die Stärke eines Zusammenhangs. Die Kausalität wird vorher festgelegt. Allgemeine Formel mit einer unabhängigen Variable: X : unabhängige Variable Y : abhängige Variable Y=ββ 0 + β 1 *X + e β 0 : Konstante (gibt den um den Einfluss der unabhängigen Variablen korrigierten Mittelwert der abhängigen Variablen an) β 1 : Regressionskoeffizient (gibt die Stärke des Einflusses der unabhängigen Variable auf die abhängige Variable an) e: Residuum

Das Grundprinzip der Mehrebenenanalyse Untersucht man hierarchische Daten, sind drei Arten von Effekten von Interesse: die Effekte individuumsbezogener Variablen die Effekte von Aggregatmerkmalen Effekte, diedurchdaszusammenwirkendurch das von Individual und Aggregatmerkmalen zustande kommen (sogenannte cross level Effekte). Kontextprädiktoren Schul-/ Klassenmerkmale Cross - Level - Effekt Individualprädiktoren Individualmerkmale AGGREGATEBENE (Schulen/ Klassen) INDVIDUALEBENE (Schüler) Abhängige Variable

Das Grundprinzip der Mehrebenenanalyse Grundlage ist die lineare Regression. Mit der einfachen linearen Regression wird versucht, die Wirkung eines einzelnen Prädiktors vorherzusagen, Ŷ β 0 β1x1 ei während die multiple Regression die Wirkung mehrerer Prädiktoren auf eine Ki Kriteriumsvariable i i prognostiziert. ii Yˆ β 0 β1x1 β2x2... βnxn ei

Das Grundprinzip der Mehrebenenanalyse Ziel der Regression ist es, möglichst viel der empirisch vorhandenen Varianz in der abhängigen Variablen zu erklären. Im hierarchisch linearen Modell wird die Varianz der abhängigen Variablen in zwei Komponenten zerlegt: Varianz in der AV Varianz innerhalb der Varianz zwischen den Cluster (within units) Clustern (between units) (Ebene 1 Modell) (Ebene 2 Modell)

Das Ebene 1 - Modell Das Modell der Ebene 1 (Individualebene) entspricht (für einen Prädiktor) dem Modell der einfachen Regression für jede Aggregateinheit. In Erweiterung zur klassischen Regression sind die Koeffizienten jetzt doppelt indiziert. Dadurch wird angezeigt, dass es für jede Aggregateinheit j jeweils eine Konstante (intercept) und eine Steigung (slope) gibt. Y ij β 0j β 1j X ij r ij Y ij = tatsächlicher Wert der AV des Individuums i in der Aggregateinheit j X ij = Wert des Ebene 1Prädiktors für das Individuum i in der Aggr.einheit j 0j = Konstante (Intercept) der Regressionsgleichung in der Aggr.einheit j 1j = Steigung (Slope) des Ebene 1 Prädiktors in der Aggregateinheit j r ij = Fehler/ Residuum des Individuum i in der Aggregateinheit j

Das Ebene 1 - Modell Anmerkungen zum Intercept Y ij β 0j β 1j X ij r ij Der Intercept ist bekanntermaßen der Schnittpunkt der Regressionsgeraden mit der Y Achse. Er ist also der Wert, den die AV Y ij annimmt, wenn alle Prädiktoren gleich Null sind. Der Wertebereich der meisten Skalen reicht von 1 bis 4. Die errechneten Werte des Intercepts lassen sich also nicht interpretieren. Um inhaltlich interpretierbare Werte zu erhalten, ist es daher meist sinnvoll, die Prädiktoren zu transformieren. ta so ee Dies kann entweder im Vorfeld im Zuge der Datenvorbereitung mittels SPSS geschehen: Z Standardisierung der Variablen Oder aber bid bei der Aufnahme der Variablen in die HLM Gleichung mittels der bid beiden Varianten: Zentrierung um den Gesamtmittelwert (grand mean centered); Zentrierung um den Gruppenmittelwert (group mean centered) Achtung: Dadurch entstehen je unterschiedliche Aussagen, die mit der Konstante/dem Intercept möglich sind!

Exkurs: Zentrierung Grand Mean Zentrierung (X ij X..) 4,0 3,5 30 3,0 Gesamtmittelwert terstützung 2,5 2,0 1,5 Kom mpetenzunt 1,0,5 0,0 1101 1103 1104 ID-Numer

Exkurs: Zentrierung Group Mean Zentrierung (X ij X. j ) 4,0 3,5 MW 1101 MW 1103 MW 1104 Kom mpetenzun nterstützung 3,0 2,5 20 2,0 1,5 1,0,5 0,0 1101 1103 1104 ID-Numer

Vom Ebene-1-Modell zum Ebene-2-Modell Das Modell der Ebene 1 unterscheidet sich nur wenig von einer klassischen einfachen linearen Regression. Es bewegt sich nur auf der Ebene der Individuen, die allerdings nicht insgesamt, sondern getrennt innerhalb der jeweiligen Aggregateinheiten betrachtet werden. Dadurch entsteht eine Vielzahl von Regressionskoeffizienten, was durch den Index j angezeigt wird. Letztendlich resultiert je ein intercept und slope je Aggregateinheit. Mit dem Modell der Ebene 2 wird nun versucht, die Varianz in den Koeffizienten durch Merkmale (W j ) der Aggregateinheiten i zu erklären. Die Koeffizienten werden nun die Abhängigen Variablen in den Gleichungen der Mk Makroebene. Demnach gibt es so viele Ebene 2 Gleichungen wie die Ebene 1 Gleichung Regressionskoeffizienten s enthält

Das Ebene-2-Modell Beispiel: Zusammenhang zwischen Lesekompetenz und Migration Vorhersage des Intercepts aus Level 2-Variablen: Hängt die Lesekompetenz von Grundschülerinnen und Grundschülern vom Migrantenanteil der Schulen ab? β 0j γ 00 γ 01 Migranteil u j 0j asrread01 ij β 0j β 1j Migr ij β 2j itsex ij r ij β 1j γ 10 u 1j β γ u Keine Vorhersage der Slopes aus Level 2-Variablen, aber die Slopes dürfen variieren. 2j 20 2j

Das Ebene-2-Modell asrread01 ij β 0j β 1j Migr ij β 2j itsex ij r ij β 0j γ 00 γ 01 Migranteil j u 0j β 1j γ 10 u 1j β 2j γ 20 u 2j 00 = Gesamtmittelwert der Lesekompetenz von männl. Kindern ohne Migrationsstatus an Schulen mit mittl. Migrantenanteil (Migrantenanteil, zentriert =0) 01 = mittl. Differenz im Niveau der Lesekompetenz bei 1% größerem Migrantenanteil 10 = mittlerer Kompetenzunterschied von männl. Schülern mit Migrationsstatus 20 = mittlerer Kompetenzunterschied von weibl. Schülern ohne Migrationsstatus u 0j = Residuum: spezifischer Effekt der Schule j auf Niveau der Lesekompetenz u 1j = Residuum: spezifischer Effekt der Schule j auf Zusammenhang zwischen Migrationsstatus und Lesekompetenz u 2j = Residuum: spezifischer Effekt der Schule j auf Zusammenhang zwischen Geschlecht und Lesekompetenz

Das zusammengesetzte Modell Das Makromodell lässt sich in das Mikromodell einsetzen. Das zusammengesetzte Modell für je einen Prädiktor auf Individual und Aggregatebene lautet: Y 00 = Gesamtmittelwert der AV wenn Ebene 1 & 2 Prädiktor Null sind 00 ij γ 00 γ 01 W j γ 01 = Haupteffekt des Level 2 Prädiktors W auf den Gruppenmittelwert 10 = Haupteffekt des Level 1 Prädiktors X über alle Gruppen hinweg 10 11 = Kombinierter Effekt von Ebene 1 & 2 Prädiktoren ( cross level effect ) u 0j +u 1j X i +r ij = Zufallsfehler e X ij Der Zufallsterm hat eine komplexere Form als im üblichen Regressionsmodell. Hier werden gruppenspezifische Fehlerkomponenten berücksichtigt. Die Komponenten u 0j und u 1j sind für die Schüler innerhalb einer Aggregateinheit g (z.b. Klasse oder Schule) gleich, sie variieren aber zwischen den Aggregateinheiten. Heteroskedastizität: Residuum des Slopes ist abhängig von der Ausprägung des Prädiktors γ 11 W j X ij u 0j u 1j X ij r ij

Parameter-Schätzung Zwei Varianten in HLM: Full Maximum Likelihood (FML) Parameter werden während der Schätzung als feste Größen angenommen (Schätzung der Likelihood in Anhängigkeit von, 2 und ); ermöglicht Modell Gütevergleich genesteter Modelle über Differenzen (2 Verteilung). Restricted Maximum Likelihood (RML) realitätsnäher als FML, berücksichtigt die Stichproben abhängigkeit der Parameter (Schätzung der Likelihood nur in Abhängigkeit von 2 und ); in der Praxis sind Unterschiede der Level 1 Schätzungen gering; auf Level 2 um so bedeutendere Unterschiede (höhere Werte für qq ), je geringer die Anzahl von Level 2 Einheiten.

Modellvoraussetzungen Zwischen Prädiktoren und Kriteriumsvariable bestehen lineare Beziehungen. X q konstant, t für alle q Y Fehlerkomponenten der Ebene 1 dürfen nicht in einem systematischen Zusammenhang mit den Prädiktoren des Modells stehen. COV(X qij,r ij ) 0, für alle q Prädiktoren auf der Aggregatebene (W j ) sind unabhängig von den Fehlern (u qj ). COV(W sj,u qj ) 0, für alle W sj und u qj Fehler des Individual und Aggregatebenenmodells sind unabhängig voneinander. COV(r ij,u qj ) 0, für alle q

Modellvoraussetzungen Die Residuen (Fehler) auf der Individualebene r ij haben einen Erwartungswert von 0 und eine Varianz von σ². Nach Kontrolle der Prädiktoren auf der Individualebene werden gleiche Fehlervarianzen σ² der Aggregateinheiten vorausgesetzt. Die Residuen auf der Aggregatebene u 0j und u qj sind unabhängig von den r ij. Sie sind multivariat normalverteilt mit M = 0. τ 00 ist die Varianz der Intercepts (u 0j ) zwischen den Aggregateinheiten, τ 11 ist die Varianz der Slopes u qj zwischen den Aggregateinheiten, τ 01 ist die entsprechende Kovarianz. Gemeinsam bilden sie die Varianz Kovarianz Matrix τ. τ darf sich zwischen den untersuchten Gruppen (z.b. Schulen mit und ohne GTS Angebot) nicht unterscheiden. Sie repräsentieren, die nach Kontrolle von W j verbleibende Variabilität in den Koeffizienten 0j und 1j.

Anforderungen an die Datensätze Die verwendeten Prädiktoren müssen einen definierten Nullpunkt haben (ggf. muss dieser über Zentrierung oder Standardisierung gesetzt werden). Stichprobengröße (vgl. auch Maas & Hox, 2005): Die Anzahl der zu schätzenden Parameter darf die Anzahl der Ebene 2 Einheiten nicht überschreiten. N=30 Ebene 2 Einheiten, wenn Haupteffekte untersucht werden sollen N=50 Ebene 2 Einheiten, wenn Cross Level Effekte untersucht werden sollen Mindestens 10 Fälle pro Aggregateinheit AufAggregatebene Aggregatebene dürfen keine Missingsinin den Daten vorliegen. HLM übernimmtnurnur Aggregat Fälle, die in keiner verwendeten Variablen Missings ( listwise Fallausschluss) enthalten. (ggf. sind Missings vorab zu ersetzen). Individual und Aggregatdaten müssen in 2 getrennten Datensätzen hinterlegt sein. In beiden muss eine ID Variable zur Identifikation der Zugehörigkeit zu den Aggregateinheiten enthalten sein.

Arbeiten mit HLM 6.06 Es gibt verschiedene Möglichkeiten, eine HLM Analyse zu planen und durchzuführen. Eine bewährte Möglichkeit besteht darin, aufgrund einer konkreten Fragestellung schrittweise das HLM Modell aufzubauen. Fragestellung: Beeinflusst der Migrantenanteil der Schulen die Lesekompetenz von Grundschülern zusätzlich zum individuellen Effekt des Migrationshintergrundes?

Arbeiten mit HLM 6.06 Grundlage sind die Daten von PIRLS/IGLU2001 für Deutschland Abrufbar unter: http://timss.bc.edu/pirls2001i/pirls2001_pubs_ug.html Pubs html Vorgenommene Veränderungen am Datensatz: 1. Kürzung des Datensatzes auf 7.176 Schülerinnen und Schüler (ursprünglich 7633) in 197 Schulen (ursprünglich 211) 2. Reduzierung auf notwendige Variablen Der Datensatz erlaubt keine belastbaren Schlüsse! Er stellt nicht die ursprüngliche Datenbasis dar und erlaubt nicht die für belastbare Aussagen notwendigen Analysen! (Plausible Values, Gewichtung etc.)

Arbeiten mit HLM 6.06 Vorbereitung der Daten Bevor Analysen mit HLM durchgeführt werden können, müssen die Daten meist mit SPSS oder äquivalenten Programmen vorbereitet werden. Standardisierung Umkodierung/Transformation/Dichotomisierung Aggregierung Ersetzen fehlender fhl Werte Im Beispiel Datensatz sind folgende Schritte bereits vorgenommen: Umkodierung (Dichotomisierung) des Migrationshintergrundes Umkodierung des Geschlechts Aggregierung des Migrantenanteils z Standardisierung des Migrantenanteils auf Schulebene

Arbeiten mit HLM 6.06 1. Programm öffnen 2. Neuen MDM File erstellen mittels Import aus SPSS a) Spezifieren, um welches Modell es sich handeln soll (HLM2) b) Datenstruktur beschreiben (persons within groups) c) Level-1-Datensatz laden (DatenDresden_L1.sav) d) Level-1-Variablen spezifizieren (idschool als ID, itsex, asrrea01, mig_dich, girl als in MDM e) Vorhandene Missings und Umgang vereinbaren ( Yes Yes und running analyses ) f) Level-2-Datensatz laden (Daten Dresden_L2.sav) g) Level-2-Variablen spezifizieren i (idschool als ID, mig_ant_1 als in MDM ) h) MDM-Template speichern (als hlm_dresden_beispiel1 ) i) MDM-File bezeichnen (als hlm_dresden_beispiel1.mdm) _ j) Make MDM auslösen k) Deskriptive Statistiken prüfen ( Check Stats auslösen) l) Done

Arbeiten mit HLM 6.06 Jetzt ist HLM bereit, die Analysen mit den aufgenommenen Variablen durchzuführen Prinzipiell empfiehlt sich immer ein schrittweises Vorgehen: Zunächst wird das sogenannte Null Modell (One Way ANOVA) berechnet, um festzustellen, ob überhaupt spezifische Varianz zwischen den Schulen hinsichtlich der Lesekompetenz vorhanden ist. Danach wird das Individualebenen Modell spezifiziert (Random Coefficient Model), um zunächst die Varianz auf der Individualebene zu erklären. Im dritten Schritt werden der Achsenabschnitt und die Steigungen des Individual modells zu abhängigen Variablen auf der Gruppenebene (Intercepts and Slopes as Outcomes Model). Im Beispiel allerdings nur der Achsenabschnitt, um zu prüfen, ob die Lesekompetenz durch den Migrantenanteil der Schule beeinflusst wird.

Arbeiten mit HLM 6.06 Berechnen einer HLM-ANOVA 1. Outcome-Variable spezifizieren (asrrea01) 2. Basic Settings starten a) Title vereinbaren (HLM-DresdenBsp1_Anova) b) Output file name vereinbaren (Pfad\hlm_dresdenbsp1_anova.txt) c) OK 3. Other Settings Estimation Settings Weighting vornehmen (wgtstdfi vereinbaren) 4. Run Analysis Save and Run (hlm_dresdenbsp1_anova) 5. File View Output

Arbeiten mit HLM 6.06 Berechnen des ICC Die Intra-Class-Correlation Correlation (Intraklassenkorrelationskoeffizent - ICC) bezeichnet den Anteil der Gesamtvarianz, der auf Unterschiede zwischen den Gruppen (im Beispiel zwischen Schulen) entfällt. Berechnet wird er als Quotient der Varianzkomponenten von u0 und der Summe aus u0 und r: 0 753, 46 ICC u 0163, u r 753, 46 3877, 63 0!!!ACHTUNG!!! Die Berechnung von Varianzanteilen ist nur im Nullmodell zulässig!

Arbeiten mit HLM 6.06 Berechnen eines HLM-Random-Coefficient-Model 1. Migrationsstatus (mig_dich) und Geschlecht (girl) als unabhängige Variablen vereinbaren (add variable uncentered) 2. Fehlerterm für 1 und 2 aktivieren 3. Basic Settings starten a) Title vereinbaren (HLM-DresdenBsp1_rcm) b) Output file name vereinbaren (Pfad\hlm_dresdenbsp1_rcm.txt) c) OK 4. Run Analysis Save and Run ( hlm_dresdenbsp1_rcm ) 5. File View Output

Arbeiten mit HLM 6.06 Berechnen eines HLM-Intercepts-and-Slopes-as-Outcomes-Model 1. Migrantenanteil (mig_z) als unabhängige Variable für 0 vereinbaren (add variable uncentered) 2. Basic Settings starten a) Title vereinbaren (HLM-dresdenbsp1_iso) b) Output file name vereinbaren (Pfad\hlm_ dresdenbsp1 _ iso.txt) c) OK 3. Run Analysis Save and Run ( hlm_dresdenbsp1_iso ) 4. File View Output

Interpretation der Ergebnisse Es zeigt sich, dass die Lesekompetenz sowohl durch das Geschlecht als auch durch den Migrationsstatus beeinflusst wird. Auch der Migrantenanteil der Schulen wirkt sich auf die Lesekompetenz der Grundschülerinnen und Grundschüler aus. Die immer noch signifikante Streuung der Fehlerterme zeigt an, dass es Einflüsse gibt, die noch nicht spezifiziert wurden. Im Idealfall streuen die Fehlerterme im vollständigen Modell nicht mehr signifikant. ifik Das bedeutet, t dass alle Varianz in der Parameter-Streuung durch die aufgenommenen Variablen erklärt werden konnte. ANOVA RCM ISO Mittlere Lesekompetenz (alle UVs=0) 535,69*** 542,32*** 541,80*** Individuelle Effekte auf dielesekompetenz Migrationshintergrund vorhanden 32,68*** 31,69*** Mädchen 11,84*** 11,89*** Schuleffekte auf die Lesekompetenz Migrantenanteil der Schulen (z standardisiert) 6,51** *** p<.001; ** p<.01 ; * p<.05

Exkurs: Standardisierung Festlegen was es bedeutet, wenn sich X um eine Einheit ändert Erleichterung bei der Interpretation der Koeffizienten Vergleich der Effekte verschiedener Prädiktoren Y X Ebene 1: Ebene 2: Wenn sich X um eine Einheit ändert, ändert sich Y um Einheiten. Wenn sich Z um eine Einheit ändert, ändert sich um Einheiten. Z

Exkurs: Standardisierung Vollständige Z Standardisierung ALLER (nicht dichotomen) Prädiktoren und der AV Eine Einheit = 1 Standardabweichung Standardisierung im Nachhinein, wenn die Prädiktoren in Form von Rohwerten einbezogen wurden (Formel: siehe Regression) Kann sowohl auf Ebene 1 wie auch auf Ebene 2 vorgenommen werden Wenn Ebene 1 Variablen auf Ebene 2 aggregiert werden, hat man die Wahl zwischen der Standardisierung des resultierenden Ebene 2 Prädiktors in Ebene 1 oder 2 Streuung. Damit itändert sich ihdie Bedeutung: Bd 1= eine SD zwischen den Schülern der Stichprobe oder 1= eine SD zwischen den Mittelwerten der Schulen/Klassen ACHTUNG: Eine Standardisierung im Nachhinein ist für Cross Level Wechselwirkungen so nicht möglich.

Exkurs: Cross-Level-Effekte / Wechselwirkungen Wenn Cross Level Effekte modelliert werden sollen, dann ist es wichtig immer auch den Haupteffekt der entsprechenden L2 Variable im Modell zu integrieren. Die Haupteffekte der Prädiktoren haben eine andere Bedeutung, als wenn ihre Interaktion nicht modelliert wird. Prädiktoren sind nicht mehr unabhängig voneinander, sondern beziehen sich aufeinander. Mit der Interaktion stellt der Koeffizient des einen Prädiktors den erwarteten Wert des slopes dar für den Fall, dass der andere Koeffizient null wäre und umgekehrt.

Exkurs: Cross-Level-Effekte / Wechselwirkungen Wenn 0 keinen sinnvollen Wert darstellt, hat der Regressionskoeffizient des anderen Prädiktors keine substanzielle Bedeutung. Zentrierung (am Grand Mean) oder Z Standardisierung Der Koeffizient i des einen Prädiktors kann dann interpretiert i werden als der Koeffizient i eines Individuums mit durchschnittlichem Wert ( 0 )auf dem anderen Prädiktor. Die Interaktion kann interpretiert werden als Interaktion für Personen, die auf beiden einzelnen Prädiktoren durchschnittliche Werte ( 0 ) aufweisen.

Exkurs: Cross-Level-Effekte / Wechselwirkungen Beispiel: Abhängige gg Variable Y = Matheleistung Ebene 1 Prädiktor X = Sozioökonomischer Status (SES) Ebene 2 Prädiktor Z = Öffentliche vs. katholische Schulen (Sector 0/1) Wechselwirkungen X*Z = Der Effekt des sozioökonomischen Status unterscheidet sich in Abhängigkeit des Sectors

Exkurs: Cross-Level-Effekte / Wechselwirkungen Beispiel: The outcome variable is MATHACH Final estimation of fixed effects (with robust standard errors) In öffentlichen Schulen weisen Schüler/innen pro Anstieg des In katholischen Schulen liegt der Erwartungswert der Matheleistung von ---------------------------------------------------------------------------- SES um 1 Einheit knapp 3 Schüler/innen Standard d mit durchschnittlichem Approx. SES Einheiten Fixed Effect bessere Coefficient um Error 2,13 Einheiten T-ratio höher als d.f. in öffentlichen P-value Schulen. --------------------------------------------------------------------------- Matheleistungen auf. For INTRCPT1, B0 INTRCPT2, G00 11.750662 0.218684 53.733 158 0.000 Dieser Effekt ist in SECTOR, G01 2.128422 0.355700 5.984 158 0.000 katholischen Schulen um 1,31 For SES slope, B1 Einheiten geringer. INTRCPT2, G10 2.958798 0.144092 20.534 158 0.000 SECTOR, G11-1.313096 0.214271-6.128 158 0.000 ----------------------------------------------------------------------------

Exkurs: Dummy-Variablen Oft soll die AV nicht nur mit numerischen Prädiktoren (z.b. Intelligenz, SES) vorhergesagt werden, sondern mit der Zugehörigkeit zu bestimmten Gruppen (z.b. Geschlecht, Schulform) resp. kategorialen bzw. nominalen Daten/Variablen Diese Gruppenvariablen können sowohl auf Ebene 1 (Geschlecht, Muttersprache) als auch auf Ebene 2 (Schulform, Bundesland) verortet sein. Für eine einzelne Gruppenvariable können / müssen so viele Dummyvariablen gebildet werden, wie es Gruppen gibt. Jede Dummyvariable ist 1, wenn ein Fall (Schüler / Schule) in der jeweiligen Gruppe ist, und 0, wenn der Fall einer anderen Gruppe angehört. Wichtig: Denn ansonsten ist der Intercept wieder nicht interpretierbar

Exkurs: Dummy-Variablen Beispiel: Schulform polytome nominale Variable Variable Schulform mit 4 Kategorien 4 Dummyvariablen 1 = Hauptsch. HS: 1=HS, 0=Rest 2 = Realsch. RS: 1=RS, 0=Rest 3 = Gesamtsch. GS: 1=GS, 0=Rest 4 = Gymnasium GY: 1=GY, 0=Rest

Exkurs: Dummy-Variablen Datentransformation muss VORAB in SPSS erfolgen. Alle Dummy Variablen in den.mdm Datenfile aufnehmen Im Modell immer eine Gruppe (Dummy Variable) nicht in das Modell aufnehmen: Grund: Perfekte lineare Abhängigkeit zwischen den Prädiktoren Ausgelassene Gruppe = Referenzgruppe Beispiel: die Variable HS wird nicht als Prädiktor aufgenommen; die für die anderen Dummyvariablen geschätzten Werte sind als Unterschied zwischen Hauptschule und der jeweiligen Schulform zu interpretieren.

Exkurs: Dummy-Variablen Standardisierung der Dummy Variable? Ist nicht notwendig, da es hier einen festgelegten g Nullpunkt gibt. Eine Einheit hat eine klare inhaltliche Interpretation Auch aggregierte Dummyvariablen sind ohne Standardisierung zu interpretieren: Eine 0/1 Kodierung von Migrant wird auf Klassenebene gemittelt zu einer natürlichen Variablen Migrantenanteil. il Eine Multiplikation mit 100 auf Ebene 2 zu prozentualer Migrantenanteil könnte hier noch hilfreich sein.