Die Mehrebenenanalyse als Regressionsmodell für hierarchische Daten

Größe: px
Ab Seite anzeigen:

Download "Die Mehrebenenanalyse als Regressionsmodell für hierarchische Daten"

Transkript

1 D:\eigene Dateien\windzio\lehre\ml_workshop\mehrebenen\tuto_mlw_workshop.doc Die Mehrebenenanalyse als Regressionsmodell für hierarchische Daten Michael Windzio 1 Einleitung: Mehrebenenanalyse als Regression für hierarchische Daten 1.1 Terminologie Der in den Sozialwissenschaften gebräuchliche Terminus der Mehrebenenanalyse bezieht sich auf die Unterscheidung zwischen unterschiedlichen Analyseebenen. Man kann z.b. Gewalt an 00 Schulen auf unterschiedlichen Ebenen betrachten. Man kann zum einen für jede Schule den Anteil der Täter unter den Schülern berechnen und untersuchen, ob diese Anteile z.b. durch den Migrantenanteil der Schüler zu erklären sind. Die Aussageeinheiten wären dabei die Schulen, und die beiden Variablen Täterquote und Migrantenanteil wären aggregierte Maße, die also durch Aggregation der Schülermerkmale ermittelt werden. Man befände sich somit auf der Aggregatebene. Der Terminus für eine solche Untersuchung ist darum auch die Aggregatdatenanalyse. Zum anderen kann man die Untersuchung auf der Individualebene ansetzen. Man erhebt und analysiert dabei die individuellen Angaben aller 00 x 90 = Schüler der 9. Klassen. Dabei schätzt man z.b. den Effekt des Merkmals Migrant auf das Gewalthandeln und kann feststellen, ob es tatsächlich die Gruppe der Migranten ist, die eine höhere Gewaltbelastung aufweist. Allein auf Basis einer Aggregatdatenanalyse ist dies nicht möglich, denn es kann ja sein, dass gerade in Schulen mit hohem Migrantenanteil die deutschen Schüler eher zu Gewalt neigen. Wollte man anhand der Aggregatdatenanalyse den Schluss ziehen, es seien die Migranten, die Gewalt ausüben, obwohl man nur Effekt des Migrantenanteils auf der Schulebene auf die Täterquote (ebenfalls auf der Schulebene) schätzt, unterläge man der Gefahr eines ökologischen Fehlschlusses. Der Idealfall einer Datenerhebung integriert beide Ebenen und erzeugt damit eine hierarchische Datenstruktur: oben die Schulen, unten die Schüler. Dabei werden Merkmale der Schüler auf der Individualebene erfasst und diese zugleich der Aggregateinheit Schule zugeordnet werden können. Als Prädiktoren für outcomes (Werte der abhängigen Variablen) können dabei sowohl Merkmale der Schüler (Individualebene) als auch Merkmale der Aggregat-, man sagt auch: Kontextebene (Schulen) modelliert werden. Überdies können auch cross-level - Interaktionseffekte möglich, indem also Effekte individueller Merkmale 1

2 auf die AV durch Schulmerkmale moderiert werden. Und genau dieses leistet das Verfahren der Mehrebenenanalyse. Für statistische Analyseverfahren, die mit dem Begriff der Mehrebenenanalyse bezeichnet werden, gibt es in der Statistik und der Ökonometrie verschiedene Synonyme, die man kennen sollte, um die Verfahren in der Literatur richtig zuzuordnen. Das mittlerweile klassische Buch von Bryk und Raudenbush (199) trägt den Titel hierarchical linear models, wobei das Hierarchische auf die Struktur der Daten bezogen ist, und nicht etwa auf die sukzessive Erweiterung eines Regressionsmodells um neue erklärende Variablen. In der Agrarwissenschaft, der Biologie oder der Medizin findet man auch die Bezeichnung Models for clustered data oder Ähnliches, was ebenfalls auf die Struktur der Daten bezogen ist. Wird beispielsweise das Wachstum von Hundewelpen untersucht, werden nicht Stichproben einzelner Welpen gezogen, sondern Stichproben von Hundemüttern, die jeweils mehrere Welpen haben, die Welpen also Cluster (Klumpen) darstellen. Statistiker sprechen von mixed models, entweder als linear mixed models oder als generalized mixed models. Gemischt sind die Modelle, weil sie sowohl feste Koeffizienten ( fixed effects ) als auch zu zufällige Koeffizienten (random effects/coeffcients) umfassen, also eine Mischung unterschiedlicher Effektarten beinhalten. Diese Schlüsselbegriffe werden uns später hauptsächlich beschäftigten. In der Evaluationsforschung, insbesondere in der Medizin, ist häufig von clustered oder group randomized trials die Rede und der Charakter der Mehrebenenstruktur der Daten bleibt eher implizit. Schließlich sind in der Ökonometrie, vor allem in der Längsschnittforschung, die Konzepte der fixed effects, random effects sowie der random coefficient Modelle sehr etabliert. Ein schönes Wortkonstrukt liefern auch Sophia Raabe-Hesketh und Anders Skrondal (005), die für STATA das Modul gllamm programmiert haben. gllamm steht für generalized linear latent and mixed models und integriert die Mehrebenenanalyse mit allgemeinen latenten Variablen Modellen wie SEM (structural equation modeling) oder der latenten Klassenanalyse. 1 Bei den latenten Variablen Modellen geht es zwar in erster Linie um Messprobleme und unbeobachtete, nicht direkt gemessene Konstrukte sowie um den Umgang mit Fehlertermen. Aber im Laufe dieser kleinen Einführung sollte deutlich werden, dass in der Mehrebenenanalyse ebenfalls vor allem komplexe Fehlerstrukturen im Mittelpunkt stehen, die entweder aufgeklärt werden sollen, oder zumindest in der Analyse als Fehler adäquat 1 Bekanntermaßen steht ja STATA für schön, traumhaft, anbetungswürdig, toll, absolut

3 berücksichtigt werden. Aufgrund dieser komplexen Fehlerstrukturen besteht ein enger Zusammenhang zwischen der Mehrebenenanalyse und SEM. Übrigens: Liegen keine hierarchischen Daten vor, und auch keine Längsschnittdaten (die sich als hierarchische Daten darstellen lassen), benötigt man auch das Verfahren der Mehrebenenanalyse nicht. Hierarchische Datenstrukturen Bei der Mehrebenenanalyse handelt es sich um eine Erweiterung der verallgemeinerten Regressionsanalyse. Verallgemeinert bedeutet, dass sich die Schätzmodelle nicht auf lineare Zusammenhänge metrischer und kontinuierlicher Daten beschränken, wie es in der gewöhnlichen Kleinste-Quadrate Regression (OLS) zumeist der Fall ist. Auch nicht-lineare Zusammenhänge, die insbesondere bei der Analyse kategorialer Daten zugrunde gelegt werden, fallen unter das verallgemeinerte Regressionsmodell also auch die logistische Regression. Regression bedeutet einfach nur, dass unabhängig vom Skalenniveau der abhängigen Variablen Werte dieser abhängigen Variablen durch eine oder mehrere unabhängige Variablen erklärt werden. Genau dies tut auch die Mehrebenenanalyse. Die Mehrebenenanalyse kommt zur Anwendung, wenn die Datenstruktur eine Hierarchie aufweist, bei der Beobachtungen einer unteren Ebene (z.b. Schüler) in Beobachtungen einer übergeordneten Ebene eingebettet sind (z.b. Schulen oder Klassen). Ist dies der Fall, sind zentrale Annahmen aller klassischen Ein-Ebenen Regressionsmodelle verletzt. Man darf sie dann also streng genommen nicht in der üblichen Variante schätzen. Diesen sehr wichtigen Punkt werden wir weiter unten wieder aufgreifen. Abb. 1: Hierarchische Struktur der Mehrebenenanalyse Region 1 Region Ebene 3: Regionen Ebene : Schulen Ebene 1: Schüler 3

4 Ein Beispiel für eine hierarchische Datenstruktur ist in Abb. 1 schematisch dargestellt. In diesem fiktiven Fall wurden beispielsweise 100 Kreisregionen zufällig ausgewählt, innerhalb jeder Region zufällig fünf Schulen, an denen jeweils sämtliche Schüler befragt wurden. Dadurch erhält man ein Drei-Ebenen-Design. Die Mehrebenenanalyse ermöglicht, dass auch bei hierarchischen Datenstrukturen, in denen die einzelnen Beobachtungen nicht unabhängig voneinander sind, Regressionsmodelle geschätzt werden können. Sowohl die Regressionskonstante als auch die Regressionskoeffizienten können dabei zwischen den Kontexten variieren. Das ist im Prinzip der Kern der Mehrebenenanalyse. Eine Abhängigkeit der Individuen innerhalb eines Kontextes, also einer Einheit der höheren Ebene, entsteht dadurch, dass Merkmale dieser Kontext- Einheit, etwa der Schule, einen Einfluss auf die abhängige Variable ausüben. So kann eine Schule erfolgreich ein besonderes Lehrkonzept verfolgen, wodurch der mittlere Wert eines Leistungstests höher ist, als in anderen Schulen. Diesem Kontexteffekt sind dann alle Schüler der Schule ausgesetzt. Wegen dieses Kontexteffektes des Lehrkonzepts (von dem wir also annehmen, dass es effizient funktioniert) sind die Testwerte von Schülern innerhalb derselben Schule korreliert: Im Durchschnitt haben jene Schüler höhere Testwerte, die Schulen angehören, in denen das neue Lehrkonzept praktiziert wird. Innerhalb einer Schule haben wir darum aufgrund des Kontexteffektes Lehrkonzept eine leichte Tendenz zu der Situation kennst du einen, dann kennst du alle. In seriöser Terminologie drückt man denselben Sachverhalt folgendermaßen aus: die zentrale Annahme der stochastischen Unabhängigkeit der Beobachtungen voneinander ist verletzt. Ist diese Annahme verletzt, bekommt man ein großes Problem, weil die Schüler nicht jeweils mit einer vollwertigen, eigenständigen Information zu der Schätzung beitragen. Wären alle Schüler statistisch unabhängig voneinander, hätte jeder Schüler bei der Schätzung ein Gewicht von 1. Aufgrund der statistischen Abhängigkeit müsste man jeden Schüler mit einem Wert < 1 gewichten. Wie groß dieser Gewichtungsfaktor sein müsste, hängt von einem Wert ab, der uns noch interessieren wird: der Intraklassenkorrelation. Das bedeutet mit anderen Worten, dass die Schätzung bei Vorliegen der Intraklassenkorrelation nicht auf einem N von Schülern basiert, sondern faktisch auf einer geringeren Fallzahl. Da jedoch der Standardfehler der Parameterschätzung von der Fallzahl abhängt, entsteht die Gefahr, scheinbar signifikante Effekte zu finden obwohl sie faktisch nicht signifikant sind. Die Mehrebenenanalyse umgeht das Problem, indem sie die erklärbare Varianz zwischen die Einheiten der Kontextebene (Schulen) und Individualebene (Schüler) zerlegt. 4

5 3 Die Grundidee der Mehrebenenanalyse: -Ebenenmodell mit Schülern in Schulen Sagt man in einem Regressionsmodell das Testergebnis von Schülern im Alter von 16 (y) durch einen (altersadäquaten) Testscore im Alter von 11 (x) vorher, bedeutet die oben erwähnte Kontextabhängigkeit, dass sowohl die Regressionskonstante β 0 als auch der Regressionskoeffizient von x (häufig slope genannt) β 1 zwischen den Kontexten variieren können. Das könnte daran liegen, dass in Schulen, die das neue Lehrkonzept implementiert haben, der Zusammenhang zwischen beiden Variablen geringer ist, weil durch das neue Lehrkonzept insbesondere jene Schüler profitieren, die mit 11 Jahren sehr schlechte Schüler waren. In Schulen >mit< dem neuen Lehrkonzept ist darum der Zusammenhang zwischen dem Testwert im Alter von 11 und Testwert im Alter von 16 gering, weil das Lehrkonzept kompensatorisch wirkt und damit Aufstiegsmobilität in der Leistung erzeugt. In Schulen, die das kompensatorische Lehrkonzept nicht verwenden, finden wir hingegen erwartungsgemäß einen stärkeren Zusammenhang zwischen x und y. Demzufolge lässt sich die Realität also nicht durch ein einfaches Regressionsmodell der Form y + e i = β 0 + β 1 x1 i ij abbilden, wie wir es gewohnt sind. Nehmen wir an, die Werte von y und x sind standardisiert mit einem Mittelwert von 0 und einer Standardabweichung von 1. Dann ist β 0 der Mittelwert des Testscores (=0) und β 1 die durch die x-variable (testscore im Alter von 11) induzierte Abweichung vom Mittelwert. Wenn aufgrund der Kontexteinflüsse der Schule sowohl β 0 als auch β 1 in jeder Schule spezifische Werte annehmen, könnte die Gleichung folgendermaßen lauten (achtet auf die Subskripte): y + e ij = β 0 + β x j 1 j 1ij ij Das bedeutet: ein Wert der abhängigen Variablen y eines Schüler i in Schule j ist eine Funktion von 1. der spezifischen Regressionskonstanten β 0 innerhalb des Kontexts, also in der j Schule j,. sowie des spezifischen Regressionskoeffizienten β1 j innerhalb des Kontexts, also innerhalb der Schule j, 3. sowie eines Schätzfehlers, eines Residuums e ij als Differenz des durch das Modell vorhergesagten Wertes der abhängigen Variablen y. ŷ und des empirischen Wertes von 5

6 Das ist aber noch nicht alles. Das Residuum e ij stellt einen personenspezifischen Schätzfehler dar, nämlich einen Fehler der Person i im Kontext (Schule) j. Die hierarchische Datenstruktur impliziert darüber hinaus auch für die Ebene der Schulen einen Messfehler. Wenn zuvor gesagt wurde, dass jede Schule einen eigenen Intercept, also eine eigene Regressionskonstante aufweist, würde das ja bedeuten, dass man k Intercepts in das Modell aufnehmen müsste, wenn man Schüler in k unterschiedlichen Schulen untersucht. In einer Studie mit 00 Schulen hätte man dann 00 Intercepts in einem Regressionsmodell, was eine sehr umfangreiche Schätzgleichung darstellen würde. In der Praxis existieren derartige Modelle tatsächlich unter dem Namen fixed effects models. Man fixiert quasi die Einflüsse der Kontexteinheiten durch k 1 Dummyvariablen. Dabei sind häufig die geschätzten Werte der einzelnen Intercepts kaum von Interesse, sondern man möchte die Kontextfaktoren explizit auspartialisieren, um die reinen Effekte innerhalb der Kontexte zu ermitteln. Angenommen man zieht die Schulen als Zufallsstichprobe. Dann wären auch die mittleren Testwerte jeder Schule, wie in der Population, normalverteilt. Und wenn jede Schule ihre eigene spezielle Unterrichtspraxis verfolgt und das mittlere Schulniveau normalverteilt ist, gilt dies ebenso für die Stichprobe. Man könnte nun über alle Schulen hinweg den Mittelwert aller schulspezifischen Mittelwerte der Leistungstests bilden, um einen sehr groben Schätzer für den Leistungsmittelwert in einer Schule j (z.b. IGS Linden) zu erhalten. Die Vorhersage des Mittelwertes der Schule j durch diesen grand mean aller Schulen wäre dann aber wiederum mit einem Schätzfehler, einem Residuum, behaftet, welches im Folgenden als u 0j bezeichnet wird. Abb. : Grand mean: Mittelwert aller Schulmittelwerte β 0 (=0) als grober Schätzer für den Schulmittelwert einer Schule j (IGS Linden) IGS Linden u 0 : random effect der Konstanten β 0 : E(u 0 ) = 0 var( u0) = σ u0 grand mean = β 0 =0 => grober Schätzer für IGS Linden u 0 j Mittelwert IGS Linden = β = β 0 j 0 + u 0 j β 0 =0 6

7 Der Wert für u 0j kann sowohl positiv als auch negativ sein, wenn für u 0j eine Normalverteilung mit einem Mittelwert von Null angenommen wird. Dabei bezeichnet j wieder die Schule. Das Subskript 0 bedeutet, dass es dabei um die Regressionskonstante geht. Der Mittelwert der Schule j auf Ebene der Schulen wäre also eine Funktion des grand mean und des Residuums u 0j, also der Differenz aus dem Mittelwert der Schule j und dem grand mean. Wir erhalten damit unsere erste Ebene- - Gleichung: β 0 j = β 0 + u 0 j Dasselbe gilt für den Zusammenhang zwischen y und x, also β 1. Wenn β 1 aufgrund von (unbeobachteten) schulspezifischen Lehrmethoden zwischen den Schulen variiert, dann ist der Regressionskoeffizient β1 eine Funktion des Mittelwertes aller Regressionskoeffizienten β1 und dem Residuum u 1j, also der Abweichung zwischen dem Koeffizienten im Kontext (der Schule) j vom Mittelwert aller Koeffizienten. Wir schreiben darum: β 1 j = β 1 + u 1 j Demnach impliziert unsere Gleichung für schulspezifische Effekte y + e ij = β 0 + β x j 1 j 1ij ij die Schätzfehler der Ebene der Schulen. Man unterscheidet daher auch zwischen Gleichungen der Ebene 1 und Gleichungen der Ebene. Im Mehrebenenmodell werden beide Gleichungen integriert. Unsere Gleichung der Ebene 1 kennen wir mittlerweile: y + e ij = β 0 + β x j 1 j 1ij Und wir wissen auch bereits, dass ij β0 j der Schulen, u 0j, resultiert, sowie, dass sich aus dem grand mean und dem Schätzfehler der Ebene β 1 j aus dem Mittelwert der slopes β 1 über alle Schulen plus dem Residuum u 1j ergibt. Wir setzen die Gleichungen der Ebene ( 0 j = β 0 + u 0 j β und β 1 j = β 1 + u 1 j ) für β0 j und β1 j ein. Also schreiben wir: y β u u x + e i=1,,...n j=1,,...,j ij = ( j ) + ( β1 + 1 j ) 1ij ij Dabei dienen die ersten Klammern einfach nur der optischen Abgrenzung. Diese Gleichung stellt ein sogenanntes random slope model dar, bei dem sowohl der Intercept als auch der slope zwischen den Schulen variiert, wenn tatsächlich anhand der Daten signifikante Varianzen von u 0j und u 1j geschätzt werden. Dies zeigt Abbildung 4, während 7

8 Abbildung 3 ein random intercept model darstellt, in dem nur die Intercepts zwischen den Schulen variieren, nicht aber die Zusammenhänge zwischen x und y. Abb.3: random intercept model Abb. 4: random slope model z- scores: AV: normexam: test score at age 16 UV: standlrt: London reading test score at age 11 Das Modell in Abbildung 3 lautet: y u x + e ij = ( β j ) + β1 1ij ij weil in Abb. 3 kein random effect für den slope beta 1 vorliegt. Oben wurde kurz das sogenannte fixed effects Modell erwähnt, bei dem, vereinfacht ausgedrückt, k 1 Dummyvariablen für die k Schulen in das Modell eingehen, also jede Kontexteinheit bis auf eine durch Dummyvariablen konstant gehalten wird. Wenn wir aber annehmen können, dass die Residuen u 0j und u 1j normalverteilt sind, lässt sich das Modell wesentlich sparsamer schätzen. Man schätzt die Varianz der Verteilung der Fehler und hat dadurch für jeden Fehler eine eindeutig bestimmte Glockenkurve. Die Fehler u 0j und u 1j werden dann ihrer jeweiligen durch die empirische Varianz festgelegten Verteilung entnommen. Das geht aber nur, wenn die Fehler wirklich einer Normalverteilung entstammen, weshalb die Regressionsdiagnostik in der Mehrebenenanalyse sogar noch wichtiger ist, als in der single-level -Regression. 8

9 Abb. 5: Normalverteilungsannahme der Ebene Fehler u 0j und u 1j u 0 : random effect der Konstanten beta 0: E(u 0 ) = 0 var( u0) = σ u0 u 1 : random effect des slopes beta 1: E(u 1 ) = 0 var( u1) = σ u1 u 0j =0 Unter der Annahme der Normalverteilung von u 0 ist das Mehrebenenmodell wesentlich sparsamer als das fixed effects model, weil nicht k-1 weitere Parameter geschätzt werden müssen, sondern nur sage und schreibe >ein< weiterer Parameter: die Varianz der normalverteilten Residuen der Ebene u 0, die als bezeichnet wird. Es ist allerdings eine empirische Frage, ob diese sogenannte Residualvarianz der Ebene auch signifikant von Null verschieden ist. Sollte sie es nicht sein, dann benötigte man auch kein Mehrebebenmodell. Ist sie signifikant, erhält man ein Bild wie in Abb. 3. Gehen wir einen Schritt weiter: wir haben theoretisch begründete Argumente dafür, dass auch der Zusammenhang zwischen dem Testwert im Alter von 11 und dem Wert im Alter von 16 in den Schulen unterschiedlich stark ist. Das prüfen wir, indem wir auch für den slope einen random effect einführen, was konsequenterweise als random coefficient bezeichnet wird. Wir nehmen ebenfalls eine Normalverteilung für die Werte u 1 an, die die schulspezifische Abweichung des slopes von Mittelwert aller slopes anzeigen. Ergibt sich empirisch eine signifikante Varianz als auch σ u1 σ u1 signifikant sind. σ u0 der u1-werte, erhält man ein Bild wie in Abb. 4, wenn sowohl Die Schätzung der Mehrebenenmodelle erfolgt über spezielle Algorithmen, die erst seit den 1990er Jahren einem breiterem Anwenderkreis zugänglich sind. Doch warum kann man auch bei hierarchischen Datenstrukturen nicht einfach z.b. ein klassisches Ein-Ebenen-OLS- Modell schätzen? Das hängt mit den Annahmen des OLS Modells zusammen, die durch die hierarchische Datenstruktur verletzt werden. Gehen wir also zunächst einen Schritt zurück. σ u0 Die Normalverteilung ist durch Parameter determiniert: durch den Mittelwert und durch die Varianz. Weil in unserem Fall die Residuen aller Kontexte/Schulen um den Mittelwert Null zentriert sind, benötigt man nur einen Parameter eben die Varianz. 9

10 4 Ein Schritt zurück: Das lineare Ein-Ebenen Regressionsmodell und dessen Annahmen Das klassische Ein-Ebenen-Regressionsmodell hat folgende Form: y = β 0 + β1x + βx β x + e i=1,,..., n i 1i i k ki i Der Fehler e i speist sich aus zwei Quellen: erstens als Messfehler von y und x, zweitens als Fehler der Spezifikation des Effektes von x auf y. Das Modell basiert auf folgenden Annahmen (Maddala 001: 18): 1 E(e i ) = 0 Der Erwartungswert, hier der Mittelwert des Fehlers, ist null var( i) = σ e Die Varianz des Fehlers e ist für alle n Beobachtungen gleich. Das bedeutet auch, dass die Varianz des Fehlers nicht mit Werten erklärender Variablen zuoder abnehmen darf, sondern homoskedastisch sein muss. 3 e i und e i+1 sind unabhängig voneinander 4 e i und x i sind unabhängig voneinander Der Fehler einer Beobachtung i ist unkorreliert mit dem Fehler einer Beobachtung i +1 Das Residuum hängt nicht von Werten der erklärenden Variablen ab, was oben bereits durch den Begriff der Homoskedastizität beschrieben ist. 5 Die Fehler e i sind normalverteilt 6 Es gibt keine lineare Abhängigkeit zwischen den erklärenden Variablen. Keine der erklärenden Variablen lässt sich perfekt durch alle anderen erklärenden Variablen vorhersagen, es existiert also keine perfekte Kollinearität. Allerdings dürfen die erklärenden Variablen ansonsten hoch untereinander korreliert sein. Man ist ja an den partialen Effekten interessiert. Betrachten wir Annahmen 3 und 4 genauer. Annahme 3 unterstellt die Unabhängigkeit der Fehler voneinander. Haben wir aber eine hierarchische Datenstruktur, bei der das Residuum einer ganzen Schule aufgrund schulspezifischer Lehrkonzepte im Betrag hoch ist, ist diese Annahme verletzt, denn zwei Schüler einer Schule sind demselben Kontexteinfluss ausgesetzt. Mit anderen Worten: zwei individuelle Schüler weichen stark vom Schätzwert des grand mean ab, weil die gesamte 10

11 Schule beispielsweise aufgrund ihres Lehrkonzeptes einen hohen mittleren Leistungswert aufweist. Abb. 6: Der Zusammenhang zwischen Testwert Schüler und Berufsprestige Vater: Korrelierte Residuen aufgrund der Intraklassenkorrelation Residuum + 10,00 8,00 Residuum + schule 1,00,00 Anpassungslinie bei Gesamtwert Testscore 6,00 4,00 Residuum - Grand mean,00 Residuum - R-Quadrat linear = 0,16 0,00 90,00 95,00 100,00 105,00 Berufsprestige Vater 110,00 Möglicherweise unterscheiden sich die beiden Schüler auch aufgrund ihrer individuellen Voraussetzungen in ihren Leistungen voneinander. Dennoch sind ihre Leistungen aufgrund der Eigenheiten der Schule korreliert. Man spricht in diesem Fall von Intraklassenkorrelation. Diese ist zu Unterscheiden von der Korrelation der individuellen Residuen e i untereinander (Autokorrelation). Aber zwischen beiden Phänomenen besteht ein Zusammenhang, wie anhand der Abbildung 6 deutlich werden sollte: die individuellen Residuen e i, also die Abweichung von der Regressionsgerade, ist in Schule stets positiv, in Schule 1 stets negativ. Die individuellen Residuen e i sind also innerhalb der Kontexte korreliert und die zentrale Annahe 3 der OLS-Regression ist verletzt. Der Grund für diese Korrelation liegt in Tatsache, dass die Testwerte der Schüler untereinander korreliert sind: kennt man einen Schüler aus der IGS Linden, kennt man zumindest tendenziell damit alle Schüler der IGS Linden zumindest das die Testwerte betrifft. Was diese Intraklassenkorrelation bedeutet und wie sie berechnet, werden wir uns noch ansehen. Zunächst aber zur Annahme 4. Annahme 4 unterstellt eine Homoskedastizität, also eine Unabhängigkeit der Fehlerkomponente von Ausprägungen der erklärenden Variablen. Wie verhält sich diese Annahme im Mehrebenenmodell? Ausgegangen sind wir ja von folgender Gleichung: 11

12 y β u u x + e i=1,,...n j=1,,...,j ij = ( j ) + ( β1 + 1 j ) 1ij ij Wir stellen diese Gleichung nun durch ganz einfache Algebra (Ausmultiplizieren und Umschieben) um: y β u x u x + e <=> ij = j + β1 1ij + 1 j 1ij y β x u u x + e ij = 0 + β 1 1ij + 0 j + 1 j 1ij ij ij fixed part random part Durch die Umstellung hat sich substanziell nichts geändert, aber es wird nun deutlicher, dass die Gleichung zwei Komponenten aufweist: eine fixe Komponente, wie man sie in der klassischen Regressionsanalyse gewohnt ist, und eine zufällige Komponente, die den komplexen Fehlerterm des Mehrebenenmodells umfasst. Zum anderen ist nun offensichtlich, dass das Residuum der Ebene von den Werten unabhängigen Variablen x anhängig ist, wodurch die Annahme 4 verletzt ist denn auch ist ein Fehlerterm und der Term erzeugt im klassischen Modell verbotene Heteroskedastizität. Diese ist eine Folge der hierarchischen Datenstruktur, die man auch aus diesem Grund nicht mit dem klassischen OLS Regressionsmodell schätzen darf (Hox 00). Die Mehrebenenanalyse basiert auf besonderen iterativen Schätzverfahren, in denen die korrelierten Fehler sowie die Intraklassenkorrelation explizit in das Modell eingehen, indem die Varianz zwischen den einzelnen Analyseebenen aufgegliedert wird. Dazu kommen wir gleich. Aus den bisherigen Erörterungen wird der erste Vorteil der Mehrebenenanalyse deutlich: liegen hierarchische Datenstrukturen vor, in denen auch tatsächlich eine Intraklassenkorrelation zu beobachten ist, müssen wir dieses Verfahren anwenden, sonst würden wir einen Fehler machen. Ob überhaupt eine hierarchische Datenstruktur vorliegt, ist entweder offensichtlich oder eine Frage der inhaltlichen Theorie. Ob aber eine Intraklassenkorrelation vorliegt, die im klassischen OLS zu Fehlern führt, wenn sie unberücksichtigt bleibt, kann nur durch einen statistischen Test geprüft werden. Möglicherweise ist die Datenstruktur zwar hierarchisch, aber weil keine Intraklassenkorrelation vorliegt (da es keine signifikanten Kontexteffekte gibt), benötigt man keine Mehrebenenanalyse. Aus der Perspektive der Fehlervermeidung folgt, dass die hierarchische Datenstruktur als Ärgernis (clustering as a nuisance) angesehen wird, welches man durch die Mehrebenenanalyse beheben kann. u 1 j u 1 j x 1ij 1

13 Aus einer erweiterten Perspektive sieht man die Clusterung nicht als Ärgernis an, sondern als hoch interessantes Phänomen, bei dem simultan mikro- und makrosoziale Wirkungen auf das individuelle outcome geschätzt werden. Man fragt zum Beispiel: wenn auch Faktoren auf der Ebene der Schule die Testwerte beeinflussen, also Faktoren, die unabhängig von Merkmalen des einzelnen Schülers sind (soziale und ethnische Herkunft sind dann natürlich kontrolliert): wie wichtig sind diese Schulfaktoren im Verhältnis zu den individuellen Merkmalen des Schülers? Aus dieser erweiterten Perspektive wird die Frage der Clusterung der Schüler in Kontexte selbst richtig interessant. 5 Fehlervarianzen im Mehrebenenmodell Nun sehen wir uns die Fehlervarianzen im Mehrebenenmodell genauer an. Wir nehmen einen Datensatz mit 4059 Schülern in 65 Schulen und schätzen ein sogenanntes empty model, ein leeres Modell, in das nur der Intercept, aber keine erklärende Variable eingeht. Als alternative Bezeichnung findet man häufig auch die präzise Bezeichnung intercept-only model. Das ist übrigens eine einfaktoriellen Varianzanalyse mit zufälligem Effekt! Die abhängige Variable normexam ist ein z-standardisierter Wert des Examensergebnisses im Alter von 16. Das Ergebnis ist folgendes: Abb. 7: Schätzergebnis eines empty models Wir sehen in Abb. 7, dass der mittlere geschätzte Wert tatsächlich nahe bei Null liegt ( ). In diesem empty model haben wir erlaubt, dass der Intercept β 0 zwischen den 13

14 Kontexten variieren darf. Das haben wir ermöglicht, indem wir zu jeder Konstante einen Zufallseffekt u 0 addieren, den wir einer Normalverteilung entnommen haben (vgl. Abb. 5). Wir haben also mit dem Zufallseffekt u 0 einen weiteren Parameter in das Modell eingeführt haben. Ob dieser Parameter überhaupt erforderlich ist, ist eine empirische Frage, die anhand der Varianz des Zufallseffektes der Ebene, also der Varianz von u 0 beantwortet wird. Ist diese Varianz signifikant von Null verschieden, dann brauchen wir diesen Term und damit eben auch die Mehrebenenanalyse. Andernfalls können wir auf das gute alte Ein-Ebenen- OLS Regressionsmodell zurückgreifen. Was sehen wir in Abb. 7? In der drittletzten Zeile ist die empirisch geschätzte Varianz samt ihrem Standardfehler angegeben. Sie beträgt Dividiert durch (den Standardfehler der Schätzung) ergibt das eine z-wert von Ist das signifikant? Spontan würde man diese Frage bejahen, denn der Wert ist größer als der Schwellenwert von 1.96, der für eine 5% Irrtumswahrscheinlichkeit anzeigt. Weil Varianzen niemals negativ sein können, haben wir einen der seltenen Fälle für eine einseitige Fragestellung. Abb. 8: Für die Signifikanz von Varianzen nimmt man einseitige Tests! Wie in Abb. 8 dargestellt ist, nimmt man bei einer einseitigen Fragestellung nicht einen z- Wert von 1.96, sondern bereits einen z-wert von 1.64 als Schwellenwert für das 5% Signifikanzniveau. Unsere Varianz der Ebene ist also mit einem z-wert von weit im signifikanten Bereich. Daraus folgt: wir brauchen für die vorliegenden Daten tatsächlich die Mehrebenenanalyse. 14

15 5.1 Varianzenzerlegung In Abbildung 7 wurde zudem die Fehlervarianz auf der Ebene 1 der Individuen geschätzt. Gemäß einem empty model mit zwei Ebenen (wie hier der Fall) ergibt sich eine Gesamtvarianz von (Ebene ) plus (Ebene1) = Im empty model ist die gesamte unerklärte Varianz damit über die beiden Ebenen verteilt. Verglichen mit dem klassischen Regressionsmodell ist das ein neuer, spannender Aspekt: Es gibt sowohl Varianz der Schülerleistungen (Testwert), die durch Merkmale der Schüler auf der Ebene erklärbar ist, als auch Varianz, die durch Merkmale der Schulen auf der Ebene erklärt werden kann. Ob und wie man diese Varianz erklären kann, lassen wir zunächst außen vor. Wenn wir aus der Summe der Varianz der Ebene 1 und der Varianz der Ebene die Gesamtvarianz so einfach berechnen können, dann ist es auch kein Problem, die erklärbare Varianz über die beiden Ebenen zu verteilen. Betrachten wir wieder Abb % ist immer die Gesamtvarianz, die hier beträgt. Das bedeutet, dass der Anteil der Varianz, die durch die Ebene der Schulen erklärt werden kann, immerhin / * 100 =17% beträgt. Komplementär dazu beträgt die durch individuelle Merkmale der Schüler erklärbare Varianz / * 100 = 83%. Ein erster Schritt in der Mehrebenanalyse besteht also immer darin, dass man zunächst ein empty model, ein Modell ohne Kovariaten, schätzt und anschließend anhand der für die jeweilige Ebene ermittelten Varianz den Anteil der durch die jeweilige Ebene zu erklärenden Varianz berechnet. 5. Intraklassenkorrelation In der Literatur wird häufig die Varianz der Ebene formal als σ u0 bezeichnet, die Varianz der Ebene 1 als σ e. Daraus berechnen wir die Intraklassenkorrelation ρ (sprich: rho), die ja nicht anderes Darstellt als der durch die Ebene der Schulen erklärbare Varianzanteil (siehe oben). σ u ρ = = = σ + σ u0 e Die Intraklassenkorrelation ist ebenso einfach wie wichtig, denn nur auf deren Basis lassen sich statistische Vorhersagen auf Basis der Mehrebenenanalyse und die darin liegenden Probleme verstehen. Auf der Intraklassenkorrelation basiert das Konzept der Reliabilität, welches wir kennen müssen, um die sogenannten Empirical Bayes estimates verstehen zu können. 15

16 5.3 Empirical Bayes estimates Eines der zentralen Stärken der Mehrebenenanalyse ist die Tatsache, dass es nicht erforderlich ist, in jedem Kontext der Ebene (in jede Schule) dieselbe Anzahl der Beobachtungen der Ebene 1 vorzufinden. Wenn wir aber z.b. eine Schule mit 198 Schülern und eine Schule mit nur 30 Schülern der 9. Klassen haben, wird bei statistischen Vorhersagen dieser Unterschied durch Verwendung sogenannter empirical bayes estimates berücksichtigt. Um die Idee dieser Schätzer zu verstehen, schauen wir uns die bereits bekannten Abbildungen 9 und 10 an. Abb.9: random intercept model Abb. 10: random slope model In diesen Abbildungen sieht es so aus, als hätten wir für jede unserer 65 Schulen eine separate Regressionsanalyse durchgeführt. In Abbildung 9 haben wir 65 verschiedene Intercepts, in Abbildung 10 zudem 65 verschiedene slopes. Die Idee, einfach für jeden Kontext eine separate Regression zu schätzen, ist auch ganz und gar nicht absurd. Dann hätte man auch das Problem der Intraklassenkorrelation bzw. der Abhängigkeit der Beobachtungen voneinander nicht mehr, da man ja einfach 65 mal nur jeweils einen Kontext untersucht. Im Prinzip bräuchte man dann auch die Mehrebenenanalyse nicht. Sind allerdings die Fallzahlen innerhalb der Kontexte unterschiedlich groß, ist auch die Schätzung sowohl des Intercepts als auch der Konstanten nicht in gleichem Maße zuverlässig, wir sagen natürlich: nicht in gleichem Maße reliabel! Vielen ist ein ähnliches Problem aus der Skalenanalyse bekannt: Cronbach s alpha wird umso schlechter, je geringer die Item-Interkorrelationen sind, aber auch, je geringer die Zahl der Items ist. Cronbach s alpha errechnet sich aus 1 minus dem Verhältnis der Summe aller Varianzen der Einzelitems dividiert durch die Varianz der Skala- und dieser Wert wird noch heraufgewichtet, je kleiner die Anzahl der Items p ist. 16

17 p α = p 1 p σ Item _ i i= 1 1 σ skala Wenn wir über die Zufallseffekte u 0j und u 1j die Intercepts und die slopes separat für jeden Kontext (jede Schule) schätzen, müssen wir ebenfalls eine Gewichtung vornehmen (lassen). Wir müssen berücksichtigen, dass Reliabilität eines geschätzten Parameters umso geringer ist, je weniger Beobachtungen innerhalb eines Kontexts vorliegen. Es leuchtet ein, dass man einer Schätzung auf Basis von nur N j =30 weniger trauen kann als auf der Basis von N j =198. Möchte man aufgrund eines geschätzten Mehrebenenmodells Informationen über spezifische Kontexte erhalten, kann man dies nur einer speziell gewichteten Form den Empirical Bayes estimates. Im empty model entspricht der kontextspezifische Intercept dem Mittelwert des Testscores innerhalb der Schule. Dieser Mittelwert ist die Summe aus dem grand mean β 0 und dem Zufallseffekt für die spezifische Schule u 0j : β 0 j = β 0 + u 0 j Wie wir bereits wissen, ergibt sich die Besonderheit der Schule j, z.b. der IGS Linden, aus dem Wert des Zufallseffektes u 0j. Abb. 11: Grand mean: Schulmittelwert der Schule j (IGS Linden) IGS Linden Mittelwert IGS Linden: u 0 j β 0 => u 0j = 0 β 0 j = β 0 + u 0 j leider ist u 0j für die IGS Linden negativ, was vielleicht an der besonderen Zusammensetzung der Schülerschaft in diesem Stadtteil liegt. Woher aber kommt der spezifische Wert u 0j für die IGS Linden? Der Wert ergibt sich aus dem durch die OLS Regression geschätzten Mittelwert dieser Schule ˆβ OLS 0 j, der Reliabilität λ i 17

18 der Schätzung aufgrund von Fallzahl und Intraklassenkorrelation in Kontext j (IGS Linden) sowie dem grand mean β 0 : ˆ β ˆ EB OLS 0 j = λ jβ0 j + (1 λ j ) β 0 Um dies zu verstehen, müssen wir die Reliabilität λ i kennen. Die berechnet sich folgendermaßen: λ j = σ u0 σ + σ u0 e / n j Es handelt hierbei fast wieder um die Intraklassenkorrelation, jedoch mit der Modifikation, dass die Fallzahl im Kontext j den Nenner heruntergewichtet und damit die Reliabilität λ i erhöht. In der Regel ist der Varianzanteil auf der Ebene der Individuen i ja sehr hoch (oben waren es immerhin 83% vs. 17%) und daher hat die Varianz ein hohes Gewicht im Nenner. Dieses Gewicht wird enorm reduziert, indem durch die Anzahl der Fälle im Kontext dividiert wird und dies in umso stärkerem Maße, je größer die Fallzahl. Daher steigt die Reliabilität mit steigendem Varianzanteil der Ebene (also steigendem σ e ). Dieses im Gedächtnis betrachten wir nun die Empirical Bayes estimates: ˆ β ˆ EB OLS 0 j = λ jβ0 j + (1 λ j ) β 0 σ e σ u0 im Verhältnis zu Angenommen in der Schule ist die Reliabilität λ i sehr hoch, mit 0.99 nahezu bei 1. Dann ist für die Vorhersage des Mittelwertes in Schule i fast ausschließlich der durch OLS geschätzte Wert von Bedeutung, während hintere Teil rechten Seite der Gleichung nahezu verschwindet. Was passiert bei geringer Reliabilität? Beträgt sie 0.5, dann ist der geschätzte Mittelwert in Schule i zu gleichen Teilen sowohl durch den OLS geschätzten Wert bestimmt als auch durch den grand mean, also den mittleren Testwert über alle Schüler in allen Schulen. Beträgt die Reliabilität nur 0.1, wird der geschätzte Mittelwert der Schule i weiter gegen den grand mean gerückt. In der Literatur wird dies als Schrumpfung zum Mittelwert bezeichnet (shrinkage estimators). Anders ausgedrückt: mit abnehmender Reliabilität verlässt man sich bei der Vorhersage eines spezifischen Schulmittelwertes i zunehmend stärker auf den Gesamtmittelwert über alle Kontexte (=Mittelwert der Mittelwerte) und weniger auf die OLS- Schätzung innerhalb des Kontexts. Diese Schrumpfung zum Mittelwert hat Folgen: Die Abb. 9 und 10 resultieren aus Vorhersagen auf Grundlage vom Emprical Bayes estimates. In der Population sind die Intercepts eher etwas unterschiedlicher, als in Abb. 9 gezeigt. Wir haben also verzerrte 18

19 Schätzungen. Dagegen besteht der Vorteil darin, dass die Standardfehler der Schätzungen kleiner sind, weil mehr Information ausgeschöpft wird. In Abbildung 7 hatten wir ja bereits eine rudimentäre Mehrebenenanalyse durchgeführt. Anhand der folgenden Grafik lernen wir eine andere schöne Art der Darstellung von Empirical Bayes estimates, die in der Mehrebenenanalyse überaus beliebt ist. Nämlich die Rankings. Abb. 1: Zufallseffekte des Intercepts u 0j und deren Standardfehler über dem Rang der Schule β 0 j = β 0 + u 0 j Abbildung 1 stellt im Prinzip ein Ranking der Schulen hinsichtlich der mittleren Schülerleistung dar. Zu bedenken ist aber, dass die Schätzung aufgrund eines empty models erfolgte und keine individuellen Merkmale kontrolliert sind. Somit können die Effekte einzig und allein aus Sortierungen von Schülern (z.b. nach sozialer Herkunft) in die jeweiligen Schulen resultieren. Erst wenn man man die relevanten Faktoren kontrolliert hat, kann man das Verfahren der Emprical Bayes estimates verwenden, um sinnvolle Rankings der Kontexte zu bilden, um beispielsweise die Leistungen der Kontexte (in der Regel sind das Organisationen wie Schulen oder Universitäten) zu evaluieren. Aber an der Frage nach der 19

20 Kontrolle aller relevanten Individualmerkmale entzünden sich bei Rankings immer Debatten, weil es natürlich handfeste Interessen berührt. 6 Erklärende Variablen auf Ebene 1 Bisher haben wir nur ein empty model geschätzt. Nun erweitern wir das Modell um eine erklärende Variable der Individualebene: standlrt, also den standardisierten Testwert im Alter von 11 (jetzt sind die Schüler 16 Jahre alt). Wir können dies dadurch tun, indem wir in dem Programm MlwiN die Gleichung angeben, die wir schätzen wollen. Die Gleichung sieht folgendermaßen aus: Als Ergebnis erhalten wir: Man beachte, dass die Residualvarianz der Ebene 1, also die nicht erklärte Varianz auf der Individualebene, von auf zurückgegangen ist was logisch ist, weil wir nun einen starken Prädiktor eingeführt haben. Allerdings ist auch die unerklärte Level Varianz zurückgegangen, obwohl unsere UV doch auf der Individualebene angesiedelt war. Das liegt daran, dass wir unterschiedliche Schulen haben. Denn die Standardabweichung der mittleren 0

21 Testwerte der 11 Jährigen zwischen den Schulen beträgt bei einem Mittelwert vom 0 immerhin Aber prüfen wir zunächst, ob auch der slope von standlrt signifikant zwischen den Schulen variiert. Wir erweitern darum unsere Gleichung um u 1j. Das bedeutet, dass nun auch die slopes der Regressionsgeraden zwischen den Kontexten variieren dürfen, allerdings auch wieder mit einem bias hin zum Mittelwert der slopes über alle Kontexte. Wir sehen innerhalb des eingerahmten Feldes die sogenannte Varianz-Kovarianz-Matrix der Ebene Residuen, die in dieser Form wiederum ein Spezifikum der Mehrebenenanalyse darstellt. In der Hauptdiagonalen sehen wir die Varianzen der beiden Zufallseffekte u 0j und u 1j. Beide sind signifikant. Die dritte Zelle dieser Matrix stellt die Kovarianz der Zufallseffekte dar. Aus diesen Werten lässt sich eine Korrelation der beiden Zufallseffekte berechnen: /sqrt( * ) = Das bedeutet: Schulen mit einem höheren Intercept 1

22 haben auch einen stärkeren Zusammenhang zwischen dem Testwert im Alter von 11 und dem normierten Examenswert im Alter von 16. Abb. 13: Zufallseffekte u 0j (Konstante) und u 1j (Testscore mit 11) β 0 j = β 0 + u 0 j β 1 j = β 1 + u 1 j 7 Erklärende Variablen auf Ebene Im vorangegangenen Abschnitt wurde eine erklärende Variable auf der Individualebene eingeführt, um den Schulleistungstestwert der Schüler im Alter von 16 zu erklären. Das war der Testscore, den die Schüler im Alter von 11 hatten. Interessant ist nun, dass die Mehrebenanalyse es ermöglicht, zwischen erklärenden Variablen auf der Individualebene (Schüler) und erklärenden Variablen auf der Kontextebene (Schulen) zu trennen. Um dies zu demonstrieren, wird nun die Variable avslrt in das Modell eingeführt, die den durchschnittlichen Testwert der Schüler einer Schule im Alter von 11 misst. Eine Hypothese wäre, dass unabhängig vom individuellen Testwert im Alter 11 in Schulen mit guten Schülern (die also schon im Alter von 11 gute waren), bessere Examina bei den 16- jährigen hervorgebracht werden. Unsere Gleichung sieht folgendermaßen aus:

23 Man beachte das Subskript der Variable avslrt: hier steht nur ein j, kein ij, weil die Variable auf der Schulebene gemessen wurde und darum nur zwischen Schülern unterschiedlicher Schulen j variiert, nicht jedoch zwischen Schülern i innerhalb derselben Schule. Die Schätzung führt zu folgendem Ergebnis: Zu sehen ist, dass mit einem T-Wert von.79 (=0.9478/ ) der Effekt des mittleren Testwertes im Alter von 11 das Examensergebnis verbessert unabhängig davon, welchen Wert ein individueller Schüler hatte. Man kann daraus schließen, dass man sein Kinder auf eine Schule schicken sollte, in denen die anderen Kinder im Alter von 11 im Mittel hohe Werte Testergebnisse hatten vielleicht, weil das Arbeits- und Lernklima in diesen Schulen besser ist. Möglicherweise verbergen sich dahinter schichtungsbedingte Verhaltensweisen, die den Unterricht erleichtern. Obwohl dieser Effekt signifikant ist, erklärt er jedoch nicht viel, da die Residualvarianz von u 0j der Ebene nur von auf zurückgegangen ist. Der größere Ebene- Varianzanteil wurde interessanterweise durch einen Prädiktor der Ebene 1 erklärt. Das deutet darauf hin, dass ein großer Teil der auf der Ebene der Schulen erklärbaren Varianz daraus resultierte, dass gute Schüler sich nicht zufällig über die Schulen verteilen, 3

24 sondern systematisch in bestimmten Schulen zu finden sind. Üblicherweise ist in der Mehrebenenanalyse die Residualvarianz der Ebene drastisch reduziert, wenn ein guter Prädiktor der Ebene in das Modell eingeführt wird und nicht-erklärte in erklärte Varianz umwandelt. Besonders spannend ist nun die Frage, ob es cross-level Interaktionseffekte gibt. Liegen cross-level Interaktionen vor, wird der Effekt einer Variable der Individualebene durch Merkmale der Kontextes moderiert (oder umgekehrt, das ist eine theoretische Frage). Es könnte z.b. sein, dass der Zusammenhang zwischen dem Testwert im Alter von 11 und dem Examenswert in jenen Schulen besonders stark ausfällt, deren Schülerschaft sich zu höheren Anteilen aus Schülern zusammensetzt, die im Alter von 11 gut hohe Testwerte hatten. Das Modell zeigt die folgende Gleichung. Die Variable crossint wurde als Produkt aus standlrt und avslrt gebildet, wobei avslrt eine erklärende Variable der Schulebene und standlrt eine erklärende Variable der Schülerebene darstellt. Das Ergebnis zeigt, dass wirklich ein cross-level Interaktionseffekt vorliegt. 4

25 Demzufolge ist das von den Schülern mitgebrachte Kompetenzniveau, welches sie im Alter von 11 hatten, für den Examenswert im Alter von 16 umso wichtiger, je besser die Schule ist, also je höher der mittlere Testwert im Alter von 11 in der jeweiligen Schule ist. Cross-level Interaktionen führen dazu, dass die aufgrund der Residualvarianz von u 1j existierende Unterschiedlichkeit der slopes nun zumindest teilweise durch die Ebene Prädiktor erklärt ist. Abb.14: random solpe model ohne cross-level Interaktion Abb. 15: random solpe model mit cross-level Interaktion 5

26 Wenn man die oberen Abbildungen genau vergleicht, sieht man kleine Unterschiede in den Steigungen der Geraden, die durch den Cross-level Interaktionseffekt erzeugt sind. 8 Zentrierung der Variablen In der Regressionsanalyse findet man häufig, dass die geschätzten Koeffizienten auf transformierten Variablenwerten basieren. Manchmal sind die Variablen z-transformiert, man sagt auch standardisiert, so dass zuvor normalverteilte Zufallsvariablen nun einer Standardnormalverteilung mit einem Mittelwert von Null und einer Varianz von 1 entsprechen. Der Z-Wert einer (annähernd) normalverteilten Variablen x errechnet sich für eine Person i aus: z xi xi x = s x Dabei bezeichnet x i den Messwert der Person i bei der Variablen x, x ist der Mittelwert dieser Variablen und s x deren Standardabweichung. Der Vorteil der Standardisierung besteht darin, dass die geschätzten Effekte als standardisierte Koeffizienten interpretiert werden können und die Einflussgrößen hinsichtlich ihrer Betragswerte miteinander vergleichbar sind. Nachteilig ist hingegen, dass die geschätzten Effekte nur noch als Veränderungen der AV in der Maßeinheit Standardabweichungen interpretiert werden können: erhöht sich x um eine Standardabweichung, erhöht sich y um β x Standardabweichungen. Insbesondere in den Lehrbüchern zur Mehrebenenanalyse wird auf das Verfahren der Zentrierung um den Mittelwert hingewiesen. Dabei existieren zwei Varianten der Mittelwert-Zentrierung: entweder die Zentrierung um den Gesamtmittelwert, also um den grand mean. Oder die Zentrierung um den Gruppenmittelwert, den Mittelwert z.b. der Schule. Dies sind zwei völlig unterschiedliche Perspektiven, die in der Regel auch zu völlig unterschiedlichen Ergebnissen führen. Wie aber zentriert man überhaupt? Am Beispiel der Zentrierung um den grand mean sieht das folgendermaßen aus: x centered _ grand = x ij x Es wird einfach für die Variable x die Differenz des Messwertes der Person i in Kontext j und dem grand mean der Variablen x gebildet. Zentriert man um den Gruppenmittelwert, subtrahiert man einfach den Gruppenmittelwert (der Schule) vom Messwert der Person i: x centered _ group = x ij x j Aber Achtung: durch die Zentrierung um den Gruppenmittelwert hat man die Varianz zwischen den Kontexten/Schulen hinsichtlich der zentrierten Variablen eliminiert. Um den 6

27 Gruppenmittelwert vorgenommene Zentrierungen werden in der Regel nur für sehr spezifische Hypothesen eingesetzt, die einen sogenannten Froschteicheffekt (Hox 00: 6) untersuchen. Ein Froschteicheffekt liegt vor, wenn es für ein und denselben Frosch einen Unterschied ausmacht, ob er sich in einem Teich mit kleinen Fröschen oder in einem Teich mit großen Fröschen befindet (z.b. für die ökologische Fitness als abhängige Variable). Übersetzt für eher sozialwissenschaftliche Fragestellungen bedeutet das für einen durchschnittlich leistungsfähigen Schüler, dass es einen Effekt für seine Lernentwicklung haben könnte, wenn er entweder in einer Klasse mit besonders guten oder besonders schlechten Schülern ist. Im Durchschnitt besonders gute Schüler könnten ihn entmutigen und sein Selbstwertgefühl beeinträchtigen, was seine weitere Entwicklung blockiert. Eher schlechte Schüler als Umfeld könnten dazu führen, dass der durchschnittlich begabte Schüler durch Anerkennung in seinem Lernen bestärkt wird, was sich günstiger auf seine weitere Entwicklung auswirken kann. Wie realistisch auch immer derartige Froschteichhypothesen sein mögen: man untersucht die Effekte der relativen Position eines Schülers in der Leistungshierarchie der Klasse, wenn man eine Zentrierung um den Gruppenmittelwert durchführt. Nur in solchen Fällen, in denen also eine spezielle Theorie auf Froschteicheffekte oder Ähnliches fokussiert, sollte eine Zentrierung um den Gruppenmittelwert durchgeführt werden. Ansonsten sollten gerade Neueinsteiger in die Mehrebenenanalyse die Zentrierung immer um den grand mean durchführen. Um den grand mean zentrierte Variablen sind wiederum unbedingt zu empfehlen, wenn man random slopes im Modell hat. Warum? Abb. 16: random intercept model Abb. 17: random slope model var( u ) 0 j = σ u 0 j var( u ) 0 j = σ u0 j hängt von x=0 ab X*=0 X=0 X**=0 X=0 X*=0 7

28 In den Abbildungen 16 und 17 sieht man, was mit der Varianz von u 0j passiert, wenn man eine Transformation der x-variablen mittels Zentrierung durchgeführt wird. Schätzt man nur ein random intercept model, hat die Zentrierung oder Standardisierung keinerlei Konsequenzen für die Varianz von u 0j (Abb. 16). Erlaubt man in seinem Modell jedoch auch zufällig variierende slopes, hat das für die Varianz von u 0j erhebliche Konsequenzen, wie in Abb. 17 zu sehen ist. Zu Erinnerung: u 0j ist der Zufallseffekt des Intercept, also der Regressionskonstanten. Diese Konstante stellt den Schnittpunkt der Regressionsgeraden mit der Ordinate dar, wo sich stets der Nullpunkt der unabhängigen x-variablen befindet. Durch die Transformation ändert sich jedoch die Lagerung dieses Nullpunktes. Je nachdem, an welche Stelle von x der Nullpunkt aufgrund der Transformation geschoben wird, ist die Varianz von u 0j eine andere. Demzufolge sind zentrierte und nicht-zentrierte random slope Modelle mathematisch nicht äquivalent, obwohl man spontan zur der Auffassung neigt, dass lineare Transformationen (nichts Anderes stellt die Zentrierung dar) an den geschätzten Varianzen nichts ändern. Ein wesentlicher Vorteil der Mittelwertzentrierung besteht darin, dass die Regressionskonstanten (die Intercepts) sinnvolle Werte darstellen. Schätzt man z.b. in einem Sample von Erwerbstätigen den Einfluss der Bildung (gemessen als für einen Abschluss mindestens notwendige Ausbildungsjahre) auf das Einkommen, erhält man für den Intercept häufig einen negativen Wert, wenn der Minimalwert der Ausbildungsjahre z.b. bei 8 liegt (Sample in einem Land mit Schulpflicht). Verfolgt man in diesem Sample die Regressionsgerade weiter nach hinten zu den kleineren Bildungswerten bis hin zu der Null, ist man bei Null Bildungsjahren (x) im negativen Bereich des Einkommens (y), wenn Personen mit 8 Ausbildungsjahren EUR verdienen (Abb. 18). 8

29 Abb. 18: kein sinnvoller Intercept y = Einkommen EUR x = Bildungsjahre EUR Eine Person hätte z.b Einkommen, wenn sie 0 Ausbildungsjahre absolviert hätte. Dabei ist diese Extrapolation ein Artefakt der linearen Regression und (zumindest bislang) existieren keine Personen mit 45.- EUR Einkommen infolge von Null Ausbildungsjahren. Hätte man aber die erklärende Variablen zentriert, läge der Intercept an der Stelle des Mittelwertes, was durchaus eine sinnvolle Interpretation des Intercepts gewährleisten würde. Bedeutsam ist die Zentrierung darüber hinaus, wenn Interaktionseffekte zwischen metrischen Prädiktoren eingeführt werden. In einigen sehr prominenten Lehrbüchern wird dies generell für metrische Interaktionen empfohlen, weil durch die Zentrierung die Multikollinearität, also die Interkorrelation der erklärenden Variablen, reduziert wird. Das trifft zu, aber der Stellenwert der Zentrierung ist umstritten. Aber wie gesagt, in Mehrebenenmodellen mit random slopes ist eine grand mean Zentrierung immer zu empfehlen. 9 Maximum Likelihood Auch in einem Mehrebenenmodell möchte man gerne wissen, wie gut das theoretisch wohldurchdachte und mühselig spezifizierte Modell zu den der empirischen Wirklichkeit entnommenen Daten passt. Wir wissen aber bereits, dass Mehrebenenmodelle gegen die Modellvoraussetzungen der OLS-Regression verstoßen, woraus folgt, dass sie nicht nach 9

Mehrebenenanalyse. Seminar: Multivariate Analysemethoden Referentinnen: Barbara Wulfken, Iris Koch & Laura Früh

Mehrebenenanalyse. Seminar: Multivariate Analysemethoden Referentinnen: Barbara Wulfken, Iris Koch & Laura Früh Mehrebenenanalyse Seminar: Multivariate Analysemethoden Referentinnen: Barbara Wulfken, Iris Koch & Laura Früh Inhalt } Einführung } Fragestellung } Das Programm HLM } Mögliche Modelle } Nullmodell } Random

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Mehr-Ebenen-Analyse I. Regressionsmodelle für Politikwissenschaftler

Mehr-Ebenen-Analyse I. Regressionsmodelle für Politikwissenschaftler Mehr-Ebenen-Analyse I Regressionsmodelle für Politikwissenschaftler Was sind strukturierte Daten? Was ist Struktur? Probleme Bisher sind wir stets von einfachen Zufallsstichproben ausgegangen (Registerstichprobe)

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests.

1 Wahrscheinlichkeitsrechnung. 2 Zufallsvariablen und ihre Verteilung. 3 Statistische Inferenz. 4 Intervallschätzung. 5 Hypothesentests. 0 Einführung 1 Wahrscheinlichkeitsrechnung 2 Zufallsvariablen und ihre Verteilung 3 Statistische Inferenz 4 Intervallschätzung 5 Hypothesentests 6 Regression Lineare Regressionsmodelle Deskriptive Statistik:

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

Diagnostik von Regressionsmodellen (1)

Diagnostik von Regressionsmodellen (1) Diagnostik von Regressionsmodellen (1) Bei Regressionsanalysen sollte immer geprüft werden, ob das Modell angemessen ist und ob die Voraussetzungen eines Regressionsmodells erfüllt sind. Das Modell einer

Mehr

MEHREBENENANALYSE: ANGEMESSENE MODELLIERUNG VON EVALUATIONSDATEN

MEHREBENENANALYSE: ANGEMESSENE MODELLIERUNG VON EVALUATIONSDATEN MEHREBENENANALYSE: ANGEMESSENE MODELLIERUNG VON EVALUATIONSDATEN Potsdam 27. März 2009 Dr. Manuela Pötschke HINTERGRUND Neue Anforderungen an Evaluation (hier aus Fachbereichssicht) - Berichterstattung

Mehr

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

Annahmen des linearen Modells

Annahmen des linearen Modells Annahmen des linearen Modells Annahmen des linearen Modells zusammengefasst A1: Linearer Zusammenhang: y = 0 + 1x 1 + 2x 2 + + kx k A2: Zufallsstichprobe, keine Korrelation zwischen Beobachtungen A3: Erwartungswert

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Die Regressionsanalyse

Die Regressionsanalyse Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige

Mehr

Computerübung 10. Empirische Wirtschaftsforschung. Willi Mutschler. 27. Januar Ökonometrie und Wirtschaftsstatistik Uni Münster

Computerübung 10. Empirische Wirtschaftsforschung. Willi Mutschler. 27. Januar Ökonometrie und Wirtschaftsstatistik Uni Münster Computerübung 10 Empirische Wirtschaftsforschung Willi Mutschler Ökonometrie und Wirtschaftsstatistik Uni Münster 27. Januar 2011 Willi Mutschler (Uni Münster) Computerübung 10 27. Januar 2011 1 / 12 Inhaltsverzeichnis

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Lineare Regression II

Lineare Regression II Lineare Regression II Varianzanalyse als multiple Regession auf Designvariablen Das lineare Regressionsmodell setzt implizit voraus, dass nicht nur die abhängige, sondern auch die erklärenden Variablen

Mehr

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de rbu leh ch s plu psych Heinz Holling Günther Gediga hogrefe.de Bachelorstudium Psychologie Statistik Testverfahren 18 Kapitel 2 i.i.d.-annahme dem unabhängig. Es gilt also die i.i.d.-annahme (i.i.d = independent

Mehr

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Statistik II Literatur Kategoriale Unabhängige, Interaktion, nicht-lineare Effekte : Schätzung Statistik

Mehr

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief. Statistik II

Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief. Statistik II Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Statistik II Wiederholung Literatur Kategoriale Unabhängige, Interaktion, nicht-lineare Effekte

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

x t2 y t = 160, y = 8, y y = 3400 t=1

x t2 y t = 160, y = 8, y y = 3400 t=1 Aufgabe 1 (25 Punkte) 1. Eine Online Druckerei möchte die Abhängigkeit des Absatzes gedruckter Fotos vom Preis untersuchen. Dazu verwendet die Firma das folgende lineare Regressionsmodell: wobei y t =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

Statistik II Übung 1: Einfache lineare Regression

Statistik II Übung 1: Einfache lineare Regression Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der

Mehr

Statistik II Übung 1: Einfache lineare Regression

Statistik II Übung 1: Einfache lineare Regression Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Statistik II Übung 2: Multivariate lineare Regression

Statistik II Übung 2: Multivariate lineare Regression Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden

Mehr

Die Funktion f wird als Regressionsfunktion bezeichnet.

Die Funktion f wird als Regressionsfunktion bezeichnet. Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht

Mehr

Statistik II Übung 2: Multivariate lineare Regression

Statistik II Übung 2: Multivariate lineare Regression Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden

Mehr

Name Vorname Matrikelnummer Unterschrift

Name Vorname Matrikelnummer Unterschrift Dr. Hans-Otfried Müller Institut für Mathematische Stochastik Fachrichtung Mathematik Technische Universität Dresden Klausur Statistik II (Sozialwissenschaft, Nach- und Wiederholer) am 26.10.2007 Gruppe

Mehr

2.5 Lineare Regressionsmodelle

2.5 Lineare Regressionsmodelle 2.5.1 Wiederholung aus Statistik I Gegeben Datenpunkte (Y i, X i ) schätze die beste Gerade Y i = β 0 + β 1 X i, i = 1,..., n. 2 Induktive Statistik 409 Bsp. 2.30. [Kaffeeverkauf auf drei Flohmärkten]

Mehr

Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft

Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Prof. Dr. Marc Gürtler WS 015/016 Prof. Dr. Marc Gürtler Klausur zur 10/1 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Lösungsskizze Prof. Dr. Marc Gürtler WS 015/016 Aufgabe 1: (11+5+1+8=56

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

VS PLUS

VS PLUS VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN

Mehr

Deskriptive Beschreibung linearer Zusammenhänge

Deskriptive Beschreibung linearer Zusammenhänge 9 Mittelwert- und Varianzvergleiche Mittelwertvergleiche bei k > 2 unabhängigen Stichproben 9.4 Beispiel: p-wert bei Varianzanalyse (Grafik) Bedienungszeiten-Beispiel, realisierte Teststatistik F = 3.89,

Mehr

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen.

Kapitel 3 Schließende lineare Regression Einführung. induktiv. Fragestellungen. Modell. Matrixschreibweise. Annahmen. Kapitel 3 Schließende lineare Regression 3.1. Einführung induktiv Fragestellungen Modell Statistisch bewerten, der vorher beschriebenen Zusammenhänge auf der Basis vorliegender Daten, ob die ermittelte

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Anwendungsaufgaben. a. Anhand des Streudiagramms (. Abb. 1) lässt sich ein linearer Zusammenhang vermuten. Aufgabe 1. Anhang 1: Lösungen der Aufgaben

Anwendungsaufgaben. a. Anhand des Streudiagramms (. Abb. 1) lässt sich ein linearer Zusammenhang vermuten. Aufgabe 1. Anhang 1: Lösungen der Aufgaben Anhang 1: Lösungen der Aufgaben 15 +1). Korrelationskoeffizienten unterschiedlicher Stichproben oder verschiedener Variablen können so miteinander verglichen werden, was mit der Kovarianz nicht möglich

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Parametrische vs. Non-Parametrische Testverfahren

Parametrische vs. Non-Parametrische Testverfahren Parametrische vs. Non-Parametrische Testverfahren Parametrische Verfahren haben die Besonderheit, dass sie auf Annahmen zur Verteilung der Messwerte in der Population beruhen: die Messwerte sollten einer

Mehr

Schweizer Statistiktage, Aarau, 18. Nov. 2004

Schweizer Statistiktage, Aarau, 18. Nov. 2004 Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der

Mehr

Statistik II Übung 3: Hypothesentests

Statistik II Übung 3: Hypothesentests Statistik II Übung 3: Hypothesentests Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier Stichproben). Verwenden

Mehr

Brückenkurs Statistik für Wirtschaftswissenschaften

Brückenkurs Statistik für Wirtschaftswissenschaften Peter von der Lippe Brückenkurs Statistik für Wirtschaftswissenschaften Weitere Übungsfragen UVK Verlagsgesellschaft mbh Konstanz Mit UVK/Lucius München UVK Verlagsgesellschaft mbh Konstanz und München

Mehr

Proxies, Endogenität, Instrumentvariablenschätzung

Proxies, Endogenität, Instrumentvariablenschätzung 1 4.2 Multivariate lineare Regression: Fehler in den Variablen, Proxies, Endogenität, Instrumentvariablenschätzung Literatur: Wooldridge, Kapitel 15, Appendix C.3 und Kapitel 9.4 Wahrscheinlichkeitslimes

Mehr

Datenanalyse mit Excel und Gretl

Datenanalyse mit Excel und Gretl Dozent: Christoph Hindermann christoph.hindermann@uni-erfurt.de Datenanalyse mit Excel und Gretl Teil Titel 2: Gretl 1 Teil 2: Gretl Datenanalyse mit Excel und Gretl Teil Titel 2: Gretl 2 Modellannahmen

Mehr

Übungen (HS-2010): Urteilsfehler. Autor: Siegfried Macho

Übungen (HS-2010): Urteilsfehler. Autor: Siegfried Macho Übungen (HS-2010): Urteilsfehler Autor: Siegfried Macho Inhaltsverzeichnis i Inhaltsverzeichnis 1. Übungen zu Kapitel 2 1 Übungen zu Kontingenz- und Kausalurteile 1 Übung 1-1: 1. Übungen zu Kapitel 2 Gegeben:

Mehr

Übungsblätter zu Methoden der Empirischen Sozialforschung IV: Regressionsanalyse. Lösungsblatt zu Nr. 2

Übungsblätter zu Methoden der Empirischen Sozialforschung IV: Regressionsanalyse. Lösungsblatt zu Nr. 2 Martin-Luther-Universität Halle-Wittenberg Institut für Soziologie Dr. Wolfgang Langer 1 Übungsblätter zu Methoden der Empirischen Sozialforschung IV: Regressionsanalyse Lösungsblatt zu Nr. 2 1. a) Je

Mehr

Institut für Soziologie Christian Ganser. Methoden 2. Regressionsanalyse II: Lineare multiple Regression

Institut für Soziologie Christian Ganser. Methoden 2. Regressionsanalyse II: Lineare multiple Regression Institut für Soziologie Christian Ganser Methoden 2 Regressionsanalyse II: Lineare multiple Regression Inhalt 1. Anwendungsbereich 2. Vorgehensweise bei multipler linearer Regression 3. Beispiel 4. Modellannahmen

Mehr

2. Generieren Sie deskriptive Statistiken (Mittelwert, Standardabweichung) für earny3 und kidsunder6yr3 und kommentieren Sie diese kurz.

2. Generieren Sie deskriptive Statistiken (Mittelwert, Standardabweichung) für earny3 und kidsunder6yr3 und kommentieren Sie diese kurz. Statistik II Übung : Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (6-24 Jahre alt) und der Anzahl der unter

Mehr

ANOVA und Transformationen. Statistik II

ANOVA und Transformationen. Statistik II und Statistik II Wiederholung Literatur Statistik II und (1/28) Literatur Zum Nachlesen Agresti ch. 12 (nur bis Seite 381) Agresti ch. 13 (nur bis Seite 428) Statistik II und (2/28) Literatur für nächste

Mehr

Hypothesentests mit SPSS

Hypothesentests mit SPSS Beispiel für eine einfache Regressionsanalyse (mit Überprüfung der Voraussetzungen) Daten: bedrohfb_v07.sav Hypothese: Die Skalenwerte auf der ATB-Skala (Skala zur Erfassung der Angst vor terroristischen

Mehr

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

ANOVA und Transformationen

ANOVA und Transformationen und Statistik II Literatur Statistik II und (1/28) Literatur Zum Nachlesen Agresti ch. 12 (nur bis Seite 381) Agresti ch. 13 (nur bis Seite 428) Statistik II und (2/28) Literatur Literatur für nächste

Mehr

Mehr-Ebenen-Analyse I

Mehr-Ebenen-Analyse I Mehr-Ebenen-Analyse I Regressionsmodelle für Politikwissenschaftler Was sind strukturierte Daten? Bisher sind wir stets von einfachen Zufallsstichproben ausgegangen (Registerstichprobe) In der Realität

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Statistische Tests (Signifikanztests)

Statistische Tests (Signifikanztests) Statistische Tests (Signifikanztests) [testing statistical hypothesis] Prüfen und Bewerten von Hypothesen (Annahmen, Vermutungen) über die Verteilungen von Merkmalen in einer Grundgesamtheit (Population)

Mehr

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien

7.1 Korrelationsanalyse. Statistik. Kovarianz. Pearson-Korrelation. Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Statistik 7.1 Korrelationsanalyse Institut für angewandte Statistik & EDV Universität für Bodenkultur Wien Sommersemester 2012 7 Regressions- und Korrelationsanalyse Kovarianz Pearson-Korrelation Der (lineare)

Mehr

D-CHAB Frühlingssemester 2017 T =

D-CHAB Frühlingssemester 2017 T = D-CHAB Frühlingssemester 17 Grundlagen der Mathematik II Dr Marcel Dettling Lösung 13 1) Die relevanten Parameter sind n = 3, x = 1867, σ x = und µ = 18 (a) Die Teststatistik T = X µ Σ x / n ist nach Annahme

Mehr

Korrelation Regression. Wenn Daten nicht ohne einander können Korrelation

Korrelation Regression. Wenn Daten nicht ohne einander können Korrelation DAS THEMA: KORRELATION UND REGRESSION Korrelation Regression Wenn Daten nicht ohne einander können Korrelation Korrelation Kovarianz Pearson-Korrelation Voraussetzungen für die Berechnung die Höhe der

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

Hierarchische lineare Modelle: Mehrebenenmodelle

Hierarchische lineare Modelle: Mehrebenenmodelle Hierarchische lineare Modelle: Mehrebenenmodelle Eine erste Einführung in grundsätzliche Überlegungen und Vorgehensweisen Dr. Matthias Rudolf: M3 Multivariate Statistik Vorlesung Einführung HLM Folie Nr.

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Datum Vorlesung 18.10.2006 Einführung 18.10.2006 Beispiele 25.10.2006 Daten 08.11.2006 Variablen Kontinuierliche

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Seminar zur Energiewirtschaft:

Seminar zur Energiewirtschaft: Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable

Mehr

Analyse von Querschnittsdaten. Spezifikation der Regressionsfunktion

Analyse von Querschnittsdaten. Spezifikation der Regressionsfunktion Analse von Querschnittsdaten Spezifikation der Regressionsfunktion Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 9..5 6..5..5 9..5 6..5..5..5

Mehr

Zur Erinnerung: Annahmen

Zur Erinnerung: Annahmen Zur Erinnerung: Annahmen Vorlesung 6: Heteroskedastizität. Beispiele mit heteroskedastischen Fehlertermen. Auswirkungen von Heteroskedastizität auf OLS-Schätzungen. Wie erkennt man das Vorliegen von Heteroskedastizität?

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

Mixed Effects Models: Wachstumskurven

Mixed Effects Models: Wachstumskurven Mixed Effects Models: Wachstumskurven Markus Kalisch 07.10.2014 1 Überblick Wiederholte Messungen (z.b. Wachstumskurven): Korrelierte Beobachtungen Random Intercept Model (RI) Random Intercept and Random

Mehr

Anwendung von Multi-Level Moderation in Worst Performance Analysen

Anwendung von Multi-Level Moderation in Worst Performance Analysen Anwendung von Multi-Level Moderation in Worst Performance Analysen Präsentation auf der FGME 2015 - Jena Gidon T. Frischkorn, Anna-Lena Schubert, Andreas B. Neubauer & Dirk Hagemann 16. September 2015

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Einführung in die Induktive Statistik: Regressionsanalyse

Einführung in die Induktive Statistik: Regressionsanalyse Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse

Mehr

Bivariate Zusammenhänge

Bivariate Zusammenhänge Bivariate Zusammenhänge 40 60 80 Bivariater Zusammenhang: Zusammenhang zwischen zwei Variablen weight (kg) Gibt es einen Zusammenhang zwischen Größe & Gewicht? (am Beispieldatensatz) Offensichtlich positiver

Mehr

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische

Mehr

Ziel der linearen Regression

Ziel der linearen Regression Regression 1 Ziel der linearen Regression Bei der linearen Regression wird untersucht, in welcher Weise eine abhängige metrische Variable durch eine oder mehrere unabhängige metrische Variablen durch eine

Mehr

1. Lösungen zu Kapitel 7

1. Lösungen zu Kapitel 7 1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T

9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T 9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon

Mehr

Kapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität

Kapitel 10. Multikollinearität. Exakte Multikollinearität Beinahe Multikollinearität Kapitel 0 Multikollinearität Exakte Multikollinearität Beinahe Multikollinearität Exakte Multikollinearität Unser Modell lautet y = Xb + u, Dimension von X: n x k Annahme : rg(x) = k Wenn sich eine oder

Mehr

SozialwissenschaftlerInnen II

SozialwissenschaftlerInnen II Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Varianzanalyse Statistik

Mehr

Vorlesung 4: Spezifikation der unabhängigen Variablen

Vorlesung 4: Spezifikation der unabhängigen Variablen Vorlesung 4: Spezifikation der unabhängigen Variablen. Fehlspezifikation der unabhängigen Variablen. Auswirkungen einer Fehlspezifikation a. auf die Erwartungstreue der Schätzung b. auf die Effizienz der

Mehr

Analyse von Querschnittsdaten. Spezifikation der unabhängigen Variablen

Analyse von Querschnittsdaten. Spezifikation der unabhängigen Variablen Analyse von Querschnittsdaten Spezifikation der unabhängigen Variablen Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 3.0.004 0.0.004

Mehr

Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/

Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/ Regressionsmodelle mit Anwendungen in der Versicherungs- und Finanzwirtschaft Probeklausur Wintersemester 2017/2018 06.12.2018 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN Nachname:...................................................................

Mehr

John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer

John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer John Komlos Bernd Süssmuth Empirische Ökonomie Eine Einführung in Methoden und Anwendungen 4y Springer 1 Einführung 1 1.1 Ökonometrie 1 2 Vorüberlegungen und Grundbegriffe 7 2.1 Statistik als Grundlage

Mehr

1 Einführung Ökonometrie... 1

1 Einführung Ökonometrie... 1 Inhalt 1 Einführung... 1 1.1 Ökonometrie... 1 2 Vorüberlegungen und Grundbegriffe... 7 2.1 Statistik als Grundlage der Empirischen Ökonomie... 7 2.2 Abgrenzung und Parallelen zu den Naturwissenschaften...

Mehr

Statistik II Übung 3: Hypothesentests Aktualisiert am

Statistik II Übung 3: Hypothesentests Aktualisiert am Statistik II Übung 3: Hypothesentests Aktualisiert am 12.04.2017 Diese Übung beschäftigt sich mit der Anwendung diverser Hypothesentests (zum Beispiel zum Vergleich der Mittelwerte und Verteilungen zweier

Mehr

Messwiederholungen und abhängige Messungen

Messwiederholungen und abhängige Messungen Messwiederholungen und abhängige Messungen t Tests und Varianzanalysen für Messwiederholungen Kovarianzanalyse Thomas Schäfer SS 009 1 Messwiederholungen und abhängige Messungen Bei einer Messwiederholung

Mehr

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte)

Aufgabensammlung (Nicht-MC-Aufgaben) Klausur Ökonometrie WS 2014/15. ( = 57 Punkte) Aufgabe 3 (6 + 4 + 8 + 4 + 10 + 4 + 9 + 4 + 8 = 57 Punkte) Hinweis: Beachten Sie die Tabellen mit Quantilen am Ende der Aufgabenstellung! Mit Hilfe eines multiplen linearen Regressionsmodells soll auf

Mehr

Beispiel: Multiples Modell/Omitted Variable Bias I

Beispiel: Multiples Modell/Omitted Variable Bias I 4 Multiple lineare Regression Konfidenzintervalle und Tests 4.3 Beispiel: Multiples Modell/Omitted Variable Bias I Beispieldatensatz mit Daten zur Lohnhöhe (y i ), zu den Ausbildungsjahren über den Hauptschulabschluss

Mehr

Biometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern

Biometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern Biometrieübung 10 (lineare Regression) - Aufgabe Biometrieübung 10 Lineare Regression Aufgabe 1. Düngungsversuch In einem Düngeversuch mit k=9 Düngungsstufen x i erhielt man Erträge y i. Im (X, Y)- Koordinatensystem

Mehr

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 9A a.

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1. LÖSUNG 9A a. LÖSUNG 9A a. Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Das Regressionsmodell soll nur für Büropersonal angewendet werden Management- und Bewachungspersonal (MIND =0) soll nicht einbezogen

Mehr