Institut für Soziologie Dipl.-Soz. Methoden 2 Logistische Regression I
Programm Ergänzung zu letzter Sitzung: Interpretation nichtlinearer Effekte Anwendungsbereich der logistischen Regression Entwicklung des Modells Maximum-Likelihood-Schätzung Interpretation der Koeffizienten Modellgüte Beispiel mit SPSS Literatur Übungsaufgabe # 2
Ergänzung zu letzter Sitzung: Interpretation nichtlineare Effekte B Sig. Konstante 30,716 0,000 Index ungesunde Ernährung zentriert 0,441 0,094 Frau -0,566 0,210 Psychische Gesundheit: Mittelmäßig -1,780 0,023 Gut/Sehr gut -2,487 0,001 Pro-Kopf-Einkommen in 100 zentriert -0,095 0,004 Sport: 2- bis 4mal pro Monat -1,020 0,054 mehrmals pro Woche -2,347 0,000 Alter zentriert 0,114 0,000 zentriertes Alter quadriert -,004,001 Der Alterseffekt ist umgekehrt u-förmig Um herauszufinden, bei welchem Alter der BMI am größten ist, muss die erste Ableitung nach dem Alter gleich Null gesetzt werden: β 0 + β 1 x 1 + β 2 x 2 +β 3 x 3 + β 4 x 4 + β 5 x 5 + β 6 x 6 + β 7 x 7 + β 8 x 8 + β 9 x 82 Erste Ableitung nach Alter (x 8 ): β 8 + 2β 9 x 8 = 0 2 β 9 x 8 = β 8 x 8 = β 8 2 β 9 = 0,114 2 ( 0,0040615) = 14,034 Personen, die 14,0 Jahre älter als der Durschnitt (40,8 Jahre) sind haben das höchste Einkommen. # 3
Anwendungsbereich Bisher: Betrachtung der linearen Regression zur Untersuchung des Zusammenhangs metrischer abhängiger und metrischer oder dichotomer unabhängiger Variablen. Häufig ist die abhängige Variable in der Soziologie aber nicht metrisch, sondern dichotom. Beispiele für dichotome abhängige Variablen: Raucher ja/nein Begehen eines Gewaltdelikts ja/nein arbeitslos / nicht arbeitslos verheiratet / unverheiratet Wahlbeteiligung ja/nein # 4
Anwendungsbereich In diesem Fall ist die OLS-Regression nicht angemessen. Die logistische Regression stellt ein Verfahren dar, welches die adäquate Analyse dichotomer abhängiger Variablen erlaubt. Die unabhängigen Variablen müssen auch hier metrisch oder dichotom sein. # 5
Entwicklung des Modells Verschiedene Gründe sprechen gegen die Verwendung der OLS-Regression bei der Analyse dichotomer abhängiger Variablen, obwohl sie auf den ersten Blick geeignet erscheinen mag. Das lineare Regressionsmodell ist prinzipiell für den Wertebereich [- ;+ ] definiert, eine Wahrscheinlichkeit kann aber nur Werte zwischen 0 und 1 annehmen. Der Fehlerterm ist nicht homoskedastisch. Dies lässt sich grafisch leicht verdeutlichen: Y 1 u i ui u i 0 X # 6
Entwicklung des Modells Weitere Probleme des linearen Modells: Die Residuen sind nicht normalverteilt. Außerdem ist aus inhaltlichen Gründen die Annahme eines linearen Zusammenhangs oft nicht plausibel. Vielmehr ist davon auszugehen, dass es einen zentralen Bereich von X gibt, in dem sich Veränderungen besonders stark auswirken (in dem die Frage nach dem Wert von Y i quasi entschieden wird), während sich Änderungen an den Polen weniger stark auswirken. # 7
Entwicklung des Modells Folgender Kurvenverlauf erscheint daher sinnvoller: P 1 0 X # 8
Entwicklung des Modells Gegeben sei eine dichotome Zufallsvariable Y i, die das Eintreten eines bestimmten Ereignisses bzw. das Vorliegen einer bestimmten Eigenschaft mit dem Wert 1 und das Nicht- Eintreten bzw. das Nicht-Vorliegen der Eigenschaft mit dem Wert 0 erfasst. Yi 1Ereignistritt ein 0 Ereignistritt nicht ein # 9
Entwicklung des Modells Die Wahrscheinlichkeitsverteilung einer solchen Variable ist gegeben als P(Y i = 1) für Ausprägung 1 und 1- P(Y i = 1) für Ausprägung 0. Der Erwartungswert lässt sich dann per Definition berechnen als E ( Yi) P( Yi 1) ) 1 P( Yi 1) 0 [1 P( Yi 1)] E( Yi) P( Yi 1 Diesen Erwartungswert könnte man als lineare Funktion unabhängiger Variablen modellieren, also das bekannte lineare Regressionsmodel verwenden (so genanntes lineares Wahrscheinlichkeitsmodell, LPM). Dies hat aber oben angeführte Nachteile. # 10
Entwicklung des Modells Eine Lösung bietet die logistische Verteilungsfunktion. Diese ist definiert als: Y Y 1 1 e 1 1 e x x x e 1 e x P 1 0 X Überträgt man dies auf die Schätzung des Erwartungswertes ergibt sich das Modell: E ( Yi X i1,..., X im ) P i 1 e 1 ( 0 1Xi1... mxim ) 1 1 e zi # 11
Entwicklung des Modells Die Gleichung ist nicht linear, was die Schätzung schwierig macht. Sie lässt sich aber linearisieren: 1 P i = 1 + e Z i Umformen ergibt: 1 P i = 1 1 1 + e Z = 1 i 1 + e Z i e Z i = P i 1 P i Odds, also Wahrscheinlichkeit, dass Y=1 dividiert durch Gegenwahrscheinlichkeit (Y 1) bzw. P i 1 P i = e Z i= e β 0+β 1 X i1 + +β m Xβ im Logarithmieren führt zu: ln P i 1 P i = β 0 + β 1 X i1 + + β m X im = Z i Den Ausdruck P i /(1-P i ) bezeichnet man als Odds, den Ausdruck ln(p i /(1-P i )) als Log-Odds oder Logit, kurz L. # 12
Entwicklung des Modells Dieses Modell lässt sich mit der OLS-Methode nicht korrekt schätzen. Die OLS-Schätzung funktioniert nur zuverlässig, wenn eine metrische AV vorliegt. Gemessen werden aber nur die Werte 0 und 1. Somit ist das OLS-Verfahren nicht sinnvoll anwendbar. (siehe oben) # 13
Maximum-Likelihood-Schätzung Folglich kommt ein alternatives Schätzverfahren zum Einsatz: Die Maximum-Likelihood-(ML)-Methode. Das ML-Prinzip der Parameterschätzung ist wesentlich allgemeiner anwendbar als das OLS-Prinzip. Es stellt wohl das am weitesten verbreitete Schätzverfahren dar. Grundprinzip der ML-Methode: Bestimme die unbekannten Schätzparameter so, dass die Wahrscheinlichkeit der Beobachtung der gegebenen Werte der abhängigen Variablen so hoch wie möglich ist. # 14
Maximum-Likelihood-Schätzung Schritte bei der ML-Schätzung: Spezifiziere die Beziehung zwischen der abhängigen und den unabhängigen Variablen. Bestimme die so genannte Likelihood -Funktion. Diese ergibt sich bei Unabhängigkeit der abhängigen Variable als Produkt der Dichtefunktionen. L( ) n i 1 f ( yi ; xi) Aufgrund der einfacheren Ausdrücke (Summen statt Produkten) wird die Likelihood logarithmiert und die resultierende Log-Likelihood durch die Wahl der Schätzer maximiert. n l( ) ln f ( ; i 1 yi xi ) Die Maxima der Log-Likelihood-Funktionen sind analytisch nicht zu bestimmen, vielmehr finden Iterationsverfahren zur Approximation Anwendung. # 15
Maximum-Likelihood-Schätzung Maximum-Likelihood-Schätzer haben im Falle der logistische Regression folgende Eigenschaften: asymptotisch unverzerrt (Erwartungwert=wahrer Wert), asymptotisch konsistent (je größer die Stichprobe desto näher am wahren Wert) und asymptotisch effizient (Schätzer mit der kleinstmöglichen Varianz) Asymptotisch bedeutet, dass die Eigenschaften nur bei großer Fallzahl zutreffen. Leider gibt es in der Literatur keinen eindeutigen Hinweis, was groß bedeutet. Einige Autoren empfehlen, ML-Schätzer nur mit mehr als 50 Fällen zu berechnen, andere empfehlen mehr als 100 Fälle, wieder andere gehen von 30-50 Fällen pro unabhängiger Variable aus. # 16
Interpretation der Koeffizienten Die Interpretation der Koeffizienten ist leider nicht so einfach wie bei der OLS-Regression. Übliche Herangehensweisen: Richtung des Effekts: Ein positives Vorzeichen des Koeffizienten bedeutet einen positiven Einfluss auf die Log-Odds und damit auf die Wahrscheinlichkeit des Eintretens des Ereignisses. Chancenverhältnise (Odds-Ratios): Exponiert man die Koeffizienten, erhält man die so genannten Odds-Ratios, die sehr häufig berichtet werden. Das Chancenverhältnis besagt, um welchen Faktor sich die Chance (nicht die Wahrscheinlichkeit!) ändert, wenn sich die unabhängige Variable um eine Einheit ändert. # 17
Interpretation der Koeffizienten Chance (Odds) ist definiert als Quotient aus der Wahrscheinlichkeit dafür, dass ein bestimmtes Ereigniss eintritt und der Gegenwahrscheinlichkeit. Überleben des Untergangs der Titanic Gesamt nein Anzahl 1490 Überleben % 67,7% ja Anzahl 711 % 32,3% Gesamt Anzahl 2201 % 100,0% Die Chance (Odds) den Untergang der Titanic zu überleben beträgt also 0,323 / 0,677 = 0,48 Die Chance kann ebenso aus den absoluten Häufigkeiten 711 / 1490 = 0,48 berechnet werden. Die Wahrscheinlichkeit beträgt hier aber 32,3%! Chance Wahrscheinlichkeit! Eine Wahrscheinlichkeit nahe 1 entspricht einer Chance (Odds) von 1 / 0 Eine Wahrscheinlichkeit von 0 entspricht einer Chance (Odds) von 0 / 1 = 0 Bei sehr kleinen Wahrscheinlichkeiten sind Chancen (Odds) und Wahrscheinlichkeiten also näherungsweise identisch. # 18
Interpretation der Koeffizienten Chancen (Odds) sind also keine Wahrscheinlichkeiten! Das Chancenverhältnis (Odds-Ratio) ist definiert als Quotient aus der Chance, dass ein bestimmtes Ereignis in einer Gruppe eintritt und der Chance, dass dieses Ereignis in einer anderen Gruppe eintritt. Die Wahrscheinlichkeitsverhältnisse (Odds-Ratios) lassen sich in einfachen Fällen auch von Hand berechnen. Im folgenden Fall wird ein Einfluss des Geschlechts auf die Wahrscheinlichkeit den Untergang der Titanic zu überleben vermutet: # 19
Interpretation der Koeffizienten Überlebe nde Überleben * Geschlecht Geschlecht Frau Mann Gesamt nein Anzahl 126 1364 1490 % innerhalb von Geschlecht 26,8% 78,8% 67,7% ja Anzahl 344 367 711 % innerhalb von Geschlecht 73,2% 21,2% 32,3% Gesamt Anzahl 470 1731 2201 % innerhalb von Geschlecht 100,0% 100,0% 100,0% Die Chance zu überleben beträgt für Frauen 344/126 = 2,7302. Die Chance zu überleben beträgt für Männer 367/1364 = 0,2691. Folglich ergibt sich das Chancenverhältnis als 2,7302 / 0,2691 = 10,1457. Frauen haben also eine 10 Mal so große Chance zu überleben. Die Wahrscheinlichkeit zu überleben ist für Frauen dagegen nur 3,5 Mal so groß! # 20
Interpretation der Koeffizienten Das Chancenverhältnis lässt keinen Schluss auf die konkrete Höhe der Wahrscheinlichkeit zu. Da es über den gesamten Wertebereich konstant ist, wird es oft berichtet und interpretiert. Chancen und Chancenverhältnisse (Odds-Ratios) werden leicht missverstanden. Achten sie bei der Interpretation also auf exakte Begriffe und eindeutige Formulierungen. Alternative: Interpretation der Richtung des Koeffizienten Graphische Darstellungen Berechnen von Wahrscheinlichkeiten für beispielhafte Fälle ( nächste Sitzung) # 21
Modellgüte Es existiert kein Maß, das dem R² der OLS-Regression exakt entspricht. Allerdings gibt es Maße, deren Definition am Bestimmtheitsmaß orientiert sind. In SPSS werden das Cox-Snell-R² und Nagelkerkes R² ausgegeben. Cox und Snell s R²: R 2 CS L0 1 L1 2 n Mit L 0 : Likelihood des sog. Nullmodells, d.h. ohne Kovariaten und L 1 : Likelihood des betrachteten Modells # 22
Modellgüte R² nach Cox und Snell nimmt Werte zwischen 0 und 1-(L 0 ) 2/n an. Nagelkerkes R² korrigiert den Wertebereich auf [0,1] R 2 N R 2 CS 1 ( L ) 0 2 n Außerdem existiert ein Chi²-Test, welcher prüft, ob ein Modell mit den Kovariaten besser ist als das Nullmodell: Die zweifache Differenz der Log-Likelihood des Nullmodells und des vollen Modells folgt einer Chi²-Verteilung. In SPSS wird dieser Test als Omnibus-Test der Modellkoeffizienten bezeichnet. In der Literatur ist die Bezeichnung Likelihood-Ratio-Test üblich. # 23
Beispiel Modellschätzung mit SPSS Untersucht werden soll, von welchen Faktoren es abhängt, ob eine Person raucht. Als unabhängige Variablen werden betrachtet: Alter Stunden pro Monat Sport treiben # 24
Beispiel Modellschätzung mit SPSS Vorbereiten der abhängigen Variable: recode v24 (1 2 = 1) (3 = 0) into rauch. val lab rauch 0 'Nein' 1 'Ja'. var lab rauch 'Raucher?'. Vorbereiten der unabhängigen Variablen: Alter in Jahrzehnten bilden compute alter10 = (2015 v56)/10. var lab alter10 'Alter in Jahrzehnten'. Sport pro Monat bilden if v19>-77 spomo=v19*4. if v20>-77 spomo=v20. if v17=1 and v18=1 spomo=0. variable level spomo (scale). var lab spomo "Sport pro Monat in Stunden". # 25
Beispiel Modellschätzung mit SPSS Vorbereiten der unabhängigen Variablen: Mittelwert für Zentrierung ermitteln Beschränken auf die Fälle, die auch in die Regression eingehen. Dann Mittelwert für Alter ausgeben lassen. temp. select if alter10 < 10 & rauch < 2 & spomo < 220. mean alter10. Bericht Alter in Jahrzehnten Mittelwert N Standardab weichung 4,0449 683 1,19990 Alter in Jahrzehnten zentrieren compute alter10_z = alter10 4.0449. # 26
Beispiel Modellschätzung mit SPSS Durchführen der Regression: logistic regression rauch /method=enter alter10_z spomo / save pred. Auch bei der logistischen Regression liefert SPSS mehrere Tabellen zur Darstellung der Regressionsergebnisse, die auf den folgenden Folien besprochen werden: 1. Zusammenfassung der Fallverarbeitung : Enthält Angaben über Fallzahlen 2. Codierung abhängiger Variablen : Liegt die AV nicht bereits 0/1- kodiert vor, nimmt SPSS eine Umkodierung vor, über die hier informiert wird 3. Klassifizierungstabelle: Enthält Angaben über die Häufigkeit des interessierenden Merkmals in den Daten. # 27
Beispiel Modellschätzung mit SPSS Nach diesen Informationen folgen Angaben über das Nullmodell, zu interpretieren sind die Ergebnisse des endgültigen Modells ( Block 1 ) 4. Omnibustest der Modellkoeffizienten : Enthält das Ergebnis des Likelihood-Ratio-Tests des Gesamtmodells 5. Modellzusammenfassung : Pseudo-R² 6. Klassifizierungstabelle : Informiert darüber, welcher Anteil von Fällen durch die Regression richtig vorhergesagt würde (zusätzliche Info zur Modellgüte) 7. Variablen in der Gleichung : Enthält Koeffizienten und Odds Ratios # 28
Beispiel Modellschätzung mit SPSS 1 Zusammenfassung der Fallverarbeitung Ungewichtete Fälle a H Prozent Ausgewählte Einbezogen in 683 79,2 Fälle Analyse Fehlende Fälle 179 20,8 Gesamtsumme 862 100,0 Nicht ausgewählte Fälle 0 0,0 Gesamtsumme 862 100,0 Informationen über die in die Regression eingegangenen Fälle 2 Codierung abhängiger Variablen Ursprünglicher Wert Interner Wert,00 Nein 0 1,00 Ja 1 Informationen über die Kodierung der abhängigen Variable. Im Beispiel ist die abhängige Variable bereits 0/1- kodiert # 29
Beispiel Modellschätzung mit SPSS 3 Klassifizierungsstabelle a,b Vorhergesagt Raucher? Prozentsatz Beobachtet,00 Nein 1,00 Ja richtig Schritt 0 Raucher?,00 Nein 449 0 100,0 1,00 Ja 234 0 0,0 Gesamtprozentsatz 65,7 a. Die Konstante ist in das Modell einbezogen. b. Der Trennwert lautet,500 Angabe über die Häufigkeit des interessierenden Merkmals in den Daten. Aus der Tabelle lässt sich schließen, dass 65,7 % der Menschen Nichtraucher sind. Wenn ohne jede weitere Information für eine Vorhersage einfach der häufigste Wert (Nichtraucher) verwendet wird, liegt man in 65,7 % der Fälle richtig. # 30
Beispiel Modellschätzung mit SPSS 4 5 Omnibus-Tests der Modellkoeffizienten Chi- Quadrat df Sig. Schritt 1 Schritt Schritt 21,006 2,000 Block 21,006 2,000 Modell 21,006 2,000 Modellzusammenfassung -2 Log-Likelihood Cox & Snell R-Quadrat Nagelkerkes R- Quadrat 1 856,989,030,042 a. Die Schätzung beendet bei Iteration Nummer 4, weil die Parameterschätzungen sich um weniger als,001 änderten. LR-Chi²-Test: Unabhängige Variablen tragen zur Erklärung der abhängigen Variable bei. Das Modell mit Einflussvariablen ist höchstsignifikant besser als das Nullmodell. Die beiden alternativen R²- Werte deuten auf sehr geringe Modellgüte hin. # 31
Beispiel Modellschätzung mit SPSS 6 Klassifizierungstabelle a Vorhergesagt Raucher? Prozentsatz Beobachtet,00 Nein 1,00 Ja richtig,00 Nein 436 13 97,1 Raucher? 1,00 Ja 212 22 9,4 Schritt 1 Gesamtprozentsatz 67,1 a. Der Trennwert lautet,500 9,4 % derjenigen die rauchen, werden korrekt vorhergesagt, sowie 97,1 % derer, die nicht rauchen. Insgesamt werden 67,1 % korrekt vorhergesagt. Es werden also fast alle als Nichtraucher klassifiziert, was nicht dafür spricht, dass das Modell gut zwischen Rauchern und Nichtrauchern unterscheiden kann (vgl. Tabelle 3 auf Folie 29). # 32
Beispiel Modellschätzung mit SPSS 7 Variablen in der Gleichung B Standar dfehler Wald df Sig. Exp(B) alter10_z,094,068 3,000 1,169 1,098 spomo,030,007 17,951 1,000 1,031 Schritt 1 a Konstante -,967,111 76,025 1,000,380 a. In Schritt 1 eingegebene Variable(n): alter10_zspomo. Vorzeicheninterpretation (Spalte B ): Ältere Personen sind mit höherer Wahrscheinlichkeit Raucher als jüngere Personen. Dieser Effekt ist nicht signifikant. Je mehr Sport getrieben wird, umso größer ist die Wahrscheinlichkeit Raucher zu sein. Dieser Effekt ist höchst signifikant. # 33
Beispiel Modellschätzung mit SPSS 7 Variablen in der Gleichung B Standar dfehler Wald df Sig. Exp(B) alter10_z,094,068 3,000 1,169 1,098 spomo,030,007 17,951 1,000 1,031 Schritt 1 a Konstante -,967,111 76,025 1,000,380 a. In Schritt 1 eingegebene Variable(n): alter10_zspomo. Interpretation der Odds-Ratios (Spalte Exp(B) ): Für eine Person, die 10 Jahre älter ist als eine andere, ist die Chance Raucher zu sein 1,098 mal so groß. Wird um eine Stunde mehr Sport getrieben, ist die Chance zu Rauchen 1,031 mal so groß. # 34
Graphische Darstellung Im ersten Versuch werden die vorhergesagten Wahrscheinlichkeiten in einem Scatterplot gegen die psychische Belastung abgetragen. TEMPORARY. select if spomo<60. GGRAPH /GRAPHDATASET NAME="graphdataset" VARIABLES=spomo PRE_1 MISSING=LISTWISE REPORTMISSING=NO /GRAPHSPEC SOURCE=INLINE. BEGIN GPL SOURCE: s=usersource(id("graphdataset")) DATA: spomo=col(source(s), name("spomo")) DATA: PRE_1=col(source(s), name("pre_1")) GUIDE: axis(dim(1), label("sport pro Monat in Stunden")) GUIDE: axis(dim(2), label("vorhergesagte Wahrscheinlichkeit Raucher zu sein")) ELEMENT: point(position(spomo*pre_1)) END GPL. # 35
Graphische Darstellung Im ersten Versuch werden die vorhergesagten Wahrscheinlichkeiten in einem Scatterplot gegen die psychische Belastung abgetragen. # 36
Graphische Darstellung Um die Graphik übersichtlicher zu gestalten, sollen die vorhergesagten Wahrscheinlichkeiten nur für bestimmte Altersgruppen geplottet werden. Hierfür wird eine Hilfsvariable gebildet, die für bestimmte Altersgruppen das Alter enthält: compute altera=2015-v56. if altera ne 25 & altera ne 35 & altera ne 45 & altera ne 55 & altera ne 66 altera=-66. missing value altera (-66). variable level altera (ordinal). # 37
Graphische Darstellung TEMPORARY. select if spomo<60. GGRAPH /GRAPHDATASET NAME="graphdataset" VARIABLES=spomo PRE_1 altera MISSING=LISTWISE REPORTMISSING=NO /GRAPHSPEC SOURCE=INLINE. BEGIN GPL SOURCE: s=usersource(id("graphdataset")) DATA: spomo=col(source(s), name("spomo")) DATA: PRE_1=col(source(s), name("pre_1")) DATA: altera=col(source(s), name("altera"), unit.category()) GUIDE: axis(dim(1), label("sport pro Monat in Stunden")) GUIDE: axis(dim(2), label("vorhergesagte Wahrscheinlichkeit Raucher zu sein")) GUIDE: legend(aesthetic(aesthetic.color.exterior), label("")) ELEMENT: point(position(spomo*pre_1), color.exterior(altera)) END GPL. # 38
Graphische Darstellung Im ersten Versuch werden die vorhergesagten Wahrscheinlichkeiten in einem Scatterplot gegen die psychische Belastung abgetragen. # 39
Zusammenfassung wichtiger Aspekte Was sollte ich mir mindestens merken? Zweck: Prüfung des Einflusses mehrerer metrischer oder dichotomer unabhängiger Variablen auf dichotome abhängige Variable ( Drittvariablenkontrolle). Vorgehensweise: Logarithmiertes Verhältnis von Wahrscheinlichkeit, auf abhängiger Variable den Wert 1 zu haben zur Gegenwahrscheinlichkeit wird als linear abhängig von unabhängigen Variablen betrachtet, Modellschätzung mittels Maximum Likelihood. Interpretation: Pseudo-R² und LR-Test zur Beurteilung der Modellgüte. Koeffizienten: Vorzeichen gibt Auskunft über Einflussrichtung. Odds Ratios: Geben Veränderung des Verhältnisses der Odds bei Veränderung der unabhängigen Variable um eine Einheit an. Graphische Darstellung der vorhergesagten Wahrscheinlichkeiten # 40
Literatur Best, Henning; Wolf, Christof (2010): Logistische Regression. Handbuch der sozialwissenschaftlichen Datenanalyse. In: Christof Wolf und Henning Best (Hg.): VS Verlag für Sozialwissenschaften, S. 827 854. Kohler, Ulrich; Frauke Kreuter (2001): Datenanalyse mit Stata, München, S. 255 264. Backhaus, Klaus u.a. (2005): Multivariate Analysemethoden, 11. Aufl. Berlin u.a.: Springer, Kapitel 7. Bühl, Achim (2006): SPSS 14. Einührung in die moderne Datenanalyse, 10. Aufl. München: Pearson, S. 372ff. Greene, William (1993): Ecomometric Analysis. 2nd ed., New York, Kap. 21. Long, Scott und Jeremy Freese (2006): Regression Models for Categorial Dependent Variables, College Station, Texas: Stata Press, Kapitel 4. # 41
Übungsaufgabe Haben ältere, verheiratete und höher gebildete Personen eher Kinder? Untersuchen Sie mit Hilfe der logistischen Regression, welchen Einfluss hohe Bildung (v65), Familienstand = verheiratet (v57) und das Alter (v56) auf die Wahrscheinlichkeit, dass Kinder im Haushalt leben haben (v35). Interpretieren Sie die Modellgüte und die Richtung der Effekte. Um die Effekte besser beurteilen zu können, stellen Sie diese graphisch dar. Bilden Sie hierzu eine Hilfsvariable, die jeweils eine Ausprägung für jede Merkmalskombinationen der beiden kategorialen Variablen enthält. Fügen Sie in die Grafik kubische Anpassungslinien ein. # 42