Assoziation & Korrelation

Ähnliche Dokumente
Assoziation & Korrelation

Assoziation & Korrelation

Assoziation & Korrelation

Zusammenhangsanalyse in Kontingenztabellen

Bivariate Kreuztabellen

Bedingte Wahrscheinlichkeiten & Unabhängigkeit

Musterlösung zur Aufgabensammlung Statistik I Teil 3

Bivariate Analyse: Gemeinsame (bivariate) Häufigkeitstabelle. Sie wird auch Kontingenz-, Assoziations- oder Korrelationstabelle (f b )genannt.

Was sind Zusammenhangsmaße?

Skalenniveaus =,!=, >, <, +, -

Analyse bivariater Kontingenztafeln

Zusammenhangsanalyse mit SPSS. Messung der Intensität und/oder der Richtung des Zusammenhangs zwischen 2 oder mehr Variablen

Bedingte Wahrscheinlichkeit. Beispiel zur bedingten Wahrscheinlichkeit

Bivariate Zusammenhänge

Deskriptive Statistik Lösungen zu Blatt 5 Christian Heumann, Susanne Konrath SS Lösung Aufgabe 27. f X Y (a i b j ) = f i j = f ij f j

Kontingenzkoeffizient (nach Pearson)

Es können keine oder mehrere Antworten richtig sein. Eine Frage ist NUR dann richtig beantwortet, wenn ALLE richtigen Antworten angekreuzt wurden.

Grundlagen der Statistik

5.3 (Empirische) Unabhängigkeit und χ 2

WISTA WIRTSCHAFTSSTATISTIK

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011

Deskriptive Statistik

Datenanalyse mit Excel. Wintersemester 2013/14

Statistik I für Statistiker, Mathematiker und Informatiker Lösungen zu Blatt 6 Gerhard Tutz, Jan Ulbricht WS 05/06.

Modul G.1 WS 07/08: Statistik

Korrelation - Regression. Berghold, IMI

Bivariater Zusammenhang in der Mehrfeldertafel PEΣO

Prüfung aus Statistik 1 für SoziologInnen. Musterlösung

Einführung in die Korrelationsrechnung

Kapitel 5 Kenngrößen empirischer Verteilungen 5.1. Lagemaße. x mod (lies: x-mod) Wofür? Lageparameter. Modus/ Modalwert Zentrum. Median Zentralwert

Angewandte Statistik 3. Semester

Korrelation Regression. Wenn Daten nicht ohne einander können Korrelation

Bivariate Analyseverfahren

Prof. Dr. Achim Bühl SPSS 16. Einführung in die moderne Datenanalyse. 11., überarbeitete und erweiterte Auflage

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Eine zweidimensionale Stichprobe

Statistik. Jan Müller

Inhaltsverzeichnis. Teil 1 Basiswissen und Werkzeuge, um Statistik anzuwenden

Brückenkurs Statistik für Wirtschaftswissenschaften

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Zwei kategoriale Merkmale. Homogenität Unabhängigkeit

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2013

Zusammenhänge zwischen metrischen Merkmalen

Tabellarische und graphie Darstellung von univariaten Daten

Korrelation (II) Korrelation und Kausalität

P (X = 2) = 1/36, P (X = 3) = 2/36,...

3. Deskriptive Statistik

Verteilungsfunktion und Quantile

Heinz Holling & Günther Gediga. Statistik - Deskriptive Verfahren

WISTA WIRTSCHAFTSSTATISTIK

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Kai Schaal. Universität zu Köln

Regression I. Statistik I. Sommersemester Lineare Regression Zusammenhang und Modell Ein Beispiel: Armut und Gewaltverbrechen Zusammenfassung

Methodik für Linguisten

Daten, Datentypen, Skalen

Teil II: Einführung in die Statistik

Statistik II: Signifikanztests /1

3. ZWEI KATEGORIALE MERKMALE (bivariate kategoriale Daten)

PROC MEANS. zum Berechnen statistischer Maßzahlen (für quantitative Merkmale)

THEMA: ZUSAMMENHANGSANALYSEN FÜR KATEGORIALE VARIABLEN " TORSTEN SCHOLZ

Verteilungsfunktion und Quantile

Mathematische und statistische Methoden I

Statistik Klausur Wintersemester 2012/2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Verteilungsfunktion und dquantile

1.5 Berechnung von Rangzahlen

Glossar Statistik 2. Bivariate Verfahren: zwei nummerische Merkmale

Klausur Statistik I. Dr. Andreas Voß Wintersemester 2005/06

P (A B) P (B) = P ({3}) P ({1, 3, 5}) = 1 3.

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Mathematische und statistische Methoden I

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Wiederholung Qualitätssicherung Drittvariablen. Regression II. Statistik I. Sommersemester Statistik I Regression II (1/33) Wiederholung

Statistik. Ludwig Fahrmeir Rita Künstler Iris Pigeot Gerhard Tutz. Der Weg zur Datenanalyse. Springer. Zweite, verbesserte Auflage

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur.

Herzlich Willkommen zur Vorlesung Statistik

Kapitel 16 Kreuztabellen

Bedingte Wahrscheinlichkeiten & Unabhängigkeit

Teil: lineare Regression

Statistische Verfahren für das Data Mining in einem Industrieprojekt

I. Deskriptive Statistik 1

Kapitel 2. Häufigkeitsverteilungen

Statistik. Datenanalyse mit EXCEL und SPSS. R.01denbourg Verlag München Wien. Von Prof. Dr. Karlheinz Zwerenz. 3., überarbeitete Auflage

1. Maße der zentralen Tendenz Beispiel: Variable Anzahl der Geschwister aus Jugend '92. Valid Cum Value Frequency Percent Percent Percent

Seminar zur Energiewirtschaft:

Inhaltsverzeichnis. 2 Kurzbeschreibung von SPSS Der SPSS-Dateneditor Statistische Analysen mit SPSS DieDaten...

Aufgabenblock 3. Durch zählen erhält man P(A) = 10 / 36 P(B) = 3 / 36 P(C) = 18 / 36 und P(A B) = 3 /

Gemeinsame Wahrscheinlichkeitsverteilungen

Mathematik für Biologen

Inhaltsverzeichnis. Teil I Einführung

Binomialverteilung. Statistik für SoziologInnen 1 Diskrete Verteilungsmodelle. Marcus Hudec

Transkript:

Statistik 1 für SoziologInnen Assoziation & Korrelation Univ.Prof. Dr. Marcus Hudec

Einleitung Bei gleichzeitiger Beobachtung von 2 Merkmalen für jeden Merkmalsträger stellt sich auch im Bereich der deskriptiven Statistik die Frage, ob es systematische Zusammenhänge oder Abhängigkeiten zwischen den beiden Merkmalen gibt. Für die Messung der quantitativen Stärke des Zusammenhangs dienen im Falle qualitativer Merkmale die sog. Assoziationsmaße, im Falle quantitativer Merkmale spricht man von Korrelationsmaßen. Ein Zusammenhangsmaß quantifiziert die Stärke und die Richtung eines Zusammenhangs zweier statistischer Variablen. 2 Statistik 1 - Assoziation & Korrelation

Beispiel: Assoziation von Produktkäufen Ausgangspunkt bildet eine Datenbasis von 1.000 Rechnungsbelegen eines Warenhauses Daraus lassen sich zunächst für 2 Produkte unabhängig voneinander Information über 2 univariate Randverteilungen gewinnen: Produkt A Kauf 700 70% kein Kauf 300 30% 1.000 100% Produkt B Kauf 600 60% kein Kauf 400 40% 1.000 100% 3 Statistik 1 - Assoziation & Korrelation

Szenario: Keine Assoziation zwischen den Produkten Absolute Häufigkeiten Zeilenprozent Produkt B Produkt B Produkt A Kauf kein Kauf Gesamt Produkt A Kauf kein Kauf Gesamt Kauf 420 280 700 Kauf 60% 40% 100% kein Kauf 180 120 300 kein Kauf 60% 40% 100% Gesamt 600 400 1.000 Gesamt 60% 40% 100% Relative Häufigkeiten Spaltenprozent Produkt B Produkt B Produkt A Kauf kein Kauf Produkt A Kauf kein Kauf Kauf 42% 28% 70% Kauf 70% 70% 70% kein Kauf 18% 12% 30% kein Kauf 30% 30% 30% Gesamt 60% 40% 100% Gesamt 100% 100% 100% Beachte: Bei Unabhängigkeit ergeben sich die gemeinsamen Wahrscheinlichkeiten direkt aus dem Produkt der Randverteilungen! Bei Unabhängigkeit sind die bedingten Wahrscheinlichkeiten gleich der marginalen Wahrscheinlichkeit! 4 Statistik 1 - Assoziation & Korrelation

Szenario: Keine Assoziation zwischen den Produkten Absolute Häufigkeiten Zeilenprozent Produkt B Produkt B Produkt A Kauf kein Kauf Gesamt Produkt A Kauf kein Kauf Gesamt Kauf 420 280 700 Kauf 60% 40% 100% kein Kauf 180 120 300 kein Kauf 60% 40% 100% Gesamt 600 400 1.000 Gesamt 60% 40% 100% Relative Häufigkeiten Spaltenprozent Produkt B Produkt B Produkt A Kauf kein Kauf Produkt A Kauf kein Kauf Kauf 42% 28% 70% Kauf 70% 70% 70% kein Kauf 18% 12% 30% kein Kauf 30% 30% 30% Gesamt 60% 40% 100% Gesamt 100% 100% 100% P(Kauf von B Kauf von A) = 420/700 = 0,60 P(Kauf von B kein Kauf von A) = 180/300 = 0,60 P(Kauf von B) = 600/1.000 = 0,60 5 Statistik 1 - Assoziation & Korrelation

Szenario: Positive Assoziation zwischen den Produkten Absolute Häufigkeiten Zeilenprozent Produkt B Produkt B Produkt A Kauf kein Kauf Gesamt Produkt A Kauf kein Kauf Gesamt Kauf 550 150 700 Kauf 79% 21% 100% kein Kauf 50 250 300 kein Kauf 17% 83% 100% Gesamt 600 400 1.000 Gesamt 60% 40% 100% Relative Häufigkeiten Spaltenprozent Produkt B Produkt B Produkt A Kauf kein Kauf Produkt A Kauf kein Kauf Kauf 55% 15% 70% Kauf 92% 38% 70% kein Kauf 5% 25% 30% kein Kauf 8% 63% 30% Gesamt 60% 40% 100% Gesamt 100% 100% 100% Beispiel: Farbe + Pinsel Bei positiver Assoziation impliziert das Vorliegen einer positiven Merkmalsausprägung (im Beispiel Kauf) bei einem Merkmal, dass auch beim anderen Merkmal mit hoher Wahrscheinlichkeit eine positive Merkmalsausprägung vorliegt. P(Kauf von B Kauf von A) = 550/700 = 0,79 P(Kauf von A Kauf von B) = 550/600 = 0,92 6 Statistik 1 - Assoziation & Korrelation

Szenario: Negative Assoziation zwischen den Produkten Absolute Häufigkeiten Zeilenprozent Produkt B Produkt B Produkt A Kauf kein Kauf Gesamt Produkt A Kauf kein Kauf Gesamt Kauf 360 340 700 Kauf 51% 49% 100% kein Kauf 240 60 300 kein Kauf 80% 20% 100% Gesamt 600 400 1.000 Gesamt 60% 40% 100% Relative Häufigkeiten Spaltenprozent Produkt B Produkt B Produkt A Kauf kein Kauf Produkt A Kauf kein Kauf Kauf 36% 34% 70% Kauf 60% 85% 70% kein Kauf 24% 6% 30% kein Kauf 40% 15% 30% Gesamt 60% 40% 100% Gesamt 100% 100% 100% Beispiel: 2 Konkurrenzprodukte verschiedener Markenanbieter Bei negativer Assoziation impliziert das Vorliegen einer positiven Merkmalsausprägung (im Beispiel Kauf) bei einem Merkmal, dass beim anderen Merkmal mit hoher Wahrscheinlichkeit eine negative Merkmalsausprägung (kein Kauf) vorliegt. P(Kauf von B Kauf von A) = 360/700 = 0,51 P(Kauf von B kein Kauf von A) = 240/300 = 0,80 7 Statistik 1 - Assoziation & Korrelation

Szenario: Maximale Positive Assoziation zwischen den Produkten Maximale Häufigkeitsmasse auf der Hauptdiagonale Minimale Häufigkeitsmasse auf der Nebendiagonale Absolute Häufigkeiten Produkt B Produkt A Kauf kein Kauf Gesamt Kauf 600 100 700 kein Kauf 0 300 300 Gesamt 600 400 1.000 8 Statistik 1 - Assoziation & Korrelation

Szenario: Maximale Negative Assoziation zwischen den Produkten Minimale Häufigkeitsmasse auf der Hauptdiagonale Maximale Häufigkeitsmasse auf der Nebendiagonale Absolute Häufigkeiten Produkt B Produkt A Kauf kein Kauf Gesamt Kauf 300 400 700 kein Kauf 300 0 300 Gesamt 600 400 1.000 9 Statistik 1 - Assoziation & Korrelation

Maßzahl für Stärke der Assoziation Wir betrachten 2 binäre Merkmale A und B mit Ausprägungen (A1, A2) und (B1, B2) B1 B2 Summe A1 a b a+b A2 c d c+d Summe a+c b+d N Basis: Verhältnis der Haupt- zur Nebendiagonale Kreuzproduktverhältnis (cpr; cross product ratio) cpr = a*d/(b*c) Wertebereich: 0 bis + Assoziationskoeffizient nach Yule (Q): Q=(cpr-1)/(cpr+1) Wertebereich: -1 bis +1 10 Statistik 1 - Assoziation & Korrelation

Szenario: Keine Assoziation zwischen den Produkten Absolute Häufigkeiten Produkt B Produkt A Kauf kein Kauf Gesamt Kauf 420 280 700 kein Kauf 180 120 300 Gesamt 600 400 1.000 cpr=420*120/(280*180)=1 Q=(1-1)/(1+1)=0 11 Statistik 1 - Assoziation & Korrelation

Szenario: Positive Assoziation zwischen den Produkten Absolute Häufigkeiten Produkt B Produkt A Kauf kein Kauf Gesamt Kauf 550 150 700 kein Kauf 50 250 300 Gesamt 600 400 1.000 cpr=250*550/(150*50)=18,33 Q=(18,33-1)/(18,33+1) = 0,90 12 Statistik 1 - Assoziation & Korrelation

Szenario: Negative Assoziation zwischen den Produkten Absolute Häufigkeiten Produkt B Produkt A Kauf kein Kauf Gesamt Kauf 360 340 700 kein Kauf 240 60 300 Gesamt 600 400 1.000 cpr=360*60/(340*240)=0,26 Q=(0,26-1)/(0,26+1)=-0,58 13 Statistik 1 - Assoziation & Korrelation

Szenario: Maximale Positive Assoziation zwischen den Produkten Absolute Häufigkeiten Produkt B Produkt A Kauf kein Kauf Gesamt Kauf 600 100 700 kein Kauf 0 300 300 Gesamt 600 400 1.000 cpr=600*300/(0*100) + Q=( -1)/( +1)=1 14 Statistik 1 - Assoziation & Korrelation

Szenario: Maximale Negative Assoziation zwischen den Produkten Absolute Häufigkeiten Produkt B Produkt A Kauf kein Kauf Gesamt Kauf 300 400 700 kein Kauf 300 0 300 Gesamt 600 400 1.000 cpr=300*0/(300*400)= 0 Q=(0-1)/(0+1)=-1 15 Statistik 1 - Assoziation & Korrelation

Cross Product Ratio ~ odds ratio Das Verhältnis von Chance (p) zu Gegenchance (1-p) nennt man odds bzw. Chancenverhältnis odds= p/(1-p) Beispiel: Würfelwurf odds(für einen 6er)=(1/6)/(5/6)=1/5 Man spricht auch: die Chancen stehen 1 zu 5 Exkurs in die Spieltheorie: Der Reziprokwert der Odds ist jene Auszahlung, die zu einer fairen Wette führt (Details späteres Kapitel) Im Beispiel Gewinn des fünffachen Einsatzes beim Würfeln einer 6 - sonst Verlust des Einsatzes Langfristig kein Gewinn und kein Verlust 16 Statistik 1 - Assoziation & Korrelation

Cross Product Ratio ~ odds ratio B1 B2 Summe A1 a b a+b A2 c d c+d Summe a+c b+d N Die Cross Product Ratio cpr = a*d/(b*c) kann auch als das Verhältnis der Odds (odds-ratio) für zwei unterschiedliche Bedingungen interpretiert werden a a d b b c c d a/b ist das Chancenverhältnis von B1 zu B2 gegeben A1 ist eingetreten c/d ist das Chancenverhältnis von B1 zu B2 gegeben A2 ist eingetreten 17 Statistik 1 - Assoziation & Korrelation

Zur Interpretation der Cross Product Ratio D+ D- Total T+ 0,64 0,36 0,289 T- 0,187 0,813 0,711 Total 0,318 0,682 1,000 odds(d+ zu D- T+) = 0,64/0,36 = 25/14 = 1,78 odds(d+ zu D- T-) = 0,187/0,813= 18/78 = 0,23 odds-ratio = 1,78/0,23 = 7,74 Das Chancenverhältnis (die odds) einer Erkrankung ist bei Vorliegen eines positiven Testbefundes 7,74 mal so hoch wie bei Vorliegen eines negativen Testbefundes. (25/14)/(18/78)=(25*78)/(14*18)=7,74 18 Statistik 1 - Assoziation & Korrelation

Maße der prädiktiven Assoziation Diese Maße basieren auf der proportionalen Fehlerreduktion, die sich bei der Vorhersage eines Merkmals bei Kenntnis des Wertes des anderen Merkmals ergeben (Goodman-Kruskal ) E0... Fehler bei Vorhersage von Merkmal X ohne Kenntnis der Merkmalausprägung von Y E1... Fehler bei Vorhersage von Merkmal X bei Kenntnis der Merkmalausprägung von Y X (X) ~ Maß für die relative Fehlerreduktion 19 Statistik 1 - Assoziation & Korrelation

Beispiel Konfession katholisch evangelisch keine gesamt CDU 327 306 141 774 SPD 198 300 216 714 FDP 49 109 41 199 Grüne 92 129 134 355 PDS 10 16 100 126 676 860 632 2168 Quelle: Allbus 1996 Konfession katholisch evangelisch keine gesamt CDU 48,4% 35,6% 22,3% 35,7% SPD 29,3% 34,9% 34,2% 32,9% FDP 7,2% 12,7% 6,5% 9,2% Grüne 13,6% 15,0% 21,2% 16,4% PDS 1,5% 1,9% 15,8% 5,8% 100,0% 100,0% 100,0% 100,0% Merkmale sind abhängig! Aufgabenstellung: berechne (x) als Maß für die prädiktive Stärke des Merkmals Y ~ Konfession zur Vorhersage des Merkmals X ~ Wahlabsicht 20 Statistik 1 - Assoziation & Korrelation

Prognose-Fehler ohne Kenntnis des zweiten Merkmals Konfession katholisch evangelisch keine gesamt CDU 327 306 141 774 E0=2168-774=1394 SPD 198 300 216 714 FDP 49 109 41 199 Grüne 92 129 134 355 PDS 10 16 100 126 676 860 632 2168 E0 ist der Vorhersagefehler für die Wahlabsicht (X) ohne Kenntnis des Merkmals Konfession Y bei Anwendung jener Regel, die die geringste Fehlerrate aufweist. (Geringste Fehlerrate beim Tippen auf die Modalklasse <häufigste Klasse>!) Ohne Kenntnis der Konfession ist es offensichtlich am sinnvollsten auf CDU zu tippen (höchste Trefferquote ~ geringste Fehlerhäufigkeit) 21 Statistik 1 - Assoziation & Korrelation

Prognosefehler bei Kenntnis des zweiten Merkmals Konfession katholisch evangelisch keine gesamt CDU 327 306 141 774 E1=(676-327) + (860-306) + (632-216) = 1319 SPD 198 300 216 714 FDP 49 109 41 199 Grüne 92 129 134 355 PDS 10 16 100 126 676 860 632 2168 E1 ist der Vorhersagefehler der Wahlabsicht X bei Kenntnis der Merkmalsausprägung des Merkmals Konfession Y. Bei Kenntnis der Konfession ist es nun am sinnvollsten nur bei den Ausprägungen katholisch und evangelisch auf CDU zu tippen (höchste Trefferquote) bei der Ausprägung keine sollte man auf SPD tippen. Anwendung der Regel Tippe auf die Modalklasse pro Spalte 22 Statistik 1 - Assoziation & Korrelation

Berechnung des Maßes: (X) Sei X das Merkmal Wahlabsicht und Y das Merkmal Konfession, so gilt für (X) = (E0-E1)/E0 = 1-E1/E0 (X) = (1394-1319)/1394 =1-1319/1394=0,054 Demgemäß verbessert sich die Vorhersage der Wahlabsicht bei Kenntnis der Konfessionszugehörigkeit in unserem Datensatz um 5,4%. Man beachte, dass dieses Maß gerichtet ist, d.h. dass es nicht symmetrisch in Bezug auf die Rollen der Variablen ist (Y) = 1-1198/1308 = 0,084 [siehe nächste Folie] Die Vorhersagegüte der Konfessionszugehörigkeit wird bei Kenntnis der Wahlabsicht um 8,4% gesteigert. 23 Statistik 1 - Assoziation & Korrelation

Umkehrung der Abhängigkeiten Aufgabenstellung: Vorhersage der Konfessionszugehörigkeit (Y) bei Kenntnis der Wahlabsicht (X) Y) = (E0-E1)/E0 = 1-E1/E0 (1308-1198)/1308=0,084 24 Statistik 1 - Assoziation & Korrelation

Symmetrisierung Ist man nur an der Stärke des Zusammenhangs interessiert (unabhängig von der Richtung), kann man die beiden gerichteten Maße (X) und (Y) wie folgt symmetrisieren: E E E E (X) Im Beispiel ergibt sich: 25 x x y y 0 1 0 1 (Y) x y E0 E0 E E E E x x y y 0 1 0 1 x y E0 E0 (1394 1319) (1308 1198) 1394 1308 6,8% Statistik 1 - Assoziation & Korrelation

Die Chi-Quadrat Statistik Basiert auf dem Vergleich von beobachteten und unter Unabhängigkeit erwarteten Häufigkeiten Für eine Tabelle mit I Zeilen und J Spalten und N Beobachtungen wird die Chi-Quadrat Statistik wie folgt definiert: J I 2 j 1 i 1 observed expected 2 ij expected ij ij Dabei steht observed für die beobachtete absolute Häufigkeit und expected für jene absolute Häufigkeit, die sich bei Unabhängigkeit ergeben würde. 26 Statistik 1 - Assoziation & Korrelation

Bezeichnungen Die Chi-Quadratstatistik wird auch als die quadratische Kontingenz bezeichnet Demgemäß bezeichnet man 2 2 /N auch als die mittlere quadratische Kontingenz Manchmal wird auch der Phi-Koeffizient verwendet, der bei einer 2x2 Tafel zwischen 0 und 1 normiert ist. 2 /N 27 Statistik 1 - Assoziation & Korrelation

Cramer`s V Entspricht einer Normierung der Chi-Quadrat Statistik für eine beliebige Tabellengröße Für eine Tabelle mit I Zeilen und J Spalten und N Beobachtungen wird wie folgt definiert: V Nmin(I 1,J 1) 2 Der Quotient in der Wurzel ist der berechnete Chi-Quadrat Wert, dividiert durch das Produkt aus der Anzahl der Beobachtungen N und dem kleineren Wert von Anzahl der Zeilen (I) minus 1 bzw. Anzahl der Spalten (J) minus 1 28 Statistik 1 - Assoziation & Korrelation

Berechnung der erwarteten Häufigkeiten (1) Beobachtete Häufigkeiten Erwartete Häufigkeiten Konfession Konfession katholisch evangelisch keine gesamt katholisch evangelisch keine gesamt CDU 327 306 141 774 CDU 241,3 307,0 225,6 774 SPD 198 300 216 714 SPD 222,6 283,2 208,1 714 FDP 49 109 41 199 FDP 62,0 78,9 58,0 199 Grüne 92 129 134 355 Grüne 110,7 140,8 103,5 355 PDS 10 16 100 126 PDS 39,3 50,0 36,7 126 676 860 632 2168 676 860 632 2168 Quelle: Allbus 1996 Konfession Konfession katholisch evangelisch keine gesamt katholisch evangelisch keine gesamt CDU 48,4% 35,6% 22,3% 35,7% CDU 35,7% 35,7% 35,7% 35,7% SPD 29,3% 34,9% 34,2% 32,9% SPD 32,9% 32,9% 32,9% 32,9% FDP 7,2% 12,7% 6,5% 9,2% FDP 9,2% 9,2% 9,2% 9,2% Grüne 13,6% 15,0% 21,2% 16,4% Grüne 16,4% 16,4% 16,4% 16,4% PDS 1,5% 1,9% 15,8% 5,8% PDS 5,8% 5,8% 5,8% 5,8% 100,0% 100,0% 100,0% 100,0% 100,0% 100,0% 100,0% 100,0% Bei Unabhängigkeit 29 Statistik 1 - Assoziation & Korrelation

Berechnung der erwarteten Häufigkeiten (2) Konfession katholisch evangelisch keine gesamt CDU 241 307 226 774 SPD 223 283 208 714 FDP 62 79 58 199 Grüne 111 141 103 355 PDS 39 50 37 126 676 860 632 2168 79 199*860/2168 = 78,94 N=2.168 103 355*632/2168 = 103,49 30 Statistik 1 - Assoziation & Korrelation

Berechnung von Cramer s V J I (327-241,3)²/241,3=30,4 observed 2 2 ij expectedij Konfession katholisch evangelisch keine CDU 30,4 0,0 31,7 SPD 2,7 1,0 0,3 FDP 2,7 11,4 5,0 Grüne 3,2 1,0 9,0 PDS 21,8 23,1 109,0 N=2.168 n=2168 I=5 J=3 Beobachtete Häufigkeiten j 1 i 1 expected 252,4 Chi²-Wert 0,241 Cramer`s V ij Erwartete Häufigkeiten Interpretation: 0,1 < V < 0,2... geringer Zusammenhang 0,2 < V < 0,4... mäßiger Zusammenhang V > 0,4... starker Zusammenhang 31 Statistik 1 - Assoziation & Korrelation

Vierfeldertafel Im Falle der einfachsten Tabelle, bei der 2 binäre Merkmale gekreuzt werden (~Vierfeldertafel) gibt es einfache Berechnungsmöglichkeiten: = +1 2 2 n(ad bc) (a b)(a c))b d)(c d) ad bc (a b)(a c))b d)(c d) = 1 32 Statistik 1 - Assoziation & Korrelation

Zusammenhang von 2 metrischen Merkmalen Wir betrachten nun den Fall der Messung des Zusammenhangs von 2 metrischen Variablen. Ziel ist es die Stärke und die Richtung des Zusammenhangs zwischen zwei Variablen X und Y mittels einer statistischen Maßzahl zu quantifizieren. Wir sprechen von einem positiven Zusammenhang, wenn Aussagen der Art: Je größer X desto größer ist auch Y zutreffen Wir sprechen von einem negativen Zusammenhang, wenn Aussagen der Art: Je größer X desto kleiner ist Y zutreffen 33 Statistik 1 - Assoziation & Korrelation

Kovarianz Kovarianz: Zusammenhangsmaß bei intervallskalierten Merkmalen, das sich unmittelbar aus der Varianz ableitet s XX 1 n n i 1 n x x x x x x nxx i i 1 n n n 1 1 XY i i i i n i 1 n i 1 s x x y y x y nxy i 1 i i Varianz von X Kovarianz von X und Y 34 Statistik 1 - Assoziation & Korrelation

Konzept der Kovarianz y x 35 Statistik 1 - Assoziation & Korrelation

Erklärung Jeder Beobachtungspunkt liefert einen Beitrag zur Summe. Grüne Punkte in den Quadranten I und III liefern positive Beiträge Rote Punkte in den Quadranten II und IV liefern negative Beiträge Die Größe des Beitrags entspricht der grau schraffierten Fläche Nachteil: Die Kovarianz ist nicht normiert und kann beliebige Werte aufweisen 36 Statistik 1 - Assoziation & Korrelation

Korrelationskoeffizient Der Korrelationskoeffizient nach Pearson ist das wichtigste Maß für den Zusammenhang zwischen zwei metrischen Variablen X und Y und ergibt sich durch die Normierung der Kovarianz. Er ist ein Maß für die lineare Korrelation! Alternative Bezeichnungen für dieses Maß in der Literatur: Produkt-Moment-Korrelation, Bravais-Pearson-Korrelation, Linearer Korrelationskoeffizient 37 Statistik 1 - Assoziation & Korrelation

Korrelationskoeffizient r xy Der Korrelationskoeffizient nach Pearson kann durch folgende äquivalente Formeln charakterisiert werden: i i x x y y x x y y cov( XY) corrxy Std. Abw.( X ) Std. Abw.( Y) i n xy x y i i i i 2 2 i 2 2 2 2 i i i i n x x n y y Hinweis: wenn klar ist, um welche Korrelation es sich handelt wird oft auch nur r statt r XY geschrieben. 38 Statistik 1 - Assoziation & Korrelation

Korrelationskoeffizient Der Korrelationskoeffizient liegt stets zwischen -1 und +1. Korrelationskoeffizient nahe -1: Die Mehrzahl der Datenpunkte konzentrieren sich um eine Gerade mit negativer Steigung. Korrelationskoeffizient ungefähr 0: Die Datenpunkte sind entweder auf alle vier Quadranten ungefähr gleichmäßig verteilt oder sie liegen um eine Gerade die parallel zu einer der beiden Achsen verläuft. Korrelationskoeffizient nahe +1: Die Mehrzahl der Datenpunkte konzentrieren sich um eine Gerade mit positiver Steigung. 39 Statistik 1 - Assoziation & Korrelation

Hohe positive Korrelation Korrelation 0.91-3 -2-1 0 1 2 3-3 -2-1 0 1 2 3 40 Statistik 1 - Assoziation & Korrelation

Hohe negative Korrelation Korrelation -0.97-3 -2-1 0 1 2 3-3 -2-1 0 1 2 3 41 Statistik 1 - Assoziation & Korrelation

Mittlere positive Korrelation Korrelation 0.47-3 -2-1 0 1 2 3-3 -2-1 0 1 2 3 42 Statistik 1 - Assoziation & Korrelation

Korrelation nahe 0 Korrelation 0.05-3 -2-1 0 1 2 3-3 -2-1 0 1 2 3 43 Statistik 1 - Assoziation & Korrelation

Was ist eine starke Korrelation? Vorschlag von Cohen: r ~ 0,1 schwacher Zusammenhang r ~ 0,3 mittlerer Zusammenhang r ~ 0,5 starker Zusammenhang Ist r deutlich größer als 0,5 spricht man von einem sehr starken Zusammenhang Relevanz oder besser Signifikanz hängt von der Fallzahl ab (siehe Statistik 2). 44 Statistik 1 - Assoziation & Korrelation

Verschiedene Szenarien 45 Statistik 1 - Assoziation & Korrelation

Beispiel: X Gewicht des Vaters, Y Gewicht des Sohnes Excel-Funktionen: Varianzen Kovar, Korrel r xy n xy i i xi yi 2 2 i i i i 2 2 n x x n y y 46 Statistik 1 - Assoziation & Korrelation

Berechnung via Standardisierte Daten Die Korrelation der Originaldaten ist gleich der Kovarianz der standardisierten Daten 47 Statistik 1 - Assoziation & Korrelation

Unabhängigkeit und Kausalität Sind zwei Variablen unabhängig, so folgt daraus, dass der Korrelationskoeffizient den Wert 0 annimmt. Umgekehrt kann aus einer Korrelation von nahe Null nicht auf Unabhängigkeit geschlossen werden, da die Korrelation nur den linearen Zusammenhang 1.0 misst. 0.8 0.6 0.4 Die Punkte im linken Beispiel 0.2 0.0-0.2 haben Korrelation null! -0.4-0.6-0.8-1.2-0.7-0.2 0.3 0.8 Keinesfalls darf Korrelation mit Kausalität gleichgesetzt werden. Problem: Scheinkorrelation 48 Statistik 1 - Assoziation & Korrelation

Kausalität Kausalität bezeichnet die Beziehung zwischen Ursache und Wirkung, wobei die Ursache ein Sachverhalt ist, der einen bestimmten anderen Sachverhalt (Wirkung) als Folge herbeiführt. Kausalität weist eine feste Richtung auf, die immer von der Ursache ausgeht, auf der die Wirkung folgt. Korrelation ist ungerichtet Kausalität setzt eine Richtung voraus Korrelation kann auch über Drittvariablen entstehen 49 Statistik 1 - Assoziation & Korrelation

Simpsons Paradoxon (heterogene Gruppen) 50 Statistik 1 - Assoziation & Korrelation

Correlation vs. Causality Empirische Daten zeigen, dass der Verzehr von Speiseeis das Risiko von einem Haifisch attackiert zu werden erhöht! Quelle: Eric Siegel. Predictive Analytics: Delivering on the Promise of Big Data. IBM Government Analytics Forum, May2014 51 Statistik 1 - Assoziation & Korrelation

Scheinkorrelation 52 Statistik 1 - Assoziation & Korrelation

Nonsens-Korrelationen (1) http://tylervigen.com/spurious-correlations 53 Statistik 1 - Assoziation & Korrelation

Nonsens-Korrelationen (2) http://tylervigen.com/spurious-correlations 54 Statistik 1 - Assoziation & Korrelation

Korrelation bei ordinalen Daten Für ordinalskalierte Variablen, eignet sich der Rangkorrelationskoeffizient nach Spearman. Idee: Verwende bei der Berechnung des Korrelationskoeffizienten nicht den Wert der Beobachtungen X und Y sondern den Rang, den diese Beobachtung aufgrund des Wertes bei einer Sortierung nach X bzw. Y einnimmt. X i, Y i gemessene Werte für die i-te Beobachtung RX i,.. Rang, den die i-te Beobachtung bei Ordnung nach X einnimmt. RY i,.. Rang, den die i-te Beobachtung bei Ordnung nach Y einnimmt. 55 Statistik 1 - Assoziation & Korrelation

Korrelation bei ordinalen Daten Rang-Korrelation nach Spearman Die Formel links ergibt sich als Vereinfachung der Formel für den Korrelationskoeffizienten, wenn man mit den Rängen arbeitet 56 Statistik 1 - Assoziation & Korrelation

Beispiel 57 Statistik 1 - Assoziation & Korrelation

Rangkorrelation nach Spearman Vorteile: Bereits anwendbar auf zumindest ordinal-skalierte Daten Keine Annahme, dass die Beziehung zwischen den Variablen linear ist. Der Rangkorrelationskoeffizient ist robust gegenüber Ausreißern. Invariant gegenüber monotonen Transformationen Nachteile: Informationsverlust bei Vorliegen stetiger Merkmale Insbesondere bei normalverteilten Daten resultiert daraus ein Genauigkeitsverlust 58 Statistik 1 - Assoziation & Korrelation

Trauen Sie dieser Korrelation? 59 Statistik 1 - Assoziation & Korrelation

Elimination des extremen Datenpunkts Praktisch keine Korrelation mehr in den Daten nach Elimination einer einzigen Beobachtung! 60 Statistik 1 - Assoziation & Korrelation

Anwendung der Rangkorrelation Spearman s Rangkorrelation r S =0,1113 Durch die Reduktion der Skalierung erfolgt implizit eine schwächere Gewichtung extremer Beobachtungen Nachteil: Informationsverlust Vorteil: Robust gegenüber Datenfehlern Vergleichbar mit der Diskussion Median versus arithmetisches Mittel 61 Statistik 1 - Assoziation & Korrelation