6Korrelationsanalyse:Zusammenhangsanalysestetiger Merkmale

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "6Korrelationsanalyse:Zusammenhangsanalysestetiger Merkmale"

Transkript

1 6Korrelationsanalyse:Zusammenhangsanalysestetiger Merkmale

2 6.1 Korrelationsanalyse 6.1 Korrelationsanalyse Jetzt betrachten wir bivariate Merkmale (X, Y ), wobei sowohl X als auch Y stetig bzw. quasi-stetig und mindestens ordinalskaliert, typischerweise sogar intervallskaliert, sind. Am Rande wird auch der Fall gestreift, dass nur ein Merkmal quasi-stetig und das andere nominalskaliert ist Streudiagramm, Kovarianz- und Korrelationskoeffizienten Beispiele: Nettomiete Wohnfläche Autoritarismusscore vor/nach einer Informationsveranstaltung Monatseinkommen Alter in Jahren Wochenarbeitseinkommen Wochenarbeitsstunden Wochenarbeitsstunden Hausarbeit in Stunden pro Woche Wochenarbeitsstunden (tatsächlich) Wochenarbeit (vertraglich) 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 264

3 6.1 Korrelationsanalyse Streudiagramme (Scatterplots) Sind die Merkmale stetig oder zumindestens quasi-stetig (sehr viele verschiedene Ausprägungen), werden Kontingenztabellen sehr unübersichtlich und praktisch aussagelos, da die einzelnen Häufigkeiten in den Zellen der Tabellen natürlicherweise durchwegs sehr klein sind. Alternative Darstellungsform: Scatterplot / Streudiagramm: Zeichne die Punkte (x i,y i ),,...,n,ineinx-y -Koordinatensystem. = Guter optischer Eindruck über das Vorliegen, die Richtung und gegebenenfalls die Art eines Zusammenhangs. = Ausreißer werden leicht erkannt. Quelle für Beispiele: Jann (2002), p. 85 ff. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 265

4 6.1 Korrelationsanalyse 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 266

5 6.1 Korrelationsanalyse Kovarianz und Korrelation Wie misst man den Zusammenhang zwischen metrischen Merkmalen? Eine Idee ist, die sogenannte Kovarianz (s.u.) zu konstruieren besteht darin, nach Konkordanz/Diskordanz zum Schwerpunkt zu fragen und dabei auch die nun interpretierbaren Abstände zur Messung der individuellen Konkordanzstärke heranzuziehen. Negative Werte sprechen für Diskordanz. Betrachte den Mittelpunkt der Daten ( x, ȳ) und dazu konkordante/diskordante Paare. Eine Beobachtung i mit Ausprägung (x i,y i ) ist konkordant zu ( x, ȳ), spricht also für einen gleichgerichteten Zusammenhang, wenn (x i > x und y i > ȳ) oder (x i < x und y i < ȳ) 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 267

6 also zusammengefasst wenn 6.1 Korrelationsanalyse (x i x) (y i ȳ) > 0. diskordant zu ( x, ȳ), sprichtalsofür einen gegengerichteten Zusammenhang, wenn Zusammenhang wenn x i < x und y i > ȳ oder also zusammengefasst wenn x i > x und y i < ȳ (x i x) (y i ȳ) < 0. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 268

7 6.1 Korrelationsanalyse Wegen des metrischen Skalenniveaus sind auch die Abstände interpretierbar, das Produkt (x i x) (y i ȳ) gibt also sozusagen die Stärke der Konkordanz bzw. Diskordanz an. (x i x)(y i ȳ) ist positiv, wenn große (kleine) X-Werte mit großen (kleinen) Y -Werten einhergehen (gleichgerichteter Zusammenhang). (x i x)(y i ȳ) ist negativ, wenn große (kleine) X-Werte mit kleinen (großen) Y -Werten einhergehen (gegengerichteter Zusammenhang). = Definiere als Zusammenhangsmaß die durchschnittliche individuelle Konkordanzstärke. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 269

8 6.1 Korrelationsanalyse Definition: Gegeben sei ein bivariates Merkmal (X, Y ) mit metrisch skalierten Variablen X und Y mit s 2 X > 0 und s2 Y > 0. Dannheißen Cov(X, Y ):= 1 n (empirische) Kovarianz von X und Y, n (x i x) (y i ȳ) ϱ(x, Y ):= n (x i x) (y i ȳ) n (x i x) 2 n (y i ȳ) 2 (empirischer) Korrelationskoeffizient nach Bravais und Pearson von X und Y,und Bestimmtheitsmaß von X und Y. R 2 XY := (ϱ(x, Y )) 2 (6.14) 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 270

9 Bemerkungen: 6.1 Korrelationsanalyse Die Kovarianz Cov(X, Y ) ist nicht maßstabsunabhängig. Das Teilen durch die Standardabweichungen normiert die Kovarianz und macht sie maßstabsunabhängig. 1 n n (x i x) s 2 X (y i ȳ) s 2 Y = ϱ(x, Y ) Also ist - im Sinne obiger Interpretation - der Korrelationskoeffizient die durchschnittliche standardisierte Konkordanzstärke. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 271

10 6.1 Korrelationsanalyse Die empirische Kovarianz ist eine Verallgemeinerung der empirischen Varianz. Die Kovarianz eines Merkmals mit sich selbst ist genau die empirische Varianz: Cov(X, X) = 1 n n (x i x)(x i x) n = 1 n (x i x) 2 = s 2 x Man sieht hier auch, dass die Größe der Kovarianz für sich genommen unanschaulich zu interpretieren ist. Für den Korrelationskoeffizienten hingegen gilt: und insbesondere ρ(x, X) =1. 1 ϱ(x, Y ) 1. Viele der (un)angenehmen Eigenschaften der Varianz (z.b. Ausreißerempfindlichkeit) gelten in analoger Weise. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 272

11 Es gilt auch ein Verschiebungssatz: 6.1 Korrelationsanalyse Cov(X, Y )= 1 n n x i y i xȳ und damit Zur Erinnerung: ϱ(x, Y )= n x i y i n x ȳ. n x 2 i n x2 n yi 2 n ȳ2 s X = 1 n n x 2 i x 2. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 273

12 Beispiel: Zunächst inhaltsleere Zahlenbeispiele, zur Interpretation später. 6.1 Korrelationsanalyse Gegeben seien die Datenpaare x i y i Es gilt: x =30und ȳ =120,sowie n n x 2 i =4678 yi 2 = n x i y i = n = 5 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 274

13 Tabelle: 6.1 Korrelationsanalyse x i y i x i y i x 2 i y 2 i Basierend auf diesen Hilfsgrößen berechnet sich die Korrelationskoeffizient gemäß Verschiebungssatz als ϱ(x, Y )= n x iy i n x ȳ n x2 i n x2 n y2 i n ȳ2 = Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 275

14 6.1 Korrelationsanalyse Gegeben sei ein Merkmal X und das Merkmal Y =(X 20) 2 mit den Datenpaaren. x i y i x i y i Es gilt: x =20und ȳ = und damit Cov(X, Y ) = 1 n xi y i xȳ = ( ) = =0 Für den Korrelationskoeffizienten ergibt sich damit ebenfalls ϱ(x, Y )=0! 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 276

15 Bemerkungen: 6.1 Korrelationsanalyse Es gilt ϱ =1genau dann wenn Y = ax + b mit a 0,d.h.X und Y stehen in einem perfekten linearen Zusammenhang. Ist ϱ =0(und äquivalent dazu Cov(X, Y )=0), so nennt man X und Y unkorreliert. Es besteht dann keinerlei linearer Zusammenhang. Die Betonung der Linearität des Zusammenhangs ist wesentlich. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 277

16 6.1 Korrelationsanalyse 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 278

17 6.1 Korrelationsanalyse Allgemein zeigt ϱ und R 2 die Stärke eines linearen Zusammenhangs an, also wie gut sich die Datenpaare (x 1,y 1 ),...,(x n,y n ) durch eine Gerade beschreiben lassen. Insgesamt kann der Wert des Korrelationskoeffizienten folgendermaßen interpretiert werden: ϱ XY 0: kein(linearer)zusammenhang. ϱ XY > 0: positivekorrelation,gleichgerichteter(linearer)zusammenhang. ϱ XY < 0: negativekorrelation,gegengerichteter(linearer)zusammenhang. ϱ XY 0.5: schwachekorrelation. 0.5 < ϱ XY 0.8: mittlerekorrelation. ϱ XY > 0.8: starkekorrelation. R 2 ist ein PRE-Maß, das misst, welchen Anteil der gesamten Variation sich durch einen linearen Zusammenhang beschreiben lässt. (Näheres dazu im Abschnitt über die Regression.) 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 279

18 6.1 Korrelationsanalyse Die Zusammenhangsmaße sind invariant gegenüber Vertauschen von Y und X; sie messen also insbesondere keine gerichteten Zusammenhänge: ϱ(x, Y )=ϱ(y,x) R XY = R YX. Im Gegensatz zur Kovarianz sind ϱ(x, Y ) und RXY 2 invariant gegenüber streng monoton steigenden linearen Transformationen. Genauer gilt mit X := a X + b und Ỹ := c Y + d ϱ( X,Ỹ )=ϱ(x, Y ) falls a c>0 und ϱ( X,Ỹ )= ϱ(x, Y ) falls a c<0. DieKorrelationistalsoinderTatmaßstabsunabhängig. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 280

19 6.1 Korrelationsanalyse Beispiel: Mietspiegel (SPSS-Ausdruck) Zur Interpretation der einzelnen Zellen: In der ersten Zeile stehen jeweils die Korrelationskoeffizienten, N ist der Stichprobenumfang, bei uns mit n bezeichnet wird. Die zweite Zeile Signifikanz wird erst in Statistik II verständlich. Grob gesprochen gibt sie für zufällige Stichproben eine Wahrscheinlichkeit an, dass die Aussage, es bestehe in der Grundgesamtheit ein Zusammenhang zwischen den einzelnen Variablen, falsch ist. Je kleiner diese Wahrscheinlichkeit ist, desto sicherer ist man sich, dass der errechnete Korrelationskoeffizient nicht nur zufällig von 0 abweicht. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 281

20 6.1 Korrelationsanalyse Beispiele aus Jann (2002) S.87ff Arbeitsstunden und Erwerbseinkommen: moderater positiver Zusammenhang. Arbeitsstunden und Haushalt: moderater negativer Zusammenhang. Vertragliche und geleistete Wochenarbeitsstunden: hoch positiv korreliert (Punkte liegen sehr nahe an bester Gerade ). 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 282

21 6.1.4 Weitere Korrelationskoeffizienten 6.1 Korrelationsanalyse Anwendung des Korrelationskoeffizienten nach Bravais-Pearson auf dichotome nominale Merkmale Liegen dichotome nominale Merkmale, d.h. Merkmale mit nur zwei ungeordneten Ausprägungen vor (z.b. ja/nein), und kodiert man die Ausprägung mit 0 und 1, so kann man die Formel des Korrelationskoeffizienten nach Bravais-Pearson sinnvoll anwenden. Man erhält den sogenannten Punkt-Korrelationskoeffizienten, deridentischzuφ aus ( Kapitel 5.3) ist. Im Fall einer dichotomen und einer metrischen Variablen ergibt sich bei Anwendung des Korrelationskoeffizienten nach Bravais-Pearson die sogenannte Punkt-biseriale Korrelation. (vgl.etwajann(2002,s.90f)oderwagschal(1999,kap10.8).) 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 283

22 Rangkorrelationskoeffizient nach Spearman 6.1 Korrelationsanalyse Wir betrachten ein bivariates Merkmal (X, Y ), wobeix und Y nur ordinalskaliert sind, aber viele unterschiedlichen Ausprägungen besitzen. Der Korrelationskoeffizient von Bravais-Pearson darf nicht verwendet werden, da hier die Abstände nicht interpretierbar sind. ( x, ȳ) wären willkürliche Zahlen, ebenso (x i x), (y i ȳ). Liegen keine Bindungen vor, dann rechnet man statt mit (x i,y i ),...,n (rg(x i ), rg(y i )) i =1,...,n.Dabeiist mit rg(x i )=j : x i = x (j), d.h. der Rang rg(x i ) ist die Nummer, die x i in der geordneten Urliste x (1) x (2)... x (n) einnimmt (analog für rg(y i )). 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 284

23 Beispiel: 6.1 Korrelationsanalyse x i rg(x i ) Liegen sogenannte Bindungen vor, d.h. haben mehrere Einheiten dieselbe Ausprägung der Variablen X oder der Variablen Y,sonimmtmandenDurchschnittswertderin Frage kommenden Ränge (Achtung: etwas anderer Begriff der Bindung als in Kapitel 5.6.2). Beispiel: x i Wende nun den Korrelationskoeffizienten nach Bravais-Pearson auf die Rangdaten an. Nach Umformung ergibt sich folgende Formel: 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 285

24 Definition: ϱ S,XY := n ( ) 2 n +1 rg(x i ) rg(y i ) n 2 n ( ) 2 n +1 n ( n +1 (rg(x i )) 2 n (rg(y i )) 2 2 n Korrelationsanalyse ) 2 heißt (empirischer) Rangkorrelationskoeffizient nach Spearman. Bemerkungen: Liegen keine Bindungen vor, so gilt ϱ S,XY =1 n 6 d 2 i n(n 2 1). wobei d i := rg(x i ) rg(y i ). 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 286

25 6.1 Korrelationsanalyse Wichtig für Interpretation: Da ϱ S,XY sich aus der Anwendung von ϱ XY auf Rangdaten ergibt, behalten die entsprechenden Bemerkungen zum Bravais-Pearson-Korrelationskoeffizienten auf die Ränge bezogen ihre Gültigkeit. Insbesondere gilt 1 ϱ S,XY 1, undϱ S,XY ist analog zu interpretieren. Im Gegensatz zum Korrelationskoeffizienten von Bravais-Pearson misst der Rangkorrelationskoeffizient nicht nur lineare, sondern allgemeiner monotonezusammenhänge. Die Anwendung der Rangtransformation bewirkt in gewisser Weise eine Linearisierung monotoner Zusammenhänge. Die Bildung von Rängen ist unempfindlich gegenüber Ausreißern, so dass auch der Rangkorrelationskoeffizient ausreißerresistent ist. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 287

26 6.1 Korrelationsanalyse Beispiel: (fiktiv, Zahlen aus Jann, 2002/2005) Zwei Gutachter sollen das autoritäre Verhalten von 5 Gruppenmitgliedern vergleichen, indem sie Scores auf einer Skala zwischen 0 und 100 vergeben. (Dies ist ein typischer Fall einer Ordinalskala; die Abstände sind nicht direkt interpretierbar, sondern nur die Reihenfolge!) Man berechne den Rangkorrelationskoeffizienten nach Spearman für die Merkmale X und Y mit X Einstufung durch Gutachter 1 Y Einstufung durch Gutachter 2 Person i X: Gutachter Y :Gutachter Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 288

27 Bemerkung: 6.1 Korrelationsanalyse Analog zur punkt-biserialen Korrelation gibt es auch eine biseriale Rangkorrelation zur Beschreibung des Zusammenhangs zwischen einer dichotomen nominalen und einer quasi-stetigen ordinalen Variable (vgl. Wagschal, 1999, Kap 10.7). 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 289

28 6.2 Regressionsanalyse I: Die lineare Einfachregression 6.2 Regressionsanalyse I: Die lineare Einfachregression Grundbegriffe und historischer Hintergrund Bedeutung der Regression: Eines der am häufigsten verwendeten statistischen Verfahren. Vielfache Anwendung in den Sozialwissenschaften Analoge Ausdehnung auf viele Variablen möglich! Grundidee der Interpretation bleibt in verwandter Weise bei vielen allgemeineren Modellen erhalten, die hier nicht betrachtet werden (können). 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 290

29 Motivation: 6.2 Regressionsanalyse I: Die lineare Einfachregression Wir betrachten zunächst zwei metrische Variablen X und Y. Der Korrelationskoeffizient nach Bravais-Pearson misst die Stärke des linearen Zusammenhangs zwischen X und Y,beantwortetalsodieFrage Wie gut lassen sich Ausprägungen (x i,y i ),,...,n durch eine Gerade beschreiben? Die Regression geht nun einen Schritt weiter: Wie sieht die am besten passende Gerade aus? Analyse und Beschreibung des Zusammenhangs. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 291

30 Zusätzliche Ziele: 6.2 Regressionsanalyse I: Die lineare Einfachregression Prognose: gegeben sei ein Punkt x.woliegtdemmodellnachdasdazugehörige ŷ?(z.b.x Erwerbsarbeit in Stunden einer neuen Person, wieviel Hausarbeit in Stunden ist zu erwarten?) Elastizität: Wie stark wirkt sich eine Änderung von X um eine Einheit auf Y aus? (Wird die Erwerbsarbeit um eine Stunde reduziert, wieviel mehr Hausarbeit ist zu erwarten?) Entscheidende Grundlage für Maßnahmenplanung) Beachte a und b haben keinen Index, sind also interindividuell konstant. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 292

31 6.2 Regressionsanalyse I: Die lineare Einfachregression Die Regression ist ein erster Schritt in die etwas höhere Statistik. Fast alle gängigen Verfahren sind im weiteren Sinne Regressionsmodelle (allerdings oft nicht linear). Viele Grundideen zur Interpretation gelten in verwandter Form auch für andere Regressionsmodelle. Bei der Regressionsanalyse wird die Symmetrie des Zusammenhangs i.a. aufgegeben, d.h. nun wird ein gerichteter Zusammenhang der Form X Y betrachtet. Bezeichnungen: X unabhängige Variable exogene Variable erklärende Variable Stimulus Einflußgröße Prädiktor Kovariable Y abhängige Variable endogene Variable zu erklärende Variable Response Zielgröße 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 293

32 6.2 Regressionsanalyse I: Die lineare Einfachregression Lineare Einfachregression: Grundmodell und Kleinste-Quadrate-Prinzip Idee: Versuche, Y als einfache Funktion f von X zu beschreiben: Y f(x). Einfachste Möglichkeit: f linear, also Y a + b X. Für die beobachteten Datenpunkte soll also für jedes i =1,...,n gelten y i a + b x i 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 294

33 6.2 Regressionsanalyse I: Die lineare Einfachregression Normalerweise besteht kein perfekter linearer Zusammenhang, so dass ein unerklärter Rest ε i in die Modellgleichung mit aufgenommen wird (In Statistik 2 werden wir ε i als zufälligen Fehler interpretieren): y i = a + b x i + ε i. Dies ist das Modell der linearen Einfachregression. a und b sind unbekannte Größen, die sogenannten Regressionsparameter, die anhand der Daten bestimmt werden müssen. (Man beachte hierbei, dass a und b keinen Index tragen; sie werden als interindividuell konstant betrachtet.) Bestimme â, ˆb so, dass alle Abweichungen der Daten von der Gerade möglichst klein werden, d.h. so, dass die Summe der quadratischen Differenzen zwischendenpunkten y i und der Gerade ŷ i =â + ˆb x i minimal wird. D.h. minimiere das Kleinste Quadrate (KQ) Kriterium n (y i â ˆbx i ) 2 bezüglich â und ˆb. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 295

34 6.2 Regressionsanalyse I: Die lineare Einfachregression Definition: Gegeben seien zwei metrische Merkmale X und Y und das Modell der linearen Einfachregression y i = a + bx i + ε i, i =1,...,n. Dann bestimme man â und ˆb so, dass mit ˆε i := y i ŷ i = y i (â + ˆbx i ) das Kleinste-Quadrate-Kriterium n minimal wird. Die optimalen Werte â und ˆb heißen KQ-Schätzungen, ˆε i bezeichnet das i-te (geschätzte) Residuum. ˆε 2 i 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 296

35 Bemerkungen: 6.2 Regressionsanalyse I: Die lineare Einfachregression Durch das Quadrieren tragen sowohl positive als auch negative Abweichungen von der Regressionsgeraden zum KQ-Kriterium bei. Das Quadrieren bewirkt außerdem, dass große Abweichungen überproportional stark berücksichtigt werden. (Die KQ-Schätzer sind in diesem Sinne ausreißeranfällig, da mit aller Macht versucht wird, große Abweichungen zu vermeidenen. Eine robuste Alternative ist das Betrachten des Betrags L-Regression ) 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 297

36 Satz: Für die KQ-Schätzer gilt 6.2 Regressionsanalyse I: Die lineare Einfachregression i) ˆb = n (x i x)(y i ȳ) = n (x i x) 2 Cov(X, Y ) s 2 X = 1 n n x i y i x ȳ 1 n = n x 2 i x 2 n x i y i n x ȳ n x 2 i n x 2 = ϱ X,Y s Y s X ii) â =ȳ ˆb x, iii) n ˆε i =0. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 298

37 Bemerkungen: 6.2 Regressionsanalyse I: Die lineare Einfachregression Hat man standardisierte Variablen X und Y (gilt also s X = s Y =1), so ist ˆb genau ρ X,Y. Die mittlere Abweichung von der Regressionsgeraden ist Null. Diese Eigenschaft kann auch verwendet werden, um die korrekte Berechnung der KQ-Schätzer zu überprüfen. Basierend auf den Schätzern â und ˆb kann der Wert der abhängigen Variablen Y auch für neue, unbeobachtete Werte X der Kovariablen X berechnet werden (Prognose): 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 299

38 Interpretation der Regressionsgeraden: 6.2 Regressionsanalyse I: Die lineare Einfachregression â ist der Achsenabschnitt, also der Wert der Gerade, der zu x =0gehört. Er lässt sich oft als Grundniveau interpretieren. ˆb ist die Steigung (Elastizität): Um wieviel erhöht sich y bei einer Steigerung von x um eine Einheit? ŷ (Punkt auf der Gerade) ist der Prognosewert zu x. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 300

39 6.2 Regressionsanalyse I: Die lineare Einfachregression Fiktives ökonomisches Beispiel zur Klärung: Kaffeeverkauf auf drei Flohmärkten X Anzahl verkaufter Tassen Kaffee Y zugehöriger Gewinn (Preis Verhandlungssache) Man bestimme die Regressionsgerade und interpretiere die erhaltenen KQ-Schätzungen! Welcher Gewinn ist bei zwölf verkauften Tassen zu erwarten? i y i (y i ȳ)(x i x) x i =50 x =10 ˆb = n (x i x)(y i ȳ) = n (x i x) 2 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 301

40 6.2.3 Modellanpassung: Bestimmtheitsmaß und Residualplots 6.2 Regressionsanalyse I: Die lineare Einfachregression Wie gut lässt sich die abhängige Variable Y durch die Kovariable X erklären? Wie gut passt der lineare Zusammenhang zwischen X und Y? PRE-Ansatz: Modell 1: Vorhersage von Y ohne X. Dabei gemachter Gesamtfehler: SQT := (Gesamtstreuung / Gesamtvariation der y i : sum of squares total ). 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 302

41 Modell 2: Vorhersage von Y mit X. 6.2 Regressionsanalyse I: Die lineare Einfachregression Dabei gemachter Gesamtfehler: SQR := = n ε 2 i (Residualstreuung / Residualvariation: sum of squared residuals ). Die Differenz SQE := SQT SQR nennt man die durch das Regressionsmodel erklärte Streuung ( sum of squares explained ). Man kann zeigen, dass gilt SQE = n (ŷ i ȳ) 2. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 303

42 6.2 Regressionsanalyse I: Die lineare Einfachregression Streuungszerlegung: SQT = SQR + SQE (analog zur Streuungszerlegung bei geschichteten Daten). Bestimmtheitsmaß: Der PRE-Ansatz liefert das Gütekriterium SQT SQR SQT = SQE SQT. Diese Größe bezeichnet man als Bestimmtheitsmaß. In der Tat gilt (nach etwas längerer Rechnung): SQE SQT = R2 XY d.h. dies ist genau das Bestimmtheitsmaß aus Definition (6.14). Es gibt also drei Arten, R 2 XY zu verstehen: 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 304

43 Eigenschaften: 6.2 Regressionsanalyse I: Die lineare Einfachregression Es gilt: 0 R 2 XY 1. RXY 2 =0:EswirdkeineStreuungerklärt, d.h. es gibt keinen (linearen) Zusammenhang zwischen X und Y. RXY 2 = 1: Die Streuung wird vollständig erklärt. Alle Beobachtungen liegen tatsächlich auf einer Geraden. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 305

44 Residualplots 6.2 Regressionsanalyse I: Die lineare Einfachregression Eine wichtige optische Möglichkeit, die Anpassung zu beurteilen, beruht auf dem Studium der geschätzten Residuen ˆε i.siesollenunsystematischum0streuen Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 306

45 6.2 Regressionsanalyse I: Die lineare Einfachregression Zeigt sich eine Systematik, so war der lineare Ansatz unangemessen, und es ist größte Vorsicht bei der Interpretation geboten! Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 307

46 6.2 Regressionsanalyse I: Die lineare Einfachregression Linearisierende Transformationen: Sehr häufig wirkt die Variable X nicht direkt linear auf die Variable Y (Streudiagramm anschauen!). Die lineare Regression passt die optimale Gerade an. Was kann man aber tun, wenn selbst diese optimale Gerade nicht passt, da der Zusammenhang eben nicht linear ist. Bei naiver Anwendung des linearen Ansatzes besteht die Gefahr gravierender Fehlschlüsse. Viele (nicht alle) der auf den ersten Blick nichtlinearen Modelle lassen sich durch geeignete Variablentransformationen in die lineare Regressionsrechnung einbetten. Entscheidend ist, dass das Wirken der Parameter linear ist! Der Ansatz g(y i )=a + b h(x i )+ε i lässt sich auch völlig analog mit dem KQ-Prinzip behandeln: 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 308

47 6.2 Regressionsanalyse I: Die lineare Einfachregression Entscheidend ist die Linearität in den Parametern a und b. SoistimGegensatzzuoben ist der Ansatz y i = a + b 2 x i + ε i kein lineares Regressionsmodell. Sehr häufiger Ansatz: Y = a + b ln X + ε, hier kann b wie folgt interpretiert werden: 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 309

48 6.2 Regressionsanalyse I: Die lineare Einfachregression Erhöht man einen Wert von X um p Prozent, so erhöht sich der entsprechende Y -Wert etwa um b p Prozent, denn Y = b X = = b (ln((1 + p) x) ln(x)) = b (ln(1 + p)+ln(x) ln(x)) = b ln(1 + p) b p, falls p klein. Echte nichtlineare Modelle ergeben sich aus der Theorie der generalisierten linearen Modelle, die insbesondere auch für kategoriales oder ordinales Y geeignet sind. ( Nebenfach Statistik) 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 310

49 6.3 Multiple lineare Regression 6.3 Multiple lineare Regression Verallgemeinerung der linearen Einfachregression: Betrachte mehrere unabhängige metrische Variablen X 1,X 2,...,X p gemeinsam, da typischerweise ja kein monokausaler Zusammenhang vorliegt. Modellgleichung: y = a + b 1 x 1i + b 2 x 2i b p x pi + ε i. Dabei bezeichnet x i1 den für die i-te Beobachtung beobachteten Wert der Variablen X 1, x i2 den Wert der Variablen X 2,usw. Interpretation: Die Interpretation von a und b 1,...,b p erfolgt analog zu oben, insbesondere ist b j die Änderung in Y,wennX j um eine Einheit vergrößert wird und alle anderen Größen gleich bleiben ( ceteris paribus Effekt ). 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 311

50 6.3 Multiple lineare Regression Üblich ist allerdings eine andere Notation für die Regressionskoeffizienten: a β 0, b 1 β 1,. b p β p, KQ-Prinzip: Die Schätzung von β 0,β 1,...,β p erfolgt wieder über das KQ-Prinzip: Bestimme ˆβ 0, ˆβ 1, ˆβ 2,..., ˆβ p so, dass mit ˆε i = y i ŷ i := y i ( ˆβ 0 + ˆβ 1 x 1i + ˆβ 2 x 2i ˆβ p x pi ) der Ausdruck minimal wird. n ˆε 2 i 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 312

51 6.3 Multiple lineare Regression Die Schätzungen ˆβ 0, ˆβ 1,..., ˆβ p sind nur mit Matrizenrechnung einfach darzustellen und insbesondere nur noch schwierig von Hand zu berechnen. Im Rahmen dieser Veranstaltung brauchen Sie bei der multiplen Regression nicht mehr rechnen, sondern nur typische Outputs korrekt interpretieren können. Bestimmtheitsmaß: Analog zur linearen Einfachregression lässt sich ein Bestimmtheitsmaß R 2 = SQE SQT über die Streuungszerlegung definieren. In der multiplen Regression verwendet man allerdings meistens das korrigierte Bestimmtheitsmaß R 2 := 1 n 1 n p 1 (1 R2 ) das die Anzahl der in das Modell mit einbezogenen Variablen mit berücksichtigt. (Das übliche R 2 würde ja auch durch das Einführen irrelevanter Variablen ansteigen, während R 2 sozusagen für jede aufgenommene Variable einen Preis zu bezahlen ist.) 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 313

52 6.3 Multiple lineare Regression SPSS-Output einer multiplen Regression: Coefficients a Unstandardized Coefficients Model B Std. Error t Sig. 1 (Constant) ˆβ0 ˆσ 0 T 0 p-wert X 1 ˆβ1 ˆσ 1 T 1 X 2 ˆβ2 ˆσ 2 T X p ˆβp ˆσ p T p a Dependent Variable: Y Im Rahmen von Statistik 1 ist nur die Spalte B mit den unstandardisierten Koeffizienten ˆβ 0, ˆβ 1, ˆβ 2,..., ˆβ p relevant. Anmerkung: SPSS gibt auch noch die standardisierten Koeffizienten β aus, das sind nicht etwa die ˆβ s im Sinne der Vorlesung, sondern die Schätzer, wenn man die Variablen vorher standardisiert. Bei der linearen Einfachregression findet man hier den Korrelationskoeffizienten von Bravais Pearson wieder. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 314

53 6.4 Nominale Einflussgrößen: Dichotome Kovariable 6.4 Nominale Einflussgrößen: Dichotome Kovariable Bisher wurden Y,X 1,X 2,...,X p als metrisch vorausgesetzt. Ähnlich wie für Korrelationskoeffizienten können dichotome Variablen, sofern sie mit 0 und 1 (wichtig!) kodiert sind, ebenfalls als Einflussgrößen zugelassen werden können. Die zugehörigen Koeffizienten geben dann an, um wieviel sich Y ceteris paribus erhöht, wenn die entsprechende Kovariable den Wert 1 statt 0 hat. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 315

54 Beispiel: Einfluss von Arbeitszeit und Geschlecht auf das Einkommen. 6.4 Nominale Einflussgrößen: Dichotome Kovariable mit X 1 = y i = β 0 + β 1 x 1i + β 2 x 2i + ε i { 1 männlich 0 weiblich X 2 = (vertragliche) Arbeitszeit Y = Einkommen Interpretation: Würde man ansetzen X 1 = { 1 weiblich 0 männlich, so ergäben sich dieselben Schätzungen für β 0 und β 1, die Schätzung für β 2 wäre betragsmäßig gleich, aber mit umgekehrten Vorzeichen. (z.b. positiver Männereffekt negativer Fraueneffekt) 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 316

55 6.4.1 Interaktionseffekte 6.4 Nominale Einflussgrößen: Dichotome Kovariable Wechselwirkung zwischen Kovariablen lassen sich durch den Einbezug des Produkts als zusätzliche Kovariable modellieren y i = β 0 + β 1 x 1i + β 2 x 2i + β 3 x 1i x 2i + ε i β 3 gibt den Interaktions- oder Wechselwirkungseffekt an. Dieser lässt sich insbesondere bei dichotomen Kovariablen einfach interpretieren: 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 317

56 Fortsetzung des Beispiels: 6.4 Nominale Einflussgrößen: Dichotome Kovariable Die geschätzte Regressionsgerade hat bei den Männern die Form ŷ i = = und bei den Frauen die Form ŷ i = = 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 318

57 6.4.2 Dummykodierung 6.4 Nominale Einflussgrößen: Dichotome Kovariable Betrachten wir nun ein nominales Merkmal X mit q Kategorien, z.b. Parteipräferenz Man beachte, dass man umbedingt q 1 und nicht q Dummyvariablen verwendet, da sonst die Schätzwerte völlig willkürlich und unsinnig werden. X = 1 CDU/CSU oder FDP 2 SPD oder Grüne 3 Sonstige Man darf X nicht einfach mit Werten 1 bis 3 besetzen, da es sich um ein nominales Merkmal handelt. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 319

58 Idee: 6.4 Nominale Einflussgrößen: Dichotome Kovariable X 1 = X 2 = { 1 CDU/CSU oder FDP 0 andere { 1 SPD oder Grüne 0 andere 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 320

59 Beispiel zur Interpretation: 6.4 Nominale Einflussgrößen: Dichotome Kovariable Y :ScoreaufAutoritarismusskala X bzw. X 1,X 2 :Parteienpräferenz X 3 :Einkommen 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 321

60 6.4.3 Varianzanalyse 6.4 Nominale Einflussgrößen: Dichotome Kovariable Ist ein nominales Merkmal X mit insgesamt k verschiedenen Ausprägungen die einzige unabhängige Variable, so führt die Regressionsanalyse mit den entsprechenden k 1 Dummyvariablen auf die sogenannte (einfaktorielle) Varianzanalyse, die insbesondere in der Psychologie als Auswertungsmethode sehr verbreitet ist. Als Schätzwert ŷ i ergibt sich für jede Einheit i genau der Mittelwert aller Werte y i, die zu Einheiten l gehören, die dieselben Ausprägungen bei dem Merkmal X, also den zugehörigen Dummyvariablen X 1,...,X k 1,haben.Manbildetalsok Gruppen bezüglich X, undŷ i ist der Mittelwert der Gruppe, zu der i gehört. Beispiel: Y Autoritarismusscore X Parteienpräferenz X 1 CDU/CSU oder FDP, X 2 SPD oder Grüne, X 3 Sonstiges 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 322

61 Die Streuungszerlegung 6.4 Nominale Einflussgrößen: Dichotome Kovariable n (y i ȳ) 2 = n (ŷ i ȳ) 2 + n (y i ŷ i ) 2 der linearen Regression vereinfacht sich in diesem Fall und hat eine ganz charakteristische Form: Indiziert man die Beobachtungen um und betrachtet die k Gruppen, so hat man in der j-ten Gruppe n j Beobachtungen y 1j,y 2j,...,y nj j und den Gruppenmittelwert ȳ j. Damit erhält man: k n j (y ij ȳ) 2 = k n j (ȳ j ȳ) 2 + k n j (y ij ȳ j ) 2. j=1 j=1 j=1 Dies ist genau die Streuungszerlegung aus Kapitel 3.2.1! 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 323

62 6.4 Nominale Einflussgrößen: Dichotome Kovariable Das zugehörige Bestimmtheitsmaß wird üblicherweise mit η 2 bezeichnet: η 2 = SQE SQT = k j=1 n k j j=1 n j (ȳ j ȳ) 2 (y ij ȳ j ) 2. η 2 und η = η 2 werden auch als Maße für den Zusammenhang zwischen einer metrischen Variable und einer nominalen Variable verwendet. Mehr dazu am Ende von Statistik II... 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 324

63 6.4 Nominale Einflussgrößen: Dichotome Kovariable Korrelation und Kausalität, Tücken bei der Interpretation von Zusammenhängen und Regressionsmodellen Alle Zusammenhangsmaße messen rein die statistische Koinzidenz von Variablenwerten. Ob tatsächlich eine echte wirkende Beziehung vorliegt, kann bestenfalls aufgrund substanzwissenschaftlicher Überlegungen entschieden werden. In einem strengen Sinn bedürfen Kausalaussagen ohnehin eines experimentellen Designs. erstes (kleineres) Problem: Viele Zusammenhangsmaße sind symmetrisch, Kausalität ist eine gerichtete Beziehung. zweites, sehr schwerwiegendes Problem: Die falsche Beurteilung von Zusammenhängen entsteht insbesondere dadurch, dass entscheidende Variablen nicht in die Analyse miteinbezogen werden. 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 325

64 6.4 Nominale Einflussgrößen: Dichotome Kovariable klassisches (fiktives) Beispiel: Erhebung aus den 60er Jahren von Gemeinden: X Y Anzahl der Störche Anzahl der neugeborenen Kinder X und Y sind hochkorreliert. Störche bringen die Kinder...? Weiteres Beispiel aus Gemeindestudie: X Y Alter Anzahl ausgeliehener Bücher in Bibliothek X und Y stark negativ korreliert Angebot für alte Gemeindemitglieder schlecht? 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 326

65 6.4 Nominale Einflussgrößen: Dichotome Kovariable Rechnerischer Ausweg 6Korrelationsanalyse:ZusammenhangsanalysestetigerMerkmale 327

6.1 Grundbegriffe und historischer Hintergrund

6.1 Grundbegriffe und historischer Hintergrund Kapitel 6 Regression 61 Grundbegriffe und historischer Hintergrund Bedeutung der Regression: Eines der am häufigsten verwendeten statistischen Verfahren Vielfache Anwendung in den Sozialwissenschaften

Mehr

5.4.2 Kovarianz und Korrelation

5.4.2 Kovarianz und Korrelation 102 5.4. Zusammenhangsanalyse bivariater quasi-stetiger Merkmale 5.4.2 Kovarianz und Korrelation Wie misst man den Zusammenhang zwischen metrischen Merkmalen? Betrachte den Mittelpunkt der Daten ( x, ȳ)

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

Zusammenhänge zwischen metrischen Merkmalen

Zusammenhänge zwischen metrischen Merkmalen Zusammenhänge zwischen metrischen Merkmalen Darstellung des Zusammenhangs, Korrelation und Regression Daten liegen zu zwei metrischen Merkmalen vor: Datenpaare (x i, y i ), i = 1,..., n Beispiel: x: Anzahl

Mehr

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten. Statistik für Kommunikationswissenschaftler Wintersemester 2009/200 Vorlesung Prof. Dr. Helmut Küchenhoff Übung Cornelia Oberhauser, Monia Mahling, Juliane Manitz Thema 4 Homepage zur Veranstaltung: http://www.statistik.lmu.de/~helmut/kw09.html

Mehr

3.2 Bivariate Verteilungen

3.2 Bivariate Verteilungen 3.2 Bivariate Verteilungen zwei Variablen X, Y werden gemeinsam betrachtet (an jedem Objekt i, i = 1,..., n, werden gleichzeitig zwei Merkmale beobachtet) Beobachtungswerte sind Paare/Kombinationen von

Mehr

Kontingenzkoeffizient (nach Pearson)

Kontingenzkoeffizient (nach Pearson) Assoziationsmaß für zwei nominale Merkmale misst die Unabhängigkeit zweier Merkmale gibt keine Richtung eines Zusammenhanges an 46 o jl beobachtete Häufigkeiten der Kombination von Merkmalsausprägungen

Mehr

Datenanalyse mit Excel. Wintersemester 2013/14

Datenanalyse mit Excel. Wintersemester 2013/14 Datenanalyse mit Excel 1 KORRELATIONRECHNUNG 2 Korrelationsrechnung Ziel der Korrelationsrechnung besteht im bivariaten Fall darin, die Stärke des Zusammenhangs zwischen zwei interessierenden statistischen

Mehr

Deskriptive Statistik Lösungen zu Blatt 5 Christian Heumann, Susanne Konrath SS Lösung Aufgabe 27. f X Y (a i b j ) = f i j = f ij f j

Deskriptive Statistik Lösungen zu Blatt 5 Christian Heumann, Susanne Konrath SS Lösung Aufgabe 27. f X Y (a i b j ) = f i j = f ij f j 1 Deskriptive Statistik Lösungen zu Blatt 5 Christian Heumann, Susanne Konrath SS 2011 Lösung Aufgabe 27 (a) Notation: X: Rauchen, Y : chronische Bronchitis S X {ja, nein} {a 1, a 2 }, S Y {ja, nein} {b

Mehr

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Speziell im Zusammenhang mit der Ablehnung der Globalhypothese werden bei einer linearen Einfachregression weitere Fragestellungen

Mehr

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression Institut für Soziologie Methoden 2 Regressionsanalyse I: Einfache lineare Regression Programm Anwendungsbereich Vorgehensweise Interpretation Annahmen Zusammenfassung Übungsaufgabe Literatur # 2 Anwendungsbereich

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

Fortgeschrittene Statistik Logistische Regression

Fortgeschrittene Statistik Logistische Regression Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E

Mehr

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall ) Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels

Mehr

Zusammenhänge zwischen metrischen Merkmalen

Zusammenhänge zwischen metrischen Merkmalen Zusammenhänge zwischen metrischen Merkmalen Darstellung des Zusammenhangs, Korrelation und Regression Daten liegen zu zwei metrischen Merkmalen vor: Datenpaare (x i, y i ), i = 1,..., n Beispiel: x: Anzahl

Mehr

Statistik Einführung // Lineare Regression 9 p.2/72

Statistik Einführung // Lineare Regression 9 p.2/72 Statistik Einführung Lineare Regression Kapitel 9 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Ledold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Lineare Regression

Mehr

1 x 1 y 1 2 x 2 y 2 3 x 3 y 3... n x n y n

1 x 1 y 1 2 x 2 y 2 3 x 3 y 3... n x n y n 3.2. Bivariate Verteilungen zwei Variablen X, Y werden gemeinsam betrachtet (an jedem Objekt werden gleichzeitig zwei Merkmale beobachtet) Beobachtungswerte sind Paare von Merkmalsausprägungen (x, y) Beispiele:

Mehr

Die Funktion f wird als Regressionsfunktion bezeichnet.

Die Funktion f wird als Regressionsfunktion bezeichnet. Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht

Mehr

Korrelation (II) Korrelation und Kausalität

Korrelation (II) Korrelation und Kausalität Korrelation (II) Korrelation und Kausalität Situation: Seien X, Y zwei metrisch skalierte Merkmale mit Ausprägungen (x 1, x 2,..., x n ) bzw. (y 1, y 2,..., y n ). D.h. für jede i = 1, 2,..., n bezeichnen

Mehr

Eigene MC-Fragen (Teil II) "Kap. 9 Zusammenhangsmaße

Eigene MC-Fragen (Teil II) Kap. 9 Zusammenhangsmaße Eigene MC-Fragen (Teil II) "Kap. 9 Zusammenhangsmaße 1. Kreuze die richtige Aussage an! positiv sind, ist r stets identisch mit s xy. negativ sind, ist r stets identisch mit s xy. positiv sind, ist das

Mehr

Statistik I für Statistiker, Mathematiker und Informatiker Lösungen zu Blatt 6 Gerhard Tutz, Jan Ulbricht WS 05/06.

Statistik I für Statistiker, Mathematiker und Informatiker Lösungen zu Blatt 6 Gerhard Tutz, Jan Ulbricht WS 05/06. Statistik I für Statistiker, Mathematiker und Informatiker Lösungen zu Blatt Gerhard Tutz, Jan Ulbricht WS 05/0 Lösung Aufgabe 4 Notation: X: Rauchen, Y : chronische Bronchitis S X {ja, nein} {a 1, a },

Mehr

Univariate Lineare Regression. (eine unabhängige Variable)

Univariate Lineare Regression. (eine unabhängige Variable) Univariate Lineare Regression (eine unabhängige Variable) Lineare Regression y=a+bx Präzise lineare Beziehung a.. Intercept b..anstieg y..abhängige Variable x..unabhängige Variable Lineare Regression y=a+bx+e

Mehr

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft Prof. Dr. Helmut Küchenhoff SS08 90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft am 22.7.2008 Anmerkungen Überprüfen Sie bitte sofort, ob Ihre Angabe vollständig ist. Sie sollte

Mehr

Beeinflusst das Geschlecht das Erwerbseinkommen?

Beeinflusst das Geschlecht das Erwerbseinkommen? 74 Kapitel 5 Analyse von Zusammenhängen 5.1 Multivariate Merkmale Gerade in der Soziologie ist die Analyse eindimensionaler Merkmale nur der allererste Schritt. Letztendlich kommt es auf die Analyse von

Mehr

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester 2009. Statistik mit SPSS

Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester 2009. Statistik mit SPSS Sommersemester 2009 Statistik mit SPSS 15. Mai 2009 15. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Überblick 1. Korrelationsanalysen Kovariation und Kovarianz Korrelation: - Interpretation

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Einfache statistische Auswertungen mit dem Programm SPSS

Einfache statistische Auswertungen mit dem Programm SPSS Einfache statistische Auswertungen mit dem Programm SPSS Datensatz: fiktive_daten.sav Dipl. Päd. Anne Haßelkus Dr. Dorothea Dette-Hagenmeyer 11/2011 Überblick 1 Deskriptive Statistiken; Mittelwert berechnen...

Mehr

Herzlich Willkommen zur Vorlesung Statistik

Herzlich Willkommen zur Vorlesung Statistik Herzlich Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Kovarianz und Korrelation Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

Teil II: Einführung in die Statistik

Teil II: Einführung in die Statistik Teil II: Einführung in die Statistik (50 Punkte) Bitte beantworten Sie ALLE Fragen. Es handelt sich um multiple choice Fragen. Sie müssen die exakte Antwortmöglichkeit angeben, um die volle Punktzahl zu

Mehr

6. Auswertung mehrdimensionaler Daten

6. Auswertung mehrdimensionaler Daten 6. Auswertung mehrdimensionaler Daten Bisher: Auswertungsmethoden für Daten eines einzelnen Merkmals, z.b. Diskrete Klassierung Grafische Darstellungen (Verteilungsfunktion) Lagemaße Streungsmaße Schiefemaße

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

5 Zusammenhangsmaße, Korrelation und Regression

5 Zusammenhangsmaße, Korrelation und Regression 5 Zusammenhangsmaße, Korrelation und Regression 5.1 Zusammenhangsmaße und Korrelation Aufgabe 5.1 In einem Hauptstudiumsseminar des Lehrstuhls für Wirtschafts- und Sozialstatistik machten die Teilnehmer

Mehr

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen 4. Datenanalyse und Modellbildung Deskriptive Statistik 2-1 2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen Für die Auswertung einer Messreihe, die in Form

Mehr

Eine computergestützte Einführung mit

Eine computergestützte Einführung mit Thomas Cleff Deskriptive Statistik und Explorative Datenanalyse Eine computergestützte Einführung mit Excel, SPSS und STATA 3., überarbeitete und erweiterte Auflage ^ Springer Inhaltsverzeichnis 1 Statistik

Mehr

Multinomiale logistische Regression

Multinomiale logistische Regression Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...

Mehr

Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008. Aufgabe 1

Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008. Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik I (mit Kurzlösung) Wintersemester 2007/2008 Aufgabe 1 Ihnen liegt

Mehr

Quantitative Methoden der Bildungsforschung

Quantitative Methoden der Bildungsforschung Glieung Wieholung Korrelationen Grundlagen lineare Regression Lineare Regression in SPSS Übung Wieholung Korrelationen Standardisiertes Zusammenhangsmaß (unstandardisiert: Kovarianz) linearer Zusammenhang

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig

Mehr

Inhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik...

Inhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik... Inhaltsverzeichnis 1 Über dieses Buch... 11 1.1 Zum Inhalt dieses Buches... 13 1.2 Danksagung... 15 2 Zur Relevanz der Statistik... 17 2.1 Beispiel 1: Die Wahrscheinlichkeit, krank zu sein, bei einer positiven

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression

Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Analyse von Querschnittsdaten. Regression mit Dummy-Variablen

Analyse von Querschnittsdaten. Regression mit Dummy-Variablen Analyse von Querschnittsdaten Regression mit Dummy-Variablen Warum geht es in den folgenden Sitzungen? Datum Vorlesung 9.0.05 Einführung 26.0.05 Beispiele 02..05 Forschungsdesigns & Datenstrukturen 09..05

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur.

Einseitig gerichtete Relation: Mit zunehmender Höhe über dem Meeresspiegel sinkt im allgemeinen die Lufttemperatur. Statistik Grundlagen Charakterisierung von Verteilungen Einführung Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsverteilungen Schätzen und Testen Korrelation Regression Einführung Die Analyse und modellhafte

Mehr

Kapitel 3: Interpretationen

Kapitel 3: Interpretationen Kapitel 3: 1. Interpretation von Outputs allgemein... 1 2. Interpretation von Signifikanzen... 1 2.1. Signifikanztests / Punktschätzer... 1 2.2. Konfidenzintervalle... 2 3. Interpretation von Parametern...

Mehr

Franz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst. Excel Edition. ^ Springer Spektrum

Franz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst. Excel Edition. ^ Springer Spektrum Franz Kronthaler Statistik angewandt Datenanalyse ist (k)eine Kunst Excel Edition ^ Springer Spektrum Inhaltsverzeichnis Teil I Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist Spaß 3

Mehr

4. Erstellen von Klassen

4. Erstellen von Klassen Statistik mit Tabellenkalkulation 4. Erstellen von Klassen Mit einem einfachen Befehl lässt sich eine Liste von Zahlen auf die Häufigkeit der einzelnen Werte untersuchen. Verwenden Sie dazu den Befehl

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

Teil I: Deskriptive Statistik

Teil I: Deskriptive Statistik Teil I: Deskriptive Statistik 2 Grundbegriffe 2.1 Merkmal und Stichprobe 2.2 Skalenniveau von Merkmalen 2.3 Geordnete Stichproben und Ränge 2.1 Merkmal und Stichprobe An (geeignet ausgewählten) Untersuchungseinheiten

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER DAS THEMA: INFERENZSTATISTIK IV INFERENZSTATISTISCHE AUSSAGEN FÜR ZUSAMMENHÄNGE UND UNTERSCHIEDE Inferenzstatistik für Zusammenhänge Inferenzstatistik für Unterschiede

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Karl Entacher. FH-Salzburg

Karl Entacher. FH-Salzburg Ahorn Versteinert Bernhard.Zimmer@fh-salzburg.ac.at Statistik @ HTK Karl Entacher FH-Salzburg karl.entacher@fh-salzburg.ac.at Beispiel 3 Gegeben sind 241 NIR Spektren (Vektoren der Länge 223) zu Holzproben

Mehr

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische

Mehr

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Das Dialogfeld für die Regressionsanalyse (Lineare Regression) findet sich im Statistik- Menu unter Regression-Linear: Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur

Mehr

Es können keine oder mehrere Antworten richtig sein. Eine Frage ist NUR dann richtig beantwortet, wenn ALLE richtigen Antworten angekreuzt wurden.

Es können keine oder mehrere Antworten richtig sein. Eine Frage ist NUR dann richtig beantwortet, wenn ALLE richtigen Antworten angekreuzt wurden. Teil III: Statistik Alle Fragen sind zu beantworten. Es können keine oder mehrere Antworten richtig sein. Eine Frage ist NUR dann richtig beantwortet, wenn ALLE richtigen Antworten angekreuzt wurden. Wird

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder

Mehr

Klausur zu Methoden der Statistik I (mit Kurzlösung) Sommersemester 2008. Aufgabe 1

Klausur zu Methoden der Statistik I (mit Kurzlösung) Sommersemester 2008. Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik I (mit Kurzlösung) Sommersemester 2008 Aufgabe 1 I) Einige Mitarbeiter

Mehr

Analyse bivariater Kontingenztafeln

Analyse bivariater Kontingenztafeln Analyse bivariater Kontingenztafeln Werden zwei kategoriale Merkmale mit nicht zu vielen möglichen Ausprägungen gemeinsam analysiert, so kommen zur Beschreibung der gemeinsamen Verteilung im allgemeinen

Mehr

Statistische Methoden in den Umweltwissenschaften

Statistische Methoden in den Umweltwissenschaften Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungsfreie Verfahren Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II

Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen

Mehr

5 Assoziationsmessung in Kontingenztafeln

5 Assoziationsmessung in Kontingenztafeln 5 Assoziationsmessung in Kontingenztafeln 51 Multivariate Merkmale 51 Multivariate Merkmale Gerade in der Soziologie ist die Analyse eindimensionaler Merkmale nur der allererste Schritt zur Beschreibung

Mehr

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg

Übungsklausur Lineare Modelle. Prof. Dr. H. Toutenburg Übungsklausur Lineare le Prof. Dr. H. Toutenburg Aufgabe Ein lineares Regressionsmodell mit der abhängigen Variablen Körpergröße und der unabhängigen Variablen Geschlecht wurde einmal mit der dummykodierten

Mehr

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift:

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift: 20-minütige Klausur zur Vorlesung Lineare Modelle im Sommersemester 20 PD Dr. Christian Heumann Ludwig-Maximilians-Universität München, Institut für Statistik 2. Oktober 20, 4:5 6:5 Uhr Überprüfen Sie

Mehr

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch

Allgemeine Regressionsanalyse. Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl. deterministisch Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 9.1 Allgemeine Regressionsanalyse Daten (X j, Y j ), j = 1,..., N unabhängig Kovariablen / Prädiktoren / unabhängige Variablen X j R d, evtl.

Mehr

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt:

1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Beispiele zum Üben und Wiederholen zu Wirtschaftsstatistik 2 (Kurs 3) 1 Einfachregression 1.1In 10 Haushalten wurden Einkommen und Ausgaben für Luxusgüter erfragt: Haushaltseinkommen 12 24 30 40 80 60

Mehr

6. METRISCHE UND KATEGORIALE MERKMALE

6. METRISCHE UND KATEGORIALE MERKMALE 6. METRISCHE UND KATEGORIALE MERKMALE wenn an einer Beobachtungseinheit eine (oder mehrere) metrische und eine (oder mehrere) kategoriale Variable(n) erhoben wurden Beispiel: Haushaltsarbeit von Teenagern

Mehr

Einführung in statistische Analysen

Einführung in statistische Analysen Einführung in statistische Analysen Andreas Thams Econ Boot Camp 2008 Wozu braucht man Statistik? Statistik begegnet uns jeden Tag... Weihnachten macht Deutschen Einkaufslaune. Im Advent überkommt die

Mehr

Linearer Zusammenhang von Datenreihen

Linearer Zusammenhang von Datenreihen Linearer Zusammenhang von Datenreihen Vielen Problemen liegen (möglicherweise) lineare Zusammenhänge zugrunde: Mein Internetanbieter verlangt eine Grundgebühr und rechnet minutenweise ab Ich bestelle ein

Mehr

Interne und externe Modellvalidität

Interne und externe Modellvalidität Interne und externe Modellvalidität Interne Modellvalidität ist gegeben, o wenn statistische Inferenz bzgl. der untersuchten Grundgesamtheit zulässig ist o KQ-Schätzer der Modellparameter u. Varianzschätzer

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Das Lineare Regressionsmodell

Das Lineare Regressionsmodell Das Lineare Regressionsmodell Bivariates Regressionsmodell Verbrauch eines Pkw hängt vom Gewicht des Fahrzeugs ab Hypothese / Theorie: Je schwerer ein Auto, desto mehr wird es verbrauchen Annahme eines

Mehr

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse

Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Allgemeines Lineares Modell: Univariate Varianzanalyse und Kovarianzanalyse Univariate Varianz- und Kovarianzanlyse, Multivariate Varianzanalyse und Varianzanalyse mit Messwiederholung finden sich unter

Mehr

Kapitel 23 Lineare Regression

Kapitel 23 Lineare Regression Kapitel 23 Lineare Regression Sowohl einfache als auch multiple Regressionsanalysen können Sie mit dem Befehl STATISTIK REGRESSION LINEAR... durchführen. Dabei lassen sich mit Hilfe diverser Optionen zahlreiche

Mehr

Varianzanalyse (ANOVA: analysis of variance)

Varianzanalyse (ANOVA: analysis of variance) Varianzanalyse (AOVA: analysis of variance) Einfaktorielle VA Auf der Basis von zwei Stichproben wird bezüglich der Gleichheit der Mittelwerte getestet. Variablen müssen Variablen nur nominalskaliert sein.

Mehr

6.2 Regressionsanalyse

6.2 Regressionsanalyse c-kennzahlensystem (ROCI) 6. Regressionsanalyse Die Regressionsanalyse zählt zu den wichtigsten Analysemethoden des Kommunikationscontrollings und hat ihre tiefen Wurzeln in der Statistik. Im Rahmen des

Mehr

Skalenniveaus =,!=, >, <, +, -

Skalenniveaus =,!=, >, <, +, - ZUSAMMENHANGSMAßE Skalenniveaus Nominalskala Ordinalskala Intervallskala Verhältnisskala =,!= =,!=, >, < =,!=, >, ,

Mehr

Bivariate Verteilungen [bivariate data]

Bivariate Verteilungen [bivariate data] Bivariate Verteilungen [bivariate data] Zwei Variablen X, Y werden gemeinsam betrachtet, d.h. an jedem Objekt i werden zwei Merkmale beobachtet. Beobachtungswerte sind Paare/Kombinationen von Merkmalsausprägungen

Mehr

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: 978-3-446-42033-5. Weitere Informationen oder Bestellungen unter

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: 978-3-446-42033-5. Weitere Informationen oder Bestellungen unter Leseprobe Wilhelm Kleppmann Versuchsplanung Produkte und Prozesse optimieren ISBN: -3-44-4033-5 Weitere Informationen oder Bestellungen unter http://www.hanser.de/-3-44-4033-5 sowie im Buchhandel. Carl

Mehr

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl

Mehr

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011

Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Es können von den Antworten alle, mehrere oder keine Antwort(en) richtig sein. Nur bei einer korrekten Antwort (ohne Auslassungen

Mehr

Musterlösung zu Serie 14

Musterlösung zu Serie 14 Dr. Lukas Meier Statistik und Wahrscheinlichkeitsrechnung FS 21 Musterlösung zu Serie 14 1. Der Datensatz von Forbes zeigt Messungen von Siedepunkt (in F) und Luftdruck (in inches of mercury) an verschiedenen

Mehr

Kommentierter SPSS-Ausdruck zur logistischen Regression

Kommentierter SPSS-Ausdruck zur logistischen Regression Daten: POK V AG 3 (POKV_AG3_V07.SAV) Kommentierter SPSS-Ausdruck zur logistischen Regression Fragestellung: Welchen Einfluss hat die Fachnähe und das Geschlecht auf die interpersonale Attraktion einer

Mehr

Abhängigkeit zweier Merkmale

Abhängigkeit zweier Merkmale Abhängigkeit zweier Merkmale Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/33 Allgemeine Situation Neben der Untersuchung auf Unterschiede zwischen zwei oder mehreren Untersuchungsgruppen hinsichtlich

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

3 Zusammenhangsmaße Zusammenhangshypothesen

3 Zusammenhangsmaße Zusammenhangshypothesen 3 Zusammenhangsmaße Zusammenhangshypothesen Zusammenhänge (zwischen 2 Variablen) misst man mittels Korrelationen. Die Wahl der Korrelation hängt ab von: a) Skalenniveau der beiden Variablen: 1) intervallskaliert

Mehr

Korrelation. Übungsbeispiel 1. Übungsbeispiel 4. Übungsbeispiel 2. Übungsbeispiel 3. Korrel.dtp Seite 1

Korrelation. Übungsbeispiel 1. Übungsbeispiel 4. Übungsbeispiel 2. Übungsbeispiel 3. Korrel.dtp Seite 1 Korrelation Die Korrelationsanalyse zeigt Zusammenhänge auf und macht Vorhersagen möglich Was ist Korrelation? Was sagt die Korrelationszahl aus? Wie geht man vor? Korrelation ist eine eindeutige Beziehung

Mehr

Name Vorname Matrikelnummer Unterschrift

Name Vorname Matrikelnummer Unterschrift Dr. Hans-Otfried Müller Institut für Mathematische Stochastik Fachrichtung Mathematik Technische Universität Dresden Klausur Statistik II (Sozialwissenschaft, Nach- und Wiederholer) am 26.10.2007 Gruppe

Mehr

Einleitung 19. Teil I Datenanalyse und Modellbildung Grundlagen 25

Einleitung 19. Teil I Datenanalyse und Modellbildung Grundlagen 25 Inhaltsverzeichnis Einleitung 19 Zu diesem Buch 19 Konventionen in diesem Buch 20 Was Sie nicht lesen müssen 21 Falsche Voraussetzungen 21 Wie dieses Buch aufgebaut ist 21 Teil I: Datenanalyse und Grundlagen

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr