Einführung in Quantitative Methoden
|
|
|
- Luisa Kirchner
- vor 8 Jahren
- Abrufe
Transkript
1 in Quantitative Methoden Mag. Dipl.Ing. Dr. Pantelis Christodoulides & Mag. Dr. Karin Waldherr SS 2011 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 1/47
2 Historisches Regression geht auf Galton (1889) und seine Studien zur Vererbung zurück; Galton formulierte das Gesetz der universalen Regression Jede vom normalen abweichende Eigenschaft eines Menschen wird in der nachfolgenden Generation zwar übernommen, aber im Durchschnitt in einem geringeren Ausmaß. Es tritt also bzgl. dieser Eigenschaft ein Rücktritt (Regression) ein Christodoulides / Waldherr in Quantitative Methoden- 2.VO 2/47
3 Historisches Karl Pearson hat bei 1078 Familien die Größe von Vater und Sohn untersucht Obwohl große Väter dazu neigen große Söhne zu haben, sind die Söhne von großen Vätern im Durchschnitt kleiner als ihre Väter Ebenso wird die Besonderheit der Kleinheit von Vätern nicht in vollem Maße an die Söhne vererbt, denn diese sind durchschnittlich größer als ihre Väter Es ist eine Regression oder ein Rücktritt in Bezug auf die Größe bei Söhnen sichtbar Christodoulides / Waldherr in Quantitative Methoden- 2.VO 3/47
4 Ziele Empirische Repräsentation großer Datenmengen Erkennen eines funktionalen Zusammenhanges Nachweis einer bereits bekannten Beziehung zwischen den Variablen Spezifizierung eines funktionalen Zusammenhanges zwischen zwei Variablen Schätzen der Parameter einer funktionalen Beziehung Interpolation fehlender bzw. Prognose zukünftiger Werte Christodoulides / Waldherr in Quantitative Methoden- 2.VO 4/47
5 Ausgangslage Zusammenhang zwischen 2 metrischen Variablen X und Y mit Ausprägungen x i und y i Spezifizierung einer funktionalen Beziehung Y = f (X ): Y wird mithilfe von X und f geschätzt Stichprobe mit n Objektpaaren - (x 1, y 1 ) (x n, y n ) Objektpaare (x 1, y 1 ) (x n, y n ) darstellbar als Punkte in kartesischem Koordinatensystem mit Koordinaten (x i, y i ) = Streudiagramm Christodoulides / Waldherr in Quantitative Methoden- 2.VO 5/47
6 Ausgangslage Y ist der Regressand (abhängige Variable); X ist der Regressor (unabhängige Variable); Regression von Y auf X Annahmen - die abhängige Variable ist mit Zufallsfehlern überlagert; die unabhängige Variable gilt als fehlerfrei Einfache Regression weil ein Regressor, im Vergleich zu multipler Regression mit mehr als einem Regressor Christodoulides / Waldherr in Quantitative Methoden- 2.VO 6/47
7 Funktion f (X ) Linear: Y = a + bx, a und b reelle Zahlen, höchster Polynomgrad ist 1 Quadratisch: Y = c + wx + dx 2, c, w, und d reelle Zahlen, höchster Polynomgrad ist 2 Exponentiell: Y = q ( e gx ), q und g reelle Zahlen ( ) Logarithmisch: Y = h ln X p, h und p reelle Zahlen, p zusätzlich positiv Christodoulides / Waldherr in Quantitative Methoden- 2.VO 7/47
8 Beispiel 1: Lineare Funktion f (X ) Treibstoffverbrauch (Y ) und Leistungsabgabe eines Motors (X ) bei konstanter Drehzahl: Y X Christodoulides / Waldherr in Quantitative Methoden- 2.VO 8/47
9 Beispiel 2: Quadratische Funktion f (X ) Körnerertrag (Y ) und Düngung (X ): Y X 0.09X 2 Bis zu einer bestimmten Düngungsgrenze steigt der Körnerertrag an, um wieder abzufallen Christodoulides / Waldherr in Quantitative Methoden- 2.VO 9/47
10 Beispiel 3: Logarithmische Funktion f (X ) Weber-Fechner sches Gesetz: Bei einem linearen Anstieg der Reizstärke (X ), wächst die Empfindung im Sinnesorgan (Y ) logarithmisch an b = Schwellenreiz ( ) X Y = c ln b c = Konstante abhängig von der Reizart Weber-Fechner sches Gesetz allgemein bekannt durch die Dezibel-Skala, die das logarithmische Verhältnis zwischen Reiz und Lärmempfindung überträgt Christodoulides / Waldherr in Quantitative Methoden- 2.VO 10/47
11 Beispiel 3: Logarithmische Funktion f (X ) Christodoulides / Waldherr in Quantitative Methoden- 2.VO 11/47
12 Vermutet wird ein zumindest näherungsweise linearer Zusammenhang zwischen zwei Variablen Y und X Die Variable Y soll näherungsweise durch eine lineare Funktion von X beschrieben werden Y Ŷ = bx + a mit a, b reelle Zahlen a (Schnitt mit Y -Achse) und b (Anstieg) sind unbekannt a und b so wählen, dass Zusammenhang (Streudiagramm) zwischen Y und X am besten beschrieben wird Die Methode der kleinsten Quadrate ermittelt beste Schätzungen â und ˆb für a und b Christodoulides / Waldherr in Quantitative Methoden- 2.VO 12/47
13 Kleinste Quadrate Schätzung (KQS) Residuum e i = y i ŷ i ; n Residuen (Abweichungen von der Regressionsgerade in Richtung abhängiger Variable) Zentrale Idee bei KQS ist, a und b derart zu wählen, dass die Summe der quadrierten Differenzen (Quadratsumme aller Residuen) minimal wird Christodoulides / Waldherr in Quantitative Methoden- 2.VO 13/47
14 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 14/47
15 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 15/47
16 Kleinste Quadrate Schätzung (KQS) Bestimme a und b derart, dass die Quadratsumme aller Residuen minimal wird, d.h. n S 2 = (y i ŷ i ) 2 = i=1 n (y i a bx i ) 2 Min i=1 Partielles Differenzieren von S 2 nach den Unbekannten a und b und anschließendes Nullsetzen der Ableitungen liefert ˆb = c XY s 2 X, â = ȳ ˆb x ˆb = Verhältnis zwischen Kovarianz und Varianz des Regressors â ist abhängig von den Mittelwerten, x, ȳ, und ˆb Christodoulides / Waldherr in Quantitative Methoden- 2.VO 16/47
17 Beispiel Bei einer Stichprobe von n = 40 Personen wurden Körpergröße (X ) und Gewicht (Y ) gemessen 40 i=1 40 i=1 y i = 2722, x i = 6814, 40 y 2 i=1 i=1 40 i=1 x 2 i = , s 2 X = i = , sy 2 = , x i y i = i=1 c XY = ( x i y i 40 xȳ) = ( ) Christodoulides / Waldherr in Quantitative Methoden- 2.VO 17/47
18 Beispiel c XY = 74.52, s 2 X = ˆb = c XY s 2 X = â = ȳ ˆb x = = Christodoulides / Waldherr in Quantitative Methoden- 2.VO 18/47
19 Beispiel Christodoulides / Waldherr in Quantitative Methoden- 2.VO 19/47
20 Produktmomentkorrelation r XY steht im engen Zusammenhang zum Schätzer ˆb Es gilt r XY = c XY s X s Y, ˆb = c XY s X s X = c XY s Y s Y s X s X = r XY s Y s X Aus der Korrelation kann der Steigungsparameter geschätzt werden und umgekehrt Christodoulides / Waldherr in Quantitative Methoden- 2.VO 20/47
21 Maß für Güte der Anpassung einer Regression ist das Bestimmtheitsmaß B B misst das Verhältnis der Varianz der geschätzten Werte ŷ i zur Varianz der beobachteten Werte y i B misst den Anteil der Varianz der abhängigen Variable Y, der durch die unabhängige Variable X (bzw. die Regression) erklärt werden kann Achtung verursacht nur bei Kausalität Christodoulides / Waldherr in Quantitative Methoden- 2.VO 21/47
22 B = s2 Ŷ s 2 Y mit 0 B 1 Je näher die Punkte zur Regressionsgerade liegen, desto größer ist B Liegen alle Punkte auf der Regressionsgerade, dann ist B = 1 und Y wird durch die Regression völlig erklärt Das Bestimmtheitsmaß ist gleich dem Quadrat der Korrelation Es gilt also B = r 2 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 22/47
23 B und Streudiagramm Christodoulides / Waldherr in Quantitative Methoden- 2.VO 23/47
24 Beispiel Gewicht und Körpergröße ˆb = ; r = = B = r 2 = = % der Varianz vom Gewicht wird durch die lineare Regression mit Körpergröße erklärt deswegen Korrelation von mittelmäßiger Höhe Christodoulides / Waldherr in Quantitative Methoden- 2.VO 24/47
25 Regression von X auf Y Vertauschen von abhängiger und unabhängiger Variable; Vertauschen des Koordinatensystems X -Y X approximativ als lineare Funktion von Y darstellen X b Y + a Wie ändern sich unsere Parameter? Vertauschen von X undy in den Formeln, d.h. ˆb = c XY s 2 Y â = x ˆb ȳ 2 Regressionsgeraden, je nach Fragestellung; beide gehen durch den Schwerpunkt des Punktschwarms ( x, ȳ) Christodoulides / Waldherr in Quantitative Methoden- 2.VO 25/47
26 Regression von X auf Y bzw. Y auf X Verschiedenheit beider Regressionsgeraden hat ihre Ursache in der Annahme, dass die unabhängige Variable als fehlerfrei angesehen wird, während die abhängige Variable durch einen Zufallsfehler überlagert wird Darstellung beider Geraden im X -Y Koordinatensystem Y = ˆbX + â (1) X = ˆb Y + â Y = 1ˆb X â ˆb (2) Christodoulides / Waldherr in Quantitative Methoden- 2.VO 26/47
27 Beispiel Y = 0.624X (1) X = 0.789Y Y = X Y = 1.27X (2) Christodoulides / Waldherr in Quantitative Methoden- 2.VO 27/47
28 Bemerkungen Korrelation und Bestimmtheitsmaß ändern sich nicht, da sie symmetrisch bzgl. X und Y sind Vorzeichen der Steigungsparameter bleibt auch unverändert Steigungsparameter ändert sich um die jeweilige Varianz des Regressors X bzw.y Regressionsgeraden fallen zusammen bei perfektem linearen Zusammenhang zwischen X und Y, d.h. bei r XY = ±1 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 28/47
29 Prognose von Y Y als abhängige Variable; für gegebenes x in die Modellgleichung ŷ = ˆbx + â einsetzen und ŷ ausrechnen Prognose von X X als abhängige Variable; für gegebenes y in die Modellgleichung ˆx = ˆb y + â einsetzen und ˆx ausrechnen Die zu prognostizierende Variable ist die im jeweiligen Modell abhängige Variable Christodoulides / Waldherr in Quantitative Methoden- 2.VO 29/47
30 Beispiel Prognose von y bei x = 125 ŷ = (0.624)(125) , d.h. ŷ = Prognose von x bei y = 125 ˆx = (0.789)(125) , d.h. ˆx = Überprüfung der Güte der Prognose mithilfe der Abweichung des beobachteten Wertes y i vom geschätzten ŷ i (bzw. analog für X ) Betragsmäßig kleine Abweichungen sprechen für eine gute Prognose Christodoulides / Waldherr in Quantitative Methoden- 2.VO 30/47
31 Allgemeine Richtlinien Grafische Überprüfung der Daten und der Regressionsgerade im Streudiagramm; Daten sollten annähernd auf einen linearen Zusammenhang hinweisen Größe und Struktur der Residuen: Betragsmäßig kleine Residuen, die in einem Streudiagramm mit den geschätzten Werten ŷ i keine erkennbare Struktur zeigen, weisen auf ein gutes Modell hin Hohes Bestimmtheitsmaß: Dieses Kriterium sollte im Zusammenhang mit einer Residualanalyse und grafischen Überprüfung der Daten verwendet werden Christodoulides / Waldherr in Quantitative Methoden- 2.VO 31/47
32 Residualanalyse Betragsmäßig kleine Residuen e i = y i ŷ i weisen auf ein gutes Regressionsmodell hin Residuen sind aber abhängig von den Maßeinheiten in Y und X n i=1 e i = 0 und auch ē = 0, d.h. der Mittelwert der Residuen ist 0 Standardisieren der Residuen mit n s 2 e = 1 n 2 i=1 e 2 i, also ẽ i = e i s 2 e ẽ i sind die normierten Residuen, welche bei einem guten Modell im Intervall [ 2.5, 2.5] liegen sollten Christodoulides / Waldherr in Quantitative Methoden- 2.VO 32/47
33 Beispiel Datei bspreg.sav, n = 61, Y sei die abhängige Variable Streudiagramm spricht eher für einen positiven linearen Zusammenhang Christodoulides / Waldherr in Quantitative Methoden- 2.VO 33/47
34 Beispiel ŷ = 0.92x , B = 0.86, r XY = 0.93 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 34/47
35 Beispiel Berechnung der Residuen und normierten Residuen mit s 2 e = 1.45 i y i x i ŷ i e i ẽ i Christodoulides / Waldherr in Quantitative Methoden- 2.VO 35/47
36 Beispiel Graph der normierten Residuen mit Konfidenzbereich [ 2.5, 2.5] i auf der X Achse, ẽ i auf der Y Achse Christodoulides / Waldherr in Quantitative Methoden- 2.VO 36/47
37 Beispiel Graph der normierten Residuen gegen die geschätzten Werte ŷ i ŷ i auf der X Achse, ẽ i auf der Y Achse Christodoulides / Waldherr in Quantitative Methoden- 2.VO 37/47
38 Problematische Darstellungen Graph der normierten Residuen gegen die geschätzten Werte ŷ i linearer Trend, Hinweis auf Messfehler oder inadäquates Modell Christodoulides / Waldherr in Quantitative Methoden- 2.VO 38/47
39 Problematische Darstellungen Graph der normierten Residuen gegen die geschätzten Werte ŷ i Ansteigende Varianzen mit ansteigendem ŷ i Christodoulides / Waldherr in Quantitative Methoden- 2.VO 39/47
40 Problematische Darstellungen Graph der normierten Residuen gegen die geschätzten Werte ŷ i Nicht-linearer Verlauf der Residuen, inadäquates Modell Christodoulides / Waldherr in Quantitative Methoden- 2.VO 40/47
41 Regression mit Standardmesswerten Wir betrachten die Regression von Y auf X mit standardisierten Variablen t Y und t X Kovarianz, Korrelation und Regressionskoeffizient ˆb sind gleich dem mittleren Messwertprodukt, und die Regressionskonstante â = 0. c t Y t X = r t Y t X = ˆb t Y t X = 1 n 1 n ty i tx i Regressionseffekt (bei r XY < 1: ŷ i ȳ < x i x ) leichter erkennbar, da x, y und ŷ standardisiert sind i=1 Christodoulides / Waldherr in Quantitative Methoden- 2.VO 41/47
42 Partielle Korrelation r XY Z Berechnung der partiellen Korrelation mithilfe der Residuen Regression von X auf Z durchführen und die Residuen e i = (x i ˆx i ) berechnen; diese Residuen drücken jene Variation von X aus, die durch Z nicht erklärt wird Regression von Y auf Z durchführen und die Residuen ě i = (y i ŷ i ) berechnen; diese Residuen drücken jene Variation von Y aus, die durch Z nicht erklärt wird r XY Z ist identisch mit r E, Ě Einfachere Berechnung mit Formel von letzter Einheit Christodoulides / Waldherr in Quantitative Methoden- 2.VO 42/47
43 Einfluss von Ausreissern Einzelne Ausreisser können die Regressionsgerade beeinflussen ˆb und â werden sehr stark durch Ausreisser verfälscht Schlimmster Fall, wenn Ausreisser nicht in Richtung des Punktschwarms liegen Leichtes Erkennen von Ausreissern im Streudiagramm der Daten Nur in manchen Fällen sind Ausreisser auch durch große normierte Residuen erkennbar (Residuengraphs) Christodoulides / Waldherr in Quantitative Methoden- 2.VO 43/47
44 Einfluss von Ausreissern Christodoulides / Waldherr in Quantitative Methoden- 2.VO 44/47
45 Einfluss von Ausreissern Christodoulides / Waldherr in Quantitative Methoden- 2.VO 45/47
46 Einfluss von Ausreissern Christodoulides / Waldherr in Quantitative Methoden- 2.VO 46/47
47 Nichtlineares f (X ) Quadratisch: Y = c + dx 2 KQS Exponentiell: Y = qe gx Logarithmieren ergibt ln(y ) = ln(q) + gx also ln(y ) = q + gx KQS für ˆq und ĝ Logarithmisch: Y = ln (hx p ) Y = p ln(x ) + ln(h); KQS für ˆp und ln(h) Achtung auf richtige Interpretation der Parameter! Christodoulides / Waldherr in Quantitative Methoden- 2.VO 47/47
Versuchsplanung und multivariate Statistik Sommersemester 2018
Versuchsplanung und multivariate Statistik Sommersemester 2018 Vorlesung 11: Lineare und nichtlineare Modellierung I Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 6.6.2018
Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
Die Funktion f wird als Regressionsfunktion bezeichnet.
Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht
Eine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
Statistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
Bivariate Regressionsanalyse
Universität Bielefeld 15. März 2005 Kovarianz, Korrelation und Regression Kovarianz, Korrelation und Regression Ausgangspunkt ist folgende Datenmatrix: Variablen 1 2... NI 1 x 11 x 12... x 1k 2 x 21 x
Teil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
Drittvariablenkontrolle in der linearen Regression: Trivariate Regression
Drittvariablenkontrolle in der linearen Regression: Trivariate Regression 14. Januar 2002 In der Tabellenanalyse wird bei der Drittvariablenkontrolle für jede Ausprägung der Kontrollvariablen eine Partialtabelle
Biometrieübung 10 Lineare Regression. 2. Abhängigkeit der Körpergröße von der Schuhgröße bei Männern
Biometrieübung 10 (lineare Regression) - Aufgabe Biometrieübung 10 Lineare Regression Aufgabe 1. Düngungsversuch In einem Düngeversuch mit k=9 Düngungsstufen x i erhielt man Erträge y i. Im (X, Y)- Koordinatensystem
Ziel der linearen Regression
Regression 1 Ziel der linearen Regression Bei der linearen Regression wird untersucht, in welcher Weise eine abhängige metrische Variable durch eine oder mehrere unabhängige metrische Variablen durch eine
Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
Statistik II. Regressionsrechnung+ Regressionsanalyse. Statistik II
Statistik II Regressionsrechnung+ Regressionsanalyse Statistik II - 16.06.2006 1 Regressionsrechnung Nichtlineare Ansätze In einigen Situation könnte man einen nichtlinearen Zusammenhang vermuten. Bekannte
Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
Bivariate Zusammenhänge
Bivariate Zusammenhänge 40 60 80 Bivariater Zusammenhang: Zusammenhang zwischen zwei Variablen weight (kg) Gibt es einen Zusammenhang zwischen Größe & Gewicht? (am Beispieldatensatz) Offensichtlich positiver
6.2 Regressionsanalyse I: Die lineare Einfachregression
6.2 Regressionsanalyse I: Die lineare Einfachregression 6.2.1 Grundbegriffe und Hintergrund Bedeutung der Regression: Eines der am häufigsten verwendeten statistischen Verfahren. Vielfache Anwendung in
Übungsblätter zu Methoden der Empirischen Sozialforschung IV: Regressionsanalyse. Lösungsblatt zu Nr. 2
Martin-Luther-Universität Halle-Wittenberg Institut für Soziologie Dr. Wolfgang Langer 1 Übungsblätter zu Methoden der Empirischen Sozialforschung IV: Regressionsanalyse Lösungsblatt zu Nr. 2 1. a) Je
Hypothesentests mit SPSS
Beispiel für eine einfache Regressionsanalyse (mit Überprüfung der Voraussetzungen) Daten: bedrohfb_v07.sav Hypothese: Die Skalenwerte auf der ATB-Skala (Skala zur Erfassung der Angst vor terroristischen
Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
Einführung in die Induktive Statistik: Regressionsanalyse
Einführung in die Induktive Statistik: Regressionsanalyse Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Regressionsanalyse Ziel: Analyse
Regression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
Mathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun http://blog.ruediger-braun.net Heinrich-Heine-Universität Düsseldorf 10. Dezember 2014 1 Datenpaare Korrelation 2 Lineare Regression Problemstellung Beispiel
Aufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:
Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen
Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
Sozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS
Sommersemester 2009 Statistik mit SPSS 15. Mai 2009 15. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Überblick 1. Korrelation vs. Regression 2. Ziele der Regressionsanalyse 3. Syntax für
Elementare Regressionsrechnung
Elementare Regressionsrechnung Motivation: Streudiagramm zweier metrisch skalierter Merkmale X und Y Y X Dr. Karsten Webel 107 Ziel: Erfassung des Zusammenhangs zwischen X und Y durch eine Gerade der Form
Anwendungsaufgaben. a. Anhand des Streudiagramms (. Abb. 1) lässt sich ein linearer Zusammenhang vermuten. Aufgabe 1. Anhang 1: Lösungen der Aufgaben
Anhang 1: Lösungen der Aufgaben 15 +1). Korrelationskoeffizienten unterschiedlicher Stichproben oder verschiedener Variablen können so miteinander verglichen werden, was mit der Kovarianz nicht möglich
Statistik. Ronald Balestra CH St. Peter
Statistik Ronald Balestra CH - 7028 St. Peter www.ronaldbalestra.ch 17. Januar 2010 Inhaltsverzeichnis 1 Statistik 1 1.1 Beschreibende Statistik....................... 1 1.2 Charakterisierung von Häufigkeitsverteilungen...........
Statistik II: Signifikanztests /2
Medien Institut : Signifikanztests /2 Dr. Andreas Vlašić Medien Institut (0621) 52 67 44 [email protected] Gliederung 1. Korrelation 2. Exkurs: Kausalität 3. Regressionsanalyse 4. Key Facts 2 I
Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
Übung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
(f(xi ) y i ) 2. minimal ist: man will also die Summe der quadratischen Abweichungen minimieren ... f(x i ) y i, i=1 (t x i) 2
Mathematik für Biologen, Biotechnologen und Biochemiker Lineare Regression Gegeben seien Datenpaare (, ), (, ),, ( n, n ) Wir stellen die Frage, ob sich die Zahlen i als Werte einer linearen Funktion i
2.3 Nichtlineare Regressionsfunktion
Nichtlineare Regressionsfunktion Bisher: lineares Regressionsmodell o Steigung d. Regressionsgerade ist konstant o Effekt einer Änderung von X auf Y hängt nicht vom Niveau von X oder von anderen Regressoren
Einführung. Ablesen von einander zugeordneten Werten
Einführung Zusammenhänge zwischen Größen wie Temperatur, Geschwindigkeit, Lautstärke, Fahrstrecke, Preis, Einkommen, Steuer etc. werden mit beschrieben. Eine Zuordnung f, die jedem x A genau ein y B zuweist,
Einführung in Quantitative Methoden
Einführung in Quantitative Methoden Mag. Dipl.Ing. Dr. Pantelis Christodoulides & Mag. Dr. Karin Waldherr SS 2014 Christodoulides / Waldherr Einführung in Quantitative Methoden- 2.VO 1/57 Die Deskriptivstatistik
Mehrfache Lineare Regression 1/9
Mehrfache Lineare Regression 1/9 Ziel: In diesem Fallbeispiel soll die Durchführung einer mehrfachen linearen Regressionsanalyse auf der Basis vorhandener Prozessdaten (Felddaten) beschrieben werden. Nach
Prof. Dr. Marc Gürtler WS 2015/2016. Prof. Dr. Marc Gürtler. Klausur zur 10/12 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft
Prof. Dr. Marc Gürtler WS 015/016 Prof. Dr. Marc Gürtler Klausur zur 10/1 SWS-Vertiefung Empirische Finanzwirtschaft Finanzwirtschaft Lösungsskizze Prof. Dr. Marc Gürtler WS 015/016 Aufgabe 1: (11+5+1+8=56
TEIL 13: DIE EINFACHE LINEARE REGRESSION
TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen
Mathematik III - Statistik für MT(Master)
3. Regressionsanalyse Fachbereich Grundlagenwissenschaften Prof. Dr. Viola Weiß Wintersemester 0/03 Mathematik III - Statistik für MTMaster 3. Empirische Regressionsgerade Optimalitätskriterium: Die Summe
Korrelation Regression. Wenn Daten nicht ohne einander können Korrelation
DAS THEMA: KORRELATION UND REGRESSION Korrelation Regression Wenn Daten nicht ohne einander können Korrelation Korrelation Kovarianz Pearson-Korrelation Voraussetzungen für die Berechnung die Höhe der
Mathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 05. Dezember 2012 1 Datenpaare Korrelation 2 Lineare Regression Problemstellung Beispiel Bleibelastung 3 Regression
Statistische Methoden in den Umweltwissenschaften
Statistische Methoden in den Umweltwissenschaften Korrelationsanalysen Kreuztabellen und χ²-test Themen Korrelation oder Lineare Regression? Korrelationsanalysen - Pearson, Spearman-Rang, Kendall s Tau
Annahmen des linearen Modells
Annahmen des linearen Modells Annahmen des linearen Modells zusammengefasst A1: Linearer Zusammenhang: y = 0 + 1x 1 + 2x 2 + + kx k A2: Zufallsstichprobe, keine Korrelation zwischen Beobachtungen A3: Erwartungswert
Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien
Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische
Das Lineare Regressionsmodell
Das Lineare Regressionsmodell Bivariates Regressionsmodell Verbrauch eines Pkw hängt vom Gewicht des Fahrzeugs ab Hypothese / Theorie: Je schwerer ein Auto, desto mehr wird es verbrauchen Annahme eines
Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
Korrelation - Regression. Berghold, IMI
Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines
Lösungsvorschläge zur Klausur Beschreibende Statistik und Wirtschaftsstatistik (Sommersemester 2013)
Lösungsvorschläge zur Klausur Beschreibende Statistik und Wirtschaftsstatistik (Sommersemester 203) Aufgabe (9 Punkte) Ein metrisches Merkmal X sei in einer Grundgesamtheit vom Umfang n = 200 diskret klassiert.
Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula
Einführung in Quantitative Methoden
Einführung in Quantitative Methoden Mag. Dipl.Ing. Dr. Pantelis Christodoulides & Mag. Dr. Karin Waldherr SS 2011 Christodoulides / Waldherr Einführung in Quantitative Methoden- 2.VO 1/62 Summenzeichen
Lineare Funktionen Arbeitsblatt 1
Lineare Funktionen Arbeitsblatt 1 Eine Funktion mit der Gleichung y = m x + b heißt lineare Funktion. Ihr Graph ist eine Gerade mit der Steigung m. Die Gerade schneidet die y-achse im Punkt P(0 b). Man
Statistik Klausur Wintersemester 2013/2014 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!
Statistik 1 A 2. Klausur Wintersemester 2013/2014 Hamburg, 18.03.2014 BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................
Schweizer Statistiktage, Aarau, 18. Nov. 2004
Schweizer Statistiktage, Aarau, 18. Nov. 2004 Qualitative Überprüfung der Modellannahmen in der linearen Regressionsrechnung am Beispiel der Untersuchung der Alterssterblichkeit bei Hitzeperioden in der
Einführung in die Statistik
Elmar Klemm Einführung in die Statistik Für die Sozialwissenschaften Westdeutscher Verlag INHALTSVERZEICHNIS 1. Einleitung und Begrifflichkeiten 11 1.1 Grundgesamtheit, Stichprobe 12 1.2 Untersuchungseinheit,
Statistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
TEIL 12: BIVARIATE ANALYSE FÜR METRISCH SKALIERTE VARIABLEN
TEIL 12: BIVARIATE ANALYSE FÜR METRISCH SKALIERTE VARIABLEN GLIEDERUNG Bivariate Analyse für metrisch skalierte Variablen Grundlagen Streudiagramme und Visualisierungen von Zusammenhängen Positive lineare
STATISTIK 2 Teil 1 Regressionsanalyse Von: Anne Schmidt. Anordnung von Zahlen in Zeilen und Spalten (Tabelle)
Kapitel 2 Deskriptive lineare Regression 2.1. Einführung Definition Regressionsanalyse Unterschied zu Varianzanalyse Matrix/ Matrizen Indices Vektor Decken Zusammenhänge zwischen Beobachtungsreihen auf,
TEIL 12: BIVARIATE ANALYSE FÜR METRISCH SKALIERTE VARIABLEN
TEIL 12: BIVARIATE ANALYSE FÜR METRISCH SKALIERTE VARIABLEN Bivariate Analyse für metrisch skalierte Variablen Grundlagen Verfahren für metrische Daten nutzen den vollen mathematischen Informationsgehalt
Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik. Regression. Einfache lineare Regression
Vorlesung: Statistik I für Studierende der Statistik, Mathematik & Informatik Regression Dozent: Fabian Scheipl Material: H. Küchenhoff LMU München 39 Einfache lineare Regression Bestimmung der Regressionsgerade
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden
Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen
Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit
Deskriptive Statistik
Deskriptive Statistik Deskriptive Statistik: Ziele Daten zusammenfassen durch numerische Kennzahlen. Grafische Darstellung der Daten. Quelle: Ursus Wehrli, Kunst aufräumen 1 Modell vs. Daten Bis jetzt
Zusammenhänge zwischen metrischen Merkmalen
Zusammenhänge zwischen metrischen Merkmalen Darstellung des Zusammenhangs, Korrelation und Regression Daten liegen zu zwei metrischen Merkmalen vor: Datenpaare (x i, y i ), i = 1,..., n Beispiel: x: Anzahl
9.3 Lineare Regression
9.3 Lineare Regression 115 A B C D E F G H 1 2 Pearsonscher Korrelationskoeffizient 3 4 5 6 x-werte y-werte ANALYSE ASSISTENT 7 2,4-4 8 3,2-1 9 8,3 6,4 Spalte 1 Spalte 2 10 6,4 6 Spalte 1 1 11 7,2 6,3
Mathematik 2 für Naturwissenschaften
Hans Walser Mathematik 2 für Naturwissenschaften Modul 202 Regressionsgerade und Korrelation Lernumgebung. Teil Hans Walser: Modul 202, Regressionsgerade und Korrelation. Lernumgebung. ii Inhalt Messwertpaare...
Karl Entacher. FH-Salzburg
Ahorn Versteinert [email protected] Statistik @ HTK Karl Entacher FH-Salzburg [email protected] Beispiel 3 Gegeben sind 241 NIR Spektren (Vektoren der Länge 223) zu Holzproben
Die Korrelation von Merkmalen
Die Korrelation von Merkmalen In der Analse von Datenmaterial ist eines der Hauptziele der Statistik eine Abhängigkeit bzw. einen Zusammenhang zwischen Merkmalen zu erkennen. Die Korrelation ermittelt
Einführung in die Statistik
Einführung in die Statistik Analyse und Modellierung von Daten von Prof. Dr. Rainer Schlittgen Universität Hamburg 12., korrigierte Auflage Oldenbourg Verlag München Inhaltsverzeichnis 1 Statistische Daten
Bivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154
Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch
3.3 Konfidenzintervalle für Regressionskoeffizienten
3.3 Konfidenzintervalle für Regressionskoeffizienten Konfidenzintervall (Intervallschätzung): Angabe des Bereichs, in dem der "wahre" Regressionskoeffizient mit einer großen Wahrscheinlichkeit liegen wird
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Regression: 4 eindimensionale Beispiele Berühmte
Deskriptive Statistik. (basierend auf Slides von Lukas Meier)
Deskriptive Statistik (basierend auf Slides von Lukas Meier) Deskriptive Statistik: Ziele Daten zusammenfassen durch numerische Kennzahlen. Grafische Darstellung der Daten. Quelle: Ursus Wehrli, Kunst
Statistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011
Einführung in die Statistik für Politikwissenschaftler Sommersemester 2011 Es können von den Antworten alle, mehrere oder keine Antwort(en) richtig sein. Nur bei einer korrekten Antwort (ohne Auslassungen
Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004
Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Aufgabe 1 U t bedeute weißes Rauschen und B den Backshift
2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen
.1. Stochastische ökonometrische Modelle.1 Einführung Ziele: - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen - Numerische Konkretisierung ökonomischer Modelle und deren Analse. . Variierende
Statistische Eigenschaften der OLS-Schätzer, Residuen,
Statistische Eigenschaften der OLS-Schätzer, Residuen, Bestimmtheitsmaß Stichwörter: Interpretation des OLS-Schätzers Momente des OLS-Schätzers Gauss-Markov Theorem Residuen Schätzung von σ 2 Bestimmtheitsmaß
Multiple Regressionsanalyse - Kurzabriss
Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen
Statistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
[email protected] VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
1 x 1 y 1 2 x 2 y 2 3 x 3 y 3... n x n y n
3.2. Bivariate Verteilungen zwei Variablen X, Y werden gemeinsam betrachtet (an jedem Objekt werden gleichzeitig zwei Merkmale beobachtet) Beobachtungswerte sind Paare von Merkmalsausprägungen (x, y) Beispiele:
1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben
Beispiel 1: Zweifache Varianzanalyse für unabhängige Stichproben Es wurden die Körpergrößen von 3 Versuchspersonen, sowie Alter und Geschlecht erhoben. (Jeweils Größen pro Faktorstufenkombination). (a)
