Multiple Regressionsanalyse - Kurzabriss
|
|
- Ulrich Roth
- vor 6 Jahren
- Abrufe
Transkript
1 Multiple Regressionsanalyse - Kurzabriss Ziele: Schätzung eines Kriteriums aus einer Linearkombination von Prädiktoren Meist zu Screening-Untersuchungen, um den Einfluß von vermuteten Ursachenvariablen abzuschätzen In der Regel mit konkreten Variablen (Messgrößen) Allgemeine Schätzgleichung: X 0i = β 0 β X i β 2 X 2i β k X ki () hierin: X 0i Schätzung des Wertes der i-ten Person auf der Kriteriumsvariable X 0 Regressionsgewicht des j-ten Prädiktors Wert der i-ten Person auf der j-ten Prädiktorvariable β j X ji Beispiel: ABINote = β 0 β Rechentestwertβ 2 Sprachtestwertβ 3 Fleisstestwertβ 4 Ausdruckstestwert a) b) a = a 0 a X a 0 = = = - tanα a X Cov(X,) Var (X) Regression von Z auf X und Z Z= X0678 ^ = - e ^ p a 0 α X X X Abbildung : Veranschaulichung linearer Regression a) Bivariat: wird aus X vorhergesagt b) multivariat: Z wird aus X und vorhergesagt
2 0 Modellformulierung Definition einer Fehlerfunktion (Optimierungsfunktion) Schätzfehler: e i = X 0i X 0i (2) Optimierungskriterium: Wähle die Regressionsgewichte so, daß die Summe der Schätzfehlerquadrate minimal ist: n e 2 i = i= = n i= ( X 0i X 0i ) 2 min (3) n (X 0i (β 0 β X i β 2 X 2i β k X ki )) 2 min i= Man schreibt die multiple Regression id Regel standardisiert: Für den Schnittpunkt β 0 gilt: Weiterhin gibt ẑ 0i = b z i b 2 z 2i b k z ki (4) β 0 = X 0 (β X β 2 X 2 β k X k ) (5) b j = β j s (x j ) s (x 0 ) die Beziehung zwischen den Regressionskoeffizienten der standardisierten und der unstandardisierten Variablen an Beim Übergang zu z- standardisierten Variablen fällt die additive Konstante weg 02 Gang der Lösung Für den multivariaten Fall lautet der Modellansatz bei vorheriger z- Standardisierung aller k Variablen: (6) ẑ 0i = b z i b 2 z 2i b k z ki (7) Schreibt man die Gleichung nur für die Variablen, lautet sie: ẑ 0 = b z b 2 z 2 b k z k (8) 2
3 Die Regressionskoeffizienten b j erhält man aus der Bedingung n (z 0i ẑ 0i ) 2 min i= durch Einsetzen von (7), partielles Ableiten nach jedem Regressionskoeffizienten und anschließendes Nullsetzen, denn dann erhält man ein System von Normalgleichungen Dieses erhält man ebenso, wenn man (8) nacheinander mit jedem Prädiktor multipliziert und über Personen i summiert sowie durch die Anzahl n teilt Es ergeben sich nacheinander für j =,, k folgende Gleichungen: b z z n b 2 z z n 2 b k z z n k = z z n 0 b z2 z n b 2 z2 z n 2 b 0 z2 z n k = z2 z n 0 b z0 z n b 2 z0 z n 2 b k z0 z n 0 = z0 z n 0 die offenbar einfach auf das folgende Gleichungssystem hinauslaufen: b b 2 r 2 b k r k = r 0 b r 2 b 2 b k r 2k = r 20 b r 3 b 2 r 32 b k r 3k = r 3k (9) b r k b 2 r k2 b k = r k0 Rechts stehen hier die Kriteriumskorrelationen und links die Prädiktorinterkorrelationen Auf der Diagonalen des Gleichungssystems sthen die gesuchten Koeffizienten Das System hat genausoviel Zeilen wie Unbekannte (die Regressionsgewichte) es ist lösbar Man kann (9) als eine Matrixgleichung schreiben Wir schreiben Rb = r k0 (0) wobei boldface Symbole für Vektoren stehen Insbesondere ist: R b r k0 k k Matrix der Prädiktorinterkorrelationen gesuchter k Vektor der Regressionskoeffizienten k Vektor der Kriteriumskorrelationen Vormultiplizieren mit der Inversen der Prädiktor-Interkorrelationsmatrix gibt: R Rb = R r k0 b = R r k0 Die Lösung zeigt uns, daß nur die Inverse der Interkorrelationsmatrix der Prädiktoren gefunden werden muß, um das Problem der Bestimmung der Beta-Gewichte zu lösen 3
4 03 Der multiple Korrelationskoeffizient Für die multiple Regression läßt sich ebenfalls ein multipler Korrelationskoeffizient berechnen Er lautet: R 0 2 k = k b j r j0 () Was bedeutet dieser multiple Korrelationskoeffizient? Er erhält seine Bedeutung im Rahmen der Varianzzerlegung, die man für die multiple, wie auch für die bivariate Regression, folgendermassen anschreiben kann: j= = Erklärte Streuung Nicht Erklärte Streuung n ( ) 2 ( ) 2 n i= X0i X 0i = n n i= X0i X 0i n n i= (X 0i X ) 2 0i Wegen hat man = Erklärte Streuung Nicht Erklärte Streuung (2) R 2 = R 2 = R 2 = Erklärte Streuung ( ) 2 X0i X 0i n n i= n n i= (3) ( X0i X 0i ) 2 (4) Nicht Erklärte Streuung (5) Der multiple Korrelationskoeffizient kann genauso interpretiert werden wie der bivariate Produkt - Moment Korrelationskoeffizient Aber: Je mehr Prädiktoren, desto größer der Anteil an erklärter Streuung Je mehr Prädiktoren, desto ungünstiger für die Schätzeigenschaften des Modells (lernen wir später beim Thema Inferenzstatistik kennen) 4
5 04 Interpretation der Regressionskoeffizienten 04 Unabhängige Prädiktoren Die Schwierigkeit der Interpretation der Regressionsgewichte besteht in der Beurteilung des Einflusses der Interkorrelationen der Prädiktoren Für unkorrelierte Prädiktoren ist die Deutung einfach, da in diesem Fall R = R = I ist Dann wird der Vektor der Regressionskoeffizienten b = Ir k0 (6) b = r k0 (7) dh die beta- Gewichte sind gleich den Kriteriumskorrelationen Dies entspricht dem Fall einer Varianzzerlegung mit rein additiven Komponenten, dh es gibt keine Kovarianzterme Es ist dann R k = k rj0 2 (8) j= dh Erklärte Streuung = Erklärte Streuung () 042 Abhängige Prädiktoren Erklärte Streuung (2) Streuung k Erklärte Abhängigkeiten zwischen den Prädiktoren können prinzipiell in zweierlei Hinsicht untersucht werden: Bedeutet die Abhängigkeit Redundanz, dh messen die vielen Variablen Aspekte gemeinsam, so daß man prinzipiell weniger (latente) Variablen benötigt? ( unerwünschter Aspekt) 2 Erfassen die Abhängigkeiten Teile der ( Kontamination) der Variablen und wirken so optimierend auf die gesamte Schätzgleichung (Suppressionseffekt, erwünscht)? Zusammenhang mit der Partialkorrelation Partialkorrelationen geben die Korrelation zweier Variablen an, die vom Effekt anderer (spezifizierter) Variablen bereinigt wurden So gibt r 2 3 die Korrelation von X und X 2 bereinigt vom Effekt der Variablen X 3 Das Prinzip dabei ist, aus den Variablen X und X 2 den Vorhersageanteil zulasten von X 3 herauszuziehen (die Schätzwerte von den beobachteten Werten abzuziehen) und nunmehr die Korrelation der Residuen zu betrachten, dieses ist die reine Korrelation der Variablen X und X 2 5
6 Ähnliches kann durch eine geeignete Gewichtung von Variablen, die keine hohe Kriteriumskorrelation haben, in der Schätzgleichung erreicht werden (Suppressionseffkt) Für den Fall von nur 3 Variablen in der Schätzgleichung gibt es Ungleichungen, anhand deren man Suppressorvariablen identifizieren kann Für mehr Variablen ist dies aber nicht so einfach Als Faustregel für die Identifikation der Suppressorwirkung gilt wobei U j die sog Nützlichkeit der Variablen X j ist U j > r 2 j0, (9) U j = R 2 (j) meint den Betrag, um den die multiple Korrelation zunimmt, wenn Variable X j zusätzlich in die Gleichung aufgenommen wird Anhaltspunkte für die Rolle der Variablen in der Schätzgleichung bieten die Step-Methode, iterative Methoden und die Betrachtung der Partialkorrelationen Man kann Strukturkoeffizienten bilden, dessen Quadrat angibt, welchen Anteil eine Prädiktorvariable an der vorhergesagten Kriteriumsvarianz hat Weiter läßt sich zeigen: c j = r j0 R R 2 = r 2 0 r 2 0(2 ) r 2 0(3 2) r 2 0(4 32) (20) dh die aufgeklärte Varianz ist darstellbar über eine Reihe von Semipartialkorrelationen (nur der Prädiktor ist vom linearen Anteil der anderen Prädiktoren bereinigt), wobei jede neu hinzukommende Prädiktorvariable vom Effekt aller bisher berücksichtigten Variablen bereinigt ist Die Semipartialkorrelationen sind für die Interpretation wichtig, denn es gilt r 2 0(j 2 k) = V arianz(x j 2 k) Gesamtvarianz Die quadrierten Semipartialkorrelationen geben also den Anteil der Varianz eines von den anderen Prädiktoren residualisierten Prädiktors an der gesamten Kriteriumsvarianz (seinen dann eigenständigen Varianzbeitrag) an Für 3 Variablen berechnet sich die Semipartialkorrelation nach (X 0 Kriterium, X 2 von X befreit) r 0(2) = r 20 r 0 r 2 (2) r 2 2 Aus (20) folgt, dass die Nützlichkeit (9) eines Prädiktors j das Quadrat seiner Semipartialkorrelation ist, denn die Differenz r 2 0(j 2 k) = R 2 0 (2 k) R 2 0 (2 k j) (22) definiert ja die Nützlichkeit der Variablen X j nach (9) (Näheres hierzu s Bortz, 2005, Kap 3) 6
Drittvariablenkontrolle in der linearen Regression: Trivariate Regression
Drittvariablenkontrolle in der linearen Regression: Trivariate Regression 14. Januar 2002 In der Tabellenanalyse wird bei der Drittvariablenkontrolle für jede Ausprägung der Kontrollvariablen eine Partialtabelle
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-06) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de
MehrMathematische und statistische Methoden I
Prof. Dr. G. Meinhardt Methodenlehre Mathematische und statistische Methoden I Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung Wallstr. 3, 6. Stock, Raum 06-06 Dr. Malte Persike persike@uni-mainz.de
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
MehrLineare Regression. Y = b 0
Lineare Regression 2 Lineare Regression 2 Lineare Regression 2 Bei der linearen Regression wird eine Kriteriumsvariable Y auf die Prädiktorvariable X zurückgeführt, indem die beste lineare Gleichung Y
MehrTEIL 13: DIE EINFACHE LINEARE REGRESSION
TEIL 13: DIE EINFACHE LINEARE REGRESSION Die einfache lineare Regression Grundlagen Die einfache lineare Regression ist ebenfalls den bivariaten Verfahren für metrische Daten zuzuordnen 1 Sie hat einen
MehrZiel der linearen Regression
Regression 1 Ziel der linearen Regression Bei der linearen Regression wird untersucht, in welcher Weise eine abhängige metrische Variable durch eine oder mehrere unabhängige metrische Variablen durch eine
MehrMultiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)
Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang
MehrStatistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
MehrProf. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006
Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand
MehrSozialwissenschaftliche Fakultät der Universität Göttingen. Sommersemester Statistik mit SPSS
Sommersemester 2009 Statistik mit SPSS 15. Mai 2009 15. Mai 2009 Statistik Dozentin: mit Esther SPSSOchoa Fernández 1 Überblick 1. Korrelation vs. Regression 2. Ziele der Regressionsanalyse 3. Syntax für
MehrKorrelation Regression. Wenn Daten nicht ohne einander können Korrelation
DAS THEMA: KORRELATION UND REGRESSION Korrelation Regression Wenn Daten nicht ohne einander können Korrelation Korrelation Kovarianz Pearson-Korrelation Voraussetzungen für die Berechnung die Höhe der
Mehr9 Faktorenanalyse. Wir gehen zunächst von dem folgenden Modell aus (Modell der Hauptkomponentenanalyse): Z = F L T
9 Faktorenanalyse Ziel der Faktorenanalyse ist es, die Anzahl der Variablen auf wenige voneinander unabhängige Faktoren zu reduzieren und dabei möglichst viel an Information zu erhalten. Hier wird davon
MehrBivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.154
Bivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.154 Grundidee und Typen der Regression Die Regressionsanalyse dient zur Quantifizierung des Zusammenhangs und der statistisch
MehrKapitel 4: Merkmalszusammenhänge
Kapitel 4: Merkmalszusammenhänge Streudiagramme SPSS bietet die Möglichkeit, verschiedene Arten von Streudiagrammen zu zeichnen. Gehen Sie auf Grafiken Streu-/Punkt-Diagramm und wählen Sie die Option Einfaches
MehrÜberbestimmte lineare Gleichungssysteme
Überbestimmte lineare Gleichungssysteme Fakultät Grundlagen September 2009 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme Übersicht 1 2 Fakultät Grundlagen Überbestimmte lineare Gleichungssysteme
MehrVS PLUS
VS PLUS Zusatzinformationen zu Medien des VS Verlags Statistik II Inferenzstatistik 2010 Übungsaufgaben und Lösungen Inferenzstatistik 2 [Übungsaufgaben und Lösungenn - Inferenzstatistik 2] ÜBUNGSAUFGABEN
MehrInstitut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004
Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg PROGNOSE II - Vertiefung Aufgaben und Lösungen Sommersemester 2004 Aufgabe 1 U t bedeute weißes Rauschen und B den Backshift
MehrLineare Gleichungssysteme: eine Ergänzung
Lineare Gleichungssysteme: eine Ergänzung Ein lineares Gleichungssystem, bei dem alle Einträge auf der rechten Seite gleich sind heiÿt homogenes lineares Gleichungssystem: a x + a 2 x 2 +... + a n x n
Mehr1 Singulärwertzerlegung und Pseudoinverse
Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
MehrCorinne Schenka Vorkurs Mathematik WiSe 2012/13
4. Lineare Gleichungssysteme Ein lineares Gleichungssystem ist ein System aus Gleichungen mit Unbekannten, die nur linear vorkommen. Dieses kann abkürzend auch in Matrizenschreibweise 1 notiert werden:
MehrSchätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
MehrRegression I. Statistik I. Sommersemester Lineare Regression Zusammenhang und Modell Ein Beispiel: Armut und Gewaltverbrechen Zusammenfassung
Sommersemester 2009 Ein Beispiel: Armut und Gewaltverbrechen Rechtswahl 15 10 5 0 5 10 Arbeitslosigkeit Zum Nachlesen Agresti: 9.1-9.4 Gehring/Weins: 8 Schumann: 8.1-8.2 Was ist ein Zusammenhang? Gemeinsame
MehrMathematik II Frühlingsemester 2015 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren
Mathematik II Frühlingsemester 215 Kapitel 8: Lineare Algebra 8.5 Eigenwerte und Eigenvektoren www.math.ethz.ch/education/bachelor/lectures/fs215/other/mathematik2 biol Prof. Dr. Erich Walter Farkas http://www.math.ethz.ch/
MehrDabei bezeichnet x die Einflussgrösse (Regressor), y die Zielvariable (die eine Folge der Ursache x ist) und die Störung. Die n = 3 Beobachtungen
Lineare Regression und Matrizen. Einführendes Beispiel Der im Kapitel Skalarprodukt gewählte Lösungsweg für das Problem der linearen Regression kann auch mit Matrizen formuliert werden. Die Idee wird zunächst
Mehr(x 1. Vektoren. g: x = p + r u. p r (u1. x 2. u 2. p 2
Vektoren Mit der Vektorrechnung werden oft geometrische Probleme gelöst. Wenn irgendwelche Aufgabenstellungen geometrisch darstellbar sind, z.b. Flugbahnen oder Abstandsberechnungen, dann können sie mit
MehrKorrelation und Regression
Professur E-Learning und Neue Medien Institut für Medienforschung Philosophische Fakultät Einführung in die Statistik Korrelation und Regression Überblick Kovarianz und Korrelation Korrelation und Kausalität
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrTeil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrModul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.
Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes
MehrKapitel 4: Merkmalszusammenhänge
Kapitel 4: Merkmalszusammenhänge Streudiagramme 1 Korrelationen 3 Lineare Regression 6 Zusammenhang zwischen Korrelation, Regression und t-test 8 Streudiagramme SPSS bietet die Möglichkeit, verschiedene
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrBasistext Lineare Gleichungssysteme. Eine lineare Gleichung mit einer Unbekannten hat die allgemeine Form! #=%
Basistext Lineare Gleichungssysteme Eine lineare Gleichung mit einer Unbekannten hat die allgemeine Form! #=% Mit zwei Unbekannten gibt es die allgemeine Form:! #+% '=( Gelten mehrere dieser Gleichungen
MehrEine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
Mehr[5], [0] v 4 = + λ 3
Aufgabe 9. Basen von Untervektorräumen. Bestimmen Sie Basen von den folgenden Untervektorräumen U K des K :. K = R und U R = span,,,,,.. K = C und U C = span + i, 6, i. i i + 0. K = Z/7Z und U Z/7Z = span
MehrOptimale Steuerung 1 Prozessoptimierung 1
Optimale Steuerung 1 Prozessoptimierung 1 Kapitel 2: Lineare Optimierung Prof. Dr.-Ing. Pu Li Fachgebiet Simulation und Optimale Prozesse (SOP) Lineare Algebra (Mathematische Grundlagen) 2 Beispiel: Produktionsplanung
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrMathematik 1, Teil B. Inhalt:
FH Emden-Leer Fachb. Technik, Abt. Elektrotechnik u. Informatik Prof. Dr. J. Wiebe www.et-inf.fho-emden.de/~wiebe Mathematik 1, Teil B Inhalt: 1.) Grundbegriffe der Mengenlehre 2.) Matrizen, Determinanten
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrÜbungen (HS-2010): Urteilsfehler. Autor: Siegfried Macho
Übungen (HS-2010): Urteilsfehler Autor: Siegfried Macho Inhaltsverzeichnis i Inhaltsverzeichnis 1. Übungen zu Kapitel 2 1 Übungen zu Kontingenz- und Kausalurteile 1 Übung 1-1: 1. Übungen zu Kapitel 2 Gegeben:
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrKorrelation und Regression
FB 1 W. Ludwig-Mayerhofer und 1 und FB 1 W. Ludwig-Mayerhofer und 2 Mit s- und sanalyse werden Zusammenhänge zwischen zwei metrischen Variablen analysiert. Wenn man nur einen Zusammenhang quantifizieren
MehrLänge eines Vektors und Abstand von zwei Punkten 2. 4 = 6. Skalarprodukt und Winkel zwischen Vektoren
Länge eines Vektors und Abstand von zwei Punkten Aufgabe Bestimme die Länge des Vektors x. Die Länge beträgt: x ( ) =. Skalarprodukt und Winkel zwischen Vektoren Aufgabe Es sind die Eckpunkte A(; ), B(
MehrInstitut für Biometrie und klinische Forschung. WiSe 2012/2013
Klinische Forschung WWU Münster Pflichtvorlesung zum Querschnittsfach Epidemiologie, Biometrie und Med. Informatik Praktikum der Medizinischen Biometrie () WiSe /3 Univariate und bivariate Verfahren Univariate
MehrAnnahmen des linearen Modells
Annahmen des linearen Modells Annahmen des linearen Modells zusammengefasst A1: Linearer Zusammenhang: y = 0 + 1x 1 + 2x 2 + + kx k A2: Zufallsstichprobe, keine Korrelation zwischen Beobachtungen A3: Erwartungswert
Mehr2 Die Dimension eines Vektorraums
2 Die Dimension eines Vektorraums Sei V ein K Vektorraum und v 1,..., v r V. Definition: v V heißt Linearkombination der Vektoren v 1,..., v r falls es Elemente λ 1,..., λ r K gibt, so dass v = λ 1 v 1
MehrAnhang B. Regression
Anhang B Regression Dieser Anhang rekapituliert die in der Analysis und Statistik wohlbekannte Methode der kleinsten Quadrate, auch Regression genannt, zur Bestimmung von Ausgleichsgeraden Regressionsgeraden
MehrSTATISTIK 2 Teil 1 Regressionsanalyse Von: Anne Schmidt. Anordnung von Zahlen in Zeilen und Spalten (Tabelle)
Kapitel 2 Deskriptive lineare Regression 2.1. Einführung Definition Regressionsanalyse Unterschied zu Varianzanalyse Matrix/ Matrizen Indices Vektor Decken Zusammenhänge zwischen Beobachtungsreihen auf,
MehrKlausur HM I H 2005 HM I : 1
Klausur HM I H 5 HM I : 1 Aufgabe 1 4 Punkte): Zeigen Sie mit Hilfe der vollständigen Induktion: n 1 1 + 1 ) k nn k n! für n. Lösung: Beweis mittels Induktion nach n: Induktionsanfang: n : 1 ) 1 + 1 k
MehrTEIL 13: DIE LINEARE REGRESSION
TEIL 13: DIE LINEARE REGRESSION Dozent: Dawid Bekalarczyk GLIEDERUNG Dozent: Dawid Bekalarczyk Lineare Regression Grundlagen Prognosen / Schätzungen Verbindung zwischen Prognose und Zusammenhang zwischen
MehrLineare Algebra: Determinanten und Eigenwerte
: und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b
MehrFormelsammlung für das Modul. Statistik 2. Bachelor. Sven Garbade
Version 2015 Formelsammlung für das Modul Statistik 2 Bachelor Sven Garbade Prof. Dr. phil. Dipl.-Psych. Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de
MehrMatrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix
Inhaltsverzeichnis Matrizen, Gaußscher Algorithmus 1 Bestimmung der inversen Matrix Auf dieser Seite werden Matrizen und Vektoren fett gedruckt, um sie von Zahlen zu unterscheiden. Betrachtet wird das
MehrLineare vs. nichtlineare Zusammenhänge
Nicht lineare Zusammenhänge Lowess und Potenzleiter Partialkorrelation Thomas Schäfer SS 29 1 Lineare vs. nichtlineare Zusammenhänge Was Sie schon wissen: Zusammenhänge sind die Grundlage der Methodenlehre
MehrKommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17)
R.Niketta Multiple Regressionsanalyse Kommentierter SPSS-Output für die multiple Regressionsanalyse (SPSS-Version 17) Daten: Selbstdarstellung und Kontaktsuche in studi.vz (POK VIII, AG 3) Fragestellung:
Mehr2.2 Lineare Gleichungssysteme (LGS)
2.2 Lineare Gleichungssysteme (LGS) Definition 2.2.. Ein LGS über einem Körper K von m Gleichungen in n Unbekannten x,..., x n ist ein Gleichungssystem der Form a x + a 2 x 2 +... + a n x n = b a 2 x +
MehrMultivariate lineare Regression. Statistik für SozialwissenschaftlerInnen II p.167
Multivariate lineare Regression Statistik für SozialwissenschaftlerInnen II p.167 Multivariate Regression Verfahren zur Prüfung des gemeinsamen linearen Einflusses mehrerer unabhängiger Variablen auf eine
MehrVorlesung 8a. Kovarianz und Korrelation
Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere
MehrLineare Gleichungssysteme
Christian Serpé Universität Münster 14. September 2011 Christian Serpé (Universität Münster) 14. September 2011 1 / 56 Gliederung 1 Motivation Beispiele Allgemeines Vorgehen 2 Der Vektorraum R n 3 Lineare
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
MehrDeskriptive Statistik
Markus Wirtz, Christof Nachtigall Deskriptive Statistik 2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Statistische
MehrMathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016
und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern
MehrAllgemeines Gleichungssystem mit zwei Gleichungen und zwei Variablen. Der erste Index bezeichnet die Nummer der Zeile, der zweite die der Spalte.
Lineare Gleichungssysteme. Einleitung Lineare Gleichungssysteme sind in der Theorie und in den Anwendungen ein wichtiges Thema. Theoretisch werden sie in der Linearen Algebra untersucht. Die Numerische
MehrStatistik, Datenanalyse und Simulation
Dr. Michael O. Distler distler@kph.uni-mainz.de Mainz, 31. Mai 2011 4. Methode der kleinsten Quadrate Geschichte: Von Legendre, Gauß und Laplace zu Beginn des 19. Jahrhunderts eingeführt. Die Methode der
MehrLineare Regression II
Lineare Regression II Varianzanalyse als multiple Regession auf Designvariablen Das lineare Regressionsmodell setzt implizit voraus, dass nicht nur die abhängige, sondern auch die erklärenden Variablen
MehrNeoklassische Produktions- und Kostenfunktion Mathematische Beschreibung zu einer Modellabbildung mit Excel
Neoklassische Produktions- und Kostenfunktion Mathematische Beschreibung zu einer Modellabbildung mit Excel Dieses Skript ist die allgemeine Basis eines Modells zur Simulation der ökonomischen Folgen technischer
Mehr4 Lineare Algebra (Teil 2): Quadratische Matrizen
4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,
MehrBivariate Analyseverfahren
Bivariate Analyseverfahren Bivariate Verfahren beschäftigen sich mit dem Zusammenhang zwischen zwei Variablen Beispiel: Konservatismus/Alter Zusammenhangsmaße beschreiben die Stärke eines Zusammenhangs
MehrDas Identifikationsproblem
Draft 1 Das Identifikationsproblem Simultane Strukturmodelle sind insbesondere in den Sozialwissenschaften wichtig, da dort Zusammenhänge sehr häufig interdependenter Natur sind. Dies wirft einige schwerwiegende
MehrÖkonometrie. Hans Schneeweiß. 3., durchgesehene Auflage. Physica-Verlag Würzburg-Wien 1978 ISBN
2008 AGI-Information Management Consultants May be used for personal purporses only or by libraries associated to dandelon.com network. Hans Schneeweiß Ökonometrie 3., durchgesehene Auflage Physica-Verlag
Mehr6. Faktorenanalyse (FA) von Tests
6. Faktorenanalyse (FA) von Tests 1 6. Faktorenanalyse (FA) von Tests 1 6.1. Grundzüge der FA nach der Haupkomponentenmethode (PCA) mit anschliessender VARIMAX-Rotation:... 2 6.2. Die Matrizen der FA...
MehrInterpolation, lineare Gleichungen (mit und ohne Lösungen) und lineare Regression
Interpolation, lineare Gleichungen (mit und ohne Lösungen) und lineare Regression Franz Pauer Institut für Mathematik, Universität Innsbruck Technikerstr. 13/7, A-6020 Innsbruck, Österreich franz.pauer@uibk.ac.at
MehrBeginn der Vorlesung zur Numerik I (Wintersemester 2010/2011)
M. Sc. Frank Gimbel Beginn der Vorlesung zur Numerik I (Wintersemester 2010/2011) 1 Motivation Ziel ist es, ein gegebenes lineares Gleichungssystem der Form Ax = b (1) mit x, b R n und A R n n zu lösen.
MehrInstitut für Soziologie Dipl.-Soz. Benjamin Gedon. Methoden 2. Logistische Regression II
Institut für Soziologie Dipl.-Soz. Methoden 2 Logistische Regression II Bringen Sie zur nächsten Übung und in die Klausur einen (nicht programmierbaren) Taschenrechner mit! # 2 Programm Wiederholung der
MehrMathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation
Mathematik II Frühlingsemester 2015 Kap. 9: Funktionen von mehreren Variablen 9.2 Partielle Differentiation www.math.ethz.ch/education/bachelor/lectures/fs2015/other/mathematik2 biol Prof. Dr. Erich Walter
Mehr1 Transponieren, Diagonal- und Dreiecksmatrizen
Technische Universität München Thomas Reifenberger Ferienkurs Lineare Algebra für Physiker Vorlesung Mittwoch WS 2008/09 1 Transponieren, Diagonal- und Dreiecksmatrizen Definition 11 Transponierte Matrix
MehrSchätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief. Statistik II
Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Statistik II Wiederholung Literatur Kategoriale Unabhängige, Interaktion, nicht-lineare Effekte
MehrBivariate Zusammenhänge
Bivariate Zusammenhänge 40 60 80 Bivariater Zusammenhang: Zusammenhang zwischen zwei Variablen weight (kg) Gibt es einen Zusammenhang zwischen Größe & Gewicht? (am Beispieldatensatz) Offensichtlich positiver
MehrMathematischer Vorkurs Lösungen zum Übungsblatt 5
Mathematischer Vorkurs Lösungen zum Übungsblatt 5 Prof. Dr. Norbert Pietralla/Sommersemester 2012 c.v.meister@skmail.ikp.physik.tu-darmstadt.de Aufgabe 1: Berechnen Sie den Abstand d der Punkte P 1 und
Mehr2. Spezielle anwendungsrelevante Funktionen
2. Spezielle anwendungsrelevante Funktionen (1) Affin-lineare Funktionen Eine Funktion f : R R heißt konstant, wenn ein c R mit f (x) = c für alle x R existiert linear, wenn es ein a R mit f (x) = ax für
MehrBeispiele 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix (A
133 e 1. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 2. Gegeben sei das lineare Gleichungssystem mit erweiterter Matrix 1 3 2 1 1 2 3 0. 1 3 2 1 Schritte des
MehrAufgabensammlung aus Mathematik 2 UMIT, SS 2010, Version vom 7. Mai 2010
Aufgabensammlung aus Mathematik 2 UMIT, SS 2, Version vom 7. Mai 2 I Aufgabe I Teschl / K 3 Zerlegen Sie die Zahl 8 N in ihre Primfaktoren. Aufgabe II Teschl / K 3 Gegeben sind die natürliche Zahl 7 und
MehrKapitel 13. Lineare Gleichungssysteme und Basen
Kapitel 13. Lineare Gleichungssysteme und Basen Matrixform des Rangsatzes Satz. Sei A eine m n-matrix mit den Spalten v 1, v 2,..., v n. A habe den Rang r. Dann ist die Lösungsmenge L := x 1 x 2. x n x
Mehr$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $
Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit
Mehr7.1 Matrizen und Vektore
7.1 Matrizen und Vektore Lineare Gleichungssysteme bestehen aus einer Gruppe von Gleichungen, in denen alle Variablen nur in der 1. Potenz vorkommen. Beispiel Seite 340 oben: 6 x 2 = -1 + 3x 2 = 4 mit
MehrZiel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X.
Lineare Regression Einfache Regression Beispieldatensatz: trinkgeld.sav Ziel: Vorhersage eines Kriteriums/Regressand Y durch einen Prädiktor/Regressor X. H0: Y lässt sich nicht durch X erklären, das heißt
MehrAufgaben zu Kapitel 20
Aufgaben zu Kapitel 20 Aufgaben zu Kapitel 20 Verständnisfragen Aufgabe 20 Sind die folgenden Produkte Skalarprodukte? (( R ) 2 ( R 2 )) R : v w,, v v 2 w w 2 (( R ) 2 ( R 2 )) R : v w, 3 v v 2 w w + v
MehrStatistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
MehrEinführung in die multiple Regression
Einführung in die multiple Regression Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@fh-heidelberg.de Bachelor S. Garbade (SRH Heidelberg) Multiple Regression Bachelor
MehrMultivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
MehrAnalytische Geometrie mit dem Voyage 1
Analytische Geometrie mit dem Voyage. Vektoren Vektoren lassen sich definieren in eckigen Klammern. Setzt man ein Semikolon zwischen die einzelnen Komponenten, so ergibt sich ein Spaltenvektor. Ein Spaltenvektor
MehrFortgeschrittene Statistik Logistische Regression
Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E
MehrLineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
MehrMultivariate Statistische Methoden
Multivariate Statistische Methoden und ihre Anwendung in den Wirtschafts- und Sozialwissenschaften Von Prof. Dr. Hans Peter Litz Carl von Ossietzky Universität Oldenburg v..v.-'... ':,. -X V R.Oldenbourg
Mehr2. Korrelation, lineare Regression und multiple Regression
multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig
MehrMathematik II Frühjahrssemester 2013
Mathematik II Frühjahrssemester 2013 Prof. Dr. Erich Walter Farkas Kapitel 8. Funktionen von mehreren Variablen 8.2 Partielle Differentiation Prof. Dr. Erich Walter Farkas Mathematik I+II, 8.2 Part. Diff.
MehrMathematik Modul 3 -Arbeitsblatt A 3-7: LINEARE GLEICHUNGSSYSTEME MIT ZWEI VARIABLEN
Schule Thema Bundesgymnasium für Berufstätige Salzburg Mathematik Modul 3 -Arbeitsblatt A 3-7: LINEARE GLEICHUNGSSYSTEME MIT ZWEI VARIABLEN Unterlagen LehrerInnenteam Sehr oft treten in der Mathematik
Mehr