Lineare Regression mit einem Regressor: Einführung
|
|
- Falko Färber
- vor 7 Jahren
- Abrufe
Transkript
1 Lineare Regression mit einem Regressor: Einführung Quantifizierung des linearen Zusammenhangs von zwei Variablen Beispiel Zusammenhang Klassengröße und Testergebnis o Wie verändern sich Testergebnisse, wenn sich die Klassengröße um eine bestimmte Anzahl an Schülern verändert β KG = Änderung Testergebnisse Änderung Klassengröße = TE KG o Interpretation β KG : Ändert sich KG um 1 Schüler (1 Einheit), verändert sich TE um β KG Punkte o TE = β KG KG β KG = 0.6, KG = 2 TE = 0.6 ( 2) = 1.2 1
2 Lineare Regression mit einem Regressor: Einführung Graphische Interpretation: β KG ist Steigung einer Geraden, die die Beziehung zwischen TE und KG beschreibt: o TE = β 0 + β KG KG o β 0 ist Konstante (Achsenabschnitt) der Geraden Problem: alle anderen Faktoren, die (potentiellen) Einfluß auf TE haben, sind unberücksichtigt o Erweiterung: TE = β 0 + β KG KG + andere Faktoren 2
3 Formales Modell Y i = β 0 + β 1 X i + u i, i = 1,..., n o Y i : Ø Testergebnisse im Schuldistrikt i (gemessen in Punkten) o X i : Ø Größe der Schulklassen in Distrikt i = Anzahl der Schüler pro Lehrer im Distrikt i o u i : Effekte aller anderen Faktoren im Distrikt i o β 0 ist Konstante und β 1 ist Steigungsparameter der Geraden o n = 420 3
4 Lineares Regressionsmodell Y i = β 0 + β 1 X i + u i ist lineares Regressionsmodell mit einem Regressor o Y : abhängige (zu erklärende) Variable o X: Regressor bzw. unabhängige (erklärende) Variable o Vorgabe der Erklärungsrichtung von X nach Y β 0 + β 1 X ist Regressionsgerade bzw. Regressionsfunktion der Grundgesamtheit Konstante β 0 und Steigungsparameter β 1 sind die Regressionskoeffizienten bzw. -paramter der GG o ändert sich X um 1 Einheit, ändert sich Y um β 1 Einheiten o β 0 : Wert der Regressionslinie für X = 0 (nicht immer interpretierbar) 4
5 Lineares Regressionsmodell u i : Fehlerterm o Differenz zwischen tatsächlichem Y i (Testergebnis) und Wert gegeben durch Regressionsgerade o bestimmt durch alle ausgelassenen Faktoren 5
6 Ziele Schätzung der Parameter β 0 und β 1 der Grundgesamtheit Wie eine Gerade durch X, Y -Daten legen? Hypothesentests bzgl. β 1 (β 0 ) Konfidenzintervalle 6
7 Schätzung der Regressionsparameter Wie β 0 und β 1 schätzen Kriterien: o Minimiere Summe der Abweichungen von Punkten und Gerade Problem: positive und negative Abweichungen heben sich auf o Minimiere Summe der absoluten Abweichungen Probleme : formal schwierig anzuwenden, oft keine eindeutigen Lösungen o Minimiere quadratische Abweichungen (KQ-Methode) Vorteile: große Abweichungen werden stärker bestraft, leicht zu berechnen, in vielen Fällen gute bzw. sogar optimale Eigenschaften Wir verwenden Methode der Kleinsten Quadrate (KQ) 7
8 Herleitung des KQ-Schätzers Minimiere Summe der quadrierten Abweichungen der prognostizierten Werte Ŷi = ˆβ 0 + ˆβ 1 X i von den tatsächlichen Werten Y i Y i Ŷi = û i ist Residuum Minmiere sog. Residuenquadratsumme S( ˆβ 0, ˆβ 1 ) = n i=1 ( Ŷi) 2 n n min ˆβ 0, ˆβ i=1 Y i = min 1 ˆβ 0, ˆβ i=1 (Y i ˆβ 0 ˆβ ) 2 1 X i 1 o setze 1. Ableitungen bzgl. ˆβ 0 und ˆβ 1 gleich Null o löse nach ˆβ 0 und ˆβ 1 auf ( ) 2 Y i Ŷi 8
9 Herleitung des KQ-Schätzers KQ-Schätzer n ( o ˆβ i=1 Xi X ) ( Y i Y ) 1 = n ( i=1 Xi X ) 2 = o ˆβ 0 = Y ˆβ 1 X Cov (X, Y ) Var (X) = s XY s 2 X KQ-Schätzer ˆβ 0 und ˆβ 1 sind Zufallsvariablen! Arithmetisches Mittel Y einer Stichprobe ist KQ-Schätzer! 9
10 Terminologie KQ-Regressionsgerade: Gerade gegeben durch ˆβ 0 + ˆβ 1 X Prognostizierter Wert (Prognosewert) von Y i gegeben X i : Ŷ i = ˆβ 0 + ˆβ 1 X i Residuum für i-te Beobachtung: û i = Y i Ŷi o Residuum û i ist das KQ-Äquivalent zum Fehlerterm u i 10
11 Beispiel: Klassengröße Schätzergebnisse: ˆβ 0 = und ˆβ 1 = 2.28 Interpretation ˆβ 1 : Schulbezirke mit einem Schüler mehr pro Lehrer, erreichen durchschnittlich 2.28 Punkte weniger in den Tests Interpretation ˆβ 0 : ist nicht sinnvoll, Punkteanzahl bei Null Schülern pro Lehrer Interpretation von Ŷi und û i : siehe Illustration 11
12 Gütemaße Wie gut beschreibt die Regressionsgerade die Daten? Zwei Maße: Bestimmtheitsmaß R 2 und Standardfehler der Regression sû 12
13 Bestimmtheitsmaß R 2 Bestimmtheitsmaß R 2 beschreibt den Anteil der Varianz von Y i der durch X i bzw. die Regression erklärt wird Y i = Ŷi + û i R 2 = Stichprobenvarianz von Ŷi = ESS Stichbrobenvarianz von Y i TSS Erklärte Variation von Y (explained sum of squares) o ESS = ) 2 ) n i=1 (Ŷi Y, (Ŷ = Y Gesamtvariation von Y (total sum of squares) o TSS = n ( i=1 Yi Y ) 2 Residuenquadratsumme (sum of squared residuals): SSR = n i=1 û2 i R 2 = 1 SSR TSS, da TSS = ESS + SSR 13
14 Bestimmtheitsmaß R 2 0 R 2 1 R 2 = 0 ESS = 0 (nichts wird erklärt) R 2 = 1 ESS = TSS (alles wird erklärt) 14
15 Standardfehler der Regression Schätzer für Standardabweichung der Fehlerterme u i sû = 1 n 2 n i=1 û2 i = SSR n 2 o Standardabweichung der Residuen û i Wieso n 2? ( û = 1/n n i=1 ûi = 0) o Korrektur für Anzahl der geschätzten Parameter: Freiheitsgrade Hier: β 0 und β 1 Beispiel: Klassengröße o R 2 = (sehr klein) o sû = 18.6 (relativ große Streuung der Residuen im Streudiagramm) o Interpretation: vermutlich viele (relevante) Faktoren ausgelassen 15
16 Annahmen der KQ-Schätzung Annahmen notwendig um Eigenschaften des KQ-Schätzer abzuleiten, nicht notwendig für Anwendung! Spezifikation von Annahmen, für die KQ-Schätzung gute Ergebnisse liefert Orientierung für Anpassung des Schätzer bei Verletzung der Annahmen 16
17 Annahme # 1: Bedingter Erwartungswert von u i ist Null E [u i X i ] = E [u i X i = x] = 0 o X i ist stochastisch, d.h. ist eine Zufallsvariable Andere Faktoren in u i stehen in keinem systematischen (linearen) Zusammenhang zu X i o E [u i X i ] = 0 Cov (X i, u i ) = 0 o Merke: u i und X i unabhängig E [u i X i ] = 0 o X verhält sich so, als ob es im Rahmen eines randomisierten Kontrollexperiment unabhängig von anderen Faktoren variiert wird 17
18 Annahme # 1: Bedingter Erwartungswert von u i ist Null u i ist im Mittel Null: E[u i ] = E[E (u i X i )] = E[0] = 0 o Alle Faktoren in u i addieren sich im Mittel zu Null E [Y i X i ] = β 0 + β 1 X i o Regressionsgerade entspricht bedingtem Erwartungswert von Y gegeben X Annahme relevant um E[ ˆβ 0 ] und E[ ˆβ 1 ] zu bestimmen 18
19 Annahme # 2: (X, Y ) sind identisch, unabhängig verteilt (X, Y ) sind gemeinsam identisch und unabhängig (iid) Annahme garantiert, dass eine einfache Zufallsstichprobe aus einer Grundgesamtheit vorliegt Regressor X ist auch stochastisch! Annahme relevant zur Bestimmung der Verteilung von ˆβ 0 und ˆβ 1 : Anwendung des ZGS für iid Variablen 19
20 Annahme # 3: Extreme Ausreißer bzgl. X i und Y i sind unwahrscheinlich Ungewöhnlich große Werte (weit entfernt vom üblichen Wertebereich) können KQ-Schätzung verzerren Eine mögliche formale Spezifikaton: o E[X 4 i ] < und E[Y 4 i ] < o endliche vierte Momente (Kurtosis) o viele Ausreißer führen zu hohen Kurtosiswerten Wichtig um Konsistenz von Varianzschätzer zu zeigen o Erinnerung: Gesetz der großen Zahlen für iid-variablen Y i mit E[Yi 4] < s2 p Y σy 2 20
21 Zusätzliche Annahme # 4: Bedingte Varianz der Fehlerterme ist konstant E[u 2 i X i] = σ 2 u i vereinfacht Ableitung und Interpretation der Eigenschaften (Varianz) der KQ-Schätzer Folgen der Annahmenverletzung werden später diskutiert 21
22 Eigenschaften des KQ-Schätzers Erinnerung: ˆβ 0 und ˆβ 1 sind Zufallsvariablen Man kann bei Gültigkeit der Annahmen 1-3 zeigen, dass gilt: E[ ˆβ 0 ] = β 0 und E[ ˆβ 1 ] = β 1 o ˆβ 0 und ˆβ 0 sind erwartungstreu, d.h. unverzerrt Bei Gültigkeit der Annahmen 1-4 ergibt sich: Var[ ˆβ 0 ] = σ 2ˆβ0 = E(X2 i )σ2 u nσ 2 X Var[ ˆβ 1 ] = σ 2ˆβ1 = σ2 u nσ 2 X 22
23 Eigenschaften der KQ-Schätzer Asymptotische Verteilung: Es gibt ZGS für iid Variablen, so dass ( ) d ˆβ 0 N β 0, σ 2ˆβ0 und ˆβ 1 d N ( β 1, σ 2ˆβ1 ) o Verteilungsapproximation für große n o Durchführung von Hypothesentests bzgl. ˆβ 0 und ˆβ 1 und Bestimmung von Intervallschätzern Beachte σ 2ˆβ0 und σ 2ˆβ0 gehen gegen Null für n, bevorzuge ˆβ i β i σ ˆβi d N(0, 1), i = 0, 1 23
24 Implikationen der Eigenschaften der KQ-Schätzer ˆβ 0 und ˆβ 1 sind konsistente Schätzer für β 0 und β 1 o Wieso? Var(u 2 i ) = σ2 u Var( ˆβ 0 ) und Var( ˆβ 1 ) Var(Xi 2) = σ2 X Var( ˆβ 1 ) 24
25 Homoskedastizität vs. Heteroskedastizität Annahme 4: E[u 2 i X i] = σ 2 u für alle i: Homoskedastizität o Bedingte Varianz für alle i ist konstant Heteroskedastizität liegt vor, falls E[u 2 i X i] = σu,i 2 Einheiten i verschieden ist für Beispiel: Lohnregression für Männer und Frauen o Löhne der Frauen haben höhere Varianz o Spiegelt sich in höherer Varianz der Fehlerterme wieder: σ 2 u,f > σ2 u,m 25
26 Konsequenzen von Heteroskedastizität Varianzformeln für ˆβ 0 und ˆβ 1 gelten nicht mehr Komplexere Formeln z. B. σ 2ˆβ1 = 1 Var[(X i µ X )u i ] n [Var(X i )] 2 ˆβ 0 und ˆβ 1 bleiben aber weiterhin erwartungstreu (Annahmen 1-3 sind hinreichend) und konsistent (σ 2ˆβi 0, i = 0, 1, gilt weiterhin) 26
27 Implikationen für empirische Arbeit Heteroskedastizität ist für viele Situationen realistisch Tests auf Heteroskedastizität o oft nicht gute Eigenschaften Häufige Empfehlung: Anwendung der Varianzformel bzw. Varianzschätzer für Heteroskedastizität o sind auch bei Homoskedastizität gültig o Aber: Trade-off von geringer Fehlerwahrscheinlichkeit vs. Effizienz Informelle Evidenz für Heteroskedastizität o Deutlich abweichende Varianzschätzwerte bei Homoskedastitzität und Heteroskedastizität 27
28 Optimalität der KQ-Schätzer Wenn Annahmen # 4 erfüllt ist, kann man zeigen, dass die KQ-Schätzer BLUE sind (gegeben X 1,..., X n ) BLUE: Best Linear Unbiased Estimator KQ-Schätzer haben die kleinste Varianz gegeben X 1,..., X n (bedingte Varianz) aus der Klasse aller linearen unverzerrter Schätzer Linear: Lineare Funktion von Y i Gauss-Markov Theorem Optimalität gilt nicht, falls Annahme # 4 verletzt ist 28
29 Hypothesentests Typische Fragestellung: Gibt es Evidenz dafür, dass eine Reduzierung der Klassengröße zu besseren Schülerleistungen (Testergebnissen) führt? Beantwortung: einseitiger Hypothesentest bzgl. β 1 mit H 0 : β 1 0 vs. β 1 < 0 Plan o Zweiseitiger Hypothesentest bzgl. β 1 (Hat die Klassengröße überhaupt einen Effekt auf die Testergebnisse) o Einseitiger Hypothesentest bzgl. β 1 o Hypothesentest bzgl. β 0 29
30 Zweiseitiger Hypothesentest bzgl. β 1 ZGS: ˆβ1 d N(β1, σ 2ˆβ1 ) o Verteilungsergebnis analog zu Y Wende t-test nun analog bzgl. ˆβ 1 an 30
31 Testanwendung: 5 Schritte 1.) Hypothesenspezifikation: H 0 : β 1 = β 1,0 vs. H 1 : β 1 β 1,0 o β 1,0 ist der Wert, der überprüft werden soll o Beispiel: β 1,0 = 0 Hat die KG überhaupt einen Einfluss? 2.) Teststatistik aufstellen t = ˆβ 1 β 1,0 ˆσ ˆβ1 d N(0, 1) o Müssen ˆσ ˆβ1 schätzen: Heteroskedastie oder Homoskedastie- Annahme treffen 31
32 Testanwendung: 5 Schritte 3.) Teststatistik mit Hilfe der Schätzergebnisse berechnen t act 4.) p-wert mit Hilfe N(0, 1) Verteilung ermitteln p-wert = P ( t > t act ) = 2Φ ( t act ) 32
33 Testanwendung: 5 Schritte 5.) Testentscheidung o Signifikanzniveau wählen, z. B. α = 0.05 o p-wert < α Lehne H 0 ab o p-wert α Lehne H 0 nicht ab o Alternative: Vergleich von t act und kritischen Wert zum Signifikanzniveau α Beispiel: α = 0.05 kritischer Wert = 1.96 Lehne H 0 ab, falls t act >
34 Testanwendung: Beispiel KQ-Regressionsergebnisse für Schuldaten TE = (10.4) 2.28 (0.52) KG, R2 = 0.051, s u = 18.6 o ˆσ ˆβ0 = 10.4 und ˆσ ˆβ1 = 0.52 o Standardabweichungen heteroskedastie-robust geschätzt 34
35 Testanwendung: Beispiel H 0 : β 1 = 0 vs. H 1 : β 1 0 (β 1,0 = 0) o Signifikanzniveau α = 0.05 o kritischer Wert: 1.96 t = ˆβ 1 0 t act = ˆσ ˆβ = 4.38 o p-wert = oder % o p-wert < α Lehne H 0 zum Signifikanzniveau 0.05 ab, d. h. KG hat signifikanten Einfluss auf TE o t act > 1.96 Lehne H 0 ab 35
36 Einseitiger Test bzgl. β 1 Auf Basis des zweiseitigen Tests dürfen wir formal nur schlussfolgern, dass β 1 zum Niveau α = 0.05 signifikant von Null abweicht; nicht aber ob die Abweichung signifikant positiv oder negativ ist Einseitiger Test für Entscheidung über Vorzeichen der Abweichung o H 0 : β 1 β 1,0 vs. H 1 : β 1 < β 1,0 o H 0 : β 1 β 1,0 vs. H 1 : β 1 > β 1,0 Beispiel: Positiver Einfluss der Reduzierung der KG auf TE H 0 : β 1 0 vs. H 1 : β 1 < 0 o Beachte β 1 < 0 unter H 1, da wir KG reduzieren 36
37 Einseitiger Test bzgl. β 1 Achtung: Aussage in S&W, dass H 0 : β 1 = β 1,0 ist nicht korrekt! Formal müssen H 0 und H 1 den gesamten Wertebereich von β 1 abdecken. Praktisch ist β 1 = β 1,0 der Wert in H 0, der am schwierigsten abzulehnen ist. Deshalb wird β 1 = β 1,0 für die Testdurchführung verwendet o β 1 = β 1,0 liegt am nächsten zu H 1 37
38 Einseitiger Test bzgl. β 1 Nehme β 1 = β 1,0 als Wert aus H 0 für Testdurchführung o Teststatistik wie für zweiseitigen Test berechnen o Ermittlung der Testentscheidung und Interpretation ändern sich Betrachte nur noch eine Seite 38
39 Einseitiger Test: Beispiel KG Effekt der Schulklassengröße H 0 : β 1 0 vs. H 1 : β 1 < 0 Signifikanzniveau: α = 0.05 kritischer Wert = t act = 4.38 p-wert= P (t < t act ) = Φ(t act ) = Lehne H 0 zum Signifikanzniveau α = 0.05 ab, d. h. Verringerung der KG hat einen signifikant positiven Effekt auf TE bzw. KG hat einen signifikant negativen Effekt auf TE 39
40 Einseitiger Test mit H 1 : β 1 > β 1,0 Bei H 0 : β 1 β 1,0 vs. H 1 : β 1 > β 1,0 p-wert = P (t > t act ) = 1 Φ(t act ) 40
41 Bestimmung der Alternativhypothesen Standardwahl: zweiseitiger Test Einseitiger Test, nur wenn gute (ökonomische) Gründe vorliegen o a priori oft nicht klar, ob β 1 β 1,0 oder β 1 β 1,0 sinnvollere Alternative o Gefahr der Verfälschung der Testentscheidung 41
42 Hypothesentests bzgl. β 0 Analog zu β 1 H 0 : β 0 = β 0,0 vs. β 0 β 0,0 H 0 : β 0 β 0,0 vs. β 0 > β 0,0 H 0 : β 0 β 0,0 vs. β 0 < β 0,0 Teststatistik: t = ˆβ 0 β 0,0 ˆσ ˆβ0 42
43 Konfidenzintervall für Regressionsparameter Ableitung und Schätzung analog zu µ Y (1 α) Konfidenzintervalle: β 1 : β 0 : { ˆβ1 ± z α/2 ˆσ ˆβ1} { ˆβ0 ± z α/2 ˆσ ˆβ0} Beispiel: α = 0.05 z α/2 = 1.96 Beispiel für Schulklassendaten: siehe Illustration 43
44 Regression mit binären Variablen Bisher stetige Variablen als Regressor betrachtet z. B. Klassengröße In vielen Anwendungen werden sogenannte binäre Variablen benötigt o Nehmen nur zwei Werte an, z. B. 0 und 1 X 1 = X 2 = { 1 falls Schülerin 0 falls Schüler { 1 falls Schuldistrikt in der Stadt 0 falls Schuldistrikt in ländl. Region o Binäre Variable werden auch als Indikatorvariablen oder Dummyvariablen bezeichnet 44
45 Regression mit binären Variablen: Anwendungsbeispiel KQ-Regression wie für stetige Variablen, aber Interpretation von β 1 ändert sich Regressor D i mit D i = { 1 falls KG im Distrikt i < 20 0 falls KG im Distrikt i 20 Regressionsmodell Y i = β 0 + β 1 D i + u i, i = 1,..., n D i kann nur zwei Werte annehmen o Interpretation von β 0 + β 1 D i als (Regressions-) Gerade und β 1 als Steigungsparameter ist nicht sinnvoll 45
46 Binäre Variablen: Interpretation D i = 0 o Regressionsmodell vereinfacht sich zu Y i = β 0 + u i o E[Y i D i = 0] = β 0 o β 0 ist Erwartungswert der GG, falls die KG hoch ist D i = 1 o E[Y i D i = 1] = β 0 + β 1 o β 0 + β 1 ist Erwartungswert der GG, falls die KG klein ist 46
47 Binäre Variablen: Interpretation β 1 beschreibt den Unterschied in den EWen der GG für den Fall von großen und kleinen KG o ˆβ 1 misst den Unterschied in den Stichprobenmitteln für kleine und große Klassen t-test mit H 0 : β 1 = 0 vs. H 1 : β 1 0 o Test auf Erwartungswert bzw. Mittelwertunterschiede zw. beiden Untergruppen Anwendung auf Schulklassendaten (siehe Illustration) TE = (1.3) (1.8) D, R2 = 0.035, sû =
Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)
3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =
MehrDas (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell
1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs
MehrKapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell
Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur
MehrKurs Empirische Wirtschaftsforschung
Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrÜbung V Lineares Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung
Mehr2.3 Nichtlineare Regressionsfunktion
Nichtlineare Regressionsfunktion Bisher: lineares Regressionsmodell o Steigung d. Regressionsgerade ist konstant o Effekt einer Änderung von X auf Y hängt nicht vom Niveau von X oder von anderen Regressoren
Mehr3. Das einfache lineare Regressionsmodell
3. Das einfache lineare Regressionsmodell Ökonometrie: (I) Anwendung statistischer Methoden in der empirischen Forschung in den Wirtschaftswissenschaften Konfrontation ökonomischer Theorien mit Fakten
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrAnalyse von Querschnittsdaten. Signifikanztests I Basics
Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
Mehr1 Beispiel zur Methode der kleinsten Quadrate
1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25
MehrInterne und externe Modellvalidität
Interne und externe Modellvalidität Interne Modellvalidität ist gegeben, o wenn statistische Inferenz bzgl. der untersuchten Grundgesamtheit zulässig ist o KQ-Schätzer der Modellparameter u. Varianzschätzer
MehrÜbung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell
Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010
MehrInferenz im multiplen Regressionsmodell
1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrStatistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
MehrVorlesung 3: Schätzverfahren
Vorlesung 3: Schätzverfahren 1. Beispiel: General Social Survey 1978 2. Auswahl einer Zufallsstichprobe und Illustration des Stichprobenfehlers 3. Stichprobenverteilung eines Regressionskoeffizienten 4.
MehrStatistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrStatistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20
Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)
MehrAnnahmen des linearen Modells
Annahmen des linearen Modells Annahmen des linearen Modells zusammengefasst A1: Linearer Zusammenhang: y = 0 + 1x 1 + 2x 2 + + kx k A2: Zufallsstichprobe, keine Korrelation zwischen Beobachtungen A3: Erwartungswert
MehrEmpirische Wirtschaftsforschung
Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:
MehrAufgabe 1 (8= Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten:
Aufgabe 1 (8=2+2+2+2 Punkte) 13 Studenten haben die folgenden Noten (ganze Zahl) in der Statistikklausur erhalten: Die Zufallsvariable X bezeichne die Note. 1443533523253. a) Wie groß ist h(x 5)? Kreuzen
MehrSchätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO
Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung
MehrDas Lineare Regressionsmodell
Das Lineare Regressionsmodell Bivariates Regressionsmodell Verbrauch eines Pkw hängt vom Gewicht des Fahrzeugs ab Hypothese / Theorie: Je schwerer ein Auto, desto mehr wird es verbrauchen Annahme eines
MehrTeil: lineare Regression
Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge
MehrBreusch-Pagan-Test I auf Heteroskedastie in den Störgrößen
Breusch-Pagan-Test I Ein weiterer Test ist der Breusch-Pagan-Test. Im Gegensatz zum Goldfeld-Quandt-Test ist es nicht erforderlich, eine (einzelne) Quelle der Heteroskedastizität anzugeben bzw. zu vermuten.
Mehr2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen
.1. Stochastische ökonometrische Modelle.1 Einführung Ziele: - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen - Numerische Konkretisierung ökonomischer Modelle und deren Analse. . Variierende
MehrStatistische Eigenschaften der OLS-Schätzer, Residuen,
Statistische Eigenschaften der OLS-Schätzer, Residuen, Bestimmtheitsmaß Stichwörter: Interpretation des OLS-Schätzers Momente des OLS-Schätzers Gauss-Markov Theorem Residuen Schätzung von σ 2 Bestimmtheitsmaß
MehrPrognoseintervalle für y 0 gegeben x 0
10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen
MehrLineare Regression (Ein bisschen) Theorie
Kap. 6: Lineare Regression (Ein bisschen) Theorie Lineare Regression in Matrixform Verteilung des KQ-Schätzers Standardfehler für OLS Der Satz von Gauss-Markov Das allgemeine lineare Regressionsmodell
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrBachelorprüfung WS 2012/13
Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Fach: Praxis der empirischen Wirtschaftsforschung Prüfer: Prof. Regina T. Riphahn, Ph.D. Bachelorprüfung WS 2012/13
MehrStatistik II. IV. Hypothesentests. Martin Huber
Statistik II IV. Hypothesentests Martin Huber 1 / 22 Übersicht Weitere Hypothesentests in der Statistik 1-Stichproben-Mittelwert-Tests 1-Stichproben-Varianz-Tests 2-Stichproben-Tests Kolmogorov-Smirnov-Test
MehrRegression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate
Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für
MehrDie Regressionsanalyse
Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
MehrX =, y In welcher Annahme unterscheidet sich die einfache KQ Methode von der ML Methode?
Aufgabe 1 (25 Punkte) Zur Schätzung der Produktionsfunktion des Unternehmens WV wird ein lineares Regressionsmodell der Form angenommen. Dabei ist y t = β 1 + x t2 β 2 + e t, t = 1,..., T (1) y t : x t2
MehrMusterlösung. Modulklausur Multivariate Verfahren
Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn
MehrTests einzelner linearer Hypothesen I
4 Multiple lineare Regression Tests einzelner linearer Hypothesen 4.5 Tests einzelner linearer Hypothesen I Neben Tests für einzelne Regressionsparameter sind auch Tests (und Konfidenzintervalle) für Linearkombinationen
MehrML-Schätzung. Likelihood Quotienten-Test. Zusammenhang Reparametrisierung und Modell unter linearer Restriktion. Es gilt: β = Bγ + d (3.
Reparametrisierung des Modells Gegeben sei das Modell (2.1) mit (2.5) unter der linearen Restriktion Aβ = c mit A R a p, rg(a) = a, c R a. Wir betrachten die lineare Restriktion als Gleichungssystem. Die
MehrHypothesentests für Erwartungswert und Median. Statistik (Biol./Pharm./HST) FS 2015
Hypothesentests für Erwartungswert und Median Statistik (Biol./Pharm./HST) FS 2015 Normalverteilung X N μ, σ 2 X ist normalverteilt mit Erwartungswert μ und Varianz σ 2 pdf: pdf cdf:??? cdf 1 Zentraler
MehrStatistik II. Regressionsanalyse. Statistik II
Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)
Mehr13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017
13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl
MehrBachelorprüfung. Praxis der empirischen Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Name, Vorname. Matrikelnr. . Studiengang.
Lehrstuhl für Statistik und empirische Wirtschaftsforschung Fach: Prüfer: Bachelorprüfung Praxis der empirischen Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Name, Vorname Matrikelnr. E-Mail Studiengang
MehrStatistik II für Betriebswirte Vorlesung 1
Statistik II für Betriebswirte Vorlesung 1 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 16. Oktober 2017 Dr. Andreas Wünsche Statistik II für Betriebswirte Vorlesung 1 Version:
MehrDie Familie der χ 2 (n)-verteilungen
Die Familie der χ (n)-verteilungen Sind Z 1,..., Z m für m 1 unabhängig identisch standardnormalverteilte Zufallsvariablen, so genügt die Summe der quadrierten Zufallsvariablen χ := m Z i = Z 1 +... +
MehrStatistik II. Weitere Statistische Tests. Statistik II
Statistik II Weitere Statistische Tests Statistik II - 19.5.2006 1 Überblick Bisher wurden die Test immer anhand einer Stichprobe durchgeführt Jetzt wollen wir die statistischen Eigenschaften von zwei
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrStatistik II. Statistische Tests. Statistik II
Statistik II Statistische Tests Statistik II - 12.5.2006 1 Test auf Anteilswert: Binomialtest Sei eine Stichprobe unabhängig, identisch verteilter ZV (i.i.d.). Teile diese Stichprobe in zwei Teilmengen
MehrLehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. R. T. Riphahn, Ph.D. Bachelorprüfung, Praxis der empirischen Wirtschaftsforschung
Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. R. T. Riphahn, Ph.D. Bachelorprüfung, Praxis der empirischen Wirtschaftsforschung Aufgabe 1: [14,5 Punkte] Sie interessieren sich für die Determinanten
MehrSchätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief
Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Statistik II Literatur Kategoriale Unabhängige, Interaktion, nicht-lineare Effekte : Schätzung Statistik
MehrLineare Modelle in R: Klassische lineare Regression
Lineare Modelle in R: Klassische lineare Regression Achim Zeileis 2009-02-20 1 Das Modell Das klassische lineare Regressionsmodell versucht den Zusammenhang zwischen einer abhängigen Variablen (oder Responsevariablen)
Mehr1. Lösungen zu Kapitel 7
1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei
MehrStatistisches Testen
Statistisches Testen Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Differenzen Anteilswert Chi-Quadrat Tests Gleichheit von Varianzen Prinzip des Statistischen Tests Konfidenzintervall
MehrDr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.
Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrSchätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief. Statistik II
Schätzverfahren, Annahmen und ihre Verletzungen, Standardfehler. Oder: was schiefgehen kann, geht schief Statistik II Wiederholung Literatur Kategoriale Unabhängige, Interaktion, nicht-lineare Effekte
MehrWS 2014/15. (d) Bestimmen Sie die Wahrscheinlichkeitsfunktion von X. (e) Bestimmen Sie nun den Erwartungswert und die Varianz von X.
Fragenkatalog zur Übung Methoden der empirischen Sozialforschung WS 2014/15 Hier finden Sie die denkbaren Fragen zum ersten Teil der Übung. Das bedeutet, dass Sie zu diesem Teil keine anderen Fragen im
MehrÖkonometrische Methoden III: Die lineare Regression
Ökonometrische Methoden III: Die lineare Regression Vorlesung an der Ruprecht-Karls-Universität Heidelberg WS 006/007 Prof. Dr. Lars P. Feld Ruprecht-Karls-Universität Heidelberg, Universität St. Gallen
MehrTests für Erwartungswert & Median
Mathematik II für Biologen 26. Juni 2015 Prolog Varianz des Mittelwerts Beispiel: Waage z-test t-test Vorzeichentest Wilcoxon-Rangsummentest Varianz des Mittelwerts Beispiel: Waage Zufallsvariable X 1,...,X
MehrBachelorprüfung SS 2015
Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Fach: Praxis der empirischen Wirtschaftsforschung Prüfer: Prof. Regina T. Riphahn, Ph.D. Bachelorprüfung SS 205
MehrVorlesung: Statistik II für Wirtschaftswissenschaft
Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation
MehrEinführung in die Methoden der Empirischen Wirtschaftsforschung
Einführung in die Methoden der Empirischen Wirtschaftsforschung Prof. Dr. Dieter Nautz Einführung in die Methoden der Emp. WF 1 / 37 Übersicht 1 Einführung in die Ökonometrie 1.1 Was ist Ökonometrie? 1.2
Mehr3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer
3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich
MehrStatistik II Übung 4: Skalierung und asymptotische Eigenschaften
Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden
MehrAllgemeines zu Tests. Statistische Hypothesentests
Statistische Hypothesentests Allgemeines zu Tests Allgemeines Tests in normalverteilten Grundgesamtheiten Asymptotische Tests Statistischer Test: Verfahren Entscheidungsregel), mit dem auf Basis einer
MehrKap. 2: Kurzwiederholung Wahrscheinlichkeitsrechnung und Statistik
Kap. 2: Kurzwiederholung Wahrscheinlichkeitsrechnung und Statistik Empirische Fragestellung Datenanalyse: Schätzung, Test, Konfidenzintervall Grundbegriffe der Wahrscheinlichkeitsrechnung und Statistik
MehrBachelorprüfung WS 2012/13 - MUSTERLÖSUNG
Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Bachelorprüfung WS 2012/13 - MUSTERLÖSUNG Fach: Praxis der empirischen Wirtschaftsforschung Prüfer: Prof. Regina
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrStatistik II Übung 2: Multivariate lineare Regression
Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden
MehrEinführung in die Induktive Statistik: Testen von Hypothesen
Einführung in die Induktive Statistik: Testen von Hypothesen Jan Gertheiss LMU München Sommersemester 2011 Vielen Dank an Christian Heumann für das Überlassen von TEX-Code! Testen: Einführung und Konzepte
MehrStatistik II Übung 1: Einfache lineare Regression
Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der
Mehr4.1. Nullhypothese, Gegenhypothese und Entscheidung
rof. Dr. Roland Füss Statistik II SS 8 4. Testtheorie 4.. Nullhypothese, Gegenhypothese und Entscheidung ypothesen Annahmen über die Verteilung oder über einzelne arameter der Verteilung eines Merkmals
MehrJohn Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer
John Komlos Bernd Süssmuth Empirische Ökonomie Eine Einführung in Methoden und Anwendungen 4y Springer 1 Einführung 1 1.1 Ökonometrie 1 2 Vorüberlegungen und Grundbegriffe 7 2.1 Statistik als Grundlage
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Ausgangsdaten Bundesliga 2008/2009 Gegeben: Daten zu den 18 Vereinen der ersten Bundesliga
Mehr1 Einführung Ökonometrie... 1
Inhalt 1 Einführung... 1 1.1 Ökonometrie... 1 2 Vorüberlegungen und Grundbegriffe... 7 2.1 Statistik als Grundlage der Empirischen Ökonomie... 7 2.2 Abgrenzung und Parallelen zu den Naturwissenschaften...
Mehr4. Das multiple lineare Regressionsmodell
4. Das multiple lineare Regressionsmodell Bisher: 1 endogene Variable y wurde zurückgeführt auf 1 exogene Variable x (einfaches lineares Regressionsmodell) Jetzt: Endogenes y wird regressiert auf mehrere
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrBachelorprüfung SS MUSTERLÖSUNG
Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Fach: Praxis der empirischen Wirtschaftsforschung Prüfer: Prof. Regina T. Riphahn, Ph.D. Bachelorprüfung SS 2015
MehrAnalyse von Querschnittsdaten. Heteroskedastizität
Analyse von Querschnittsdaten Heteroskedastizität Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004 03.11.2004
MehrKlausur zu Statistik II
GOETHE-UNIVERSITÄT FRANKFURT FB Wirtschaftswissenschaften Statistik und Methoden der Ökonometrie Prof. Dr. Uwe Hassler Wintersemester 03/04 Klausur zu Statistik II Matrikelnummer: Hinweise Hilfsmittel
MehrInstitut für Soziologie Christian Ganser. Methoden 2. Regressionsanalyse II: Lineare multiple Regression
Institut für Soziologie Christian Ganser Methoden 2 Regressionsanalyse II: Lineare multiple Regression Inhalt 1. Anwendungsbereich 2. Vorgehensweise bei multipler linearer Regression 3. Beispiel 4. Modellannahmen
MehrWillkommen zur Vorlesung Statistik (Master)
Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Punkt- und Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr.
MehrStatistischer Rückschluss und Testen von Hypothesen
Statistischer Rückschluss und Testen von Hypothesen Statistischer Rückschluss Lerne von der Stichprobe über Verhältnisse in der Grundgesamtheit Grundgesamtheit Statistischer Rückschluss lerne aus Analyse
Mehry t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.
Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf
MehrKapitel 3 Schließende Statistik
Motivation Grundgesamtheit mit unbekannter Verteilung F Stichprobe X 1,...,X n mit Verteilung F Realisation x 1,...,x n der Stichprobe Rückschluss auf F Dr. Karsten Webel 160 Motivation (Fortsetzung) Kapitel
MehrAllgemein zu Hypothesentests: Teststatistik. OLS-Inferenz (Small Sample) Allgemein zu Hypothesentests
OLS-Inferenz (Small Sample) K.H. Schild 3. Mai 017 Allgemein zu Hypothesentests: Teststatistik Konstruktion eines Hypothesentests erfolgt meistens über eine Teststatistik Eine Teststatistik T ist eine
MehrVorlesung: Lineare Modelle
Vorlesung: Lineare Modelle Prof Dr Helmut Küchenhoff Institut für Statistik, LMU München SoSe 2014 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen
MehrDie Funktion f wird als Regressionsfunktion bezeichnet.
Regressionsanalyse Mit Hilfe der Techniken der klassischen Regressionsanalyse kann die Abhängigkeit metrischer (intervallskalierter) Zielgrößen von metrischen (intervallskalierten) Einflussgrößen untersucht
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrTrim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19
Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist
MehrStatistik II. Lineare Regressionsrechnung. Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II
Statistik II Lineare Regressionsrechnung Wiederholung Skript 2.8 und Ergänzungen (Schira: Kapitel 4) Statistik II - 09.06.2006 1 Mit der Kovarianz und dem Korrelationskoeffizienten können wir den statistischen
Mehr8. Konfidenzintervalle und Hypothesentests
8. Konfidenzintervalle und Hypothesentests Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Beispiel. Sie wollen den durchschnittlichen Fruchtsaftgehalt eines bestimmten Orangennektars
Mehr2 Wiederholung statistischer Grundlagen Schließende Statistik empirischen Information aus Stichprobenrealisation x von X
Hypothesentests Bisher betrachtet: Punkt- bzw. Intervallschätzung des unbekannten Mittelwerts Hierzu: Verwendung der 1 theoretischen Information über Verteilung von X empirischen Information aus Stichprobenrealisation
MehrVorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff.
Vorlesung: Lineare Modelle Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München SoSe 205 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen.
Mehr