Einfache Hypothesentests für multiple Regressionen

Größe: px
Ab Seite anzeigen:

Download "Einfache Hypothesentests für multiple Regressionen"

Transkript

1 Kapitel 6 Einfache Hypothesentests für multiple Regressionen Economists have inherited from the physical sciences the myth that scientific inference is objective, and free of personal prejudice. This is utter nonsense. All knowledge is human belief; more accurately, human opinion.[...] statistical inference is and must forever remain an opinion. (Leamer, 1983, 36) Im Folgenden werden wir einige weitere Teststatistiken vorstellen, die uns das Testen komplexerer Hypothesen ermöglichen. Die grundsätzliche Methodologie bleibt dabei völlig gleich, das heißt, die folgenden Tests können wieder nach der Methode von Fisher oder nach Neyman und Pearson durchgeführt werden. 6.1 t-test für eine Linearkombination von Parametern Wir haben bisher nur t-tests für einzelne Regressionskoeffizienten durchgeführt. Die Vorgangsweise lässt sich aber einfach für Tests einer Linearkombination von mehreren Regressionskoeffizienten verallgemeinern. Gehen wir von folgendem einfachen Modell aus y i = β 1 +β 2 x i2 +β 3 x i3 +ε i Wenn wir zum Beispiel testen möchten, ob die Summe von β 2 und β 3 den Wert Eins hat, lauten Null- und Alternativhypothese H 0 : β 2 +β 3 = 1 gegen H A : β 2 +β 3 1 Dies ist ein sehr spezieller Fall von Null- und Alternativhypothese. 1

2 Empirische Wirtschaftsforschung 2 Etwas allgemeiner können zweiseitige Null- und Alternativhypothesen für dieses einfache Modell geschrieben werden als H 0 : c 1 β 2 +c 2 β 3 = β 0 H A : c 1 β 2 +c 2 β 3 β 0 wobei c 1 und c 2 Konstante sind und β 0 ein unter der Nullhypothese vermuteter Parameter ist. Die Konstanten c 1 und c 2 gehören ebenso wie β 0 zur Nullhypothese und erlauben eine allgemeinere Formulierung linearer Nullhypothesen. Sollte z.b. getestet werden, ob die Parameter β 2 und β 3 den gleichen Wert haben, würdenwirc 1 = +1, c 2 = 1undβ 0 = 0wählen, denndarausfolgth 0 : β 2 β 3 = 0, bzw. β 2 = β 3. Wennwirtestenmöchten,obβ 3 nurhalbsogroßistwieβ 2,abereinunterschiedliches Vorzeichen hat, würden wir c 1 = 1, c 2 = 2 und β 0 = 0 setzen, denn daraus folgt H 0 : β 2 +2β 3 = 0, bzw. β 2 = 2β 3. Auf diese Weise lassen sich fast beliebige lineare Nullhypothesen testen, die zwei oder auch mehrere Parameter betreffen. Allerdings können auf diese Weise nur einzelne Hypothesen getestet werden, einen simultanen Test mehrerer Hypothesen werden wir erst im nächsten Abschnitt kennen lernen. Das Test-Prinzip für einzelne lineare Hypothesen, die auch mehrere Parameter betreffen können, ist einfach: wenn die Nullhypothese wahr ist gilt in der Grundgesamtheit z.b. c 1 β 2 +c 2 β 3 β 0 = 0 Selbst wenn dies in der Grundgesamtheit exakt gilt müssen wir in der Stichprobe damit rechnen, dass aufgrund von Zufallschwankungen dieser Zusammenhang nicht exakt erfüllt ist, also c 1 β2 +c 2 β3 β 0 = v wobei v relativ nahe bei Null liegen sollte, wenn die Nullhypothese wahr ist. Zudem ist v eine Linearkombination der Zufallsvariablen β 2 und β 3. Wenn β 2 und β 3 normalverteilt sind ist auch v normalverteilt. Außerdem ist bei Gültigkeit der Nullhypothese E(v) = 0, um eine Teststatistik zu erhalten brauchen wir also nur durch den Standardfehler von v zu dividieren. Da v eine Linearkombination der Zufallsvariablen β 2 und β 3 ist gestaltet sich dies sehr einfach, wir brauchen nur die Rechenregel für das Rechnen mit Varianzen anzuwenden 1 var(v) = var(c 1 β2 ±c 2 β3 β 0 ) = c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 ĉov( β 2, β 3 ) Wir haben bisher zwar nur für das bivariate Modell einen Schätzer für die Kovarianz zwischen Interzept und Steigungskoeffizient, d.h. ĉov( β 1, β 2 ), hergeleitet, aber wir werden im Kapitel zur Matrixschreibweise zeigen, dass auch die Kovarianzen zwischen Steigungskoeffizienten ähnlich einfach berechnet werden können. Die üblichen Programme geben die Varianz-Kovarianzmatrix der Koeffizienten zwar nicht 1 var(c 0 + c 1 x ± c 2 y) = E[(c 0 + c 1 x ± c 2 y) E(c 0 + c 1 x ± c 2 y)] 2 = c 2 1var(x) + c 2 2var(y) ± 2c 1 c 2 cov(x,y).

3 Empirische Wirtschaftsforschung 3 unmittelbar aus, aber man kann einfach mit den entsprechenden Befehlen darauf zugreifen. 2 Da die Varianz des Nenners aus der Stichprobe berechnet werden muss ist die Teststatistik v ŝe(v) = c 1 β2 ±c 2 β3 β 0 c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 ĉov( β 2, β 3 ) unter H 0 t-verteilt mit n k Freiheitsgraden. Diese Teststatistik (t) hat die Form t = Empirisches Analogon zur H 0 in impliziter Form Standardfehler vom Zähler H 0 tn k H 0 tn k Dies ist offensichtlich nur eine kleine Erweiterung der üblichen Tests für einen Koeffizienten für Fälle, in denen eine Hypothese über eine Linearkombination von zwei (oder mehreren) Koeffizienten getestet werden soll. Mit Hilfe dieser Teststatistik kann wieder der p-wert à la Fisher berechnet werden, oder eine Entscheidung nach der Methode Neyman und Pearson gefällt werden 1. Formulierung von Null- und Alternativhypothese. 2. Festlegung eines Signifikanzniveaus α. 3. Wahl der geeigneten Teststatistik ohne unbekannten Parametern und mit bekannter Verteilung c 1 β2 ±c 2 β3 β 0 c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 ĉov( β 2, β 3 ) 4. Ermittlung des dazugehörigen kritischen Wertes t crit α/2 mittels einer t Tabelle; Bestimmung von Annahme- und Verwerfungsbereich. H 0 tn k für n k Freiheitsgrade 5. Berechnung der Punktschätzer β 2, β 3 sowie der dazugehörigen Varianz- Kovarianzmatrix von β 2 und β 3 aus der Stichprobe. Überprüfen, ob alle zugrunde liegenden Annahmen (korrekte Spezifikation, unverzerrte Stichprobe, normalverteilte Störterme 3, etc.) erfüllt sind. Falls die Annahmen erfüllt sind, Berechnung des empirischen Werts der Teststatistik durch Einsetzen der empirischen Realisationen in die Teststatistik t emp = (c 1 β2 ±c 2 β3 ) β 0 c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 cov( β 2, β 3 ) 2 In EViews erhält man die geschätzte Varianz-Kovarianzmatrixder Koeffizienten mit der in Stata mit dem postestimation Befehl e(v); in R mit vcov. 3 Wenn die Störterme ε i nicht normalverteilt sind nähert sich die Verteilung unter den üblichen Annahmen mit steigendem Stichprobenumfang einer Normalverteilung an (Zentraler Grenzwertsatz).

4 Empirische Wirtschaftsforschung 4 6. Überprüfen, ob der empirische Wert t emp in den Annahme- oder Verwerfungsbereich fällt, und dementsprechende Entscheidung fällen. Beispiel: Angenommen wir erhalten folgende Schätzung einer Cobb-Douglas Produktionsfunktion und möchten testen, ob konstante Skalenerträge vorliegen. 4 Dependent Variable: LOG(Q) Included observations: 25 Variable Coefficient Std. Error t-stat. Prob. C β LOG(K) β LOG(L) β R-squared S.E. of regression Sum squared resid F-statistic Durbin-Watson Stat Prob(F-statistic) Die meisten Computerprogramme liefern auch die dazugehörige Varianz- Kovarianzmatrix der Koeffizienten 5 (Coefficient Covariance Matrix) var(ˆβ): C LOG(K) LOG(L) C LOG(K) LOG(L) Bei Cobb-Douglas Funktionen liegen konstante Skalenerträge vor, wenn β 2 +β 3 = 1. Die Nullhypothese ist also H 0 : β 2 +β 3 = 1 (diese Hypothese ist ein Spezialfall von H 0 : c 1 β 2 +c 2 β 3 = β 0 mit c 1 = c 2 = β 0 = 1) Die entsprechende t-statistik ist deshalb t-stat = = β 2 + β 3 1 var( β 2 )+ var( β 3 )+2ĉov( β 2, β 3 ) = = Der kritische t-wert für einen zweiseitigen Test mit 22 Freiheitsgraden ist t crit = , deshalb können wir die Nullhypothese konstanter Skalenerträge(sehr knapp) nicht verwerfen. 4 Eine Cobb-Douglas Funktion hat die Form Q = AK β2 L β3. Durch Logarithmieren erhält man eine in den Parametern lineare Funktion ln(q) = β 1 + β 2 ln(k) + β 3 ln(l), mit β 1 = ln(a) die einfach mit OLS geschätzt werden kann. 5 In EViews erhält man die geschätzte Varianz-Kovarianzmatrixder Koeffizienten mit der in Stata mit dem postestimation Befehl e(v); in R mit vcov.

5 Empirische Wirtschaftsforschung 5 Um den p-wert zu berechnen benötigt man den Wert der Verteilungsfunktion. Wenn wir mit Φ(x, q) den Wert der Verteilungsfunktion einer t-verteilung mit q Freiheitsgraden an der Stelle x bezeichnen errechnet sich der p-wert als p = 2(1 Φ( ,22)) = Solche Tests sind in fast allen Statistik- und Ökonometrieprogrammen fix implementiert, aber man kann sie auch einfach programmieren. Zum Beispiel öffnet der folgende EViews Code die Excel Tabelle mit den Daten und berechnet den dazugehörigen p-wert 7 (die Daten können unter heruntergeladen werden). EViews: wfopen "http://www.uibk.ac.at/econometrics/data/prodfunkt.xls" equation CD.ls log(q) c log(k) log(l) scalar t_stat = (c(2) + c(3) - _ + + ) scalar pval = 2*(1 - Wurde der geschätzten Regressionsgleichung wie oben der Name CD gegeben geht das gleiche auch deutlich einfacher mit dem Befehl 8 CD.wald c(2) + c(3) = 1. Oder in R: rm(list=ls(all=true)) CD <- read.table("http://www.uibk.ac.at/econometrics/data/prodfunkt.csv", dec = ".", sep=";", header=true) eq1 <- lm(log(cd$q) ~ log(cd$k) + log(cd$l)) tstat <- (coef(eq1)[2] + coef(eq1)[3] - 1) / sqrt(vcov(eq1)[2,2] + vcov(eq1)[3,3] + 2*vcov(eq1)[2,3]) pval <- 2*(1-(pt(abs(tstat),22))) Stata: insheet using "http://www.uibk.ac.at/econometrics/data/prodfunkt.csv", /// delim(";") names clear gen logq = log(q) gen logk = log(k) gen logl = log(l) regress logq logk logl matrix V = e(v) scalar tstat = (_b[logk] + _b[logl] - 1) / sqrt( V[1,1] + V[2,2] + 2*V[1,2]) dis "t-statistic: " tstat dis "p-value: " 2*ttail(22,abs(tstat)) 6 In EViews ist der Befehl dazu coef p = in Excel erhalten Sie den p-wert mit der Funktion =TVERT(ABS( );22;2) 7 Selbstverständlich kann dieser Test in EViews weit einfacher durchgeführt werden, dieses Progrämmchen dient nur didaktischen Zwecken. 8 Dieser Test ist ein Spezialfall eines Wald Tests, der 1943 von dem Mathematiker Abraham Wald entwickelt wurde.

6 Empirische Wirtschaftsforschung 6 oder test logk + logl = 1 Übung: Wie würden Sie für das Modell y = β 1 +β 2 x 2 +β 3 x 3 +ε die Nullhypothese β 2 = β 3 testen? Zeigen Sie dies für für das Beispiel mit der Cobb-Douglas Funktion (Lösung: t emp = , p-wert = ). Eine große Einschränkung dieses Tests besteht darin, dass er nicht für den Test mehrerer Hypothesen verwendet werden kann. Zum Beispiel können wir damit nicht die Nullhypothese H 0 : β 2 = 0 und β 3 = 0 simultan testen. Im Folgenden werden wir nun einige Tests kennen lernen, mit deren Hilfe mehr als eine Hypothese simultan getestet werden kann, z.b. eine Nullhypothese H 0 : β 2 = 0 und β 3 = 0. Wir werden sehen, dass solche Tests sehr häufig auf der (nach R. Fisher benannten) F-Verteilung beruhen. Die Art der Tests, die wir nun vorstellen werden, sind ein Spezialfall einer ganzen Testfamilie, die in der Statistik als Wald-Tests bekannt sind. 9 Im nächsten Abschnitt werden wir einen Test auf die den Erklärungsgehalt aller erklärenden Variablen vorstellen, die sogenannte F-total Statistik. 6.2 ANOVA-Tafel und Test auf Signifikanz aller Steigungs-Koeffizienten Wir erinnern uns, dass wir für die Herleitung des Bestimmtheitsmaßes R 2 folgende Streuungs-Zerlegung vornahmen (yi ȳ) 2 } {{ } TSS = (ŷ i ȳ) 2 } {{ } ESS + ˆε 2 i } {{ } SSR wobei TSS für Total Sum of Squares, ESS für Explained Sum of Squares und SSR für Sum of Squared Residuals 10 steht. Dies führt zu folgender ANOVA-Tafel ( ANalysis Of VAriance Table ) Sum of Mean Squares df Square Regression ESS k 1 ESS/(k 1) Residuen SSR n k SSR/(n k) Total TSS n 1 wobei df für degrees of freedom (Freiheitsgrade) steht. Mit Hilfe der ANOVA-Tafel, die von den vielen Statistik-Programmen ausgegeben wird, kann man eine F-Statistik für die Nullhypothese H 0 : β 2 = β 3 = = β k = 0 9 Dieses Testprinzip ist nach Abraham Wald ( ) benannt, ein aus Siebenbürgen stammender deutschsprachiger Mathematiker und einer der bedeutendsten Statistiker des 20. Jahrhunderts. Neben Wald Tests spielen in der Statistik v.a. Likelihood-Ratio Tests und Lagrange-Multiplier Tests eine wichtige Rolle. 10 Manchmal wird dafür auch RSS für Residual Sum Squared geschrieben.

7 Empirische Wirtschaftsforschung 7 konstruieren; das heißt für die Nullhypothese, dass alle Koeffizienten mit Ausnahme des Interzepts β 1 simultan gleich Null sind, oder in anderen Worten, dass alle k 1 Steigungskoeffizienten simultan gleich Null sind. Eine andere Möglichkeit diese Nullhypothese zu interpretieren ist H 0 : E(y x 2,...,x k ) = E(y) wenn der bedingte Erwartungswert von y gleich dem unbedingten Erwartungswert ist leisten die erklärenden Variablen auch gemeinsam keinen Erklärungsbeitrag. In diesem Falle erklärt eine Regression auf die Regressionskonstante y = β 1 + ε die Daten gleich gut wie die lange Regression y = β 1 +β 2 x 2 + +β k x k +ε. Die Alternativhypothese ist H A : mindestens einer der Steigungskoeffizienten ist ungleich Null Wenn diese Nullhypothese wahr ist, sollten alle x Variablen auch gemeinsam keinen Erklärungsbeitrag für y leisten. Wenn die Störterme der Grundgesamtheit normalverteilt sind ist bei Zutreffen der Nullhypothese die Quadratsumme i (ŷ i ȳ) 2 /σ 2 bekanntlich χ 2 -verteilt mit k 1 Freiheitsgraden, und i ˆε2 i/σ 2 unabhängig davon χ 2 -verteilt mit n k Freiheitsgraden. Das Verhältnis zweier unabhängig χ 2 verteilten Zufallsvariablen, die beide durch die entsprechenden Freiheitsgrade dividiert wurden, ist F-verteilt (vgl. Statistischen Appendix), deshalb ist die Teststatistik F-total Statistik = i (ŷ i ȳ) 2 i ˆε2 i n k k 1 ESS/(k 1) H = 0 F(k 1,n k) SSR/(n k) F-verteilt mit k 1 Zähler- und n k Nennerfreiheitsgraden. Wenn die durch alle erklärenden x Variablen gemeinsam erklärte Streuung ESS sehr klein ist im Verhältnis zur unerklärten Streuung SSR würde man einen sehr kleinen Wert der empirischen Statistik F emp erwarten. Wenn umgekehrt ESS groß ist im Verhältnis zu SSR leisten alle x Variablen gemeinsam offensichtlich einen großen Erklärungsbeitrag. Die Nullhypothese β 2 = β 3 = = β k = 0 wird deshalb verworfen, wenn der empirische Wert dieser F-Statistik größer ist als der kritische Wert F crit der F-Statistik, vgl. Abbildung 6.1. Der zur F-total Statistik gehörende p-wert ist wieder die Fläche unter der Verteilung rechts vom berechneten F emp -Wert, und wird standardmäßig von allen statistischen Programmpaketen ausgewiesen. Das Programm STATA liefert z.b. den in Tabelle 6.1 wiedergegebenen Regressionsoutput für das Beispiel mit der Produktionsfunktion; im Kopf des Outputs wird die komplette ANOVA-Tafel wiedergegeben. Dabei ist Model SS die ESS ( Explained Sum of Squares ), die Residual SS die SSR ( Sum of Squared Residuals ) und Total SS die TSS ( Total Sum of Squares ). Für Produktionsfunktions-Beispiel folgt (siehe Tabelle 6.1) F-total Stat = /(3 1) /(25 3) = EViews und R geben die ESS und TSS nicht automatisch aus, sondern nur die F-Statistik mit dem dazugehörigen p-wert.

8 Empirische Wirtschaftsforschung 8 f(f) Akzeptiere H 0 Verwirf H 0 F c F Abbildung 6.1: F-Test Tabelle 6.1: STATA Output Source SS df MS Number of obs = F( 2, 22) = Model Prob > F = Residual R-squared = Adj R-squared = Total Root MSE = log_q Coef. Std. Err. t P> t [95% Conf. Interval] const log_k log_l Exkurs Diese F-total Statistik kann alternativ auch mit Hilfe des Bestimmtheitsmaßes R 2 berechnet werden, denn unter Berücksichtigung von TSS = ESS + SSR und R 2 = ESS/TSS ESS/(k 1) F-total Stat = SSR/(n k) = n k ESS k 1 SSR = n k ESS k 1 TSS ESS = n k [ ] ESS/TSS k 1 1 (ESS/TSS) = n k [ ] R 2 k 1 1 R 2 Also F-total Stat = R 2 /(k 1) (1 R 2 )/(n k)

9 Empirische Wirtschaftsforschung 9 Die Alternativhypothese, dass zumindest für einen der Regressoren der wahre Wert des Regressionskoeffizienten von Null verschieden ist, wird akzeptiert, wenn die Nullhypothese H 0 : β 2 = β 3 = = β k = 0 (d.h. dass alle Koeffizienten mit Ausnahme des Interzepts β 1 gleich Null sind) verworfen wird. Man beachte, dass es sich dabei um einen simultanen Test von insgesamt k 1 Hypothesen handelt, wobei k 1 die Anzahl der Steigungskoeffizienten ist. Dies ist also ein Test, ob alle Regressoren gemeinsam einen Beitrag zur Erklärung vony leisten.wennderp-wertdieserf-statistikgrößeristalsdasapriorifestgelegte Signifikanzniveau sollte die Schätzung verworfen werden. Dieser F-total Test wird häufig auch einfach F-Test genannt, zum Beispiel im Regressionsoutput fast jeder Statistiksoftware, was aber etwas verwirrend ist, da jede F-verteilte Teststatistik zu einem F-Test führt, und davon gibt es eine Unmenge. Achtung: Man beachte, dass es nicht reicht zu überprüfen, ob alle Koeffizienten individuell signifikant von Null verschieden sind. Es ist sehr gut möglich, dass kein einziger Koeffizient signifikant von Null verschieden ist, dass aber alle Koeffizienten gemeinsam trotzdem signifikant von Null verschieden sind! Wie wir später sehen werden tritt dieser Fall bei Multikollinearität (d.h. wenn die erklärenden Variablen untereinander hoch korreliert sind) relativ häufig auf. Konkret, die mit der F-Statistik getestete gemeinsame Nullhypothese H 0 : β 2 = β 3 = = β k = 0 darf nicht durch eine Reihe individueller t-tests ersetzt werden! Der Grund dafür liegt darin, dass die F-Statistik die mögliche Korrelation zwischen den OLS-Schätzern β 2, β 3,..., β k berücksichtigt, während diese bei individuellen t- Tests in dieser Form unberücksichtigt bleibt. Dies wird in Abbildung 6.2 veranschaulicht, die zwei bivariate Normalverteilungen zeigt, links ohne und rechts mit einer Korrelation zwischen den Zufallsvariablen. Wenn die Variablen unkorreliert sind (linke Grafik) wird die gemeinsame Signifikanz durch einen Signifikanzkreis dargestellt, bei Korrelation zwischen den Variablen (rechte Grafik) durch eine Konfidenzellipse, die umso schmaler wird, je höher die Korrelation ist. Wir werden später sehen, dass viele der üblichen Teststatistiken für den simultanen Test mehrerer Hypothesen unter den Standardannahmen F-verteilt sind. Sollten z.b. im Modell y i = β 1 + β 2 x i2 + β 3 x i3 + ˆε i die beiden Koeffizienten β 2 und β 3 simultan getestet werden, so kann man die folgende Teststatistik verwenden: F = 1 [ ] S 2ˆσ 2 22 ( β 2 β 2 ) 2 +2S 23 ( β 2 β 2 )( β 3 β 3 )+S 33 ( β 3 β 3 ) 2 H0 F2,n 3 mit S 22 = i (x i2 x 2 ) 2 S 23 = i S 33 = i (x i2 x 2 )(x i3 x 3 ) (x i3 x 3 ) 2

10 Empirische Wirtschaftsforschung 10 ρ = 0: ρ = 0.7: Abbildung 6.2: Bivariate Normalverteilungen ohne und mit Korrelation zwischen den Zufallsvariablen DieseTeststatistik ist unter H 0 F-verteilt mit2zähler-undn 3 Nennerfreiheitsgraden. Diese F-Statistik kann für die Konstruktion einer Konfidenzregion verwendet werden. Wenn wir mit F crit den kritischen F-Wert mit 2 Zähler- und n 3 Nennerfreiheitsgraden bezeichnen ist diese Konfidenzregion [S 22 ( β 2 β 2 ) 2 +2S 23 ( β 2 β 2 )( β 3 β 3 )+S 33 ( β 3 β 3 ) 2 ] F crit (2ˆσ 2 ) Dies definiert eine Ellipsengleichung, das heißt, bei dem simultanen Test zweier Koeffizienten erhält man anstelle eines Konfidenzintervalls eine Konfidenzellipse. Sind die Koeffizienten β 2 und β 3 unkorreliert erhält man einen Kreis, und umso höher die Korrelation zwischen β 2 und β 3 ist, umso schmaler ist die Ellipse. Werden mehr als zwei Hypothesen gleichzeitig getestet erhält man ein höherdimensionales Ellipsoid. Beispiel: Das folgende Beispiel zeigt einen Fall, wo die F-Statistik die gemeinsame Nullhypothese β 2 = β 3 = 0 ablehnt, die individuellen t-tests einzeln aber weder die Ablehnung von β 2 = 0 noch von β 3 = 0 erlauben (auf dem 5% Niveau). Dependent Variable: Y Method: Least Squares Included observations: 50 Variable Coefficient Std. Error t-stat. Prob. const. β x 2 β x 3 β R-squared Log likelihood Adjusted R-squared S.E. of regression Sum squared resid F-statistic Durbin-Watson Stat Prob(F-statistic)

11 Empirische Wirtschaftsforschung 11 Die F-Statistik für die Nullhypothese H 0 : β 2 = 0 und β 3 = 0 ist in diesem Beispiel und kann damit mit einer Wahrscheinlichkeit kleiner als verworfen werden. In diesem Beispiel sind die Regressoren x 2 und x 3 hoch korreliert, d.h. es liegt Multikollinearität vor (der Korrelationskoeffizient zwischen x 2 und x 3 ist 0.95!), was auch zu einer Korrelation zwischen den geschätzten Koeffizienten führt. Die geschätzte Varianz-Kovarianzmatrix der Koeffizienten var(ˆβ) ist β 1 β2 β3 β β β deshalb ist die Korrelation corr( β 2, β 3 ) = / = Aufgrund dieser Korrelation ist die Konfidenzellipse in Abbildung 6.3 ziemlich schmal. Die Konfidenzintervalle für β 2 und β 3 einzeln sind in Abbildung 6.3 strichliert eingezeichnet. Zur Interpretation von Konfidenzellipsen gilt analoges wie für Konfidenzintervalle, wenn sehr viele Stichproben gezogen würden könnten wir damit rechnen, dass (1 α) 100% der resultierenden Konfidenzregionen die wahren Werte β 2 und β 3 enthalten würden. Erinnern wir uns, dass es eine enge Beziehung zwischen Konfidenzintervallen und Hypothesentests gibt. Wenn wir den unter der Nullhypothese vermuteten Wert des Parameters h mit β h bezeichnen (für h = 1,...,k), kann die Nullhypothese geschrieben werden als H 0 : β h = β h. Wenn der unter H 0 vermutete Wert β h im Konfidenzintervall liegt kann die Nullhypothese nicht verworfen werden, wenn der Wert β h hingegen außerhalb des Konfidenzintervalls liegt darf die Nullhypothese verworfen werden. Analoges gilt auch für die Konfidenzellipse. In Abbildung 6.3 ist ersichtlich, dass in diesem Beispiel weder die Nullhypothese H 0 : β 2 = 0 noch die Nullhypothese H 0 : β 3 = 0 einzeln abgelehnt werden kann, der Nullpunkt liegt innerhalb der beiden individuellen Konfidenzintervalle (als grau strichlierte Linien eingezeichnet). Hingegen kann die gemeinsame Nullhypothese, dass beide Steigungskoeffizienten simultan gleich Null sind H 0 : β 2 = 0 und β 3 = 0, abgelehnt werden, der Nullpunkt liegt außerhalb der Konfidenzellipse! Man sieht in Abbildung 6.3, dass es sehr viele Punkte wie z.b. (β 2,β 3) gibt, die ähnlich wie der Nullpunkt sowohl im Konfidenzintervall von β 2 als auch im Konfidenzintervall von β 3 liegen, aber nicht in der Konfidenzellipse für β 2 und β 3. Andererseits sind auch Fälle möglich, wie z.b. Punkt (β 2,β 3 ) in Abbildung 6.3, die außerhalb der beiden individuellen Konfidenzintervalle für β 2 und β 3 liegen, aber innerhalb der Konfidenzellipse. Das bedeutet, dass beide Koeffizienten individuell signifikant von β 2 und β 3 verschieden sind (d.h. es kann sowohl H 0 : β 2 = β 2 als auch H 0 : β 3 = β 3 individuell verworfen werden), aber dass die gemeinsame Nullhypothese H 0 : β 2 = β 2 und β 3 = β 3 nicht verworfen werden kann. Im Beispiel von Abbildung 6.3 ist der empirische t-wert für die H 0 : β 2 = 0.85 gleich t emp = 2.32 (mit p = 0.025), für H 0 : β 3 = 0.1 ist t emp = (p = 0.038),

12 Empirische Wirtschaftsforschung β Konfidenzintervall für β3 ( β 2, β 3 ) (0,0) (β 2,0,β 3,0) -0.4 Konfidenzintervall für β 2 (β 2,0,β 3,0) β 2 Abbildung 6.3: 95%-Konfidenzellipse für beide Koeffizienten und Konfidenzintervalle für die beiden einzelnen Koeffizienten für die Regression aus dem Beispiel auf Seite 10. Die t-statistiken der einzelnen Koeffizienten zeigen, dass die Koeffizienten einzeln nicht signifikant von Null verschieden sind (für α = 0.05), der Nullpunkt (0,0) liegt innerhalb der individuellen Konfidenzintervalle. Wie die F-total- Statistik hingegen zeigt sind Koeffizienten gemeinsam hochsignifikant von Null verschieden, der Nullpunkt liegt außerhalb der Konfidenzellipse! Zum Beispiel können weder die H 0 : β 2 = 0 noch die H 0 : β 3 = 0 einzeln verworfen werden, aber die simultane H 0 : β 2 = 0 und β 3 = 0 wird abgelehnt (der Punkt (0,9) liegt wie viele weitere Punkte (z.b. (β 2,0,β 3,0 )) innerhalb der einzelnen Konfidenzintervalle, aber außerhalb der Konfidenzellipse. Es ist auch möglich, dass die Nullhypothesen einzeln abgelehnt werden können, aber die simultane H 0 nicht abgelehnt werden kann, z.b. werden die H 0 : β 2 = β 2,0 und die H 0 : β 3 = β 3,0 beide einzeln verworfen, aber die simultane H 0 : β 2 = β 2,0 und β 3 = β 3,0 kann nicht verworfen werden!

13 Empirische Wirtschaftsforschung 13 beide Nullhypothesen können also auf einem Signifikanzniveau von 5% verworfen werden. Aber der empirische F-Wert der gemeinsamen Nullhypothese H 0 : β 2 = 0.85 und β 3 = 0.1 ist F emp = 2.74 mit p = 0.075, die gemeinsame Nullhypothese kann also auf einem Signifikanzniveau von 5% nicht verworfen werden! Die t-statistiken der einzelnen Koeffizienten können also signifikant sein, obwohl die F-Statistik für die gemeinsame Nullhypothese nicht signifikant ist. Solche Fälle sind allerdings selten und treten meist nur bei hoher Multikollinearität auf. Als nächstes werden wir eine allgemeinere Möglichkeiten kennen lernen eine F- Statistik zu berechnen, die den Test komplexerer Nullhypothesen erlaubt. 6.3 Simultane Tests auf (mehrere) lineare Restriktionen Zahlreiche Tests beruhen auf einem Vergleich zweier Modelle. Dabei wird in der Regel ein Modell ohne Restriktion(en) geschätzt und mit einem anderen Modell verglichen, das unter Berücksichtigung einer oder mehrerer Restriktionen geschätzt wurde (vgl. Griffiths et al., 1993, Chapter 11). In diesem Fall lässt sich das restringierte Modell immer als Speziallfall eines allgemeinen (d.h. nicht restringierten) Modells darstellen. Ein Test zwischen zwei Modellen, bei denen es möglich ist eines der beiden Modelle durch geeignete Parameterrestriktionen in das andere Modell überzuführen, wird im Englischen als nested test (geschachtelte Hypothesen) bezeichnet. In diesem Abschnitt werden wir uns ausschließlich auf solche nested tests beschränken. Ein ganz einfaches Beispiel für ein Modell ohne Restriktionen sei z.b. Unter der Restriktion β 3 = 0 gilt y i = β 1 +β 2 x i2 +β 3 x i3 +ε i da 0 x i3 = 0. y i = β 1 +β 2 x i2 +ε i Wenn das wahre β 3 tatsächlich Null ist sollte ε i = ε i sein, und die beiden Stichprobenregressionsfunktionen (SRF) y i = β 1 + β 2 x i2 + β 3 x i3 +ˆε i und y i = β 1 + β 2 x i2+ˆε i sollten sehr ähnliche Residuen liefern. Ein anderes Beispiel, wenn die Nullhypothese β 3 = 1 richtig ist kann das Modell unter dieser Restriktion geschrieben werden als und die entsprechende SRF in der Form y i = β1 +β 2 x i2 +1x i3 +ε i (y i x i3 ) = β 1 + β 2 x i2 + ˆε i schätzen, wobei wir aber einen neue abhängige Variable y = (y i x i3 ) bilden müssen.

14 Empirische Wirtschaftsforschung 14 Im Prinzip werden für geschachtelte ( nested ) Tests immer zwei Gleichungen geschätzt, eine Gleichung ohne Restriktion(en), das nicht-restringierte (bzw. unrestringierte) Modell, und eine eine Gleichung mit Restriktion(en) das restringierte Modell das man im wesentlichen durch Einsetzen der Nullhypothese in das nicht restringierte Modell erhält. Dieser Test ist sehr allgemein einsetzbar und kann auch für den Test mehrerer Restriktionen verwendet werden Beispiele Im Folgenden bezeichnet q die Anzahl der Restriktionen: PRF: β 1 +β 2 x 2 +β 3 x 3 +ε Restriktion: H 0 : β 2 = β 3 (q = 1) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + ˆε Modell mit Restriktion: y = β 1 + β 2 (x 2 +x 3 )+ ˆε Wenn die Nullhypothese β 2 = β 3 wahr ist würden wir für die Schätzungen des restringierten und nicht-restringierten Modells zumindest sehr ähnliche Ergebnisse erwarten. PRF: β 1 +β 2 x 2 +β 3 x 3 +β 4 x 4 +ε Restriktion: H 0 : β 3 = 0 & β 4 = 0 (q = 2) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + β 4 x 4 + ˆε Modell mit Restriktion: y = β 1 + β 2 x 2 + ˆε PRF: β 1 +β 2 x 2 +β 3 x 3 +ε Restriktion: H 0 : β 2 +β 3 = 1 (q = 1) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + ˆε Modell mit Restriktion: y = β 1 + β 2 x 2 +(1 β 2 )x 3 + ˆε diese Gleichung kann in der folgenden Form geschätzt werden: y x 3 = β 1 + β 2(x 2 x 3 )+ ˆε Man beachte, dass in diesem Fall zwei neue Variablen y x 3 und x 2 x 3 angelegt werden müssen. PRF: β 1 +β 2 x 2 +β 3 x 3 +β 4 x 4 +ε Restriktion: H 0 : β 2 = 0.5 β 3 & β 4 = 1 (q = 2) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + β 4 x 4 + ˆε Modell mit Restriktionen: y +x 4 = β 1 + β 3 [0.5x 2 +x 3 ]+ ˆε

15 Empirische Wirtschaftsforschung 15 Wenn die entsprechenden Nullhypothesen wahr sind würden wir für die Schätzungen der Stichprobenregressionsfunktionen des restringierten und nicht-restringierten Modells sehr ähnliche Ergebnisse erwarten, insbesondere sollten sich auch die Quadratsummen der Residuen des nicht-restringierten und des restringierten Modells nicht stark unterscheiden. Tatsächlich kann man zeigen, dass aus diesen Quadratsummen der Residuen eine einfache Teststatistik konstruiert werden kann, die einen Test der Nullhypothese(n) erlaubt. Wenn wir mit SSR u (Sum od Squared Residuals) die Quadratsumme der Residuen ohne Restriktionen (der Subindex u für unrestricted) und mit SSR r die Quadratsumme der Residuen des r estringierten Modells bezeichnen, so kann man zeigen, dass der Skalar F-Stat = (SSR r SSR u )/q SSR u /(n k) H 0 Fq,n k (6.1) unter H 0 F-verteilt ist mit q Zähler und (n k) Nennerfreiheitsgraden, wobei q die Anzahl der Restriktionen bezeichnet. 11 Zwiscehnfrage: Warum muss immer gelten SSR r SSR u? Dieser Test ist sehr allgemein und kann für verschiedenste Tests von Restriktionen auf Koeffizienten verwendet werden. Mit Hilfe dieser Teststatistik kann wieder der p-wert nach Fisher berechnet werden, oder man kann einen Neyman und Pearson vorgehen 1. Formuliere Null- und Alternativhypothese. 2. Lege a priori ein Signifikanzniveau α fest. 3. Verwende die Information über die Teststatistik und die Freiheitsgrade, um den kritischen Wert Fq,n k crit in eienr F-Tabelle nachzuschlagen. Verwende diesen um Annahme- und Verwerfungsbereich festzulegen. 4. Schätze das Modell ohne Restriktionen mittels OLS. Berechne aus diesem nicht restringierten Modell die Quadratsumme der Residuen SSR u (in EViews z.b. mit in R deviance(eqname); in Stata mit dem postestimation Befehl e(rss)). 5. Schätze das Modell mit den Restriktionen der Nullhypothese (das restringierte Modell) mittels OLS. Berechne daraus die restringierte Quadratsumme der Residuen SSR r. 6. Berechne daraus den empirischen Wert der F-Statistik F emp = (SSR r SSR u )/q SSR u /(n k) wobei die Zählerfreiheitsgrade q die Anzahl der Restriktionen sind, n k die Nennerfreiheitsgrade. 11 Die Quadratsumme der Residuen ist n i=1 ˆε2 i und kann in Vektorschreibweise auch als inneres Produkt des Residuenvektors geschrieben werden ˆε ˆε.

Einfache Hypothesentests für multiple Regressionen

Einfache Hypothesentests für multiple Regressionen Kapitel 6 Einfache Hypothesentests für multiple Regressionen Economists have inherited from the physical sciences the myth that scientific inference is objective, and free of personal prejudice. This is

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Multiple Regression II: Signifikanztests, Gewichtung, Multikollinearität und Kohortenanalyse

Multiple Regression II: Signifikanztests, Gewichtung, Multikollinearität und Kohortenanalyse Multiple Regression II: Signifikanztests,, Multikollinearität und Kohortenanalyse Statistik II Übersicht Literatur Kausalität und Regression Inferenz und standardisierte Koeffizienten Statistik II Multiple

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen

1 Interaktion von zwei Dummyvariablen. 2 Interaktion einer Dummyvariablen mit einer kardinalskalierten Variablen Modelle mit Interationsvariablen I Modelle mit Interationsvariablen II In der beim White-Test verwendeten Regressionsfuntion y = β 0 + β 1 x 1 + β 2 x 2 + β 3 x 2 1 + β 4 x 2 2 + β 5 x 1 x 2, ist anders

Mehr

Bachelorprüfung. Praxis der empirischen Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Name, Vorname. Matrikelnr. E-Mail. Studiengang.

Bachelorprüfung. Praxis der empirischen Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Name, Vorname. Matrikelnr. E-Mail. Studiengang. Lehrstuhl für Statistik und empirische Wirtschaftsforschung Fach: Prüfer: Bachelorprüfung Praxis der empirischen Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Name, Vorname Matrikelnr. E-Mail Studiengang

Mehr

Statistik Einführung // Lineare Regression 9 p.2/72

Statistik Einführung // Lineare Regression 9 p.2/72 Statistik Einführung Lineare Regression Kapitel 9 Statistik WU Wien Gerhard Derflinger Michael Hauser Jörg Lenneis Josef Ledold Günter Tirler Rosmarie Wakolbinger Statistik Einführung // Lineare Regression

Mehr

Eine Einführung in R: Statistische Tests

Eine Einführung in R: Statistische Tests Eine Einführung in R: Statistische Tests Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.uni-leipzig.de/ zuber/teaching/ws12/r-kurs/

Mehr

Prüfung im Fach Ökonometrie im WS 2011/12 Aufgabenteil. Name, Vorname. Matrikelnr. Studiengang. E-Mail-Adresse. Unterschrift

Prüfung im Fach Ökonometrie im WS 2011/12 Aufgabenteil. Name, Vorname. Matrikelnr. Studiengang. E-Mail-Adresse. Unterschrift Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im Fach Ökonometrie im WS 2011/12 Aufgabenteil Name, Vorname Matrikelnr. Studiengang E-Mail-Adresse Unterschrift

Mehr

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression Institut für Soziologie Methoden 2 Regressionsanalyse I: Einfache lineare Regression Programm Anwendungsbereich Vorgehensweise Interpretation Annahmen Zusammenfassung Übungsaufgabe Literatur # 2 Anwendungsbereich

Mehr

1 Statistische Grundlagen

1 Statistische Grundlagen Konzepte in Empirische Ökonomie 1 (Winter) Hier findest Du ein paar Tipps zu den Konzepten in Empirische 1. Wenn Du aber noch etwas Unterstützung kurz vor der Klausur brauchst, schreib uns eine kurze Email.

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

Lineare Modelle in R: Einweg-Varianzanalyse

Lineare Modelle in R: Einweg-Varianzanalyse Lineare Modelle in R: Einweg-Varianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon in der Vorlesung wollen wir hier zur Illustration der Einweg-Analyse die logarithmierten Ausgaben der

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann

Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Versuchsplanung SoSe 2015 R - Lösung zu Übung 1 am 24.04.2015 Autor: Ludwig Bothmann Contents Aufgabe 1 1 b) Schätzer................................................. 3 c) Residuenquadratsummen........................................

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig

Mehr

Lösung zu Kapitel 11: Beispiel 1

Lösung zu Kapitel 11: Beispiel 1 Lösung zu Kapitel 11: Beispiel 1 Eine Untersuchung bei 253 Personen zur Kundenzufriedenheit mit einer Einzelhandelskette im Südosten der USA enthält Variablen mit sozialstatistischen Daten der befragten

Mehr

Bachelorprüfung. Praxis der empirischen Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Name, Vorname. Matrikelnr. E-Mail. Studiengang.

Bachelorprüfung. Praxis der empirischen Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Name, Vorname. Matrikelnr. E-Mail. Studiengang. Lehrstuhl für Statistik und empirische irtschaftsforschung, SS 2009 ach: Prüfer: Bachelorprüfung Praxis der empirischen irtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Name, Vorname Matrikelnr. E-Mail

Mehr

Tutorium Wirtschaftsprognosen und Geldpolitik. Die Taylor Regel. 2 Die Taylor Regel. 3 Die Taylor Regel für die US-Geldpolitik. 4 Strukturbruchtest

Tutorium Wirtschaftsprognosen und Geldpolitik. Die Taylor Regel. 2 Die Taylor Regel. 3 Die Taylor Regel für die US-Geldpolitik. 4 Strukturbruchtest Universität Ulm 89069 Ulm Germany Michael Elbert Alexander Rieber Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Wintersemester 011/01

Mehr

Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester 2005 26. Juli 2005

Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester 2005 26. Juli 2005 Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester 2005 26. Juli 2005 Aufgabe 1: Grundzüge der Wahrscheinlichkeitsrechnung 19 P. Als Manager eines großen

Mehr

Prüfen von Mittelwertsunterschieden: t-test

Prüfen von Mittelwertsunterschieden: t-test Prüfen von Mittelwertsunterschieden: t-test Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) t-test

Mehr

Analytische Statistik I. Statistische Methoden in der Korpuslinguistik Heike Zinsmeister WS 2009/10

Analytische Statistik I. Statistische Methoden in der Korpuslinguistik Heike Zinsmeister WS 2009/10 Analytische Statistik I Statistische Methoden in der Korpuslinguistik Heike Zinsmeister WS 2009/10 Testen Anpassungstests (goodness of fit) Weicht eine gegebene Verteilung signifikant von einer bekannten

Mehr

Intervallschätzer, einfache Hypothesentests und Prognosen

Intervallschätzer, einfache Hypothesentests und Prognosen Kapitel 5 Intervallschätzer, einfache Hypothesentests und Prognosen The greatest enemy of knowledge is not ignorance, it is the illusion of knowledge. (Stephen Hawking) Bisher haben wir uns im wesentlichen

Mehr

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1

Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 LÖSUNG 9B a) Lösungen zu Janssen/Laatz, Statistische Datenanalyse mit SPSS 1 Man kann erwarten, dass der Absatz mit steigendem Preis abnimmt, mit höherer Anzahl der Außendienstmitarbeiter sowie mit erhöhten

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER DAS THEMA: INFERENZSTATISTIK IV INFERENZSTATISTISCHE AUSSAGEN FÜR ZUSAMMENHÄNGE UND UNTERSCHIEDE Inferenzstatistik für Zusammenhänge Inferenzstatistik für Unterschiede

Mehr

Übung zur Empirischen Wirtschaftsforschung. VI. Die Taylor Regel. 6.2 Die Taylor Regel. 6.3 Die Taylor Regel für die US-Geldpolitik

Übung zur Empirischen Wirtschaftsforschung. VI. Die Taylor Regel. 6.2 Die Taylor Regel. 6.3 Die Taylor Regel für die US-Geldpolitik Universität Ulm 89069 Ulm Germany Dipl.-Math. oec. Daniel Siepe Benedikt Blattner Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

Prognosen. Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen. Auch ein Weiser hat nicht immer recht Prognosefehler sind hoch

Prognosen. Prognosen sind schwierig, besonders wenn sie die Zukunft betreffen. Auch ein Weiser hat nicht immer recht Prognosefehler sind hoch Universität Ulm 8969 Ulm Germany Dipl.-WiWi Sabrina Böck Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Wintersemester 8/9 Prognosen

Mehr

Einfache Modelle für Paneldaten. Statistik II

Einfache Modelle für Paneldaten. Statistik II Einfache Modelle für daten Statistik II Wiederholung Literatur daten Policy-Analyse II: Statistik II daten (1/18) Literatur Zum Nachlesen Einfache Modelle für daten Wooldridge ch. 13.1-13.4 (im Reader)

Mehr

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell: Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen LV-Leiterin: Univ.Prof.Dr. Sylvia Frühwirth-Schnatter 1 Wahr oder falsch? 1. Das folgende Modell ist ein GARCH(1,1)-Modell: Y

Mehr

VI. Die Taylor Regel

VI. Die Taylor Regel Universität Ulm 89069 Ulm Germany Dipl.-Kfm. Philipp Buss B.A. Alexander Rieber Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester

Mehr

Univariate Lineare Regression. (eine unabhängige Variable)

Univariate Lineare Regression. (eine unabhängige Variable) Univariate Lineare Regression (eine unabhängige Variable) Lineare Regression y=a+bx Präzise lineare Beziehung a.. Intercept b..anstieg y..abhängige Variable x..unabhängige Variable Lineare Regression y=a+bx+e

Mehr

Panelregression (und Mehrebenenanwendungen)

Panelregression (und Mehrebenenanwendungen) Panelregression (und Mehrebenenanwendungen) Henning Lohmann Universität zu Köln Lehrstuhl für Empirische Sozial- und Wirtschaftsforschung SOEP@Campus 2007, Universität Duisburg-Essen, 11. Oktober 2007

Mehr

Kategoriale abhängige Variablen:

Kategoriale abhängige Variablen: Kategoriale abhängige Variablen: Logit- und Probit -Modelle Statistik II Literatur Annahmen und Annahmeverletzungen Funktionen Exponenten, Wurzeln usw. Das Problem Das binäre Logit-Modell Statistik II

Mehr

Statistische Auswertung der Daten von Blatt 13

Statistische Auswertung der Daten von Blatt 13 Statistische Auswertung der Daten von Blatt 13 Problemstellung 1 Graphische Darstellung der Daten 1 Diskussion der Normalverteilung 3 Mittelwerte und deren Konfidenzbereiche 3 Signifikanz der Behandlung

Mehr

Beispiel für Varianzanalyse in multipler Regression mit zwei erklärenden Variablen

Beispiel für Varianzanalyse in multipler Regression mit zwei erklärenden Variablen 4. Multiple Regression Ökonometrie I - Peter Stalder 1 Beispiel für Varianzanalyse in multipler Regression mit zwei erklärenden Variablen Hypothese: Die Inflation hängt positiv von der Inflation im Vorjahr

Mehr

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt. L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 8. Februar 2007 Hinweise:

Mehr

Klausur STATISTIK 2 für Diplom VWL

Klausur STATISTIK 2 für Diplom VWL Klausur STATISTIK 2 für Diplom VWL Name, Vorname: Matrikel-Nr. Die Klausur enthält zwei Typen von Aufgaben: Teil A besteht aus Fragen mit mehreren vorgegebenen Antwortvorschlägen, von denen mindestens

Mehr

Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1

Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1 Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1 Aufgabe 1: Betrachtet wird folgendes Modell zur Erklärung des Managergehalts salary durch den Umsatz sales, die Eigenkapitalrendite roe und die

Mehr

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Das Dialogfeld für die Regressionsanalyse (Lineare Regression) findet sich im Statistik- Menu unter Regression-Linear: Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur

Mehr

Spezifikations- & Datenprobleme

Spezifikations- & Datenprobleme Kapitel 14 Spezifikations- & Datenprobleme Man is impelled to invent theories to account for what happens in the world. Unfortunately, he is not quite intelligent enough, in most cases, to find correct

Mehr

Franz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst. Excel Edition. ^ Springer Spektrum

Franz Kronthaler. Statistik angewandt. Datenanalyse ist (k)eine Kunst. Excel Edition. ^ Springer Spektrum Franz Kronthaler Statistik angewandt Datenanalyse ist (k)eine Kunst Excel Edition ^ Springer Spektrum Inhaltsverzeichnis Teil I Basiswissen und Werkzeuge, um Statistik anzuwenden 1 Statistik ist Spaß 3

Mehr

Willkommen zur Vorlesung Statistik (Master)

Willkommen zur Vorlesung Statistik (Master) Willkommen zur Vorlesung Statistik (Master) Thema dieser Vorlesung: Verteilungsfreie Verfahren Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften

Mehr

Finanzmarkttheorie I. Performancemessung in EViews Übungsunterlage. Prof. Dr. Heinz Zimmermann WWZ Uni Basel Frühling 2015

Finanzmarkttheorie I. Performancemessung in EViews Übungsunterlage. Prof. Dr. Heinz Zimmermann WWZ Uni Basel Frühling 2015 Prof. Dr. Heinz Zimmermann WWZ Uni Basel Frühling 2015 Finanzmarkttheorie I Performancemessung in EViews Übungsunterlage Die vorliegende Unterlage liefert eine kurze Einführung in die Schätzung linearer

Mehr

Musterlösung zu Serie 14

Musterlösung zu Serie 14 Dr. Lukas Meier Statistik und Wahrscheinlichkeitsrechnung FS 21 Musterlösung zu Serie 14 1. Der Datensatz von Forbes zeigt Messungen von Siedepunkt (in F) und Luftdruck (in inches of mercury) an verschiedenen

Mehr

Klausur Sommersemester 2010

Klausur Sommersemester 2010 Klausur Sommersemester 2010 Lehrstuhl: Wirtschaftspolitik Prüfungsfach: Empirische Wirtschaftsforschung Prüfer: Prof. Dr. K. Kraft Datum: 04.08.2010 Hilfsmittel: Nicht-programmierbarer Taschenrechner Klausurdauer:

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

Zeitreihen. Statistik II

Zeitreihen. Statistik II Statistik II Wiederholung Literatur -Daten Trends und Saisonalität Fehlerstruktur Statistik II (1/31) Wiederholung Literatur -Daten Trends und Saisonalität Fehlerstruktur Statistik II (1/31) Zum Nachlesen

Mehr

Dynamische Modelle. 1 Ökonomische Relevanz. 2 Ökonometrische Modelle. a) Statisches Modell und Differenzenbildung

Dynamische Modelle. 1 Ökonomische Relevanz. 2 Ökonometrische Modelle. a) Statisches Modell und Differenzenbildung Universität Ulm 89069 Ulm Germany Prof. Dr. Werner Smolny Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Institutsdirektor Sommersemester

Mehr

29. Mai 2006. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

29. Mai 2006. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt. L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 29. Mai 2006 Hinweise:

Mehr

8. Methoden der klassischen multivariaten Statistik

8. Methoden der klassischen multivariaten Statistik 8. Methoden der klassischen multivariaten Statistik 8.1. Darstellung von Daten Voraussetzungen auch in diesem Kapitel: Grundgesamtheit (Datenraum) Ω von Objekten (Fällen, Instanzen), denen J-Tupel von

Mehr

Kategoriale abhängige Variablen: Logit- und Probit -Modelle. Statistik II

Kategoriale abhängige Variablen: Logit- und Probit -Modelle. Statistik II Kategoriale abhängige Variablen: Logit- und Probit -Modelle Statistik II Wiederholung Literatur Annahmen und Annahmeverletzungen Funktionen Exponenten, Wurzeln usw. Das Problem Das binäre Logit-Modell

Mehr

Aufgabenstellung Aufgabe 1: Betrachten Sie das folgende ökonometrische Modell: y t = α + βx t + u t (1)

Aufgabenstellung Aufgabe 1: Betrachten Sie das folgende ökonometrische Modell: y t = α + βx t + u t (1) Klausur: Einführung in die Ökonometrie Prüfer: Prof. Dr. Karl-Heinz Paqué Dr.Ludwigv.Auer Semester: WS 1999/00 Als Hilfsmittel sind zugelassen: nicht-programmierbarer Taschenrechner Diese Klausur besteht

Mehr

Übungsserie Nr. 10 mit Lösungen

Übungsserie Nr. 10 mit Lösungen Übungsserie Nr. 10 mit Lösungen 1 Ein Untersuchungsdesign sieht einen multivariaten Vergleich einer Stichprobe von Frauen mit einer Stichprobe von Männern hinsichtlich der Merkmale X1, X2 und X3 vor (Codierung:

Mehr

Interne und externe Modellvalidität

Interne und externe Modellvalidität Interne und externe Modellvalidität Interne Modellvalidität ist gegeben, o wenn statistische Inferenz bzgl. der untersuchten Grundgesamtheit zulässig ist o KQ-Schätzer der Modellparameter u. Varianzschätzer

Mehr

Motivation. Wilcoxon-Rangsummentest oder Mann-Whitney U-Test. Wilcoxon Rangsummen-Test Voraussetzungen. Bemerkungen

Motivation. Wilcoxon-Rangsummentest oder Mann-Whitney U-Test. Wilcoxon Rangsummen-Test Voraussetzungen. Bemerkungen Universität Karlsruhe (TH) Forschungsuniversität gegründet 825 Wilcoxon-Rangsummentest oder Mann-Whitney U-Test Motivation In Experimenten ist die Datenmenge oft klein Daten sind nicht normalverteilt Dann

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg : Gliederung 1 Einführung 2 Deskriptive Statistik

Mehr

Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA)

Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) Interdisziplinäres Seminar Lineare Strukturgleichungsmodelle (LISREL) Konfirmatorische Faktorenanalyse (CFA) WS 2008/09 19.11.2008 Julia Schiele und Lucie Wink Dozenten: Prof. Dr. Bühner, Prof. Dr. Küchenhoff

Mehr

Übung 1 - Konjunkturprognosen

Übung 1 - Konjunkturprognosen Universität Ulm 89069 Ulm Germany Dipl.-Math. oec. Daniel Siepe Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Wintersemester 2010/2011

Mehr

IV. Prognosen - Teil 2

IV. Prognosen - Teil 2 Universität Ulm 89069 Ulm Germany B.Sc. Daniele Sabella Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2014 Übung

Mehr

Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im Fach Ökonometrie im WS 2011/12 Lösungsskizze

Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im Fach Ökonometrie im WS 2011/12 Lösungsskizze Lehrstuhl für Statistik und empirische irtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im ach Ökonometrie im S 20/2 Lösungsskizze Aufgabe (.5 Punkte) Sie verfügen über einen Datensatz, der Informationen

Mehr

Regression mit Gretl Eine erste Einführung 1

Regression mit Gretl Eine erste Einführung 1 Kurzeinführung in Gretl S. 1 Regression mit Gretl Eine erste Einführung 1 Installation: Gretl für das entsprechende Betriebssystem herunterladen und die Setup-Datei ausführen. Hinweis: Für die Benutzung

Mehr

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression Speziell im Zusammenhang mit der Ablehnung der Globalhypothese werden bei einer linearen Einfachregression weitere Fragestellungen

Mehr

FAKTORIELLE VERSUCHSPLÄNE. Andreas Handl

FAKTORIELLE VERSUCHSPLÄNE. Andreas Handl FAKTORIELLE VERSUCHSPLÄNE Andreas Handl 1 Inhaltsverzeichnis 1 Versuchsplanung 4 2 Einfaktorielle Varianzanalyse 6 2.1 DieAnnahmen... 6 2.2 Die ANOVA-Tabelle und der F -Test... 6 2.3 Versuche mit zwei

Mehr

VI Einkommensfunktion Teil 1

VI Einkommensfunktion Teil 1 Universität Ulm 89069 Ulm Germany Dipl.-Math. oec. Daniel Siepe Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur

Mehr

6. METRISCHE UND KATEGORIALE MERKMALE

6. METRISCHE UND KATEGORIALE MERKMALE 6. METRISCHE UND KATEGORIALE MERKMALE wenn an einer Beobachtungseinheit eine (oder mehrere) metrische und eine (oder mehrere) kategoriale Variable(n) erhoben wurden Beispiel: Haushaltsarbeit von Teenagern

Mehr

Nachholklausur STATISTIK II

Nachholklausur STATISTIK II Nachholklausur STATISTIK II Name, Vorname: Matrikel-Nr.: Die Klausur enthält zwei Typen von Aufgaben: T e i l A besteht aus Fragen mit mehreren vorgegebenen Antwortvorschlägen, von denen mindestens eine

Mehr

Multinomiale logistische Regression

Multinomiale logistische Regression Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable

Mehr

Wahrscheinlichkeitsrechnung und Statistik für Biologen 5. Der zwei-stichproben-t-test. und der Wilcoxon-Test

Wahrscheinlichkeitsrechnung und Statistik für Biologen 5. Der zwei-stichproben-t-test. und der Wilcoxon-Test Wahrscheinlichkeitsrechnung und Statistik für Biologen 5. Der zwei-stichproben-t-test (t-test für ungepaarte Stichproben) und der Wilcoxon-Test Dirk Metzler 22. Mai 2015 Inhaltsverzeichnis 1 Wiederholung:

Mehr

9. StatistischeTests. 9.1 Konzeption

9. StatistischeTests. 9.1 Konzeption 9. StatistischeTests 9.1 Konzeption Statistische Tests dienen zur Überprüfung von Hypothesen über einen Parameter der Grundgesamtheit (bei einem Ein-Stichproben-Test) oder über die Verteilung einer Zufallsvariablen

Mehr

Die Varianzanalyse ohne Messwiederholung. Jonathan Harrington. Bi8e noch einmal datasets.zip laden

Die Varianzanalyse ohne Messwiederholung. Jonathan Harrington. Bi8e noch einmal datasets.zip laden Die Varianzanalyse ohne Messwiederholung Jonathan Harrington Bi8e noch einmal datasets.zip laden Variablen, Faktoren, Stufen Eine Varianzanalyse ist die Erweiterung von einem t- test t- test oder ANOVA

Mehr

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS?

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? BINARY CHOICE MODELS 1 mit Pr( Y = 1) = P Y = 0 mit Pr( Y = 0) = 1 P Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? Y i = X i β + ε i Probleme: Nonsense Predictions

Mehr

12. Vergleich mehrerer Stichproben

12. Vergleich mehrerer Stichproben 12. Vergleich mehrerer Stichproben Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Häufig wollen wir verschiedene Populationen, Verfahren, usw. miteinander vergleichen. Beipiel: Vergleich

Mehr

Einleitung 19. Teil I Datenanalyse und Modellbildung Grundlagen 25

Einleitung 19. Teil I Datenanalyse und Modellbildung Grundlagen 25 Inhaltsverzeichnis Einleitung 19 Zu diesem Buch 19 Konventionen in diesem Buch 20 Was Sie nicht lesen müssen 21 Falsche Voraussetzungen 21 Wie dieses Buch aufgebaut ist 21 Teil I: Datenanalyse und Grundlagen

Mehr

Fortgeschrittene Statistik Logistische Regression

Fortgeschrittene Statistik Logistische Regression Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E

Mehr

Varianzanalyse ANOVA

Varianzanalyse ANOVA Varianzanalyse ANOVA Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/23 Einfaktorielle Varianzanalyse (ANOVA) Bisher war man lediglich in der Lage, mit dem t-test einen Mittelwertsvergleich für

Mehr

Versuchsplanung. Teil 1 Einführung und Grundlagen. Dr. Tobias Kiesling Einführung in die Versuchsplanung

Versuchsplanung. Teil 1 Einführung und Grundlagen. Dr. Tobias Kiesling <kiesling@stat.uni-muenchen.de> Einführung in die Versuchsplanung Versuchsplanung Teil 1 Einführung und Grundlagen Dr. Tobias Kiesling Inhalt Einführung in die Versuchsplanung Hintergründe Grundlegende Prinzipien und Begriffe Vorgehensweise

Mehr

Einfache Varianzanalyse für abhängige

Einfache Varianzanalyse für abhängige Einfache Varianzanalyse für abhängige Stichproben Wie beim t-test gibt es auch bei der VA eine Alternative für abhängige Stichproben. Anmerkung: Was man unter abhängigen Stichproben versteht und wie diese

Mehr

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table("c:\\compaufg\\kredit.

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table(c:\\compaufg\\kredit. Lösung 16.3 Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit

Mehr

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13

Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression. Dipl.-Ing. Robin Ristl Wintersemester 2012/13 Vorlesung Wirtschaftsstatistik 2 (FK 040637) Multiple lineare Regression Dipl.-Ing. Robin Ristl Wintersemester 2012/13 1 Grundidee: Eine abhängige Variable soll als Linearkombination mehrerer unabhängiger

Mehr

Einige Statistische Tests für den Ein- Zwei- und k-stichprobenfall (Nach Sachs, Stat. Meth.)

Einige Statistische Tests für den Ein- Zwei- und k-stichprobenfall (Nach Sachs, Stat. Meth.) ue biostatistik: nichtparametrische testverfahren / ergänzung 1/6 h. Lettner / physik Statistische Testverfahren Einige Statistische Tests für den Ein- Zwei- und k-stichprobenfall (Nach Sachs, Stat. Meth.)

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder

Mehr

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel 16.11.01 MP1 - Grundlagen quantitativer Sozialforschung - (4) Datenanalyse 1 Gliederung Datenanalyse (inferenzstatistisch)

Mehr

1 wenn i weiblich, w i = 0 sonst.

1 wenn i weiblich, w i = 0 sonst. Kapitel 10 Multikollinearität God abhors a naked singularity. (Stephen Hawking) 10.1 Problem Von Multikollinearität, bzw. Kollinearität, spricht man, wenn zwei oder mehrere erklärende x Variablen hoch

Mehr

Kap. 12: Regression mit Zeitreihendaten und Prognosemodelle

Kap. 12: Regression mit Zeitreihendaten und Prognosemodelle Kap. 12: Regression mit Zeitreihendaten und Prognosemodelle Motivation Grundbegriffe Autoregressionen (AR-Modelle) Dynamische Regressionsmodelle (ADL-Modelle) Nichstationarität Ausblick 12.1 Motivation

Mehr

Jost Reinecke. 7. Juni 2005

Jost Reinecke. 7. Juni 2005 Universität Bielefeld 7. Juni 2005 Testtheorie Test für unabhängige Stichproben Test für abhängige Stichproben Testtheorie Die Testtheorie beinhaltet eine Reihe von Testverfahren, die sich mit der Überprüfung

Mehr

Log-lineare Analyse I

Log-lineare Analyse I 1 Log-lineare Analyse I Einleitung Die log-lineare Analysemethode wurde von L.A. Goodman in den 60er und 70er Jahren entwickelt. Sie dient zur Analyse von Zusammenhängen in mehrdimensionalen Kontingenztafeln

Mehr

Biostatistik, WS 2015/2016 Der zwei-stichproben-t-test

Biostatistik, WS 2015/2016 Der zwei-stichproben-t-test 1/29 Biostatistik, WS 2015/2016 Der zwei-stichproben-t-test (t-test für ungepaarte Stichproben) Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik1516/ 11.12.2015 2/29 Inhalt 1 t-test

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Klausur, Multivariate Verfahren, SS 2006, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 08.08.2006 Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Gesamtpunkte: 39 Aufgabe

Mehr

Kapitel 23 Lineare Regression

Kapitel 23 Lineare Regression Kapitel 23 Lineare Regression Sowohl einfache als auch multiple Regressionsanalysen können Sie mit dem Befehl STATISTIK REGRESSION LINEAR... durchführen. Dabei lassen sich mit Hilfe diverser Optionen zahlreiche

Mehr

5. Schließende Statistik. 5.1. Einführung

5. Schließende Statistik. 5.1. Einführung 5. Schließende Statistik 5.1. Einführung Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.

Mehr

Einfache Statistiken in Excel

Einfache Statistiken in Excel Einfache Statistiken in Excel Dipl.-Volkswirtin Anna Miller Bergische Universität Wuppertal Schumpeter School of Business and Economics Lehrstuhl für Internationale Wirtschaft und Regionalökonomik Raum

Mehr

Klausur Statistik Lösungshinweise

Klausur Statistik Lösungshinweise Klausur Statistik Lösungshinweise Prüfungsdatum: 1. Juli 2015 Prüfer: Etschberger, Heiden, Jansen Studiengang: IM und BW Aufgabe 1 14 Punkte Ein Freund von Ihnen hat über einen Teil seiner Daten, die er

Mehr

Statistik II für Betriebswirte Vorlesung 3

Statistik II für Betriebswirte Vorlesung 3 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 3 5. November 2013 Beispiel: Aktiensplit (Aczel & Sounderpandan, Aufg. 14-28) Ein Börsenanalyst

Mehr

DIPLOMVORPRÜFUNG GRUNDZÜGE DER STATISTIK, TEIL B WINTERSEMESTER 2006/07 28.02.2007

DIPLOMVORPRÜFUNG GRUNDZÜGE DER STATISTIK, TEIL B WINTERSEMESTER 2006/07 28.02.2007 Wirtschaftswissenschaftliches Prüfungsamt DIPLOMVORPRÜFUNG GRUNDZÜGE DER STATISTIK, TEIL B WINTERSEMESTER 006/07 8.0.007 Lösung Prof. Dr. R Friedmann / Dr. R. Hauser Hinweise für die Klausurteilnehmer

Mehr