Einfache Hypothesentests für multiple Regressionen

Größe: px
Ab Seite anzeigen:

Download "Einfache Hypothesentests für multiple Regressionen"

Transkript

1 Kapitel 6 Einfache Hypothesentests für multiple Regressionen Economists have inherited from the physical sciences the myth that scientific inference is objective, and free of personal prejudice. This is utter nonsense. All knowledge is human belief; more accurately, human opinion.[...] statistical inference is and must forever remain an opinion. (Leamer, 1983, 36) Im Folgenden werden wir einige weitere Teststatistiken vorstellen, die uns das Testen komplexerer Hypothesen ermöglichen. Die grundsätzliche Methodologie bleibt dabei völlig gleich, das heißt, die folgenden Tests können wieder nach der Methode von Fisher oder nach Neyman und Pearson durchgeführt werden. 6.1 t-test für eine Linearkombination von Parametern Wir haben bisher nur t-tests für einzelne Regressionskoeffizienten durchgeführt. Die Vorgangsweise lässt sich aber einfach für Tests einer Linearkombination von mehreren Regressionskoeffizienten verallgemeinern. Gehen wir von folgendem einfachen Modell aus y i = β 1 +β 2 x i2 +β 3 x i3 +ε i Wenn wir zum Beispiel testen möchten, ob die Summe von β 2 und β 3 den Wert Eins hat, lauten Null- und Alternativhypothese H 0 : β 2 +β 3 = 1 gegen H A : β 2 +β 3 1 Dies ist ein sehr spezieller Fall von Null- und Alternativhypothese. 1

2 Empirische Wirtschaftsforschung 2 Etwas allgemeiner können zweiseitige Null- und Alternativhypothesen für dieses einfache Modell geschrieben werden als H 0 : c 1 β 2 +c 2 β 3 = β 0 H A : c 1 β 2 +c 2 β 3 β 0 wobei c 1 und c 2 Konstante sind und β 0 ein unter der Nullhypothese vermuteter Parameter ist. Die Konstanten c 1 und c 2 gehören ebenso wie β 0 zur Nullhypothese und erlauben eine allgemeinere Formulierung linearer Nullhypothesen. Sollte z.b. getestet werden, ob die Parameter β 2 und β 3 den gleichen Wert haben, würdenwirc 1 = +1, c 2 = 1undβ 0 = 0wählen, denndarausfolgth 0 : β 2 β 3 = 0, bzw. β 2 = β 3. Wennwirtestenmöchten,obβ 3 nurhalbsogroßistwieβ 2,abereinunterschiedliches Vorzeichen hat, würden wir c 1 = 1, c 2 = 2 und β 0 = 0 setzen, denn daraus folgt H 0 : β 2 +2β 3 = 0, bzw. β 2 = 2β 3. Auf diese Weise lassen sich fast beliebige lineare Nullhypothesen testen, die zwei oder auch mehrere Parameter betreffen. Allerdings können auf diese Weise nur einzelne Hypothesen getestet werden, einen simultanen Test mehrerer Hypothesen werden wir erst im nächsten Abschnitt kennen lernen. Das Test-Prinzip für einzelne lineare Hypothesen, die auch mehrere Parameter betreffen können, ist einfach: wenn die Nullhypothese wahr ist gilt in der Grundgesamtheit z.b. c 1 β 2 +c 2 β 3 β 0 = 0 Selbst wenn dies in der Grundgesamtheit exakt gilt müssen wir in der Stichprobe damit rechnen, dass aufgrund von Zufallschwankungen dieser Zusammenhang nicht exakt erfüllt ist, also c 1 β2 +c 2 β3 β 0 = v wobei v relativ nahe bei Null liegen sollte, wenn die Nullhypothese wahr ist. Zudem ist v eine Linearkombination der Zufallsvariablen β 2 und β 3. Wenn β 2 und β 3 normalverteilt sind ist auch v normalverteilt. Außerdem ist bei Gültigkeit der Nullhypothese E(v) = 0, um eine Teststatistik zu erhalten brauchen wir also nur durch den Standardfehler von v zu dividieren. Da v eine Linearkombination der Zufallsvariablen β 2 und β 3 ist gestaltet sich dies sehr einfach, wir brauchen nur die Rechenregel für das Rechnen mit Varianzen anzuwenden 1 var(v) = var(c 1 β2 ±c 2 β3 β 0 ) = c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 ĉov( β 2, β 3 ) Wir haben bisher zwar nur für das bivariate Modell einen Schätzer für die Kovarianz zwischen Interzept und Steigungskoeffizient, d.h. ĉov( β 1, β 2 ), hergeleitet, aber wir werden im Kapitel zur Matrixschreibweise zeigen, dass auch die Kovarianzen zwischen Steigungskoeffizienten ähnlich einfach berechnet werden können. Die üblichen Programme geben die Varianz-Kovarianzmatrix der Koeffizienten zwar nicht 1 var(c 0 + c 1 x ± c 2 y) = E[(c 0 + c 1 x ± c 2 y) E(c 0 + c 1 x ± c 2 y)] 2 = c 2 1var(x) + c 2 2var(y) ± 2c 1 c 2 cov(x,y).

3 Empirische Wirtschaftsforschung 3 unmittelbar aus, aber man kann einfach mit den entsprechenden Befehlen darauf zugreifen. 2 Da die Varianz des Nenners aus der Stichprobe berechnet werden muss ist die Teststatistik v ŝe(v) = c 1 β2 ±c 2 β3 β 0 c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 ĉov( β 2, β 3 ) unter H 0 t-verteilt mit n k Freiheitsgraden. Diese Teststatistik (t) hat die Form t = Empirisches Analogon zur H 0 in impliziter Form Standardfehler vom Zähler H 0 tn k H 0 tn k Dies ist offensichtlich nur eine kleine Erweiterung der üblichen Tests für einen Koeffizienten für Fälle, in denen eine Hypothese über eine Linearkombination von zwei (oder mehreren) Koeffizienten getestet werden soll. Mit Hilfe dieser Teststatistik kann wieder der p-wert à la Fisher berechnet werden, oder eine Entscheidung nach der Methode Neyman und Pearson gefällt werden 1. Formulierung von Null- und Alternativhypothese. 2. Festlegung eines Signifikanzniveaus α. 3. Wahl der geeigneten Teststatistik ohne unbekannten Parametern und mit bekannter Verteilung c 1 β2 ±c 2 β3 β 0 c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 ĉov( β 2, β 3 ) 4. Ermittlung des dazugehörigen kritischen Wertes t crit α/2 mittels einer t Tabelle; Bestimmung von Annahme- und Verwerfungsbereich. H 0 tn k für n k Freiheitsgrade 5. Berechnung der Punktschätzer β 2, β 3 sowie der dazugehörigen Varianz- Kovarianzmatrix von β 2 und β 3 aus der Stichprobe. Überprüfen, ob alle zugrunde liegenden Annahmen (korrekte Spezifikation, unverzerrte Stichprobe, normalverteilte Störterme 3, etc.) erfüllt sind. Falls die Annahmen erfüllt sind, Berechnung des empirischen Werts der Teststatistik durch Einsetzen der empirischen Realisationen in die Teststatistik t emp = (c 1 β2 ±c 2 β3 ) β 0 c 2 1 var( β 2 )+c 2 2 var( β 3 )±2c 1 c 2 cov( β 2, β 3 ) 2 In EViews erhält man die geschätzte Varianz-Kovarianzmatrixder Koeffizienten mit der in Stata mit dem postestimation Befehl e(v); in R mit vcov. 3 Wenn die Störterme ε i nicht normalverteilt sind nähert sich die Verteilung unter den üblichen Annahmen mit steigendem Stichprobenumfang einer Normalverteilung an (Zentraler Grenzwertsatz).

4 Empirische Wirtschaftsforschung 4 6. Überprüfen, ob der empirische Wert t emp in den Annahme- oder Verwerfungsbereich fällt, und dementsprechende Entscheidung fällen. Beispiel: Angenommen wir erhalten folgende Schätzung einer Cobb-Douglas Produktionsfunktion und möchten testen, ob konstante Skalenerträge vorliegen. 4 Dependent Variable: LOG(Q) Included observations: 25 Variable Coefficient Std. Error t-stat. Prob. C β LOG(K) β LOG(L) β R-squared S.E. of regression Sum squared resid F-statistic Durbin-Watson Stat Prob(F-statistic) Die meisten Computerprogramme liefern auch die dazugehörige Varianz- Kovarianzmatrix der Koeffizienten 5 (Coefficient Covariance Matrix) var(ˆβ): C LOG(K) LOG(L) C LOG(K) LOG(L) Bei Cobb-Douglas Funktionen liegen konstante Skalenerträge vor, wenn β 2 +β 3 = 1. Die Nullhypothese ist also H 0 : β 2 +β 3 = 1 (diese Hypothese ist ein Spezialfall von H 0 : c 1 β 2 +c 2 β 3 = β 0 mit c 1 = c 2 = β 0 = 1) Die entsprechende t-statistik ist deshalb t-stat = = β 2 + β 3 1 var( β 2 )+ var( β 3 )+2ĉov( β 2, β 3 ) = = Der kritische t-wert für einen zweiseitigen Test mit 22 Freiheitsgraden ist t crit = , deshalb können wir die Nullhypothese konstanter Skalenerträge(sehr knapp) nicht verwerfen. 4 Eine Cobb-Douglas Funktion hat die Form Q = AK β2 L β3. Durch Logarithmieren erhält man eine in den Parametern lineare Funktion ln(q) = β 1 + β 2 ln(k) + β 3 ln(l), mit β 1 = ln(a) die einfach mit OLS geschätzt werden kann. 5 In EViews erhält man die geschätzte Varianz-Kovarianzmatrixder Koeffizienten mit der in Stata mit dem postestimation Befehl e(v); in R mit vcov.

5 Empirische Wirtschaftsforschung 5 Um den p-wert zu berechnen benötigt man den Wert der Verteilungsfunktion. Wenn wir mit Φ(x, q) den Wert der Verteilungsfunktion einer t-verteilung mit q Freiheitsgraden an der Stelle x bezeichnen errechnet sich der p-wert als p = 2(1 Φ( ,22)) = Solche Tests sind in fast allen Statistik- und Ökonometrieprogrammen fix implementiert, aber man kann sie auch einfach programmieren. Zum Beispiel öffnet der folgende EViews Code die Excel Tabelle mit den Daten und berechnet den dazugehörigen p-wert 7 (die Daten können unter heruntergeladen werden). EViews: wfopen "http://www.uibk.ac.at/econometrics/data/prodfunkt.xls" equation CD.ls log(q) c log(k) log(l) scalar t_stat = (c(2) + c(3) - _ + + ) scalar pval = 2*(1 - Wurde der geschätzten Regressionsgleichung wie oben der Name CD gegeben geht das gleiche auch deutlich einfacher mit dem Befehl 8 CD.wald c(2) + c(3) = 1. Oder in R: rm(list=ls(all=true)) CD <- read.table("http://www.uibk.ac.at/econometrics/data/prodfunkt.csv", dec = ".", sep=";", header=true) eq1 <- lm(log(cd$q) ~ log(cd$k) + log(cd$l)) tstat <- (coef(eq1)[2] + coef(eq1)[3] - 1) / sqrt(vcov(eq1)[2,2] + vcov(eq1)[3,3] + 2*vcov(eq1)[2,3]) pval <- 2*(1-(pt(abs(tstat),22))) Stata: insheet using "http://www.uibk.ac.at/econometrics/data/prodfunkt.csv", /// delim(";") names clear gen logq = log(q) gen logk = log(k) gen logl = log(l) regress logq logk logl matrix V = e(v) scalar tstat = (_b[logk] + _b[logl] - 1) / sqrt( V[1,1] + V[2,2] + 2*V[1,2]) dis "t-statistic: " tstat dis "p-value: " 2*ttail(22,abs(tstat)) 6 In EViews ist der Befehl dazu coef p = in Excel erhalten Sie den p-wert mit der Funktion =TVERT(ABS( );22;2) 7 Selbstverständlich kann dieser Test in EViews weit einfacher durchgeführt werden, dieses Progrämmchen dient nur didaktischen Zwecken. 8 Dieser Test ist ein Spezialfall eines Wald Tests, der 1943 von dem Mathematiker Abraham Wald entwickelt wurde.

6 Empirische Wirtschaftsforschung 6 oder test logk + logl = 1 Übung: Wie würden Sie für das Modell y = β 1 +β 2 x 2 +β 3 x 3 +ε die Nullhypothese β 2 = β 3 testen? Zeigen Sie dies für für das Beispiel mit der Cobb-Douglas Funktion (Lösung: t emp = , p-wert = ). Eine große Einschränkung dieses Tests besteht darin, dass er nicht für den Test mehrerer Hypothesen verwendet werden kann. Zum Beispiel können wir damit nicht die Nullhypothese H 0 : β 2 = 0 und β 3 = 0 simultan testen. Im Folgenden werden wir nun einige Tests kennen lernen, mit deren Hilfe mehr als eine Hypothese simultan getestet werden kann, z.b. eine Nullhypothese H 0 : β 2 = 0 und β 3 = 0. Wir werden sehen, dass solche Tests sehr häufig auf der (nach R. Fisher benannten) F-Verteilung beruhen. Die Art der Tests, die wir nun vorstellen werden, sind ein Spezialfall einer ganzen Testfamilie, die in der Statistik als Wald-Tests bekannt sind. 9 Im nächsten Abschnitt werden wir einen Test auf die den Erklärungsgehalt aller erklärenden Variablen vorstellen, die sogenannte F-total Statistik. 6.2 ANOVA-Tafel und Test auf Signifikanz aller Steigungs-Koeffizienten Wir erinnern uns, dass wir für die Herleitung des Bestimmtheitsmaßes R 2 folgende Streuungs-Zerlegung vornahmen (yi ȳ) 2 } {{ } TSS = (ŷ i ȳ) 2 } {{ } ESS + ˆε 2 i } {{ } SSR wobei TSS für Total Sum of Squares, ESS für Explained Sum of Squares und SSR für Sum of Squared Residuals 10 steht. Dies führt zu folgender ANOVA-Tafel ( ANalysis Of VAriance Table ) Sum of Mean Squares df Square Regression ESS k 1 ESS/(k 1) Residuen SSR n k SSR/(n k) Total TSS n 1 wobei df für degrees of freedom (Freiheitsgrade) steht. Mit Hilfe der ANOVA-Tafel, die von den vielen Statistik-Programmen ausgegeben wird, kann man eine F-Statistik für die Nullhypothese H 0 : β 2 = β 3 = = β k = 0 9 Dieses Testprinzip ist nach Abraham Wald ( ) benannt, ein aus Siebenbürgen stammender deutschsprachiger Mathematiker und einer der bedeutendsten Statistiker des 20. Jahrhunderts. Neben Wald Tests spielen in der Statistik v.a. Likelihood-Ratio Tests und Lagrange-Multiplier Tests eine wichtige Rolle. 10 Manchmal wird dafür auch RSS für Residual Sum Squared geschrieben.

7 Empirische Wirtschaftsforschung 7 konstruieren; das heißt für die Nullhypothese, dass alle Koeffizienten mit Ausnahme des Interzepts β 1 simultan gleich Null sind, oder in anderen Worten, dass alle k 1 Steigungskoeffizienten simultan gleich Null sind. Eine andere Möglichkeit diese Nullhypothese zu interpretieren ist H 0 : E(y x 2,...,x k ) = E(y) wenn der bedingte Erwartungswert von y gleich dem unbedingten Erwartungswert ist leisten die erklärenden Variablen auch gemeinsam keinen Erklärungsbeitrag. In diesem Falle erklärt eine Regression auf die Regressionskonstante y = β 1 + ε die Daten gleich gut wie die lange Regression y = β 1 +β 2 x 2 + +β k x k +ε. Die Alternativhypothese ist H A : mindestens einer der Steigungskoeffizienten ist ungleich Null Wenn diese Nullhypothese wahr ist, sollten alle x Variablen auch gemeinsam keinen Erklärungsbeitrag für y leisten. Wenn die Störterme der Grundgesamtheit normalverteilt sind ist bei Zutreffen der Nullhypothese die Quadratsumme i (ŷ i ȳ) 2 /σ 2 bekanntlich χ 2 -verteilt mit k 1 Freiheitsgraden, und i ˆε2 i/σ 2 unabhängig davon χ 2 -verteilt mit n k Freiheitsgraden. Das Verhältnis zweier unabhängig χ 2 verteilten Zufallsvariablen, die beide durch die entsprechenden Freiheitsgrade dividiert wurden, ist F-verteilt (vgl. Statistischen Appendix), deshalb ist die Teststatistik F-total Statistik = i (ŷ i ȳ) 2 i ˆε2 i n k k 1 ESS/(k 1) H = 0 F(k 1,n k) SSR/(n k) F-verteilt mit k 1 Zähler- und n k Nennerfreiheitsgraden. Wenn die durch alle erklärenden x Variablen gemeinsam erklärte Streuung ESS sehr klein ist im Verhältnis zur unerklärten Streuung SSR würde man einen sehr kleinen Wert der empirischen Statistik F emp erwarten. Wenn umgekehrt ESS groß ist im Verhältnis zu SSR leisten alle x Variablen gemeinsam offensichtlich einen großen Erklärungsbeitrag. Die Nullhypothese β 2 = β 3 = = β k = 0 wird deshalb verworfen, wenn der empirische Wert dieser F-Statistik größer ist als der kritische Wert F crit der F-Statistik, vgl. Abbildung 6.1. Der zur F-total Statistik gehörende p-wert ist wieder die Fläche unter der Verteilung rechts vom berechneten F emp -Wert, und wird standardmäßig von allen statistischen Programmpaketen ausgewiesen. Das Programm STATA liefert z.b. den in Tabelle 6.1 wiedergegebenen Regressionsoutput für das Beispiel mit der Produktionsfunktion; im Kopf des Outputs wird die komplette ANOVA-Tafel wiedergegeben. Dabei ist Model SS die ESS ( Explained Sum of Squares ), die Residual SS die SSR ( Sum of Squared Residuals ) und Total SS die TSS ( Total Sum of Squares ). Für Produktionsfunktions-Beispiel folgt (siehe Tabelle 6.1) F-total Stat = /(3 1) /(25 3) = EViews und R geben die ESS und TSS nicht automatisch aus, sondern nur die F-Statistik mit dem dazugehörigen p-wert.

8 Empirische Wirtschaftsforschung 8 f(f) Akzeptiere H 0 Verwirf H 0 F c F Abbildung 6.1: F-Test Tabelle 6.1: STATA Output Source SS df MS Number of obs = F( 2, 22) = Model Prob > F = Residual R-squared = Adj R-squared = Total Root MSE = log_q Coef. Std. Err. t P> t [95% Conf. Interval] const log_k log_l Exkurs Diese F-total Statistik kann alternativ auch mit Hilfe des Bestimmtheitsmaßes R 2 berechnet werden, denn unter Berücksichtigung von TSS = ESS + SSR und R 2 = ESS/TSS ESS/(k 1) F-total Stat = SSR/(n k) = n k ESS k 1 SSR = n k ESS k 1 TSS ESS = n k [ ] ESS/TSS k 1 1 (ESS/TSS) = n k [ ] R 2 k 1 1 R 2 Also F-total Stat = R 2 /(k 1) (1 R 2 )/(n k)

9 Empirische Wirtschaftsforschung 9 Die Alternativhypothese, dass zumindest für einen der Regressoren der wahre Wert des Regressionskoeffizienten von Null verschieden ist, wird akzeptiert, wenn die Nullhypothese H 0 : β 2 = β 3 = = β k = 0 (d.h. dass alle Koeffizienten mit Ausnahme des Interzepts β 1 gleich Null sind) verworfen wird. Man beachte, dass es sich dabei um einen simultanen Test von insgesamt k 1 Hypothesen handelt, wobei k 1 die Anzahl der Steigungskoeffizienten ist. Dies ist also ein Test, ob alle Regressoren gemeinsam einen Beitrag zur Erklärung vony leisten.wennderp-wertdieserf-statistikgrößeristalsdasapriorifestgelegte Signifikanzniveau sollte die Schätzung verworfen werden. Dieser F-total Test wird häufig auch einfach F-Test genannt, zum Beispiel im Regressionsoutput fast jeder Statistiksoftware, was aber etwas verwirrend ist, da jede F-verteilte Teststatistik zu einem F-Test führt, und davon gibt es eine Unmenge. Achtung: Man beachte, dass es nicht reicht zu überprüfen, ob alle Koeffizienten individuell signifikant von Null verschieden sind. Es ist sehr gut möglich, dass kein einziger Koeffizient signifikant von Null verschieden ist, dass aber alle Koeffizienten gemeinsam trotzdem signifikant von Null verschieden sind! Wie wir später sehen werden tritt dieser Fall bei Multikollinearität (d.h. wenn die erklärenden Variablen untereinander hoch korreliert sind) relativ häufig auf. Konkret, die mit der F-Statistik getestete gemeinsame Nullhypothese H 0 : β 2 = β 3 = = β k = 0 darf nicht durch eine Reihe individueller t-tests ersetzt werden! Der Grund dafür liegt darin, dass die F-Statistik die mögliche Korrelation zwischen den OLS-Schätzern β 2, β 3,..., β k berücksichtigt, während diese bei individuellen t- Tests in dieser Form unberücksichtigt bleibt. Dies wird in Abbildung 6.2 veranschaulicht, die zwei bivariate Normalverteilungen zeigt, links ohne und rechts mit einer Korrelation zwischen den Zufallsvariablen. Wenn die Variablen unkorreliert sind (linke Grafik) wird die gemeinsame Signifikanz durch einen Signifikanzkreis dargestellt, bei Korrelation zwischen den Variablen (rechte Grafik) durch eine Konfidenzellipse, die umso schmaler wird, je höher die Korrelation ist. Wir werden später sehen, dass viele der üblichen Teststatistiken für den simultanen Test mehrerer Hypothesen unter den Standardannahmen F-verteilt sind. Sollten z.b. im Modell y i = β 1 + β 2 x i2 + β 3 x i3 + ˆε i die beiden Koeffizienten β 2 und β 3 simultan getestet werden, so kann man die folgende Teststatistik verwenden: F = 1 [ ] S 2ˆσ 2 22 ( β 2 β 2 ) 2 +2S 23 ( β 2 β 2 )( β 3 β 3 )+S 33 ( β 3 β 3 ) 2 H0 F2,n 3 mit S 22 = i (x i2 x 2 ) 2 S 23 = i S 33 = i (x i2 x 2 )(x i3 x 3 ) (x i3 x 3 ) 2

10 Empirische Wirtschaftsforschung 10 ρ = 0: ρ = 0.7: Abbildung 6.2: Bivariate Normalverteilungen ohne und mit Korrelation zwischen den Zufallsvariablen DieseTeststatistik ist unter H 0 F-verteilt mit2zähler-undn 3 Nennerfreiheitsgraden. Diese F-Statistik kann für die Konstruktion einer Konfidenzregion verwendet werden. Wenn wir mit F crit den kritischen F-Wert mit 2 Zähler- und n 3 Nennerfreiheitsgraden bezeichnen ist diese Konfidenzregion [S 22 ( β 2 β 2 ) 2 +2S 23 ( β 2 β 2 )( β 3 β 3 )+S 33 ( β 3 β 3 ) 2 ] F crit (2ˆσ 2 ) Dies definiert eine Ellipsengleichung, das heißt, bei dem simultanen Test zweier Koeffizienten erhält man anstelle eines Konfidenzintervalls eine Konfidenzellipse. Sind die Koeffizienten β 2 und β 3 unkorreliert erhält man einen Kreis, und umso höher die Korrelation zwischen β 2 und β 3 ist, umso schmaler ist die Ellipse. Werden mehr als zwei Hypothesen gleichzeitig getestet erhält man ein höherdimensionales Ellipsoid. Beispiel: Das folgende Beispiel zeigt einen Fall, wo die F-Statistik die gemeinsame Nullhypothese β 2 = β 3 = 0 ablehnt, die individuellen t-tests einzeln aber weder die Ablehnung von β 2 = 0 noch von β 3 = 0 erlauben (auf dem 5% Niveau). Dependent Variable: Y Method: Least Squares Included observations: 50 Variable Coefficient Std. Error t-stat. Prob. const. β x 2 β x 3 β R-squared Log likelihood Adjusted R-squared S.E. of regression Sum squared resid F-statistic Durbin-Watson Stat Prob(F-statistic)

11 Empirische Wirtschaftsforschung 11 Die F-Statistik für die Nullhypothese H 0 : β 2 = 0 und β 3 = 0 ist in diesem Beispiel und kann damit mit einer Wahrscheinlichkeit kleiner als verworfen werden. In diesem Beispiel sind die Regressoren x 2 und x 3 hoch korreliert, d.h. es liegt Multikollinearität vor (der Korrelationskoeffizient zwischen x 2 und x 3 ist 0.95!), was auch zu einer Korrelation zwischen den geschätzten Koeffizienten führt. Die geschätzte Varianz-Kovarianzmatrix der Koeffizienten var(ˆβ) ist β 1 β2 β3 β β β deshalb ist die Korrelation corr( β 2, β 3 ) = / = Aufgrund dieser Korrelation ist die Konfidenzellipse in Abbildung 6.3 ziemlich schmal. Die Konfidenzintervalle für β 2 und β 3 einzeln sind in Abbildung 6.3 strichliert eingezeichnet. Zur Interpretation von Konfidenzellipsen gilt analoges wie für Konfidenzintervalle, wenn sehr viele Stichproben gezogen würden könnten wir damit rechnen, dass (1 α) 100% der resultierenden Konfidenzregionen die wahren Werte β 2 und β 3 enthalten würden. Erinnern wir uns, dass es eine enge Beziehung zwischen Konfidenzintervallen und Hypothesentests gibt. Wenn wir den unter der Nullhypothese vermuteten Wert des Parameters h mit β h bezeichnen (für h = 1,...,k), kann die Nullhypothese geschrieben werden als H 0 : β h = β h. Wenn der unter H 0 vermutete Wert β h im Konfidenzintervall liegt kann die Nullhypothese nicht verworfen werden, wenn der Wert β h hingegen außerhalb des Konfidenzintervalls liegt darf die Nullhypothese verworfen werden. Analoges gilt auch für die Konfidenzellipse. In Abbildung 6.3 ist ersichtlich, dass in diesem Beispiel weder die Nullhypothese H 0 : β 2 = 0 noch die Nullhypothese H 0 : β 3 = 0 einzeln abgelehnt werden kann, der Nullpunkt liegt innerhalb der beiden individuellen Konfidenzintervalle (als grau strichlierte Linien eingezeichnet). Hingegen kann die gemeinsame Nullhypothese, dass beide Steigungskoeffizienten simultan gleich Null sind H 0 : β 2 = 0 und β 3 = 0, abgelehnt werden, der Nullpunkt liegt außerhalb der Konfidenzellipse! Man sieht in Abbildung 6.3, dass es sehr viele Punkte wie z.b. (β 2,β 3) gibt, die ähnlich wie der Nullpunkt sowohl im Konfidenzintervall von β 2 als auch im Konfidenzintervall von β 3 liegen, aber nicht in der Konfidenzellipse für β 2 und β 3. Andererseits sind auch Fälle möglich, wie z.b. Punkt (β 2,β 3 ) in Abbildung 6.3, die außerhalb der beiden individuellen Konfidenzintervalle für β 2 und β 3 liegen, aber innerhalb der Konfidenzellipse. Das bedeutet, dass beide Koeffizienten individuell signifikant von β 2 und β 3 verschieden sind (d.h. es kann sowohl H 0 : β 2 = β 2 als auch H 0 : β 3 = β 3 individuell verworfen werden), aber dass die gemeinsame Nullhypothese H 0 : β 2 = β 2 und β 3 = β 3 nicht verworfen werden kann. Im Beispiel von Abbildung 6.3 ist der empirische t-wert für die H 0 : β 2 = 0.85 gleich t emp = 2.32 (mit p = 0.025), für H 0 : β 3 = 0.1 ist t emp = (p = 0.038),

12 Empirische Wirtschaftsforschung β Konfidenzintervall für β3 ( β 2, β 3 ) (0,0) (β 2,0,β 3,0) -0.4 Konfidenzintervall für β 2 (β 2,0,β 3,0) β 2 Abbildung 6.3: 95%-Konfidenzellipse für beide Koeffizienten und Konfidenzintervalle für die beiden einzelnen Koeffizienten für die Regression aus dem Beispiel auf Seite 10. Die t-statistiken der einzelnen Koeffizienten zeigen, dass die Koeffizienten einzeln nicht signifikant von Null verschieden sind (für α = 0.05), der Nullpunkt (0,0) liegt innerhalb der individuellen Konfidenzintervalle. Wie die F-total- Statistik hingegen zeigt sind Koeffizienten gemeinsam hochsignifikant von Null verschieden, der Nullpunkt liegt außerhalb der Konfidenzellipse! Zum Beispiel können weder die H 0 : β 2 = 0 noch die H 0 : β 3 = 0 einzeln verworfen werden, aber die simultane H 0 : β 2 = 0 und β 3 = 0 wird abgelehnt (der Punkt (0,9) liegt wie viele weitere Punkte (z.b. (β 2,0,β 3,0 )) innerhalb der einzelnen Konfidenzintervalle, aber außerhalb der Konfidenzellipse. Es ist auch möglich, dass die Nullhypothesen einzeln abgelehnt werden können, aber die simultane H 0 nicht abgelehnt werden kann, z.b. werden die H 0 : β 2 = β 2,0 und die H 0 : β 3 = β 3,0 beide einzeln verworfen, aber die simultane H 0 : β 2 = β 2,0 und β 3 = β 3,0 kann nicht verworfen werden!

13 Empirische Wirtschaftsforschung 13 beide Nullhypothesen können also auf einem Signifikanzniveau von 5% verworfen werden. Aber der empirische F-Wert der gemeinsamen Nullhypothese H 0 : β 2 = 0.85 und β 3 = 0.1 ist F emp = 2.74 mit p = 0.075, die gemeinsame Nullhypothese kann also auf einem Signifikanzniveau von 5% nicht verworfen werden! Die t-statistiken der einzelnen Koeffizienten können also signifikant sein, obwohl die F-Statistik für die gemeinsame Nullhypothese nicht signifikant ist. Solche Fälle sind allerdings selten und treten meist nur bei hoher Multikollinearität auf. Als nächstes werden wir eine allgemeinere Möglichkeiten kennen lernen eine F- Statistik zu berechnen, die den Test komplexerer Nullhypothesen erlaubt. 6.3 Simultane Tests auf (mehrere) lineare Restriktionen Zahlreiche Tests beruhen auf einem Vergleich zweier Modelle. Dabei wird in der Regel ein Modell ohne Restriktion(en) geschätzt und mit einem anderen Modell verglichen, das unter Berücksichtigung einer oder mehrerer Restriktionen geschätzt wurde (vgl. Griffiths et al., 1993, Chapter 11). In diesem Fall lässt sich das restringierte Modell immer als Speziallfall eines allgemeinen (d.h. nicht restringierten) Modells darstellen. Ein Test zwischen zwei Modellen, bei denen es möglich ist eines der beiden Modelle durch geeignete Parameterrestriktionen in das andere Modell überzuführen, wird im Englischen als nested test (geschachtelte Hypothesen) bezeichnet. In diesem Abschnitt werden wir uns ausschließlich auf solche nested tests beschränken. Ein ganz einfaches Beispiel für ein Modell ohne Restriktionen sei z.b. Unter der Restriktion β 3 = 0 gilt y i = β 1 +β 2 x i2 +β 3 x i3 +ε i da 0 x i3 = 0. y i = β 1 +β 2 x i2 +ε i Wenn das wahre β 3 tatsächlich Null ist sollte ε i = ε i sein, und die beiden Stichprobenregressionsfunktionen (SRF) y i = β 1 + β 2 x i2 + β 3 x i3 +ˆε i und y i = β 1 + β 2 x i2+ˆε i sollten sehr ähnliche Residuen liefern. Ein anderes Beispiel, wenn die Nullhypothese β 3 = 1 richtig ist kann das Modell unter dieser Restriktion geschrieben werden als und die entsprechende SRF in der Form y i = β1 +β 2 x i2 +1x i3 +ε i (y i x i3 ) = β 1 + β 2 x i2 + ˆε i schätzen, wobei wir aber einen neue abhängige Variable y = (y i x i3 ) bilden müssen.

14 Empirische Wirtschaftsforschung 14 Im Prinzip werden für geschachtelte ( nested ) Tests immer zwei Gleichungen geschätzt, eine Gleichung ohne Restriktion(en), das nicht-restringierte (bzw. unrestringierte) Modell, und eine eine Gleichung mit Restriktion(en) das restringierte Modell das man im wesentlichen durch Einsetzen der Nullhypothese in das nicht restringierte Modell erhält. Dieser Test ist sehr allgemein einsetzbar und kann auch für den Test mehrerer Restriktionen verwendet werden Beispiele Im Folgenden bezeichnet q die Anzahl der Restriktionen: PRF: β 1 +β 2 x 2 +β 3 x 3 +ε Restriktion: H 0 : β 2 = β 3 (q = 1) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + ˆε Modell mit Restriktion: y = β 1 + β 2 (x 2 +x 3 )+ ˆε Wenn die Nullhypothese β 2 = β 3 wahr ist würden wir für die Schätzungen des restringierten und nicht-restringierten Modells zumindest sehr ähnliche Ergebnisse erwarten. PRF: β 1 +β 2 x 2 +β 3 x 3 +β 4 x 4 +ε Restriktion: H 0 : β 3 = 0 & β 4 = 0 (q = 2) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + β 4 x 4 + ˆε Modell mit Restriktion: y = β 1 + β 2 x 2 + ˆε PRF: β 1 +β 2 x 2 +β 3 x 3 +ε Restriktion: H 0 : β 2 +β 3 = 1 (q = 1) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + ˆε Modell mit Restriktion: y = β 1 + β 2 x 2 +(1 β 2 )x 3 + ˆε diese Gleichung kann in der folgenden Form geschätzt werden: y x 3 = β 1 + β 2(x 2 x 3 )+ ˆε Man beachte, dass in diesem Fall zwei neue Variablen y x 3 und x 2 x 3 angelegt werden müssen. PRF: β 1 +β 2 x 2 +β 3 x 3 +β 4 x 4 +ε Restriktion: H 0 : β 2 = 0.5 β 3 & β 4 = 1 (q = 2) Modell ohne Restriktion: y = β 1 + β 2 x 2 + β 3 x 3 + β 4 x 4 + ˆε Modell mit Restriktionen: y +x 4 = β 1 + β 3 [0.5x 2 +x 3 ]+ ˆε

15 Empirische Wirtschaftsforschung 15 Wenn die entsprechenden Nullhypothesen wahr sind würden wir für die Schätzungen der Stichprobenregressionsfunktionen des restringierten und nicht-restringierten Modells sehr ähnliche Ergebnisse erwarten, insbesondere sollten sich auch die Quadratsummen der Residuen des nicht-restringierten und des restringierten Modells nicht stark unterscheiden. Tatsächlich kann man zeigen, dass aus diesen Quadratsummen der Residuen eine einfache Teststatistik konstruiert werden kann, die einen Test der Nullhypothese(n) erlaubt. Wenn wir mit SSR u (Sum od Squared Residuals) die Quadratsumme der Residuen ohne Restriktionen (der Subindex u für unrestricted) und mit SSR r die Quadratsumme der Residuen des r estringierten Modells bezeichnen, so kann man zeigen, dass der Skalar F-Stat = (SSR r SSR u )/q SSR u /(n k) H 0 Fq,n k (6.1) unter H 0 F-verteilt ist mit q Zähler und (n k) Nennerfreiheitsgraden, wobei q die Anzahl der Restriktionen bezeichnet. 11 Zwiscehnfrage: Warum muss immer gelten SSR r SSR u? Dieser Test ist sehr allgemein und kann für verschiedenste Tests von Restriktionen auf Koeffizienten verwendet werden. Mit Hilfe dieser Teststatistik kann wieder der p-wert nach Fisher berechnet werden, oder man kann einen Neyman und Pearson vorgehen 1. Formuliere Null- und Alternativhypothese. 2. Lege a priori ein Signifikanzniveau α fest. 3. Verwende die Information über die Teststatistik und die Freiheitsgrade, um den kritischen Wert Fq,n k crit in eienr F-Tabelle nachzuschlagen. Verwende diesen um Annahme- und Verwerfungsbereich festzulegen. 4. Schätze das Modell ohne Restriktionen mittels OLS. Berechne aus diesem nicht restringierten Modell die Quadratsumme der Residuen SSR u (in EViews z.b. mit in R deviance(eqname); in Stata mit dem postestimation Befehl e(rss)). 5. Schätze das Modell mit den Restriktionen der Nullhypothese (das restringierte Modell) mittels OLS. Berechne daraus die restringierte Quadratsumme der Residuen SSR r. 6. Berechne daraus den empirischen Wert der F-Statistik F emp = (SSR r SSR u )/q SSR u /(n k) wobei die Zählerfreiheitsgrade q die Anzahl der Restriktionen sind, n k die Nennerfreiheitsgrade. 11 Die Quadratsumme der Residuen ist n i=1 ˆε2 i und kann in Vektorschreibweise auch als inneres Produkt des Residuenvektors geschrieben werden ˆε ˆε.

Multiple Regression II: Signifikanztests, Gewichtung, Multikollinearität und Kohortenanalyse

Multiple Regression II: Signifikanztests, Gewichtung, Multikollinearität und Kohortenanalyse Multiple Regression II: Signifikanztests,, Multikollinearität und Kohortenanalyse Statistik II Übersicht Literatur Kausalität und Regression Inferenz und standardisierte Koeffizienten Statistik II Multiple

Mehr

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1

Inhaltsverzeichnis. Regressionsanalyse. http://mesosworld.ch - Stand vom: 20.1.2010 1 Inhaltsverzeichnis Regressionsanalyse... 2 Lernhinweise... 2 Einführung... 2 Theorie (1-8)... 2 1. Allgemeine Beziehungen... 3 2. 'Best Fit'... 3 3. 'Ordinary Least Squares'... 4 4. Formel der Regressionskoeffizienten...

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression

Institut für Soziologie. Methoden 2. Regressionsanalyse I: Einfache lineare Regression Institut für Soziologie Methoden 2 Regressionsanalyse I: Einfache lineare Regression Programm Anwendungsbereich Vorgehensweise Interpretation Annahmen Zusammenfassung Übungsaufgabe Literatur # 2 Anwendungsbereich

Mehr

2. Korrelation, lineare Regression und multiple Regression

2. Korrelation, lineare Regression und multiple Regression multiple 2.2 Lineare 2.2 Lineare 1 / 130 2.2 Lineare 2 / 130 2.1 Beispiel: Arbeitsmotivation Untersuchung zur Motivation am Arbeitsplatz in einem Chemie-Konzern 25 Personen werden durch Arbeitsplatz zufällig

Mehr

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik

Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:

Mehr

Prüfen von Mittelwertsunterschieden: t-test

Prüfen von Mittelwertsunterschieden: t-test Prüfen von Mittelwertsunterschieden: t-test Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) t-test

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

Lineare Modelle in R: Einweg-Varianzanalyse

Lineare Modelle in R: Einweg-Varianzanalyse Lineare Modelle in R: Einweg-Varianzanalyse Achim Zeileis 2009-02-20 1 Datenaufbereitung Wie schon in der Vorlesung wollen wir hier zur Illustration der Einweg-Analyse die logarithmierten Ausgaben der

Mehr

Klausur STATISTIK 2 für Diplom VWL

Klausur STATISTIK 2 für Diplom VWL Klausur STATISTIK 2 für Diplom VWL Name, Vorname: Matrikel-Nr. Die Klausur enthält zwei Typen von Aufgaben: Teil A besteht aus Fragen mit mehreren vorgegebenen Antwortvorschlägen, von denen mindestens

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

Univariate Lineare Regression. (eine unabhängige Variable)

Univariate Lineare Regression. (eine unabhängige Variable) Univariate Lineare Regression (eine unabhängige Variable) Lineare Regression y=a+bx Präzise lineare Beziehung a.. Intercept b..anstieg y..abhängige Variable x..unabhängige Variable Lineare Regression y=a+bx+e

Mehr

Spezifikations- & Datenprobleme

Spezifikations- & Datenprobleme Kapitel 14 Spezifikations- & Datenprobleme Man is impelled to invent theories to account for what happens in the world. Unfortunately, he is not quite intelligent enough, in most cases, to find correct

Mehr

Lösung zu Kapitel 11: Beispiel 1

Lösung zu Kapitel 11: Beispiel 1 Lösung zu Kapitel 11: Beispiel 1 Eine Untersuchung bei 253 Personen zur Kundenzufriedenheit mit einer Einzelhandelskette im Südosten der USA enthält Variablen mit sozialstatistischen Daten der befragten

Mehr

8. Methoden der klassischen multivariaten Statistik

8. Methoden der klassischen multivariaten Statistik 8. Methoden der klassischen multivariaten Statistik 8.1. Darstellung von Daten Voraussetzungen auch in diesem Kapitel: Grundgesamtheit (Datenraum) Ω von Objekten (Fällen, Instanzen), denen J-Tupel von

Mehr

Kapitel 4: Binäre Regression

Kapitel 4: Binäre Regression Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,

Mehr

Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im Fach Ökonometrie im WS 2011/12 Lösungsskizze

Lehrstuhl für Statistik und empirische Wirtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im Fach Ökonometrie im WS 2011/12 Lösungsskizze Lehrstuhl für Statistik und empirische irtschaftsforschung Prof. Regina T. Riphahn, Ph.D. Prüfung im ach Ökonometrie im S 20/2 Lösungsskizze Aufgabe (.5 Punkte) Sie verfügen über einen Datensatz, der Informationen

Mehr

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt. L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 8. Februar 2007 Hinweise:

Mehr

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell: Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen LV-Leiterin: Univ.Prof.Dr. Sylvia Frühwirth-Schnatter 1 Wahr oder falsch? 1. Das folgende Modell ist ein GARCH(1,1)-Modell: Y

Mehr

29. Mai 2006. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.

29. Mai 2006. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt. L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 29. Mai 2006 Hinweise:

Mehr

Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1

Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1 Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1 Aufgabe 1: Betrachtet wird folgendes Modell zur Erklärung des Managergehalts salary durch den Umsatz sales, die Eigenkapitalrendite roe und die

Mehr

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Multiple Regression 1 Was ist multiple lineare Regression? Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren) Annahme: Der Zusammenhang

Mehr

Zeitreihen. Statistik II

Zeitreihen. Statistik II Statistik II Wiederholung Literatur -Daten Trends und Saisonalität Fehlerstruktur Statistik II (1/31) Wiederholung Literatur -Daten Trends und Saisonalität Fehlerstruktur Statistik II (1/31) Zum Nachlesen

Mehr

Kategoriale abhängige Variablen: Logit- und Probit -Modelle. Statistik II

Kategoriale abhängige Variablen: Logit- und Probit -Modelle. Statistik II Kategoriale abhängige Variablen: Logit- und Probit -Modelle Statistik II Wiederholung Literatur Annahmen und Annahmeverletzungen Funktionen Exponenten, Wurzeln usw. Das Problem Das binäre Logit-Modell

Mehr

Multinomiale logistische Regression

Multinomiale logistische Regression Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable

Mehr

Regression mit Gretl Eine erste Einführung 1

Regression mit Gretl Eine erste Einführung 1 Kurzeinführung in Gretl S. 1 Regression mit Gretl Eine erste Einführung 1 Installation: Gretl für das entsprechende Betriebssystem herunterladen und die Setup-Datei ausführen. Hinweis: Für die Benutzung

Mehr

1 wenn i weiblich, w i = 0 sonst.

1 wenn i weiblich, w i = 0 sonst. Kapitel 10 Multikollinearität God abhors a naked singularity. (Stephen Hawking) 10.1 Problem Von Multikollinearität, bzw. Kollinearität, spricht man, wenn zwei oder mehrere erklärende x Variablen hoch

Mehr

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen.

Modul G.1 WS 07/08: Statistik 17.01.2008 1. Die Korrelation ist ein standardisiertes Maß für den linearen Zusammenhangzwischen zwei Variablen. Modul G.1 WS 07/08: Statistik 17.01.2008 1 Wiederholung Kovarianz und Korrelation Kovarianz = Maß für den linearen Zusammenhang zwischen zwei Variablen x und y Korrelation Die Korrelation ist ein standardisiertes

Mehr

Modelle mit diskreten abhängigen Variablen

Modelle mit diskreten abhängigen Variablen Kapitel 19 Modelle mit diskreten abhängigen Variablen 19.1 Vorbemerkungen Bisher sind wir stets davon ausgegangen, dass die abhängige Variable y intervallskaliert ist. Zusätzlich haben wir meist angenommen,

Mehr

6. METRISCHE UND KATEGORIALE MERKMALE

6. METRISCHE UND KATEGORIALE MERKMALE 6. METRISCHE UND KATEGORIALE MERKMALE wenn an einer Beobachtungseinheit eine (oder mehrere) metrische und eine (oder mehrere) kategoriale Variable(n) erhoben wurden Beispiel: Haushaltsarbeit von Teenagern

Mehr

Kapitel 23 Lineare Regression

Kapitel 23 Lineare Regression Kapitel 23 Lineare Regression Sowohl einfache als auch multiple Regressionsanalysen können Sie mit dem Befehl STATISTIK REGRESSION LINEAR... durchführen. Dabei lassen sich mit Hilfe diverser Optionen zahlreiche

Mehr

9. StatistischeTests. 9.1 Konzeption

9. StatistischeTests. 9.1 Konzeption 9. StatistischeTests 9.1 Konzeption Statistische Tests dienen zur Überprüfung von Hypothesen über einen Parameter der Grundgesamtheit (bei einem Ein-Stichproben-Test) oder über die Verteilung einer Zufallsvariablen

Mehr

Klausur Sommersemester 2010

Klausur Sommersemester 2010 Klausur Sommersemester 2010 Lehrstuhl: Wirtschaftspolitik Prüfungsfach: Empirische Wirtschaftsforschung Prüfer: Prof. Dr. K. Kraft Datum: 04.08.2010 Hilfsmittel: Nicht-programmierbarer Taschenrechner Klausurdauer:

Mehr

adjusted R 2 korrigiertes Bestimmtheitsmaß, korrigiertes R 2 Bias, Verzerrung coefficient of determination Bestimmtheitsmaß, R 2

adjusted R 2 korrigiertes Bestimmtheitsmaß, korrigiertes R 2 Bias, Verzerrung coefficient of determination Bestimmtheitsmaß, R 2 acceptance region Annahmebereich adjusted R 2 korrigiertes Bestimmtheitsmaß, korrigiertes R 2 alternative hypothesis Alternativhypothese asymptotic distribution asymptotische Verteilung asymptotic normal

Mehr

Log-lineare Analyse I

Log-lineare Analyse I 1 Log-lineare Analyse I Einleitung Die log-lineare Analysemethode wurde von L.A. Goodman in den 60er und 70er Jahren entwickelt. Sie dient zur Analyse von Zusammenhängen in mehrdimensionalen Kontingenztafeln

Mehr

Übungsserie Nr. 10 mit Lösungen

Übungsserie Nr. 10 mit Lösungen Übungsserie Nr. 10 mit Lösungen 1 Ein Untersuchungsdesign sieht einen multivariaten Vergleich einer Stichprobe von Frauen mit einer Stichprobe von Männern hinsichtlich der Merkmale X1, X2 und X3 vor (Codierung:

Mehr

Einfache Statistiken in Excel

Einfache Statistiken in Excel Einfache Statistiken in Excel Dipl.-Volkswirtin Anna Miller Bergische Universität Wuppertal Schumpeter School of Business and Economics Lehrstuhl für Internationale Wirtschaft und Regionalökonomik Raum

Mehr

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Das Dialogfeld für die Regressionsanalyse (Lineare Regression) findet sich im Statistik- Menu unter Regression-Linear: Lineare Regression Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear": Im einfachsten Fall werden mehrere Prädiktoren (oder nur

Mehr

14.01.14 DAS THEMA: INFERENZSTATISTIK II. Standardfehler Konfidenzintervalle Signifikanztests. Standardfehler

14.01.14 DAS THEMA: INFERENZSTATISTIK II. Standardfehler Konfidenzintervalle Signifikanztests. Standardfehler DAS THEMA: INFERENZSTATISTIK II INFERENZSTATISTISCHE AUSSAGEN Standardfehler Konfidenzintervalle Signifikanztests Standardfehler der Standardfehler Interpretation Verwendung 1 ZUR WIEDERHOLUNG... Ausgangspunkt:

Mehr

12. Vergleich mehrerer Stichproben

12. Vergleich mehrerer Stichproben 12. Vergleich mehrerer Stichproben Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Häufig wollen wir verschiedene Populationen, Verfahren, usw. miteinander vergleichen. Beipiel: Vergleich

Mehr

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS?

ε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? BINARY CHOICE MODELS 1 mit Pr( Y = 1) = P Y = 0 mit Pr( Y = 0) = 1 P Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? Y i = X i β + ε i Probleme: Nonsense Predictions

Mehr

3. Einführung in die Zeitreihenanalyse

3. Einführung in die Zeitreihenanalyse 3. Einführung in die Zeitreihenanalyse Dr. Johann Burgstaller Finance Department, JKU Linz (Dieser Foliensatz wurde zuletzt aktualisiert am 25. Dezember 2007.) Dr. Johann Burgstaller IK Empirische Kapitalmarktforschung

Mehr

Diskriminanzanalyse Beispiel

Diskriminanzanalyse Beispiel Diskriminanzanalyse Ziel bei der Diskriminanzanalyse ist die Analyse von Gruppenunterschieden, d. h. der Untersuchung von zwei oder mehr Gruppen hinsichtlich einer Vielzahl von Variablen. Diese Methode

Mehr

Multivariate Zeitreihenanalyse mit EViews 4.1

Multivariate Zeitreihenanalyse mit EViews 4.1 Multivariate Zeitreihenanalyse mit EViews 4.1 Unterlagen für LVen des Instituts für Angewandte Statistic (IFAS) Johannes Kepler Universität Linz Stand: 30. Mai 2005, Redaktion: Frühwirth-Schnatter 1 Deskriptive

Mehr

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel

Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel Grundlagen quantitativer Sozialforschung Interferenzstatistische Datenanalyse in MS Excel 16.11.01 MP1 - Grundlagen quantitativer Sozialforschung - (4) Datenanalyse 1 Gliederung Datenanalyse (inferenzstatistisch)

Mehr

Varianzanalyse ANOVA

Varianzanalyse ANOVA Varianzanalyse ANOVA Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/23 Einfaktorielle Varianzanalyse (ANOVA) Bisher war man lediglich in der Lage, mit dem t-test einen Mittelwertsvergleich für

Mehr

Korrelation - Regression. Berghold, IMI

Korrelation - Regression. Berghold, IMI Korrelation - Regression Zusammenhang zwischen Variablen Bivariate Datenanalyse - Zusammenhang zwischen 2 stetigen Variablen Korrelation Einfaches lineares Regressionsmodell 1. Schritt: Erstellung eines

Mehr

Kapitel 3: Interpretationen

Kapitel 3: Interpretationen Kapitel 3: 1. Interpretation von Outputs allgemein... 1 2. Interpretation von Signifikanzen... 1 2.1. Signifikanztests / Punktschätzer... 1 2.2. Konfidenzintervalle... 2 3. Interpretation von Parametern...

Mehr

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche

25. Januar 2010. Ruhr-Universität Bochum. Methodenlehre III, WS 2009/2010. Prof. Dr. Holger Dette. 4. Multivariate Mittelwertvergleiche Ruhr-Universität Bochum 25. Januar 2010 1 / 75 2 / 75 4.1 Beispiel: Vergleich von verschiedenen Unterrichtsmethoden Zwei Zufallsstichproben (A und B) mit je 10 Schülern und 8 Schülern Gruppe A wird nach

Mehr

Kapitel 8. Dummy Variablen. Let us remember the unfortunate econometrician

Kapitel 8. Dummy Variablen. Let us remember the unfortunate econometrician Kapitel 8 Dummy Variablen Let us remember the unfortunate econometrician who, in one of the major functions of his system, had to use a proxy for risk and a dummy for sex. (Machlup, 974, 892) Dummy Variablen

Mehr

Statistik im Bachelor-Studium der BWL und VWL

Statistik im Bachelor-Studium der BWL und VWL Max C. Wewel Statistik im Bachelor-Studium der BWL und VWL Methoden, Anwendung, Interpretation Mit herausnehmbarer Formelsammlung ein Imprint von Pearson Education München Boston San Francisco Harlow,

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede Universität Ulm Seminararbeit zum Thema Data Mining und Statistik: Gemeinsamkeiten und Unterschiede vorgelegt von: Daniel Meschenmoser betreut von: Dr. Tomas Hrycej Dr. Matthias Grabert Ulm, im Februar

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table("c:\\compaufg\\kredit.

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table(c:\\compaufg\\kredit. Lösung 16.3 Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit

Mehr

Varianzanalyse * (1) Varianzanalyse (2)

Varianzanalyse * (1) Varianzanalyse (2) Varianzanalyse * (1) Einfaktorielle Varianzanalyse (I) Die Varianzanalyse (ANOVA = ANalysis Of VAriance) wird benutzt, um Unterschiede zwischen Mittelwerten von drei oder mehr Stichproben auf Signifikanz

Mehr

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall )

Regressionsanalysen. Zusammenhänge von Variablen. Ziel der Regression. ( Idealfall ) Zusammenhänge von Variablen Regressionsanalysen linearer Zusammenhang ( Idealfall ) kein Zusammenhang nichtlinearer monotoner Zusammenhang (i.d.regel berechenbar über Variablentransformationen mittels

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Abhängigkeit zweier Merkmale

Abhängigkeit zweier Merkmale Abhängigkeit zweier Merkmale Johannes Hain Lehrstuhl für Mathematik VIII Statistik 1/33 Allgemeine Situation Neben der Untersuchung auf Unterschiede zwischen zwei oder mehreren Untersuchungsgruppen hinsichtlich

Mehr

Auswertung mit dem Statistikprogramm SPSS: 30.11.05

Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Auswertung mit dem Statistikprogramm SPSS: 30.11.05 Seite 1 Einführung SPSS Was ist eine Fragestellung? Beispiel Welche statistische Prozedur gehört zu welcher Hypothese? Statistische Berechnungen mit

Mehr

Kurs 9.3: Forschungsmethoden II

Kurs 9.3: Forschungsmethoden II MSc Banking & Finance Kurs 9.3: Forschungsmethoden II Zeitreihenanalyse Lernsequenz 01: Einführung EViews Oktober 2014 Prof. Dr. Jürg Schwarz Folie 2 Inhalt Anmerkung 4 Das Hilfesystem von EViews 5 Workshop

Mehr

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft Prof. Dr. Helmut Küchenhoff SS08 90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft am 22.7.2008 Anmerkungen Überprüfen Sie bitte sofort, ob Ihre Angabe vollständig ist. Sie sollte

Mehr

Webergänzung zu Kapitel 10

Webergänzung zu Kapitel 10 Webergänzung zu Kapitel 10 10.1.4 Varianzanalyse (ANOVA: analysis of variance) Im Kapitel 10 haben wir uns hauptsächlich mit Forschungsbeispielen beschäftigt, die nur zwei Ergebnissätze hatten (entweder

Mehr

T-TEST BEI EINER STICHPROBE:

T-TEST BEI EINER STICHPROBE: Kapitel 19 T-Test Mit Hilfe der T-TEST-Prozeduren werden Aussagen über Mittelwerte getroffen. Dabei wird versucht, aus den Beobachtungen einer Stichprobe Rückschlüsse auf die Grundgesamtheit zu ziehen.

Mehr

Untersuchungen zum Thema Tracking Error

Untersuchungen zum Thema Tracking Error Untersuchungen zum Thema Tracking Error J. Fulmek 24. August 2003 1 Einleitung Im Folgenden werden folgende Punkte untersucht: 1. verschiedene in der Literatur übliche Definitionen des Tracking Errors

Mehr

Abschlussklausur (60 Minuten), 15. Juli 2014

Abschlussklausur (60 Minuten), 15. Juli 2014 Prof. Dr. Amelie Wuppermann Volkswirtschaftliche Fakultät Universität München Sommersemester 2014 Empirische Ökonomie 1 Abschlussklausur (60 Minuten), 15. Juli 2014 Bearbeitungshinweise Die Bearbeitungszeit

Mehr

Standardab er des. Testwert = 145.5 95% Konfidenzintervall. T df Sig. (2-seitig) Differenz Untere Obere -2.011 698.045-5.82-11.50 -.14.

Standardab er des. Testwert = 145.5 95% Konfidenzintervall. T df Sig. (2-seitig) Differenz Untere Obere -2.011 698.045-5.82-11.50 -.14. Aufgabe : einfacher T-Test Statistik bei einer Stichprobe Standardfehl Standardab er des Mittelwert weichung Mittelwertes 699 39.68 76.59 2.894 Test bei einer Sichprobe Testwert = 45.5 95% Konfidenzintervall

Mehr

Tutorial: Homogenitätstest

Tutorial: Homogenitätstest Tutorial: Homogenitätstest Eine Bank möchte die Kreditwürdigkeit potenzieller Kreditnehmer abschätzen. Einerseits lebt die Bank ja von der Vergabe von Krediten, andererseits verursachen Problemkredite

Mehr

Kommentierter SPSS-Ausdruck zur logistischen Regression

Kommentierter SPSS-Ausdruck zur logistischen Regression Daten: POK V AG 3 (POKV_AG3_V07.SAV) Kommentierter SPSS-Ausdruck zur logistischen Regression Fragestellung: Welchen Einfluss hat die Fachnähe und das Geschlecht auf die interpersonale Attraktion einer

Mehr

werden können. Wenn der Benutzer zudem eine konkrete Differenz mit praktischen Konsequenzen angibt, berechnet der Assistent den Stichprobenumfang,

werden können. Wenn der Benutzer zudem eine konkrete Differenz mit praktischen Konsequenzen angibt, berechnet der Assistent den Stichprobenumfang, Dieses White Paper ist Teil einer Reihe von Veröffentlichungen, welche die Forschungsarbeiten der Minitab-Statistiker erläutern, in deren Rahmen die im Assistenten der Minitab 17 Statistical Software verwendeten

Mehr

Übungsaufgaben zu Kapitel 5. Aufgabe 101. Inhaltsverzeichnis:

Übungsaufgaben zu Kapitel 5. Aufgabe 101. Inhaltsverzeichnis: Inhaltsverzeichnis: Übungsaufgaben zu Kapitel 5... 1 Aufgabe 101... 1 Aufgabe 102... 2 Aufgabe 103... 2 Aufgabe 104... 2 Aufgabe 105... 3 Aufgabe 106... 3 Aufgabe 107... 3 Aufgabe 108... 4 Aufgabe 109...

Mehr

Fallbeispiel 5: Humankapital und Returns to Education. Seite 1

Fallbeispiel 5: Humankapital und Returns to Education. Seite 1 Fallbeispiel 5: Humankapital und Returns to Education Seite 1 Gliederung Einführung: Wirkungsanalysen in der Wirtschaftspolitik I. Theoretischer Teil 1 Humankapital 2 Returns to Education: Schooling Model

Mehr

Fragestellungen der Schließenden Statistik

Fragestellungen der Schließenden Statistik Fragestellungen der Schließenden Statistik Bisher: Teil I: Beschreibende Statistik Zusammenfassung von an GesamtheitM N {e,,e N } erhobenem Datensatz x,,x N durch Häufigkeitsverteilung und Kennzahlen für

Mehr

BEDIENUNGSANLEITUNG FÜR AMOS (Letzte Änderung: Mittwoch, 10. Februar 2001)

BEDIENUNGSANLEITUNG FÜR AMOS (Letzte Änderung: Mittwoch, 10. Februar 2001) AMOS - Bedienungsanaleitung 1 BEDIENUNGSANLEITUNG FÜR AMOS (Letzte Änderung: Mittwoch, 10. Februar 2001) A. Aufbau einer Inputdatei (Excel-Arbeitsblatt), welche eine Kovarianz- bzw. Korrelationsmatrix

Mehr

Häufigkeitstabellen. Balken- oder Kreisdiagramme. kritischer Wert für χ2-test. Kontingenztafeln

Häufigkeitstabellen. Balken- oder Kreisdiagramme. kritischer Wert für χ2-test. Kontingenztafeln Häufigkeitstabellen Menüpunkt Data PivotTable Report (bzw. entsprechendes Icon): wähle Data Range (Zellen, die die Daten enthalten + Zelle mit Variablenname) wähle kategoriale Variable für Spalten- oder

Mehr

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung

Kapitel 3. Zufallsvariable. Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion. Erwartungswert, Varianz und Standardabweichung Kapitel 3 Zufallsvariable Josef Leydold c 2006 Mathematische Methoden III Zufallsvariable 1 / 43 Lernziele Diskrete und stetige Zufallsvariable Wahrscheinlichkeitsfunktion, Dichte und Verteilungsfunktion

Mehr

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell

Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Einfaktorielle Versuchspläne 27/40 Weitere (wählbare) Kontraste in der SPSS Prozedur Allgemeines Lineares Modell Abweichung Einfach Differenz Helmert Wiederholt Vergleich Jede Gruppe mit Gesamtmittelwert

Mehr

Vergleich von KreditRisk+ und KreditMetrics II Seminar Portfoliokreditrisiko

Vergleich von KreditRisk+ und KreditMetrics II Seminar Portfoliokreditrisiko Vergleich von KreditRisk+ und KreditMetrics II Seminar Portfoliokreditrisiko Jan Jescow Stoehr Gliederung 1. Einführung / Grundlagen 1.1 Ziel 1.2 CreditRisk+ und CreditMetrics 2. Kreditportfolio 2.1 Konstruktion

Mehr

V A R I A N Z A N A L Y S E

V A R I A N Z A N A L Y S E V A R I A N Z A N A L Y S E Ziel / Funktion: statistische Beurteilung des Einflusses von nominal skalierten (kategorialen) Faktoren auf intervallskalierte abhängige Variablen Vorteil: die Wirkung von mehreren,

Mehr

Welch-Test. Welch-Test

Welch-Test. Welch-Test Welch-Test Welch-Test Test auf Lageunterschied zweier normalverteilter Grundgesamtheiten mit unbekannten Varianzen durch Vergleich der Mittelwerte zweier unabhängiger Zufallsstichproben. Beispiel Im Labor

Mehr

Biostatistische Studienplanung II. Dr. Matthias Kohl SIRS-Lab GmbH

Biostatistische Studienplanung II. Dr. Matthias Kohl SIRS-Lab GmbH Biostatistische Studienplanung II Dr. Matthias Kohl SIRS-Lab GmbH Inhalt Lineare Modelle: Definition und Beispiele KQ- und robuste Schätzer Diagnostik Ausblick: Mixed-Effects Definition des linearen Modells

Mehr

Master of Science in Pflege

Master of Science in Pflege Master of Science in Pflege Modul: Statistik Einfache und multiple Regressionsanalyse / Logistische Regressionsanalyse November 2012 Prof. Dr. Jürg Schwarz Folie 2 Programm 28. November 2012: Vormittag

Mehr

Zeitreihenanalyse. Teil III: Nichtlineare Zeitreihenmodelle. Prof. Dr. W. Zucchini, Dr. O. Nenadić, A. Schlegel. Göttingen, Januar 2008 DAX

Zeitreihenanalyse. Teil III: Nichtlineare Zeitreihenmodelle. Prof. Dr. W. Zucchini, Dr. O. Nenadić, A. Schlegel. Göttingen, Januar 2008 DAX Zeitreihenanalyse Teil III: Nichtlineare Zeitreihenmodelle Prof. Dr. W. Zucchini, Dr. O. Nenadić, A. Schlegel DAX -10-5 0 5 10 0 200 400 600 800 1000 trading day Göttingen, Januar 2008 Inhaltsverzeichnis

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

Fragen und Antworten zu Kapitel 18

Fragen und Antworten zu Kapitel 18 Fragen und Antworten zu Kapitel 18 (1) Nennen Sie verschiedene Zielsetzungen, die man mit der Anwendung der multiplen Regressionsanalyse verfolgt. Die multiple Regressionsanalyse dient der Kontrolle von

Mehr

3 Zusammenhangsmaße Zusammenhangshypothesen

3 Zusammenhangsmaße Zusammenhangshypothesen 3 Zusammenhangsmaße Zusammenhangshypothesen Zusammenhänge (zwischen 2 Variablen) misst man mittels Korrelationen. Die Wahl der Korrelation hängt ab von: a) Skalenniveau der beiden Variablen: 1) intervallskaliert

Mehr

Mathematik IV: Statistik. für D-UWIS, D-ERDW, D-USYS und D-HEST SS14

Mathematik IV: Statistik. für D-UWIS, D-ERDW, D-USYS und D-HEST SS14 Mathematik IV: Statistik für D-UWIS, D-ERDW, D-USYS und D-HEST SS14 Hygienische Reiniger Wissenschaftliche Studie: 10 000 Reinigungsversuche, 6 Fälle mit mehr als 1 Bakterien Stimmt s jetzt oder was? Binomialtest:

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

LISREL/CFA: Modelltest

LISREL/CFA: Modelltest LISREL/CFA: Modelltest im Rahmen des Interdisziplinären Seminars Multivariate Statistik bei psychologischen Fragestellungen Martina Feilke, Martina Unterburger, Christoph Burkhardt Dozenten: Prof. Dr.

Mehr

Stochastik Abitur 2009 Stochastik

Stochastik Abitur 2009 Stochastik Abitur 2009 Stochastik Beilage ea (erhöhtes Anforderungsniveau) ga (grundlegendes Anforderungsniveau) ISBN 978-3-8120-0108-3 und ISBN 978-3-8120-0223-3 1 Aufgabe 2 (ea) Rauchen ist das größte vermeidbare

Mehr

Kap. 9: Regression mit einer binären abhängigen Variablen

Kap. 9: Regression mit einer binären abhängigen Variablen Kap. 9: Regression mit einer binären abhängigen Variablen Motivation Lineares Wahrscheinlichkeitsmodell Probit- und Logit-Regression Maximum Likelihood Empirisches Beispiel: Analyse der HMDA-Daten Ausblick:

Mehr

Umsetzung von DEA in Excel

Umsetzung von DEA in Excel Umsetzung von DEA in Excel Thorsten Poddig Armin Varmaz 30. November 2005 1 Vorbemerkungen In diesem Dokument, das als Begleitmaterial zum in der Zeitschrift,,Controlling, Heft 10, 2005 veröffentlichten

Mehr

Kapitel 3. Erste Schritte der Datenanalyse. 3.1 Einlesen und Überprüfen der Daten

Kapitel 3. Erste Schritte der Datenanalyse. 3.1 Einlesen und Überprüfen der Daten Kapitel 3 Erste Schritte der Datenanalyse 3.1 Einlesen und Überprüfen der Daten Nachdem die Daten erfasst worden sind, etwa mit Hilfe eines Fragebogens, ist die nächste Frage, wie ich sie in den Rechner

Mehr

Koeffizienten der Logitanalyse. Kurt Holm. Almo Statistik-System www.almo-statistik.de holm@almo-statistik.de kurt.holm@jku.at

Koeffizienten der Logitanalyse. Kurt Holm. Almo Statistik-System www.almo-statistik.de holm@almo-statistik.de kurt.holm@jku.at Koeffizienten der Logitanalyse Kurt Holm Almo Statistik-System www.almo-statistik.de holm@almo-statistik.de kurt.holm@jku.at 1 Kurt Holm Koeffizienten der Logitanalyse Eine häufig gestellte Frage lautet:

Mehr

Forschungspraktikum Gruppenbezogene Menschenfeindlichkeit. Lineare Regression Statistisches Modell Realisierung mit der SPSS-Prozedur Regression

Forschungspraktikum Gruppenbezogene Menschenfeindlichkeit. Lineare Regression Statistisches Modell Realisierung mit der SPSS-Prozedur Regression Forschungspraktikum Gruppenbezogene Menschenfeindlichkeit Lineare Regression Statistisches Realisierung mit der SPSS-Prozedur Regression Statistische Zusammenhangsanalyse Lineare Regression Um zu untersuchen,

Mehr

Beispiel: Sonntagsfrage. Einführung in die induktive Statistik. Statistische Tests. Statistische Tests

Beispiel: Sonntagsfrage. Einführung in die induktive Statistik. Statistische Tests. Statistische Tests Beispiel: Sonntagsfrage Vier Wochen vor der österreichischen Nationalratswahl 1999 wurde 499 Haushalten die Sonntagsfrage gestellt: Falls nächsten Sonntag Wahlen wären, welche Partei würden Sie wählen?

Mehr

Kapitel 7: Varianzanalyse mit Messwiederholung

Kapitel 7: Varianzanalyse mit Messwiederholung Kapitel 7: Varianzanalyse mit Messwiederholung Durchführung einer einfaktoriellen Varianzanalyse mit Messwiederholung 1 Durchführung einer zweifaktoriellen Varianzanalyse mit Messwiederholung auf einem

Mehr

5.2. Nichtparametrische Tests. 5.2.1. Zwei unabhängige Stichproben: U- Test nach MANN- WHITNEY

5.2. Nichtparametrische Tests. 5.2.1. Zwei unabhängige Stichproben: U- Test nach MANN- WHITNEY 5.2. Nichtparametrische Tests 5.2.1. Zwei unabhängige Stichproben: U- Test nach MANN- WHITNEY Voraussetzungen: - Die Verteilungen der beiden Grundgesamtheiten sollten eine ähnliche Form aufweisen. - Die

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

EINFACHE LINEARE REGRESSION MODUL 13 PROSEMINAR DESKRIPTIVE STATISTIK ANALYSE UND DARSTELLUNG VON DATEN I GÜNTER HAIDER WS 1999/2000

EINFACHE LINEARE REGRESSION MODUL 13 PROSEMINAR DESKRIPTIVE STATISTIK ANALYSE UND DARSTELLUNG VON DATEN I GÜNTER HAIDER WS 1999/2000 INSTITUT FÜR ERZIEHUNGSWISSENSCHAFT - UNIVERSITÄT SALZBURG PROSEMINAR DESKRIPTIVE STATISTIK ANALYSE UND DARSTELLUNG VON DATEN I GÜNTER HAIDER WS 1999/2 MODUL 13 EINFACHE LINEARE REGRESSION Erziehungswissenschaft/Haider

Mehr