Marginale Effekte und nichtlineare Funktionsformen

Größe: px
Ab Seite anzeigen:

Download "Marginale Effekte und nichtlineare Funktionsformen"

Transkript

1 Kapitel 3 Marginale Effekte und nichtlineare Funktionsformen 3.1 Interpretation der Koeffizienten im linearen Modell Wir haben im letzten Kapitel bereits einfache lineare Regressionen der Art ŷ = β 1 + β 2 gerechnet. In diesem Kapitel werden wir uns etwas näher mit der Interpretation der Regressionskoeffizienten beschäftigen, und anschließend die Analse etwas erweitern, indem wir auch etwas allgemeinere Funktionsformen zulassen werden. Vorab einige Bemerkungen: 1. Wir werden in diesem Kapitel den Inde i für die Beobachtungen häufig weglassen, da wir uns für den Verlauf der Regressionsgerade (d.h. gefitteten Werte) interessieren, und weniger für die einzelnen Beobachtungen. 2. Die gefitteten Werte ŷ, die man durch Einsetzen konkreter Werte für die Variable(n) in die geschätzte Regressionsgleichung erhält, können in einem korrekt spezifizierten Regressionsmodell unter bestimmten Annahmen als wahrscheinlichste Realisationen oder erwarte Werte für gegebene interpretiert werden. Deshalb werden wir für ŷ manchmal auch etwas salopp E( ) schreiben, d.h. der erwartete Wert von gegeben. Eine präzisere Definition des Erwarungswertes E, sowie die genauen Annahmen, unter denen die gefitteten Werte gleich dem bedingten Erwartungswert sind, folgen in den nächsten Kapiteln, im Moment reicht eine intuitive Vorstellung. 3. Wenn nichts anderes erwähnt wird werden wir im Folgenden davon ausgehen, dass die diskutierten Werte der geschätzten Regressionskoeffizienten im statistischen Sinne signifikant von Null verschieden sind; Regressionskoeffizienten, die nicht signifikant von Null verschieden sind, sollten in der Regel nicht interpretiert werden. Kehren wir zurück zur einfachen Regressionsgleichung ŷ = β 1 + β 2 1

2 Wir haben bereits gesehen, dass die geschätzten Koeffizienten eine sehr einfache Interpretation haben. Das Interzept β 1 gibt den Wert von ŷ für = 0 an. Das Interzept ist in praktischen Fällen allerdings nur selten von Bedeutung, deshalb wird es üblicherweise nur diskutiert, wenn besondere Gründe dafür sprechen. In den meisten Fällen konzentriert sich das Interesse auf den Steigungskoeffizienten β 2, der den quantitativen Zusammenhang zwischen erklärender und abhängiger Variable zum Ausdruck bringt. Wie man einfach erkennen kann, ist bei einer linearen Funktionsform ŷ = β 1 + β 2 der Steigungskoeffizient gleich der Ableitung dŷ d = β 2 d.h. der Steigungskoeffizient β 2 gibt an, um wie viele Einheiten sich der gefittete Wert von ändert, wenn die Variable um eine Einheit zunimmt. In einem linearen Modell misst der Steigungskoeffizient β 2 also unmittelbar den marginalen Effekt einer Änderung von, d.h. die erwartete Auswirkung einer Änderung der erklärenden Variable auf die abhängige Variable. 1. Um einen Steigungskoeffizienten interpretieren zu können muss bekannt sein, in welchen Einheiten und gemessen wurden. 2. Die Steigung einer linearen Funktion ist per Definition konstant, d.h. hat für jeden Wert von den gleichen Wert. Dies wird in Abbildung 3.1 dargestellt. 3. Da die Steigung konstant ist spielt es keine Rolle, ob wir infinitesimale oder diskrete Änderungen untersuchen, β 2 = dŷ d = ŷ Man beachte, dass eine lineare Funktionsform eine sehr schlechte Anpassung liefern kann, wenn der tatsächliche Zusammenhang nichtlinear ist. Abbildung 3.2 zeigt ein Beispiel. In diesem Fall würde eine quadratische Funktionsform, bei die Größe des marginalen Effekts von (d.h. der Steigung) abhängt und deshalb nicht konstant ist, einen weit besseren Fit liefern. Wie man erkennen kann, ist in diesem Fall bei sehr großen der wahre marginale Effekt sogar negativ! Der lineare OLS Schätzer liefert zwar trotzdem eine bestmögliche lineare Anpassung, aber diese ist zumindest bei sehr kleinen und sehr großen sehr schlecht. Eine sorglose Interpretation dieser OLS Koeffizienten könnte zu fatalen Fehlurteilen führen. Erinnern wir uns an unser früheres Beispiel mit den Autopreisen Preis = Alter ( ) *** ( ) *** R 2 = 0.887, ˆσ = , n = 61 (Standardfehler in Klammern) *...p < 0.1, **...p < 0.05, ***...p < 0.01 Alle Koeffizienten weisen das erwartete Vorzeichen auf und sind hoch signifikant von Null verschieden. Wie schon erwähnt würden wir aufgrund dieser Regressionsgleichung erwarten, dass der durchschnittliche Preis jedes Jahr um ca Euro 2

3 ŷ = β 1 + β Abbildung 3.1: Lineare Funktion ŷ = β 1 + β 2 = Wenn um eine Einheit zunimmt, steigt ŷ um 0.6 Einheiten, bzw. erwarten wir eine Zunahme von um 0.6 Einheiten. Wenn um drei Einheiten steigt, erwarten wir eine Zunahme von um = 1.8 Einheiten. Abbildung 3.2: Eine lineare Funktion ŷ = β 1 + β 2 kann einen sehr schlechten Fit liefern, wenn der tatsächliche Zusammenhang nicht-linear ist. 3

4 fällt. Für ein Auto mit einem Alter von zwei Jahren würden wir einen Preis von ca Euro erwarten, d.h. E(Preis Alter = 2) = Ein wesentlicher Teil des Charmes linearer Regressionsmodelle liegt darin, dass die einfache Interpretation der Koeffizienten als marginale Effekte auch in der multiplen Regression erhalten bleibt. Wir haben schon erwähnt, dass im Fall von zwei erklärenden Variablen ŷ = β 1 + β β 3 3 die gefitteten Werte ŷ auf einer Regressionsebene liegen, siehe Abbildung 3.3. β 2 1 ŷ β Abbildung 3.3: Ceteris-paribus Interpretation der Koeffizienten im linearen Modell ŷ = β 1 + β β 3 3. Der Koeffizient β 1 misst nach wie vor das Interzept, d.h. den Achsenabschnitt des Schnittpunkts mit der -Achse. Die beiden Steigungskoeffizienten β 2 und β 3 messen die Steigungen in Richtung der beiden -Achsen. Aufgrund der linearen Funktionsform sind die Regressionskoeffizienten die partiellen Ableitungen der Regressionsgleichung und können deshalb wieder als marginale Effekte interpretiert werden Marginale Effekte: ŷ = β 1 + β β 3 3 β 2 = ŷ 2, β3 = ŷ 3 Neu ist nur die ceteris paribus Interpretation, d.h. aufgrund der linearen Funktionsform hat eine Änderung von 3 keine Auswirkungen auf den marginalen Effekt von 2, und vice versa. Der Regressionskoeffizient β 2 gibt also an, um wie viele Einheiten 4

5 sich das ŷ verändert, wenn 2 um eine Einheit zunimmt und 3 unverändert bleibt; analoges gilt für β 3. Diese ceteris-paribus Interpretation wird durch Verwendung des partiellen Ableitungszeichens zum Ausdruck gebracht. Wiederum, falls der tatsächliche Zusammenhang nichtlinear ist, kann die lineare Funktionsform eine sehr schlechte Anpassung liefern. Es ist durchaus möglich, dass eine nichtlineare Funktionsform, bei der die marginalen Effekte von 2 und 3 nicht konstant sind und möglicherweise auch voneinander abhängen, eine bessere Erklärung der abhängigen Variable liefern würde, aber die OLS Methode liefert uns immerhin eine beste lineare Approimation 1 der Daten. Beispiel: Wir haben vorhin den Zusammenhang zwischen dem Preis von Gebrauchtautos und deren Alter untersucht. Natürlich wird der Preis nicht nur vom Alter abhängen, sondern auch von zahlreichen anderen Faktoren, wie zum Beispiel dem Kilometerstand. 2 Eine Regression des Verkaufspreises auf Alter und Kilometerstand gibt Preis = Alter KM ( ) *** ( ) *** (0.007) *** R 2 = 0.902, ˆσ = , F-Stat = , n = 61 (Standardfehler in Klammern) *...p < 0.1, **...p < 0.05, ***...p < 0.01 Wiederum weisen alle Koeffizienten das erwartete Vorzeichen auf und sind hoch signifikant von Null verschieden. Wenn wir den km-stand als zusätzlichen Regressor berücksichtigen folgt, dass wir einen durchschnittlichen jährlichen Preisrückgang von ca Euro erwarten würden, wenn die Kilometerzahl bleibt. Dieser Wert ist um ca. 550 Euro kleiner als der Wert, den wir in der bivariaten Regression Preis = Alter erhalten haben. Warum ist das so? Kilometerstand und Preis sind vermutlich hoch korreliert. Wenn wir den Kilometerstand nicht als Regressor berücksichtigen, und dieser mit dem Alter korreliert ist, kommt im Regressionskoeffizienten für das Alter auch der durchschnittlich höhere Kilometerstand zum Ausdruck. Wenn wir den Kilometerstand aber als zusätzlichen Regressor berücksichtigen wird für diesen Effekt kontrolliert 3, der Koeffizient des Alters misst dann den jährlichen durchschnittlichen Wertverlust bei konstanter Kilometerzahl. Analog sagt uns der Koeffizient von KM, dass der erwartete Wertverlust pro tausend Kilometer ca. 22 Euro (bzw. 2.2 Cent pro km) beträgt, wenn das Alter konstant gehalten wird (erinnern Sie sich, aufgrund der linearen Funktionsform gilt dies nicht nur für infinitesimal kleine Änderungen, sondern auch für diskrete Änderungen der erklärenden Variablen. Wenn wir den Kilometerstand 3 mit 1000 multiplizieren, erhalten für die Änderung von ŷ 1000 β 3 = 22; dies würde bei nichtlinearen Funktionsformen nicht eakt gelten). 1 Dies wird später ausführlich gezeigt und bewiesen, hier ist s erst mal eine Behauptung. 2 Dies ist ein sehr einfaches Beispiel für ein hedonistisches Preismodell ( hedonic pricing model ). Dabei wird im wesentlichen der Preis eines Gutes durch seine Eigenschaften erklärt. Weit verbreitet sind solche Preismodelle z.b. für Immobilienmärkte. 3 Dieser Sprachgebrauch geht auf die eperimentellen Ursprünge der Regressionsanalsezurück. 5

6 Aufgrund dieser Regression würden wir z.b. für ein Auto mit einem Alter von vier Jahren und 50,000 km einen Preis von Euro erwarten. Wenn mit einem Auto über einen Zeitraum von zwei Jahren Kilometer zurücklegt wurden, muss aufgrund dieser Regression mit einem Wertverlust von = Euro gerechnet werden. In dieser ceteris-paribus Interpretation der Koeffizienten als marginale Effekte liegt ein großer Vorteil des multiplen Regressionsmodells, es erlaubt die Kontrolle mehrerer Einflussfaktoren, die gleichzeitig auf die abhängige Variable einwirken. Diese ceteris paribus Interpretation der Koeffizienten ist selbst dann gültig, wenn die Daten nicht auf eine ceteris paribus Art erhoben wurden. Um z.b. die isolierten Einflüsse des Alters und Kilometerstandes auf den Verkaufspreis zu messen müssen wir nicht getrennte Stichproben erheben für Autos mit gleichem Alter und unterschiedlichem Kilometerstand, sowie Autos mit gleichem Kilometerstand und unterschiedlichem Alter, es reicht eine Stichprobe um die einzelnen Effekte zu messen. Die lineare Regression ermöglicht deshalb auch für nichteperimentelle Daten eine ceteris paribus Interpretation der Koeffizienten. 4 Diese Interpretation ist selbstverständlich auch dann zulässig, wenn die erklärenden Variablen untereinander korreliert sind, wie dies z.b. in unserem Beispiel mit Kilometerstand und Alter der Autos zu erwarten ist. Die Interpretation der Steigungskoeffizienten als marginaler Effekt gilt allerdings nur, falls wir das Regressionsmodell korrekt spezifiziert haben. Falls wir eine wichtige erklärende Variable im Regressionsmodell nicht berücksichtigt haben, die mit einer berücksichtigten Variable korreliert ist, führt die Interpretation als marginaler Effekt zu falschen Schlussfolgerungen. Kehren wir nochmals zurück zu unserem Autobeispiel. Angenommen die korrekte Spezifikation sei Preis = Alter KM ( ) *** ( ) *** (0.007) *** und wir regressieren irrtümlich nur auf das Alter, bzw. nur auf den Kilometerstand Preis = Alter ( ) *** ( ) *** Preis = KM ( ) *** (0.006) *** In beiden Fällen erhalten wir im falsch spezifizierten Modell absolut gesehen deutlich größere Steigungskoeffizienten als im korrekt spezifizierten Modell. Was ist passiert? Wenn wir nur auf das Alter regressieren misst der Steigungskoeffizient nicht nur den Einfluss des Alters, sondern indirekt auch den Einfluss des nicht berücksichtigten Kilometerstands. Da das Alter und der Kilometerstand von Gebrauchtautos 4 Man beachte, dass sich diese ceteris-paribus Interpretation nur auf die im Modell vorkommenden Variablen bezieht. 6

7 üblicherweise positiv korreliert sind, überschätzen wir den Einfluss des Alters, ein Teil des Preisverlusts ist auf den durchschnittlich höheren Kilometerstand zurückzuführen. Abbildung 3.4 gibt anhand eines Venn Diagramms einen intuitiven Einblick. Die Streuung der Variablen Preis, Alter und Kilometerstand wird durch Kreise smbolisiert, und die Korrelation zwischen den Variablen durch die Überschneidungen der Kreise. Im korrekt spezifizierten Modell (linkes Panel) geht die Fläche A in die Schätzung des Koeffizienten für das Alter ein und die Fläche B in die Schätzung des Koeffizienten für den Kilometerstand. Die Überschneidungsfläche C, die aus der Korrelation zwischen Alter und Kilometerstand resultiert, kann nicht klar einer der Variablen zugeordnet werden, und geht deshalb nicht in die Schätzung der Steigungskoeffizienten ein. Wie man erkennen kann, führt eine hohe Korrelation zwischen den erklärenden Variablen dazu, dass die Überschneidungsfläche C sehr groß wird, und die Flächen A und B, die in die Schätzung der Steigungskoeffizienten eingehen, entsprechend klein werden. Dieses Problem einer hohen Korrelation zwischen den erklärenden Variablen wird in der Ökonometrie Multikollinearität genannt und wird später noch ausführlich diskutiert. Hier sei nur vorausgeschickt, dass die damit einhergehenden Probleme sehr ähnlich sind wie die einer (zu) kleinen Stichprobe, die Schätzung der einzelnen Steigungskoeffizienten wird ungenau. Anders im Fall des falsch spezifizierten Modell im rechten Panel. Wenn der Kilometerstand nicht als eigene Variable berücksichtigt wird, gehen die Flächen A und C in die Schätzung des Koeffizienten für das Alter ein, die Fläche C zumindest teilweise zu unrecht, da diese zum Teil dem nicht berücksichtigten Kilometerstand zuzuschreiben ist. Dies gibt dem Alter einen größeren Stellenwert als ihm eigentlich zukommt, da es die nicht berücksichtigten Variablen, die mit dem Alter und dem Preis korreliert sind, mit einfängt! Die Folgen sind gravierend, der Koeffizient des Alters misst nicht länger den korrekten marginalen Effekt, sondern ist gewissermassen verschmutzt durch die fälschlich nicht berücksichtigten Variablen. Analoges gilt, wenn wir nur auf den Kilometerstand regressieren und das Alter nicht berücksichtigen. In diesem Fall würden wir einen Teil des Preisverlustes, der eigentlich dem Alter zuzuschreiben ist, zu unrecht dem Kilometerstand zuschreiben. Deshalb erhalten wir einen weit überhöhten Preisverlust von 8 Cent pro Kilometer anstelle der korrekten 2 Cent, die bei einer Berücksichtigung von Kilometerstand und Alter resultieren. Dieses Problem ist in die Literatur als Omitted Variables Bias eingegangen und wird später noch ausführlich diskutiert. Hier sei nur vorausgeschickt, dass ein Omitted Variables Bias nur auftreten kann, wenn der fehlende Regressor in der Grundgesamtheit sowohl mit der abhängigen Variable als auch mit dem berücksichtigten Regressor korreliert ist. Halten wir also fest, falls wesentliche erklärende Variablen fehlen oder die wahre Funktionsform der PRF nicht linear ist, kann die einfache Interpretation der Steigungskoeffizienten als marginale Effekte zu (sehr) irreführenden Schlussfolgerungen führen! 7

8 Preis Preis A C B A C B Alter KM Alter KM Preis = β 1 + β 2 Alter+ β 3 KM Preis = β 1 + β 2Alter Abbildung 3.4: Korrektes und fehlspezifiziertes Modell. Im korrekt spezifizierten Modell (linkes Panel) geht die Überschneidungsfläche C nicht in die Schätzung der Steigungskoeffizienten ein. Falls der Kilometerstand fälschlich nicht berücksichtigt wird geht die Fläche C fälschlich in die Schätzung des Koeffizienten für das Alter ein ( Omitted Variables Bias, rechtes Panel). Tatsächlich haben wir die Daten gewissermaßen auf das Prokrustes-Bett 5 unserer Spezifikation gezwungen! Nur wenn die empirische Spezifikation die PRF einigermaßen gut abbildet können wir den Ergebnissen vertrauen, nur dann wird der Wanderer die Nacht im Bett des Prokrustes ohne größeres Unbill überstehen. Die Annahme der Linearität ist allerdings nicht ganz so restriktiv wie es auf den ersten Blick scheinen mag, denn sie bezieht sich nur auf Linearität in den Parametern, aber nicht auf Linearität in den Variablen. Modelle, die nicht-linear in den Variablen sind, können ganz normal mit OLS geschätzt werden. So können wir z.b. für das Modell = β 1 +β β 3log( 2 )+β ε neue Variablen definieren z 2 = 2 2,z 3 = log( 2 ) und z 4 = 1 2 und die Koeffizienten des Modells = β 1 + β 2 z 2 + β 3 z 3 + β 4 z 4 + ˆε wie üblich mit OLS schätzen. Man beachte, dass dieses Modell zwar nicht-linear in den Variablen 1 und 2 ist, aber linear in den Parametern β 1,β 2 und β 3. Um Modelle mit OLS schätzen zu können müssen diese nur linear in den Parametern sein, nicht aber linear in den Variablen. Hingegen benötigt man für Modelle, die nicht-linear in den Parametern sind, wie z.b. = β 1 +β log(β 3 ) 2 +β 2 β 3 2 +ε 5 Prokrustes eine Figur aus der griechischen Mthologie war bekannt dafür Reisenden ein Bett anzubieten, und sie dann an die Größe des Bettes anzupassen. War der Wanderer groß hackte er ihm die Füße ab, war der Wanderer klein zog er ihn in die Länge. 8

9 andere Methoden, auf die wir hier nicht eingehen werden. 6 Hier beschränken wir uns auf Modelle, die nicht-linear in den Variablen sind, denn solche Modelle werden in der Prais sehr häufig angewandt. Das Problem bei solchen Modellen ist nicht die Schätzung die funktioniert vollkommen gleich wie bisher sondern die korrekte Interpretation der Parameter. 3.2 Logarithmische Transformationen Die in der angewandten Ökonometrie am häufigsten verwendete Funktionsform ist vermutlich die logarithmische Transformation von Variablen. Wenn die abhängige und die erklärende Variable logarithmiert wird spricht man von einem log-linearen oder log-log Modell. Wenn hingegen nur die abhängige oder die erklärende Variable logarithmiert wird spricht man von einem semi-log Modell, oder manchmal auch von einem log-lin bzw. lin-log Modell. ln() ln() = β 1 +β 2 ln() = e β1 β2 ln() Abbildung 3.5: Log-log Modell auf logarithmisch und linear skalierten Skala Ein wesentlicher Grund für die Beliebtheit logarithmischer Modelle liegt in der Tatsache, dass Differenzen logarithmierter Variablen näherungsweise den relativen Änderungen der ursprünglichen Variablen entsprechen. Wir erinnern uns an die Ableitungsregel für den natürlichen Logarithmus dln d = 1 ist. Dies können wir umgeschrieben denken als dln = d und erinnern uns, dass d(ln) eine infinitesimal kleine Änderung von ln() bezeichnet. Deshalb ist eine infinitesimal kleine Änderung von ln() ist gleich der relativen Änderung von, wobei wir unter einer relativen Änderung die Differenz dividiert durch den ursprünglichen Wert verstehen. Wenn z.b. von 4 auf 5 zunimmt ist die 6 Modelle, die nicht-linear in den Parametern sind, können in EViews trotzdem sehr einfach geschätzt werden, z.b. mit ls = c(1) + c(2) 2 * 1 * 2, aber die Theorie dahinter und die Eigenschaften unterscheiden sich deutlich vom OLS Modell. 9

10 relative Änderung / = (5 4)/4 = Wenn man eine relative Änderung mit 100 multipliziert erhält man eine prozentuelle Änderung. In Analogie dazu würden wir erwarten, dass für diskrete Fälle näherungsweise ( ) gilt ln(+ ) ln() Dieser Zusammenhang gilt tatsächlich, wenn / relativ klein ist, d.h. die logarithmische Differenz einer Variable misst tatsächlich näherungsweise die relative Änderung der ursprünglichen Variable. Die Verteilung vieler Variablen wird durch das Logarithmieren smmetrischer, z.b. Lohndaten, vgl. Abbildung 3.6. WAGE LOG(WAGE) Densit Densit Histogram Kernel Histogram Kernel Abbildung 3.6: Verteilung der Stundenlöhne und logarithmierten Stundenlöhne für Österreich (Daten: EU-SILC 2009) Log-lineare (log-log) Modelle Das Modell i = A β i ep(ε i) lässt sich einfach durch logarithmieren linearisieren: 7 ln i = α+βln i +ε i (α := lna) Dieses logarithmierte Modell ist linear in den Parametern und kann deshalb ganz normal mit OLS geschätzt werden. Abbildung 3.7 zeigt mögliche Verläufe für positive (links) und negative β (rechts). Interpretation: Auch die Koeffizienten log-linearer Modelle messen wie üblich den marginalen Effekt β = dln dln das heißt, der Koeffizient gibt an, um wieviele Einheiten sich ln ceteris paribus ändert, wenn ln um eine Einheit zunimmt. Das Problem dabei ist, dass kaum 7 ep(ε i ) := e εi, wobei e die Eulersche Zahl ist. Um Verwechslungen mit den Stichprobenresiduen e zu vermeiden werden wir meist die Funktion ep(ε i ) verwenden. 10

11 Ekurs: Logarithmus Logarithmieren zu einer Basis ist einfach die Umkehrung des Potenzieren einer Basis, d.h. wenn a = b dann ist log b (a) = oder in anderen Worten, der Logarithmus zur Basis b ist die Umkehrfunktion der allgemeinen Eponentialfunktion zur Basis b. In der Ökonometrie wird fast ausschließlich der natürliche Logarithmus verwendet, d.h. der Logarithmus zur Basis e = Für den natürlichen Logarithmus wird häufig das Funktionszeichen ln verwendet. ln() = a bedeutet e a := ep(a) = Zum Beispiel ist e 2 = = 7.389, deshalb ist ln(7.389) = 2. Der Logarithmus einer negativen Zahl ist deshalb nicht definiert. Hier ein paar Logarithmen positiver Zahlen: ln(0) = ln(0.1) = ln(0.5) = ln(1) = 0 ln(10) = ln(1000) = ln( ) = ln() Aus den Potenzgesetzen lassen sich die üblichen Rechenregeln für Logarithmen ableiten, z.b. ln(a b) = ln(a)+ln(b) ( a ln = ln(a) ln(b) b) ln(a ) = ln(a) ln(1/) = ln() Achtung: Viele Ökonometrieprogramme verwenden fürden natürlichenlogarithmus die Funktion log (EViews 11

12 Ekurs: Logarithmische Differenz und relative Änderungsraten Wir haben im Tet behauptet, dass die logarithmische Differenz einer Variable ungefähr gleich der relativen Änderung dieser Variable ist ln(+ ) ln() für kleine Dies kann allgemein mit Hilfe einer Talor Epansion gezeigt werden. Mit einer Talor Reihenentwicklung können nichtlineare (differenzierbare...) Funktionen in der Umgebung bestimmter Punkte durch Potenzreihen dargestellt werden. Insbesondere gilt bzw. für = ln(1+) = ( 1) n=1 (n+1) n n ( ln 1+ ) = = für < 1 3 ( ) ( ) 3... Die linke Seite kann auch als logarithmische Differenz geschrieben werden, da ( ln 1+ ) ( ) + = ln = ln( + ) ln() Daraus folgt ln( + ) ln() da für kleine / die Folgeterme 1/2( /) 2 +1/3( /) 3... der Reihe sehr klein werden und oft vernachlässigbar sind. 12

13 β > 1 β < 1 A A 1 < β < 0 β = 1 β < Abbildung 3.7: Log-lineare (bzw. log-log) Modelle: = A β jemand für die Veränderungen der Logarithmen interessieren wird, wir wollen meist wissen, wie sich selbst verändert, wenn um eine Einheit zunimmt. Hier zeigt sich ein erster großer Vorteil log-linearer Modelle, denn die Koeffizienten haben in diesem Fall auch in Bezug auf die ursprünglichen Variablen und eine sehr einfache Interpretation, sie können nämlich direkt als Elastizitäten interpretiert werden. Erinnern wir uns, die Elastizität E zwischen und ist definiert als E, := d d d := und gibt (näherungsweise) an, um wieviel Prozent sich die abhängige Variable ändert, wenn die erklärende Variable ceteris paribus um ein Prozent zunimmt. Um dies zu erkennen können wir das Modell ln = β 1 + β 2 (ln) total differenzieren und erhalten unter Berücksichtigung von ln/ = 1/ 1 d = β 2 1 d d Umschreiben gibt β 2 = d d = d d = dln() dln() = E, Beispiel: Cobb-Douglas Funktionen der Art = β 1 β 2 1 β 3 2 ep(ε) spielen in den Wirtschaftswissenschaften eine große Rolle und können durch Logarithmieren einfach Linearisiert werden ln = ln( β 1 )+ β 2 ln( 1 )+ β 3 ln( 2 )+ ˆε 13

14 Es ist bekannt, dass die Koeffizienten der Cobb-Douglas Funktion direkt die Elastizitäten angeben, wie einfach gezeigt werden kann: die Ableitung von = β 2 1 β β ep(ε) nach 1 ist 8 bzw. 1 = β 2 ( β1 β β 3 2 ep(ε) ) = β ) 2 2 ( β1 β β ep(ε) 1 1 = β 2 1 β 2 = 1 1 := E, 1 wobei E,1 die übliche Elastizität bezeichnet. Es ist offensichtlich, dass man den gleichen Koeffizienten viel einfacher unmittelbar aus der Ableitung der log-log Funktion ln() = β 1 + β 2 ln( 1 )+ β 3 ln( 2 )+ ˆε erhält, β 2 = ln() ln( 1 ) = E, 1 Achtung: Die Beziehung = α β kann ökonometrisch auf verschiedene Arten modelliert werden, z.b. 1) i = α β i ep(ε i) ln i = lnα+βln i +ε i 2) i = α β i ε i ln i = lnα+βln i +lnε i 3) i = α β i +ε i ln i = ln(α β i +ε i) Nur die erste Gleichung kann unmittelbar mittels OLS geschätzt werden, sofern die Gauss-Markov Annahmen erfüllt sind. WenndieResiduender zweiten Gleichung normalverteilt sind, d.h.ln(ε i ) N(0,σ 2 ), so ist der Störterm ε i log-normalverteilt mit Erwartungswert ep(σ 2 /2) (siehe Ekurs Seite 14). DiedritteGleichungln i = ln(α β i +ε i)istschließlichnichtlinearindenparametern, da ln(a+b) lna+lnb, und kann nicht mit OLS geschätzt werden Das Log-Lin Modell Das log-lin Modell 9 ln = α+β mit d ln d = β ist in Abbildung 3.8 dargestellt. Die linke Abbildung zeigt den Funktionsverlauf für einen positiven Steigungskoeffizienten β, die rechte Grafik für einen negativen Steigungskoeffizienten. 8 Wir verwendenhierdas partielle Ableitungszeichen, weil die Funktion mehr alseine erklärende Variable enthält. 9 Das log-lin Modell ist nicht zu verwechseln mit dem log-linearen Modell ln = α+βln(). 14

15 Ekurs: Die Log-Normalverteilung (Logarithmische Normalverteilung) Eine Zufallsvariable, deren natürlicher Logarithmus normalverteilt ist, ist lognormalverteilt. Das heißt, wenn ln(x) N(µ,σ 2 )), dann ist X log-normalverteilt. Anders herum, wenn eine Zufallsvariable Y normalverteilt ist, dann ist X = ep(y) log-normalverteilt. Die Log-Normalverteilung ist rechtsschief und kann nur positive Werte annehmen. Eine log-normale Verteilung wird häufig zur Modellierung von Zufallsvariablen herangezogen, die man sich als das (multiplikative) Produkt vieler kleiner unabhängiger Faktoren vorstellen kann. Erwartungswert und Varianz sind ) E(X) = ep (µ+ σ2 2 var(x) = ep(2µ+2σ 2 )[1 ep( σ 2 )] Median(X) = ep(µ) Für µ = 0 ist der Mittelwert ep(σ 2 /2) und die Varianz ep(σ 2 )(ep(σ 2 1)). 15

16 Für die Interpretation des Koeffizienten differenzieren wir wieder total und erhalten d = βd, or 1 β = d d = 1 / d.h. der geschätzte Koeffizient für β gibt näherungsweise ( ) die relative Änderung von an, die durch eine Zunahme von um eine Einheit ausgelöst wird. Wenn man β mit 100 multipliziert erhält man daher näherungsweise die prozentuelle Änderung von, wenn um eine Einheit zunimmt d d 100β 100 = prozentuelle Änderung von Änderung von um eine Einheit ln = α + β β > 0 ln = α+β β < 0 e α Abbildung 3.8: Log-lin Modelle: ln = α+β Stetige und diskrete Änderungen Der Grund, warum wir oben das Zeichen für näherungsweise verwendet haben liegt in der nicht-linearen Funktionsform. Abbildung 3.9 zeigt den Funktionsverlauf. Wenn um eine Einheit zunimmt (d.h. = 1), ändert sich um Einheiten. Wenn die Änderung von sehr klein gewählt wird ( 0) nähert sich dies der Ableitung, d.h. der Steigung der Tangente. Für infinitesimal kleine Änderungen misst die Steigung der Tangente den marginalen Effekt genau, aber für diskrete Änderungen von gibt d nur näherungsweise die Auswirkung auf wieder. d Man beachte, dass wir uns in der Regel für die diskreten Differenzenquotienten interessieren, denn dieser gibt uns an, um wieviele Einheiten sich ändert, wenn um eine diskrete Einheit zu- oder abnimmt. Wenn die Kurve wenig gekrümmt ist und nicht allzu groß ist, wird dieser Effekt durch den stetigen Differentialquotient 16

17 ln = β 0 +β 1 d d = 1 Abbildung 3.9: Auswirkung einer diskreten Änderung von (d.h. ) auf. d d relativ gut approimiert. Wie man aus Abbildung 3.9 erkennen kann, ist diese Approimation für stark gekrümmte Kurven und große weniger gut. Glücklicherweise kann aus den Parametern eines log-lin Modells die genaue prozentuelle Änderung von sehr einfach berechnet werden. Dies sei an folgendem Modell gezeigt ln t = β 1 + β 2 ln t1 + β 3 t2 (da diese Modelle häufig für Zeitreihen angewandt werden, verwenden wir als Inde für die Beobachtungen t) Dieses Modell ist ein log-log (bzw. log-lineares) Modell in 1 und ein log-lin Modell in 2. Der Koeffizient β 2 ist wie im vorhergehenden Abschnitt gezeigt eine gewöhnliche Elastizität; wenn z.b. β2 = 0.5 würde eine Zunahme von 1 um ein Prozent eine Zunahme des Erwartungswertes von um 0.5 Prozent bewirken. Der Koeffizient β 3 gibt näherungsweise die relative Änderung von an, wenn sich 2 um eine (phsische) Einheit ändert. Die genaue Änderung erhält man, wenn man 1 konstant hält ( 1 = 0) und die Differenzen bildet ln t := ln t ln t 1 = β 2 0+ β 3 ( t,2 t 1,2 ) ( ) t ln = β 3 ( 2 ) [ ( )] t 1 t ep ln = t = ep( β 3 2 ) t 1 ( t 1 ) t 1 = ep( β 3 2 ) 1 ( t 1 ) t ( ) t = ep( β 3 2 ) t 1 17

18 bzw. für 2 = 1 ( ) t t 1 % := 100 = t 1 [ ] ep( β 3 ) d.h. im log-lin Modell ist die prozentuelle Änderung ( von, die ) durch eine Änderung von 2 um eine Einheit ausgelöst wird, gleich ep( β 3 ) Wenn β 3 klein ist (die Funktion also nur wenig gekrümmt ist) macht es keinen großen Unterschied, ob man β ( ) 3 oder ep( β 3 ) verwendet, aber wenn der geschätzte ( Koeffizient ) β 3 z.b. größer als 0.05 ist sollte für obige Interpretation der Wert ep( β 3 ) herangezogen werden. Die folgende Tabelle soll dies verdeutlichen (die Werte müssen mit 100 multipliziert werden um Prozentwerte zu erhalten): β 3 ep( β 3 ) Beispiel: EU-SILC Daten (2009) für Österreich LOG(WAGE) = EDUC EXPER (0.028) *** (0.002) *** (0.001) *** R 2 = 0.21, s = 0.496, F-Stat = , n = 5133 (Standardfehler in Klammern) Berechnung von durchschnittlichen Wachstumsraten mittels OLS Mit Hilfe einer einfachen log-lin Regression auf den Trend 10 kann einfach eine durchschnittliche Wachstumsrate berechnet werden. Wenn τ die diskrete Wachstumsrate einer Variable ist gilt t = 0 (1+τ) t ln t = ln 0 +ln(1+τ) t Dieser Zusammenhang sollte für jede Periode gelten. Um die diskrete Wachstumsrate τ zu schätzen können wir deshalb t durch eine Trendvariable Trend = 1,2,3,...,T ersetzen. Wenn wir mit 0 den Wert von in der Ausgangsperiode bezeichnen ist ln t = ln }{{} 0 +ln(1+τ) Trend }{{} β 1 β 2 10 Eine Trendvariable nimmt mit jeder Beobachtung um eine Einheit zu, z.b. Trend = 0,1,2,3,...,T. In EViews kann eine Trendvariable mit der erzeugt werden, z.b. series Trend 18

19 Wir können also einfach ln t = β 1 + β 2 Trend+ ˆε t schätzen und aus β 2 = ln(1 + τ) die durchschnittliche diskrete Wachstumsrate τ berechnen, denn aus β 2 = ln(1+τ) folgt τ = ep( β 2 ) 1 Die prozentuelle durchschnittliche diskrete Wachstumsrate ist deshalb τ% := τ 100 = [ep( β 2 ) 1] 100 Wenn β 2 sehr klein ist (z.b. kleiner als 0.05) wird sich β 2 nur geringfügig von τ unterscheiden, bei größeren Werten sollte aber die Korrektur ep( β 2 ) 1 angewandt werden Das Lin-Log Modell Die grafische Abbildung des lin-log Modells findet sich in Abbildung i = β 1 +β 2 ln i = α + β ln β > 0 = α+βln β < 0 e α/β Abbildung 3.10: Lin-log Modell: = α+βln Die Interpretation des Koeffizienten erhält man wieder, indem man die (partielle) Ableitung bildet. Aus der Kettenregel folgt d/d = d/d(ln ) d(ln )/d und somit d d = β

20 bzw. β 2 = d d/ = Änderung in relative Änderung in Um eine prozentuelle Änderung von zu erhalten muss die linke und rechte Seite durch100dividiertwerden,d.h.eineänderungvonum1%führtzueineränderung von um 0.01 β 2 Einheiten, da β 2, 0.01 β 2 = Wann logarithmieren? 100 = Änderung von prozentuelle Änderung von Durch Logarithmierung sind die Steigungskoeffizienten unabhängig von der gewählten Maßeinheit und deshalb einfach zu interpretieren. Darüber hinaus bietet die Logarithmierung Vorteile, wenn die bedingte Verteilung von schief ist oder die Fehlervarianzen von ε nicht konstant sind (Heteroskedastizität), denn häufig erfüllt die Verteilung von ln() die Gauss-Markov Annahmen besser als. Da durch die Logarithmierung die Verteilung gestaucht wird, sind logarithmische Gleichungen häufig auch weniger anfällig gegen Ausreißer (outliers). Sehr häufig werden v.a. Variablen logarithmiert, die im Niveau (Level) gemessen werden, und von denen man annehmen kann, dass sie im Zeitablauf wachsen (z.b. Geldbeträge, Bevölkerung,...). Variablen, die eine Zeitdimension haben, werden seltener logarithmiert. Sehr häufig werden makroökonomische Variablen wie z.b. das BIP logarithmiert, von denen man plausibel annehmen kann, dass sie langfristig ungefähr eponentiell wachsen. Wenn diese Variablen ungefähr mit einer bestimmten durchschnittlichen Wachstumsrate Jahr für Jahr wachsen, dann nimmt der Logarithmus dieser Variablen linear zu. Ein weiterer Grund besteht darin, dass die Standardabweichung vieler ökonomischer Variablen ungefähr proportional zum Niveau dieser Variablen ist, deshalb ist die Standardabweichung der logarithmierten Variablen näherungsweise konstant. In anderen Worten, das Logarithmieren ökonomischer Variablen führt häufig zu einer Art Stabilisierung der Standardabweichung. Achtung: Es ist darauf zu achten, dass keine Variablen logarithmiert werden, die negative Werte annehmen können, da der Logarithmus einer negativen Zahl nicht definiert ist. Wird eine Variable mit negativen Werten logarithmiert, so gehen die negativen Werte verloren (z.b. na für not available überschrieben). Besondere Vorsicht ist bei Änderungsraten oder Wachstumsraten geboten, die wenn überhaupt nur in ganz speziell begründeten Fällen logarithmiert werden sollten. Das entscheidende Argument für die Wahl der Funktionsform sollte sein, welches Modell mit der Theorie konsistent ist und die Daten am besten abbildet. Wir werden in dem späteren Kapitel Spezifikation einen Test von MacKinnon, White& Davidson kennen lernen, der diese Entscheidung erleichtern sollte. Oft reicht allerdings schon ein Blick auf das Histogramm der geschätzten Residuen um zu erkennen, welche Funktionsform am ehesten angebracht ist. 20

21 Beispiel: Die folgende Regression erklärt den Gehalt von CEO s (Salar, gemessen in 1000 $) in Abhängigkeit vom Verkaufsvolumen der Firmen (Sales, gemessen in Mio. $) und dem Return on Equit (ROE, alle Daten aus Wooldridge 2000). ohne Log: mit Log: SALARY = SALES ROE (3.71) (1.842) (1.772) R 2 = 0.029, s = , N = 209 (t-statistiken in = ROE (14.843) (8.272) (4.519) R 2 = 0.282, s = 0.482, N = 209 (t-statistiken in Klammern) Residuen ohne Log: Series: RESID Sample Observations 209 Residuen mit Log: Series: RESID Sample Observations Mean -3.81E-14 Median Maimum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probabilit Mean -9.94E-16 Median Maimum Minimum Std. Dev Skewness Kurtosis Jarque-Bera Probabilit Zusammenfassung: Interpretation der Koeffizienten in Log-Modellen Logarithmen können verwendet werden für die Transformation der abhängigen Variable, der erklärenden Variable(n), oder von beiden, solange die Variablen positiv sind (der Logarithmus einer negativen Variable ist nicht definiert!) Spezifikation Interpretation I. i = β 1 +β 2 ln( i )+ε i Eine Änderung von um 1% geht mit einer Änderung von um 0.01 β 2 Einheiten einher. II. ln( i ) = β 1 +β 2 i +ε i Eine Änderung von um eine Einheit (d.h. = 1) geht ungefähr mit einer Änderung von um 100 β 2 % einher, oder genauer, mit einer Änderung von (ep(β 2 ) 1) 100 Prozent. III. ln( i ) = β 1 +β 2 ln( i )+ε i Eine Änderung von um 1% geht einher mit einer Änderung von um β 2 %, d.h. β 2 kann als Elastizität interpretiert werden. 21

22 3.3 Reziproke Transformationen Eine andere Funktionsform, die z.b. häufig für die Schätzung von Phillips-Kurven herangezogen wird, sind reziproke Transformationen (man verwendet einfach den Kehrwert der Variablen, siehe Abbildung 3.11) = β 1 + β ˆε = α+ β γ β > 0 β < 0 α α γ γ Abbildung 3.11: Reziproke Transformationen Um zum Beispiel die Verkaufsumsätze in Abhängigkeit von den Werbeausgaben zu erklären wird manchmal auch ein log-inverses Modell ln() = β 1 β 2 + ˆε geschätzt. Wie man aus Abbildung 3.12 erkennen kann erlaubt diese S-förmige Funktionsform zuerst zunehmende Grenzerträge von Werbeausgaben, und ab dem Wendepunkt bei β 2 /2 abnehmende Grenzerträge, und nähert sich asmptotisch einem horizontalen Verlauf an. 3.4 Quadratische Modelle und höhere Polnome i = β 1 + β 2 i + β 3 2 i + ˆε i mit = β 2 +2 β 3 Der marginale Effekt ist also nicht konstant, sondern hängt von ab. 22

23 ln() = α+ β Abbildung 3.12: Log-Reziproke Transformationen Achtung: Die Koeffizienten β 2 und β 3 sind einzeln nur selten von Interesse, β 2 gibt nur den marginalen Effekt im Punkt = 0 an! Für quadratische Funktionen kann man immer den Wert von berechnen, bei denen ein Maimum oder Minimum erreicht. Um das Maimum oder Minimum 11 zu bestimmen muss wie üblich die Ableitung nach gleich Null gesetzt und nach gelöst: = β 2 2 β 3 Dies soll anhand einer einfachen Mincer-Lohngleichung demonstriert werden: LOG(WAGE) = EDUC EXPER EXPER 2 (0.03) *** (0.002) *** (0.002) *** (0.000) *** R 2 = 0.236, s = 0.488, F-Stat = , n = 5133 (Standardfehler in Klammern) Der Stundenlohn erreicht demnach bei EXPER = /( Jahren Berufserfahrung ein Maimum. 3.5 Interaktions-Modelle Als erklärende Variablen können auch Produkte einzelner Variablen verwendet werden, z.b. im folgenden Modell das Produkt von 1 und 2 i = β 1 + β 2 i1 + β 3 i2 + β 4 i1 i2 +ε i IndiesenModellenwerden i1 und i2 HaupttermeoderHaupteffekte( main terms ) genannt und das Produkt i1 i2 wird als Interaktionsterm ( interaction term ) bezeichnet. 11 Für ein Minimum muss das Vorzeichen der 2. Ableitung positiv sein, für ein Maimum negativ. 23

24 LOG(WAGE) EXPER Erwarteter Stundenlohn Berufserfahrung Abbildung 3.13: Zusammenhang zwischen erwartetem Stundenlohn und Berufserfahrung. Achtung: Funktionsform erzwingt Smmetrie, der Fit von Polnomen ist häugig nur in-sample gut! (Daten: EU-SILC 2009 Wenn in einem Modell Interaktionsterme berücksichtigt werden sollten auf jeden Fall auch die Hauptterme berücksichtigt werden, da sonst die Gefahr eine Fehlspezifikation aufgrund fehlender relevanter Variablen etrem groß ist (der Interaktionsterm 1 2 ist fast immer mit 1 und 2 korreliert) (Ozer-Balli and Sorensen, 2010). Der marginale Effekte von 1 hängt vom Wert von 2 ab, γ 1 ( 2 ) = 1 = β 2 + β 4 2 d.h. die ceteris paribus Auswirkung einer Änderung von 1 auf hängt auch vom Wert von 2 ab. Wenngetestet werden soll, ob 1 einen Effekt auf hat, darfdeshalb nicht der einfache t-test für den Koeffizienten von 1 herangezogen werden, sondern es muss z.b. mit einem F-Test die gemeinsame Nullhpothese β 2 = 0 und β 4 = 0 getestet werden. Man kann diesen marginalen Effekt z.b. grafisch darstellen, indem man in einer Grafik γ 1 ( 2 ) gegen 2 aufträgt. Der Koeffizient β 2 misst den marginalen Effekt von 1 nur im Punkt 2 = 0! Analog gilt für eine Änderung von 2, wenn 1 konstant gehalten wird, γ 2 ( 1 ) = 2 = β 3 + β 4 1 Der Koeffizient des Interaktionsterms ist einfach die zweite Ableitung β 4 = 1 2 = 2 1 =

25 Man beachte, dass die Funktionsform eine Smmetrie der marginalen Effekte erzwingt (dies ist am zweiten = Zeichen ersichtlich, welches aus Young s Theorem folgt). Vorsicht: (vgl. Brambor et al., 2006) 1. Interpretieren Sie die Koeffizienten des Interaktionsvariable nie als unbdingte marginale Effekte! 2. Falls Sie an den marginalen Effekten interessiert sind berechnen Sie diese für interessierende Werte der anderen Variablen, oder stellen sie diesen grafisch dar. 3. Testen Sie bei marginalen Effekten auf die gemeinsame Signifikanz der entsprechenden Koeffizienten. 4. Berechnen Sie den Standardfehler des marginalen Effekts. Beispiel: LOG(INC) = EDUC EXPER EDUC*EXPER (176.9) (8.991) (5.542) (4.37) R 2 = 0.25, s = 0.517, F-Stat = , n = 3503 (t-statistiken in Klammern) also ln(inc) (EDUC) = EXPER Nach dieser Schätzung steigt der Wert der Bildung (EDUC) mit der Berufserfahrung (EXPER). Bei einer Berufserfahrung von 5 Jahren ist ln(wage) (EDUC) = = das heißt, für jemanden mit 5 Jahren Berufserfahrung würde ein zusätzliches Ausbildungsjahr den Lohn ungefähr um 4.4% erhöhen, bzw. genauer um [ep(0.044) 1] %. Für jemanden mit 20 Jahren Berufserfahrung gilt ln(wage) (EDUC) = = d.h. ein zusätzliches Ausbildungsjahr erhöht den Erwartungswert des Einkommens nach 20 Jahren Berufserfahrung um ungefähr 6% (bzw. genauer um [ep(0.059) 1] 100 = 6.055%). Der hochsignifikante Koeffizient des Interaktionsterms EDUC*EXPER deutet darauf hin, dass der Wert der Bildung mit der Berufserfahrung stärker steigt (bzw., dass der Wert der Berufserfahrung mit der Bildung steigt), als dies durch die individuellen Beiträge von Bildung und Berufserfahrung alleine erklärbar ist. 25

26 In Interaktionsmodellen sind die interagierten Variablen häufig hoch korreliert, also multikollinear. Das muss aber nicht unbedingt ein Problem sein, da diese Funktion selbst nichtlinear ist und deshalb die Regressionsfläche trotzdem gut durch die Beobachtungspunkte abgestützt sein kann. Übersicht: Modell Gleichung Steigung (= d d ) Elastizität (= ) d d Linear = α+β β β(/) Log-linear ln = α+βln β(/) β Log-lin ln = α+β β() β() Lin-log = α+βln β(1/) β(1/) Reziprok = α+β(1/) β(1/ 2 ) β(1/) Achtung: Mit polnomischen Modellen (z.b. quadratischen oder kubischen Modellen) kann man zwar manchmal einen sehr guten Fit in der Stichprobe erreichen, aber für Prognosen sind sie meistens ziemlich unbrauchbar, da die Funktionsform out of sample häufig etreme Verläufe erzwingt. Das Bestimmtheitsmaß R 2 darf nur für den Vergleich von Modellen verwendet werden, in denen die abhängige Variable nicht transformiert wurde und wenn beide Modelle die gleiche Anzahl erklärender Variablen haben. Wenn die abhängige Variable nicht transformiert wurde und beide Modelle eine unterschiedliche Anzahl erklärender Variablen haben kann das korrigierte Bestimmtheitsmaß R 2 verwendet werden. Grundsätzlichsollteweder dasnormaler 2 nochdaskorrigiertebestimmtheitsmaß R 2 für die Einschätzung der Qualität einer Schätzung überinterpretiert werden, da sie nur die Anpassung in der Stichprobe beschreiben. Viel wichtiger ist z.b., ob die geschätzten Koeffizienten die theoretischen Erwartungen erfüllen und signifikant sind. Im Kapitel über Spezifikation werden wir einige weitere Kriterien und Tests kennen lernen. 3.A Appendi 3.A.1 Berechnung von durchschnittlichen Wachstumsraten Bei der Berechnung durchschnittlicher Wachstumsraten werden häufig Fehler gemacht, obwohl dies gerade in den Wirtschaftswissenschaften ziemlich wichtig ist, deshalb werden wir darauf etwas näher eingehen. 26

27 Diskrete Wachstumsraten (i) Unter der diskreten Wachstumsrate verstehen wir die relative Änderung einer Größe zwischen zwei Perioden i = t t 1 t 1 = t t 1 = t t 1 1 Der Quotient t / t 1 wird auch als Wachstumsfaktor bezeichnet. Wenn eine Variable mit einer konstanten diskreten Wachstumsrate i wächst nimmt sie in jeder Periode um i t 1 Einheiten zu. Für t = 1,2,...,T 1 = 0 +i 0 = 0 (1+i) 2 = 1 (1+i) = 0 (1+i)(1+i) = 0 (1+i) 2. T = 0 (1+i) T Sollte die durchschnittliche Wachstumsrate zwischen den Perioden 0 und T berechnet werden, so darf dazu nicht das arithmetische Mittel herangezogen werden! Man kann sich einfach fragen, welche Wachstumsrate i führt vom Wert 0 zu t. Dazu logarithmieren wir T = 0 (1+i) T und lösen nach i ln T = ln 0 +T ln(1+i) 1 T (ln T ln 0 ) = ln(1+i) ( ) 1 ep T ( ln) = 1+i ( [ ]) 1 i 0,T = ep T ln T 1 0 T bezeichnet dabei die Anzahl der Perioden; sollte z.b. die durchschnittliche Wachstumsrate des BIP von berechnet werden, und wird darunter die Periode vom verstanden, so ist T = 6. Stetiges Wachstum (r) Der enge Zusammenhang zwischen Wachstumsraten und der Eponentialfunktion (bzw. dem Logarithmus) wird sofort klar, wenn man mehrere Verzinsungen pro Periode zulässt, und die Anzahl der Verzinsungen pro Periode gegen Unendlich gehen lässt. Wenn die Verzinsung m Mal pro Periode erfolgt ( t = 0 1+ r ) [ mt ( = 0 1+ r ] m/r rt m m) [( = ) w ] rt mit w := m w r 27

28 Wir erinnern uns, dass die Eulersche Zahl als Grenzwert einer Folge dargestellt werden kann ( 1+ w) 1 w = e Also lim m t = 0 e rt := 0 ep(rt) Man beachte, dass in t = 0 (1 + r/m) mt die Zeit noch eine diskrete Variable ist, erst durch die Grenzwertbildung wird die Zeit zu einer stetigen Variable. Außerdem wird hier r als konstant angenommen, aber natürlich müssen tatsächliche Wachstumsraten nicht immer konstant sein. Mit einer stetigen Wachstumsrate kann die Veränderung über die Zeit einfach als Ableitung nach der Zeit berechnet werden d t dt = d( 0e rt ) = r 0 e rt dt Die relative Änderung ist deshalb dt dt t = r 0e rt 0 e rt = r Für sehr kurze Zeitperioden konvergiert die diskrete Wachstumsrate i gegen die stetige Wachstumsrate r { lim i = lim t+ t t 1 } t 0 t 0 t t = d dt 1 = r Wenn eine Variable eponentiell mit konstanter Wachstumsrate r wächst gilt t = 0 e rt, bzw. ln t = ln 0 +rt. Daraus folgt durch Umschreiben r = ln t ln 0 t = ln t Daraus folgt, dass die stetige Wachstumsrate zwischen zwei aneinandergrenzenden Perioden, d.h. wenn t = 1, einfach die logarithmische Differenz ist r t,t+1 = ln t. Ebenso ist aus ln t = ln 0 +rt auch einfach ersichtlich, dass wenn 0 konstant ist. dln t dt Diese Zusammenhänge werden in der empirischen Wirtschaftsforschung ausgiebig genützt, auch weil bei kleinen Wachstumsraten (z.b. r < 0.05) die stetigen Wachstumsraten eine gute Annäherung an die diskreten Wachstumsraten darstellen. = r 28

29 Umrechnen zwischen stetigen und diskreten Wachstumsraten Da zu jedem Zeitpunkt für eine beliebige diskrete Wachstumsrate i genau eine stetige Wachstumsrate r eistiert, die zum gleichen Betrag t führt, kann einfach zwischen diskreten und stetigen Wachstumsraten umgerechnet werden folgt ln 0 +tln(1+i) = ln 0 +rt bzw. 0 (1+i) t = 0 ep(rt) r = ln(1+i) bzw. i = ep(r) 1 Wir haben vorhin gezeigt, dass die stetige Wachstumsrate zwischen zwei Perioden als logarithmische Differenz berechnet werden kann r = ln/t. Wenn man diese in eine diskrete Wachstumsrate umrechnet erhält man wieder i = ep( ln)/t 1. Die prozentuellen Wachstumsraten erhält man wie üblich, indem man diese Wachstumsraten mit 100 multipliziert. Beispiel: Eine Regression des österreichischen BIPs (verkettete Volumenindizes, 2005 = 100, Statistik Austria 12 ) auf den Trend liefert folgendes = ( ) ( ) R 2 = , s = , F-Stat = , DW = , N = 34 ( , Standardfehler in Klammern) Das folgende kleine EViews Programm berechnet die diversen Wachstumsraten für die Periode (34 Perioden). wfcreate(wf=bipaut) a read(t=ls,c7) VGR.ls BIP table(2,3) WR WR(1,1) = "durchschnittl. stetige Wachstumsrate" WR(1,2) = 1/34*( log(@last(bip)) )*100 WR(2,1) = "durchschnittl. diskrete Wachstumsrate" WR(2,2) = (@ep(1/34*( log(@last(bip)) )) - 1)*100 WR(3,1) = "durchschnittl. diskrete Wachstumsrate, OLS" equation WR(3,2) = (@ep(eqlog.@coefs(2)) - 1)*100 show WR durchschnittl. stetige Wachstumsrate (%) r = 1/t(ln t ln 0 )100 = durchschnittl. diskrete Wachstumsrate (%) i = (ep(r) 1)100 = durchschnittl. diskrete Wachstumsr., OLS (%) i = (ep( β 2 ) 1)100 = Wie man auch aus Abbildung 3.14 ersehen kann ist aufgrund des Einbruchs 2009 die durchschnittliche Wachstumsrate, die nur Ausgangs- und Endperiode berücksichtigt, kleiner als die mittels OLS berechnete durchschnittliche Wachstumsrate, die alle Perioden berücksichtigt

30 BIP Austria log(bip) BIP LOG(BIP) BIP Abbildung 3.14: Die Entwicklung des österreichischen BIPs ( ); linke Skala logarithmisch, rechte Skala linear. Literaturverzeichnis Brambor, T., Clark, W. R. and Golder, M. (2006), Understanding interaction models: Improving empirical analses, Political Analsis 14(1), pp URL: Ozer-Balli, H. and Sorensen, B. E. (2010), Interaction Effects in Econometrics, Working Paper Series 7929, CEPR. 30

Nichtlineare Funktionsformen

Nichtlineare Funktionsformen Kapitel 2 Nichtlineare Funktionsformen 2.1 Logarithmische Transformationen The combination of some data and an aching desire for an answer does not ensure that a reasonable answer can be etracted from

Mehr

Nachtrag Kapitel 3: Marginale Effekte

Nachtrag Kapitel 3: Marginale Effekte Tabelle 3.1: Preise von Gebrauchtautos. Abh.Var.: Preis (1) (2) (3) Const. 23183.613 23521.484 20460.096 (377.445) (385.394) (435.275) Alter 2202.768 2757.766 (217.994) (128.276) km 0.022 0.081 (0.007)

Mehr

Übung V Lineares Regressionsmodell

Übung V Lineares Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Michael Alpert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2007 Übung

Mehr

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell

Kapitel 8. Einfache Regression. Anpassen des linearen Regressionsmodells, OLS. Eigenschaften der Schätzer für das Modell Kapitel 8 Einfache Regression Josef Leydold c 2006 Mathematische Methoden VIII Einfache Regression 1 / 21 Lernziele Lineares Regressionsmodell Anpassen des linearen Regressionsmodells, OLS Eigenschaften

Mehr

Inferenz im multiplen Regressionsmodell

Inferenz im multiplen Regressionsmodell 1 / 29 Inferenz im multiplen Regressionsmodell Kapitel 4, Teil 1 Ökonometrie I Michael Hauser 2 / 29 Inhalt Annahme normalverteilter Fehler Stichprobenverteilung des OLS Schätzers t-test und Konfidenzintervall

Mehr

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften

Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Statistik II Übung 4: Skalierung und asymptotische Eigenschaften Diese Übung beschäftigt sich mit der Skalierung von Variablen in Regressionsanalysen und mit asymptotischen Eigenschaften von OLS. Verwenden

Mehr

1 Beispiel zur Methode der kleinsten Quadrate

1 Beispiel zur Methode der kleinsten Quadrate 1 Beispiel zur Methode der kleinsten Quadrate 1.1 Daten des Beispiels t x y x*y x 2 ŷ ˆɛ ˆɛ 2 1 1 3 3 1 2 1 1 2 2 3 6 4 3.5-0.5 0.25 3 3 4 12 9 5-1 1 4 4 6 24 16 6.5-0.5 0.25 5 5 9 45 25 8 1 1 Σ 15 25

Mehr

1. Die gemeinsame Dichtefunktion der Zufallsvariablen X,Y sei. 1 für 0 x 1 und 0 y 1 0 sonst. 1 Volumen über schraffierter Fläche = = 0.

1. Die gemeinsame Dichtefunktion der Zufallsvariablen X,Y sei. 1 für 0 x 1 und 0 y 1 0 sonst. 1 Volumen über schraffierter Fläche = = 0. Übungsbeispiele. Die gemeinsame Dichtefunktion der Zufallsvariablen X,Y sei { für und f(,) sonst (a) Skizzieren Sie die Dichtefunktion. f(,) (b) Berechnen Sie P(.5,.75) Lösung:.75 Volumen über schraffierter

Mehr

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell

Übung zur Empirischen Wirtschaftsforschung V. Das Lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Dipl.-WiWi Christian Peukert Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Sommersemester 2010

Mehr

Statistik II Übung 2: Multivariate lineare Regression

Statistik II Übung 2: Multivariate lineare Regression Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden

Mehr

Annahmen des linearen Modells

Annahmen des linearen Modells Annahmen des linearen Modells Annahmen des linearen Modells zusammengefasst A1: Linearer Zusammenhang: y = 0 + 1x 1 + 2x 2 + + kx k A2: Zufallsstichprobe, keine Korrelation zwischen Beobachtungen A3: Erwartungswert

Mehr

Wahrscheinlichkeitsverteilungen

Wahrscheinlichkeitsverteilungen Universität Bielefeld 3. Mai 2005 Wahrscheinlichkeitsrechnung Wahrscheinlichkeitsrechnung Das Ziehen einer Stichprobe ist die Realisierung eines Zufallsexperimentes. Die Wahrscheinlichkeitsrechnung betrachtet

Mehr

Datenanalyse mit Excel und Gretl

Datenanalyse mit Excel und Gretl Dozent: Christoph Hindermann christoph.hindermann@uni-erfurt.de Datenanalyse mit Excel und Gretl Teil Titel 2: Gretl 1 Teil 2: Gretl Datenanalyse mit Excel und Gretl Teil Titel 2: Gretl 2 Modellannahmen

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

Das lineare Regressionsmodell

Das lineare Regressionsmodell Universität Ulm 89069 Ulm Germany Prof. Dr. Werner Smolny Institut für Wirtschaftspolitik Fakultät für Mathematik und Wirtschaftswissenschaften Ludwig-Erhard-Stiftungsprofessur Institutsdirektor Das ökonomische

Mehr

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers

4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers 4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie

Mehr

1 Einführung Ökonometrie... 1

1 Einführung Ökonometrie... 1 Inhalt 1 Einführung... 1 1.1 Ökonometrie... 1 2 Vorüberlegungen und Grundbegriffe... 7 2.1 Statistik als Grundlage der Empirischen Ökonomie... 7 2.2 Abgrenzung und Parallelen zu den Naturwissenschaften...

Mehr

Kurs Empirische Wirtschaftsforschung

Kurs Empirische Wirtschaftsforschung Kurs Empirische Wirtschaftsforschung 5. Bivariates Regressionsmodell 1 Martin Halla Institut für Volkswirtschaftslehre Johannes Kepler Universität Linz 1 Lehrbuch: Bauer/Fertig/Schmidt (2009), Empirische

Mehr

Statistik II Übung 2: Multivariate lineare Regression

Statistik II Übung 2: Multivariate lineare Regression Statistik II Übung 2: Multivariate lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen Flugpreisen und der Flugdistanz, dem Passagieraufkommen und der Marktkonzentration. Verwenden

Mehr

4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR

4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR Im Allgemeinen wird sich das Verhalten einer ZR über die Zeit ändern, z.b. Trend, saisonales Verhalten, sich verändernde Variabilität. Eine ZR wird als stationär bezeichnet, wenn sich ihr Verhalten über

Mehr

John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer

John Komlos Bernd Süssmuth. Empirische Ökonomie. Eine Einführung in Methoden und Anwendungen. 4y Springer John Komlos Bernd Süssmuth Empirische Ökonomie Eine Einführung in Methoden und Anwendungen 4y Springer 1 Einführung 1 1.1 Ökonometrie 1 2 Vorüberlegungen und Grundbegriffe 7 2.1 Statistik als Grundlage

Mehr

Teil: lineare Regression

Teil: lineare Regression Teil: lineare Regression 1 Einführung 2 Prüfung der Regressionsfunktion 3 Die Modellannahmen zur Durchführung einer linearen Regression 4 Dummyvariablen 1 Einführung o Eine statistische Methode um Zusammenhänge

Mehr

Wiederholungsübungen zu den Kapiteln 7 bis 11

Wiederholungsübungen zu den Kapiteln 7 bis 11 Mittelwert-Tests Übung Wiederholungsübungen zu den Kapiteln 7 bis 11 In dieser Übung wird der Datensatz 4 verwendet. In dem (fiktiven) Datensatz sind für 50 Personen vier Variablen erfasst: das Geschlecht,

Mehr

Das Lineare Regressionsmodell

Das Lineare Regressionsmodell Das Lineare Regressionsmodell Bivariates Regressionsmodell Verbrauch eines Pkw hängt vom Gewicht des Fahrzeugs ab Hypothese / Theorie: Je schwerer ein Auto, desto mehr wird es verbrauchen Annahme eines

Mehr

Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. R. T. Riphahn, Ph.D. Bachelorprüfung, Praxis der empirischen Wirtschaftsforschung

Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. R. T. Riphahn, Ph.D. Bachelorprüfung, Praxis der empirischen Wirtschaftsforschung Lehrstuhl für Statistik und emp. Wirtschaftsforschung, Prof. R. T. Riphahn, Ph.D. Bachelorprüfung, Praxis der empirischen Wirtschaftsforschung Aufgabe 1: [14,5 Punkte] Sie interessieren sich für die Determinanten

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe Kapitel 9 Taylorreihen Josef Leydold c 2006 Mathematische Methoden IX Taylorreihen 1 / 25 Lernziele Taylorreihe und MacLaurinreihe Beispiele Alternative Schreibweisen Approimation der Veränderung einer

Mehr

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19 Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist

Mehr

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell 1 Lineare Regression Parameterschätzung 13 Im einfachen linearen Regressionsmodell sind also neben σ ) insbesondere β 1 und β Parameter, deren Schätzung für die Quantifizierung des linearen Zusammenhangs

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 20 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 20 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Seminar zur Energiewirtschaft:

Seminar zur Energiewirtschaft: Seminar zur Energiewirtschaft: Ermittlung der Zahlungsbereitschaft für erneuerbare Energien bzw. bessere Umwelt Vladimir Udalov 1 Modelle mit diskreten abhängigen Variablen 2 - Ausgangssituation Eine Dummy-Variable

Mehr

Nichtlineare Funktionsformen

Nichtlineare Funktionsformen Kapitel 9 Nichtlineare Funktionsformen It s eas to lie with statistics; it is easier to lie without them. (Frederick Mosteller) Die Gauss Markov Annahme der Linearität ist nicht ganz so restriktiv wie

Mehr

Vorlesung 4: Spezifikation der unabhängigen Variablen

Vorlesung 4: Spezifikation der unabhängigen Variablen Vorlesung 4: Spezifikation der unabhängigen Variablen. Fehlspezifikation der unabhängigen Variablen. Auswirkungen einer Fehlspezifikation a. auf die Erwartungstreue der Schätzung b. auf die Effizienz der

Mehr

Kointegration. Kapitel 19. Angewandte Ökonometrie / Ökonometrie III Michael Hauser

Kointegration. Kapitel 19. Angewandte Ökonometrie / Ökonometrie III Michael Hauser 1 / 28 Kointegration Kapitel 19 Angewandte Ökonometrie / Ökonometrie III Michael Hauser 2 / 28 Inhalt I(d), Trends, Beispiele Spurious Regression Kointegration, common trends Fehlerkorrektur-Modell Test

Mehr

5 Multivariate stationäre Modelle

5 Multivariate stationäre Modelle 5 Multivariate stationäre Modelle 5.1 Autoregressive distributed lag (ADL) 5.1.1 Das Modell und dessen Schätzung Im vorangehenden Kapitel führten wir mit der endogenen verzögerten Variablen, y t 1, als

Mehr

Bivariate Zusammenhänge

Bivariate Zusammenhänge Bivariate Zusammenhänge 40 60 80 Bivariater Zusammenhang: Zusammenhang zwischen zwei Variablen weight (kg) Gibt es einen Zusammenhang zwischen Größe & Gewicht? (am Beispieldatensatz) Offensichtlich positiver

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

2.3 Nichtlineare Regressionsfunktion

2.3 Nichtlineare Regressionsfunktion Nichtlineare Regressionsfunktion Bisher: lineares Regressionsmodell o Steigung d. Regressionsgerade ist konstant o Effekt einer Änderung von X auf Y hängt nicht vom Niveau von X oder von anderen Regressoren

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9.

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 7.-9. Januar 2011 BOOTDATA11.GDT: 250 Beobachtungen für die Variablen...

Mehr

Statistik II Übung 1: Einfache lineare Regression

Statistik II Übung 1: Einfache lineare Regression Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der

Mehr

Statistik II Übung 1: Einfache lineare Regression

Statistik II Übung 1: Einfache lineare Regression Statistik II Übung 1: Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (16-24 Jahre alt) und der Anzahl der

Mehr

Stichproben Parameterschätzung Konfidenzintervalle:

Stichproben Parameterschätzung Konfidenzintervalle: Stichproben Parameterschätzung Konfidenzintervalle: Beispiel Wahlprognose: Die Grundgesamtheit hat einen Prozentsatz p der Partei A wählt. Wenn dieser Prozentsatz bekannt ist, dann kann man z.b. ausrechnen,

Mehr

Das Identifikationsproblem

Das Identifikationsproblem Draft 1 Das Identifikationsproblem Simultane Strukturmodelle sind insbesondere in den Sozialwissenschaften wichtig, da dort Zusammenhänge sehr häufig interdependenter Natur sind. Dies wirft einige schwerwiegende

Mehr

Forschungsstatistik I

Forschungsstatistik I Psychologie Prof. Dr. G. Meinhardt 6. Stock, TB II R. 06-206 (Persike) R. 06-321 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Satz über implizite Funktionen und seine Anwendungen

Satz über implizite Funktionen und seine Anwendungen Satz über implizite Funktionen und seine Anwendungen Gegeben sei eine stetig differenzierbare Funktion f : R 2 R, die von zwei Variablen und abhängt. Wir betrachten im Folgenden die Gleichung f(,) = 0.

Mehr

Empirische Wirtschaftsforschung

Empirische Wirtschaftsforschung Empirische Wirtschaftsforschung Prof. Dr. Bernd Süßmuth Universität Leipzig Institut für Empirische Wirtschaftsforschung Volkswirtschaftslehre, insbesondere Ökonometrie 6.. Herleitung des OLS-Schätzers

Mehr

Bivariate Analyseverfahren

Bivariate Analyseverfahren Bivariate Analyseverfahren Bivariate Verfahren beschäftigen sich mit dem Zusammenhang zwischen zwei Variablen Beispiel: Konservatismus/Alter Zusammenhangsmaße beschreiben die Stärke eines Zusammenhangs

Mehr

1. Lösungen zu Kapitel 7

1. Lösungen zu Kapitel 7 1. Lösungen zu Kapitel 7 Übungsaufgabe 7.1 Um zu testen ob die Störterme ε i eine konstante Varianz haben, sprich die Homogenitätsannahme erfüllt ist, sind der Breusch-Pagan-Test und der White- Test zwei

Mehr

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme)

8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) 8. Keine Normalverteilung der Störgrößen (Verletzung der B4-Annahme) Annahme B4: Die Störgrößen u i sind normalverteilt, d.h. u i N(0, σ 2 ) Beispiel: [I] Neoklassisches Solow-Wachstumsmodell Annahme einer

Mehr

2. Generieren Sie deskriptive Statistiken (Mittelwert, Standardabweichung) für earny3 und kidsunder6yr3 und kommentieren Sie diese kurz.

2. Generieren Sie deskriptive Statistiken (Mittelwert, Standardabweichung) für earny3 und kidsunder6yr3 und kommentieren Sie diese kurz. Statistik II Übung : Einfache lineare Regression Diese Übung beschäftigt sich mit dem Zusammenhang zwischen dem Lohneinkommen von sozial benachteiligten Individuen (6-24 Jahre alt) und der Anzahl der unter

Mehr

Analyse von Querschnittsdaten. Spezifikation der unabhängigen Variablen

Analyse von Querschnittsdaten. Spezifikation der unabhängigen Variablen Analyse von Querschnittsdaten Spezifikation der unabhängigen Variablen Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Annahmen gegeben? kategoriale Variablen Datum 3.0.004 0.0.004

Mehr

Prognoseintervalle für y 0 gegeben x 0

Prognoseintervalle für y 0 gegeben x 0 10 Lineare Regression Punkt- und Intervallprognosen 10.5 Prognoseintervalle für y 0 gegeben x 0 Intervallprognosen für y 0 zur Vertrauenswahrscheinlichkeit 1 α erhält man also analog zu den Intervallprognosen

Mehr

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen.

y t = 30, 2. Benutzen Sie die Beobachtungen bis einschließlich 2002, um den Koeffizientenvektor β mit der KQ-Methode zu schätzen. Aufgabe 1 (25 Punkte Zur Schätzung des Werbe-Effekts in einem Getränke-Unternehmen wird das folgende lineare Modell aufgestellt: Dabei ist y t = β 1 + x t2 β 2 + e t. y t : x t2 : Umsatz aus Getränkeverkauf

Mehr

Vorlesung 3: Schätzverfahren

Vorlesung 3: Schätzverfahren Vorlesung 3: Schätzverfahren 1. Beispiel: General Social Survey 1978 2. Auswahl einer Zufallsstichprobe und Illustration des Stichprobenfehlers 3. Stichprobenverteilung eines Regressionskoeffizienten 4.

Mehr

Klassen diskreter Variablen

Klassen diskreter Variablen Modelle diskreter Variablen Klassen diskreter Variablen binär multinomial Weitere Klassifizierung multinomialer diskreter Variablen: kategorial y = 1, falls Einkommen < 3000 e. y = 2, falls Einkommen zw.

Mehr

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung

Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen. Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Verteilungen eindimensionaler stetiger Zufallsvariablen Stetige Verteilungen Chi-Quadrat-Verteilung Studentverteilung Fisher-Verteilung Typisierung der stetigen theoretischen Verteilungen Bibliografie:

Mehr

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017

13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 13. Lösung weitere Übungsaufgaben Statistik II WiSe 2016/2017 1. Aufgabe: Für 25 der größten Flughäfen wurde die Anzahl der abgefertigten Passagiere in den Jahren 2009 und 2012 erfasst. Aus den Daten (Anzahl

Mehr

Demokurs. Modul Grundlagen der Wirtschaftsmathematik Grundlagen der Statistik

Demokurs. Modul Grundlagen der Wirtschaftsmathematik Grundlagen der Statistik Demokurs Modul 31101 Grundlagen der Wirtschaftsmathematik und Statistik Kurs 40601 Grundlagen der Statistik 13. Juli 2010 KE 1 2.4 Schiefe und Wölbung einer Verteilung Seite: 53 2.4 Schiefe und Wölbung

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 6 Genzwertsätze Einführung 1 Wahrscheinlichkeit: Definition und Interpretation

Mehr

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir

Mehr

Univariate Analysis. Analysis und nichtlineare Modelle Sommersemester

Univariate Analysis. Analysis und nichtlineare Modelle Sommersemester Analysis und nichtlineare Modelle Sommersemester 9 5 Univariate Analysis C. Berechnen Sie ohne Taschenrechner(!). Runden Sie die Ergebnisse auf ganze Zahlen. (a) 7 :, (b) 795 :.. Berechnen Sie ohne Taschenrechner(!):

Mehr

Multivariate Verfahren

Multivariate Verfahren Selbstkontrollarbeit 1 Multivariate Verfahren Diese Selbstkontrollarbeit bezieht sich auf die Kapitel 1 bis 4 der Kurseinheit 1 (Multivariate Statistik) des Kurses Multivariate Verfahren (883). Hinweise:

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 5. Juni 2016 Definition 5.21 Ist a R, a > 0 und a 1, so bezeichnet man die Umkehrfunktion der Exponentialfunktion x a x als

Mehr

1 Lambert-Beersches Gesetz

1 Lambert-Beersches Gesetz Physikalische Chemie II Lösung 6 23. Oktober 205 Lambert-Beersches Gesetz Anhand des idealen Gasgesetzes lässt sich die Teilchenkonzentration C wie folgt ausrechnen: C = N V = n N A V pv =nrt = N A p R

Mehr

2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen

2. Stochastische ökonometrische Modelle. - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen .1. Stochastische ökonometrische Modelle.1 Einführung Ziele: - Modelle der ökonomischen Theorie an der Wirklichkeit überprüfen - Numerische Konkretisierung ökonomischer Modelle und deren Analse. . Variierende

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Test von Hypothesen: Signifikanz des Zusammenhangs (F-Test)

Test von Hypothesen: Signifikanz des Zusammenhangs (F-Test) Test von Hyothesen: Signifikanz des Zusammenhangs (F-Test) Die Schätzung der Regressionsfunktion basiert auf Daten einer Stichrobe Inwiefern können die Ergebnisse dieser Schätzung auf die Grundgesamtheit

Mehr

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO

Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO Schätzen und Testen von Populationsparametern im linearen Regressionsmodell PE ΣO 4. Dezember 2001 Generalisierung der aus Stichprobendaten berechneten Regressionsgeraden Voraussetzungen für die Generalisierung

Mehr

Drittvariablenkontrolle in der linearen Regression: Trivariate Regression

Drittvariablenkontrolle in der linearen Regression: Trivariate Regression Drittvariablenkontrolle in der linearen Regression: Trivariate Regression 14. Januar 2002 In der Tabellenanalyse wird bei der Drittvariablenkontrolle für jede Ausprägung der Kontrollvariablen eine Partialtabelle

Mehr

Vorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff.

Vorlesung: Lineare Modelle. Verschiedene Typen von Residuen. Probleme bei der Regression und Diagnose. Prof. Dr. Helmut Küchenhoff. Vorlesung: Lineare Modelle Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München SoSe 205 5 Metrische Einflußgrößen: Polynomiale Regression, Trigonometrische Polynome, Regressionssplines, Transformationen.

Mehr

Marginale Effekte & nichtlineare Funktionsformen

Marginale Effekte & nichtlineare Funktionsformen Kapitel 7 Marginale Effekte & nichtlineare Funktionsformen Conducting data analysis is like drinking a fine wine. It is important to swirl and sniff the wine, to unpack the complex bouquet and to appreciate

Mehr

Musterlösung. Modulklausur Multivariate Verfahren

Musterlösung. Modulklausur Multivariate Verfahren Musterlösung Modulklausur 31821 Multivariate Verfahren 25. September 2015 Aufgabe 1 (15 Punkte) Kennzeichnen Sie die folgenden Aussagen zur Regressionsanalyse mit R für richtig oder F für falsch. F Wenn

Mehr

Inhaltsverzeichnis. Universität Basel Wirtschaftswissenschaftliches Zentrum Abteilung Quantitative Methoden. Mathematischer Vorkurs.

Inhaltsverzeichnis. Universität Basel Wirtschaftswissenschaftliches Zentrum Abteilung Quantitative Methoden. Mathematischer Vorkurs. Universität Basel Wirtschaftswissenschaftliches Zentrum Abteilung Quantitative Methoden Mathematischer Vorkurs Dr. Thomas Zehrt Exponentialfunktionen und Logarithmen Inhaltsverzeichnis 1 Einführung 2 2

Mehr

Inhaltsverzeichnis. Über die Autoren Einleitung... 21

Inhaltsverzeichnis. Über die Autoren Einleitung... 21 Inhaltsverzeichnis Über die Autoren.... 7 Einleitung... 21 Über dieses Buch... 21 Was Sie nicht lesen müssen... 22 Törichte Annahmen über den Leser... 22 Wie dieses Buch aufgebaut ist... 23 Symbole, die

Mehr

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h

Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h 5. Die partielle Autokorrelationsfunktion 5.1 Definition, Berechnung, Schätzung Bisher: Gewöhnliche Autokorrelationsfunktion (ACF) eines stationären Prozesses {X t } t Z zum Lag h ρ X (h) = Corr(X t, X

Mehr

Die Regressionsanalyse

Die Regressionsanalyse Die Regressionsanalyse Zielsetzung: Untersuchung und Quantifizierung funktionaler Abhängigkeiten zwischen metrisch skalierten Variablen eine unabhängige Variable Einfachregression mehr als eine unabhängige

Mehr

Addition und Subtraktion

Addition und Subtraktion 3 Rechenregeln Addition Das Kommutativgesetz. Für je zwei Zahlen a, b gilt a + b = b + a. Für je drei Zahlen a, b, c gilt a + b + c = (a + b) + c nach Definition. Assoziativgesetz. Für je drei Zahlen a,

Mehr

Einführung in die Statistik

Einführung in die Statistik Einführung in die Statistik Analyse und Modellierung von Daten von Prof. Dr. Rainer Schlittgen Universität Hamburg 12., korrigierte Auflage Oldenbourg Verlag München Inhaltsverzeichnis 1 Statistische Daten

Mehr

Mathematischer Vorbereitungskurs für Ökonomen. Exponentialfunktionen und Logarithmen

Mathematischer Vorbereitungskurs für Ökonomen. Exponentialfunktionen und Logarithmen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Exponentialfunktionen und Logarithmen Inhalt:. Zinsrechnung. Exponential- und Logaritmusfunktionen

Mehr

Demo-Text für LN-Funktionen ANALYSIS INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK. FRIEDRICH W. BUCKEL.

Demo-Text für  LN-Funktionen ANALYSIS INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK.  FRIEDRICH W. BUCKEL. ANALYSIS LN-Funktionen Grundlagen Eigenschaften Wissen - Kompakt Datei Nr. 60 Neu geschrieben Stand: 0. Juni 0 FRIEDRICH W. BUCKEL INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK Demo-Tet für 60 Übersicht: Ln-Funktionen

Mehr

Zeitreihenanalyse. Zerlegung von Zeitreihen Saisonindex, saisonbereinigte Zeitreihe Trend und zyklische Komponente Prognose Autokorrelation

Zeitreihenanalyse. Zerlegung von Zeitreihen Saisonindex, saisonbereinigte Zeitreihe Trend und zyklische Komponente Prognose Autokorrelation Zeitreihenanalyse Zerlegung von Zeitreihen Saisonindex, saisonbereinigte Zeitreihe Trend und zyklische Komponente Prognose Autokorrelation Beispiel für Zeitreihe Andere Anwendungen Inventarmanagment Produktionsplanung

Mehr

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536

Statistik. R. Frühwirth. Statistik. VO Februar R. Frühwirth Statistik 1/536 fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung

Mehr

Statistischer Rückschluss und Testen von Hypothesen

Statistischer Rückschluss und Testen von Hypothesen Statistischer Rückschluss und Testen von Hypothesen Statistischer Rückschluss Lerne von der Stichprobe über Verhältnisse in der Grundgesamtheit Grundgesamtheit Statistischer Rückschluss lerne aus Analyse

Mehr

Modell (Konstante) 0,411 0,155 male 0,212 0,13 job 0,119 0,131 alcohol 0,255 0,05 a. Abhängige Variable: skipped

Modell (Konstante) 0,411 0,155 male 0,212 0,13 job 0,119 0,131 alcohol 0,255 0,05 a. Abhängige Variable: skipped Aufgabe 1 [14 Punkte] Sie möchten untersuchen, wovon die Abwesenheit der Studierenden in den Vorlesungen an einer Universität abhängt. Sie verfügen über einen Datensatz zu 282 Studierenden mit folgenden

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien

Deskription, Statistische Testverfahren und Regression. Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskription, Statistische Testverfahren und Regression Seminar: Planung und Auswertung klinischer und experimenteller Studien Deskriptive Statistik Deskriptive Statistik: beschreibende Statistik, empirische

Mehr

Analyse von Querschnittsdaten. Signifikanztests I Basics

Analyse von Querschnittsdaten. Signifikanztests I Basics Analyse von Querschnittsdaten Signifikanztests I Basics Warum geht es in den folgenden Sitzungen? Kontinuierliche Variablen Generalisierung kategoriale Variablen Datum 13.10.2004 20.10.2004 27.10.2004

Mehr

Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung

Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung M.Sc. Brice Hakwa hakwa@uni-wuppertal.de Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung - Zusammenfassung zum Thema: Berechnung von Value-at-Risk

Mehr

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2002

Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2002 Prüfung aus Wahrscheinlichkeitstheorie und Statistik MASCHINENBAU 2002 1. Ein Chemiestudent hat ein Set von 10 Gefäßen vor sich stehen, von denen vier mit Salpetersäure Stoff A), vier mit Glyzerin Stoff

Mehr

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27

Statistik II. II. Univariates lineares Regressionsmodell. Martin Huber 1 / 27 Statistik II II. Univariates lineares Regressionsmodell Martin Huber 1 / 27 Übersicht Definitionen (Wooldridge 2.1) Schätzmethode - Kleinste Quadrate Schätzer / Ordinary Least Squares (Wooldridge 2.2)

Mehr

Dynamische Modelle: Schätzen und Modellwahl

Dynamische Modelle: Schätzen und Modellwahl 1 / 23 Dynamische Modelle: Schätzen und Modellwahl Kapitel 18 Angewandte Ökonometrie / Ökonometrie III Michael Hauser 2 / 23 Inhalt Dynamische Modelle und autokorrelierte Fehler Tests auf Autokorrelation

Mehr

Statistik II. IV. Hypothesentests. Martin Huber

Statistik II. IV. Hypothesentests. Martin Huber Statistik II IV. Hypothesentests Martin Huber 1 / 41 Übersicht Struktur eines Hypothesentests Stichprobenverteilung t-test: Einzelner-Parameter-Test F-Test: Multiple lineare Restriktionen 2 / 41 Struktur

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Fehler- und Ausgleichsrechnung

Fehler- und Ausgleichsrechnung Fehler- und Ausgleichsrechnung Daniel Gerth Daniel Gerth (JKU) Fehler- und Ausgleichsrechnung 1 / 12 Überblick Fehler- und Ausgleichsrechnung Dieses Kapitel erklärt: Wie man Ausgleichsrechnung betreibt

Mehr

Inhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik...

Inhaltsverzeichnis. 1 Über dieses Buch Zum Inhalt dieses Buches Danksagung Zur Relevanz der Statistik... Inhaltsverzeichnis 1 Über dieses Buch... 11 1.1 Zum Inhalt dieses Buches... 13 1.2 Danksagung... 15 2 Zur Relevanz der Statistik... 17 2.1 Beispiel 1: Die Wahrscheinlichkeit, krank zu sein, bei einer positiven

Mehr