Intervallschätzer, einfache Hypothesentests und Prognosen

Größe: px
Ab Seite anzeigen:

Download "Intervallschätzer, einfache Hypothesentests und Prognosen"

Transkript

1 Kapitel 5 Intervallschätzer, einfache Hypothesentests und Prognosen The greatest enemy of knowledge is not ignorance, it is the illusion of knowledge. (Stephen Hawking) Bisher haben wir uns im wesentlichen mit der Berechnung der OLS Schätzfunktionen sowie deren Eigenschaften beschäftigt. Nun gehen wir einen entscheidenden Schritt weiter und beschäftigen uns mit Konzepten der induktiven Statistik. Nach einer sehr kurzen Wiederholung der Gauss-Markov Annahmen werden wir das Konzept der Konfidenzintervalle erläutern, und anschließend relativ ausführlich die Grundidee von Hypothesentests wiederholen. Im Kern handelt es sich bei diesem ganzen Kapitel um eine bloße Wiederholung einiger grundlegender Konzepte der einführenden Statistik, da aber sehr vieles vom Folgenden auf diesen Ideen aufbaut räumen wir diesem Kapitel dennoch relativ breiten Raum ein. 5.1 Wiederholung Gauss-Markov Annahmen Im letzten Kapitel haben wir uns hauptsächlich mit den Eigenschaften der OLS Schätzer beschäftigt. Diese OLS Schätzer sind Beispiele für so genannte Punktschätzer, sie ordnen jeder möglichen Stichprobe einen Punkt auf der Zahlengerade zu. Wir benötigen im letzten Kapitel im wesentlichen die folgenden Gauss- Markov Annahmen um zu beweisen, dass diese OLS Schätzer effizient sind: A1 Die PRF y i = β 1 + β 2 x i2 + + β k x ik + ε i ist linear in den Parametern β h (h = 1,...,k) und enthält genau die Regressoren, die erforderlich sind um den datengenerierenden Prozess korrekt zu beschreiben. Eine Verletzung dieser Annahme führt in der Regel dazu, dass die OLS Schätzer nicht erwartungstreu sind. A2 Es gibt in der Stichprobe keine (exakte) lineare Abhängigkeit zwischen den insgesamt k Regressoren (inklusive Regressionskonstante). Dies impliziert corr(x h,x g ) 1 für alle h,g = 1,...,k (keine perfekte Multikollinearität). 1

2 Empirische Wirtschaftsforschung 2 Außerdem ist die Anzahl der Beobachtungen n mindestens so groß wie die Anzahl der Regressoren (n k); Falls diese Annahme verletzt ist, sind die OLS Schätzer nicht eindeutig definiert und können erst gar nicht berechnet werden. A3 Die Regressoren sind nicht mit den Störtermen korreliert, oder noch stärker, die Regressoren und Störterme sind stochastisch unabhängig. Dies impliziert E(ε i x j2,...,x jk ) = 0 für alle i,j = 1,...,n (keine endogenen Regressoren). Diese Annahme spielt in der Ökonometrie eine besonders große Rolle, da sie für nicht-experimentelle Daten häufig verletzt ist. Bei endogenen Regressoren sind die OLS Schätzer nicht erwartungstreu! A4 ε i i.i.d.(0,σ 2 ), diese Annahme impliziert, dass alle Störterme ε i die gleiche Verteilung mit Erwartungswert Null und konstanter Varianz σ 2 haben (also identically distributed sind), sowie dass die ε i untereinander stochastisch unabhängig sind, d.h. E(ε i ε j ) = 0 für i j. 1 Wenn diese Annahme erfüllt ist, sind die Störterme weder heteroskedastisch noch autokorreliert. Wenn Annahmen A1 A3 erfüllt sind und nur Annahme A4 verletzt ist, sind die OLS Schätzer zwar erwartungstreu, aber nicht effizient. Ein Modell, das alle Gauss Markov Annahmen erfüllt, wird in der Literatur häufig Klassisches Lineares Regressionsmodell genannt (oder CLRM für classical linear regression model ). OLS Schätzer des Klassischen Linearen Regressionsmodells sind effizient, bieten also in der Klasse der linearen erwartungstreuen Schätzfunktionen die größtmögliche Genauigkeit (sie sind BLUE ). Eine solche größtmögliche Genauigkeit ist zwar beruhigend, aber größtmöglich sagt wenig darüber aus, wie präzise die Schätzung tatsächlich ist. Wenn wir auf Grundlage unserer Schätzungen Entscheidungen treffen müssen wollen wir vermutlich wissen, inwieweit wir den Schätzungen auch vertrauen können, bzw. wie genau sie sind. Die bisher verwendeten Punktschätzer, wie z.b. β 2, können uns diese Information nicht liefern, sie geben keine Hinweise darüber, wie nahe sie beim wahren Wert liegen, bzw. wie präzise sie sind, und täuschen damit möglicherweise eine Scheingenauigkeit vor. Wir werden in diesem Kapitel zeigen, dass wir mit Hilfe der Punktschätzer und deren StandardfehlereinIntervallberechnenkönnen, daszusätzlichdenstichprobenfehler 2 ( sampling error ) berücksichtigt, und uns damit etwas über die Genauigkeit einer Schätzung verrät. 1 Zur Erinnerung: Seien U und V zwei diskrete Zufallsvariablen. Allgemein gilt E(UV) = i j u iv j Pr(u i,v j ). Stochastische Unabhängigkeit bedeutet Pr(u i,v j ) = Pr(u i )Pr(v j ), bei stochastischer Unabhängigkeit gilt also E(UV) = i j u iv j Pr(u i )Pr(v j ), daraus folgt E(UV) = E(U) E(V). Analoges dazu gilt für stetige Zufallsvariablen. 2 In der deutschen Literatur werden Standardfehler und Stichprobenfehler manchmal synonym verwendet. Hier verstehen wir unter dem Stichprobenfehler etwas salopp den Fehler, der bei der Schätzung eines Parameters durch wiederholte Stichprobenziehungen aus der gleichen Grundgesamtheit entsteht.

3 Empirische Wirtschaftsforschung 3 Allerdings benötigen wir dazu eine zusätzliche Annahme, nämlich dass die Störterme nicht nur ε i i.i.d.(0,σ 2 ) sind, sondern zusätzlich normalverteilt sind. Diese Annahme wird häufig geschrieben als ε i n.i.d.(0,σ 2 ) wobei n.i.d. für normally and independent distributed steht (das identically folgt automatisch aus der Normalverteilungsannahme mit identischen Erwartungswerten und Varianzen). Wir werden dies häufig als ε i N(0,σ 2 ) schreiben, wobei das Symbol N die Normalverteilung bezeichnet (diese Schreibweise impliziert nicht notwendigerweise Unabhängigkeit, aber wenn nicht ausdrücklich darauf auf etwas anderes hingewiesen wird im Folgenden auch Unabhängigkeit, d.h. E(ε i ε j ) = 0 für i j, angenommen). Wenn alle Gauss-Markov Annahmen erfüllt sind und die Störterme zusätzlich normalverteilt sind spricht man von einem Klassischen Normalverteilten Linearen Regressionsmodell (oder CNLRM für Classical Normal Linear Regression Model). Die Normalverteilungsannahme ist nicht ganz so restriktiv wie sie auf den ersten Blick erscheinen mag, da einerseits die Störterme vieler datengenerierender Prozesse tatsächlich annähernd normalverteilt sind, und in anderen Fällen der zentrale Grenzwertsatz unter nicht allzu strengen Annahmen sicher stellt, dass die Stichprobenkennwertverteilungen ( sampling distributions ) ziemlich rasch gegen eine Normalverteilung konvergieren, und deshalb zumindest asymptotisch gültig bleiben. Wir werden nun zeigen, dass uns die zusätzliche Normalverteilungsannahme ε i N(0,σ 2 ) erlaubt Schätzfunktionen zu entwickeln, die jeder möglichen Stichprobe ein Intervall zuordnen, das zusätzlich den Stichprobenfehler ( sampling error ) berücksichtigt und uns damit etwas über die Genauigkeit einer Schätzung verrät. Solche Schätzfunktionen werden Intervallschätzer genannt. Intervallschätzer sind natürlich auch Zufallsvariablen, die auf der Idee der wiederholten Stichprobenziehungen ( repeated sampling ) beruhen. Die bekanntesten Intervallschätzer sind Konfidenzintervalle ( confidence interval, abgekürzt CI). Obwohl Konfidenzintervalle ein ziemlich allgemeines Konzept sind werden wir uns im Folgenden nur mit Konfidenzintervallen für die Regressionskoeffizienten beschäftigen. Noch konkreter werden wir die Ergebnisse nur für den Steigungskoeffizienten β 2 eines bivariaten Regressionsmodells herleiten, aber die prinzipielle Idee ist natürlich viel allgemeiner anwendbar. 5.2 Ein Konfidenzintervall für β 2 Aus Gründen der Einfachheit werden wir in diesem Kapitel generell annehmen, dass alle Regressoren x deterministisch sind 3 sowie alle Gauss Markov Annahmen erfüllt und die Störterme normalverteilt seien. 3 Tatsächlich treffen wir diese Annahme nur aus Bequemlichkeit, denn man kann zeigen, dass alle Konfidenzintervalle und Tests auch bei stochastischen Regressoren gültig bleiben, wenn die Störterme normalverteilt sind, siehe Greene (2007, 57f).

4 Empirische Wirtschaftsforschung 4 f(v) µ 2 = 2 σ 2 = µ 1 = 1.5 σ 1 = µ 2 µ µ f(z) Standardisierte Verteilung mit: µ z = 0 σ z = 1 α/2 = Fläche: α/2 = (1 α) = Abbildung 5.1: Normalverteile Zufallsvariablenv 1,v 2,v 3 mit unterschiedlichen Erwartungswerten und Varianzen können standardisiert werden zu z N(0,1). v z Implikationen der Normalverteilungsannahme DieerstezentraleFrageist,wiewirausderNormalverteilungderStörtermeε i aufdie Verteilung der Schätzfunktion β 2 schließen können. Dazu müssen wir etwas weiter ausholen. Aus der einführenden Statistik wissen wir, dass jede lineare Transformation einer normalverteilten Zufallsvariable wieder normalverteilt ist. Dies gestattet eine Standardisierung normalverteilter Zufallsvariablen, wenn z.b. v eine normalverteilte ZufallsvariablemitE(v) = µundse(v) = σ v ist,dannkanndarauseinestandardnormalverteilte Zufallsvariable z = (v µ)/σ v N(0,1) erzeugt werden, siehe Abbildung 5.1. Für standardnormalverteilte Zufallsvariablen z gilt Pr( 1.96 z +1.96) = 0.95 wobei 1.96 der kritische Wert z0.025 crit der Standardnormalverteilung ist, d.h. 2.5% der Wahrscheinlichkeitsmasse liegen links von 1.96 und 2.5% der Wahrscheinlichkeitsmasse liegen rechts von +1.96, vgl. Abbildung 5.1. Wenn wir das der Zufallsvariable z zugrunde liegende Zufallsexperiment unendlich oft wiederholen würden, so erwarten wir 95% der Realisationen von z im Intervall [ 1.96, +1.96]. Dies wollen wir nun nützen um die Verteilung unserer Schätzfunktion β 2 zu bestimmen. Der Ausgangspunkt ist die Normalverteilungsannahme der Störterme ε i n.i.d.(0,σ 2 ).

5 Empirische Wirtschaftsforschung 5 Für deterministische x ist deshalb auch die abhängige Variable y i = β 1 +β 2 x i +ε i normalverteilt mit y i n.i.d.(β 1 +β 2 x i,σ 2 ), da wir aus der einführenden Statistik wissen, dass jede lineare Transformation einer normalverteilten Zufallsvariable selbst wieder normalverteilt ist. Daraus folgt, dass auch die OLS Schätzer normalverteilt sind, denn wie wir bereits früher gezeigt haben sind diese eine lineare Funktion der y i, z.b. β 2 = i w iy i mit den deterministischen Gewichten w i = (x i x)/ j (x j x) 2. Damit folgt aus der Normalverteilungsannahme der Störterme β 2 β 2 σ β2 N(0,1) und weiters Pr [ 1.96 β 2 β 2 σ β ] = 0.95 Wenn wir den wahren Wert des Standardfehlers kennen würden, könnten wir σ β2 daraus ein Konfidenzintervall für den Parameter β 2 ermitteln indem wir obigen Ausdruck umformen zu Pr [ β2 β 1.96σ β2 2 β σ β2] = 0.95 Allerdings hilft uns dies wenig, da wir den den wahren Wert des Standardfehlers des Steigungskoeffizienten σ β2 üblicherweise nicht kennen. Die erste Idee, den wahren Wert des Standardfehlers, den Parameter σ β2, durch dessen Schätzer ˆσ β2 zu ersetzen, führt zu Problemen, denn ˆσ β2 ist im Gegensatz zu σ β2 eine Zufallsvariable. 4 Deshalb ist β 2 β 2 ˆσ β2 N(0,1) das Verhältnis zweier Zufallsvariablen, und es gibt keinen Grund anzunehmen, dass diese Zufallsvariable wieder normalverteilt sein sollte. Glücklicherweise konnte W.S. Gosset, Chef-Braumeister der Guinness Brauerei, vor mehr als hundert Jahren zeigen, dass man die Verteilung des obigen Ausdrucks recht einfach bestimmen kann (Gosset, 1908), er ist t-verteilt. Da Gosset dieses Ergebnis unter dem Pseudonym Student veröffentlichte, wird die t-verteilung manchmal auch Student-Verteilung genannt (vgl. Ziliak, 2008) Von der Normalverteilung zur t-verteilung Wir wollen nun zeigen, dass für das klassische Regressionsmodell mit normalverteilten Störtermen (CNLRM) y i = β 1 +β 2 x i2 +ε i mit ε i n.i.d.(0,σ 2 ) gilt β 2 β 2 ˆσ β2 t n 2 4 Es ist wichtig zu erkennen, dass σ β2 ein Parameter der Grundgesamtheit ist, also eine fixe Zahl, während der Schätzer dafür, ˆσ β2, eine Zufallsvariable ist und als solche wieder eine Stichprobenkennwertverteilung hat.

6 Empirische Wirtschaftsforschung 6 f(t) 0.4 q > 120 q = q = Abbildung 5.2: Vergleich der Dichtefunktionen einer t-verteilung mit q Freiheitsgraden und einer Standard-Normalverteilung t oder in Worten, die mit Hilfe der geschätzten Standardfehler ˆσ β2 standardisierten Koeffizienten sind t-verteilt mit n 2 Freiheitsgraden. Um dies zu zeigen erinnern wir uns aus der einführenden Statistik, dass die Quadratsumme von q unabhängig standardnormalverteilten Zufallsvariablen χ 2 verteilt ist mit q Freiheitsgraden. Ebenso ist bekannt, dass das Verhältnis einer standardnormalverteilten Zufallsvariable und der Wurzel einer davon unabhängig χ 2 -verteilten Zufallsvariable, dividiert durch die Freiheitsgrade, t-verteilt ist, also N(0, 1) χ 2q /q t q Die t-verteilung ist ähnlich wie die Standardnormalverteilung symmetrisch, hat aber fat tails ( dicke Ränder ); siehe Abbildung 5.2. Für große n konvergiert die t- Verteilung gegen die Standardnormalverteilung. De facto macht es ab einer Stichprobengröße n > 30 keinen großen Unterschied, ob man in der t-verteilungstabelle oder in der Standardnormalverteilungstabelle nachschlägt. Um nun zu zeigen, dass ( β 2 β 2 )/ˆσ β2 tatsächlich t-verteilt ist, erinnern wir uns, dass die mit Hilfe des wahren Standardfehlers σ βh standardisierten Koeffizienten standardnormalverteilt sind β 2 β 2 σ β2 N(0,1) (5.1) wobei β 2 und σ β2 fixe, aber unbekannte Parameter der Grundgesamtheit sind (also keine Zufallsvariablen). Wenn für alle Störterme gilt ε i N(0,σ 2 ) (mit i = 1,...,n) kann man zeigen, dass die folgende Zufallsvariable χ 2 verteilt ist mit n 2 Freiheitsgraden i ˆε2 i χ 2 σ 2 n 2 wobei i ˆε2 i die beobachtbare Quadratsumme der Residuen und σ2 die unbeobachtbare Varianz der Störterme ist.

7 Empirische Wirtschaftsforschung 7 Unter Verwendung des Standardfehlers der Regression ˆσ 2 = ˆε 2 i /(n 2) können wir dies umschreiben zu ˆε 2 i σ 2 = (n 2)ˆσ2 σ 2 = (n 2)ˆσ 2 (xi x) 2 = (n 2)ˆσ2 β 2 σ 2 (xi x) 2 σ 2 β2 χ 2 n 2 (5.2) da ˆσ 2 β2 = ˆσ 2 / (x i x) 2 bzw.σ 2 β2 = σ 2 / (x i x) 2.Manbeachte,dassσ 2 dievarianz der Störtermeist, undσ 2 β2 dievarianzdes Steigungskoeffizienten β 2 ; beide Varianzen sind unbeobachtbare Parameter, die aus den Daten geschätzt werden müssen. Da man obendrein zeigen kann, dass die standardnormalverteilte Zufallsvariable (5.1) und die χ 2 -verteilte Zufallsvariable (5.2) stochastisch unabhängig sind, ist der Quotient dieser beiden Zufallsvariablen eine t-verteilte Zufallsvariable N(0, 1) χ 2 n 2 n 2 t n 2 β 2 β 2 σ β2 = (n 2)ˆσ 2 β2 (n 2)σ 2 β2 β 2 β 2 σ β2 = ˆσ β2 σ β2 β 2 β 2 ˆσ β2 t n 2 Die schöne Überraschung dabei ist, dass sich die unbekannte Populationsvarianz σ2 β2 herauskürzt. Wir werden später zeigen, dass dieses wichtige Resultat von Gosset (1908) auch allgemeiner für einen beliebigen Koeffizienten h des multiplen Regressionsmodells mit k Regressoren (inkl. Regressionskonstante; mit h {1,...,k}) gilt β h β h ˆσ βh t n k wobei n k die Freiheitsgrade sind. Mit Hilfe dieses Ergebnisses können nun einfach die Konfidenzintervalle der Koeffizienten berechnet werden. Es ist üblich, das gewählte Konfidenzniveau mit (1 α) zu bezeichnen, wobei α das frei gewählte Signifikanzniveau ist. Für ein 95% Konfidenzniveau ist z.b. α = 0.05 und 1 α = Die Bestimmung des Konfidenzintervalls ist nun einfach. Wir wissen, dass [ ] Pr t crit α/2,df β h β h ˆσ βh +t crit α/2,df = 1 α wobei t crit α/2,df den kritischen Wert der t-verteilung ist und df die Freiheitsgrade ( degrees of freedom ) bezeichnet. Der kritische Wert t crit 0.025,25 = 2.06 sagt uns z.b., dass bei einer t-verteilung mit 25 Freiheitsgraden 2.5% der Fläche rechts vom Wert 2.06 liegen. 5 5 Der kritische Wert kann entweder in einer Tabelle nachgeschlagen werden, oder wenn ein Statistikprogramm zur Verfügung steht, mit Hilfe der Quantilfunktion (inversen Verteilungsfunktion) berechnet werden.

8 Empirische Wirtschaftsforschung 8 Wir formen diesen Ausdruck nun so um, dass der unbeobachtbare Parameter β h im Zentrum steht. [ Pr t crit α/2,df β ] ˆσ βh h β h +t crit α/2,df = 1 α ˆσ βh [ ] Pr β h t crit α/2,df β ˆσ βh h β h +t crit α/2,df = 1 α ˆσ βh [ Pr + β h +t crit α/2,df β ˆσ βh h β ] h t crit α/2,df = 1 α ˆσ βh Wir haben nun gezeigt, dass aus den Gauss Markov Annahmen und der zusätzlichen Annahme normalverteilter Störterme β h β h ˆσ βh t n k folgt, und dies erlaubt uns folgende zentrale Wahrscheinlichkeitsaussage Pr [ βh t crit α/2,df β ˆσ βh h β ] h +t crit α/2,df = 1 α ˆσ βh Dies definiert die untere und obere Grenze des (1 α) 100 Prozent Konfidenzintervalls für einen Regressionskoeffizienten h ] [ βh t crit α/2,df, βh +t crit ˆσ βh α/2,df ˆσ βh Beispiel: Die folgende Regression verdeutlicht die Zunahme der Lebenserwartung in Österreich über die letzten Jahrzehnte. LE ist die Lebenserwartung Neugeborener und Trend = 1,2,...,53 ist eine übliche Trendvariable. LE = Trend (0.124) *** (0.004) *** R 2 = 0.987, ˆσ = 0.446, DW = 0.287, n = 53 ( ) (Standardfehler in Klammern) Auf Grundlage dieser Schätzung erwarten wir, dass die Lebenserwartung jedes Jahr um ca Jahre (3 Monate) zunimmt. Um ein 95% Konfidenzintervall zu berechnen benötigen wir zuerst den kritischen t-wert für α/2 = und n 2 = 51 Freiheitsgrade. Eine übliche t-tabelle oder entsprechendes Programm 6 gibt uns t crit 0.025,51 = Ein 95% Konfidenzintervall für β 2 = 0.25 berechnen wir mit 7 [ , ] oder [0.242, 0.258] Das 99% Konfidenzintervall ist [0.239, 0.261], da t crit 0.005,51 = Was fangen wir damit an? 6 Die Funktionen sind für für R: qt(0.975,51) und für Stata: invttail(51,0.025). 7 Tatsächlichist die Schätzung für den Standardfehlervon β 2 vermutlichverzerrt,dadie Durbin- Watson Statistik DW = auf positive Autokorrelation schließen lässt. Damit ist natürlich auch die Schätzung des Konfidenzintervalls verzerrt. Wir werden dieses Problem im Kapitel über Autokorrelation ausführlich diskutieren, hier ignorieren dieses Problem vorerst.

9 Empirische Wirtschaftsforschung Interpretation von Konfidenzintervallen Wann immer wir mit Zufallsvariablen und deren Realisationen operieren müssen wir vorsichtig sein. Zufallsvariablen beschreiben alle möglichen Ausgänge eines Zufallsexperiments, also gewissermaßen den ex ante Zustand vor Durchführung des dahinter liegenden Zufallsexperiments. Bevor das gedachte Experiment durchgeführt wurde ist der Ausgang ungewiss, deshalb können wir Wahrscheinlichkeitsaussagen über die möglichen Ausgänge machen. Tatsächlich können wir aber nur Realisationen beobachten, Ergebnisse des (gedachten) Zufallsexperiments. Sobald das Experiment durchgeführt wurde ist das Resultat fix, deshalb können wir darüber keine Wahrscheinlichkeitsaussagen mehr treffen (außer der trivialen Aussage, dass das beobachtete Ereignis mit Wahrscheinlichkeit Eins eingetroffen ist). In diesem Sinne können wir uns vorstellen, dass Realisationen die ex post Sicht eines Zufallsexperiments beschreiben. Was bedeutet dies nun für unser Konfidenzintervall? Wir stellen zuerst fest, dass in einer ex ante Sichtweise unsere Schätzer für die] obere und untere Grenze des Konfidenzintervalls [ βh t crit α/2,df, ˆσ βh βh +t crit α/2,df Zufallsvariablen in dem Sinne ˆσ βh sind, dass sie jeder möglichen Stichprobe einen Zahlenwert zuordnen. In dieser ex ante Sichtweise kann die Wahrscheinlichkeitsaussage Pr [ βh t crit α/2,df β ˆσ βh h β ] h +t crit α/2,df = 1 α ˆσ βh mindestens auf zwei Arten interpretiert werden wenn wir hypothetisch unendlich viele Stichproben ziehen würden, und für jede dieser Stichproben ein z.b. 95% Konfidenzintervall berechnen würden, so würden 95% dieser Stichproben den wahren Wert β h enthalten; oder das 95% Konfidenzintervall, welches wir aus der nächsten noch nicht gezogenen Stichprobe berechnen werden, wird mit 95% Wahrscheinlichkeit das wahre β h enthalten. Sobald auf Grundlage der vorliegenden Stichprobe die empirischen Realisationen emp von β 2 und ˆσ emp berechnet wurden erhalten wir eine Realisation der unteren β 2 und oberen Intervallgrenze, ein empirisches Konfidenzintervall, also einfache Zahlen. Darüber können wir natürlich keine Zufallsaussage treffen. Was bedeutet dies nun für unser Beispiel mit der Zunahme der Lebenserwartung in Österreich? Zuerst einmal stellen wir fest, dass wir diese Gleichung auf zwei Arten lesen können, entweder als deskriptive Darstellung oder als Schätzung im Sinne der induktiven Statistik. Als Beispiel der deskriptiven Regressionsanalyse sagt uns die Regressionsgleichung lediglich, dass die Lebenserwartung Neugeborener in Österreich im Zeitraum im Durchschnitt jährlich um 2.5 Jahre zugenommen hat, und dass diese Werte über die Jahre nicht sehr stark streuten (die Populationsvarainz ist klein). Eine weitergehende statistische Beurteilung macht für die deskriptive Regressionsanalyse keinen Sinn, die Zahlen liegen endgültig vor.

10 Empirische Wirtschaftsforschung 10 Ganz anders verhält es sich, wenn wir die selbe Regressionsgleichung im Sinne der stochastischen Regressionsanalyse betrachten. In diesem zweiten Fall vermuten wir hinter dieser Regressionsgleichung einen datengenerierenden Prozess, von dem wir annehmen, dass er folgendermaßen beschrieben werden kann LE i = β 1 +β 2 Trend i +ε i mit ε i n.i.d.(0,σ 2 ) Wir haben 53 Realisationen ( ) der Lebenerwartung beobachtet (unsere Stichprobe). Um dies im Sinne der induktiven Statistik beurteilen zu können müssen wir uns gedanklich in den ex ante Zustand vor Ziehung der Zufallsstichprobe (bzw. Durchführung des Zufallsexperiments) zurück versetzen, d.h. wir betrachten statt der der jeweiligen Realisation die 53 Zufallsvariablen LE i, bzw. ε i die hinter jeder einzelnen Realisation stehen. Dazu stellen wir uns im Gedankenexperiment vor, wir könnten den Zeitraum beliebig oft unter sonst gleichen Bedingungen ablaufen lassen, und beobachten bei jedem Durchlauf die Lebenserwartung in jeder Periode. Bei jedem dieser hypothetischen Durchläufe würden wir vermutlich andere empirische Realisationen der 53 Zufallsvariablen LE i erhalten, und deshalb auch unterschiedliche Schätzungen für β 2 und ˆσ β2. Nun könnten wir wieder im Gedankenexperiment für jeden Durchgang die jeweilige empirische Realisation des 95% Konfidenzintervalls berechnen. Die statistische Theorie sagt uns nun, dass 95% dieser derart berechneten Konfidenzinterfalle den wahren Wert β 2 enthalten würden. Kehren wir zurück zu dem vorhin berechneten 95% Konfidenzintervall [0.242, 0.258]. Da es sich dabei um eine Realisation handelt, also um eine ex post Sichtweise, erlaubt uns dieses Konfidenzintervall keine Wahrscheinlichkeitsaussage. Eine Aussage wie Das Konfidenzintervall [0.242, 0.258] enthält mit 95% Wahrscheinlichkeit den wahren Wert β 2 ist offensichtlich unsinnig; β 2 ist ein unbekannter Parameter und er liegt entweder in diesem Intervall oder er liegt nicht darin, etwas dazwischen gibt es nicht, vgl. Abbildung 5.3. Vom realisierten Konfidenzintervall wissen wir aber, dass es (in statistischer Sicht) nur eines von unendlich vielen potentiell möglichen Konfidenzintervallen ist, die alle nach der gleichen Regel berechnet werden und die sich nur aufgrund der Stichprobenvariabilität unterscheiden, sowie dass 95% dieser potentiell möglichen Intervalle den wahren Wert enthalten. Wir können nur hoffen, dass unsere Stichprobe eine der 95% aller Stichproben ist, deren Konfidenzintervall den wahren Wert β 2 enthält, aber wir können uns nie sicher sein. Abbildung 5.3 verdeutlicht diese Idee. Was sollen wir dann mit diesem Konfidenzintervall anfangen? Viele Anfänger sind verunsichert und frustriert, dass die Realisation des Konfidenzintervalls so wenig über den wahren Parameter β 2 verrät, dass sie darüber den wesentlichen Punkt übersehen, die Breite des Konfidenzintervalls! Es ist offensichtlich, dass die Breite des Konfidenzintervalls in einer unmittelbaren Beziehung zum Stichprobenfehler steht, umso enger ein Konfidenzintervall ist, umso mehr werden wir dieser Schätzung vertrauen. Wenn wir z.b. als Schätzung für die jährliche Zunahme der Lebenserwartung einen Wert von 0.25 mit einem 95% Konfidenzintervall [0.24, 0.26] erhalten wissen wir, dass die Stichprobenvariabilität

11 Empirische Wirtschaftsforschung 11 f( β) Stichprobenkennwertverteilung von β um wahres β α/2 (1 α) α/2 Wiederholte Stichprobenziehungen (7 Realisationen) β 4 β 3 β 1 β β 6 β 2 β 7 β 5 β Abbildung 5.3: Wahres β und Konfidenzintervalle für 7 Stichproben. In der praktischen Arbeit beobachten wir nur eine einzige Stichprobe und deshalb nur eine einzige Realisation eines Konfidenzintervalls. Obwohl wir nie sicher sein können, ob dieses eine Konfidenzintervall den wahren Wert β enthält, gibt uns die Breite des Konfidenzintervalls wichtige Information über den Stichprobenfehler! Quelle: nach Bleymüller et al. 2002, S. 86.

12 Empirische Wirtschaftsforschung 12 ziemlich gering ist und wir dieser Schätzung eher vertrauen dürfen (zumindest wenn das Intervall korrekt geschätzt wurde und alle erforderlichen Annahmen erfüllt sind). Wenn hingegen das 95% Konfidenzintervall viel breiter wäre, z.b. [ 0.3, 0.8], dann schließen wir daraus, dass diese Schätzung ziemlich ungenau ist, und deshalb für praktische Belange wohl eher wertlos sein dürfte. Eine Frage stellt sich noch: wir beobachten nur eine einzige Stichprobe; wie können wir aus dieser einen Stichprobe auf die aus der unbekannten Grundgesamtheit resultierende Stichprobenvariabilität schließen? Die Antwort folgt unmittelbar aus den Annahmen, insbesondere der Annahme, dass alle Störterme unabhängig normalverteilt sind, denn wenn diese Annahmen erfüllt sind gilt das bekannte Ergebnis von Gosset (1908) t = ( β 2 β 2 )/ˆσ 2 β2 t n 2. Deshalb erlauben Konfidenzintervalle eine einfache und unmittelbare Beurteilung des Stichprobenfehlers, der aus der Stichprobenvariablilität resultiert, und verraten uns damit etwas über die Präzision der Schätzung. Dies gestattet uns im weiteren eine Beurteilung der Vertrauenswürdigkeit der Schätzung. Aber benötigen wir dafür wirklich ein so kompliziertes Verfahren? Ja! Ein großer Vorteil von Konfidenzintervallen besteht darin, dass sie nach einer festen und nachvollziehbaren Regel berechnet werden, und dass alle Forscherinnen, die sich an dieses Regelwerk halten, zu vergleichbaren Ergebnissen kommen. Sie gehören deshalb zum unverzichtbaren Instrumentarium aller empirisch arbeitenden Wissenschaftler. Ein kleiner Nachteil von Konfidenzintervallen sei allerdings nicht verschwiegen, es ist nicht immer ganz einfach einem Laien in wenigen Worten zu erklären, was sie wirklich aussagen. Aber damit stehen sie nicht ganz alleine da, dieses Problem teilen sie bekanntlich mit vielen abstrakten Konzepten der Wissenschaft Zusammenfassung Der zentrale Ausgangspunkt dieses Abschnitts war das bekannte Ergebnis von Gosset (1908) β 2 β 2 t n 2 ˆσ β2 welches die Herleitung von Konfidenzintervallen für die Regressionskoeffizienten erlaubte. Wir fassen die Schritte zur Bestimmung eines Intervallschätzers β h für β h noch einmal zusammen: 1. Nachdenken über die Forschungsfrage und überlegen, inwieweit vernünftigerweise davon ausgegangen werden kann, dass die Gauss Markov Annahmen und die Normalverteilungsannahme in einem hinreichenden Ausmaß erfüllt sind. 2. Berechnung des Punktschätzers β h und des Standardfehlers dieses Koeffizienten ˆσ βh. 3. Festlegung eines Konfidenzniveaus (1 α) und Bestimmung des dazugehörigen kritischen Wertes t crit α/2,n k fürn k Freiheitsgrade (füreine multiple Regression mit k Regressoren und unbekanntem σ 2 ).

13 Empirische Wirtschaftsforschung 13 Zufallsvariable: Pr [ t crit α/2 β h β h ˆσ βh ] +t crit = 1 α α/2 ( ) f βh β h ˆσ β α/2 = (1 α) = 0.95 α/2 = t crit 0.025,25 t crit 0.025,25 = 2.06 β h β h ˆσ β2 Pr[ βh t crit α/2 ˆσ βh β h β h +t crit α/2 ˆσ βh ] = 1 α Realisation: t crit 0.025,25 = 2.06 ŷ i = x i (4.32) (0.88) n = 27, R 2 = = Konf.-Intervall = Abbildung 5.4: Konfidenzintervalle: Das beobachtete Konfidenzintervall [ , ] ist eines von unendlich vielen potentiell möglichen Konfidenzintervallen. Wir können damit rechnen, dass 95% aller möglichen Konfidenzintervalle den wahren Wert β h enthalten. Da dieses realisierte Konfidenzintervall ziemlich breit ist, und insbesondere auch den Nullpunkt einschließt, werden wir vermutlich kein großes Vertrauen in die Schätzung haben.

14 Empirische Wirtschaftsforschung Berechnung des Intervallschätzers aus Pr [ βh t crit α/2,n k β ˆσ βh h β ] h +t crit α/2,n k = 1 α ˆσ βh 5. Interpretation des Intervallschätzers: wenn alle Gauss Markov Annahmen erfüllt sind und die Störterme normalverteilt sind erwarten wir, dass bei wiederholten Stichprobenziehungen (1 α) 100% der so berechneten Konfidenzintervalle den wahren Wert β h enthalten. Generell wird die Schätzung umso genauer sein, je enger das so berechnete Konfidenzintervall ist. Man beachte, dass die Breite des Konfidenzintervalls sowohl vom frei gewählten Konfidenzniveau 1 α abhängt, als auch von allen Faktoren, die sich auf die Größe des Standardfehlers des Koeffizienten auswirken. Das Konfidenzintervall ist ceteris paribus umso enger,... je kleiner das frei gewählte Konfidenzniveau 1 α ist (d.h. ein 90% Konfidenzintervall ist ceteris paribus enger als ein 99% Konfidenzintervall 8 ), und umso kleiner der Standardfehler des Koeffizienten ist. Der Standardfehler ist wiederum umso kleiner,... umso kleiner die Varianz der Störterme σ 2 ist, umso größer die Streuung der Regressoren ist, umso größer die Stichprobe ist, und umso kleiner die Korrelation zwischen den Regressoren ist. Übung: Für den Zusammenhang zwischen Preis (in Euro) und Alter (in Jahren) von Gebrauchtautos einer bestimmten Type wurde folgende Regression geschätzt PREIS = ALTER ( ) *** ( ) *** R 2 = 0.887, ˆσ 2 = , F-Stat = , n = 61 (Standardfehler in Klammern) 1. Berechnen Sie ein 95 und 99 Prozent Konfidenzintervall für das Interzept und den Steigungskoeffizienten dieser Regression. Zur Kontrolle: das 99% Konfidenzintervall für den Steigungskoeffizienten ist [ , ]. 2. Interpretieren Sie diese Konfidenzintervalle. Wie würden Sie das Ergebnis Ihrem Vater erklären? 8 Konfidenzintervalle, die c.p. nur in 90% der Fälle den wahren Wert enthalten müssen, können schmaler sein als Konfidenzintervalle, die in 99% der Fälle den wahren Wert enthalten sollen.

15 Empirische Wirtschaftsforschung Benützen Sie (n 2)ˆσ 2 σ 2 χ 2 n 2 um ein 95% Konfidenzintervall für σ 2 zu konstruieren. Berechnen Sie dieses Intervall für obiges Beispiel. 5.3 Einfache Hypothesentests Wir haben uns bisher darauf konzentriert, einen möglichst guten Schätzer, z.b. β, für einen wahren, aber unbekannten Parameter β zu finden, sowie einen Schätzer fürdessenstandardfehler ˆσ β,mitdessenhilfewiru.a.konfidenzintervalle berechnen konnten. Tatsächlich läuft der wissenschaftliche Erkenntnisprozess aber häufig anders. Am Anfang steht meist der Wunsch ein beobachtetes Phänomen zu verstehen. Was meinen wir mit verstehen? Offensichtlich sind sich selbst Experten häufig völlig uneins sind über die Beurteilung eines Phänomens, obwohl sie alle glauben das Phänomen zu verstehen. Offensichtlich haben sie unterschiedliche Bilder und Vorstellungen von den dahinter liegenden Gesetzmäßigkeiten, oder andere Annahmen getroffen, und kommen deshalb manchmal zu völlig konträren Schlussfolgerungen. Ein bewährter Ansatz etwas zu verstehen besteht darin, den Mechanismus, den den wir hinter dem Phänomen vermuteten, in einem meist mathematischen Modell nachzubilden. Wenn dieses Modell ähnliche Ergebnisse produziert wie die in der Realität beobachteten Phänomene, dann sind wir einem reproduzierbaren Erklärungsansatz zumindest deutlich näher gekommen. Was wir dafür aber benötigen ist eine Methode, mit der wir überprüfen können, inwieweit die Vorhersagen des Modells mit den beobachteten Daten kompatibel sind, oder auch, inwieweit die dem Modell zugrunde liegenden Annahmen realistisch sind. Dies ist nicht ganz einfach, da Modelle immer Vereinfachungen sind und nie alle Aspekte des datengenerierenden Prozesses abbilden können, deshalb werden die Vorhersagen der Modelle kaum jemals exakt mit den beobachteten Daten übereinstimmen. Aber wie groß dürfen die Abweichungen sein? Und wie sicher dürfen wir sein, dass das Modell tatsächlich eine adequate Beschreibung der hinter dem datengenerierenden Prozesses liegenden Gesetzmäßigkeiten liefert? Genau darum geht es in diesem Kapitel, nämlich um das Testen. Die Anfänge der Hypothesentests gehen auf Pioniere wie Francis Ysidro Edgeworth (1885) und Karl Pearson (1900) zurück, die gegen Ende des 19. Jahrhunderts erstmals begannen die Grundlagen statistischer Tests zu formulieren und systematischer darzustellen. Die moderne Form von Hypothesentests geht vor allem auf drei Personen zurück, die in den Jahren zwischen 1915 und 1933 die Grundlagen schufen. Auf der einen Seite der große Pionier der modernen Statistik, Sir Ronald A. Fisher (1925), und auf der anderen Seite Neyman and Pearson (1928a,b).

16 Empirische Wirtschaftsforschung 16 Obwohl sich Fisher und Neyman-Pearson sicher waren, dass sich ihre Ansätze prinzipiell unterscheiden, wird in fast allen modernen Lehrbüchern eine Hybridform dieser beiden Ansätze präsentiert. Für eine Diskussion siehe z.b. Gigerenzer et al. (1990), Lehmann (1993), Spanos (1999, 688ff). Hier werden wir eher aus didaktischen Gründen als um der historischen Gerechtigkeit willen zuerst kurz den Ansatz von Ronald A. Fisher skizzieren, bevor wir den heute gebräuchlichen Ansatz von Neyman-Pearson präsentieren Signifikanztest nach R.A. Fisher Bis herauf zum späten 19. Jahrhundert waren die Überlegungen, wie man Informationen aus der Stichprobe mit den theoretischen Vermutungen konfrontieren könnte, eher informeller Natur. Die grundlegende Idee könnte man folgendermaßen skizzieren: wenn wir den wahren aber unbekannten Wert eines interessierenden Parameters wieder mit θ bezeichnen, und unsere theoretischen Überlegungen einen Wert θ 0 erwarten lassen, so hat die Hypothese die Form θ = θ 0 Da θ nicht beobachtbar ist können wir dazu keine Aussage machen, aber wenn diese Hypothese wahr ist sollte auch der Unterschied zwischen dem Schätzer ˆθ und der Vermutung θ 0 möglichst klein oder ungefähr Null sein ˆθ θ 0 0 Obwohl in dieser Frühzeit noch nicht dargelegt wurde, was konkret unter näherungsweise Null zu verstehen sei, folgen daraus bereits die zwei zentralen Elemente eines Hypothesentests, nämlich 1. eine Vermutung über die Grundgesamtheit θ = θ 0 ; und 2. eine Distanzfunktion ˆθ θ 0 Darauf aufbauend entwickelte R. Fisher seinen Ansatz zu Hypothesentests. Der erste große Beitrag Fishers in diesem Zusammenhang bestand in der Formulierung einer expliziten Nullhypothese H 0 : θ = θ 0 sowie der Einsicht, welche Implikationen dies für Hypothesentests hat. Man beachte, dass sich die Nullhypothese immer auf die unbeobachtbare Grundgesamtheit also die Parameter der PRF bezieht, und nicht auf die Schätzung (SRF). Die Schätzungen sind beobachtbar, da gibt es nichts zu vermuten. Die Nullhypothese wird meist als Negativhypothese formuliert, d.h. als Gegenhypothese zur theoretischen Vermutung. Die Nullhypothese beschreibt in diesem Sinne häufig den worst case, sodass die Forscherin wünscht die Nullhypothese verwerfen zu können. Durch diese Vorgangsweise soll die Wahrscheinlichkeit für eine irrtümliche Verwerfung der Nullhypothese kontrolliert klein bleiben.

17 Empirische Wirtschaftsforschung 17 Prinzipiell können Forscher frei entscheiden was sie als worst case ansehen, bzw. wie sie ihre Nullhypothese formulieren, allerdings gibt es wie wir später zeigen werden eine Einschränkung technischer Natur: die Nullhypothese muss stets so formuliert werden, dass sie das = Zeichen (bzw. bei einseitigen Hypothesen das oder Zeichen) enthält (die H 0 darf also kein, < oder > enthalten). Im früheren Beispiel mit der Lebenserwartung LE i = β 1 + β 2 Trend i + ε i wäre der worst case, dass sich die Lebenserwartung im Zeitablauf nicht ändert, also H 0 : β 2 = 0. 9 Im Unterschied zu Neyman-Pearson stellte Fisher seiner Nullhypothese keine explizite Alternativhypothese gegenüber. Die Nullhypothese wird solange als wahr angenommen, bis sie in zu starken Konflikt mit den beobachtbaren Daten also der Stichprobe gerät. Auf den Arbeiten von Gosset (1908) aufbauend erkannte Fisher, wie die Distanz ˆθ θ 0 beurteilt werden kann, nämlich durch die Verwendung einer Teststatistik. Teststatistiken sind neben Nullhypothesen eine zweite unverzichtbare Zutat für Hypothesentests. Teststatistiken sind spezielle Zufallsvariablen, deren theoretische Verteilung unter Gültigkeit der Nullhypothese bekannt ist. Ähnlich wie Schätzer sind Teststatistiken spezielle Funktionen der Stichprobe, d.h. sie ordnen jeder Stichprobe eine reelle Zahl zu. Im Unterschied zu Schätzern muss die theoretische Stichprobenkennwertverteilung ( sampling distribution ) einer Teststatistik unter H 0 aber von vornherein bekannt sein. Teststatistiken dürfen natürlich keine unbekannten Parameter enthalten, sonst könnte ihr Wert für eine konkrete Stichprobe nicht berechnet werden. Die Herleitung von Teststatistiken ist Aufgabe der theoretischen Ökonometrie (bzw. Statistik) und im allgemeinen kein einfaches Unterfangen. Wie wir später sehen werden sind viele der gebräuchlichen Teststatistiken asymptotischer Natur, d.h. ihre Verteilung ist für kleine Stichproben unbekannt, konvergiert aber mit zunehmender Stichprobengröße gegen eine bekannte theoretische Verteilung. Eine der bekanntesten und wichtigsten Teststatistiken, die auch für kleine Stichproben gültig ist, beruht auf dem Ergebnis von Gosset (1908) (vgl. Abschnitt 5.2.2, Seite 5) β 2 β 2 ˆσ β2 t n 2 (5.3) Dies gilt für den wahren Wert β 2, der leider unbeobachtbar ist. Aber wenn die Nullhypothese β 2 = β 0 wahr ist muss gelten t(s) = β 2 β 0 ˆσ β2 H 0 tn 2 (5.4) wobei S die Menge aller mögliche Stichproben bezeichnet und t(s) ausdrücken soll, dass die Teststatistik t(s) eine Funktion der Stichproben S ist. Da dies nur gilt, wenn die Nullhypothese wahr ist, schreiben wir H 0 ; dies wird gelesen als ist unter H 0 verteilt als. Wenn also H 0 : β 2 = β 0 wahr ist und alle Gauss Markov Annahmen 9 Den Fall einseitiger Nullhypothesen H 0 : β 2 0 werden wir später diskutieren.

18 Empirische Wirtschaftsforschung 18 sowie die Normalverteilungsannahme der Störterme erfüllt sind, ist t(s) t-verteilt mit n 2 Freiheitsgraden. Wenn wir hypothetisch unendlich viele Stichproben mit Umfang n ziehen würden, für jede dieser Stichproben den Wert der Teststatistik t berechnen, und schließlich ein Histogramm all dieser t Werte zeichnen würden, so könnten wir feststellen, dass diese t-werte t-verteilt sind. Diese Stichprobenkennwertverteilung f(t) ist in Abbildung 5.5 eingezeichnet. Man beachte übrigens den Unterschied zwischen Gleichung (5.4) und Gleichung (5.3), Gleichung (5.3) enthält den unbekannten Parameter β 2 und ist deshalb keine Teststatistik. In Funktion (5.4) wurde der unbekannte Parameter β 2 durch die bekannte Vermutung unter der H 0, d.h. durch das bekannte β 0, ersetzt, deshalb erfüllt Funktion (5.4) alle Eigenschaften einer Teststatistik, sie ist eine Zufallsvariable, die jeder möglichen Stichprobe eine reelle Zahl zugeordnet, sie enthält keine unbekannten Parameter, und die theoretische Verteilung von t(s) unter H 0 ist bekannt. Natürlich ist vor der Ziehung der Stichprobe auch der Schätzer β 2 eine Zufallsvariable, β 0 ist hingegen ein Skalar. Offensichtlich ist die Teststatistik t(s) eine Funktion der Distanz β 2 β 0. Um diese Distanz berechnen zu können muss die Nullhypothese das = Zeichen enthalten, sonst könnten wir die Distanz nicht berechnen. Der Wert der Teststatistik wird umso näher bei Null liegen, umso geringer die Distanz zwischen dem Schätzer β 2 und dem unter der Nullhypothese vermuteten Wert β 0 ist. 10 Diese Distanz wird gewichtet mit dem Standardfehler ˆσ β2, einer weiteren Zufallsvariable. Unter den getroffenen Annahmen ist die Stichprobenkennwertverteilung von t(s) unter H 0 bekannt. Für die t-verteilung wird lediglich die Anzahl der Freiheitsgrade n 2 benötigt um die Dichtefunktion der Zufallsvariablen t(s) wie in Abbildung 5.5 zeichnen zu können. Wir können uns vorstellen, dass diese Dichtefunktion die relativen Häufigkeiten der t-werte für alle möglichen Stichproben zeigt. Nun gehen wir einen entscheidenden Schritt weiter und ziehen eine konkrete Stichprobe. Diese Stichprobe erlaubt uns Schätzungen (also Realisationen) für die Schätzfunktionen β 2 und ˆσ β2 zu berechnen. Mit Hilfe dieser Schätzungen können wir eine Realisation der Teststatistik t(s) berechnen. Eine solche Realisation werden wir im Folgenden als empirische t-statistik bezeichnen und mit t emp abkürzen. Damit ist aber die Frage, inwieweit die beobachtbaren Daten in Konflikt zu unserer Nullhypothese stehen, noch nicht beantwortet. Hier kommt nun die nächste große Beitrag Fishers, die p-werte, welche uns eine statistische Beurteilung der Nullhypothese erlauben werden. p-werte für zweiseitige Hypothesentests Rekapitulieren wir, falls für eine Problemstellung eine Teststatistik existiert und alle erforderlichen Annahmen erfüllt sind, ist bei Gültigkeit der Nullhypothese die theoretischen Verteilung der Teststatistik bekannt. Wir können deshalb wie in Abbildung 5.5 die Dichtefunktion f(t) der Teststatistik t(s) für eine Nullhypothese zeichnen, ohne die konkrete Stichprobe zu kennen. 10 Man beachte, dass der Nenner der Teststatistik (5.4) das empirische Analogon zur Nullhypothese in impliziter Form ist; H 0 : β 2 = β 0 β 2 β 0 = 0.

19 Empirische Wirtschaftsforschung 19 Stichprobenkennwertverteilung der Teststatistik t(s) unter H 0 f(t) p-wert (Fläche) t emp 0 t emp t(s) Abbildung 5.5: p-wert nach R. Fisher (rot schraffierte Fläche) für zweiseitigen Test H 0 : β = β 0. Erst im nächsten Schritt nützen wir die vorliegende Stichprobe, und berechnen anhand dieser gegebenen Stichprobe die Realisation der Teststatistik. Wir schon früher werden wir Realisationen von Zufallsvariablen empirische Werte nennen und mit einem hochgestellten emp kennzeichnen, z.b. schreiben wir für die Realisation der Schätzfunktion des Steigungskoeffizienten β 2, und für die Realisation der emp t-statistik t emp. Um die empirische Teststatistik zu berechnen brauchen wir also nur die Realisationen β 2 und ˆσ emp ) sowie β emp β 0 in die in die Teststatistik t(s) = ( β 2 β 0 )/ˆσ β2 2 einsetzen. Damit erhalten wir eine Realisation der Teststatistik t emp = ( β emp 2 β 0 ) ˆσ emp β 2 für die Nullhypothese H 0 : β 2 β 0 = 0. Man beachte, dass die Realisation t emp auf einer konkreten Stichprobe beruht und deshalb keine Zufallsvariable ist, t emp ist eine einfache reelle Zahl. Wenn die H 0 wahr ist und alle weiteren erforderlichen Annahmen erfüllt sind wissen wir somit, dass t emp eine Realisation einer Teststatistik mit einer bekannten Stichprobenkennwertverteilung ist. Diese können wir im nächsten Schritt für die Berechnung von Wahrscheinlichkeiten nützen. Allerdings erfordert dieser Schritt einige Vorsicht bei der Interpretation. Es macht natürlich überhaupt keinen Sinn sich zu fragen, wie wahrscheinlich ein Ereignis ist, welches bereits stattgefunden hat, es hat stattgefunden! Aber wir können uns fragen wie wahrscheinlich es ist, bei einer hypothetischen neuerlichen Ziehung einer Zufallsstichprobe (oder Wiederholungen des Zufallsexperiments) einen mindestens ebenso extremen oder noch extremeren Wert als t emp zu erhalten. Diese Wahrscheinlichkeit wird p-wert genannt und entspricht der schraffierten Fläche unter der Dichtefunktion links von t emp und rechts von + t emp (siehe Abbildung 5.5). Wir verwenden hier den Absolutbetrag der Teststatistik, da die

20 Empirische Wirtschaftsforschung 20 Teststatistik auch negativ sein kann, und in diesem Fall links und rechts von t emp irreführend sein könnte. Wir benötigen die beiden schraffierten Flächen am linken und rechten Rand der Verteilung, weil die Nullhypothese zweiseitig ist; sowohl Werte von β 2, die viel größer als β 0 sind, als auch Werte von β 2, die viel kleiner als β 0 sind, sind entweder unwahrscheinlich oder sprechen gegen die Nullhypothese! Der p-wert ist natürlich eine Zufallsvariable, der empirische p-wert p emp, den wir aus einer Stichprobe berechnen, ist eine Realisation dieser Zufallsvariable. Interpretation von p-werten: Wenn die Nullhypothese wahr ist und alle erforderlichen Annahmen erfüllt sind gibt der p-wert die Wahrscheinlichkeit dafür an, dass wir bei einer hypothetischen neuerlichen Durchführung des Zufallsexperiments eine empirische Teststatistik erhalten würden, die noch extremer ist als die vorliegende empirische Teststatistik. Da p-werte Wahrscheinlichkeiten sind können sie nur Werte zwischen Null und Eins annehmen. Ein p-wert nahe bei Null deutet in einem korrekt spezifizierten Modell darauf hin, dass entweder ein sehr unwahrscheinliches Ereignis eingetreten ist, oder dass die Nullhypothese falsch ist. Umso kleiner ein p-wert ist, umso eher wird man geneigt sein die Nullyhpothese zu verwerfen. Etwas salopp können wir den p-wert auch einfach als Kennzahl dafür interpretieren, wie gut die Nullhypothese den datengenerierenden Prozess beschreibt. Ein sehr kleiner p-wert wird als Evidenz gegen die Nullhypothese interpretiert. In historischen Zeiten war die Berechnung der p-werte aufwändig, aber heute geben so gut wie alle Statistikprogramme die p-werte automatisch aus. Computerprogramme berechnen den p-wert meist mit Hilfe der Verteilungsfunktion F(t) = Den zweiseitigen p-wert erhält man aus t emp f(v)dv p emp = 2[1 F( t emp,df)] wobei F(t) in diesem Fall die Verteilungsfunktion der t-verteilung bezeichnet (nicht die F-Statistik!), t emp ist der Absolutwert der empirischen Teststatistik, und und df steht für die Freiheitsgrade ( degrees of freedom ). Beispiel Angenommen, die Entwicklung der Lebenserwartung (LE) eines Landes könne durch folgende Regressionsgleichung beschrieben werden

21 Empirische Wirtschaftsforschung 21 LE = Trend (0.124) *** (0.10) ** R 2 = 0.987, ˆσ = 0.446, DW = 0.287, n = 53 ( ) (Standardfehler in Klammern) Der Wert der empirischen t-statistik ist t emp = = Mit Hilfe einer geeigneter Software kann man berechnen, dass die Fläche unter der Dichtefunktion einer t-verteilung mit 51 Freiheitsgraden links von +2.5 gleich F(2.5,51) = ist 11 (vgl. Abbildung 5.5). Da die gesamte Fläche unter einer Dichtefunktion immer 1 ist muss die Fläche rechts von +2.5 gleich = sein. Es handelt sich um einen zweiseitigen Test, also benötigenwirdieflächerechtsvon+2.5plus dieflächelinksvon 2.5.Dadiet-Verteilung symmetrisch ist können wir einfach Fläche rechts von +2.5 verdoppeln, also p-wert = 2(1 F( t emp,df) = 2[1 F(2.5,51)] = 2( ) = Wenn alle Gauss Markov Annahmen erfüllt sind, die Störterme normalverteilt sind und die Nullhypothese H 0 : β 2 = 0 wahr ist, würden wir bei neuerlicher Ziehung einer Stichprobe aus der gleichen Grundgesamtheit nur mit einer Wahrscheinlichkeit von 1.57% einen noch extremeren Wert als t emp = 2.5 erwarten. Dieser kleine p-wert kann zumindest drei Ursachen haben, 1. die Annahmen, auf denen der Test beruht, sind nicht erfüllt, 2. es handelt sich um ein sehr seltenes (unwahrscheinliches) Ereignis, oder 3. die Nullhypothese ist falsch. Inwieweit die Annahmen, auf denen der Test beruht, erfüllt sind, sollte vor Durchführung der Tests überprüft werden; mehr dazu folgt in den späteren Kapiteln. Die Entscheidung, ob man das Ergebnis als sehr unwahrscheinlich einstufen oder ob man die Nullhypothese verwerfen soll, ist schwieriger. In seinen frühen Schriften schlug Fisher vor, bei einem p-wert kleiner als 5% die Nullhypothese zu verwerfen, da ein zufälliges Eintreten eines so seltenen Ereignisses hinreichend unwahrscheinlich sei. In seinen späteren Lebensjahren hat Fisher einen solchen fixen Wert allerdings entschieden abgelehnt...no scientific worker has a fixed level of significance at which from year to year, and in all circumstances, he rejects hypotheses; he rather gives his mind to each particular case in the light of his evidence and his ideas. (Sir Ronald A. Fisher, 1956) Wie wir später sehen werden besteht in der Ablehnung eines solchen von vornherein festgelegten p-wertes, ab dem die Nullhypothese verworfen wird, einer der wesentlichen Unterschiede zur Testmethodik von Neyman und Pearson. 11 z.b. mit R: pt(2.5,51), Stata: 1-ttail(51,2.5)

22 Empirische Wirtschaftsforschung 22 p-werte für einseitige Hypothesentests KehrenwirnochmalszumBeispiel mitderkonsumfunktionc = β 1 +β 2 Y +εzurück. Unser eingangs erwähnter Theoretiker benötigt für seine Argumentation einen positiven Zusammenhang zwischen Konsumausgaben und Einkommen, ein negativer Zusammenhang zwischen diesen Variablen wäre mindestens ebenso schlimm wie gar kein Zusammenhang. Er wird das Problem also nicht symmetrisch sehen, wie dies bei einem zweiseitigen Test implizit angenommen wird, sondern ist eigentlich an einer einseitigen Nullhypothese der Art interessiert. H 0 : β 2 0 Auf den ersten Blick scheint es unmöglich diese Hypothese zu testen, da β 2 0 unendlich viele Fälle umfasst. Etwas nachdenken zeigt allerdings, dass es genügt den Grenzfall β 2 = 0 zu testen, denn wenn man H 0 : β 2 = 0 verwerfen kann, können automatisch auch alle extremeren Hypothesen β 2 < 0 verworfen werden. Deshalb kann für einen einseitigen Test die gleiche Teststatistik wie für zweiseitige Tests verwendet werden, in diesem Fall t emp = β 2 β 0 allerdings ist bei einseitigen Tests das Vorzeichen der empirischen Teststatistik zu beachten. Kehren wir noch einmal zum Beispiel mit der Konsumfunktion zurück. Wir vermuten einen positiven Zusammenhang zwischen Konsum und Einkommen. Die Nullhypothese ist die Negativhypothese zu dieser Vermutung, also H 0 : β 2 0. Dieser Fall ist im rechten Panel von Abbildung 5.6 dargestellt. Wirhabenbereitst emp = 2.5fürdenzweiseitigen Test H 0 : β 2 = 0berechnet, undwie wir soeben gesehen haben wird diese empirische Teststatistik auch für den einseitigen Test verwendet, allerdings benötigen wir nur die Fläche unter der Dichtefunktion rechts von DieVerteilungsfunktionF(t emp,df)liefertunsdenwertderflächelinksvont emp,für t emp = 2.5 und 54 Freiheitsgrade ist F(2.5,54) = Da die gesamte Fläche unter einer Dichtefunktion immer Eins ist, erhalten wir die Fläche rechts von t emp = 2.5 als = Dies ist der p-wert für die Nullhypothese H 0 : β 2 0. Man beachte, dass dieser Wert (für symmetrische Dichtefunktionen) genau halb so groß ist wie der p-wert für den zweiseitigen Tests, da wir für den zweiseitigen Test diese Fläche nur verdoppelt haben. Die Interpretation des p-wertes ändert sich nicht, falls alle erforderlichen Annahmen erfüllt sind und die Nullhyhpothese β 2 0 wahr ist würden wir bei wiederholten Stichprobenziehungen nur in 0.8% der Stichproben eine mindestens so extreme Teststatistik erwarten wie die beobachtete t emp. Da dies ein eher unwahrscheinliches Ereignis ist würden die meisten Forscherinnen vermuten, dass die Nullhypothese falsch ist. ˆσ β2

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip Sommersemester 2010 KLAUSUR Statistik B Hinweise zur Bearbeitung: Bei allen Teilaufgaben

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

Tutorial: Homogenitätstest

Tutorial: Homogenitätstest Tutorial: Homogenitätstest Eine Bank möchte die Kreditwürdigkeit potenzieller Kreditnehmer abschätzen. Einerseits lebt die Bank ja von der Vergabe von Krediten, andererseits verursachen Problemkredite

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

Binäre abhängige Variablen

Binäre abhängige Variablen Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen

Mehr

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank

Mehr

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER

METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER METHODENLEHRE I WS 2013/14 THOMAS SCHÄFER DAS THEMA: INFERENZSTATISTIK IV INFERENZSTATISTISCHE AUSSAGEN FÜR ZUSAMMENHÄNGE UND UNTERSCHIEDE Inferenzstatistik für Zusammenhänge Inferenzstatistik für Unterschiede

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50,7 50 51,5 51,7 48,8 1. Aufgabe: Eine Reifenfirma hat für Winterreifen unterschiedliche Profile entwickelt. Bei jeweils gleicher Geschwindigkeit und auch sonst gleichen Bedingungen wurden die Bremswirkungen gemessen. Die gemessenen

Mehr

Melanie Kaspar, Prof. Dr. B. Grabowski 1

Melanie Kaspar, Prof. Dr. B. Grabowski 1 7. Hypothesentests Ausgangssituation: Man muss sich zwischen 2 Möglichkeiten (=Hypothesen) entscheiden. Diese Entscheidung soll mit Hilfe von Beobachtungen ( Stichprobe ) getroffen werden. Die Hypothesen

Mehr

Statistik II für Betriebswirte Vorlesung 2

Statistik II für Betriebswirte Vorlesung 2 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 2 21. Oktober 2014 Verbundene Stichproben Liegen zwei Stichproben vor, deren Werte einander

Mehr

Ein möglicher Unterrichtsgang

Ein möglicher Unterrichtsgang Ein möglicher Unterrichtsgang. Wiederholung: Bernoulli Experiment und Binomialverteilung Da der sichere Umgang mit der Binomialverteilung, auch der Umgang mit dem GTR und den Diagrammen, eine notwendige

Mehr

Grundlagen der Inferenzstatistik

Grundlagen der Inferenzstatistik Grundlagen der Inferenzstatistik (Induktive Statistik oder schließende Statistik) Dr. Winfried Zinn 1 Deskriptive Statistik versus Inferenzstatistik Die Deskriptive Statistik stellt Kenngrößen zur Verfügung,

Mehr

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge 2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten

Mehr

Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester 2005 26. Juli 2005

Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester 2005 26. Juli 2005 Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester 2005 26. Juli 2005 Aufgabe 1: Grundzüge der Wahrscheinlichkeitsrechnung 19 P. Als Manager eines großen

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel Ausarbeitung zum Proseminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn zum Thema Simulation des Anlagenpreismodels von Simon Uphus im WS 09/10 Zusammenfassung

Mehr

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen Gleichungen Lösen Was bedeutet es, eine Gleichung zu lösen? Was ist überhaupt eine Gleichung? Eine Gleichung ist, grundsätzlich eine Aussage über zwei mathematische Terme, dass sie gleich sind. Ein Term

Mehr

Repetitionsaufgaben Wurzelgleichungen

Repetitionsaufgaben Wurzelgleichungen Repetitionsaufgaben Wurzelgleichungen Inhaltsverzeichnis A) Vorbemerkungen B) Lernziele C) Theorie mit Aufgaben D) Aufgaben mit Musterlösungen 4 A) Vorbemerkungen Bitte beachten Sie: Bei Wurzelgleichungen

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Zwei Gleichungen mit zwei Unbekannten Es kommt häufig vor, dass man nicht mit einer Variablen alleine auskommt, um ein Problem zu lösen. Das folgende Beispiel soll dies verdeutlichen

Mehr

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN CHRISTIAN HARTFELDT. Zweiter Mittelwertsatz Der Mittelwertsatz Satz VI.3.4) lässt sich verallgemeinern zu Satz.. Seien f, g : [a, b] R auf [a,

Mehr

Interne und externe Modellvalidität

Interne und externe Modellvalidität Interne und externe Modellvalidität Interne Modellvalidität ist gegeben, o wenn statistische Inferenz bzgl. der untersuchten Grundgesamtheit zulässig ist o KQ-Schätzer der Modellparameter u. Varianzschätzer

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

1.3 Die Beurteilung von Testleistungen

1.3 Die Beurteilung von Testleistungen 1.3 Die Beurteilung von Testleistungen Um das Testergebnis einer Vp zu interpretieren und daraus diagnostische Urteile ableiten zu können, benötigen wir einen Vergleichsmaßstab. Im Falle des klassischen

Mehr

Berechnung der Erhöhung der Durchschnittsprämien

Berechnung der Erhöhung der Durchschnittsprämien Wolfram Fischer Berechnung der Erhöhung der Durchschnittsprämien Oktober 2004 1 Zusammenfassung Zur Berechnung der Durchschnittsprämien wird das gesamte gemeldete Prämienvolumen Zusammenfassung durch die

Mehr

Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero?

Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero? Gibt es einen Geschmacksunterschied zwischen Coca Cola und Cola Zero? Manche sagen: Ja, manche sagen: Nein Wie soll man das objektiv feststellen? Kann man Geschmack objektiv messen? - Geschmack ist subjektiv

Mehr

Name:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest

Mehr

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft Prof. Dr. Helmut Küchenhoff SS08 90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft am 22.7.2008 Anmerkungen Überprüfen Sie bitte sofort, ob Ihre Angabe vollständig ist. Sie sollte

Mehr

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten Das große x -4 Alles über das Wer kann beantragen? Generell kann jeder beantragen! Eltern (Mütter UND Väter), die schon während ihrer Elternzeit wieder in Teilzeit arbeiten möchten. Eltern, die während

Mehr

5. Schließende Statistik. 5.1. Einführung

5. Schließende Statistik. 5.1. Einführung 5. Schließende Statistik 5.1. Einführung Sollen auf der Basis von empirischen Untersuchungen (Daten) Erkenntnisse gewonnen und Entscheidungen gefällt werden, sind die Methoden der Statistik einzusetzen.

Mehr

Ausarbeitung des Seminarvortrags zum Thema

Ausarbeitung des Seminarvortrags zum Thema Ausarbeitung des Seminarvortrags zum Thema Anlagepreisbewegung zum Seminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn von Imke Meyer im W9/10 Anlagepreisbewegung

Mehr

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift:

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift: 20-minütige Klausur zur Vorlesung Lineare Modelle im Sommersemester 20 PD Dr. Christian Heumann Ludwig-Maximilians-Universität München, Institut für Statistik 2. Oktober 20, 4:5 6:5 Uhr Überprüfen Sie

Mehr

Um zusammenfassende Berichte zu erstellen, gehen Sie folgendermaßen vor:

Um zusammenfassende Berichte zu erstellen, gehen Sie folgendermaßen vor: Ergebnisreport: mehrere Lehrveranstaltungen zusammenfassen 1 1. Ordner anlegen In der Rolle des Berichterstellers (siehe EvaSys-Editor links oben) können zusammenfassende Ergebnisberichte über mehrere

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x + 400 y = 520 300x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775,

V 2 B, C, D Drinks. Möglicher Lösungsweg a) Gleichungssystem: 300x + 400 y = 520 300x + 500y = 597,5 2x3 Matrix: Energydrink 0,7 Mineralwasser 0,775, Aufgabenpool für angewandte Mathematik / 1. Jahrgang V B, C, D Drinks Ein gastronomischer Betrieb kauft 300 Dosen Energydrinks (0,3 l) und 400 Liter Flaschen Mineralwasser und zahlt dafür 50, Euro. Einen

Mehr

Klausur Nr. 1. Wahrscheinlichkeitsrechnung. Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt.

Klausur Nr. 1. Wahrscheinlichkeitsrechnung. Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt. Klausur Nr. 1 2014-02-06 Wahrscheinlichkeitsrechnung Pflichtteil Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt. Name: 0. Für Pflicht- und Wahlteil gilt: saubere und übersichtliche Darstellung,

Mehr

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3 Lineare Funktionen Inhaltsverzeichnis 1 Proportionale Funktionen 3 1.1 Definition............................... 3 1.2 Eigenschaften............................. 3 2 Steigungsdreieck 3 3 Lineare Funktionen

Mehr

Stichprobenauslegung. für stetige und binäre Datentypen

Stichprobenauslegung. für stetige und binäre Datentypen Stichprobenauslegung für stetige und binäre Datentypen Roadmap zu Stichproben Hypothese über das interessierende Merkmal aufstellen Stichprobe entnehmen Beobachtete Messwerte abbilden Schluss von der Beobachtung

Mehr

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678 Lösungsvorschläge zu Blatt 8 X binomialverteilt mit p = 0. und n = 10: a PX = = 10 q = 1 p = 0.8 0. 0.8 10 = 0, 1,..., 10 PX = PX = 0 + PX = 1 + PX = 10 10 = 0. 0 0.8 10 + 0. 1 0.8 9 + 0 1 10 = 0.8 8 [

Mehr

Statistik I für Betriebswirte Vorlesung 5

Statistik I für Betriebswirte Vorlesung 5 Statistik I für Betriebswirte Vorlesung 5 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik 07. Mai 2015 PD Dr. Frank Heyde Statistik I für Betriebswirte Vorlesung 5 1 Klassische Wahrscheinlichkeitsdefinition

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!

Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Die Optimalität von Randomisationstests

Die Optimalität von Randomisationstests Die Optimalität von Randomisationstests Diplomarbeit Elena Regourd Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2001 Betreuung: Prof. Dr. A. Janssen Inhaltsverzeichnis

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

Grundlagen der Theoretischen Informatik, SoSe 2008

Grundlagen der Theoretischen Informatik, SoSe 2008 1. Aufgabenblatt zur Vorlesung Grundlagen der Theoretischen Informatik, SoSe 2008 (Dr. Frank Hoffmann) Lösung von Manuel Jain und Benjamin Bortfeldt Aufgabe 2 Zustandsdiagramme (6 Punkte, wird korrigiert)

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes. Binäre Bäume Definition: Ein binärer Baum T besteht aus einer Menge von Knoten, die durch eine Vater-Kind-Beziehung wie folgt strukturiert ist: 1. Es gibt genau einen hervorgehobenen Knoten r T, die Wurzel

Mehr

3.2 Spiegelungen an zwei Spiegeln

3.2 Spiegelungen an zwei Spiegeln 3 Die Theorie des Spiegelbuches 45 sehen, wenn die Person uns direkt gegenüber steht. Denn dann hat sie eine Drehung um die senkrechte Achse gemacht und dabei links und rechts vertauscht. 3.2 Spiegelungen

Mehr

Fortgeschrittene Statistik Logistische Regression

Fortgeschrittene Statistik Logistische Regression Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E

Mehr

Statistische Auswertung:

Statistische Auswertung: Statistische Auswertung: Die erhobenen Daten mittels der selbst erstellten Tests (Surfaufgaben) Statistics Punkte aus dem Punkte aus Surftheorietest Punkte aus dem dem und dem Surftheorietest max.14p.

Mehr

Statistik II. Statistik II, SS 2001, Seite 1 von 5

Statistik II. Statistik II, SS 2001, Seite 1 von 5 Statistik II, SS 2001, Seite 1 von 5 Statistik II Hinweise zur Bearbeitung Hilfsmittel: - Taschenrechner (ohne Datenbank oder die Möglichkeit diesen zu programmieren) - Formelsammlung im Umfang von einer

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min

Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Klausur, Multivariate Verfahren, SS 2006, 6 Kreditpunkte, 90 min 1 Prof. Dr. Fred Böker 08.08.2006 Klausur zur Vorlesung Multivariate Verfahren, SS 2006 6 Kreditpunkte, 90 min Gesamtpunkte: 39 Aufgabe

Mehr

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert:

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: Beispiel: Wir untersuchen die rekursiv definierte Folge a 0 + auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: ( ) (,, 7, 5,...) Wir können also vermuten, dass die Folge monoton fallend

Mehr

Eine Einführung in R: Statistische Tests

Eine Einführung in R: Statistische Tests Eine Einführung in R: Statistische Tests Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.uni-leipzig.de/ zuber/teaching/ws12/r-kurs/

Mehr

Quantilsschätzung als Werkzeug zur VaR-Berechnung

Quantilsschätzung als Werkzeug zur VaR-Berechnung Quantilsschätzung als Werkzeug zur VaR-Berechnung Ralf Lister, Aktuar, lister@actuarial-files.com Zusammenfassung: Zwei Fälle werden betrachtet und die jeweiligen VaR-Werte errechnet. Im ersten Fall wird

Mehr

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben

Mehr

Biostatistik, WS 2015/2016 Der zwei-stichproben-t-test

Biostatistik, WS 2015/2016 Der zwei-stichproben-t-test 1/29 Biostatistik, WS 2015/2016 Der zwei-stichproben-t-test (t-test für ungepaarte Stichproben) Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik1516/ 11.12.2015 2/29 Inhalt 1 t-test

Mehr

Persönliche Zukunftsplanung mit Menschen, denen nicht zugetraut wird, dass sie für sich selbst sprechen können Von Susanne Göbel und Josef Ströbl

Persönliche Zukunftsplanung mit Menschen, denen nicht zugetraut wird, dass sie für sich selbst sprechen können Von Susanne Göbel und Josef Ströbl Persönliche Zukunftsplanung mit Menschen, denen nicht zugetraut Von Susanne Göbel und Josef Ströbl Die Ideen der Persönlichen Zukunftsplanung stammen aus Nordamerika. Dort werden Zukunftsplanungen schon

Mehr

Beweisbar sichere Verschlüsselung

Beweisbar sichere Verschlüsselung Beweisbar sichere Verschlüsselung ITS-Wahlpflichtvorlesung Dr. Bodo Möller Ruhr-Universität Bochum Horst-Görtz-Institut für IT-Sicherheit Lehrstuhl für Kommunikationssicherheit bmoeller@crypto.rub.de 6

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

Motivation. Wilcoxon-Rangsummentest oder Mann-Whitney U-Test. Wilcoxon Rangsummen-Test Voraussetzungen. Bemerkungen

Motivation. Wilcoxon-Rangsummentest oder Mann-Whitney U-Test. Wilcoxon Rangsummen-Test Voraussetzungen. Bemerkungen Universität Karlsruhe (TH) Forschungsuniversität gegründet 825 Wilcoxon-Rangsummentest oder Mann-Whitney U-Test Motivation In Experimenten ist die Datenmenge oft klein Daten sind nicht normalverteilt Dann

Mehr

Binärdarstellung von Fliesskommazahlen

Binärdarstellung von Fliesskommazahlen Binärdarstellung von Fliesskommazahlen 1. IEEE 754 Gleitkommazahl im Single-Format So sind in Gleitkommazahlen im IEEE 754-Standard aufgebaut: 31 30 24 23 0 S E E E E E E E E M M M M M M M M M M M M M

Mehr

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten!

Skript und Aufgabensammlung Terme und Gleichungen Mathefritz Verlag Jörg Christmann Nur zum Privaten Gebrauch! Alle Rechte vorbehalten! Mathefritz 5 Terme und Gleichungen Meine Mathe-Seite im Internet kostenlose Matheaufgaben, Skripte, Mathebücher Lernspiele, Lerntipps, Quiz und noch viel mehr http:// www.mathefritz.de Seite 1 Copyright

Mehr

Bevor lineare Gleichungen gelöst werden, ein paar wichtige Begriffe, die im Zusammenhang von linearen Gleichungen oft auftauchen.

Bevor lineare Gleichungen gelöst werden, ein paar wichtige Begriffe, die im Zusammenhang von linearen Gleichungen oft auftauchen. R. Brinkmann http://brinkmann-du.de Seite 1 13.0.010 Lineare Gleichungen Werden zwei Terme durch ein Gleichheitszeichen miteinander verbunden, so entsteht eine Gleichung. Enthält die Gleichung die Variable

Mehr

Beurteilung der biometrischen Verhältnisse in einem Bestand. Dr. Richard Herrmann, Köln

Beurteilung der biometrischen Verhältnisse in einem Bestand. Dr. Richard Herrmann, Köln Beurteilung der biometrischen Verhältnisse in einem Bestand Dr. Richard Herrmann, Köln Beurteilung der biometrischen Verhältnisse in einem Bestand 1 Fragestellung Methoden.1 Vergleich der Anzahlen. Vergleich

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster Es gibt in Excel unter anderem die so genannten Suchfunktionen / Matrixfunktionen Damit können Sie Werte innerhalb eines bestimmten Bereichs suchen. Als Beispiel möchte ich die Funktion Sverweis zeigen.

Mehr

A1.7: Entropie natürlicher Texte

A1.7: Entropie natürlicher Texte A1.7: Entropie natürlicher Texte Anfang der 1950er Jahre hat Claude E. Shannon die Entropie H der englischen Sprache mit einem bit pro Zeichen abgeschätzt. Kurz darauf kam Karl Küpfmüller bei einer empirischen

Mehr

infach Geld FBV Ihr Weg zum finanzellen Erfolg Florian Mock

infach Geld FBV Ihr Weg zum finanzellen Erfolg Florian Mock infach Ihr Weg zum finanzellen Erfolg Geld Florian Mock FBV Die Grundlagen für finanziellen Erfolg Denn Sie müssten anschließend wieder vom Gehaltskonto Rückzahlungen in Höhe der Entnahmen vornehmen, um

Mehr

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell: Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am 6.12.2012 - Lösungen LV-Leiterin: Univ.Prof.Dr. Sylvia Frühwirth-Schnatter 1 Wahr oder falsch? 1. Das folgende Modell ist ein GARCH(1,1)-Modell: Y

Mehr

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen .3 Komplexe Potenzreihen und weitere komplexe Funktionen Definition.) komplexe Folgen: z n = x n + j. y n mit zwei reellen Folgen x n und y n.) Konvergenz: Eine komplexe Folge z n = x n + j. y n heißt

Mehr

Kreativ visualisieren

Kreativ visualisieren Kreativ visualisieren Haben Sie schon einmal etwas von sogenannten»sich selbst erfüllenden Prophezeiungen«gehört? Damit ist gemeint, dass ein Ereignis mit hoher Wahrscheinlichkeit eintritt, wenn wir uns

Mehr

Mathematik: Mag. Schmid Wolfgang Arbeitsblatt 3 1. Semester ARBEITSBLATT 3 RECHNEN MIT GANZEN ZAHLEN

Mathematik: Mag. Schmid Wolfgang Arbeitsblatt 3 1. Semester ARBEITSBLATT 3 RECHNEN MIT GANZEN ZAHLEN ARBEITSBLATT 3 RECHNEN MIT GANZEN ZAHLEN Wir wollen nun die Rechengesetze der natürlichen Zahlen auf die Zahlenmenge der ganzen Zahlen erweitern und zwar so, dass sie zu keinem Widerspruch mit bisher geltenden

Mehr

Codierungstheorie Rudolf Scharlau, SoSe 2006 9

Codierungstheorie Rudolf Scharlau, SoSe 2006 9 Codierungstheorie Rudolf Scharlau, SoSe 2006 9 2 Optimale Codes Optimalität bezieht sich auf eine gegebene Quelle, d.h. eine Wahrscheinlichkeitsverteilung auf den Symbolen s 1,..., s q des Quellalphabets

Mehr

Mathematischer Vorbereitungskurs für Ökonomen

Mathematischer Vorbereitungskurs für Ökonomen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Gleichungen Inhalt: 1. Grundlegendes 2. Lineare Gleichungen 3. Gleichungen mit Brüchen

Mehr

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken?

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? UErörterung zu dem Thema Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken? 2000 by christoph hoffmann Seite I Gliederung 1. In zu großen Mengen ist alles schädlich. 2.

Mehr

Überblick über die Verfahren für Ordinaldaten

Überblick über die Verfahren für Ordinaldaten Verfahren zur Analyse ordinalskalierten Daten 1 Überblick über die Verfahren für Ordinaldaten Unterschiede bei unabhängigen Stichproben Test U Test nach Mann & Whitney H Test nach Kruskal & Wallis parametrische

Mehr

R ist freie Software und kann von der Website. www.r-project.org

R ist freie Software und kann von der Website. www.r-project.org R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird

Mehr

Betragsgleichungen und die Methode der Fallunterscheidungen

Betragsgleichungen und die Methode der Fallunterscheidungen mathe online Skripten http://www.mathe-online.at/skripten/ Betragsgleichungen und die Methode der Fallunterscheidungen Franz Embacher Fakultät für Mathematik der Universität Wien E-mail: franz.embacher@univie.ac.at

Mehr

Kapitalerhöhung - Verbuchung

Kapitalerhöhung - Verbuchung Kapitalerhöhung - Verbuchung Beschreibung Eine Kapitalerhöhung ist eine Erhöhung des Aktienkapitals einer Aktiengesellschaft durch Emission von en Aktien. Es gibt unterschiedliche Formen von Kapitalerhöhung.

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

3. LINEARE GLEICHUNGSSYSTEME

3. LINEARE GLEICHUNGSSYSTEME 176 3. LINEARE GLEICHUNGSSYSTEME 90 Vitamin-C-Gehalt verschiedener Säfte 18,0 mg 35,0 mg 12,5 mg 1. a) 100 ml + 50 ml + 50 ml = 41,75 mg 100 ml 100 ml 100 ml b) : Menge an Kirschsaft in ml y: Menge an

Mehr

Verteilungsmodelle. Verteilungsfunktion und Dichte von T

Verteilungsmodelle. Verteilungsfunktion und Dichte von T Verteilungsmodelle Verteilungsfunktion und Dichte von T Survivalfunktion von T Hazardrate von T Beziehungen zwischen F(t), S(t), f(t) und h(t) Vorüberlegung zu Lebensdauerverteilungen Die Exponentialverteilung

Mehr

Einfache statistische Auswertungen mit dem Programm SPSS

Einfache statistische Auswertungen mit dem Programm SPSS Einfache statistische Auswertungen mit dem Programm SPSS Datensatz: fiktive_daten.sav Dipl. Päd. Anne Haßelkus Dr. Dorothea Dette-Hagenmeyer 11/2011 Überblick 1 Deskriptive Statistiken; Mittelwert berechnen...

Mehr

Theoretische Grundlagen der Informatik WS 09/10

Theoretische Grundlagen der Informatik WS 09/10 Theoretische Grundlagen der Informatik WS 09/10 - Tutorium 6 - Michael Kirsten und Kai Wallisch Sitzung 13 02.02.2010 Inhaltsverzeichnis 1 Formeln zur Berechnung Aufgabe 1 2 Hamming-Distanz Aufgabe 2 3

Mehr

W-Rechnung und Statistik für Ingenieure Übung 11

W-Rechnung und Statistik für Ingenieure Übung 11 W-Rechnung und Statistik für Ingenieure Übung 11 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) Mathematikgebäude Raum 715 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) W-Rechnung und Statistik

Mehr