Statistik. Andrej Depperschmidt. Sommersemester 2016
|
|
- Bertold Kerner
- vor 6 Jahren
- Abrufe
Transkript
1 Statistik Andrej Depperschmidt Sommersemester 2016
2 Schätzen der Varianz mit Stichprobenmittel Sei X = (X 1,..., X n ) eine Stichprobe u.i.v. ZV mit E[X i ] = µ R, Var[X i ] = σ 2 (0, ) und µ 4 = E[(X i µ) 4 ] <. Wenn µ bekannt ist, so können wir σ 2 wie folgt schätzen: Y i = (X i µ) 2. Dann sind Y 1,..., Y n u.i.v. mit E[Y i ] = Var[X i ] = σ 2 und Var[Y i ] < Dann ist ˆσ 2 1(X ) := Y n = 1 n n Y i = 1 n n (X i µ) 2 ein Schätzer von σ 2. Als Stichprobenmittel ist er erwartungstreu, konsistent etc.
3 Schätzen der Varianz mit Stichprobenvarianz Wenn µ bekannt ist so können wir dennoch die Stichprobenvarianz ˆσ 2 := 1 n 1 n (X i X ) 2 (1) als Schätzer für σ 2 verwenden. Auch dieser Schätzer ist erwartungstreu, denn es ist n (X i µ) 2 = = n ( (Xi X ) + (X µ) ) 2 n (X i X ) 2 + n (X µ) 2 + 2(X µ) n (X i X ) }{{} =0, da n X i =nx.
4 Es folgt [ n E (X i X ) 2] [ n = E (X i µ) 2] [ n E (X µ) 2] und somit Man kann weiter nachrechnen, dass = n Var[X 1 ] n Var[X ] = nσ 2 σ 2 = (n 1)σ 2 E[ˆσ 2 ] = σ 2. Var[ˆσ 2 ] = 1 n (µ 4 n 3 n 1 σ4 ).
5 χ 2 n-verteilung Seien die Zufallsvariablen Z 1,..., Z n unabhängig und identisch verteilt mit Z i N 0,1. Die Zufallsvariable n Z i 2 ist χ 2 n verteilt. Die Verteilung heißt (zentrale) χ 2 -Verteilung mit n Freiheitsgraden. Es gilt χ 2 n = Γ 1/2,n/2. Die Dichte ist gegeben durch f n (x) = 1 2 n/2 Γ(n/2) x n/2 1 e x/2, x > 0.
6 t n -Verteilung Seien U N 0,1 und V χ 2 n stochastisch unabhängig. U Die Zufallsvariable ist t n verteilt. Die Verteilung heißt V /n studentsche t-verteilung (oder einfach t-verteilung) mit n Freiheitsgraden. Die Dichte ist gegeben durch Γ((n + 1)/2) ( f n (x) = 1 + x 2 ) (n+1)/2, x R. (2) nπγ(n/2) n Bemerkung: Man kann zeigen, f n (x) n φ(x), x R, wobei φ die Dichte der Standardnormalverteilung ist.
7 F n,m -Verteilung Seien X 1 χ 2 n und X 2 χ 2 m unabhängig. Die Zufallsvariable X 1/n X 2 /m ist F n,m verteilt. Die Verteilung heißt F -Verteilung mit n Freiheitsgraden im Zähler und m Freiheitsgraden im Nenner. Die Dichte bekommt man aus den entsprechenden Dichten der χ 2 Verteilung. Sie ist gegeben durch f n,m (x) = nn/2 m m/2 Γ((n + m)/2)x n/2 1, x > 0. (3) Γ(n/2)Γ(m/2)(m + nx) (n+m)/2
8 Satz Verteilung von ˆµ und ˆσ 2 bei Normalität Seien X 1,..., X n u.i.v. mit X i N µ,σ 2, 0 < σ 2 <. (i) ˆµ(X ) = 1 n n X i und ˆσ 2 (X ) sind unabhängig. (ii) ˆµ(X ) N µ,σ2 /n, n 1 σ 2 ˆσ 2 (X ) χ 2 n 1. Folgerung Für X 1,..., X n wie oben gilt Beweis. n(ˆµ(x ) µ) t n 1. ˆσ n(ˆµ(x ) µ) σ σ n(ˆµ(x ) µ) ˆσ = }{{ σ } N 0,1 1 ((n 1) ˆσ2 σ 2 }{{} χ 2 n 1 ) 1/2 1 n 1
9 Konfidenzgrenzen für µ bei bekannter Varianz Normalverteilungsmodell Für X 1,..., X n unabhängig mit X i N µ,σ 2 mit bekanntem σ 2 (0, ) haben wir in gezeigt, dass das Konfidenzintervall für µ zur Sicherheit 1 α durch I (X ) = (X z α/2 σ n, X + z α/2 σ n ) gegeben ist, wobei z α/2 das obere α/2-quantil (= 1 α/2-quantil) der Standardnormalverteilung ist, d.h. z α/2 = Φ 1 (1 α/2) bzw. P(Z z α/2 ) = α 2, Z N 0,1.
10 Konfidenzgrenzen für µ bei geschätzter Varianz Normalverteilungsmodell Ist σ 2 (0, ) unbekannt und wird es mit ˆσ 2 (X ) geschätzt dann kann man sich analog überlegen, dass Ĩ (X ) = (X t n 1,α/2 ˆσ n, X + t n 1,α/2 ˆσ n ) ein Konfidenzintervall für µ zur Sicherheit 1 α ist. Dabei bezeichnet t n 1,α/2 das obere α/2 Quantil der t n 1 -Verteilung.
11 Konfidenzgrenzen für µ bei geschätzter Varianz allgemeine Verteilung Sind X 1,..., X n u.i.v. mit E[X i ] = µ und Var[X i ] = σ 2 (0, ) dann hat Ĩ (X ) die asymptotische Sicherheit 1 α, denn es gilt X t n 1,α/2 ˆσ n < µ < X + t n 1,α/2 ˆσ n n X n µ < t n 1,α/2 ˆσ n und somit ( n X n µ ) P(µ Ĩ (X )) = P t n 1,α/2 ˆσ n ( n X n µ σ = P } {{ σ } N 0,1 ˆσ }{{} n P 1 z α/2 t n 1,α/2 } {{ } 1 z α/2 ) n P( Z z α/2 ) = Φ(z α/2 ) Φ( z α/2 ) = 1 α.
12 Konfidenzgrenzen für µ bei geschätzter Varianz allgemeine Verteilung P(µ Ĩ (X )) = P ( n X n µ σ Bemerkung: } {{ } N 0,1 σ ˆσ }{{} n P 1 z α/2 t n 1,α/2 } {{ } 1 z α/2 ) n P( Z z α/2 ) = Φ(z α/2 ) Φ( z α/2 ) = 1 α. Statt t n 1,α/2 kann man z α/2 (auch im allgmeinen Modell) verwenden. Liefert dieselbe asymptotische Sicherheit. Praxisüblich ist es mit t-quantilen zu arbeiten. Sie sind exakt im Normalverteilungsmodell und liefern konservativere (größere) Konfidenzintervalle, da z α/2 < t n,α/2 n N, α < 1/2.
13 Das Maximum-Likelihood Prinzip Betrachte eine einzige Beobachtung einer ZV mit Werten in {0, 1, 2} mit Verteilung P θ, θ {θ 0, θ 1 }, gegeben wie folgt: x = 0 x = 1 x = 2 θ = θ θ = θ X = 0 beobachtet θ = θ 0 plausibler. X = 1 oder X = 2 beobachtet θ = θ 1 plausibler. Folgende Schätzfunktion bietet sich also an { θ 0 : X = 0, ˆθ(X ) = θ 1 : X 0.
14 Das Maximum-Likelihood Prinzip Beispiel verallgemeinerbar auf den Fall diskreter Verteilungen P θ mit θ Θ R k. Wenn X = x beobachtet wird, dann ist θ 1 plausibler als θ 2 genau dann wenn P θ1 ({x}) > P θ2 ({x}). Als Schätzer ˆθ würde man also das θ Θ wählen, das θ P θ ({x}) maximiert, wenn es existiert.
15 Likelihood Funktion, Maximum-Likelihood Schätzer X = (X 1,..., X n ) X, X P P = {P θ : θ Θ}. f θ sind Dichten bzw. Wahrscheinlichkeitsgewichte von P θ. Definition (i) Für jedes x X heißt die Funktion L(, x) L(θ, x) = f θ (x) R Likelihood-Funktion bei Beobachtung x X. (ii) Wir nennen ˆθ Θ die Maximum-Likelihood Schätzung (ML-Schätzung) für θ falls gilt L(ˆθ, x) = sup L(θ, x). θ Θ Fasst man ˆθ als Funktion von X auf, dann nennt man ˆθ = ˆθ(X ) ML-Schätzfunktion bzw. ML-Schätzer für θ.
16 Konkrete Bestimmung einer ML-Schätzung Da Logarithmus streng monoton wachsend ist, kann man anstelle von L(, x) äquivalent auch log L(, x), also Log-Likelhood-Funktion maximieren. Besonders hilfreich, wenn L(, x) Produktform hat. Dies gilt wenn X 1,..., X n unabhängig sind. Ist L(θ, x) bzw. log L(θ, x) differenzierbar in θ auf Θ 0 Θ, Θ 0 offen, so kann man oft (aber nicht immer) die ML-Schätzung durch explizites Lösen der Likelihood-Gleichung L(θ, x) = 0 θ bzw. der Log-Likelihood-Gleichung bestimmen. log L(θ, x) = 0 θ
17 ML-Schätzung für Bernoulli Verteilung Seien X 1,..., X n u.i.v. mit X i Ber θ, θ (0, 1). Es gilt n L(θ, x) = θ x i (1 θ) 1 x i = θ n x i (1 θ) n n x i, log L(θ, x) = n x i log θ + (n Die Log-Likelihood-Gleichung ist und wir erhalten 0 = θ log L(θ, x) = θ=ˆθ 1ˆθ n x i ˆθ n n x i ) log(1 θ). n x i = ˆθn ˆθ ˆθ = 1 n n x i = x. x i 1 1 ˆθ (n n x i n x i ).
18 ML-Schätzung für Bernoulli Verteilung Für die zweite Ableitung gilt 2 2 θ log L(θ, x) θ=ˆθ = 1ˆθ2 n 1 x i (n (1 ˆθ) 2 Also ist ˆθ = x das Maximum wenn x (0, 1). n x i ) < 0. Ist x = 0, so gilt sup θ (0,1) log L(θ, 0) = sup θ (0,1) n log(1 θ). Da log(1 θ) fallend in θ ist, ist ˆθ = 0 = 1 n n 0. Ist x = 1, so gilt sup θ (0,1) log L(θ, 1) = sup θ (0,1) n log θ. Da log θ wachsend in θ ist, ist ˆθ = 1 = 1 n n 1. Insgesamt ist also ˆθ(x) = x die ML-Schätzung von θ.
19 ML für Gleichverteilung mit Mittelpunkt θ X 1,..., X n u.i.v. mit X i U(θ 1 2, θ ), θ Θ = R. Es gilt L(θ, x) = = n f θ (x i ) = n 1 (θ 1 2,θ+ 1 2 ) (x i ) { 1 : θ 1 2 < x i < θ i 0 : sonst, = 1 (x(n) 1 2,x (1)+ 1 2 ) (θ). Dabei ist x (1) = min{x 1,..., x n } und x (n) = max{x 1,..., x n }. Für jede Schätzung ˆθ (x (n) 1 2, x (1) ) gilt L(ˆθ, x) = 1 = sup L(θ, x). θ R Jedes ˆθ (x (n) 1 2, x (1) ) ist ML Schätzung; keine Eindeutigkeit.
20 ML für Normalverteilung X 1,..., X n u.i.v. mit X i N µ,σ 2, θ = (µ, σ 2 ) Es gilt und L(θ, x) = n 1 (x 2πσ 2 e i µ) 2σ 2 ( n = (2πσ 2 ) n/2 exp (x i µ) 2 ) 2σ 2 log L(θ, x) = n n 2 log 2πσ2 (x i µ) 2 2σ 2 Die log-likelhood Gleichung besteht aus zwei Gleichungen, die man lösen kann. Durch Betrachten der Hessematrix sowie des Verhaltens an den Rändern bekommt man die ML-Schätzer ˆµ(X ) = X und ˆσ 2 (X ) = 1 n 2 n (X i X ) 2.
21 Ungleichung von Cramér Rao X = (X 1,..., X n ) X, X P P = {P θ : θ Θ}. f θ sind Dichten bzw. Wahrscheinlichkeitsgewichte von P θ. Für ϑ = h(θ) sei ˆϑ(X ) ein Schätzer mit m(θ) = E θ [ ˆϑ(X )]. Definiere Fisher Information durch [( ) 2 ] I (θ) = E θ θ log f θ(x ) Unter bestimmten Regularitätsvoraussetzungen und falls 0 < I (θ) < gilt die Cramér-Rao Ungleichung Var θ [ ˆϑ(X )] (m (θ)) 2. I (θ) Schätzer, für die asymptotisch die Gleichung gilt, heißen effizient. ML Schätzer sind unter relativ milden Bedingungen an das Modell effizient.
22 Elemente der Testtheorie
23 Statistische Tests Beobachtungsmodell {(X, B, P θ ) : θ Θ}. Θ = Θ 0 Θ 1 eine disjunkte Vereinigung. Ist das wahre θ in Θ 0 oder in Θ 1? Wir betrachten folgende Hypothesen H 0 : θ Θ 0 (Nullhypothese), H 1 : θ Θ 1 (Alternative). Eine Funktion d mit d : X {0, 1} heißt Test für H 0 gegen H 1 wenn sie messbar ist, und wie folgt interpretiert werden kann: d(x) = 1 Verwerfen der Nullhypothese H 0, d(x) = 0 Annahme der Alternative von H 0. Insbesondere gibt es einen kritischen Bereich K B mit d = 1 K. Bemerking: es gibt randomisiserte Tests mit d : X [0, 1].
24 Fehler, Gütefunktion und Fehlerwahrscheinlichkeiten Beim Testen können im Prinzip folgende Fehler enstehen: d(x) = 0 d(x) = 1 θ Θ 0 kein Fehler Fehler 1. Art θ Θ 1 Fehler 2. Art kein Fehler Wir bezeichnen die entsprechenden Irrtumswahrscheinlichkeiten mit α d (θ) := P θ (d(x ) = 1), θ Θ 0 β d (θ) := P θ (d(x ) = 0), θ Θ 1 (W keit für Fehler 1. Art) (W keit für Fehler 2. Art) Definition (Gütefunktion) Die Funktion G d : Θ [0, 1], θ G d (θ) = P θ (d(x ) = 1) = E θ [d(x )] heißt Gütefunktion der Tests d (auch Schärfe, Trennschärfe, Power). Dabei gilt α d (θ) = G d (θ) für θ Θ 0 β d (θ) = 1 G d (θ) für θ Θ 1.
25 Typisches Vorgehen beim Testen Im Allgemeinen ist es nicht möglich Fehler beider Arten klein zu halten ( Beispiel: Einseitiger Gaußtest). Typischerweise wird die Hypothese H 0 so gewählt, dass man sie durch Experimente ablehnen will. Fehler 1. Art ist mit diesem Ansatz der schlimmere der beiden Fehler. Diesen möchte man kontrollieren und unter einer vorgegebenen Schranke halten. Unter solchen Tests sucht man nach Tests mit möglichst kleiner Fehlerwahrscheinlichkeit 2. Art.
26 Beispiel Eine Gruppe von Umweltschützer wollen beweisen, dass der Gehalt eines Schadstoffs in einem Lebensmittel zu hoch ist. Der Hersteller will das Gegenteil beweisen. Sei µ der wahre Inhalt und µ 0 der zugelassene Grenzwert. Die Testansätze der beiden Seiten werden lauten: Umweltschützer: H 0 : µ µ 0, H 1 : µ > µ 0 Hesrteller: H 0 : µ µ 0, H 1 : µ < µ 0
27 Trennschärfste und unverfälschte Tests Definition (i) Ein Test d für H 0 gegen H 1 heißt Test zum Signifikanzniveau oder einfach Niveau α, wenn α d α, also G d (θ) α für alle θ Θ 0. (ii) Ein Test d zum Niveau α heißt trennschärfster Test (engl. uniformly most powerfull (UMP)) für H 0 gegen H 1 wenn für jedes θ Θ 1 gilt G d (θ) = sup{g d (θ) : d Niveau α Test für H 0 gegen H 1 }. (iii) Ein Niveau α Test d heißt unverfälscht zum Niveau α, wenn β d 1 α, d.h. wenn G d (θ) α für alle θ Θ 1.
28 Trennschärfste und unverfälschte Tests II Lemma Ein trennschärfster Niveau α Test d ist unverfälscht. Beweis. Sei d eine Ber α verteilt Zufallsvariable (unabhängig vom Rest). G d (θ) = E θ [d ] = α für alle θ Θ, d.h. d ist ein Niveau α Test. Ist d trennschärfster Niveau α Test, so gilt für alle θ Θ 1 G d (θ) G d (θ) = α d.h. d unverfälscht.
29 Trennschärfste und unverfälschte Tests II Lemma Ein trennschärfster Niveau α Test d ist unverfälscht. Beweis. Sei d eine Ber α verteilt Zufallsvariable (unabhängig vom Rest). G d (θ) = E θ [d ] = α für alle θ Θ, d.h. d ist ein Niveau α Test. Ist d trennschärfster Niveau α Test, so gilt für alle θ Θ 1 G d (θ) G d (θ) = α d.h. d unverfälscht. Klassisches Ziel: Finde trennschärfsten Niveau α Test unter allen Test zu finden. Falls kein trennschärfster existiert, dann finde trennschärfsten unter den unverfälschten Niveau α Tests.
30 Beispiel: einseitiger Gaußtest X = (X 1,..., X n ) u.i.v. mit X i N µ,σ 2, θ = µ R, σ 2 > 0 bekannt. Für µ 0 R betrachte H 0 : µ µ 0, H 1 : µ > µ 0. Plausibler Ansatz: Für zu bestimmendes c Es gilt d(x ) = 1 (c, ) (X ). ( X µ G d (µ) = P µ (d(x ) = 1) = P µ (X > c) = P µ σ/ n > c µ ) σ/ n ( c µ ) ( µ c ) = 1 Φ σ/ = Φ n σ/ (wachsend in µ und fallend in c). n Für ein Test zum Niveau α muss gelten α sup µ µ 0 G d (µ) = G d (µ 0 ) = Φ ( µ0 c σ/ n ).
31 Beispiel: einseitiger Gaußtest II ( µ0 c ) α Φ σ/ n Für jedes c µ 0 + zασ n ist ( c µ0 ) 1 α Φ σ/ n z α = Φ 1 (1 α) c µ 0 σ/ n. d(x ) = 1 (c, ) (X ) ein Niveau α Test. Für trennschärfsten Test d (unter solchen Tests) muss gelten { G d (µ) = sup G d (µ) : d(x ) = 1 (c, ) (X ), c µ 0 + z ασ }. n Dies ist für d (X ) = 1 (c, )(X ) mit c = µ 0 + zασ n der Fall, denn für c > c gilt ( µ c ) ( µ c ) G d (µ) = Φ σ/ > Φ n σ/ = G d (µ) n für alle µ und insbesondere für alle µ > µ 0.
32 Beispiel: einseitiger Gaußtest III Die Gütefunktion ist gegeben durch ( µ c ) G d (µ) = Φ σ/ n ( µ µ0 ) = Φ σ/ n z α. Die maximalen Fehlerwahrscheinlichkeiten sind ( µ µ0 ) sup α d (µ) = sup G d (µ) = sup Φ µ µ 0 µ µ 0 µ µ 0 σ/ n z α = Φ( z α ) = α und sup µ µ 0 β d (µ) = sup µ>µ 0 (1 G d (µ)) = 1 inf µ>µ 0 G d (µ) = 1 G d (µ 0 ) = 1 Φ( z α ) = 1 α.
33 Beispiel: einseitiger Gaußtest III Die Gütefunktion ist gegeben durch ( µ c ) G d (µ) = Φ σ/ n ( µ µ0 ) = Φ σ/ n z α. Die maximalen Fehlerwahrscheinlichkeiten sind ( µ µ0 ) sup α d (µ) = sup G d (µ) = sup Φ µ µ 0 µ µ 0 µ µ 0 σ/ n z α = Φ( z α ) = α und sup µ µ 0 β d (µ) = sup µ>µ 0 (1 G d (µ)) = 1 inf µ>µ 0 G d (µ) Bemerking: = 1 G d (µ 0 ) = 1 Φ( z α ) = 1 α. 1. Einseitiger Gaußtest mit H 0 : µ µ 0 vs. H 1 : µ < µ 0 analog. 2. Zweiseitiger Gaußtest mit H 0 : µ = µ 0 vs. H 1 : µ µ 0 Übung.
34 t-test X = (X 1,..., X n ) u.i.v. mit unbekannten µ = E[X i ] R und σ 2 (0, ). Ähnlich wie beim zweiseitigen Test wollen wir testen. Wir haben gesehen, dass H 0 : µ = µ 0 vs. H 1 : µ µ 0 Ĩ (X ) = (X t n 1,α/2 ˆσ n, X + t n 1,α/2 ˆσ n ) ein Konfidenzintervall für µ zur Sicherheit 1 α ist. Wobei ˆσ 2 = ˆσ 2 (X ) = 1 n 1 t n 1,α/2 = F 1 n 1 (1 α/2), oberes n (X i X ) 2 (Stichprobenvarianz) α/2-quantil der t n 1-Verteilung Das Intervall Ĩ (X ) ist exakt wenn X i N µ,σ 2 und approximativ sonst.
35 t-test II Wir machen folgenden Ansatz d(x ) = 1 µ 0 Ĩ (X ) Dann gilt für den Fehler 1. Art P µ0 (d(x ) = 1) = P µ0 (µ 0 Ĩ (X )) α Also ist d ein Test für H 0 : µ = µ 0 vs. H 1 : µ µ 0 zum Niveau α.
36 Fishers exakter Test Seien A und B zwei Ereignisse auf einem W Raum. Wir nehmen an, dass wir n Versuche beobachten und zählen wie oft das Ereignis jeweils in den folgenden Mengen landet A B, A B C, A C B, A C B C Man kann die Ergebnisse in einer Kontingenztafel zusammenfassen Es soll getestet werden: A A C total B X 11 X 12 n 1 B C X 21 X 22 n 2 total m 1 m 2 n H 0 : A und B sind unabhängig, gegen H 1 : A und B sind abhängig
37 Fishers exakter Test II Bestimme die Verteilung von X 11 gegeben X 11 + X 12 =Gesamtanzahl der Versuche in B X 11 + X 21 =Gesamtanzahl der Versuche in A Interpretation als Urnenexperiment n=gesamtanzahl der Kugeln in der Urne n 1 = X 11 + X 12 sind markiert Es werden m 1 = X 11 + X 21 Kugeln gezogen, wovon X 11 markiert sind. X 11 ist unter H 0 hypergeometrisch verteilt: ( )( ) n1 n n1 / ( ) n P 0 (X 11 = k) =. k m 1 k Liegen konkrete Beobachtungen vor so kann man obige W keit ausrechnen 1. Ist diese zu klein, dann lehnt man die Nullhypothese ab. m 1 1 Diese W keit wird als p-wert bzw. beobachtetes Signifikanzniveau bezeichnet. Es ist das kleinste Signifikanzniveau zu dem die Hypothese noch abgelehnt wird.
38 Markovketten
39 Irrfahrt Es ξ 1, ξ 2,... eine Folge u.i.v. Zufallsvariablen mit P(ξ i = 1) = p und P(ξ i = 1) = 1 p für ein p [0, 1] Für x Z definieren wir (X n ) n 0 durch X n = x + n ξ i. Wegen X n+1 = X n + ξ n+1 und wegen Unabhängigkeit von ξ n+1 von ξ 1,..., ξ n und somit auch von X 0,..., X m ist klar, dass X n+1 von X 0,..., X n nur durch X n abhängt. (X n ) n=0,1,... heißt Irrfahrt (engl. random walk) auf Z. p p p p p p... 1 p 2 1 p 1 1 p 0 1 p 1 1 p 2 1 p...
40 Markovketten und Markoveigenschaft I endliche Menge (Verallgemeinerung auf abzählbar unendlich möglich). P = (p ij ) ij I heißt stochastische Matrix, wenn p ij 0 für alle i, j I und p ij = 1 für alle i I. j I Sei ν = (ν(i)) i I eine Verteilung auf I und P wie oben. Stochastischer Prozess (X n ) n 0 ist eine Markovkette mit Anfangsverteilung ν und Übergangsmatrix P, wenn für alle n N und alle i 0,..., i n 1, i, j I P(X 0 = i 0 ) = ν(i 0 ), P(X n+1 = j X n = i,..., X 0 = i 0 ) = P(X n+1 = j X n = i) = p ij. Die Eigenschaft letzte Eigenschaft wird Markoveigenschaft genannt. P n = (p (n) ij ) ij I heißt n-schritte Übergangsmatrix P(X n = j X 0 = i) = p (n) ij.
41 Beispiel α 1 β α β Übergangsdiagramm einer allgemeinen Markovkette mit Zustandsraum I = {1, 2}, wobei α, β [0, 1]. Die Übergangsmatrix ist ( ) α 1 α P =. 1 β β
42 Aperiodizität und Irreduzibilität Eine Markovkette heißt irreduzibel, wenn jeder Zustand von jedem Zustand aus mit positiver Wahrscheinlchkeit erreichbar ist. Periode eines Zustandes i I ist definiert als d i = ggt{n 1 : p (n) ii > 0}, mit d i = +, falls p (n) ii = 0 für alle n 1 ist. Ist d i = 1, so heißt der Zustand i aperiodisch. Eine Markovkette heißt aperiodisch, wenn alle Zustände aperiodisch sind.
43 Invariante Verteilungen Wir sagen, dass ein W-Maß (π i ) i I eine invariante Verteilung für die Markovkette mit Übergangsmatrix P ist, wenn πp = π Wird eine MK in der invarianten Verteilung gestartet, so bleibt sie in der invarianten Verteilung. Satz Sei X = (X n ) n=0,1,... eine MK auf I (endlich) mit Übergangsmatrix P. Dann gilt: (i) X besitzt eine invariante Verteilung (i.a. mehr als eine möglich!). (ii) Ist X irreduzibel, dann ist invariante Verteilung π eindeutig. (iii) Ist X irreduzibel und aperiodisch, so gilt auch p (n) ij n π j > 0, für alle i, j I.
44 Ergodensatz - Verallgemeinerung des GGZ Satz Es sei (X n ) n 0 eine irreduzible Markovkette mit Übergangsmatrix P und invarianter Verteilung π. Für jede beschränkte Funktion f : I R gilt ( ) 1 n 1 P f (X k ) n f, π = 1, n wobei k=0 f, π := i I f (i)π i das Integral von f bezüglich π ist.
9. Schätzen und Testen bei unbekannter Varianz
9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,
MehrStochastische Eingangsprüfung, 17.05.2008
Stochastische Eingangsprüfung, 17.5.8 Wir gehen stets von einem Wahrscheinlichkeitsraum (Ω, A, P) aus. Aufgabe 1 ( Punkte) Sei X : Ω [, ) eine integrierbare Zufallsvariable mit XdP = 1. Sei Q : A R, Q(A)
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg : Gliederung 1 Einführung 2 Deskriptive Statistik
Mehr5 Statistische Testverfahren
70 5 Statistische Testverfahren 5.1 Grundlegende Definitionen und Binomialtest Beispiel 5.1.1: (Fortsetzung von Beispiel 4.2.15) Wir nehmen an, dass das Medikament als wenig bedenklich eingestuft werden
MehrBeispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen
4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.
Mehr13.5 Der zentrale Grenzwertsatz
13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle
MehrGrundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt!
Grundlagen der Inferenzstatistik: Was Ihnen nicht erspart bleibt! 1 Einführung 2 Wahrscheinlichkeiten kurz gefasst 3 Zufallsvariablen und Verteilungen 4 Theoretische Verteilungen (Wahrscheinlichkeitsfunktion)
MehrMonte Carlo Methoden in Kreditrisiko-Management
Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen
MehrMini-Skript Wahrscheinlichkeitstheorie und Statistik
Mini-Skript Wahrscheinlichkeitstheorie und Statistik Peter Bühlmann Georg Grafendorfer, Lukas Meier Inhaltsverzeichnis 1 Der Begriff der Wahrscheinlichkeit 1 1.1 Rechenregeln für Wahrscheinlichkeiten........................
MehrSatz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die
Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p
MehrSchätzer (vgl. Kapitel 1): Stichprobenmittel X N. Stichprobenmedian X N
Prof. Dr. J. Franke Statistik II für Wirtschaftswissenschaftler 8.1 Schätzer für Lage- und Skalenparameter und Verteilungsmodellwahl Lageparameter (l(x + a) = l(x) + a): Erwartungswert EX Median von X
Mehr1 Stochastische Prozesse in stetiger Zeit
1 Stochastische Prozesse in stetiger Zeit 1.1 Grundlagen Wir betrachten zufällige Prozesse, definiert auf einem Wahrscheinlichkeitsraum (Ω, F, P), welche Werte in einen fest gewählten Zustandsraum annehmen.
MehrAbsolute Stetigkeit von Maßen
Absolute Stetigkeit von Maßen Definition. Seien µ und ν Maße auf (X, Ω). Dann heißt ν absolut stetig bezüglich µ (kurz ν µ ), wenn für alle A Ω mit µ(a) = 0 auch gilt dass ν(a) = 0. Lemma. Sei ν ein endliches
MehrEinführung in die Statistik
Einführung in die Statistik Dr. C.J. Luchsinger 2 Zufallsgrössen Literatur Kapitel 2 * Statistik in Cartoons: Kapitel 4 * Krengel: 3.1 und 3.2 in 3 und (Honours Program) 10 sowie 11.1, 11.2 und 11.3 in
Mehr27. Statistische Tests für Parameter. Was ist ein statistischer Test?
27. Statistische Tests für Parameter Wenn du eine weise Antwort verlangst, musst du vernünftig fragen Was ist ein statistischer Test? Ein statistischen Test ist ein Verfahren, welches ausgehend von Stichproben
MehrStatistik II für Betriebswirte Vorlesung 3
PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 3 5. November 2013 Beispiel: Aktiensplit (Aczel & Sounderpandan, Aufg. 14-28) Ein Börsenanalyst
MehrStochastik für WiWi - Klausurvorbereitung
Dr. Markus Kuze WS 2013/14 Dipl.-Math. Stefa Roth 11.02.2014 Stochastik für WiWi - Klausurvorbereitug Gesetz der totale Wahrscheilichkeit ud Satz vo Bayes (Ω, F, P) Wahrscheilichkeitsraum, E 1,..., E F
MehrKapitel 4: Binäre Regression
Kapitel 4: Binäre Regression Steffen Unkel (basierend auf Folien von Nora Fenske) Statistik III für Nebenfachstudierende WS 2013/2014 4.1 Motivation Ausgangssituation Gegeben sind Daten (y i, x i1,...,
Mehr9. StatistischeTests. 9.1 Konzeption
9. StatistischeTests 9.1 Konzeption Statistische Tests dienen zur Überprüfung von Hypothesen über einen Parameter der Grundgesamtheit (bei einem Ein-Stichproben-Test) oder über die Verteilung einer Zufallsvariablen
Mehr$ % + 0 sonst. " p für X =1 $
31 617 Spezielle Verteilungen 6171 Bernoulli Verteilung Wir beschreiben zunächst drei diskrete Verteilungen und beginnen mit einem Zufallsexperiment, indem wir uns für das Eintreffen eines bestimmten Ereignisses
MehrBeispiel: Sonntagsfrage. Einführung in die induktive Statistik. Statistische Tests. Statistische Tests
Beispiel: Sonntagsfrage Vier Wochen vor der österreichischen Nationalratswahl 1999 wurde 499 Haushalten die Sonntagsfrage gestellt: Falls nächsten Sonntag Wahlen wären, welche Partei würden Sie wählen?
MehrFragestellungen der Schließenden Statistik
Fragestellungen der Schließenden Statistik Bisher: Teil I: Beschreibende Statistik Zusammenfassung von an GesamtheitM N {e,,e N } erhobenem Datensatz x,,x N durch Häufigkeitsverteilung und Kennzahlen für
MehrExtremwertverteilungen
Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen
Mehr8. Februar 2007. 5. Bei Unterschleif gilt die Klausur als nicht bestanden und es erfolgt eine Meldung an das Prüfungsamt.
L. Fahrmeir, C. Belitz Department für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit Wahlfach Statistik 8. Februar 2007 Hinweise:
MehrMultivariate Statistik
Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)
MehrStatistische Thermodynamik I Lösungen zur Serie 1
Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Wintersemester 2010/2011. Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Wintersemester 2010/2011 Aufgabe 1 Nach einer
MehrMultinomiale logistische Regression
Multinomiale logistische Regression Die multinomiale logistische Regression dient zur Schätzung von Gruppenzugehörigkeiten bzw. einer entsprechenden Wahrscheinlichkeit hierfür, wobei als abhänginge Variable
Mehr1 Statistische Grundlagen
Konzepte in Empirische Ökonomie 1 (Winter) Hier findest Du ein paar Tipps zu den Konzepten in Empirische 1. Wenn Du aber noch etwas Unterstützung kurz vor der Klausur brauchst, schreib uns eine kurze Email.
MehrEin möglicher Unterrichtsgang
Ein möglicher Unterrichtsgang. Wiederholung: Bernoulli Experiment und Binomialverteilung Da der sichere Umgang mit der Binomialverteilung, auch der Umgang mit dem GTR und den Diagrammen, eine notwendige
MehrBiostatistik, WS 2015/2016 Der zwei-stichproben-t-test
1/29 Biostatistik, WS 2015/2016 Der zwei-stichproben-t-test (t-test für ungepaarte Stichproben) Matthias Birkner http://www.staff.uni-mainz.de/birkner/biostatistik1516/ 11.12.2015 2/29 Inhalt 1 t-test
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
MehrDIPLOMVORPRÜFUNG GRUNDZÜGE DER STATISTIK, TEIL B WINTERSEMESTER 2006/07 28.02.2007
Wirtschaftswissenschaftliches Prüfungsamt DIPLOMVORPRÜFUNG GRUNDZÜGE DER STATISTIK, TEIL B WINTERSEMESTER 006/07 8.0.007 Lösung Prof. Dr. R Friedmann / Dr. R. Hauser Hinweise für die Klausurteilnehmer
MehrFüllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = 10.000. 485,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge
2.4 Stetige Zufallsvariable Beispiel. Abfüllung von 500 Gramm Packungen einer bestimmten Ware auf einer automatischen Abfüllanlage. Die Zufallsvariable X beschreibe die Füllmenge einer zufällig ausgewählten
MehrMarkov-Ketten-Monte-Carlo-Verfahren
Markov-Ketten-Monte-Carlo-Verfahren Anton Klimovsky 21. Juli 2014 Strichprobenerzeugung aus einer Verteilung (das Samplen). Markov- Ketten-Monte-Carlo-Verfahren. Metropolis-Hastings-Algorithmus. Gibbs-Sampler.
MehrBeispiel 11.2. Wenn p ein Polynom vom Grad größer gleich 1 ist, ist q : C Ĉ definiert durch q (z) =
Funktionentheorie, Woche Funktionen und Polstellen. Meromorphe Funktionen Definition.. Sei U C offen und sei f : U gilt, nennt man f meromorph auf U: Ĉ eine Funktion. Wenn folgendes. P := f hat keine Häufungspunkte;.
MehrÜbungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009
Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.
MehrRisiko und Versicherung - Übung
Sommer 2009 Risiko und Versicherung - Übung Entscheidungstheoretische Grundlagen Renate Bodenstaff Vera Brinkmann r.bodenstaff@uni-hohenheim.de vera.brinkmann@uni-hohenheim.de https://insurance.uni-hohenheim.de
Mehrε heteroskedastisch BINARY CHOICE MODELS Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS?
BINARY CHOICE MODELS 1 mit Pr( Y = 1) = P Y = 0 mit Pr( Y = 0) = 1 P Beispiele: Wahlentscheidung Kauf langlebiger Konsumgüter Arbeitslosigkeit Schätzung mit OLS? Y i = X i β + ε i Probleme: Nonsense Predictions
MehrMarktforschung I. Marktforschung I 2
Marktforschung I Marktforschung I Einführung in die Testtheorie (Toporowski) Mathematische Grundlagen (Toporowski) Varianzanalyse (Toporowski) Regressionsanalyse (Boztuğ) Diskriminanzanalyse (Hammerschmidt)
MehrAusarbeitung des Seminarvortrags zum Thema
Ausarbeitung des Seminarvortrags zum Thema Anlagepreisbewegung zum Seminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn von Imke Meyer im W9/10 Anlagepreisbewegung
MehrPräsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik
Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik Dozent: Volker Krätschmer Fakultät für Mathematik, Universität Duisburg-Essen, WS 2012/13 1. Präsenzübung Aufgabe T 1 Sei (Z 1,...,
MehrBeurteilung der biometrischen Verhältnisse in einem Bestand. Dr. Richard Herrmann, Köln
Beurteilung der biometrischen Verhältnisse in einem Bestand Dr. Richard Herrmann, Köln Beurteilung der biometrischen Verhältnisse in einem Bestand 1 Fragestellung Methoden.1 Vergleich der Anzahlen. Vergleich
MehrProbeklausur Zeitreihenökonometrie (Sommersemester 2014) 1
Probeklausur Zeitreihenökonometrie (Sommersemester 2014) 1 Aufgabe 1: Betrachtet wird folgendes Modell zur Erklärung des Managergehalts salary durch den Umsatz sales, die Eigenkapitalrendite roe und die
MehrBONUS MALUS SYSTEME UND MARKOV KETTEN
Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,
Mehr4. Woche Decodierung; Maximale, Perfekte und Optimale Codes. 4. Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140
4 Woche Decodierung; Maximale, Perfekte und Optimale Codes 4 Woche: Decodierung; Maximale, Perfekte und Optimale Codes 69/ 140 Szenario für fehlerkorrigierende Codes Definition (n, M)-Code Sei C {0, 1}
MehrStatistik II für Betriebswirte Vorlesung 2
PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 2 21. Oktober 2014 Verbundene Stichproben Liegen zwei Stichproben vor, deren Werte einander
MehrAnalyse von Extremwerten
Analyse von Extremwerten Interdisziplinäres Seminar: Statistische Verfahren in den Geowissenschaften Anna Hamann betreut durch Prof. Dr. Helmut Küchenhoff, Institut für Statistik Ludwig Maximilians Universität
MehrAnalyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse
Analyse von Zeitreihen in der Umweltphysik und Geophysik Stochastische Prozesse Yannik Behr Gliederung 1 Stochastische Prozesse Stochastische Prozesse Ein stochastischer Prozess ist ein Phänomen, dessen
MehrKlausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik
Ludwig Fahrmeir, Nora Fenske Institut für Statistik Bitte für die Korrektur freilassen! Aufgabe 1 2 3 4 Punkte Klausur zur Vorlesung Statistik III für Studenten mit dem Wahlfach Statistik 29. März 21 Hinweise:
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
Mehr3.3 Eigenwerte und Eigenräume, Diagonalisierung
3.3 Eigenwerte und Eigenräume, Diagonalisierung Definition und Lemma 3.3.1. Sei V ein K-Vektorraum, φ End K (V ), λ K. Wir defnieren den zu λ gehörigen Eigenraum von φ als Dies ist ein Unterraum von V.
MehrOptimale Strategien beim Spiel Rot und Schwarz
Fachbereich 6-Mathematik Seminar Spieltheorie und Glücksspiele Sommersemester 09 Optimale Strategien beim Spiel Rot und Schwarz Verfasser Tatiana Wandraj 29. August 2009 Betreuer Prof. Dr. Alfred Müller
MehrQ4. Markov-Prozesse in diskreter Zeit
Q4. Markov-Prozesse in diskreter Zeit Gliederung 1.Stochastische Prozesse Ein Überblick 2.Zeitdiskrete Markov-Prozesse 3.Vom Modell zum Markov-Prozess 4.Klassifikation von Zuständen 5.Stationäre und transiente
MehrBiostatistik, Winter 2011/12
Biostatistik, Winter 2011/12 Vergleich zweier Stichproben, nichtparametrische Tests Prof. Dr. Achim Klenke http://www.aklenke.de 11. Vorlesung: 27.01.2012 1/86 Inhalt 1 Tests t-test 2 Vergleich zweier
MehrVersuchsplanung. Teil 1 Einführung und Grundlagen. Dr. Tobias Kiesling <kiesling@stat.uni-muenchen.de> Einführung in die Versuchsplanung
Versuchsplanung Teil 1 Einführung und Grundlagen Dr. Tobias Kiesling Inhalt Einführung in die Versuchsplanung Hintergründe Grundlegende Prinzipien und Begriffe Vorgehensweise
MehrFAKTORIELLE VERSUCHSPLÄNE. Andreas Handl
FAKTORIELLE VERSUCHSPLÄNE Andreas Handl 1 Inhaltsverzeichnis 1 Versuchsplanung 4 2 Einfaktorielle Varianzanalyse 6 2.1 DieAnnahmen... 6 2.2 Die ANOVA-Tabelle und der F -Test... 6 2.3 Versuche mit zwei
MehrStatistische Auswertung der Daten von Blatt 13
Statistische Auswertung der Daten von Blatt 13 Problemstellung 1 Graphische Darstellung der Daten 1 Diskussion der Normalverteilung 3 Mittelwerte und deren Konfidenzbereiche 3 Signifikanz der Behandlung
MehrAufgabe 1 10 ECTS. y i x j gering mittel hoch n i Hausrat 200 25 0 225 KFZ 0 10 75 85 Unfall 20 35 90 145 Reiserücktritt 40 5 0 45 n j 260 75 165 500
Aufgabe 1 Für die Securance-Versicherung liegen Ihnen die gemeinsamen absoluten Häugkeiten der Merkmale X: Schadenshöhe und Y : Versicherungsart für die letzten 500 gemeldeten Schäden vor. 1. Interpretieren
MehrWelch-Test. Welch-Test
Welch-Test Welch-Test Test auf Lageunterschied zweier normalverteilter Grundgesamtheiten mit unbekannten Varianzen durch Vergleich der Mittelwerte zweier unabhängiger Zufallsstichproben. Beispiel Im Labor
MehrÜbungen zur Mathematik für Pharmazeuten
Blatt 1 Aufgabe 1. Wir betrachten den Ereignisraum Ω = {(i,j) 1 i,j 6} zum Zufallsexperiment des zweimaligem Würfelns. Sei A Ω das Ereignis Pasch, und B Ω das Ereignis, daß der erste Wurf eine gerade Augenzahl
MehrMarkovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse 07.01.2015
Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung von Systemen, deren Verhalten durch einen zufälligen Übergang von einem Systemzustand zu einem anderen Systemzustand gekennzeichnet
MehrBei vielen Zufallsexperimenten interessiert man sich lediglich für das Eintreten bzw. das Nichteintreten eines bestimmten Ereignisses.
XI. Binomialverteilung ================================================================== 11.1 Definitionen -----------------------------------------------------------------------------------------------------------------
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrSeminar Analysis Konvexe Funktionen und einige wichtige Ungleichungen
Seminar Analysis Konvexe Funktionen und einige wichtige Ungleichungen Michael Schaeer 3.04.03 Abstract This seminar is about convex functions and several imortant ineualities. At the beginning the term
MehrWeiterbildungskurs Stochastik
Hansruedi Künsch Seminar für Statistik Departement Mathematik, ETH Zürich 24. Juni 2009 Inhalt STATISTIK DER BINOMIALVERTEILUNG 1 STATISTIK DER BINOMIALVERTEILUNG 2 Fragestellungen Typische Fragestellungen
MehrBinäre abhängige Variablen
Binäre abhängige Variablen Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Einführung Oft wollen wir qualitative Variablen
MehrKlausur zu Methoden der Statistik II (mit Kurzlösung) Wintersemester 2008/2009. Aufgabe 1
Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Wintersemester 2008/2009 Aufgabe 1 Im Rahmen
MehrNachholklausur STATISTIK II
Nachholklausur STATISTIK II Name, Vorname: Matrikel-Nr.: Die Klausur enthält zwei Typen von Aufgaben: T e i l A besteht aus Fragen mit mehreren vorgegebenen Antwortvorschlägen, von denen mindestens eine
MehrDie Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist
Frage Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist k a F (x) =1 k>0,x k x Finden Sie den Erwartungswert und den Median der Dichte für a>1. (Bei
MehrRisikomessung und Value at Risk Wintersemester 2013/14
Risikomessung und Value at Risk Wintersemester 2013/14 Walter Sanddorf-Köhle Statistik und Ökonometrie Foliensatz Nr. 11 Version vom 24. Januar 2014 1 / 45 6.5.1 Bisherige Vorgehensweise zur Berechnung
MehrEine Einführung in R: Statistische Tests
Eine Einführung in R: Statistische Tests Bernd Klaus, Verena Zuber Institut für Medizinische Informatik, Statistik und Epidemiologie (IMISE), Universität Leipzig http://www.uni-leipzig.de/ zuber/teaching/ws12/r-kurs/
MehrMengensysteme, Wahrscheinlichkeitsmaße
Kapitel 1 Mengensysteme, Wahrscheinlichkeitsmaße Der Großteil der folgenden fundamentalen Begriffe sind schon aus der Vorlesung Stochastische Modellbildung bekannt: Definition 1.1 Eine Familie A von Teilmengen
MehrÜbungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006
1 3.34 1.1 Angabe Übungsrunde 7, Gruppe 2 LVA 107.369, Übungsrunde 7, Gruppe 2, 28.11. Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 11/2006 U sei auf dem Intervall (0, 1) uniform verteilt. Zeigen
MehrBachelorabschlussseminar Dipl.-Kfm. Daniel Cracau
1 Einführung in die statistische Datenanalyse Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau 2 Gliederung 1.Grundlagen 2.Nicht-parametrische Tests a. Mann-Whitney-Wilcoxon-U Test b. Wilcoxon-Signed-Rank
MehrFinanzmarktökonometrie: Einführung in die Optionsbewertung Sommersemester 2014
Finanzmarktökonometrie: Einführung in die Optionsbewertung Sommersemester 2014 Walter Sanddorf-Köhle Foliensatz Nr. 8 1 / 40 Erweiterungen des Binomialmodells Dividendenzahlungen Sei S der Wert einer Aktie
MehrGeometrische Mannigfaltigkeiten
Geometrische Mannigfaltigkeiten Thilo Kuessner Abstract Kurzfassung der Vorlesung: Definitionen, Beispiele und Sätze, keine Beweise. Definition 1. Ein topologischer Raum ist eine Menge X mit einer Familie
MehrNichtlineare Optimierung ohne Nebenbedingungen
Kapitel 2 Nichtlineare Optimierung ohne Nebenbedingungen In diesem Abschnitt sollen im wesentlichen Verfahren zur Bestimmung des Minimums von nichtglatten Funktionen in einer Variablen im Detail vorgestellt
MehrGüte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über
Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion
Mehr9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83
9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x
MehrVersuch: Zufälliges Ziehen aus der Population
Wahrscheinlichkeit Ein Test diagnostiziert Kranke zu 99% richtig Gesunde zu 90% richtig 5% der Bevölkerung ist krank? Wie wahrscheinlich ist es, dass jemand krank ist, wenn der Test dies diagnostiziert?
MehrÜbungen zur Numerischen Mathematik 2 Sommersemester 2014. Übungsblatt 13
Universität Heidelberg Interdisziplinäres Zentrum für Wissenschaftliches Rechnen Prof. Dr. Dres. h.c. Hans Georg Bock Dr. Christian Kirches Dipl.-Phys. Simon Lenz Übungen zur Numerischen Mathematik 2 Sommersemester
MehrInterne und externe Modellvalidität
Interne und externe Modellvalidität Interne Modellvalidität ist gegeben, o wenn statistische Inferenz bzgl. der untersuchten Grundgesamtheit zulässig ist o KQ-Schätzer der Modellparameter u. Varianzschätzer
MehrSolvency II und die Standardformel
Fakultät Mathematik und Naturwissenschaften Institut für Mathematische Stochastik Solvency II und die Standardformel Festkolloquium 20 Jahre (neue) Versicherungsmathematik an der TU Dresden Sebastian Fuchs
MehrStatistik. R. Frühwirth. Statistik. fru@hephy.oeaw.ac.at. VO 142.090 http://tinyurl.com/tu142090. Februar 2010. R. Frühwirth Statistik 1/536
fru@hephy.oeaw.ac.at VO 142.090 http://tinyurl.com/tu142090 Februar 2010 1/536 Übersicht über die Vorlesung Teil 1: Deskriptive Teil 2: Wahrscheinlichkeitsrechnung Teil 3: Zufallsvariable Teil 4: Parameterschätzung
MehrJetzt lerne ich Stochastik für die Oberstufe
Jetzt lerne ich Stochastik für die Oberstufe von Dr. rer. nat. Marco Schuchmann, Dipl.-Math. - 2 - - 3 - Vorwort In diesem Buch werden Anwendungen der Stochastik in der Oberstufe mit vielen Beispielen
MehrVorlesung. Funktionen/Abbildungen 1
Vorlesung Funktionen/Abbildungen 1 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.
MehrKapitel 18. Die Maximum-Likelihood Methode. 18.1 Grundidee
Kapitel 18 Die Maximum-Likelihood Methode 18.1 Grundidee Wir haben bisher (fast) ausschließlich die OLS-Methode angewandt um Schätzer für die Parameter eines Regressionsmodells zu bestimmen. Obwohl die
MehrCredit Metrics. Wird in erster Linie für die Evaluierung von Bond Portfolios verwendet. (Siehe Crouhy et al. (2000), J.P.Morgan Inc.
Wurde bei J.P.Morgan entwickelt. Credit Metrics Wird in erster Linie für die Evaluierung von Bond Portfolios verwendet. (Siehe Crouhy et al. (2000), J.P.Morgan Inc. (1997)) Basiert auf ein Bonität-Einstufungssystem
MehrDeduktive und induktive Aspekte statistischer Methoden
Deduktive und induktive Aspekte statistischer Methoden Wissenschaftshistorische und -philosophische Grundlagen Felix Günther Institut für Statistik Ludwig-Maximilians-Universität München Prof. Seising
MehrStatistik Musterlösungen
Statistik Musterlösungen Regina Tüchler & Achim Zeileis Institut für Statistik & Mathematik Wirtschaftsuniversität Wien 1 Grundbegriffe (1.23) Skript Reaktionen auf Videofilm. Aussagen M, E, P, S h(m)
Mehr1 Ordnung muß sein. 1.1 Angeordnete Körper. 1.2 Folgerungen aus den Anordnungsaxiomen. ( c) (b a) > 0. Somit a c b c > 0.
1 Ordnung uß sein 1.1 Angeordnete Körper Wir nehen einal an, daß es in eine Körper Eleente gibt, die wir positiv nennen. Welche Eigenschaften sollen diese haben? O1) Wenn x und y positiv sind, dann auch
MehrKlausur Nr. 1. Wahrscheinlichkeitsrechnung. Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt.
Klausur Nr. 1 2014-02-06 Wahrscheinlichkeitsrechnung Pflichtteil Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt. Name: 0. Für Pflicht- und Wahlteil gilt: saubere und übersichtliche Darstellung,
MehrÜbungsaufgaben zu Kapitel 5. Aufgabe 101. Inhaltsverzeichnis:
Inhaltsverzeichnis: Übungsaufgaben zu Kapitel 5... 1 Aufgabe 101... 1 Aufgabe 102... 2 Aufgabe 103... 2 Aufgabe 104... 2 Aufgabe 105... 3 Aufgabe 106... 3 Aufgabe 107... 3 Aufgabe 108... 4 Aufgabe 109...
Mehr1 Von den Ereignissen U und V eines Zufallsexperiments kennt man die Eigenschaften (1) bis (3) :
Prof. Dr. E. Mammen SEMINAR FÜR STATISTIK Prof. Dr. H. Stenger UNIVERSITÄT MANNHEIM Vierstündige Klausur in statistischer Methodenlehre 9. Juli 003; 8:30 - :30 Zulässige Hilfsmittel: keine, insbesondere
MehrAnalytische Statistik I. Statistische Methoden in der Korpuslinguistik Heike Zinsmeister WS 2009/10
Analytische Statistik I Statistische Methoden in der Korpuslinguistik Heike Zinsmeister WS 2009/10 Testen Anpassungstests (goodness of fit) Weicht eine gegebene Verteilung signifikant von einer bekannten
Mehr6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)
6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden
MehrKlausur Statistik Lösungshinweise
Klausur Statistik Lösungshinweise Prüfungsdatum: 1. Juli 2015 Prüfer: Etschberger, Heiden, Jansen Studiengang: IM und BW Aufgabe 1 14 Punkte Ein Freund von Ihnen hat über einen Teil seiner Daten, die er
Mehr