Seminar Quantitatives Risikomanagement
|
|
- Carin Krüger
- vor 6 Jahren
- Abrufe
Transkript
1 Seminar Quantitatives Risikomanagement Multivariate Modelle II Toni Bastgen Mathematisches Institut der Universität zu Köln Sommersemester 2008 Betreuung: Prof. Schmidli, J. Eisenberg
2 Inhaltsverzeichnis 3 Sphärische und Elliptische Verteilungen Sphärische Verteilungen Elliptische Verteilungen Eigenschaften elliptischer Verteilungen Verteilungs- und Korrelationsschätzer Testen Elliptischer Symmetrie Dimensionsreduzierungstechniken Faktor-Modelle Regressionsanalyse von Faktormodellen
3 2 3.3 Sphärische und Elliptische Verteilungen Sphärische Verteilungen Definition 3.18 Ein Zufallsvektor X = (X 1,...,X d ) T hat eine sphärische Verteilung wenn für jede orthogonale Abbildung U R d d UX = d X. Somit sind sphärische Verteilungen drehinvariant. Auch die folgenden Eigenschaften sind als Def. üblich. Theorem 3.19 Es sind äquivalent: (1) X ist sphärisch (2) Es gibt eine Funktion ψ mit einer skalaren Variablen, so dass für alle t R d gilt: φ X (t) = E(e itt X ) = ψ(t T t) = ψ(t t 2 d ) (3) a R d : a T X d = a X 1. Proof. (1) (2): Ist X sphärisch, so gilt für jede orthogonale Matrix U φ X (t) = φ UX (t) = E(e itt UX ) = φ X (U T t). Also hängt φ X (t) nur von der Länge von t ab (2). (2) (3): Es gilt φ X1 (t) = E(e itx 1 ) = φ X (te 1 ) = ψ(t 2 ). Nun folgt für jedes a R d φ a T X(t) = φ X (ta) = ψ(t 2 a T a) = ψ(t 2 a 2 ) = φ X1 (t a ) = φ a X1 (t). (3) (1): Für bel. orthogonale Matrix U gilt φ UX (t) = E(e i(ut t) T X ) = E(e i UT t X 1 ) = E(e i t X 1 ) = E(e itt X ) = φ X (t).
4 3 ψ heißt charakteristischer Generator und beschreibt einen sphärisch verteilten Zufallsvektor eindeutig. Notation: X S d (ψ) Beispiel 3.20 (Multivariate Normalverteilung) Ein Zufallsvektor X mit der Standardnormalverteilung N d (0, I a ) ist sphärisch. φ X (t) = E(e itt X ) = exp( 1 2 tt t). Es folgt X S d (ψ) mit ψ(t) = exp( 1 2 t) Beispiel 3.21 (Mischverteilung) Zufallsvektor X mit X M d (0, I d, Ĥ) (standardisierte, unkorrelierte Normal- Varianz-Mischverteilung) ist sphärisch. Also ist ψ(t) = Ĥ(1 2t), es gilt Theorem 3.22 φ X (t) = e itt µ Ĥ( 1 2 tt Σt) = Ĥ(1 2 tt t) X M d (0, I d, Ĥ( )) X S d(ĥ(1 2 )). X hat genau dann eine sphärische Verteilung, wenn es die stochastische Repräsentation X d = RS hat. Dabei ist S gleichverteilt auf der Einheitssphäre S d 1 = {s R d : s T s = 1}, R 0 ist eine radiale Zufallsvariable, unabhängig von S. Es bezeichne S + d (ψ) die Unterklasse der sphärischen Zufallsvektoren X mit P(X = 0) = 0. Korollar 3.23 Sei X = d RS S + d (ψ), dann gilt ( X ) d= X, (R, S). X
5 4 Proof. ( X, X ) ( = RS, X RS ) = (R, S) RS Beispiel 3.24 X N d (0, I d ). Wegen X T X χ 2 d ist auch R2 χ 2 d. Nun wird E(S), Cov(S) berechnet: 0 = E(X) = E(R)E(S) E(S) = 0 I d = Cov(X) = E(R) 2 Cov(S) Cov(S) = I d d wegen E(R 2 ) = d (weil R 2 X 2 d ). Hat nun X eine sphärische Normal-Varianz-Mischverteilung X M d (0, I d, Ĥ), so können wir die Verteilung von R 2 = d X T X wie folgt kalkulieren: Wegen X = d W Y, mit Y N d (0, I d ) und W unabhängig von Y, folgt R 2 = d W R 2 mit R 2 χ 2 d und W und R unabhängig. Nun können wir die Verteilung von W R 2 kalkulieren und erhalten somit R Elliptische Verteilungen Definition 3.26 X hat eine elliptische Verteilung wenn X = d µ + AY, wobei Y S k (ψ) und A R d k und µ R d sind eine Matrix und ein Vektor mit konstanten Einträgen. Elliptische Verteilungen sind also affine Transformationen von sphärischen Verteilungen. φ X (t) = E(e itt X ) = E(e itt (µ+ay ) ) = e itt µ E(e i(at t) T Y ) = e itt µ ψ(t T Σt),
6 5 wobei Σ = AA T. Notation: X E d (µ,σ, ψ) mit µ als Ortsvektor, Σ als Verteilungsmatrix und ψ als charakteristischem Generator. Bemerkung 3.27 Die Kenntnis von X und µ lässt nicht eindeutig auf die elliptische Verteilung E d (µ,σ, ψ) schließen, sondern Σ und ψ hängen von einer positiven Konstanten ab. Zum Beispiel kann die multivariate Normalverteilung als E d (µ,σ, ψ) oder E d (µ, cσ, ψ( /c)) beschrieben werden mit ψ(u) = exp( 1 2 ) und c > 0 bel. Aus Def und Theorem 3.22 folgt Satz 3.28 X E d (µ,σ, ψ) genau dann, wenn es S, R, A gibt, so dass X = d µ + RAS wobei (i) S auf der Einheitssphäre S k 1 = {s R k : s T s = 1} gleichverteilt ist, (ii) R 0, eine radiale Zufallsvariable, unabhängig von S, (iii) A R d k mit AA T = Σ. Ist Σ positiv definit, so gilt: X E d (µ,σ, ψ) Σ 1 2 (X µ) Sd (ψ). Hat nun der sphärische Vektor Y die Dichtefunktion g, dann hat X = µ + Σ 1 2 Y die Dichte f(x) = 1 ( ) g (x µ) T Σ 1 (x µ). Σ 1 2
7 6 Außerdem ergibt sich für eine nicht singuläre elliptische Verteilung ( ) ( ) (X µ) T Σ 1 Σ 1 2(X µ) d (X µ) = R, S (X µ) T Σ 1 (X µ) mit S gleichverteilt auf S d 1 und R als unabhängige skalare Zufallsvariable. Satz 3.29 Sei X E d (µ,σ, ψ), Σ sei positiv definit und Cov(X) endlich. Dann gilt für jedes c 0 mit P ( (X µ) T Σ 1 (X µ) c ) > 0: ρ ( X (X µ) T Σ 1 (X µ) c ) = ρ(x) Proof. X (X µ) T Σ 1 (X µ) c d = µ+rσ 1 2S R 2 c mit R d = (X µ) T Σ 1 (X µ) und S unabhängig von R, verteilt auf S d 1. So gilt X (X µ) T Σ 1 (X µ) c d = µ + RΣ 1 2 S, mit R = R R 2 c. Also bleibt die Verteilung elliptisch mit Verteilungsmatrix Σ (nach Satz. 3.28) Eigenschaften elliptischer Verteilungen Linearkombinationen Sei X E d (µ,σ, ψ), B R k d und b R d bel., so gilt: BX + b E k (Bµ + b, BΣB T, ψ) Quadratische Formen Sei X E d (µ,σψ), Σ nicht singulär, so ist Q = (X µ) T Σ 1 (X µ) = d R 2, wobei R die radiale Zufallsvariable der stoch. Repräsentation ist. Ist nun X N d (µ,σ), so ist R 2 χ 2 d. Faltungen Seien X, Y unabhängig mit X E d (µ,σ, ψ), Y E d ( µ,σ, ψ), dann ist X + Y E d (µ + µ,σ, ψ) mit ψ(u) = ψ(u) ψ(u). Das funktioniert nur, solange die Verteilungsmatrizen bis auf einen konstanten Faktor gleich sind.
8 Verteilungs- und Korrelationsschätzer µ, Σ und die Korrelationsmatrix P sollen geschätzt werden. Bisher wurden X und S als Schätzer für Erwartungswert und Kovarianzmatrix betrachtet, nun werden effektivere Schätzer gesucht. M-Schätzer Maronnas M-Schätzer schätzen Ort (ˆµ) und Verteilung (ˆσ). Für jede Beobachtung X i wird Di 2 = (X i ˆµ) T ˆΣ 1 (X i ˆµ) kalkuliert. Um verbesserte Schätzungen zu erlangen, werden monoton fallende Gewichtsfunktionen W j : R + R, j = 1, 2 benutzt, um Beobachtungen mit großen D-Werten zu entkräften. M-Schätzer für Ort und Verteilung (1) Startschätzer: ˆµ [1] = X, ˆΣ [1] = S (Standard Schätzer); Iterationszähler: k = 1 (2) Für i = 1,...,n setze D 2 i = ( X i µ [k]) T ( Σ [k] ) 1 ( Xi ˆµ [k]) (3) Setze mit ω 1 als Gewichtsfunktion. (4) Setze ˆµ [k+1] = Σn i=1 ω 1(D 1 )X i Σ n i=1 ω 1(D i ) ˆΣ [k+1] = 1 n Σn i=1ω 2 ( D 2 i ) ( X i ˆµ [k]) ( X i ˆµ [k]) T wie Gewichtsfunktionen. (5) Setze k = k+1 und wiederhole die Schritte (2) (4) bis die Schätzer konvergieren. Für ω 1 und ω 2 waehlt man häufig ω 1 (X) = (d + ν)/(x 2 + ν) = ω 2 (X 2 ) für positive Konstanten ν. Benutzt man diese ω 1, ω 2 so führt der Algorithmus zu einer multivariaten t d (ν, µ,σ) Verteilung mit bekannten Freiheitsgraden.
9 8 Korrelationsschätzer nach Kendall s tau. Diese Methode zur Schätzung der Korrelation basiert auf Kendall s Rang-Korrelations-Koeffizient: ρ τ (X 1, X 2 ) mit Zufallsvariablen X 1, X 2 (formale Def. in 5.2) Wenn (X 1, X 2 ) E 2 (µ,σ, ψ), dann ρ τ (X 1, X 2 ) = 2 π arcsin(ρ) (Prop.5.37) Beispiel 3.31 (Effektive Korrelationsschätzung für stark abweichende Daten.) Korrelation einer Risikofaktoränderung bestimmter Daten über 90 Tage. Bei identischer Verteilung sollte diese Zeitspanne ausreichen, um die wahre Korrelation zu schätzen. Bild 3.5: Ergebnisse eines Simulationsexperiments, dass 3000 bivariate Proben t-verteilter Daten mit 3 Freiheitsgraden und Korrelation ρ = 0, 5 (sich stark auseinanderziehende elliptische Verteilung) oben: Werte des Pearson-Korrelationskoeffizienten weichen zum Teil stark ab. unten: Kendall s tau Methode bringt Schätzer hervor, die nah am Wert 0, 5 liegen Testen Elliptischer Symmetrie Wie findet man heraus ob identisch verteilte Datenvektoren X 1,...,X n E d (µ,σ, ψ)- verteilt sind? Für alle Methoden werden Schätzer ˆµ und ˆΣ benötigt (siehe 33.4 um ˆµ und ˆΣ zu berechnen). Allgemein kann nicht von unabhängigen identisch verteilten Zufallsvektoren ausgegangen werden. Aber wir nehmen an, dass die Zufallsvektoren zumindest identisch verteilt sind. Selbst wenn die Daten unabhängig wären, würde die Abhängigkeit schon dadurch entstehen, dass Schätzer für µ und Σ durch die ganze Datenmenge beeinflusst werden. Stabiler Korrelationsschaetzer: eine Erforschungsmethode (basiert auf Prop. 3.29)
10 9 Wir versuchen ρ(x h(x) > c), h(x) = (x ˆµ) T ˆΣ 1 (x ˆµ) für verschiedene Werte c 0 zu schätzen. Für elliptisch verteilte Daten erwarten wir nun, dass die Schätzer über einer Reihe verschiedener c-werte stabil bleiben. Für ˆµ und ˆΣ soll dabei wieder ein effizienterer Schätzer als der Standard-Korrelationsschätzer gewählt werden. QQplots Diese Methode beruht auf dem Zusammenhang zwischen nicht-singulären elliptischen und sphärischen Verteilungen. Seien µ und Σ bekannt, so testen wir X auf elliptische Symmetrie, indem wir die Daten { } Σ 1 2(X i µ) : i = 1,...,n auf spährische Symmetrie testen. Wir { prüfen ob die Daten Y i = ˆΣ } 1 2(X i ˆµ) : i = 1,...,n mit einer sphärischen Verteilung uebereinstimmen, während wir Schätzungsfehler vernachlässigen. Setzen wir nun R i = Y i und S i = Y i / Y i, dann ist zu prüfen, ob die S i -Daten auf der Einheitsphäre S d 1 gleichverteilt sind und die Paare (R i, S i ) unabhängig sind. Lemma 3.32 Sei T(Y ) eine Statistik, s.d. T(aY ) = T(Y ) a > 0, dann hat T(Y ) dieselbe Verteilung für alle spärischen Vektoren Y S + d (ψ). Proof. Nach Theorem 3.22 gilt T(Y ) d = T(RS); T(RS) = T(S) gilt nach Voraussetzung. Weil die Verteilung T(Y ) nur von S und nicht von R abhängt, muß sie für alle Y S + d (ψ) dieselbe sein. Dieses Resultat wird genutzt für Statistiken T(Y ) mit T(Y ) = T(aY ) für alle a > 0, deren Verteilung bekannt ist wenn Y N d (0, I d ). Zwei Beispiele sind T 1 (Y ) = d 1 2Y, Y = (1/d 1) d (Y i Y ) 2 i=1 1 d d i=1 Y i
11 10 T 2 (Y ) = Für Y N d (0, I d ) und somit Y S + d (ψ) ist T 1(Y ) t d 1 und T 2 (Y ) Beta ( 1 2 k, 1 2 (d k)). K i=1 d i=1 Y 2 i Y 2 i 3.4 Dimensionsreduzierungstechniken Diese sind in der multivariaten statistischen Analysis ein zentrales Thema und werden für Ökonomische Modelle gebraucht Faktor-Modelle Durch solche werden d-dimensionale Zufallsvektoren X durch eine kleinere Reihe von allgemeinen Faktoren beschrieben. Definition 3.33 (Linearfaktormodelle) Der Zufallsvektor X folgt einem p-faktormodell, wenn er zersetzt werden kann als X = a + BF + ǫ wobei (i) F = (F 1,...,F p ) T allgemeine Faktoren mit p < d, mit positiv definiter Kovarianzmatrix; (ii) ǫ = (ǫ 1,...,ǫ d ) T Zufallsvektor spezieller Fehlerterme, die unkorreliert sind mit Erwartungswert 0; (iii) B R d p ist eine Matrix konstanter Ladefaktoren und a R d ein Vektor mit Konstanten; (iv) Cov(F, ǫ) = E ( (F E(F))ǫ T) = 0. Punkte (ii), (iv) sind wichtig, es wird keine Unabhängigkeit, sondern nur Unkorreliertheit verlangt. Ist X multivariat normalverteilt und genügt dem Faktormodell, dann ist es möglich eine Version des Faktormodells zu finden,
12 11 bei der F und ǫ Gauss-verteilt sind. Wobei die Fehler voneinander unabhängig angenommen werden dürfen. Faktormodelle implizieren eine besondere Struktur für die Kovarianzmatrix Σ von X: Σ = Cov(X) = BΩB T + γ, wobei Ω die Kovarianzmatrix von F und γ die von ǫ darstellt, welche diagonal ist. Gilt das Faktormodell, so können die allgeimeinen Faktoren trnasformiert werden, s.d. sie orthogonal sind mit Erwartungswert 0. Setzt man F = Ω 1/2 (F E(F)) und B = BΩ 1/2, so lautet das Faktormodell: X = µ + B F + ǫ mit µ = E(X), Σ = B (B ) T + γ Regressionsanalyse von Faktormodellen Sei X t = a + BF + ǫ t, t = 1,..., n ein Modell, bei dem a, B zur Zeit t geschätzt werden sollen. Es gibt zwei Möglichkeiten der Regression Univariate Regression X t,j sei die Beobachtung des Instruments j zur Zeit t: X t,j = a j + b T j F t + ǫ t,j t = 1,..., n. Nun wird eine lineare Regression durchgeführt. Multivariate Regression Setze X = X T 1. X T n } {{ } n d, F = 1 F T 1. } 1 Fn T {{ } n (p+1). ( a T, B 2 = B T ) } {{ } (p+1) d, E = ǫ T 1. ǫ T n. }{{} n d Es gilt: X = FB 2 + E, wobei B 2 die Matrix der zu schätzenden Parameter ist.
Multivariate Verteilungen
Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig
Mehr2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:
Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrTheorem 19 Sei (X 1,X 2 ) T ein normalverteilter Zufallsvektor. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0.
Theorem 19 Sei (X 1,X 2 ) T ein normalverteilter Zufallsvektor. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0. Korollar 2 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen und einer Gauss
MehrBeispiel 6 (Multivariate Normalverteilung)
Beispiel 6 (Multivariate Normalverteilung) Sei X N(µ,Σ). Es existiert eine Matrix A IR d k, sodass X d = µ+az wobei Z N k (0,I) und AA T = Σ. Weiters gilt Z = RS wobei S ein gleichmäßig verteilter Zufallsvektor
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
MehrCopula Funktionen. Eine Einführung. Nils Friewald
Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
Mehr6.1 Definition der multivariaten Normalverteilung
Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer
Mehr+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert:
Tail Abhängigkeit Definition 12 Sei (X 1,X 2 ) T ein Zufallsvektor mit Randverteilungen F 1 und F 2. Der Koeffizient der oberen Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: λ U (X
Mehr2 Multivariate Normalverteilung
2 Multivariate Normalverteilung 2. Multivariate Normalverteilung Definition 2.. Normalverteilung Eine univariat normalverteilte Zufallsvariable X besitzt ie Dichte ) (x µ)2 f (x) = exp ( x R. 2π σ 2σ 2
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrKapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem
MehrMultivariate Verfahren
Selbstkontrollarbeit 1 Multivariate Verfahren Musterlösung Aufgabe 1 (40 Punkte) Auf der dem Kurs beigelegten CD finden Sie im Unterverzeichnis Daten/Excel/ die Datei zahlen.xlsx. Alternativ können Sie
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrRegression und Korrelation
Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen
MehrWiederholung: Transformationsformel für Dichten
Der folgende Aufschrieb enthält die fehlenden Beweise aus der Vorlesung. Wiederholung: ransforationsforel für Dichten Zur Herleitung der χ und t-verteilung verwenden wir ehrals die ransforationsforel.
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrLösung Übungsblatt 5
Lösung Übungsblatt 5 5. Januar 05 Aufgabe. Die sogenannte Halb-Normalverteilung spielt eine wichtige Rolle bei der statistischen Analyse von Ineffizienzen von Produktionseinheiten. In Abhängigkeit von
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
Mehr1.4 Stichproben aus einer Normalverteilung
1.4 Stichproben aus einer Normalverteilung Die Normalverteilung ist wohl das am stärksten verbreitete Modell. Stichproben daraus führen zu nützlichen Eigenschaften der Statistiken und ergeben bekannte
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrQuantitatives Risikomanagement
Quantitatives Risikomanagement Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer von Jan Hahne und Wolfgang Tischer -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften
MehrProf. Dr. Fred Böker
Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrEinführung in die Maximum Likelihood Methodik
in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrMathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
MehrÜbungsblatt 11 zur Vorlesung Statistische Methoden - freiwilliger Teil
Dr. Christof Luchsinger Übungsblatt zur Vorlesung Statistische Methoden - freiwilliger Teil Rechnen mit Matrizen, Multivariate Normalverteilung Herausgabe des Übungsblattes: Woche 0, Abgabe der Lösungen:
Mehr2 Stationarität. Strikte Stationarität
2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele
Mehr0 sonst. a) Wie lautet die Randwahrscheinlichkeitsfunktion von Y? 0.5 y = 1
Aufgabe 1 (2 + 2 + 2 + 1 Punkte) Gegeben sei folgende gemeinsame Wahrscheinlichkeitsfunktion f(x, y) = P (X = x, Y = y) der Zufallsvariablen X und Y : 0.2 x = 1, y = 1 0.3 x = 2, y = 1 f(x, y) = 0.45 x
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 1 Stetige Zufallsvariablen 1.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
MehrEinführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management
Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert
MehrMultivariate Verfahren
Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe
Mehr2.1 Gemeinsame-, Rand- und bedingte Verteilungen
Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die
MehrDWT 2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen 330/467 Ernst W. Mayr
2.1 Maximum-Likelihood-Prinzip zur Konstruktion von Schätzvariablen Wir betrachten nun ein Verfahren zur Konstruktion von Schätzvariablen für Parameter von Verteilungen. Sei X = (X 1,..., X n ). Bei X
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
Mehr5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
MehrMathematische Statistik Aufgaben zum Üben. Schätzer
Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
Mehr5. Stichproben und Statistiken
5. Stichproben und Statistiken Problem: Es sei X eine ZV, die einen interessierenden Zufallsvorgang repräsentiere Man möchte die tatsächliche Verteilung von X kennenlernen (z.b. mittels der VF F X (x)
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Wikipedia http://de.wikipedia.org/wiki/chi-quadrat-verteilung 1 von 7 6/18/2009 6:13 PM Chi-Quadrat-Verteilung aus Wikipedia, der freien Enzyklopädie Die Chi-Quadrat-Verteilung ist
MehrZufallsmatrizen in stürmischen Zeiten
Zufallsmatrizen in stürmischen Zeiten NEC Europe Ltd C&C Research Laboratories Sankt Augustin Gemeinsame Arbeit mit Gabriel Frahm Universität Köln, Lehrstuhl für Statistik und Ökonometrie Statistische
Mehr2 Aufgaben aus [Teschl, Band 2]
20 2 Aufgaben aus [Teschl, Band 2] 2.1 Kap. 25: Beschreibende Statistik 25.3 Übungsaufgabe 25.3 a i. Arithmetisches Mittel: 10.5 ii. Median: 10.4 iii. Quartile: x 0.25 Y 4 10.1, x 0.75 Y 12 11.1 iv. Varianz:
MehrPunktschätzer Optimalitätskonzepte
Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra
Mehr3 Grundlagen statistischer Tests (Kap. 8 IS)
3 Grundlagen statistischer Tests (Kap. 8 IS) 3.1 Beispiel zum Hypothesentest Beispiel: Betrachtet wird eine Abfüllanlage für Mineralwasser mit dem Sollgewicht µ 0 = 1000g und bekannter Standardabweichung
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
Mehr4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR
Im Allgemeinen wird sich das Verhalten einer ZR über die Zeit ändern, z.b. Trend, saisonales Verhalten, sich verändernde Variabilität. Eine ZR wird als stationär bezeichnet, wenn sich ihr Verhalten über
MehrKlausur zur Vorlesung
Institut für Mathematische Stochastik WS 2006/2007 Universität Karlsruhe 12. Februar 2007 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Aufgabe 1 (15 Punkte) Klausur zur Vorlesung Statistik für Biologen
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Review)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c
MehrStatistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management
Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)
MehrKapitel 8. Parameter multivariater Verteilungen. 8.1 Erwartungswerte
Kapitel 8 Parameter multivariater Verteilungen 8.1 Erwartungswerte Wir können auch bei mehrdimensionalen Zufallsvariablen den Erwartungswert betrachten. Dieser ist nichts anderes als der vektor der Erwartungswerte
MehrStatistik I für Betriebswirte Vorlesung 14
Statistik I für Betriebswirte Vorlesung 14 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 13. Juli 017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 14 Version: 8. Juli
MehrPareto optimale lineare Klassifikation
Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung
MehrVorlesung 7b. Unabhängigkeit bei Dichten. und die mehrdimensionale Standardnormalverteilung
Vorlesung 7b Unabhängigkeit bei Dichten und die mehrdimensionale Standardnormalverteilung 0. Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4 4
MehrMehrdimensionale Zufallsvariablen
Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,
MehrSignifikanztests Optimalitätstheorie
Kapitel Signifikanztests Optimalitätstheorie Randomisierte Tests In einem statistischen Modell M, A, P ϑ sei ein Testproblem gegeben: H : ϑ Θ gegen H : ϑ Θ ; wobei also durch Θ Θ Θ eine Zerlegung des Parameterbereichs
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrVERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN
KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut
MehrZusammenhänge zwischen metrischen Merkmalen
Zusammenhänge zwischen metrischen Merkmalen Darstellung des Zusammenhangs, Korrelation und Regression Daten liegen zu zwei metrischen Merkmalen vor: Datenpaare (x i, y i ), i = 1,..., n Beispiel: x: Anzahl
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrStatistik in Geodäsie, Geoinformation und Bauwesen
Wilhelm Benning Statistik in Geodäsie, Geoinformation und Bauwesen 2., überarbeitete und erweiterte Auflage Herbert Wichmann Verlag Heidelberg Matrix-Theorie 1 1.1 Matrizen und Vektoren 1 1.2 Matrixverknüpfungen
Mehr67 Zufallsvariable, Erwartungswert, Varianz
67 Zufallsvariable, Erwartungswert, Varianz 67.1 Motivation Oft möchte man dem Resultat eines Zufallsexperiments eine reelle Zahl zuordnen. Der Gewinn bei einem Glücksspiel ist ein Beispiel hierfür. In
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
MehrÜbungsblatt 9 (25. bis 29. Juni)
Statistik 2 Dr. Andrea Beccarini Dipl.-Vw. Dipl.-Kffr. Heike Bornewasser-Hermes Sommersemester 2012 Übungsblatt 9 (25. bis 29. Juni) Stetiges Verteilungsmodell und Gemeinsame Verteilung Stetiges Verteilungsmodell
MehrKapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion
Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrBeziehungen zwischen Verteilungen
Kapitel 5 Beziehungen zwischen Verteilungen In diesem Kapitel wollen wir Beziehungen zwischen Verteilungen betrachten, die wir z.t. schon bei den einzelnen Verteilungen betrachtet haben. So wissen Sie
MehrKonfidenzbereiche. Kapitel Grundlagen. Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus,
Kapitel 4 Konfidenzbereiche 4.1 Grundlagen Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden
MehrStandardnormalverteilung
Standardnormalverteilung 1720 erstmals von Abraham de Moivre beschrieben 1809 und 1816 grundlegende Arbeiten von Carl Friedrich Gauß 1870 von Adolphe Quetelet als "ideales" Histogramm verwendet alternative
MehrStatistik II. Regressionsanalyse. Statistik II
Statistik II Regressionsanalyse Statistik II - 23.06.2006 1 Einfachregression Annahmen an die Störterme : 1. sind unabhängige Realisationen der Zufallsvariable, d.h. i.i.d. (unabh.-identisch verteilt)
Mehr10 Gauß sche graphische Modelle
10 Gauß sche graphische Modelle 30. 1. 2014 Graphische Modelle in der Statistik: statistische Modelle für mehrdimensionale Zufallsvektoren Darstellung als Graph mit (univariaten) Merkmalen als Knoten Kanten
Mehr1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...
Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Mehr4.1. Verteilungsannahmen des Fehlers. 4. Statistik im multiplen Regressionsmodell Verteilungsannahmen des Fehlers
4. Statistik im multiplen Regressionsmodell In diesem Kapitel wird im Abschnitt 4.1 zusätzlich zu den schon bekannten Standardannahmen noch die Annahme von normalverteilten Residuen hinzugefügt. Auf Basis
MehrKapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen
Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion
MehrSozialwissenschaftlerInnen II
Statistik für SozialwissenschaftlerInnen II Henning Best best@wiso.uni-koeln.de Universität zu Köln Forschungsinstitut für Soziologie Statistik für SozialwissenschaftlerInnen II p.1 Wahrscheinlichkeitsfunktionen
MehrKapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren
Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander
MehrSolvency II und die Standardformel
Fakultät Mathematik und Naturwissenschaften Institut für Mathematische Stochastik Solvency II und die Standardformel Festkolloquium 20 Jahre (neue) Versicherungsmathematik an der TU Dresden Sebastian Fuchs
MehrChi-Quadrat-Verteilung
Chi-Quadrat-Verteilung Die Verteilung einer Summe X +X +...+X n, wobei X,..., X n unabhängige standardnormalverteilte Zufallsvariablen sind, heißt χ -Verteilung mit n Freiheitsgraden. Eine N(, )-verteilte
Mehr