Multivariate Verteilungen

Größe: px
Ab Seite anzeigen:

Download "Multivariate Verteilungen"

Transkript

1 Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1,x n,2,...,x n,d ) Annahme: X n,i und X n,j sind abhängig aber X n,i und X n±k,j sind unabhängig für k IN (k 0), 1 i,j d. Grundlegende Eigenschaften von Zufallsvektoren Ein d-dimensionaler Zufallsvektor X = (X 1,X 2,...,X d ) T wird durch die Verteilungsfunktion F spezifiziert F(x) = F(x 1,x 2,...,x d ) = P(X 1 x 1,X 2 x 2,...,X d x d ) = P(X x). Die i. Randverteilung F i von F ist die Verteilungsfunktion von X i und ist folgendermaßen gegeben: F i (x i ) = P(X i x i ) = F(,...,,x i,,..., ) Die Verteilungsfunktion F ist stetig wenn es eine nicht negative Funktion f 0 gibt, sodass F(x 1,x 2,...,x d ) = x1 x2... xd f ist in diesem Fall die Dichte von F. f(u 1,u 2,...,u d )du 1 du 2...du d 1

2 Die Komponenten von X sind unabhängig dann und nur dann wenn F(x) = Π d i=1 F i(x i ) oder, wenn die Dichten f und f i, 1 i d, existieren, dann sind die Komp. von X d.u.n.d. unabhängig wenn f(x) = Π d i=1f i (x i ) Ein Zufallsvektor wird durch seine charakteristische Funktion φ X (t) eindeutig spezifiziert: φ X (t) := E(exp{it T X}),t IR d Wenn E(Xk 2 ) < für alle k, dann ist die Kovarianzmatrix eines Zufallsvektors folgendermaßen gegeben: Anmerkung: Cov(X) = E((X E(X))(X E(X)) T ) Für einen n-dimensionalen Zufallsvektor X, eine konstante Matrix B IR n n und einen konstanten Vektor b IR n gelten folgende Gleichungen: E(BX +b) = BE(X)+b Cov(BX +b) = BCov(X)B T 2

3 Beispiel 1 Für die multivariate Normalverteilung mit Mittelwert µ und Kovarianzmatrix Σ sind die Dichtefunktion f bzw. die charakteristische Funktion φ X folgendermaßen gegeben ( Σ = Det(Σ) ): f(x) = 1 (2π) d Σ exp { 1 2 (x µ)t Σ 1 (x µ) φ X (t) = exp { it T µ 1 2 tt Σt },t IR d },x IR d Probleme bei Modellierung der Abhängigkeit zwischen Finanzgrössen mit Hilfe der (multivariaten) Normalverteilung Finanzgrößen haben i.a. heavier Tails als die Normalverteilung Die Zusammenhänge bei größeren Verlusten sind i.a. stärker als bei normalen Werten. Diese Art von Zusammenhängen kann mit der multivariaten Normalverteilung nicht modelliert werden. (Veranschaulichung der Problematik durch einen Vergleich zwischen Streudiagrammen von echten Daten und Scatter-Plots von Daten, die aus einer Normalverteilung mit geschätztem Erwartungsvektor und geschätzter Kovarianzmatrix simuliert werden.) 3

4 Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient der linearen Korrelation ρ L (X 1,X 2 ) ist folgendermaßen gegeben: ρ L (X 1,X 2 ) = cov(x 1,X 2 ) var(x1 )var(x 2 ) X 1 und X 2 sind unabhängig ρ L (X 1,X 2 ) = 0 ρ L (X 1,X 2 ) = 0 impliziert nicht, dass X 1 und X 2 unabhängig sind Beispiel 2 Sei X 1 N(0,1) und X 2 = X 2 1. Es gilt ρ L(X 1,X 2 ) = 0 aber X 1 und X 2 sind klarerweise abhängig. Weiters gilt: ρ L (X 1,X 2 ) = 1 α,β IR, β 0, sodass X 2 d = α+βx1 und signum(β) = signum(ρ L (X 1,X 2 )) 4

5 Der lineare Korrelationskoeff. ist eine Invariante unter streng monoton steigende lineare Transformationen. D.h. für zwei Zufallsvariablen X 1 und X 2 und reellen Konstanten α 1,α 2,β 1,β 2 IR, β 1 > 0 und β 2 > 0 gilt: ρ L (α 1 +β 1 X 1,α 2 +β 2 X 2 ) = ρ L (X 1,X 2 ). Der lineare Korrelationskoeffizient ist jedoch keine Invariante unter streng monoton steigende nicht-lineare Transformationen. Beispiel 3 Seien X Exp(λ), X 2 = X 1, und T 1, T 2 zwei streng monoton steigende Transformationen: T 1 (X 1 ) = X 1 und T 2 (X 1 )) = X 2 1. Dann gilt: ρ L (X 1,X 1 ) = 1 und ρ L (T 1 (X 1 ),T 2 (X 1 )) =

6 Rang Korrelation Die Koeffizienten der Rang Korrelation (Spearmans Rho und Kendalls Tau) sind Maße für die Übereinstimmung von bivariaten Zufallsvektoren. Seien (x 1,x 2 ) und ( x 1, x 2 ) zwei Punkte in IR 2. Die zwei Punkte heißen übereinstimmend wenn (x 1 x 1 )(x 2 x 2 ) > 0 und nicht übereinstimmend wenn (x 1 x 1 )(x 2 x 2 ) < 0. Seien (X 1,X 2 ) T und ( X 1, X 2 ) T zwei unabhängige Zufallsvektoren mit identischer bivariater Verteilung. Die Kendall s Tau ρ τ ist definiert als ρ τ (X 1,X 2 ) = P ( (X 1 X 1 )(X 2 X 2 ) > 0 ) P ( (X 1 X 1 )(X 2 X 2 ) < 0 ) Sei ( ˆX 1, ˆX 2 ) ein dritter von (X 1,X 2 ) und ( X 1, X 2 ) unahängiger Zufallsvektor mit derselben Verteilung wie (X 1,X 2 ) und ( X 1, X 2 ). Die Spearman s Rho ρ S ist definiert als ρ S (X 1,X 2 ) = 3 { P ( (X 1 X 1 )(X 2 ˆX 2 ) > 0 ) P ( (X 1 X 1 )(X 2 ˆX 2 ) < 0 )} 6

7 Einige Eigenschaften von ρ τ und ρ S : ρ τ (X 1,X 2 ) [ 1,1] und ρ S (X 1,X 2 ) [ 1,1]. Wenn X 1 und X 2 unabhängig, dann ρ τ (X 1,X 2 ) = ρ S (X 1,X 2 ) = 0. Die Umkehrung gilt i.a. nicht. Sei T:IR IR eine streng monoton steigende Funktion. Dann gilt: ρ τ (T(X 1 ),T(X 2 )) = ρ τ (X 1,X 2 ) ρ S (T(X 1 ),T(X 2 )) = ρ S (X 1,X 2 ) Beweis: 1) und 2) sind trivial. Beweis von 3) erfolgt mit Hilfe von Copulas, später... 7

8 Tail-Abhängigkeit Definition 1 Sei (X 1,X 2 ) T ein Zufallsvektor mit Randverteilungen F 1 und F 2. Der Koeffizient der oberen Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: λ U (X 1,X 2 ) = lim P(X u 1 2 > F2 (u) X 1 > F1 (u)) vorausgesetzt der Limes existiert. Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: λ L (X 1,X 2 ) = lim P(X u F2 (u) X 1 F1 (u)) vorausgesetzt der Limes existiert. Wenn λ U > 0 (λ L > 0) heißt es, (X 1,X 2 ) T hat eine obere (untere) Tail-Abhängigkeit. (Siehe Joe 1997, Schmidt und Stadtmüller 2002) Übung 1 Sei X 1 Exp(λ) und X 2 = X 2 1. Bestimmen Sie λ U(X 1,X 2 ), λ L (X 1,X 2 ) und zeigen Sie, dass (X 1,X 2 ) T eine obere und eine untere Tail-Abhängigkeit hat. Berechnen Sie auch den linearen Korrelationskoeffizienten ρ L (X 1,X 2 ). 8

9 Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1,X 2,...,X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche Verteilung) wenn X d = µ + AZ, wobei Z = (Z 1,Z 2,...,Z k ) T ein Vektor von i.i.d. normalverteilten ZV (Z i N(0,1), i = 1,2,...,k), A IR d k ist eine konstante Matrix und µ IR d ist ein konstanter Vektor. Für so einen Zufallsvektor X gilt: E(X) = µ, cov(x) = Σ = AA T (Σ positiv semidefinit). Notation: X N d (µ,σ). Theorem 1 (Multivariate Normalverteilung: äquiv. Definitionen) 1. X N d (µ,σ) für einen Vektor µ IR d und eine positiv semidefinite Matrix Σ IR d d, dann und nur dann wenn a IR d, a = (a 1,a 2,...,a d ) T, die Zufallsvariable a T X normal verteilt ist. 2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: φ X (t) = E(exp{it T X}) = exp{it T µ 1 2 tt Σt} für einen Vektor µ IR d und eine positiv semidefinite Matrix Σ IR d d. 9

10 3. Ein Zufallsvektor X IR d mit E(X) = µ und cov(x) = Σ, wobei die Determinante von Σ positiv ist (det(σ) := Σ > 0), ist normal verteilt, d.h. X N d (µ,σ), dann und nur dann wenn seine Dichtefunktion folgendermaßen gegeben ist { } 1 f X (x) = (2π) d Σ exp (x µ)t Σ 1 (x µ). 2 Beweis: (siehe zb. Gut 1995) Theorem 2 (Eigenschaften der multivariaten Normalverteilung) Für X N d (µ,σ) gilt: Lineare Kombinationen: Für B IR k d und b IR k. Es gilt dann BX+b N k (Bµ+b,BΣB T ). Randverteilungen: ( Setze X T = X (1)T,X (2)T) für X (1)T = (X 1,X 2,...,X k ) T und X (2)T = (X k+1,x k+2,...,x d ) T und analog ( ( ) µ T = µ (1)T,µ (2)T) Σ (1,1) Σ und Σ = (1,2) Σ (2,1) Σ (2,2). ( ) ( Es gilt dann X (1) N k µ (1),Σ (1,1) und X (2) N d k µ (2),Σ ). (2,2) 10

11 Bedingte Verteilungen: Wenn Σ regulär, dann ist auch der bedingte Z.Vektor X (2) X (1) = x (1) multivariat normal verteilt X (2) X (1) = x (1) N d k ( µ (2,1),Σ (22,1) ) wobei µ (2,1) = µ (2) +Σ (2,1) ( Σ (1,1) ) 1 ( x (1) µ (1) ) und Σ (22,1) = Σ (2,2) Σ (2,1) (Σ (1,1) ) 1Σ (1,2). Quadratische Formen: Wenn Σ regulär, dann gilt D 2 = (X µ) T Σ 1 (X µ) χ 2 d. Die Zufallsvariable D heißt Mahalanobis Distanz. Faltung: Seien X N d (µ,σ) und Y N d ( µ, Σ) zwei unabhängige Zufallsvektoren. Es gilt dann X +Y N d (µ+ µ,σ+ Σ). 11

12 b) Varianz-gemischte Normalverteilungen Definition 3 Ein Zufallsvektor X IR d hat eine multivariate Varianzgemischte Normalverteilung wenn X d = µ+waz wobei: Z N k (0,I), W 0 ist eine von Z unabhängige positive Zufallsvariable, µ IR d ist ein konstanter Vektor, A IR d k ist eine konstante Matrix, und I ist die Einheitsmatrix. Unter der Bedingung W = w ist X normalverteilt: X N d (µ,w 2 Σ), wobei Σ = AA T. E(X) = µ und cov(x) = E(W 2 AZZ T A T ) = E(W 2 )Σ falls E(W 2 ) < Beispiel 4 Die multivariate t α -Verteilung Sei Y IG(α, β) (Inverse Gamma-Verteilung) mit Dichtefunktion: f α,β (x) = βα Γ(α) x (α+1) exp( β/x) x > 0,α > 0,β > 0 Dann gilt: E(Y) = β α 1 für α > 1, var(y) = β 2 (α 1) 2 (α 2) für α > 2 Sei W 2 IG(α/2,α/2). Dann ist die Verteilung von X = µ + WAZ eine multivariate t α Verteilung mit α Freiheitsgraden: X t d (α,µ,σ). cov(x) = E(W 2 )Σ = α α 2 Σ 12

13 c) Sphärische Verteilungen Definition 4 Ein Zufallsvektor X = (X 1,X 2,...,X d ) T hat eine sphärische Verteilung wenn für jede orthogonale Matrix U IR d d die Gleichung UX d = X gilt. Theorem 3 Die folgenden Aussagen sind äquivalent. 1. Der Zufallsvektor X IR d hat eine sphärische Verteilung. 2. Es existiert eine Funktion ψ: IR IR, sodass die charakteristische Funktion von X folgendermaßen gegeben wird: φ X (t) = ψ(t T t) = ψ(t 2 1 +t t2 d ) 3. Für jeden Vektor a IR d gilt a t X d = a X 1 wobei a 2 = a 2 1 +a a2 d. 4. X lässt sich als X d = RS repräsentieren, wobei der Zufallsvektor S IR d gleichmäßig verteilt auf der Einheitskugel S d 1, S d 1 = {x IR d : x = 1}, ist, und R 0 eine von S unabhängige ZV ist. Notation einer sphärischen Verteilung: X S d (ψ) 13

14 Beispiel 5 Die standard Normalverteilung ist eine sphärische Verteilungen. Sei X N d (0,I). Dann X S d (ψ) mit ψ = exp( x/2). Tatsächlich: φ X (t) = exp{it T tt It} = exp{ t T t/2} = ψ(t T t). Sei X = RS die stochastische Darstellung von X N d (0,I). Es gilt X 2 d = R 2 χ 2 d ; Simulation einer sphärischen Verteilung: (i) Simuliere s aus einer gleichmäßig verteilten Zufallsvektor in S d 1 (zb. in dem y aus einer multivariaten Standard Normalverteilung Y N d (0,I) simuliert und s = y/ y gesetzt wird). (ii) Simuliere r aus R. (iii) Setze x = rs. 14

15 d) Elliptische Verteilungen Definition 5 Ein Zufallsvektor X IR d hat eine elliptische Verteilung wenn X d = µ+ay, wobei Y S k (ψ), µ IR d ist ein konstanter Vektor und A IR d k ist eine konstante Matrix. Die charakteristische Funktion: φ X (t) = E(exp{it T X}) = E(exp{it T (µ+ay)}) = exp{it T µ}e(exp{i(a T t) T Y}) wobei Σ = AA T. = exp{it T µ}ψ(t T Σt), Notation elliptische Verteilungen: X E d (µ,σ,ψ) µ heißt Positionsparameter (location parameter), Σ heißt Dispersionsparameter (dispersion parameter), ψ heißt charakteristischer Generator der elliptischen Verteilung. Falls A IR d d regulär, dann gilt folgende Relation zwischen elliptischen und sphärischen Verteilungen: X E d (µ,σ,ψ) A 1 (X µ) S d (ψ), A IR d d,aa T = Σ 15

16 Theorem 4 ( Stochastische Darstellung der elliptischen Verteilung) Sei X IR d ein d-dimensinaler Zufallsvektor. X E d (µ,σ,ψ) dann und nur dann wenn X d = µ+ras, wobei S IR k ist ein auf der Einheitskugel S k 1 gleichverteilter Zufallsvektor, R 0 ist eine von S unahängige nicht negative Zufallsvariable, A IR d k ist eine konstante Matrix (Σ = AA T ) und µ IR d ist ein konstanter Vektor. Simulation einer elliptischen Verteilung: (i) Simuliere s aus einer gleichmäßig verteilten Zufallsvektor in S d 1 (zb. in dem y aus einer multivariaten Standard Normalverteilung Y N d (0,I) simuliert und s = y/ y gesetzt wird). (ii) Simuliere r aus R. (iii) Setze x = µ+ras. 16

17 Beispiel 6 (Multivariate Normalverteilung) Sei X N(µ,Σ). Es existiert eine Matrix A IR d k, sodass X d = µ+az wobei Z N k (0,I) und AA T = Σ. Weiters gilt Z = RS wobei S ein gleichmäßig verteilter Zufallsvektor in S k 1 ist und R 2 χ 2 k. Daraus folgt X d = µ+ras und daher X E d (µ,σ,ψ) mit ψ(x) = exp{ x/2}. Beispiel 7 (Multivariate normal variance mixture) Sei Z N d (0,I) ein normal-verteilter Zufallsvektor. Z ist sphärischverteilt mit stochastischer Darstellung Z d = VS wobei V 2 = Z 2 χ 2 d. Sei X = µ+w AZ eine Varianz-gemischte Normalverteilung. Dann gilt X = d µ + VWAS wobei V 2 χ 2 d und VW eine nicht-negative von S unabhängige ZV ist. D.h., X ist elliptisch verteilt mit R = VW. 17

18 Theorem 5 (Eigenschaften der elliptischen Verteilung) Sei X E k (µ,σ,ψ). X hat folgende Eigenschaften: Lineare Kombinationen: Für B IR k d und b IR k gilt: Randverteilungen: ( Setze X T = X (1)T,X (2)T) für BX +b E k (Bµ+b,BΣB T,ψ). X (1)T = (X 1,X 2,...,X n ) T und X (2)T = (X n+1,x n+2,...,x k ) T und analog ( ( ) µ T = µ (1)T,µ (2)T) Σ (1,1) Σ sowie Σ = (1,2) Σ (2,1) Σ (2,2). Es gilt dann ) ) X 1 N n (µ (1),Σ (1,1),ψ und X 2 N k n (µ (2),Σ (2,2),ψ. 18

19 Bedingte Verteilungen: Wenn Σ regulär, dann ist auch die bedingte Verteilung X (2) X (1) = x (1) elliptisch verteilt: X (2) X (1) = x (1) N k n ( µ (2,1),Σ (22,1), ψ ) wobei µ (2,1) = µ (2) +Σ (2,1) ( Σ (1,1) ) 1 ( x (1) µ (1) ) und Σ (22,1) = Σ (2,2) Σ (2,1) (Σ (1,1) ) 1Σ (1,2). Typischerwise sind ψ und ψ unterschiedlich (siehe Fang, Katz und Ng 1987). 19

20 Quadratische Formen: Wenn Σ regulär, dann gilt D 2 = (X µ) T Σ 1 (X µ) R 2. wobei R die nicht-negative ZV aus der stochastischen Darstellung ) Y = RS der spherischen Verteilung Y mit S U (S (d 1) und X = µ+ay ist. Die Zufallsvariable D heißt Mahalanobis Distanz. Faltung: Seien X E k (µ,σ,ψ) und Y E k ( µ,σ, ψ) zwei unabhängige Zufallsvektoren. Es gilt dann X +Y E k (µ+ µ,σ, ψ) wobei ψ = ψ ψ. Achtung: Σ muss i.a. dieselbe für X und Y sein. Anmerkung: Aus X E k (µ,i k,ψ) folgt nicht, dass die Komponenten von X unabhängig sind. Die Komponenten von X sind dann und nur dann unabhängig wenn X multivariat normalverteilt mit der Einheitsmatrix als Kovarianzmatrix ist. 20

21 Koherente Risikomaße Sei (Ω, F, P) ein Wahrscheinlichkeitsraum mit Ereignismenge Ω, Ereignisalgebra F und Wahrscheinlichkeitsmaß P. Sei L (0) (Ω,F,P) die Menge aller Zufallsgrößen aus (Ω,F), die fast sicher endlich sind. Sei M L (0). Sei ρ:m IR ein Risikomaß in M Definition 6 Ein Risikomaß ρ, das folgende Eigenschaften besitzt, heißt koherent auf M: (C1) Invarianz bzgl. Translation: ρ(x +r) = ρ(x)+r, für jede Konstante r und jedes X M. (C2) Subadditivität: X 1,X 2 M gilt ρ(x 1 +X 2 ) ρ(x 1 )+ρ(x 2 ). (C3) Positive Homogenität: ρ(λx) = λρ(x), λ 0, X M. (C4) Monotonie: X 1,X 2 M gilt X 1 f.s. X 2 = ρ(x 1 ) ρ(x 2 ). 21

22 Konvexe Risikomaße Betrachte die Eigenschaft (C5) Konvexität: X 1,X 2 M, λ [0,1] gilt ρ(λx 1 +(1 λ)x 2 ) λρ(x 1 )+(1 λ)ρ(x 2 ). (C5) ist schwächer als (C2) und (C3), d.h. (C2) und (C3) zusammen implizieren (C5) aber nicht umgekehrt. Definition 7 Ein Risikomaß ρ, das die Eigenschaften (C1),(C4) und (C5) besitzt, heißt konvex auf M. Beobachtung: VaR ist i.a. nicht koherent Sei das Wahrscheinlichkeitsmaß P durch einer beliebigen kontinuierlichen oder diskreten Wahrscheinlichkeitsverteilung F definiert. VaR α (F) = F (α) besitzt die Eigenschaften (C1), (C3) und (C4), jedoch i.a. nicht die Subadditivität 22

23 Beispiel 8 Sei das Wahrscheinlichkeitsmaß P durch die Binomialverteilung B(p,n) für n IN, p (0,1), definiert. Wir zeigen: VaR α (B(p,n)) ist nicht subadditiv. ZB.: Berechnen Sie den VaR der Verluste eines Bond-Portfolios bestehend aus 100 Bonds, die unabhängig von einander mit Wahrscheinlichkeit p defaultieren. Beobachten Sie, dass dieser Wert größer als das Hunderfache des VaRs des Verlustes eines einzigen Bonds ist. Theorem 6 Sei (Ω,F,P) ein Wahrscheinlichkeitsraum und M L (0) (Ω,F,P) die Menge aller in (Ω,F,P) definierten Zufallsvariablen mit einer kontinuierlichen Wahrscheinlichkeitsverteilung F. CVaR α ist eine koherentes Risikomaß in M, α (0,1). 23

24 Elliptische Verteilungen und Portfoliooptimierung Ein Investor möchte in d (risikoreichen) Assets investieren. Sei X = (X 1,X 2,...,X d ) T der Zufallsvektor der Asset-Returns mit E(X) = µ und Cov(X) = Σ. Sei P die Klasse aller Portfolios bestehend aus den obigen d Aktien. Jedes (long-short) Portfolio aus P ist eindeutig durch den Gewichtsvektor w = (w i ) IR d definiert. w i > 0 enstpricht einer Long- Investition und w i < 0 entspricht einer Short-Investition. Daher: d P = { w = (w i ) IR d : i=1 } w i = 1 Die Portfoliorendite ist die Zufallsvariable Z(w) = d i=1 w ix i. Die erwartete Portfoliorendite: E(Z(w)) = w T µ. Es gelte X E d (µ,σ,ψ) mit E(Xk 2 ) < und Σ = cov(x). Sei P m die Klasse jener PF aus P sodass E(Z(w)) = m, m IR, m > 0. d P m = {w = (w i ) IR d, w i = 1,w T µ = m} i=1 24

25 Das Mean-Variance PF-Opt.modell (Markowitz 1952, 1987) lautet min var(z(w)) (1) w P m oder äquivalent (siehe zb. Campbell et al. (1997)) min w sodass w T Σw w T µ = m d i=1 w i = 1 Sei ρ ein Risikomaß. Das Mean-ρ PF-Optimierungsmodell lautet: min ρ(z(w)) (2) w P m Sei ρ = VaR α, α (0,1). Das Mean-VaR PF-Optimierungsmodell lautet: min VaR α (Z(w)) (3) w P m Frage: Wie hängen die Probleme (1) und (2) (insbesondere (3)) zusammen? 25

26 Theorem 7 Sei M die Menge der erwarteten Rendite der Portfolii aus P. Die Risikofaktoren, d.h. die Rendite der einzelnen Aktien seien elliptisch verteilt, X = (X 1,X 2,...,X d ) E d (µ,σ,ψ) für gegebene µ IR d, σ IR d d und ψ:ir IR. VaR α ist koherent auf M, für jedes α (0.5,1). Theorem 8 (Embrechts et al., 2002) Sei X = (X 1,X 2,...,X d ) = µ + AY elliptisch verteilt mit µ IR d, A IR d k, und einem spherisch verteilten Zufallsvektor Y S k (ψ) und 0 < E(Xk 2 ) <, k. Sei ρ ein Risikomaß, das die Eigenschaften (C1) und (C3) besitzt, und ρ(y 1 ) > 0 erfüllt, wobei Y 1 die erste Komponente des spherisch verteilten Zufallsvektors Y ist. Es gilt dann: argmin{ρ(z(w)):w P m } = argmin{var(z(w)):w P m } 26

27 Einführung in Copulas: Grundlegende Eigenschaften Definition 8 Eine d-dimensionale Copula ist eine Verteilungsfunktion auf [0,1] d deren Randverteilungen jeweils standard gleichverteilt auf [0,1] sind. Oder äquivalent: Eine Copula C ist eine Funktion C:[0,1] d [0,1], die folgende Eigenschaften hat: 1. C(u 1,u 2,...,u d ) ist mon. steigend in jeder Variable u i, 1 i d. 2. C(1,1,...,1,u k,1,...,1) = u k für jedes k {1,...,d}, u k [0,1]. 3. Folgende Ungleichung (sogenannte Rechtecksungleichung) gilt für alle (a 1,a 2,...,a d ), (b 1,b 2,...,b d ) [0,1] d mit a k b k, k {1,2,...,d}: 2 k 1 = ( 1) k 1+k k d C(u 1k1,u 2k2,...,u dkd ) 0 k d =1 wobei u j1 = a j und u j2 = b j. Anmerkung: Für 2 k d sind die k-dimensionalen Randverteilungen einer d-dimensionalen Copula wieder Copulas, k-dimensionale Copulas. 27

28 Lemma 1 Sei h:ir IR eine monoton steigende Funktion mit h(ir) = IR und h :IR IR die verallgemeinerte inverse Funktion von h. Es gelten dann folgende Aussagen: 1. h ist stetig h ist streng monoton steigend. 2. h ist streng monoton steigend h ist stetig. 3. h (h(x)) x 4. h ist streng monoton steigend = h (h(x)) = x. 5. h ist stetig = h(h (y)) = y. Lemma 2 Sei X eine Zufallsvariable mit Verteilungsfunktion F. Es gilt: P (X = x:f (F(x)) = x) = 1, d.h. F (F(x)) f.s. = x 28

29 Theorem 9 Sei G eine Verteilungsfunktion in IR. 1. Quantil-Transformation: Wenn U U(0, 1) (standard Gleichverteilung), dann gilt P(G (U) x) = G(x). 2. Wahrscheinlichkeit-Transformation: Sei Y eine Zufallsvariable mit stetiger Verteilungsfunktion G. Es gilt G(Y) U(0,1). Theorem 10 (Sklar, 1959) Sei F:IR d [0,1] eine Gesamtverteilungsfunktion mit Randverteilungsfunktionen F 1,...,F d. Es existiert eine Copula C, sodass für alle x 1,x 2,...,x d IR = [, ] F(x 1,x 2,...,x d ) = C(F 1 (x 1 ),F 2 (x 2 ),...,F d (x d )). (4) Wenn F 1,...,F d stetig, dann ist C eindeutig. Vice-versa, sei C eine Copula und F 1,...,F d Verteilungsfunktionen. Dann ist die Funktion F aus (4) eine Gesamtverteilungsfunktion mit Randverteilungsfunktionen F 1,...,F d. C aus (4) heißt Copula von F. Für ein Zufallsvektor X IR d mit Gesamtverteilungsfunktion F heißt C auch Copula von X. 29

30 Korollar 1 Sei F eine Gesamtverteilungsfunktion mit stetigen Randverteilungsfunktionen F 1,...,F d. Die eindeutige Copula von F ist folgendermaßen gegeben: C(u 1,u 2,...,u d ) = F(F 1 (u 1 ),F 2 (u 2 ),...,F d (u d)). Theorem 11 (Copula-Invarianz bzgl. streng monotonen Transformationen) Sei X = (X 1,X 2,...,X d ) T ein Zufallsvektor mit stetigen Randverteilungen F 1,F 2,...,F d und Copula C. Seien T 1,T 2,..., T d streng monoton steigende Funktionen in IR. Dann ist C auch eine Copula von (T 1 (X 1 ),T 2 (X 2 ),...,T d (X d )) T. Beispiel 9 Sei X N d (0,Σ) wobei Σ = R die Korrelationsmatrix von X ist. Seien φ R und φ die Verteilungsfunktionen von X bzw. X 1. Die Copula von X ist die so genannte Gauss sche Copula CR Ga: CR Ga C Ga R (u 1,u 2,...,u d ) = φ R (φ 1 (u 1 ),φ 1 (u 2 ),...,φ 1 (u d )). ist auch die Copula jeder nicht degenerierten Normalverteilung N d (µ,σ) mit Korrelationsmatrix R. Für d = 2 und ρ = R 12 ( 1,1) gilt: C Ga R (u 1,u 2 ) = φ 1 (u 1 ) φ 1 (u 2 ) 1 2π(1 ρ 2 ) 1/2 exp { (x 2 1 2ρx 1 x 2 +x 2 2 ) } dx 2(1 ρ 2 1 dx 2 ) 30

31 Theorem 12 (Fréchet Schranken) Für jede Copula gilt { d } max u k d+1,0 C(u 1,u 2,...,u d ) min{u 1,u 2,...,u d }. k=1 Notation: Untere Schranke =: W d und obere Schranke =: M d, für d 2. Für d = 2 setzen wir M := M 2, W := W 2. Anmerkung: Ein analoges Ergebnis wie im Satz 12 gilt für allgemeine multivariate Verteilungen F mit Randverteilungen F i, 1 i d: { d } max F k (x k ) d+1,0 F(x 1,x 2,...,x d ) min{f 1 (x 1 ),F 2 (x 2 ),...,F d (x d )}. k=1 Beispiel 10 Zeigen Sie, dass die Fréchet untere Schranke W d für d 3 keine Copula ist. Hinweis: Verwenden Sie die Mengenfunktion Q Q([a 1,b 1 ] [a 2,b 2 ]...[a d,b d ]) = ( 1) k 1+k k d W d (u 1k1,u 2k2,...,u dkd ) k 1 =1k 2 =1 k d =1 wobei (a 1,a 2,...,a d ), (b 1,b 2,...,b d ) [0,1] d mit a k b k und u j1 = a j und u j2 = b j für j {1,2,...,d}. 31

32 Theorem 13 (Ohne Beweis) Für jedes d 3 und jedes u [0,1] d, es existiert eine Copula C d,u, sodass C d,u (u) = W d (u). Anmerkung 1: Für jedes d 2 ist die Fréchet obere Schranke M d eine Copula. Überprüfung der 3 Copula-Axiome ist einfach. Anmerkung 2: Weiters sind M und W Copulas. Hinweis: Sei X eine Zufallsvariable mit Verteilungsfunktion F X. Seien Y = T(X) und Z = S(X) zwei Zufallsvariablen, wobei T und S zwei streng monotone Funktionen, T steigend und S fallend, sind. Nun ist M die Copula von (X,T(X)) T und W die Copula von (X,S(X)) T. 32

33 Co-Monotonie und Anti-Monotonie Definition 9 X 1 und X 2 heißen co-monoton wenn M eine Copula von (X 1,X 2 ) T ist. X 1 und X 2 heißen anti-monoton wenn W eine Copula von (X 1,X 2 ) T ist. Theorem 14 Angenommen eine Copula von (X 1,X 2 ) T ist W oder M. Es existieren dann zwei monotone Funktionen α,β:ir IR und eine Zufallsvariable Z, sodass (X 1,X 2 ) d = (α(z),β(z)). Falls M die Copula von (X 1,X 2 ) T ist, dann sind α und β monoton steigend, falls W die Copula von (X 1,X 2 ) T ist, dann ist α monoton steigend und β monoton fallend. Wenn die Randverteilungen F 1 und F 2 von (X 1,X 2 ) T stetig sind, dann gilt: C = W X 2 = T(X 1 ) fast sicher,t = F 2 (1 F 1 ) monoton fallend C = M X 2 = T(X 1 ) fast sicher,t = F 2 F 1 monoton steigend Beweis: In McNeil et al.,

34 Theorem 15 Sei (X 1,X 2 ) T ein Zufallsvektor mit Randverteilungsfunktionen F 1, F 2 und einer nicht spezifizierten Abhängigkeitsstruktur. Sei var(x 1 ),var(x 2 ) (0, ). Dann gilt: 1. Die Menge der möglichen linearen Korrelationen von X 1 und X 2 ist ein abgeschlossenes Intervall [ρ L,min ;ρ L,max ] mit 0 [ρ L,min ;ρ L,max ]. 2. Die minimale lineare Korrelation wird dann und nur dann erreicht wenn X 1 und X 2 anti-monoton sind. Die maximale lineare Korrelation wird dann und nur dann erreicht wenn X 1 und X 2 co-monoton sind. Im Beweis wird die Höffding sche Gleichung verwendet: Lemma 3 (Die Höffding sche Gleichung) Sei (X 1,X 2 ) T ein Zufallsvektor mit Gesamtverteilung F und Randverteilungen F 1, F 2. Wenn cov(x 1,X 2 ) < dann gilt: cov(x 1,X 2 ) = Beweis in McNeil et al.,2005. (F(x 1,x 2 ) F 1 (x 1 )F 2 (x 2 ))dx 1 dx 2. 34

35 Beispiel 11 Sei X 1 Lognormal(0,1) und X 2 Lognormal(0,σ 2 ), σ > 0. Bestimmen Sie ρ L,min (X 1,X 2 ) und ρ L,max (X 1,X 2 ). Beispiel 12 Betrachten Sie zwei ZV Z 1 und Z 2, die die Verluste zweier Portfolii darstellen. Sei Z 1 N(0,1), Z 2 N(0,1) und ρ L (Z 1,Z 2 ) = 0. Geben Sie zwei Zufallsvektoren (X 1,X 2 ) T und (Y 1,Y 2 ) T mit unterschiedlichen Gesamtverteilungsfunktionen an, für die F X 1 +X 2 (α) F Y 1 +Y 2 (α) gilt und die obigen Annahmen erfüllt sind, d.h. X 1,X 2,Y 1,Y 2 N(0,1) und ρ L (X 1,X 2 ) = 0, ρ L (Y 1,Y 2 ) = 0,. Fazit: Aus den Verlustverteilungen der zwei Teilen eines Portfolios und aus der Korrelation der jeweiligen Verluste lassen sich keine Schlüsse über die Verlustverteilung des Gesamtportfolios ziehen. 35

36 Kendall s Tau und Spearman s Rho Seien (x,y) T und ( x,ỹ) T zwei Beobachtungen von einem Zufallsvektor (X,Y) T. (x,y) T und ( x,ỹ) T heißen übereinstimmend falls (x x)(y ỹ) > 0 und nicht übereinstimmend falls (x x)(y ỹ) < 0. Definition 10 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen. Der Kendall s Tau ist für (X 1,X 2 ) T folgendermaßen definiert: ρ τ (X 1,X 2 ) = P((X 1 X 1 )(X 2 X 2 ) > 0) P((X 1 X 1 )(X 2 X 2 ) < 0), wobei (X 1,X 2 )T is eine unabhängige Kopie von (X 1,X 2 ) T. Äquivalent: ρ τ (X 1,X 2 ) = E(sign[(X 1 X 1 )(X 2 X 2 )]). Im d-dimensionalen Fall X IR d : ρ τ (X) = cov(sign(x X )), wobei X IR D eine unabhängige Kopie von X IR d ist. Der Kendall s Tau der Stichprobe: Sei {(x 1,y 1 ) T,(x 2,y 2 ) T,...,(x n,y n ) T } eine Stichprobe von n Beobachtungen des Zufallsvektors (X,Y) T dessen Randverteilungen stetig sind. Sei c die Anzahl der übereinstimmenden Paare und d die Anzahl der nicht übereinstimmenden Paare aus der Stichprobe. ρ τ (X,Y) = c d c+d a.s. = c d n(n 1)/2 36

37 Definition 11 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen. Der Spearman s Rho ist für (X 1,X 2 ) T folgendermaßen definiert: ρ S (X 1,X 2 ) = 3(P((X 1 X 1 )(X 2 X 2 ) > 0) P((X 1 X 1 )(X 2 X 2 ) < 0)), wobei (X 1,X 2 )T, (X 1,X 2 )T unabhängige Kopien von (X 1,X 2 ) T sind. Äquivalente Definition (ohne Beweis): Seien F 1 und F 2 die stetigen Randverteilungen von (X 1,X 2 ) T. Es gilt ρ S (X 1,X 2 ) = ρ L (F 1 (X 1 ),F 2 (X 2 )), d.h. der Spearman s Rho ist die lineare Korrelation der eindeutigen Copula von (X 1,X 2 ) T. Im d-dimensionalen Fall X IR d : ρ S (X) = ρ(f 1 (X 1 ),F 2 (X 2 ),...,F d (X d )) ist die Korrelationsmatrix der eindeutigen Copula von X, wobei F 1,F 2,...,F d die stetigen Randverteilungen von X sind. Theorem 16 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen und eindeutiger Copula C. Für die Rankkorrelationen ρ τ (X 1,X 2 ) und ρ S (X 1,X 2 ) gilt: ρ S (X 1,X 2 ) = 12 ρ τ (X 1,X 2 ) = C(u 1,u 2 )dc(u 1,u 2 ) 1 (C(u 1,u 2 ) u 1 u 2 )du 1 du 2 = C(u 1,u 2 )du 1 du

38 Eigenschaften von ρ τ und ρ S. ρ τ und ρ S sind symmetrische Abhängigkeitsmaße mit Wertebereich [ 1, 1]. Falls X 1, X 2 unabhängig, dann ρ τ (X 1,X 2 ) = ρ S (X 1,X 2 ) = 0. Die Umkehrung gilt i.a. nicht. X 1,X 2 co-monoton dann und nur dann wenn ρ τ (X 1,X 2 ) = ρ S (X 1,X 2 ) = 1. X 1,X 2 anti-monoton dann und nur dann wenn ρ τ (X 1,X 2 ) = ρ S (X 1,X 2 ) = 1. Seien F 1, F 2 die stetigen Randverteilungen von (X 1,X 2 ) T und T 1, T 2 zwei streng monotone Funktionen in [, ]. Dann gilt ρ τ (X 1,X 2 ) = ρ τ (T 1 (X 1 ),T 2 (X 2 )) und ρ S (X 1,X 2 ) = ρ S (T 1 (X 1 ),T 2 (X 2 )). (Siehe Embrechts et al., 2002). 38

39 Tail Abhängigkeit Definition 12 Sei (X 1,X 2 ) T ein Zufallsvektor mit Randverteilungen F 1 und F 2. Der Koeffizient der oberen Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: λ U (X 1,X 2 ) = lim P(X u 1 2 > F2 (u) X 1 > F1 (u)) vorausgesetzt der Limes existiert. Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: λ L (X 1,X 2 ) = lim P(X u F2 (u) X 1 F1 (u)) vorausgesetzt der Limes existiert. Wenn λ U > 0 (λ L > 0) heißt es, (X 1,X 2 ) T hat eine obere (untere) Tail-Abhängigkeit. 39

40 Definition 13 Sei Copula C die Verteilungsfunktion von (U 1,U 2,...,U d ) mit U i U[0,1], i = 1,2,...,d. Die Verteilungsfunktion von (1 U 1,1 U 2,...,1 U d ) heißt Survival Copula von C und wird mit Ĉ bezeichnet. Lemma 4 Sei X ein Zufallsvektor mit multivariater Tail-Funktion F ( F(x 1,x 2,...,x d ) = Prob(X 1 > x 1,X 2 > x 2,...,X d > x d )) und Randverteilungsfunktionen F i, i = 1,2,...,d. Sei F i = 1 F i, i = 1,2,...,d. Es gilt F(x 1,x 2,...,x d ) = Ĉ( F 1 (x 1 ), F 2 (x 2 ),..., F d (x d ) Lemma 5 Für jede Copula C gilt Ĉ(1 u 1,1 u 2 ) = 1 u 1 u 2 +C(u 1,u 2 ), wobei Ĉ die Survival-Copula von C ist. Theorem 17 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungsfunktionen und Copula C. Es gilt λ U (X 1,X 2 ) = lim u 1 λ L (X 1,X 2 ) = lim u 0 + vorausgesetzt die Limes existieren. 1 2u+C(u,u) 1 u C(u, u) u und 40

41 Beispiel 13 Die Gumbel Familie von Copulas: C Gu θ (u 1,u 2 ) = exp ( [ ( lnu 1 ) θ +( lnu 2 ) θ] 1/θ ), θ 1 Es gilt λ U = 2 2 1/θ, λ L = 0. Beispiel 14 Die Clayton Familie von Copulas: Es gilt λ U = 0, λ L = 2 1/θ. C Cl θ (u 1,u 2 ) = (u θ 1 +u θ 2 1)1/θ, θ > 0 41

42 Elliptische Copulas Definition 14 Sei X ein d-dimensionaler Zufallsvektor, seien µ IR d und Σ IR d d zwei Konstanten, und sei ψ:[0, ) IR eine Funktion. Wenn φ X µ = ψ(t T Σt) gilt, wobei φ X µ die charakteristische Funktion von X µ ist, dann ist X eine elliptisch verteilter Zufallsvektor mit Parameter µ, Σ, ψ: X E d (µ,σ,ψ). ψ heißt erzeugende Funktion (oder Generator) von X. Für d = 1 stimmen die elliptischen Verteilungen mit den symmetrischen Verteilungen überein. Überzeugen Sie sich! Verwenden Sie die stochastische Darstellung einer elliptischen Verteilung. Theorem 18 (Stochastische Darstellung) Ein d-dimensionaler Zufallsvektor X ist elliptisch verteilt, X E d (µ,σ,ψ) und rang(σ) = k, dann und nur dann wenn es eine Matrix A IR d k, A T A = Σ, sowie eine nicht negative Zufallsvariable R und einen k-dimensionalen auf der Einheitskugel S k 1 = {z IR k :z z z = 1} gleichverteilten Zufallsvektor U gibt, sodass R und U unabhängig sind und X d = µ+rau. Anmerkung: Eine elliptische Verteilung X ist radial symmetrisch: X µ d = µ X. 42

43 Definition 15 Sei X E d (µ,σ,ψ) mit Verteilungsfunktion F und stetigen Randverteilungen F 1,F 2,...,F d. Dann wird die eindeutige Copula C von F, C(u) = F(F 1 (u 1),...,F d (u d)), elliptische Copula genannt. Beispiel 15 Gauss sche Copulas sind elliptische Copulas Sei CR Ga die Copula einer d-dimensionalen standard Normalverteilung mit Korrelationsmatrix R: C Ga R (u) = φ d R(φ 1 (u 1 ),...,φ 1 (u d )), wobei φ d R die Gesamtverteilungsfunktion einer d-dimensionalen Normalverteilung mit Erwartungsvektor 0 und Korrelationsmatrix R und φ 1 die Inverse der Verteilungsfunktion einer univariaten standard Normalverteilung ist. Da die Normalverteilung eine elliptische Verteilung ist, ist diegauss sche Copula CR Ga eine elliptische Copula. Im bivariaten Fall gilt: C Ga R (u 1,u 2 ) = φ 1 (u 1 ) φ 1 (u 2 ) wobei ρ ( 1,1). 1 2π(1 ρ 2 ) 1/2 exp { (x 2 1 2ρx 1 x 2 +x 2 2 ) } dx 2(1 ρ 2 1 dx 2, ) 43

44 t-copula: ein weiteres Beispiel elliptischer Copulas Definition 16 Sei X d = µ+ α S AZ t d (α,µ,σ), wobei µ IR d, α IN, α > 1, S χ 2 α, A IRd k mit AA t = Σ und Z N k (0,I k ), und S und Z unabhängig sind. Es heißt, X hat eine d-dimensionale t-verteilung mit Mittelwert µ (für α > 1) und Kovarianzmatrix Cov(X) = α α 2 Σ (für α > 2). Cov(X) existiert nicht für α 2. Definition 17 Die Copula Cα,R t Copula gilt: von X heißt t-copula. Für die t- C t α,r (u) = td α,r (t 1 α (u 1),...,t 1 α (u d)). R ij = Σ ij, i,j = 1,2...,d, ist die Korrelationsmatrix von Z, Σii Σ jj t d α,r ist die Verteilungsfunktion von α S Z, wobei S χ 2 α und Z N k (0,I k ) unabhängig sind, und t α sind die Randverteilungen von t d α,r. Bivariater Fall (d = 2): C t α,r (u 1,u 2 ) = t 1 α (u 1) t 1 α (u 2) 1 2π(1 ρ 2 ) 1/2 { 1+ x2 1 2ρx 1x 2 +x 2 2 α(1 ρ 2 ) für ρ ( 1,1). R 12 ist der lineare Korrelationskoeffizient der dazugehörigen bivariaten t α -Verteilung für α > } (α+2)/2 dx 1 dx 2,

45 Copulas: Weitere Eigenschaften Definition 18 (Radiale Symmetrie oder Kugel-Symmetrie) Ein Zufallsvektor X (oder eine Verteilungsfunktion) heißt radial symmetrisch (oder kugel-symmetrisch) um den Punkt a wenn X a d = a X. Beispiel: Ein elliptisch-verteilter Zufallsvektor X E d (µ,σ,ψ) IR d ist radial-symmetrisch um µ. Definition 19 (Radiale Symmetrie von Copulas) Eine Copula C heißt radial-symmetrisch wenn (U 1 0.5,...,U d 0.5) d = (0.5 U 1,...,0.5 U d ) U d = 1 U, wobei (U 1,U 2,...,U d ) ein Zufallsvektor mit Verteilungsfunktion C ist. Für eine radial symmetrische Copula gilt C = Ĉ. Beispiel: Elliptische Copulas sind radial symmetrisch. Die Gumbel und Clayton Copulas sind es nicht. Überzeugen Sie sich! 45

46 Definition 20 Ein Zufallsvektor X heißt vertauschbar ( exchangeable ) wenn (X 1,...,X d ) d = (X π(1),...,x π(d) ) für jede Permutation (π(1),π(2),...,π(d)) von (1,2,...,d). Definition 21 Eine Copula C heißt vertauschbar wenn sie die Gesamtverteilung eines vertauschbaren Zufallsvektors (mit Gleichverteilungen als Randverteilungen) ist. Für eine solche Copula gilt: C(u 1,u 2,...,u d ) d = C(u π(1),u π(2),...,u π(d) ) für jede Permutation (π(1),π(2),...,π(d)) von (1,2,...,d). Beispiele von vertauschbaren Copulas: Gumbel, Clayton, Gauss sche Copula CP Ga, t-copula Ct ν,p für den Fall, dass P eine Equikorrelationsmatrix ist: R = ρj d + (1 ρ)i d. J d IR d d ist eine Matrix bestehend aus lauter Einser, und I d IR d d ist die d-dimensionale Einheitsmatrix. Für bivariate vertauschbare Copulas gilt: P(U 2 u 2 U 1 = u 1 ) = P(U 1 u 2 U 2 = u 1 ). 46

47 Theorem 19 Sei (X 1,X 2 ) T ein normalverteilter Zufallsvektor. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0. Korollar 2 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen und einer Gauss schen Copula Cρ Ga, wobei ρ der Koeffizient der linearen Korrelation zwischen X 1 und X 2 ist. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0. Theorem 20 Sei (X 1,X 2 ) T ein t-verteilter Zufallsvektor mit ν Freiheitsgraden, Mittelwert 0 und linearer Korrelationsmatrix R: (X 1,X 2 ) T t 2 (0,ν,R). Für R 12 > 1 gilt: ( ν ) 1 R12 λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 2 t ν R12 Beweis: Ähnlich wie der Beweis von Satz 19. Hinweis:. X 2 X 1 = x ( ν +1 ν +x 2 ) 1/2 X 2 ρx 1 ρ 2 t ν+1 47

48 Korollar 3 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen und einer t-copula Cν,R t mit ν Freiheitsgraden und einer Korrelationsmatrix R. Dann gilt: ( ν ) 1 R12 λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 2 t ν R12 Theorem 21 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen und einer Gauss schen copula Cρ Ga, wobei ρ der Koeffizient der linearen Korrelation zwischen X 1 und X 2 ist. Dann gilt: ρ τ (X 1,X 2 ) = 2 π arcsinρ und ρ S(X 1,X 2 ) = 6 π arcsin ρ 2 Korollar 4 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen und einer elliptischen copula Cµ,Σ,ψ E. Dann gilt: ρ τ (X 1,X 2 ) = 2 π arcsinr 12, wobei R 12 = Σ 12 Σ11 Σ 22 Theorem 22 Sei X E d (µ,σ,ψ) ein elliptisch verteilter Vektor mit stetigen Randverteilungsfunktionen. Dann gilt: ρ τ (X i,x j ) = 2 π arcsinr ij, wobei R ij = Σ ij Σii Σ jj für i,j = 1,2,...,d Beweise von Satz 21, Satz 22 und Korollar 4: siehe McNeil et al. (2005). 48

49 Archimedische Copulas Nachteile elliptischer Copulas: I.A. keine Darstellung in geschloßener Form möglich kugel-symmetrisch Bivariate Archimedische Copulas Definition 22 Sei φ:[0,1] [0,+ ] stetig, streng monoton fallend, sodass φ(1) = 0. Die pseudo-inverse Funktion φ [ 1] :[0, ] [0,1] von φ wird folgendermassen definiert: φ [ 1] (t) = { φ 1 (t) 0 t φ(0) 0 φ(0) t φ [ 1] ist stetig und monoton fallend in [0, ], streng monoton fallend in [0,φ(0)] und es gilt: φ [ 1] (φ(u)) = u für u [0,1] φ(φ [ 1] (t) = { t 0 t φ(0) φ(0) φ(0) t + Falls φ(0) = +, dann φ [ 1] = φ 1. 49

50 Theorem 23 Sei φ:[0, 1] [0, + ] stetig, streng monoton fallend in [0,1], sodass φ(1) = 0, und sei φ [ 1] die pseudo-inverse Funktion von φ. Sei C:[0,1] 2 [0,1], sodass C(u 1,u 2 ) = φ [ 1] (φ(u 1 )+φ(u 2 )). C ist eine Copula dann und nur dann wenn φ convex ist. Copula dieser Form heißen Archimedische Copulas. φ heißt Generator von C. Falls φ(0) = +, dann φ [ 1] = φ 1 und C(u 1,u 2 ) = φ 1 (φ(u 1 )+φ(u 2 )). Beweis: Siehe Nelsen Beispiel 16 Gumbel Copulas Sei φ(t) = ( lnt) θ, θ 1, t [0,1]. ) Cθ Gu (u 1,u 2 ) = exp ( [( lnu 1 ) θ +( lnu 2 ) θ ] 1/θ Copula mit Parameter θ. Für θ = 1: C1 Gu = u 1 u 2. lim θ Cθ Gu = M(u 1,u 2 ) = min{u 1,u 2 }. Die Gumbel Copulas haben eine obere Tail Abhängigkeit. Beispiel 17 Clayton Copulas Sei φ(t) = (t θ 1)/θ, θ > 0. ist die Gumbel C Cl θ (u 1,u 2 ) = ( u θ 1 +u θ 2 1) 1/θ ist die Clayton Copula mit Parameter θ. lim θ 0 C Cl θ = u 1 u 2 und lim θ C Cl θ = M = min{u 1,u 2 }. Die Clayton Copulas haben eine untere Tail Abhängigkeit 50

51 Beispiel 18 φ(t) = 1 t, t [0,1]. φ [ 1] (t) = max{1 t,0}. C φ (u 1,u 2 ) = max{u 1 +u 2 1,0} = W(u 1,u 2 ). D.h. die untere Fréchet Schranke ist eine Archimedische Copula. Theorem 24 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen und einer Archimedischen Copula C generiert von φ. Dann gilt ρ τ (X 1,X 2 ) = Beweis: Siehe Nelsen φ(t) φ (t) dt. Beispiel 19 Kendalls Tau für Gumbel und Clayton Copulas Gumbel Copulas: φ(t) = (lnt) θ, θ 1. ρ τ (θ) = φ(t) 0 φ (t) dt = 1 1 θ. Clayton Copulas: φ(t) = (t θ 1)/θ, θ > 0. ρ τ (θ) = φ(t) 0 φ (t) dt = θ θ+2. 51

52 Multivariate Archimedische Copulas Definition 23 Eine Funktion g:[0, ) [0, ) heißt vollständig monoton wenn alle höheren Ableitungen von g existieren und folgende Ungleichungen gelten für k = 0,1,2,...: ( 1) k ( d k ds kg(s)) s=t 0, t (0, ) Theorem 25 (Kimberling 1974) Sei φ:[0,1] [0, ] eine stetige und streng monoton fallende Funktion, sodass φ(0) = und φ(1) = 0. Die Funktion C:[0,1] d [0,1], C(u) = φ 1 (φ(u 1 )+φ(u 2 )+...+φ(u d )) ist eine Copula für d 2 dann und nur dann wenn φ 1 vollständig monoton in [0, ) ist. Lemma 6 Eine Funktion ψ:[0, ) [0, ) ist die Laplace-Stieltjes Transformation einer Verteilungsfunktion G in [0, ) (ψ(s) = 0 e sx dg(x), s 0) dann und nur dann wenn ψ vollständig monoton und ψ(0) = 1. 52

53 Theorem 26 Sei G eine Verteilungsfunktion in [0, ), sodass G(0) = 0 und sei ψ die Laplace-Stieltjes Transformation von G ψ(s) = 0 e sx dg(x), für s 0. Sei X eine ZV mit Verteilungsfunktion G und seien U 1,U 2,...,U d bedingt unabhängige Zufallsvariablen in [0, 1] für ein gegebenes X = x mit folgender bedingter Verteilungsfunktion: Es gilt dann F Uk X=x(u) = exp( xψ 1 (u)) für u [0,1]. P(U 1 u 1,U 2 u 2,...,U d u d ) = ψ(ψ 1 (u 1 )+ψ 1 (u 2 )+...+ψ 1 (u d )). und die Verteilungsfunktion von U = (U 1,U 2,...,U d ) ist eine Archimedische Copula mit Generator ψ 1. Vorteile und Nachteile Archimedischer Copulas: Modellierung einer breiteren Klasse von Abhängigkeitsstrukturen Darstellung in geschloßener Form möglich Wenige freie Parameter vorhanden Technische Voraussetzungen für die Generator Funktionen multivariater Archimedische Copulas. 53

54 Simulation von Gauss schen Copulas und t-copulas Sei R IR d d eine symmetrische positiv definite Matrix. Sei AA T = R die Cholesky Zerlegung von R (A IR d d ). Falls Z 1,Z 2,...,Z d N(0,1) unabhängig dann gilt µ+az N d (µ,r). Algorithmus 1 zur Erzeugung eines Zufallsvektors U = (U 1,U 2,...,U d ) dessen Verteilungsfunktion die Copula C Ga R ist. Berechne die Cholesly Zerlegung A von R: R = AA T. Simuliere d unabhängige standard normal verteilte ZV Z 1,Z 2,...,Z d N(0,1) Setze X = AZ Setze U k = φ(x k ) für k = 1,2,...,d, wobei φ die Verteilungsfunktion der standard Normalverteilung ist. U = (U 1,U 2,...,U d ) hat Verteilungsfunktion C Ga R. 54

55 Algorithmus 2 zur Erzeugung eines Zufallsvektors U = (U 1,U 2,...,U d ) dessen Verteilungsfunktion die Copula C t ν,r ist. Berechne die Cholesly Zerlegung A von R: R = AA T. Simuliere d unabhängige standard normal verteilte ZV Z 1,Z 2,...,Z d N(0,1) Simuliere eine ZV S χ 2 ν unabhängig von Z 1,...,Z d. Setze Y = AZ Setze X = ν S Y Setze U k = t ν (X k ) für k = 1,2,...,d, wobei t ν die Verteilungsfunktion einer standard t-verteilung mit ν Freiheitsgraden ist. U = (U 1,U 2,...,U d ) hat Verteilungsfunktion C t ν,r. 55

56 Simulationen der Gumbel und Clayton Copulas Aus Satz 26 lässt sich ein Algorithmus zur Erzeugung dieser Copulas konstruieren. Algorithmus 3 zur Erzeugung eines Zufallsvektors U = (U 1,U 2,...,U d ) dessen Verteilungsfunktion die Archimedische Copula C(u) = φ 1 (φ(u 1 )+φ(u 2 )+...+φ(u d )) mit Generator φ ist. Simuliere eine Variable X mit Verteilungsfunktion G, sodass die Laplace-Stieltjes Transformation ψ von G die inverse Funktion des Generators der gesuchten Copula ist, ψ = φ 1. Simuliere unabhängige gleichverteilte Zufallsvariablen V 1,V 2,..., V d in [0,1]. Setze U = (ψ( ln(v 1 )/X),ψ( ln(v 2 )/X),...,ψ( ln(v d )/X)). U hat Verteilungsfunktion C(u). Der Generator φ(t) = (t θ 1)/θ, θ > 0 erzeugt die Clayton Copula C Cl θ. Aber auch φ(t) = t θ 1 ist ein Generator der Clayton Copula. Für X Gamma(1/θ,1) d.h. f X (x) = x 1/θ 1 e x /Γ(1/θ) gilt: E(e sx ) = 0 e sx 1 Γ(1/θ) x1/θ 1 e x dx = (s+1) 1/θ = φ 1 (s). 56

57 Algorithmus 4 zur Erzeugung eines Zufallsvektors U = (U 1,U 2,...,U d ) dessen Verteilungsfunktion die Clayton Copula C Cl θ ist. Simuliere X Gamma(1/θ,1). Simuliere unabhängige gleichverteilte Zufallsvariablen V 1,V 2,..., V d in [0,1]. die Verteilungsfunktion des Vektors U = (ψ( ln(v 1 )/X),ψ( ln(v 2 )/X),...,ψ( ln(v d )/X)) ist die Clayton Copula C Cl θ. Die Simulation von Gumbel Copulas C Gu θ : Sei X eine positive stabile ZV, X St(1/θ,1,γ,0) mit γ = (cos(π/(2θ))) θ, θ > 1. Die Laplace-Stieltjes Transformation von F X ist φ(t) = exp( t 1/θ ). Simulation von Z ST(α,β,1,0): siehe Nolan Für γ 1 gilt: X = δ +γz St(α,β,γ,δ). 57

58 Alternativer Ansatz: Sei θ 1 und F(x) = 1 F(x) = exp( x 1/θ ) für x 0. Sei V U(0,1). Sei S eine von V unabhängige ZV. mit Dichtefunktion h(s) = (1 1/θ +s/θ)exp( s) Sei (Z 1,Z 2 ) T = (VS θ,(1 V)S θ ). Die Verteilungsfunktion von ( F(Z 1 ), F(Z 2 )) T ist C Gu Überzeugen Sie sich (Hausübung)! Algorithmus 5 zur Erzeugung eines Zufallsvektors U = (U 1,U 2,...,U d ) dessen Verteilungsfunktion die Gumbel Copula ist. C Cu θ θ. Simuliere zwei unabhängige ZV. V 1,V 2 U(0,1). Simuliere zwei unabhängige ZV. W 1 Γ(1,1), W 2 Γ(2,1) Setze S = I V2 1/θW 1 +I V2 >1/θW 2. Setze (Z 1,Z 2 ) = (V 1 S θ,(1 V 1 )S θ ). Die Verteilungsfunktion von U = (exp( Z 1/θ 1 ),exp( Z1/θ Cθ Gu. 2 )T ist 58

59 Schätzung von Copulas Gegeben sei ein Satz multi-dimensionaler Daten. Gesucht ist eine Copula und die Randverteilungen die diesem Datensatz am besten entsprechen. 1. Frage: Welche Familie von (bekannten) Copulas eignet sich am besten? Antwort: Visueller Vergleich der graphischen Darstellungen von Daten bzw. bekannten Copulas, Berechnung der empirischen Koeffizienten der Tail-Abhängigkeit und Auswahl von dazu passenden Copula Familien. 2. Frage: Schätzung der Parameter einer vorspezifizierten Copula Familie. Gegeben: Eine Stichprobe {X 1,X 2,...,X n } aus eine Gesamtverteilung F mit stetigen Randverteilungen F 1, F 2,..., F d. Gesucht: Ein Schätzer ˆθ des Parameter-Vektors θ der eindeutigen Copula C θ, für die F(x) = C(F 1 (x 1 ),...,F d (x d )) gilt. 59

60 Die Schätzer ˆθ für CR Ga, Ct ν,r, CCl θ und Cθ Gu C Ga R = φd R (φ 1 (u 1 ),...,φ 1 (u d )) R ij = sin(π(ρ τ ) ij /2) C t ν,r = td ν,r (t 1 ν (u 1 ),...,t 1 ν (u d )) R ij = sin(π(ρ τ ) ij /2) C Gu θ (u) = exp ( [( lnu 1 ) θ +...+( lnu θ d ]1/θ) θ = 1/(1 (ρ τ ) ij ) Cθ Cl (u) = (u θ u θ d d+1) 1/θ θ = 2(ρ τ ) ij /(1 (ρ τ ) ij ) wobei, (ρ τ ) ij = ρ τ (X k,i,x k,j ) = P((X k,i X l,i )(X k,j X l,j ) > 0) P((X k,i X l,i )(X k,j X l,j ) < 0) = E(sign((X k,i X l,i )(X k,j X l,j ))). Standard Schätzer für Kendalls Tau: ( n 1 ρ τ ij = sign((x k,i X l,i )(X k,j X l,j )). 2) 1 k<l n 60

61 Schätzung von Gauss schen Copulas und t-copulas Es kann passieren, dass ˆR = (ˆR ij ) nicht positive definit ist, wobei ˆR ij = sin(π ρ τ ij/2). ˆR wird durch eine Korrelationsmatrix R ersetzt, wobei R unweit von ˆR liegt. Algorithmus 6 (Eigenwert-Ansatz, siehe Rousseeuw und Molenberghs 1993) Berechne die Spektralzerlegung ˆR = ΓΛΓ T von ˆR, wobei Λ eine Diagonalmatrix ist, die die Eigenwerte von ˆR enthält, und Γ eine orthogonale Matrix deren Spalten den Eigenvektoren von ˆR entsprechen. Ersetze die negativen Eigenwerte in λ durch eine kleine Zahl δ > 0 um Λ zu erhalten. Berechne R = Γ ΛΓ T. R ist symmetrisch und positive definit aber nicht unbedingt eine Korrelationsmatrix, weil die Diagonal- Elemente ˆR ii ungleich 1 sein könnten. Setze ˆR = D RD wobei D eine diagonale Matrix mit D k,k = 1/ R k,k ist. 61

62 t-copulas: Schätzung des Parameters ν der Freiheitsgrade 1. Schätzung der univariaten Randverteilungsfunktionen F 1, F 2,..., F d. Seien ˆF 1,..., ˆF d die dazugehörigen Schätzer. 2. Bildung einer Pseudo-Stichprobe der Copula: Û k = (Û k,1,û k,2,...,û k,d ) := (ˆF 1 (X k,1 ),..., ˆF d (X k,d )), für k = 1,2,...,n (siehe Genest und Rivest 1993). ˆF k kann folgendermaßen erzeugt werden: Parametrische Schätzung: ˆF k ist eine parametrische Verteilungsfunktion wobei der Parameter zb. mit einem Maximum Likelihood (ML) Ansatz geschätzt wird. Nicht Parametrische Schätzung: ˆF i ist die empirische Verteilungsfunktion ˆF i (x) = 1 n+1 n t=1 I X t,i x, 1 i d. 62

63 ML-Schätzung von ν: ν = argmax ξ lnl(ξ;û 1,Û 2,...,Û n ) wobei L(ξ;Û 1,Û 2,...,Û n ) = Π n k=1 ct ξ,r (Û k ) und c t ξ,r die Dichte der t-copula Ct ξ,r ist. Daraus folgt lnl(ξ;û 1,Û 2,...,Û n ) = n k=1 lng ξ,r (t 1 ξ (Û k,1 ),...,t 1 ξ (Û k,d )) wobei g ξ,r die Gesamtdichte einer standard d-dimensionalen t-verteilung mit Verteilungsfunktion t d ξ,r ist, und g ξ die Dichte einer univariaten standard t-verteilung mit ξ Freiheitsgraden ist. n d k=1j=1 lng ξ (t 1 ξ (Û k,j )), 63

Theorem 19 Sei (X 1,X 2 ) T ein normalverteilter Zufallsvektor. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0.

Theorem 19 Sei (X 1,X 2 ) T ein normalverteilter Zufallsvektor. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0. Theorem 19 Sei (X 1,X 2 ) T ein normalverteilter Zufallsvektor. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0. Korollar 2 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen und einer Gauss

Mehr

Beispiel 6 (Multivariate Normalverteilung)

Beispiel 6 (Multivariate Normalverteilung) Beispiel 6 (Multivariate Normalverteilung) Sei X N(µ,Σ). Es existiert eine Matrix A IR d k, sodass X d = µ+az wobei Z N k (0,I) und AA T = Σ. Weiters gilt Z = RS wobei S ein gleichmäßig verteilter Zufallsvektor

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert:

+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: Tail Abhängigkeit Definition 12 Sei (X 1,X 2 ) T ein Zufallsvektor mit Randverteilungen F 1 und F 2. Der Koeffizient der oberen Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: λ U (X

Mehr

Copula Funktionen. Eine Einführung. Nils Friewald

Copula Funktionen. Eine Einführung. Nils Friewald Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien friewald@imw.tuwien.ac.at 13. Juni 2005

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Quantitatives Risikomanagement

Quantitatives Risikomanagement Quantitatives Risikomanagement Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer von Jan Hahne und Wolfgang Tischer -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Nachteile: STD existiert nur für Verteilungen mit E(FL 2 ) <, d.h. nicht ansetzbar bei leptokurtischen ( fat tailed ) Verlustverteilungen;

Nachteile: STD existiert nur für Verteilungen mit E(FL 2 ) <, d.h. nicht ansetzbar bei leptokurtischen ( fat tailed ) Verlustverteilungen; Risikomaße basierend auf die Verlustverteilung Sei F L := F Ln+1 die Verteilung der Verlust L n+1. Die Parameter von F Ln+1 werden anhand von historischen Daten entweder direkt oder mit Hilfe der Risikofaktoren

Mehr

6.1 Definition der multivariaten Normalverteilung

6.1 Definition der multivariaten Normalverteilung Kapitel 6 Die multivariate Normalverteilung Wir hatten die multivariate Normalverteilung bereits in Abschnitt 2.3 kurz eingeführt. Wir werden sie jetzt etwas gründlicher behandeln, da die Schätzung ihrer

Mehr

Quantitatives Risikomanagement

Quantitatives Risikomanagement Quantitatives Risikomanagement Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer von Jan Hahne und Wolfgang Tischer Bergische Universität Wuppertal Dozent: M.Sc. Brice Hakwa

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Quantitative Risk Management

Quantitative Risk Management Quantitative Risk Management Copulas und Abhängigkeit Johannes Paschetag Mathematisches Institut der Universität zu Köln Wintersemester 2009/10 Betreuung: Prof. Schmidli, J. Eisenberg i Inhaltsverzeichnis

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Kapitel 1. Einleitung. 1.1 Einführung in die Thematik und Motivation

Kapitel 1. Einleitung. 1.1 Einführung in die Thematik und Motivation 1 Kapitel 1 Einleitung 1.1 Einführung in die Thematik und Motivation Im Zentrum des Interesses zahlreicher Fragestellungen der Finanzmarkttheorie sowie der angewandten Statistik stehen die Modellierung

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

3 Satz von Fisher Tippett

3 Satz von Fisher Tippett Theorem 3.1 (Satz von Fisher Tippett; extremal types theorem). Eine Verteilung G ist eine Extremwertverteilung genau dann, wenn es c > 0, d R und γ R gibt mit G(t) = G γ (ct + d). { } Dabei ist G γ eine

Mehr

2 Multivariate Normalverteilung

2 Multivariate Normalverteilung 2 Multivariate Normalverteilung 2. Multivariate Normalverteilung Definition 2.. Normalverteilung Eine univariat normalverteilte Zufallsvariable X besitzt ie Dichte ) (x µ)2 f (x) = exp ( x R. 2π σ 2σ 2

Mehr

7.2 Moment und Varianz

7.2 Moment und Varianz 7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Seminar Quantitatives Risikomanagement

Seminar Quantitatives Risikomanagement Seminar Quantitatives Risikomanagement Extremwerttheorie II Ann Schmidt Mathematisches Institut der Universität zu Köln Wintersemester 09/10 Betreuung: Prof. Schmidli, J. Eisenberg Inhaltsverzeichnis 1

Mehr

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt. . Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management Statistik für Betriebswirtschaft und International Management Sommersemester 2014 Prof. Dr. Stefan Etschberger HSA Streuungsparameter Varianz Var(X) bzw. σ 2 : [x i E(X)] 2 f(x i ), wenn X diskret Var(X)

Mehr

Stochastik für Studierende der Informatik

Stochastik für Studierende der Informatik Wiederholungs-/Fragestunde Peter Czuppon Uni Freiburg, 05. September 2016 Diese Zusammenfassung wurde mit Hilfe des Skriptes von Prof. Dr. Pfaffelhuber aus dem Sommersemester 2016 erstellt. Ferner deckt

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

CERA - Klausur Quantitative Methoden des ERM

CERA - Klausur Quantitative Methoden des ERM CERA - Klausur Quantitative Methoden des ERM 3.05.0 Hinweise: Als Hilfsmittel ist ein Taschenrechner zugelassen. Die Gesamtpunktzahl beträgt 0. Die Klausur ist bestanden, wenn mindestens 48 Punkte erreicht

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Monte Carlo Methoden in Kreditrisiko-Management

Monte Carlo Methoden in Kreditrisiko-Management Monte Carlo Methoden in Kreditrisiko-Management P Kreditportfolio bestehend aus m Krediten; Verlustfunktion L = n i=1 L i; Die Verluste L i sind unabhängig bedingt durch einen Vektor Z von ökonomischen

Mehr

Mathematische Statistik Aufgaben zum Üben. Schätzer

Mathematische Statistik Aufgaben zum Üben. Schätzer Prof. Dr. Z. Kabluchko Wintersemester 2016/17 Philipp Godland 14. November 2016 Mathematische Statistik Aufgaben zum Üben Keine Abgabe Aufgabe 1 Schätzer Es seien X 1,..., X n unabhängige und identisch

Mehr

Case II: F is unknown Bootstrapping! The empirical distribution function of X i, 1 i n, is giben as. F n (x) = 1 n. For n large F n F holds.

Case II: F is unknown Bootstrapping! The empirical distribution function of X i, 1 i n, is giben as. F n (x) = 1 n. For n large F n F holds. Case II: F is unknown Bootstrapping! The empirical distribution function of X i, 1 i n, is giben as F n (x) = 1 n I [xi, )(x). n For n large F n F holds. i=1 Generate samples from F n be choosing n elementes

Mehr

Definition 18 (Die verallgemeinerte Pareto Verteilung (GPD)) Die standard GPD G γ : ) 1/γ. G γ,ν,β = 1 (1 + γ x ν β

Definition 18 (Die verallgemeinerte Pareto Verteilung (GPD)) Die standard GPD G γ : ) 1/γ. G γ,ν,β = 1 (1 + γ x ν β Die POT Methode (Peaks over Threshold) Definition 18 (Die verallgemeinerte Pareto Verteilung (GPD)) Die standard GPD G γ : G γ (x) = { 1 (1 + γx) 1/γ für γ 0 1 exp{ x} für γ = 0 wobei x D(γ) D(γ) = { 0

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6

1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6 Inhaltsverzeichnis Vorbemerkungen 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 6 Bedingte

Mehr

2.1 Gemeinsame-, Rand- und bedingte Verteilungen

2.1 Gemeinsame-, Rand- und bedingte Verteilungen Kapitel Multivariate Verteilungen 1 Gemeinsame-, Rand- und bedingte Verteilungen Wir hatten in unserer Datenmatrix m Spalten, dh m Variablen Demnach brauchen wir jetzt die wichtigsten Begriffe für die

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Kompaktskript zur Vorlesung Stochastische Risikoanalyse

Kompaktskript zur Vorlesung Stochastische Risikoanalyse Kompaktskript zur Vorlesung Stochastische Risikoanalyse Friedrich-Schiller-Universität Jena Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Wirtschafts- und Sozialstatistik Prof. Dr. P. Kischka Sommersemester

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

Finanzmathematische Modelle und Simulation

Finanzmathematische Modelle und Simulation Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik . Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Methoden der Statistik Markov Chain Monte Carlo Methoden

Methoden der Statistik Markov Chain Monte Carlo Methoden Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Stetige Standardverteilungen

Stetige Standardverteilungen Universität Basel Wirtschaftswissenschaftliches Zentrum Stetige Standardverteilungen Dr. Thomas Zehrt Inhalt: 1. Die stetige Gleichverteilung 2. Die Normalverteilung (a) Einstimmung (b) Standardisierung

Mehr

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung

5 Konfidenzschätzung. 5.1 Einige Grundbegriffe zur Konfidenzschätzung 5 Konfidenzschätzung 5. Einige Grundbegriffe zur Konfidenzschätzung Diesem Kapitel liegt das parametrische Modell {X, B X, P } mit P {P Θ} zugrunde. {Θ, B Θ } sei ein Meßraum über Θ und µ ein σ-finites

Mehr

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut

Mehr

Berechnung MCR unter Solvency II

Berechnung MCR unter Solvency II Berechnung MCR unter Solvency II Berechnung MCR unter Solvency II Die Wahl des richtigen Risikomaßes Sina Wiesinger 29. März 2018 Überblick 1 Einleitung 2 Grundlagen 3 Eigenschaften von Risikomaßen 4 Risikomaße

Mehr

Mathematische Ökonometrie

Mathematische Ökonometrie Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

Bootstrap-Methoden zur Ermittlung kritischer Werte für asymptotische FWER-Kontrolle

Bootstrap-Methoden zur Ermittlung kritischer Werte für asymptotische FWER-Kontrolle Bootstrap-Methoden zur Ermittlung kritischer Werte für asymptotische FWER-Kontrolle [Dudoit, van der Laan, Pollard: Multiple Testing. Part I Single-Step Procedures for Control of General Type-I-Error Rates]

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Konfidenzbereiche. Kapitel Grundlagen. Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus,

Konfidenzbereiche. Kapitel Grundlagen. Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, Kapitel 4 Konfidenzbereiche 4.1 Grundlagen Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. 12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X

Mehr

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management Sommersemester 2013 Hochschule Augsburg Lageparameter: Erwartungswert d) Erwartungswert

Mehr

Kapitel 12 Erwartungswert und Varianz

Kapitel 12 Erwartungswert und Varianz Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011 Zufällige stabile Prozesse und stabile stochastische Integrale Stochastikseminar, Dezember 2011 2 Stabile Prozesse Dezember 2011 Stabile stochastische Prozesse - Definition Stabile Integrale α-stabile

Mehr

Seminar stabile Zufallsprozesse

Seminar stabile Zufallsprozesse Definitionen und Eigenschaften stabiler Verteilungen 2. November 2011 Inhalt 1 Definitionen Definitionen Beweis der Äquivalenz Beispiele 2 Eigenschaften 3 Charakteristische Funktion 4 Laplace Transformation

Mehr

Fit for Abi & Study Stochastik

Fit for Abi & Study Stochastik Fit for Abi & Study Stochastik Prof. Dr. Tilla Schade Hochschule Harz 15. und 16. April 2014 No. 1 Stochastik besteht aus: Wahrscheinlichkeitsrechnung Statistik No. 2 Gliederung Grundlagen Zufallsgrößen

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

Extremwertverteilungen

Extremwertverteilungen Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen

Mehr

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei

Mehr

Prof. Dr. Fred Böker

Prof. Dr. Fred Böker Statistik III WS 2004/2005; 8. Übungsblatt: Lösungen 1 Prof. Dr. Fred Böker 07.12.2004 Lösungen zum 8. Übungsblatt Aufgabe 1 Die Zufallsvariablen X 1 X 2 besitzen eine gemeinsame bivariate Normalverteilung

Mehr

Quantitatives Risikomanagement SS 2017

Quantitatives Risikomanagement SS 2017 Quantitatives Risikomanagement SS 2017 Univ.-Prof. Dr. Michael Merz Universität Hamburg Lhst. für BWL, insb. Mathematik und Statistik in den Wirtschaftswissenschaften Übungsaufgaben Übungsaufgaben 2017

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Einführung in die Maximum Likelihood Methodik

Einführung in die Maximum Likelihood Methodik in die Maximum Likelihood Methodik Thushyanthan Baskaran thushyanthan.baskaran@awi.uni-heidelberg.de Alfred Weber Institut Ruprecht Karls Universität Heidelberg Gliederung 1 2 3 4 2 / 31 Maximum Likelihood

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr