Quantitatives Risikomanagement

Größe: px
Ab Seite anzeigen:

Download "Quantitatives Risikomanagement"

Transkript

1 Quantitatives Risikomanagement Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer von Jan Hahne und Wolfgang Tischer -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 1

2 Agenda 1. Einführung in die Themenstellung 2. Grundlagen: Copula 3. Konzepte der Abhängigkeitsmodellierung 4. Irrtümer bzgl. Korrelation und Abhängigkeit 5. Fazit -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 2

3 1. Einführung in die Themenstellung -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 3

4 1. Einführung in die Themenstellung -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 4

5 2. Grundlagen: Copula -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 5

6 2.1 Definition der Copula Grundsätzliche Idee: Modellierung der Abhängigkeit soll zurückgeführt werden auf die gemeinsame Verteilungsfunktion. Gegeben seien: n Zufallsvariablen X 1,, X n sowie deren gemeinsame Verteilungsfunktion F Dann gilt bekanntlich: Fx 1,, x n ) = P X 1 x 1,, X n x n ) Um zur Copula zu gelangen wird der folgende Satz benötigt: Satz 2.1: Sei X eine Zufallsvariable mit zugehöriger Verteilungsfunktion F. Sei weiterhin F -1 die Quantilfunktion zu F, also: F -1 α) = inf { x Fx) α }, wobei α Є 0,1). Dann gilt: 1. Für jede standard-gleichverteilte Zufallsvariable U ~ U0,1) ist F -1 U) ~ F. 2. Wenn F stetig ist, so ist die Zufallsvariable FX) standard-gleichverteilt, also FX) ~ U0,1). -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 6

7 2.1 Definition der Copula Besitzen die X 1,, X n stetige Randverteilungsfunktionen, so kann der Vektor X = X 1,, X n ) nach Satz 2.1 derart transformiert werden, dass jede Komponente eine standard-gleichverteilte Randverteilung besitzt. Die benötigte Transformation T : R n R n bildet x 1,, x n ) auf F 1 x 1 ),, F n x n )) ab, so dass: Fx 1,, x n ) = P F 1 X 1 ) F 1 x 1 ),, F n X n ) F n x n )) = CF 1 x 1 ),, F n x n )) C ist die gemeinsame Verteilungsfunktion des transformierten Vektors F 1 X 1 ),, F n X n )). Man nennt C die Copula des Zufallsvektors X 1,, X n ). -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 7

8 2.1 Definition der Copula Definition 2.1: Eine n-dimensionale Copula ist eine Verteilungsfunktion eines Zufallsvektors X Є R n, deren Randverteilungen alle 0,1) gleichverteilt sind. Äquivalent zur obigen Definition kann eine Copula definiert werden als Funktion C : [0,1] n [0,1] mit den drei Eigenschaften: 1. Cx 1,, x n ) ist monoton steigend in jeder Komponente x i. 2. C1,, 1, x i, 1,, 1) = x i für alle i Є [0,1]. 3. Für alle a 1,, a n ), b 1,, b n ) Є [0,1] n, mit a i b i gilt: i 1 1 i n 1 1) i 1... in C x,..., x ) 0, mit x j1 = a j und x j2 = b j für alle j Є {1,,n}. Die Summe kann interpretiert werden als: Pa 1 X 1 b 1,..., a n X n b n ) 0. 1i 1 ni n -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 8

9 2.1 Definition der Copula Zusammenfassend kann also festgehalten werden: Die gemeinsame Verteilungsfunktion F enthält vollständige Informationen über die gesamte Abhängigkeitsstruktur zwischen Zufallsvariablen Idee bei Verwendung der Copula: Teile die gemeinsame Verteilungsfunktion F in zwei Komponenten auf. Die eindimensionalen Randverteilungen F 1,, F n Die Copula C Der Copula-Ansatz ermöglicht eine sehr flexible Modellierung: die Verteilung der einzelnen Zufallsvariablen kann getrennt von der Abhängigkeit zwischen den Zufallsvariablen festgelegt werden. Die Abhängigkeitsstruktur die zwischen den Zufallsvariablen besteht wird alleine durch die Copula modelliert. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 9

10 2.2 Der Satz von Sklar Der bedeutendste Satz in Bezug auf Copulas ist der Satz von Sklar. Satz 2.2: 1. Sei F eine multivariate Verteilungsfunktion mit Randverteilungsfunktionen F 1,, F n. So existiert eine Copula C : [0,1] n [0,1], s.d. für alle x 1,, x n Є R gilt: Fx 1,, x n ) = CF 1 x 1 ),, F n x n )). Die Herleitung wurde oben bereits gezeigt. Falls F 1,, F n stetig sind, so ist die Copula C sogar eindeutig bestimmt. 2. Seien nun umgekehrt eine Copula C sowie die eindimensionalen Verteilungsfunktionen F 1,, F n gegeben, dann ist die durch: Fx 1,, x n ) = CF 1 x 1 ),, F n x n )) definierte Verteilungsfunktion F eine multivariate Verteilung mit den Randverteilungen F 1,, F n. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 10

11 2.2 Der Satz von Sklar Interpretation der beiden Aussagen des Satzes von Sklar: Erster Teil des Satzes: Eine beliebige multivariate Verteilung lässt sich in ihre Randverteilungen und in eine Copula aufteilen.für stetige Randverteilungen ist die Copula dabei eindeutig. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 11

12 2.2 Der Satz von Sklar Der Satz von Sklar gibt jedoch lediglich an, dass diese Überführung möglich ist. Wie dies konkret umgesetzt werden kann wird nicht deutlich. Es ist aber folgendermaßen vorzugehen: Bei bekannter multivariater Verteilungsfunktion F können die eindimensionalen Randverteilungen F 1,, F n bestimmt werden. Sind nun die Zufallsvariablen X 1,, X n mit zugehörigen Verteilungsfunktionen F 1,, F n bekannt. Sei weiterhin u i = PX i x i ) = F i x i ) und daher u i Є [0,1] für alle i Є {1,, n}, so folgt: Cu 1,, u n ) = FF 1-1 u 1 ),, F n -1 u n )). -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 12

13 2.2 Der Satz von Sklar Interpretation der beiden Aussagen des Satzes von Sklar: Zweiter Teil des Satzes: Aus n gegebenen einzelnen Verteilungen F 1,, F n und einer Copula C kann eine gemeinsame Verteilungsfunktion F konstruiert werden, welche die F 1,, F n als Randverteilungen besitzt. Umsetzung: Setze die F 1,, F n in die Copula C ein. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 13

14 2.3 Invarianz unter streng monoton steigenden Transformationen Copulas besitzen eine Eigenschaft, die für praktische Anwendungen sehr nützlich ist: Satz 2.3: Sei C eine Copula zu X 1,, X n ). Dann ist C für alle streng monoton steigenden stetigen Transformationen T 1,, T n ebenfalls die Copula zu T 1 X 1 ),, T n X n )). Erläuterung des Vorteils dieser Eigenschaft an einem Beispiel: Die Abhängigkeit von Verlusten mehrerer Einzelrisiken sind in der Einheit Euro durch eine Copula C modelliert. Übergang von Euro zu Dollar: streng monoton steigende Transformation. Das Modell in Dollar-Beträgen besitzt dieselbe Copula C wie das Euro- Modell. Achtung: Die Randverteilungen, die die Verteilungen der Einzelrisiken beschreiben müssen in der Regel an die neuen Skalen angepasst werden. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 14

15 2.4 Beispiele für Copulas Hier werden zwei klassische Beispiele für Copulas vorgestellt werden. Betrachtung im 2-dimensionalen, d.h. gegeben sind: Zwei Zufallsvariablen X und Y mit Verteilungsfunktionen F 1 und F 2 Sei u 1 = PX x 1 ) = F 1 x 1 ) bzw. u 2 = PY x 2 ) = F 2 x 2 ), also u 1,u 2 Є [0,1]. Wie oben gezeigt, gilt: Cu 1, u 2 ) = FF 1-1 u 1 ), F 2-1 u 2 )) *) -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 15

16 2.4.1 Die Gauß-Copula Randverteilungen F 1 und F 2 sind univariate Normalverteilungen. Die Verteilungsfunktionen werden mit φ bezeichnet. F ist Verteilungsfunktion der bivariaten Normalverteilung N 2 0,ψ). Sie wird hier mit φ ρ bezeichnet. Gemäß *) ergibt sich die Gauß-Copula als: C ρ Ga u 1, u 2 ) = φ ρ φ -1 u 1 ), φ -1 u 2 )) Sind anders herum die Gauß-Copula und die zwei normalverteilten Risiken X und Y mit den Verteilungsfunktionen F 1 und F 2 und Korrelationskoeffizient ρ gegeben, ergibt sich: Fx 1, x 2 ) = C ρ Ga F 1 x 1 ), F 2 x 2 )) Die Gauß-Copula ist genau diejenige Copula, die mehrere univariate Normalverteilungen zu einer multivariaten Normalverteilung zusammenführt. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 16

17 2.4.2 Die Gumbel-Copula Gegeben ist ein Parameter Θ Є [0,1]. Die Gumbel-Copula ist dann gegeben als: C Θ Gu u 1, u 2 ) = exp - - log u 1 ) 1/Θ + - log u 2 ) 1/Θ )) Θ ) Modelliert man Abhängigkeit zwischen Zufallsvariablen mit der Gumbel-Copula kann durch den Parameter Θ jede positive Abhängigkeitsstruktur zwischen Unabhängigkeit Θ = 1) und perfekter Abhängigkeit Θ 0) abgedeckt werden. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 17

18 3. Konzepte der Abhängigkeitsmodellierung -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 18

19 3. Konzepte der Abhängigkeitsmodellierung Konzepte der Abhängigkeitsmodellierung zwischen Zufallsvariablen Lineare Korrelation Komonotonie Rangkorrelation Tail Abhängigkeit Konkordanz Definitionen und Eigenschaften Unterschiede Vor- und Nachteile -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 19

20 3.1 Lineare Korrelation Konzepte der Abhängigkeitsmodellierung zwischen Zufallsvariablen Lineare Korrelation Komonotonie Rangkorrelation Tail Abhängigkeit Konkordanz -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 20

21 3.1.1 Definition der linearen Korrelation Das am häufigsten verwendete Maß zur Modellierung von Abhängigkeiten. Idee: Die Stärke des linearen Zusammenhangs zwischen zwei Zufallsvariablen in Form einer Maßzahl dem linearen Korrelationskoeffizienten ausdrücken. Definition 3.1: Der Pearsonsche bzw. lineare Korrelationskoeffizient zweier Zufallsvariablen X und Y mit 0 < VarX), VarY) < ) ist definiert als: X, Y ) Cov X, Y ) Var X ) Var Y ) ρx,y) Є [-1,1] ρx,y) = 0: unkorrelierte Zufallsvariablen. Also kein linearer Zusammenhang. ρx,y) = 1: perfekte lineare Abhängigkeit im positiven Sinn. ρx,y) = -1: perfekte lineare Abhängigkeit im negativen Sinn. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 21

22 3.1.2 Vor- und Nachteile der linearen Korrelation Vorteile der linearen Korrelation: Einfach zu bestimmen nur Berechnung zweiter Momente) Bestimmung der Korrelation von linear transformierten Zufallsvariablen sehr elegant möglich, da für a,c Є \ {0} und b,d Є : Cov ax b, cy d) ac Cov X, Y ) und daher: a c ax b, cy d) X, Y ) a c D.h. insbesondere: lineare Korrelation invariant unter positiven affinen Transformationen. Für sphärische und elliptische Verteilungen kann die gesamte Abhängigkeitsstruktur zweier Zufallsvariablen über die Korrelation beschrieben werden. Zu den elliptischen Verteilungen zählt auch die Normalverteilung daher viele Anwendungsgebiete wo die Benutzung der linearen Korrelation Sinn macht). -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 22

23 3.1.2 Vor- und Nachteile der linearen Korrelation Nachteile der linearen Korrelation: Korrelationskoeffizient ist nur definiert falls eine Verteilung mit endlicher Varianz vorliegt. z.b. Probleme für heavy-tailed Verteilungen). Lediglich Messung der linearen Abhängigkeit. Zwar invariant unter positiven affinen Transformationen aber nicht invariant unter streng monoton steigenden Transformationen T. D.h. ρx,y) ρtx),ty)). -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 23

24 3.1.2 Vor- und Nachteile der linearen Korrelation Die Abbildung fasst das bedeutendste Problem bei der Verwendung der Korrelation als Abhängigkeitsmaß zusammen. Gleiche Randverteilungen Gleiche Korrelation Aber deutlich unterschiedliche Abhängigkeitsstrukturen -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 24

25 Exkurs: Sphärische und elliptische Verteilungen -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 25

26 E.1 Sphärische Verteilungen Erweiterung der multivariaten Normalverteilung N n 0,I). Klasse symmetrischer Verteilungen für unkorrelierte Zufallsvariablen mit Mittelwert 0. Definition 3.2: Ein Zufallsvektor X = X 1,, X n ) hat eine sphärische Verteilung, wenn für jede orthogonale Matrix U Є n x n also U U = UU = I n x n ) die folgende Gleichung erfüllt ist: UX = d X² A = d B bedeutet:,,a besitzt dieselbe Verteilung wie B. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 26

27 E.1 Sphärische Verteilungen Definition 3.3: Für alle t Є n ist die charakteristische Funktion φ : R n einer n-dimensionalen Zufallsvariablen X definiert als: φ X t) = Eexpit X)) Die charakteristische Funktion sphärischer Verteilungen nimmt eine sehr einfache Form an, denn es existiert eine Funktion γ : , sodass: φt) = γt t) = γt 1 ² + + t 2 ²). Die Funktion γ wird als charakteristischer Generator der sphärischen Verteilung bezeichnet. Man schreibt daher auch: X ~ S n γ). -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 27

28 E.1 Sphärische Verteilungen Bemerkungen zu sphärischen Verteilungen: 1. Sphärische Verteilungen sind i.a. Verteilungen unkorrelierter nicht jedoch unabhängigker Zufallsvariablen. 2. Die multivariate Normalverteilung ist die einzige Verteilung unter den sphärischen Verteilungen, bei der die Zufallsvariablen auch unabhängig sind. 3. X ~ S n γ) ist äquivalent zu X = d RU, wobei U auf der Einheitskugel S n-1 = { x Є x x = 1 } gleichverteilt ist und R 0 eine von U unabhängige Zuvallsvariable darstellt. Die 3. Bemerkung ermöglicht eine Interpretation sphärischer Verteilungen als n-dimensionale Gleichverteilung auf Umgebungen mit verschiedenen Radien. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 28

29 E.2 Elliptische Verteilungen Erweiterung der multivariaten Normalverteilung N n μ, ). Klasse symmetrischer Verteilungen mit Mittelwert μ und Kovarianzmatrix. Mathematisch gesehen: affine Transformationen sphärischer Verteilungen. Definition 3.4: Sei eine affine Transformation T : n n mit Tx) = Ax + μ, A Є n x n, μ Є n gegeben. Ein Zufallsvektor X Є n hat eine elliptische Verteilung, falls X = TY), wobei Y ~ S n γ). Die charakteristische Funktion ist gegeben als: mit = AA. φt) = expit μ) γt t), Notation: X ~ E n μ,, γ) -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 29

30 E.2 Elliptische Verteilungen Bemerkungen zu elliptischen Verteilungen: 1. Die Verteilung von X bestimmt nur μ ŝŷğŝŷěğƶɵőğƌt ĞŝƐĞ єƶŷěγ sind nur bis auf eine positive Konstante bestimmt. 2. Es ist möglich so zu wählen, dass sie die Kovarianzmatrix von X darstellt. Insgesamt bedeutet dies: Eine elliptische Verteilung ist eindeutig definiert durch: Mittelwert μ Kovarianzmatrix Charakteristischer Generator γ Insbesondere: Die Varianz einer elliptisch verteilten Zufallsvariablen ist endlich der lineare Korrelationskoeffizient für solch eine Zufallsvariable ist wohldefiniert. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 30

31 E.3 Korrelation und Kovarianz als natürliche Abhängigkeitsmaße in der Welt elliptischer Verteilungen Elliptische Verteilungen besitzen einige sehr nützliche Eigenschaften: Jede Linearkombination eines elliptisch verteilten Zufallsvektors ist selbst wieder elliptisch verteilt und besitzt sogar den selben charakteristischen Generator. Die Randverteilungen elliptischer Verteilungen sind ebenfalls elliptisch verteilt und besitzen den selben charakteristischen Generator. Sei die Kovarianzmatrix єăůɛɖžɛŝɵǀ ĚĞĮ Ŷŝƚǀ ŽƌĂƵƐŐĞƐĞƚnjƚ ĂŶŶŝƐƚĚŝĞďĞĚŝŶŐƚĞ Verteilung X 1 unter X 2 auch elliptisch verteilt allerdings i.a. mit einem anderen charakteristischen Generator. Alle Randverteilungen elliptisch Elliptische Verteilung eindeutig durch Mittelwert, Kovarianzmatrix und Verteilungstypen bestimmt. Anders ausgedrückt: Gesamte Abhängigkeitsstruktur stetiger, elliptischer Verteilungen eindeutig festgelegt durch Korrelationsmatrix und Verteilungstypen. Jegliche Form von Abhängigkeit wird für elliptisch verteilte Zufallsvariablen komplett über den linearen Korrelationskoeffizienten beschrieben. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 31

32 E.4 Kovarianz und elliptische Verteilungen im Risikomanagement Elliptische Verteilungen begünstigen den Einsatz vieler mathematischer Standard-Modelle. Z.B. Markowitz-Modell und Value-at-Risk). Konzentration auf Value-at-Risk VaR): Gegeben sei ein elliptisch verteilter Zufallsvektor X = X 1,, X n ), wobei X i das Risiko i modelliert. Definiere die Menge linearer Portfolios, die aus diesen n Risiken bestehen als: { Z n X i i1 i R}. Die Verteilungsfunktion von Portfolio Z ist gegeben durch F Z und der VaR zu vorgegebener Wahrscheinlichkeit α ist bekanntermaßen: VaR α Z) = F Z -1 α) = inf { z Є F Z z) α } VaR als Risikomaß besitzt für elliptische Verteilungen eine besondere Eigenschaft. i -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 32

33 E.4 Kovarianz und elliptische Verteilungen im Risikomanagement Definition 3.5: Ein Risikomaß ist eine Funktion ξ mit: X Risikomaß ordnet jedem Risiko X eine reelle Zahl zu. ξ X). D.h. ein Definition 3.6: Ein kohärentes Risikomaß nach Atzner, Delbaen, Eber und Heath) ist ein Risikomaß mit folgenden Eigenschaften: 1. Positivität: Für jedes X 0 ist: ξx) 0 2. Subadditivität: Für alle X und Y gilt: ξx + Y) ξx) + ξy). 3. Positive Homogenität: Für jedes λ 0 ist: ξλx) = λξx). 4. Translationsinvarianz: Für jedes a Є gilt: ξx + a) = ξx) + a. Der VaR ist i.a. kein kohärentes Risikomaß, da er nicht subadditiv ist. Für elliptische Verteilungen erfüllt der VaR auch die Subadditivitätseigenschaft und ist somit kohärent. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 33

34 3.2 Alternative Abhängigkeitsmaße Konzepte der Abhängigkeitsmodellierung zwischen Zufallsvariablen Lineare Korrelation Komonotonie Rangkorrelation Tail Abhängigkeit Konkordanz -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 34

35 3.2.1 Komonotonie Konzepte der Abhängigkeitsmodellierung zwischen Zufallsvariablen Lineare Korrelation Komonotonie Rangkorrelation Tail Abhängigkeit Konkordanz -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 35

36 3.2.1 Komonotonie Definition 3.7: Zwei Risiken X und Y werden komonoton genannt, wenn es eine Zufallsvariable Z und zwei monoton steigende Funktionen f 1 und f 2 gibt, sodass: X = f 1 Z) und Y = f 2 Z) gilt. Wenn f 1 eine monoton steigende Funktion ist und f 2 monoton fällt, so spricht man von kontramonotonen Zufallsvariablen. Die Entwicklung der beiden Risiken hängt komplett von einem einzigen gemeinsamen Faktor ab. Komonotone Risiken können sich niemals ausgleichen extremste Form positiver Abhängigkeit. Steigt das eine Risiko von zwei kontramonotonen Risiken, so sinkt das andere Risiko extremste Form negativer Abhängigkeit. Sind X und Y komonotone Zufallsvariablen, so gilt: VaR α X + Y) = VaR α X) + VaR α Y). -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 36

37 Fundamentale Copulas Komonotonie und Kontramonotonie lassen sich zumindest im Zweidimensionalen durch bestimmte Copulas modellieren. Zusammen mit der Unabhängigkeits-Copula bilden sie die fundamentalen Copulas. Definition 3.8: Die Komonotonie-Copula C o wird für alle u 1,u 2 ) Є [0,1]² definiert durch: C o u 1,u 2 ) = minu 1,u 2 ). Definition 3.9: Die Kontramonotonie-Copula C u wird für alle u1,u2) Є [0,1]² definiert durch: C u u 1,u 2 ) = maxu 1 + u 2-1, 0). Definition 3.10: Die Unabhängigkeits-Copula C id wird für alle u1,u2) Є [0,1]² definiert durch: C id u 1,u 2 ) = u 1 u 2. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 37

38 Die Schranken von Fréchet Perfekte negative Abhängigkeit, Unabhängigkeit, perfekte positive Abhängigkeit lassen sich mit fundamentalen Copulas darstellen. Sie stehen zu vielen anderen Copulas in einer interessanten Beziehung. z.b. Gumbel-Copula:,,interpoliert zwischen Unabhängigkeits- und Komonotonie-copula). Eine weitere wichtige Beziehung liefern die Fréchet-Schranken. Satz 3.2: Für jede n-dimensionale Copula Cu 1,, u n ) gilt: max {u u n + 1 n, 0} Cu 1,, u n ) min {u 1,, u n }. Im zweidimensionalen Fall gilt also genau: C u Cu 1, u 2 ) C o. Für höhere Dimensionen sind die Schranken ähnlich zu interpretieren, aber die untere Schranke ist keine Copula mehr. Komonotonie ist eine sehr viel allgemeinere Definition von Abhängigkeit als die lineare Korrelation. Sie erfasst nicht nur lineare sondern jede Form von perfekter) Abhängigkeit. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 38

39 3.2.2 Rangkorrelation Konzepte der Abhängigkeitsmodellierung zwischen Zufallsvariablen Lineare Korrelation Komonotonie Rangkorrelation Tail Abhängigkeit Konkordanz -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 39

40 3.2.2 Rangkorrelation Definition 3.11: Seien X und Y Zufallsvariablen mit den Randverteilungen F 1 und F 2 sowie F ihre gemeinsame Verteilungsfunktion. Der Spearmansche Rangkorrelationskoeffizient von X und Y ergibt sich als: ρ S X,Y) = ρf 1 X),F 2 Y)), wobei ρ den linearen Korrelationskoeffizienten bezeichnet. Definition 3.12: Seien X 1,Y 1 ) und X 2,Y 2 ) zwei unabhängige Paare von Zufallsvariablen und F ihre gemeinsame Verteilungsfunktion. Der Kendallsche Rangkorrelationskoeffizient von X und Y ergibt sich als: ρ τ X,Y) = PX 1 X 2 )Y 1 Y 2 ) > 0) PX 1 X 2 )Y 1 Y 2 ) < 0). Sowohl der Spearmansche, als auch der Kendallsche Rangkorrelationskoeffizient messen den Grad monotoner Abhängigkeit. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 40

41 3.2.2 Rangkorrelation Satz 3.3: Seien X und Y Zufallsvariablen mit den Randverteilungen F 1 und F 2, gemeinsamer Verteilungsfunktion F sowie Copula C. Dann gilt: 1. ρ S X,Y) = ρ S Y,X) und ρ τ X,Y) = ρ τ Y,X) 2. X und Y unabhängig ρ S X,Y) = ρ τ X,Y) = ρ S X,Y), ρ τ X,Y) S S 1 X, Y ) 12 C x, y) x y) dxdy X, Y ) 4 C u, v) dc u, v) ρ S und ρ τ sind invariant unter streng monotonen Transformationen T : : X, Y), fallst steigend T X), Y) S, X, Y), fallst fallend 1., 2. und 3. sind vom linearen Korrelationskoeffizienten bekannt. Die übrigen Punkte werden vom linearen Korrelationskoeffizienten nicht erfüllt. Größter Vorteil der Rangkorrelation gegenüber linearer Korrelation: Rangkorrelationskoeffizienten hängen nur von der Copula ab 4. und 5.) sie sind invariant unter streng monotonen Transformationen. Größter Nachteil der Rangkorrelation gegenüber linearer Korrelation: Keine momentbasierte Korrelation. 7. ρ S X,Y) = ρ τ X,Y) = 1 C = C o 8. ρ S X,Y) = ρ τ X,Y) = -1 C = C u -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 41

42 3.2.3 Tail Abhängigkeit Konzepte der Abhängigkeitsmodellierung zwischen Zufallsvariablen Lineare Korrelation Komonotonie Rangkorrelation Tail Abhängigkeit Konkordanz -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 42

43 3.2.3 Tail Abhängigkeit Wichtige Fragestellung im Risikomanagement: Wahrscheinlichkeit für das gleichzeitige Eintreten mehrerer extremer Ereignisse angeben. Tail Abhängigkeit: Maßzahl für die Abhängigkeit von extremen Ereignissen, also in den Randbereichen einer Verteilung: -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 43

44 Definition der Tail Abhängigkeit -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 44 Frage: Wie hoch ist die bedingte Wahrscheinlichkeit, dass Risiko X höchstens zu einem Verlust von a führt, unter der Bedingung, dass Risiko Y höchstens einen Verlust von b erleidet? Also: Bei bekannter Copula C kann nach dem Satz von Sklar eine gemeinsame Verteilungsfunktion F gefunden werden, die F 1 bzw. F 2 als Randverteilungen hat: O.B.d.A. treten die Ereignisse X a und Y b mit derselben Wahrscheinlichkeit α ein, also: Und wegen der Stetigkeit der Randverteilungen gilt: Es gilt also:. ) ), ) b Y P b Y a X P b Y a X P. ) )) ), ) b F b F a F C b Y a X P ). ) und ) ) 2 1 b F b Y P a F a X P ). und ) F b F a. ), )) ))) )), ) C F F F F F F C b Y a X P

45 Definition der Tail Abhängigkeit -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 45 Eine zweite interessante Frage lautet: Wie hoch ist die bedingte Wahrscheinlichkeit, dass Risiko X einen sehr hohen Verlust erleidet X > a), unter der Bedingung, dass auch Risiko Y einen sehr hohen Verlust verursacht hat Y > b)? Also: Äquivalent zu oben: Sowie aufgrund der Stetigkeit der Randverteilungen: Damit folgt in Copula-Schreibweise:. ) 1 ), ) ) 1 ) ), ) b Y P b Y a X P b Y P a X P b Y P b Y a X P b Y a X P ). ) und ) ) 2 1 b F b Y P a F a X P ). und ) F b F a. ) 1 ), ) ) 1 ) ), b Y P b Y a X P b Y P a X P b Y a X P C

46 Definition der Tail Abhängigkeit Definition 3.13 und Definition 3.14: Seien X und Y zwei stetige Zufallsvariablen. Bei bekannter Copula C ergeben sich der untere Tail-Abhängigkeitskoeffizient λ L bzw. der obere Tail-Abhängigkeitskoeffizient λ U als: L C, ) lim 0 und wenn der Grenzwert existiert und λ L, λ U Є [0,1] ist. 1 2 C, ) lim 1 U 1 λ L = 0: asymptotische Unabhängigkeit im unteren Tail. λ U = 0: asymptotische Unabhängigkeit im oberen Tail. λ L Є 0,1]: Abhängigkeit im unteren Tail. λ U Є 0,1]: Abhängigkeit im oberen Tail. Je größer λ L bzw. λ U ) ist, desto größer ist die Abhängigkeit im unteren bzw. oberen) Tail. Die Tail Abhängigkeit ist invariant unter streng monoton steigenden Transformationen. Abhängigkeiten in den Tails werden durch unterschiedliche Copulas unterschiedlich modelliert. Bei Auswahl eines Copula-Modells wichtig. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 46

47 3.2.4 Konkordanz Konzepte der Abhängigkeitsmodellierung zwischen Zufallsvariablen Lineare Korrelation Komonotonie Rangkorrelation Tail Abhängigkeit Konkordanz -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 47

48 3.2.4 Konkordanz Hier: Nicht Stärke der Abhängigkeit zwischen Zufallsvariablen X und Y messen sondern feststellen, ob die Abhängigkeit zwischen positiv ihnen Konkordanz) oder negativ Diskordanz) ist. Zentrale Frage: Wie ist positive bzw. negative) Abhängigkeit definiert? 1. Möglichkeit: Der Zusammenhang zwischen X und Y ist genau dann positiv, wenn ρx,y) > 0 oder ρ S X,Y) > 0 bzw. ρ τ X,Y) > 0) ist. In der Regel wird positive Abhängigkeit jedoch anders definiert! 2. Möglichkeit: Der Zusammenhang zwischen X und Y ist genau dann positiv, wenn X und Y positiv quadrant abhängig PQA) sind. 3. Möglichkeit: Der Zusammenhang zwischen X und Y ist genau dann positiv, wenn X und Y positiv assoziiert PA) sind. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 48

49 3.2.4 Konkordanz Definition 3.15: Zwei Zufallsvariablen X und Y werden positiv quadrant abhängig PQA) genannt, wenn für alle x,y Є gilt: PX x, Y y) PX x) PY y). Positive quadrant Abhängigkeit ist geeignet um positive Abhängigkeit zwischen X und Y auszudrücken, da X und Y mit höherer Wahrscheinlichkeit beide große bzw. kleine) Werte annehmen als im Falle der Unabhängigkeit zwischen X und Y. Wird die Ungleichung in Definition 3.15 umgekehrt, spricht man von negativ quadrant abhängigen Zufallsvariablen. Definition 3.16: Zwei Zufallsvariablen X und Y werden positiv assoziiert PA) genannt, wenn für alle reellwertigen, messbaren Funktionen g 1 und g 2, die monoton steigend in beiden Komponenten sind und für die die nachfolgenden Erwartungswerte definiert sind, gilt: Eg 1 X,Y) g 2 X,Y)) Eg 1 X,Y)) Eg 2 X,Y)). -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 49

50 3.2.4 Konkordanz Die obige Definition für PA) ist äquivalent zu: Cov g 1 X,Y), g 2 X,Y) ) 0. Daran wird deutlich, warum die Positive Assoziation ein geeignetes Konzept ist, um positive Abhängigkeit zwischen X und Y zu beschreiben. Wird die Ungleichung in Definition 3.16 umgekehrt, spricht man von negativ assoziierten Zufallsvariablen. PQA) und PA) sind invariant unter streng monoton steigenden Transformationen. PQA) und PA) sind stärkere Abhängigkeitsbedingungen als die drei bekannten Korrelationskoeffizienten. Folgende Darstellung verdeutlicht dies und zeigt gleichzeitig, dass Komonotonie die stärkste Form von Konkordanz also positiver Abhängigkeit ist: Komonotonie PA) PQA) ρx,y) 0, ρ S X,Y) 0, ρ τ X,Y) 0 -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 50

51 4. Irrtümer bzgl. Korrelation und Abhängigkeit -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 51

52 4.1 Irrtum 1 Die gemeinsame Verteilungsfunktion F kann mithilfe der Randverteilungen F 1 und F 2 und der Korrelation zwischen den Zufallsvariablen X und Y bestimmt werden. Die Aussage gilt für elliptische Verteilungen. Im Allgemeinen jedoch nicht! Gegenbeispiel: Betrachte zwei verschiedene gemeinsame Verteilungen mit Gamma3,1)- Randverteilungen und derselben Korrelation ρ = 0,7. Dies ist sowohl mit der Gauß- als auch mit der Gumbel-Copula konstruierbar. F Ga Ga Gu x, y) C G3,1 x), G3,1 y)) und FGu x, y) C G3,1 x), G3, 1 y)) mit 0,71und 0,54. Während die Gauß-Copula keine Tail-Abhängigkeiten aufweist, ist die Gumbel- Copula für θ < 1 asymptotisch abhängig. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 52

53 4.1 Irrtum 1 Um dies zu verdeutlichen betrachte für beide Modelle: PX > u Y > u), mit u = VaR 0,99 X) = VaR 0,99 Y) = G -1 3,1 0,99). Empirische Schätzungen liefern: P FGa X > u Y > u) = 1/3 und P FGu X > u Y > u) = 3/4 Gumbel-Modell: gemeinsame extrem hohe Verluste sind wahrscheinlicher als im Gauß-Modell. weniger Diversifikation! Analytische Aussage über den VaR der Summe X + Y unter den beiden Modellen zu treffen ist schwierig. Aber Simulationen belegen, dass das Gumbel-Modell eine höhere Anzahl an großen Resultaten für den VaR liefert. Entscheidender Unterschied der Modelle bei Einschätzung extremer Verluste der sich in den Randverteilungen und der Korrelation nicht bemerkbar macht). -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 53

54 4.2 Irrtum 2 Seien F1 und F2 gegeben. Die lineare Korrelation zwischen X und Y kann bei einer geeigneten Spezifikation von F alle Korrelationen zwischen -1 und 1 annehmen. Diese Aussage ist falsch! Gegenbeispiel: Betrachte: X ~ LN0,1) und Y ~ LN0,σ²), mit σ > 0. Was ist der minimale ρ min ) bzw. maximale ρ max ) Wert, den die Korrelation bei diesen Randverteilungen annehmen kann? Da ρ min = ρe Z,e σz ) und ρ max = ρe Z,e σz ), mit Z ~ N0,1) gilt, ist eine analytische Lösung möglich: min e 1 e 1) e 2 max 1) und e 1 e 1) e 2 1) -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 54

55 4.2 Irrtum 2 Bei diesem Beispiel werden nicht alle Werte zwischen -1 und +1 angenommen. lim min lim max 0 Zusätzliches Problem: X und Y sind in diesem Beispiel komonoton bzw. kontramonoton), aber für σ ist die lineare Korrelation sehr nahe bei 0. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 55

56 4.3 Irrtum 3 Der Value-at-Risk eines linearen Portfolios X + Y wird am größten, wenn ρx,y) maximal ist, also wenn X und Y komonoton sind. Wir wissen: 1. Für zwei komonotone Zufallsvariablen X und Y gilt: VaR α X + Y) = VaR α X) + VaR α Y). 2. Für elliptische Verteilungen erfüllt der VaR die Subadditiätseigenschaft, also VaR α X + Y) VaR α X) + VaR α Y). 3. Für nicht-elliptische Verteilungen erfüllt der VaR die Subadditiätseigenschaft nicht, d.h. es existieren X und Y, s.d. VaR α X + Y) > VaR α X) + VaR α Y). Die obige Aussage gilt also i.a. nicht, für elliptische Verteilungen ist sie jedoch korrekt. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 56

57 4.3 Irrtum 3 Beispiel, bei dem sich der Value-at-Risk sehr interessant verhält: Betrachte zwei unabhängige Zufallsvariablen X und Y mit derselben Verteilung: F 1/2 = 1 x -1/2, mit x 1. Hierbei handelt es sich um eine extreme heavy-tailed Verteilung ohne endlichen Mittelwert. Betrachte nun die beiden Risiken: X + Y unabhängig) sowie 2X komomoton). Es lässt sich abschätzen, dass für z > 2 gilt: 2 z 1 P X Y z) 1 P2X z) z Damit folgt: VaR α X + Y) > VaR α 2X) = VaR α X) + VaR α Y). Hier: aus Sicht des VaR Unabhängigkeit schlechter als perfekte positive Abhängigkeit - ganz unabhängig von der Wahl von α. keinerlei Diversifikationseffekt, sondern es ist sogar besser zwei gleiche Risiken einzugehen. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 57

58 5. Fazit -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 58

59 5. Fazit Überblick über verschiedene Möglichkeiten zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen. Lineare Korrelation: Lediglich für elliptische Verteilungen gut geeignet. Alternative Abhängigkeitsmaße: Falls keine elliptische Verteilung vorliegt. Konzepte der Abhängigkeitsmodellierung zwischen Zufallsvariablen Lineare Korrelation Komonotonie Rangkorrelation Tail Abhängigkeit Konkordanz Drei klassische Irrtümer bzgl. Korrelation und Abhängigkeit: mit der intuitiven Gleichsetzung der Begriffe Abhängigkeit und Korrelation gehen einige Irrtümer einher besonders bei nicht-elliptischen Verteilungen ist Vorsicht geboten. -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 59

60 Vielen Dank für Ihre Aufmerksamkeit! -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer- Seite 60

Copula Funktionen. Eine Einführung. Nils Friewald

Copula Funktionen. Eine Einführung. Nils Friewald Copula Funktionen Eine Einführung Nils Friewald Institut für Managementwissenschaften Abteilung Finanzwirtschaft und Controlling Favoritenstraße 9-11, 1040 Wien [email protected] 13. Juni 2005

Mehr

+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert:

+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: Tail Abhängigkeit Definition 12 Sei (X 1,X 2 ) T ein Zufallsvektor mit Randverteilungen F 1 und F 2. Der Koeffizient der oberen Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: λ U (X

Mehr

Quantitatives Risikomanagement

Quantitatives Risikomanagement Quantitatives Risikomanagement Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer von Jan Hahne und Wolfgang Tischer Bergische Universität Wuppertal Dozent: M.Sc. Brice Hakwa

Mehr

Theorem 9 Sei G eine Verteilungsfunktion in IR. 1. Quantil-Transformation: Wenn U U(0, 1) (standard Gleichverteilung), dann gilt P(G (U) x) = G(x).

Theorem 9 Sei G eine Verteilungsfunktion in IR. 1. Quantil-Transformation: Wenn U U(0, 1) (standard Gleichverteilung), dann gilt P(G (U) x) = G(x). Theorem 9 Sei G eine Verteilungsfunktion in IR. 1. Quantil-Transformation: Wenn U U(0, 1) (standard Gleichverteilung), dann gilt P(G (U) x) = G(x). 2. Wahrscheinlichkeit-Transformation: Sei Y eine Zufallsvariable

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2.

Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Abhängigkeitsmaße Seien X 1 und X 2 zwei Zufallsvariablen. Es gibt einige skalare Maße für die Abhängigkeit zwischen X 1 und X 2. Lineare Korrelation Annahme: var(x 1 ),var(x 2 ) (0, ). Der Koeffizient

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Beispiel 6 (Multivariate Normalverteilung)

Beispiel 6 (Multivariate Normalverteilung) Beispiel 6 (Multivariate Normalverteilung) Sei X N(µ,Σ). Es existiert eine Matrix A IR d k, sodass X d = µ+az wobei Z N k (0,I) und AA T = Σ. Weiters gilt Z = RS wobei S ein gleichmäßig verteilter Zufallsvektor

Mehr

Theorem 19 Sei (X 1,X 2 ) T ein normalverteilter Zufallsvektor. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0.

Theorem 19 Sei (X 1,X 2 ) T ein normalverteilter Zufallsvektor. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0. Theorem 19 Sei (X 1,X 2 ) T ein normalverteilter Zufallsvektor. Dann gilt: λ U (X 1,X 2 ) = λ L (X 1,X 2 ) = 0. Korollar 2 Sei (X 1,X 2 ) T ein Zufallsvektor mit stetigen Randverteilungen und einer Gauss

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

1.5 Mehrdimensionale Verteilungen

1.5 Mehrdimensionale Verteilungen Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Multivariate Verteilungen. Gerhard Tutz LMU München

Multivariate Verteilungen. Gerhard Tutz LMU München Multivariate Verteilungen Gerhard Tutz LMU München INHALTSVERZEICHNIS 1 Inhaltsverzeichnis 1 Multivariate Normalverteilung 3 Wishart Verteilung 7 3 Hotellings T Verteilung 11 4 Wilks Λ 14 INHALTSVERZEICHNIS

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen Zusammenfassung: e und e Verteilungen Woche 4: Gemeinsame Verteilungen Wahrscheinlichkeitsverteilung p() Wahrscheinlichkeitsdichte f () WBL 15/17, 11.05.2015 Alain Hauser P(X = k

Mehr

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung

Teil VI. Gemeinsame Verteilungen. Lernziele. Beispiel: Zwei Würfel. Gemeinsame Verteilung Zusammenfassung: diskrete und stetige Verteilungen Woche 4: Verteilungen Patric Müller diskret Wahrscheinlichkeitsverteilung p() stetig Wahrscheinlichkeitsdichte f ()

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Die Gamma-Verteilung 13.12.212 Diese Verteilung dient häufig zur Modellierung der Lebensdauer von langlebigen Industriegüstern. Die Dichte

Mehr

Kapitel 8: Zufallsvektoren

Kapitel 8: Zufallsvektoren Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Kapitel 12 Erwartungswert und Varianz

Kapitel 12 Erwartungswert und Varianz Kapitel 12 Erwartungswert und Varianz Vorlesung Wahrscheinlichkeitsrechnung I vom 4/10. Juni 2009 Lehrstuhl für Angewandte Mathematik 1 FAU 12.1 Der Erwartungswert Der Erwartungswert einer Zufallsvariablen

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin. Lemma 92 Beweis: Wir berechnen zunachst I 2 : I 2 = Z 1 I := e x2 =2 d x p = 2: 1 Z 1 1 Z 1 Z 1 = 1 1 Z 1 e x2 =2 d x 1 e (x2 +y 2 )=2 d x d y : e y2 =2 d y Wir gehen nun zu Polarkoordinaten uber und setzen

Mehr

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)

Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt

Mehr

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit

Übung Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung mit Übung 2 24..23 Ü b u n g 2 Aufgabe Die Poissonverteilung P(λ) hat die Wahrscheinlichkeitsfunktion p(x) = λx e λ (x ) x! Zeigen Sie, dass dies als Grenzwert der Wahrscheinlichkeitsfunktion der Binomialverteilung

Mehr

Zufallsvariable, Verteilung, Verteilungsfunktion

Zufallsvariable, Verteilung, Verteilungsfunktion Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

Seminar Quantitatives Risikomanagement

Seminar Quantitatives Risikomanagement Seminar Quantitatives Risikomanagement Multivariate Modelle II Toni Bastgen Mathematisches Institut der Universität zu Köln Sommersemester 2008 Betreuung: Prof. Schmidli, J. Eisenberg Inhaltsverzeichnis

Mehr

Stochastik Aufgaben zum Üben: Teil 2

Stochastik Aufgaben zum Üben: Teil 2 Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2

Mehr

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch

Stetige Verteilungen. A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch 6 Stetige Verteilungen 1 Kapitel 6: Stetige Verteilungen A: Beispiele Beispiel 1: a) In den folgenden Abbildungen sind die Dichtefunktionen von drei bekannten Verteilungen graphisch dargestellt. 0.2 6

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik . Grundbegri e der Stochastik Raum der Ereignisse. Die einelementigen Teilmengen f!g heißen auch Elementarereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. A ist ein geeignetes System von Teilmengen

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Statistik III. Walter Zucchini Fred Böker Andreas Stadie

Statistik III. Walter Zucchini Fred Böker Andreas Stadie Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................

Mehr

Kapitel 1. Einleitung. 1.1 Einführung in die Thematik und Motivation

Kapitel 1. Einleitung. 1.1 Einführung in die Thematik und Motivation 1 Kapitel 1 Einleitung 1.1 Einführung in die Thematik und Motivation Im Zentrum des Interesses zahlreicher Fragestellungen der Finanzmarkttheorie sowie der angewandten Statistik stehen die Modellierung

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik 5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften

Mehr

Zufallsvariablen: Die allgemeine Definition

Zufallsvariablen: Die allgemeine Definition KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Mathematische Stochastik WS 003/004 Universität Karlsruhe 05. 04. 004 Prof. Dr. G. Last Klausur zur Vorlesung Stochastik II Dauer: 90 Minuten Name: Vorname: Matrikelnummer: Diese Klausur hat

Mehr

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt.

1. Grundbegri e. T n i=1 A i = A 1 \ A 2 \ : : : \ A n alle A i treten ein. na = A das zu A komplementäre Ereignis; tritt ein, wenn A nicht eintritt. . Grundbegri e Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt ein, wenn ein! A eintritt. ist auch das sichere Ereignis,

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut

Mehr

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s

Zufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------

Mehr

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen

Kapitel 6. Verteilungsparameter. 6.1 Der Erwartungswert Diskrete Zufallsvariablen Kapitel 6 Verteilungsparameter Wie bei einem Merkmal wollen wir nun die Lage und die Streuung der Verteilung einer diskreten Zufallsvariablen durch geeignete Maßzahlen beschreiben. Beginnen wir mit Maßzahlen

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler

Mehr

Kapitel II Funktionen reeller Variabler

Kapitel II Funktionen reeller Variabler Kapitel II Funktionen reeller Variabler D (Funktion) Es sei f XxY eine Abbildung Die Abbildung f heiß Funktion, falls sie eindeutig ist Man schreibt dann auch: f : X Y f ( x) = y, wobei y das (eindeutig

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen

6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen 6. Stochastische Modelle II: Stetige Wahrscheinlichkeitsverteilungen, insbesondere Normalverteilungen Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Bisher: Diskrete Zufallsvariablen,

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management für Betriebswirtschaft und internationales Management Sommersemester 2015 Prof. Dr. Stefan Etschberger Hochschule Augsburg Normalverteilung Eine Zufallsvariable X mit einer Dichtefunktion und σ > 0 heißt

Mehr

EINE EINFÜHRUNG IN COPULAS

EINE EINFÜHRUNG IN COPULAS EINE EINFÜHRUNG IN COPULAS Johanna Neslehova ETH Zürich Embrechts and Neslehova, 2006 1 The Perfect Storm Extreme, synchronized rises and falls in financial markets occur infrequently but they do occur.

Mehr

Quantitative Risk Management

Quantitative Risk Management Quantitative Risk Management Copulas und Abhängigkeit Johannes Paschetag Mathematisches Institut der Universität zu Köln Wintersemester 2009/10 Betreuung: Prof. Schmidli, J. Eisenberg i Inhaltsverzeichnis

Mehr

Multivariate Zufallsvariablen

Multivariate Zufallsvariablen Kapitel 7 Multivariate Zufallsvariablen 7.1 Diskrete Zufallsvariablen Bisher haben wir immer nur eine Zufallsvariable betrachtet. Bei vielen Anwendungen sind aber mehrere Zufallsvariablen von Interesse.

Mehr

6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale

6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale 6 Korrelations- und Regressionsanalyse: Zusammenhangsanalyse stetiger Merkmale 397 6.1 Korrelationsanalyse Jetzt betrachten wir bivariate Merkmale (X, Y ), wobei sowohl X als auch Y stetig bzw. quasi-stetig

Mehr

Herzlich Willkommen zur letzten Vorlesung in. Statistik 2. vor Weihnachten

Herzlich Willkommen zur letzten Vorlesung in. Statistik 2. vor Weihnachten Herzlich Willkommen zur letzten Vorlesung in Statistik 2 vor Weihnachten Was sollen wir heute machen? Vorlesung? Übung? Weihnachtsfeier? Was sollen wir heute machen? Vorlesung? Übung? Weihnachtsfeier?

Mehr

Vorlesung 8a. Kovarianz und Korrelation

Vorlesung 8a. Kovarianz und Korrelation Vorlesung 8a Kovarianz und Korrelation 1 Wir erinnern an die Definition der Kovarianz Für reellwertige Zufallsvariable X, Y mit E[X 2 ] < und E[Y 2 ] < ist Cov[X, Y ] := E [ (X EX)(Y EY ) ] Insbesondere

Mehr

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol [email protected] Markus Höchstötter [email protected]

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2010 Karlsruher Institut für Technologie Priv.-Doz. Dr. D. Kadelka Klausur Wahrscheinlichkeitstheorie und Statistik vom 14.9.2010 Musterlösungen Aufgabe 1: Gegeben sei eine Urliste

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Referenten: Gina Spieler, Beatrice Bressau, Laura Uhlmann Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn

Referenten: Gina Spieler, Beatrice Bressau, Laura Uhlmann Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn 8.5 Eindimensionale stetige Zufallsvariablen Eine Zufallsvariable X heißt stetig, wenn es eine Funktion f(x) gibt, sodass die Verteilungsfunktion von X folgende Gestalt hat: x F(x) = f(t)dt f(x) heißt

Mehr

Stetige Funktionen. Definition. Seien (X, d) und (Y, ϱ) metrische Räume und f : X Y eine Abbildung. D(f) X sei der Definitionsbereich von f.

Stetige Funktionen. Definition. Seien (X, d) und (Y, ϱ) metrische Räume und f : X Y eine Abbildung. D(f) X sei der Definitionsbereich von f. Stetige Funktionen Abbildungen f : X Y, wobei X und Y strukturierte Mengen sind (wie z.b. Vektorräume oder metrische Räume), spielen eine zentrale Rolle in der Mathematik. In der Analysis sind Abbildungen

Mehr