Quantitatives Risikomanagement

Größe: px
Ab Seite anzeigen:

Download "Quantitatives Risikomanagement"

Transkript

1 Quantitatives Risikomanagement Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer von Jan Hahne und Wolfgang Tischer Bergische Universität Wuppertal Dozent: M.Sc. Brice Hakwa 21. August 2011

2 Inhaltsverzeichnis 1 Einleitung 1 2 Copula Definition der Copula Der Satz von Sklar Invarianz unter streng monoton steigenden Transformationen Beispiele für Copulas Die Gauß-Copula Die Gumbel-Copula Konzepte der Abhängigkeitsmodellierung Lineare Korrelation Definition der linearen Korrelation Vor- und Nachteile der linearen Korrelation Exkurs: Sphärische und elliptische Verteilungen E.1 Sphärische Verteilungen E.2 Elliptische Verteilungen E.3 Korrelation und Kovarianz als natürliche Abhängigkeitsmaße in der Welt elliptischer Verteilungen E.4 Kovarianz und elliptische Verteilungen im Risikomanagement Alternative Abhängigkeitsmaße Komonotonie Fundamentale Copulas Die Schranken von Fréchet Rangkorrelation Tail Abhängigkeit Definition der Tail Abhängigkeit Tail-Abhängigkeitskoeffizienten für Beispiel-Copulas Konkordanz Irrtümer bzgl. Korrelation und Abhängigkeit Irrtum Irrtum Irrtum Fazit 26 Literaturverzeichnis 27

3 1 Einleitung Diese Ausarbeitung thematisiert die Modellierung von Abhängigkeiten in Anlehnung an die Arbeit Correlation And Depedency In Risk Management: Properties And Pitfalls von Embrechts, McNeil und Straumann. Die Modellierung von Abhängigkeiten zwischen Zufallsvariablen gehört zu den grundlegenden Aufgabenstellungen in wirtschaftsmathematischen Anwendungsbereichen. Mathematische Modelle finden dabei heutzutage nicht nur in der Finanz- und Versicherungsbranche Anwendung. Sie gewinnen auch in Industrie-Unternehmen mit integriertem Risikomanagement immer größere Bedeutung, da Risiken durch Zufallsvariablen beschrieben werden können und mithilfe von Abhängigkeitsmaßen das Zusammenspiel verschiedener solcher Risiken modelliert werden kann. Typischerweise wird zur Modellierung von Abhängigkeiten das Maß der linearen Korrelation herangezogen. Im Verlauf dieser Arbeit wird sich zeigen, dass mit der Verwendung der linearen Korrelation zur Beschreibung von Abhängigkeiten durchaus einige Vorteile einhergehen. Besonders im Hinblick auf bestimmte Verteilungsklassen erweist sie sich als sehr geeignet. Wie diese Ausarbeitung jedoch auch aufzeigt, ist bei der Verwendung der linearen Korrelation Vorsicht geboten. Es werden verschiedene Nachteile dieses Abhängigkeitsmaßes aufgezeigt, welche deutlich machen, dass andere Arten solcher Maße für bestimmte Anwendungsgebiete sinnvoller sein können. Einige alternative Abhängigkeitsmaße lassen sich mit Kenntnissen über sogenannte Copulas herleiten, weshalb in Kapitel 2 zunächst die Grundlagen dieses Themas angeführt werden. In dieser Ausarbeitung werden speziell vier solcher alternativer Maße vorgestellt; es handelt sich um: Komonotonie Rangkorrelation Tail Abhängigkeit Konkordanz Abschließend werden drei klassische Irrtümer bezüglich linearer Korrelation und der Abhängigkeit zwischen Zufallsvariablen präsentiert, die in der Arbeit von Embrechts, McNeil und Straumann zum Ausdruck kommen. 1

4 2 Copula Zu Beginn dieser Ausarbeitung sollen zunächst einmal wichtige Grundlagen geschaffen werden, die für das Verständnis der späteren Ausführungen von großer Bedeutung sind. Verschiedenste Maße zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen lassen sich mithilfe von Copulas formulieren. Aus diesem Grund werden die wichtigsten Aspekte der Copulas in diesem Abschnitt angeführt. 2.1 Definition der Copula Gegeben seien n Zufallsvariablen X 1,..., X n. Die Abhängigkeit zwischen diesen Zufallsvariablen wird bekanntermaßen vollständig durch ihre gemeinsame Verteilungsfunktion F beschrieben. 1 F (x 1,..., x n ) = P (X 1 x 1,..., X n x n ) Geht man beispielsweise davon aus, dass mit den Zufallsvariablen X 1, X 2 zwei Risiken modelliert werden sollen, so lässt sich mithilfe der gemeinsamen Verteilungsfunktion F z.b. die wichtige Frage klären, wie hoch die Wahrscheinlichkeit ist, gleichzeitig sowohl beim Risiko X 1 einen Verlust von höchstens x 1 als auch beim Risiko X 2 einen Verlust von höchstens x 2 zu erleiden. 2 Die grundsätzliche Idee ist es also, die Modellierung der Abhängigkeit zwischen Zufallsvariablen in geeigneter Weise auf die gemeinsame Verteilungsfunktion zurückzuführen. Dafür wird zunächst der folgende Satz benötigt. Satz Sei X eine Zufallsvariable mit zugehöriger Verteilungsfunktion F. Sei weiterhin F 1 die Quantilfunktion zu F, also wobei α (0, 1). Dann gilt F 1 (α) = inf {x F (x) α}, 1. Für jede standard-gleichverteilte Zufallsvariable U U(0, 1) ist F 1 (U) F. 2. Wenn F stetig ist, so ist die Zufallsvariable F (X) standard-gleichverteilt, also F (X) U(0, 1). Unter der Voraussetzung, dass die X 1,..., X n stetige Randverteilungsfunktionen F 1,..., F n besitzen, kann man den Vektor X = (X 1,..., X n ) mithilfe des Punktes zwei aus dem obigen Satz derart transformieren, dass jede Komponente eine standard-gleichverteilte Randverteilung besitzt. Benötigt wird hierfür eine Transformation T : R n R n, die das Tupel (x 1,..., x n ) abbildet auf (F 1 (x 1 ),..., F n (x n )). Dann gilt: F (x 1,..., x n ) = P (F 1 (X 1 ) F 1 (x 1 ),..., F n (X n ) F n (x n )) = C(F 1 (x 1 ),..., F n (x n )). Dabei stellt C die gemeinsame Verteilungsfunktion des transformierten Vektors (F 1 (X 1 ),..., F n (X n )) dar. Man nennt C die Copula des Zufallsvektors (X 1,..., X n ). 4 1 Vgl. [2] S. 4 2 [1] S Vgl. [2] S. 4 4 Vgl. [2] S. 4 2

5 Definition Eine n-dimensionale Copula ist eine Verteilungsfunktion eines Zufallsvektors X R n, deren Randverteilungen alle (0,1)-gleichverteilt sind. Bemerkung 2.1. Äquivalent zur obigen Definition kann eine Copula definiert werden als Funktion C : [0, 1] n [0, 1] mit drei Eigenschaften: 1. C(x 1,..., x n ) ist monoton steigend in jeder Komponente x i. 2. C(1,..., 1, x i, 1,..., 1) = x i i {1,..., n}, x i [0, 1]. 3. Für alle (a 1,..., a n ), (b 1,..., b n ) [0, 1] n, mit a i b i gilt: 2 i 1 = i n=1 mit x j1 = a j und x j2 = b j j {1,..., n}. Diese Summe kann interpretiert werden als: ( 1) i i n C(x 1i1,..., x nin ) 0, P (a 1 X 1 b 1,..., a n X n b n ) 0. Es kann also festgehalten werden, dass die Idee bei Verwendung einer Copula ist, die gemeinsame Verteilungsfunktion F, welche die Abhängigkeitsstrutktur vollständig wiederspiegelt, in zwei Komponenten aufzuteilen. Die Copula ermöglicht eine sehr flexible Modellierung da hier die Verteilung der einzelnen Zufallsvariablen über die eindimensionalen Randverteilungen festgelegt werden kann, während der Copula einzig die Rolle zukommt, die Abhängigkeit zwischen den Zufallsvariablen zu definieren. 2.2 Der Satz von Sklar Der Satz von Sklar ist der wohl bedeutendste Satz in Bezug auf Copulas. Seine Bedeutung für die Abhängigkeitsmodellierung mittels Copulas soll in diesem Abschnitt verdeutlicht werden. Satz Sei F eine multivariate Verteilungsfunktion mit Randverteilungsfunktionen F 1,..., F n. So existiert eine Copula C : [0, 1] n [0, 1], sodass für alle x 1,..., x n R gilt F (x 1,..., x n ) = C(F 1 (x 1 ),..., F n (x n )). Die Herleitung hierfür wurde bereits in Abschnitt 2.1 erläutert. Falls F 1,..., F n stetig sind, so ist die Copula C sogar eindeutig bestimmt. 2. Seien nun umgekehrt eine Copula C sowie die eindimensionalen Verteilungsfunktionen F 1,..., F n gegeben, dann ist die durch F (x 1,..., x n ) = C(F 1 (x 1 ),..., F n (x n )). definierte Verteilungsfunktion eine multivariate Verteilung mit den vorgegebenen Randverteilungen F 1,..., F n. Im Folgenden sollen die beiden zentralen Aussagen dieses Satzes erläutert werden. 7 5 Vgl. [2] S. 4 6 Vgl. [1] S Vgl. [1] S

6 Der erste Teil des Satzes gibt an, dass es möglich ist eine beliebige multivariate Verteilung in ihre Randverteilungen einerseits und in eine Copula andererseits aufzuteilen. eindimensionale Randverteilungen F 1,,F n multivariate Verteilungsfunktion F Copula C Abbildung 2.1: Visualisierung des Satzes von Sklar (1.) Der Satz von Sklar gibt jedoch lediglich an, dass die oben dargestellte Überführung möglich ist. Wie dies umgesetzt werden kann, wird hingegen nicht deutlich. Es ist jedoch klar, dass bei gegebener multivariater Verteilungsfunktionen die eindimensionalen Randverteilungen bestimmt werden können. Um bei bekannter multivariater Verteilung F, sowie der Randverteilungen F 1,..., F n zu einer Copula C zu gelangen, sind folgende Überlegungen möglich. Sind nämlich Zufallsvariablen X 1,..., X n mit zugehörigen Verteilungsfunktionen F 1,..., F n gegeben und sei u i = P (X i x i ) = F i (x i ) und daher u i [0, 1] für alle i {1,..., n}, so folgt: C(u 1,..., u n ) = F (F 1 1 (u 1 ),..., F 1 n (u n )). Der zweite Teil des Satzes stellt quasi eine Umkehrung des ersten Teiles dar. Hier bietet der Satz von Sklar eine Möglichkeit, aus n gegebenen einzelnen Verteilungen und einer Copula eine gemeinsame Verteilungsfunktion zu konstruieren. 8 Dies kann einfach umgesetzt werden, indem man die einzelnen Verteilungsfunktionen F 1,..., F n in die gegebene Copula C einsetzt. Die dadurch erhaltene Funktion F ist dann eine gemeinsame Verteilungsfunktion, die tatsächlich die F 1,..., F n als Randverteilungen besitzt. eindimensionale Randverteilungen F 1,,F n multivariate Verteilungsfunktion F Copula C Abbildung 2.2: Visualisierung des Satzes von Sklar (2.) Aus Sicht des Risikomanagements ist die Aussage 2. einer der Hauptgründe, die für den Einsatz von Copulas sprechen, denn sie gestattet es, die Modellierung des gemeinsamen Risikos [modelliert durch Zufallsvariablen] in zwei getrennte Schritte aufzuteilen: Modellierung der Einzelrisiken, d.h. der Verteilungen F 1,..., F n Wahl eines geeigneten Copula-Modells C, das alle Informationen über die Abhängigkeiten zwischen den Einzelrisiken enthält. 9 8 Vgl. [1] S [1] S

7 Fasst man dabei die Risiken mithilfe von Copulas zusammen, geht keinerlei Information über die Einzelrisiken verloren, da die Einzelverteilungen gemäß Satz 2.2 als Randverteilungen erhalten bleiben Invarianz unter streng monoton steigenden Transformationen Copulas besitzen eine Eigenschaft, die für praktische Anwendungen sehr nützlich ist. Die Abhängigkeitsstruktur, welche durch eine Copula ausgedrückt wird, ist invariant unter streng monoton steigenden, stetigen Transformationen T : R R der Randverteilungen. 11 Satz Sei C die Copula zu (X 1,..., X n ). Dann ist C für alle streng monoton steigenden, stetigen Transformationen T 1,..., T n ebenfalls die Copula zu (T 1 (X 1 ),..., T n (X n )). Bemerkung Falls sämtliche Randverteilungen von X stetig sind, kann im obigen Satz auf die Stetigkeit der Transformationen verzichtet werden. Diese Eigenschaft der Copulas bietet - besonders im Hinblick auf die Modellierung von Risiken - enorme Vorteile. Hat man z.b. die Abhängigkeit von Verlusten mehrerer Einzelrisiken mittels einer Copula modelliert und verwendet dabei absolute Euro-Beträge, so kann bei dem Übergang zu einem Modell in Dollar-Beträgen weiterhin dieselbe Copula verwendet werden. Die Randverteilungen, die die Verteilungen der Einzelrisiken modellieren, müssen hingegen in der Regel an die neuen Skalen angepasst werden Beispiele für Copulas In diesem Abschnitt sollen zwei klassische Beispiele für häufig verwendete Copulas vorgestellt werden. 15 Zur Vereinfachung werden dabei ausschließlich zweidimensionale Copulas betrachtet. 16 Sind also zwei Zufallsvariablen X und Y mit zugehörigen Verteilungsfunktionen F 1 und F 2 gegeben. Sei u 1 = P (X x) = F 1 (x) und u 2 = P (Y y) = F 2 (y), also u 1, u 2 [0, 1]. Wie in Abschnitt 2.2 gezeigt wurde gilt dementsprechend: C(u 1, u 2 ) = F (F 1 1 (u 1 ), F 1 2 (u 2 )) Die Gauß-Copula Bei der Gauß-Copula sind die Randverteilungen F 1 und F 2 als univariate Normalverteilungen vorgegeben. Die gemeinsame Verteilung F, stellt hier die bivariate Normalverteilung dar. Definition 2.2. Sei Φ ρ die Verteilungsfunktion der bivariaten Normalverteilung N 2 (0, Ψ), wobei ( ) 1 ρ Ψ = ρ 1 10 Vgl. [1] S Vgl. [2] S Vgl. [2] S Vgl. [2] S Vgl. [2] S Für weitere Beispiele verweisen wir auf [1]. 16 Vgl. [1] S

8 die Korrelationsmatrix mit Korrelationskoeffizienten ρ = ρ(x, Y ) = Cov(X,Y ) Var(X) Var(Y ) darstellt. Es bezeichne weiterhin Φ die Verteilungsfunktion der univariaten Normalverteilung. Dann ergibt sich die Gauß-Copula gemäß (*) als: Dies lässt sich formulieren als: C Ga ρ (u 1, u 2 ) = Φ 1 (u 1 ) C Ga ρ (u 1, u 2 ) = Φ ρ (Φ 1 (u 1 ), Φ 1 (u 2 )). Φ 1 (u 2 ) ( ) 1 exp (s 2 1 2ρs 1 s 2 +s 2 2 ) ds 2π 1 ρ 2 2(1 ρ 2 ) 1 ds 2. Die Darstellung der Gauß-Copula in einer geschlossenen Form ist also nicht möglich. Zur Berechnung bedarf es daher Methoden der numerischen Integration. Sind anders herum die Gauß-Copula sowie zwei normalverteilte Risiken X und Y mit den Verteilungsfunktionen F 1 und F 2 und Korrelationskoeffizient ρ gegeben, so ergibt sich: F (x, y) = Cρ Ga (F 1 (x), F 2 (y)). Dabei stellt F nun die multivariate Normalverteilung dar. Das heißt, die Gauß-Copula ist genau diejenige Copula, die mehrere univariate Normalverteilungen zu einer multivariaten Normalverteilung zusammenführt. 17 Das heißt: Φ ρ (x, y) = Cρ Ga (Φ(x), Φ(y)) Die Gumbel-Copula Ein weiteres oft verwendetes Beispiel für eine Copula ist die sogenannte Gumbel-Copula. Definition Für einen Parameter Θ (0, 1] ist die Gumbel-Copula definiert durch: ( ( ) ) CΘ Gu(u 1, u 2 ) = exp ( log u 1 ) 1 Θ + ( log u 2 ) 1 Θ Θ ). Im Gegensatz zu der im vorigen Abschnitt vorgestellten Gauß-Copula existiert für die Gumbel- Copula also eine explizite Darstellungsweise, welche die Berechnung ohne Einsatz aufwändiger numerischer Integrationsmethoden ermöglicht. Wird die Abhängigkeit zwischen Zufallsvariablen mittels der Gumbel-Copula modelliert, ist es mithilfe des Parameters Θ möglich, sämtliche positiven Abhängigkeitsstrutkturen zwischen Unabhängigkeit (Θ = 1) und perfekter Abhängigkeit (Θ 0) abzudecken. 17 [1] S Vgl. [2] S. 5 6

9 3 Konzepte der Abhängigkeitsmodellierung In diesem Hauptkapitel werden verschiedene Konzepte der Abhängigkeitsmodellierung zwischen Zufallsvariablen vorgestellt. Dabei werden für jedes Maß zunächst die nötigen Definitionen sowie wichtige Eigenschaften angeführt, um anschließend wesentliche Unterschiede zwischen den verschiedenen Abhängigkeitsmaßen sowie deren jeweilige Vor- und Nachteile deutlich zu machen. 3.1 Lineare Korrelation Das wohl am häufigsten verwendete Maß zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen stellt die Korrelation dar. Die Idee dieses Maßes ist es, die Stärke des linearen Zusammenhangs zwischen zwei Zufallsvariablen in Form einer Maßzahl - dem Korrelationskoeffizienten - auszudrücken Definition der linearen Korrelation Definition 3.1. Der Pearsonsche bzw. lineare Korrelationskoeffizient zweier Zufallsvariablen X und Y (mit 0 < Var(X) < und 0 < Var(Y ) < ), ist definiert als: ρ(x, Y ) = Cov(X, Y ) Var(X) Var(Y ) Die Korrelation ist also die durch das Produkt der Standardabweichungen normierte Kovarianz; es gilt stets ρ(x, Y ) [ 1, 1]. 19 In Abhängigkeit des Korrelationskoeffizienten werden drei spezielle Fälle unterschieden: Ist ρ(x, Y ) = 0, so spricht man von unkorrelierten Zufallsvariablen. Es besteht also kein linearer Zusammenhang zwischen X und Y. Im Fall ρ(x, Y ) = +1 handelt es sich um perfekte lineare Abhängigkeit im positiven Sinn. Gilt hingegen ρ(x, Y ) = 1, so liegt perfekte lineare Abhängigkeit im negativen Sinn vor. Bemerkung 3.1. Um von dem Fall zweier Zufallsvariablen X und Y auf den allgemeineren Fall von n Zufallsvariablen X = (X 1,..., X n ) überzugehen, werden zwei Matrizen eingeführt. Die Kovarianzmatrix Cov(X) bzw. die Korrelationsmatrix ρ(x) enthält an Position (i, j) den Eintrag Cov(X i, X j ) bzw. ρ(x i, X j ) Vor- und Nachteile der linearen Korrelation Die Tatsache, dass die lineare Korrelation derart häufig als Abhängigkeitsmaß eingesetzt wird, hat mehrere Gründe. 20 Zunächst einmal kann festgehalten werden, dass der Korrelationskoeffizient in der Regel sehr einfach zu bestimmen ist, da die Berechnung der zweiten Momente für viele bivariate Verteilungen sehr einfach ist. Dahingegen ist die Bestimmung vieler der im weiteren Verlauf der Ausarbeitung vorgestellten Maße komplizierter. 19 [1] S Vgl. [2] S. 7 7

10 Zudem kann die Bestimmung der Korrelation von linear transformierten Zufallsvariablen sehr elegant erfolgen, wie folgende Ausführungen zeigen. 21 Seien a, c R \ {0} und b, d R. Dann ist Cov(aX + b, cy + d) = ac Cov(X, Y ) und daher ρ(ax + b, cy + d) = a a c c ρ(x, Y ) Das bedeutet insbesondere, dass die Korrelation invariant unter positiven affinen Transformationen ist, da im Falle a, c > 0 gilt: ρ(ax + b, cy + d) = ρ(x, Y ). Ein weiterer Grund für die Beliebtheit der Korrelation ist, dass für multivariate sphärische und elliptische Verteilungen die gesamte Abhängigkeitsstruktur zweier Zufallsvariablen vollständig durch die Korrelation beschrieben werden kann. 22 Insbesondere gilt für eine elliptisch verteilte Zufallsvariable X also, dass sie endliche Varianz besitzt - also V ar(x) < - sodass der lineare Korrelationskoeffizient für elliptische Verteilungen wohldefiniert ist. Zu dieser Klasse von Verteilungen zählt unter anderem die multivariate Normalverteilung, die aufgrund ihrer vielseitigen Anwendungsbereiche den Einsatz des Korrelationskoeffizienten als Abhängigkeitsmaß oftmals sehr sinnvoll macht. Wie man zu dieser zentralen Aussage gelangt wird in dem nachfolgenden Exkurs verdeutlicht. Jedoch gehen mit der Verwendung der Korrelation als Abhängigkeitsmaß auch einige Probleme und Irrtümer einher. 23 Besitzt eine Zufallsvariable X eine Verteilung, bei der die Varianz nicht endlich ist, wie es z.b. bei den heavy-tailed Verteilungen der Fall ist, so ist der Korrelationskoeffizient nicht definiert. Diese Eigenschaft schränkt die Anwendbarkeit der Korrelation als Abhängigkeitsmaß ein und verursacht beispielsweise dann Probleme, wenn Verteilungen mit hohen Wahrscheinlichkeiten für extreme Ereignisse vorliegen. Ein großer Nachteil der Korrelation ist, dass diese lediglich den linearen Zusammenhang zwischen Zufallsvariablen misst, sodass nichtlineare Abhängigkeiten nicht erkannt werden. Dies hat zur Folge, dass ρ(x, Y ) = 0 nicht unbedingt bedeutet, dass die beiden Zufallsvariablen X und Y unabhängig sind, jedoch kann ein linearer Zusammenhang ausgeschlossen werden. Sind X und Y hingegen unabhängig, so besteht überhaupt kein Zusammenhang zwischen diesen beiden Zufallsvariablen, also auch kein linearer. Es ist klar, dass dann stets ρ(x, Y ) = 0 gilt. Der einzige Fall, in dem Unkorreliertheit mit Unabhängigkeit einhergeht ist, falls sowohl die gemeinsame Verteilung, als auch die Randverteilungen normalverteilt sind. Des Weiteren ist anzumerken, dass die Korrelation, wie oben gezeigt, zwar invariant unter positiven affinen Transformationen ist, jedoch nicht unter nichtlinearen streng monoton steigenden Transformationen T : R R. Das bedeutet, dass i.a. ρ(t (X), T (Y )) ρ(x, Y ) ist. In Kapitel 2.2 wurde bereits gezeigt, dass diese Eigenschaft für Copulas hingegen sehr wohl gilt. Die nachfolgende Abbildung 3.1 fasst das bedeutendste Problem in Bezug auf die Verwendung der Korrelation als Abhängigkeitsmaß zusammen. Obwohl sowohl dem linken, als auch dem rechten Plot die selben Randverteilungen und die gleiche Korrelation zugrunde liegen, ist deutlich zu erkennen, dass sich die Abhängigkeitsstrukturen unterscheiden. Dies bedeutet, dass es für zwei Zufallsvariablen X und Y, deren Verteilungen und Korrelationskoeffizient bekannt sind i.a., eine Vielzahl von Verteilungsmodellen gibt, die die geforderten Randverteilungen sowie die vorgegebene Korrelation erfüllen. 24 Unter Verwendung der Korrelation allein, kann also die Abhängigkeit zwischen Zufallsvariablen i.a. also nicht exakt beschrieben werden. 21 Vgl. [1] S Vgl. [1] S Vgl. [2] S. 7-8 und [1] S Vgl. [1] S

11 Abbildung 3.1: Realisationen zweier Zufallsvariablen mit identischer Randverteilung und gleicher Korrelation, aber unterschiedlicher Abhängigkeitsstruktur. 25 Exkurs: Sphärische und elliptische Verteilungen Wie in Abschnitt bereits angesprochen, ist es für den Spezialfall sphärisch bzw. elliptisch verteilter Zufallsvariablen möglich, die komplette Abhängigkeitsstruktur mittels der linearen Korrelation auszudrücken. Um deutlich zu machen, warum die Korrelation für diese Verteilungen ein sinnvolles Maß zur Modellierung von Abhängigkeiten zwischen Zufallsvariablen bietet, ist es erforderlich diese näher zu betrachten. E.1 Sphärische Verteilungen Sphärische Verteilungen stellen eine Erweiterung der multivariaten Normalverteilung N n (0, I) dar. Sie bilden also eine Klasse symmetrischer Verteilungen für unkorrelierte Zufallsvariablen (Kovarianzmatrix entspricht Einheitsmatrix) mit Mittelwert null. 26 Definition Ein Zufallsvektor X = (X 1,..., X n ) hat eine sphärische Verteilung, wenn für jede orthogonale Matrix U R n n (also U U = UU = I n n ) die folgende Gleichung erfüllt ist. UX d = X 2 Bemerkung 3.2. A d = B bedeutet dabei A besitzt dieselbe Verteilung wie B. Definition Für alle t R n ist die charakteristische Funktion ψ : R n C einer n- dimensionalen Zufallsvariablen X definiert als: ψ X (t) = E(exp(it X)) Die charakteristische Funktion sphärischer Verteilungen nimmt eine sehr einfache Form an, denn 25 Quelle: [3] S Vgl. [2] S Vgl. [2] S Vgl. [2] S. 8 9

12 es existiert eine Funktion γ : R + 0 R+ 0, sodass ψ(t) = γ(t t) = γ(t t2 n). Die Funktion γ wird auch als charakteristischer Generator der sphärischen Verteilung bezeichnet. 29 Man schreibt daher auch: X S n (γ). Bemerkung Es gilt zu beachten, dass sphärische Verteilungen i.a. Verteilungen unkorrelierter - nicht jedoch unabhängigier - Zufallsvariablen darstellen. Die multivariate Normalverteilung ist die einzgie Verteilung unter den sphärischen Verteilungen, bei der die Zufallsvariablen auch unabhängig sind. X S n (γ) ist äquivalent zu X d = RU, wobei U auf der Einheitskugel S n 1 = {x R x x = 1} gleichverteilt ist und R 0 eine von U unabhängige Zufallsvariable darstellt. Sphärische Verteilungen können also interpretiert werden als n-dimensionale Gleichverteilungen auf Umgebungen mit verschiedenen Radien. E.2 Elliptische Verteilungen Elliptische Verteilungen stellen eine Erweiterung der multivariaten Normalverteilung N n (µ, ) dar. Mathematisch gesehen ergeben sich die elliptischen Verteilungen als affine Transformationen sphärischer Verteilungen im R n. 31 Sie bilden also eine Klasse symmetrischer Verteilungen mit Mittelwert µ und Kovarianzmatrix. Definition Sei eine affine Transformation T : R n R n, x Ax + µ, A R n n, µ R n gegeben. Ein Zufallsvektor X R n hat eine elliptische Verteilung, falls X = T (Y ), wobei Y S n (γ). Die charakteristische Funktion ist gegeben als: ψ(t) = E(exp(it X)) = E(exp(it (AY + µ)) = exp(it µ)exp(i(a t) Y ) = exp(it µ)γ(t t), mit = AA. Dass ein Zufallsvektor X eine elliptische Verteilung besitzt, wird folgendermaßen ausgedrückt: Bemerkung X E n (µ,, γ). Die Kenntnis über die Verteilung von X bestimmt lediglich den Parameter µ in eindeutiger Weise. und γ sind hingegen lediglich bis auf eine positive Konstante bestimmt. Es ist möglich so zu wählen, dass sie die Kovarianzmatrix von X darstellt. Sei dazu X E n (µ,, γ), sodass X = d AY + µ, mit = AA und Y S n (γ). Laut Bemerkung 2.3 gilt daher Y = d RU, wobei U auf der Einheitskugel S n 1 gleichverteilt ist und R 0 eine von U unabhängige Zufallsvariable darstellt. Falls E(R 2 ) <, so ist: 29 Vgl. [2] S Vgl. [2] S Vgl. [2] S Vgl. [2] S Vgl. [2] S. 9 10

13 E(X) = µ Cov(X) = AA E(R 2 ) n = E(R 2 ) n gewährleistet man Cov(X) =., da Cov(U) = I n n n. Durch Wahl von γ = γ( u n/e(r 2 ) ) Das bedeutet, dass eine elliptische Verteilung eindeutig definiert wird durch Kenntnis des Mittelwerts, der Kovarianzmatrix und des charakteristischen Generators. Dies heißt insbesondere, dass die Varianz einer elliptisch verteilten Zufallsvariable X endlich ist. Aus diesem Grund ist der lineare Korrelationskoeffizient für elliptische Verteilungen wohldefiniert. E.3 Korrelation und Kovarianz als natürliche Abhängigkeitsmaße in der Welt elliptischer Verteilungen In diesem Abschnitt werden einige Gründe angeführt, die deutlich machen, dass die Korrelation und die Kovarianz in gewisser Hinsicht natürliche Abhängigkeitsmaße in der Welt elliptischer Verteilungen sind. 34 Eine sehr nützliche Eigenschaft der elliptischen Verteilungen ist, dass bei Kenntnis des Mittelwerts, der Kovarianzmatrix und des charakteristischen Generators einer elliptisch verteilten Zufallsvariablen X die entsprechenden Parameter für Linearkombinationen, die Randverteilungen und bedingte Verteilungen von X leicht zu bestimmen sind. Die folgenden Eigenschaften fassen dies zusammen: 35 Jede Linearkombination eines elliptisch verteilten Zufallsvektors ist selbst wieder elliptisch verteilt und besitzt dabei sogar den selben charakteristischen Generator. Sei dafür X E n (µ,, γ), B R m n und b R m, so ist BX + b E m (Bµ + b, B B, γ). Die X 1,..., X n sind alle symmetrisch verteilte Zufallsvariablen des selben Typs. Letzteres bedeutet X i d = axj + b mit a > 0 und b R. Die Randverteilungen elliptischer Verteilungen sind ebenfalls ( ) elliptisch und auch sie besitzen X1 den selben charakteristischen Generator. Sei also X = E X n (µ,, γ), mit X 1 R p 2 ( ) und X 2 R q µ1, wobei p + q = n ist. Sei weiterhin E(X) = µ =, mit µ µ 1 R p und 2 µ 2 R q und ( ) = Dann ist X 1 E p (µ 1, 11, γ) sowie X 2 E q (µ 2, 22, γ) Sei die Kovarianzmatrix als positiv definit vorausgesetzt. Dann ist die bedingte Verteilung X 1 unter X 2 auch elliptisch verteilt - im Gegensatz zu den beiden oberen Punkten allerdings i.a. mit einem anderen charakteristischen Generator: X 1 X 2 E p (µ 1.2, 11.2, γ). Dabei ist µ 1.2 = µ (X 2 µ 2 ) und 11.2 = Lediglich für den Spezialfall der multivariaten Normalverteilung, bei der Unkorreliertheit der Unabhängigkeit entspricht, bleibt der Generator auch hier gleich. Da sämtliche Randverteilungen vom selben Typ sind, wird eine elliptische Verteilung in eindeutiger Weise durch den Mittelwert, die Kovarianzmatrix sowie die Kenntnis über den Verteilungstyp bestimmt. Oder anders ausgedrückt: die gesamte Abhängigkeitsstruktur einer stetigen, elliptischen Verteilung ist eindeutig festgelegt durch die Korrelationsmatrix und den Verteilungstypen. 36 Das bedeutet, dass für stetige und elliptisch verteilte Zufallsvariablen jegliche Form von Abhängigkeit zwischen diesen Zufallsvariablen komplett über die Korrelation beschrieben werden kann. Diese 34 Vgl. [2] S Vgl. [2] S Vgl. [2] S

14 zentrale Folgerung macht die besondere Stellung der Korrelation in der Welt der elliptischen Verteilungen deutlich - sie stellt hier das ideale Abhängigkeitsmaß dar. E.4 Kovarianz und elliptische Verteilungen im Risikomanagement Ein weiterer bedeutender Aspekt elliptischer Verteilungen ist, dass diese die Umsetzung vieler mathematischer Standard-Modelle zulassen. Neben dem Einsatz in der Finanzmathematik macht man sich diese Eigenschaft auch im Bereich des Risikomanagements zu nutzen, da elliptische Verteilungen den Einsatz des Value-at-Risk als Risikomaß ebenso unterstützen, wie beispielsweise die Portfoliooptimierung nach Markowitz. 37 Um zu veranschaulichen warum die Verwendung des Value-at-Risk in der Welt elliptischer Verteilungen sehr sinnvoll ist, betrachten wir im Folgenden einen elliptisch verteilten Zufallsvektor X = (X 1,..., X n ), wobei X i für ein Risiko i steht. Es ist nun möglich eine Menge linearer Portfolios Z aus diesen Risiken zusammenzustellen: {Z = n λ i X i λ i R}. i=1 Die Verteilungsfunktion von Portfolio Z ist gegeben durch F Z und der Value-at-Risk dieses Portfolios lässt sich zu vorgegebener Wahrscheinlichkeit α bekanntermaßen berechnen als: V ar α (Z) = F 1 Z (α) = inf{z R F Z(z) α}. Für die weiteren Überlegungen sind zunächst zwei Definitionen nötig. Definition Ein Risikomaß ist eine Funktion ζ mit: X ζ(x). Das heißt ein Risikomaß ordnet jedem Risiko X eine reelle Zahl zu. Definition Ein kohärentes Risikomaß ζ (nach Artzner, Delbaen, Eber und Heath) ist ein Risikomaß mit folgenden Eigenschaften: 1. Positivität: Für jede positive Zufallsvariable X 0 gilt: ζ(x) 0. Einem Risiko, welches niemals zu Gewinnen führt, wird immer ein nichtnegativer Wert zugeordnet. 2. Subadditivität: Für zwei Zufallsvariablen X und Y gilt: ζ(x + Y ) ζ(x) + ζ(y ). Fasst man zwei Risiken zu einem Portfolio aus ebendiesen Risiken zusammen, so entsteht niemals zusätzliches Risiko. Durch den Diversifikationseffekt vermindert sich das Risiko des Portfolios potentiell. 3. Positive Homogenität: Für jedes λ 0 ist: ζ(λx) = λζ(x). Ist ein Verlust λ-mal so groß wie ein anderer Verlust, so wird das Risiko auch λ-mal so stark bewertet. 37 Vgl. [2] S Vgl. [1] S Vgl. [2] S

15 4. Translationsinvarianz: Für jedes a R gilt: ζ(x + a) = ζ(x) + a. Erhöht (bzw. vermindert) sich der Verlust um einen konstanten Faktor a, so erhöht (bzw. vermindert) sich der Risikowert um denselben Wert. Es ist sofort ersichtlich, dass die Eigenschaften kohärenter Risikomaße sehr wünschenswert sind, da sie ein Risikomaß sehr realitätsnah werden lassen. Nun ist es so, dass der Value-at-Risk i.a. kein kohärentes Risikomaß darstellt, da er die Subadditivitätsbedingung nicht erfüllt. Für elliptische Verteilungen ist jedoch auch diese Eigenschaft erfüllt (denn: X und Y elliptisch X + Y elliptsch) und der VaR bildet tatsächlich ein kohärentes Risikomaß mit den wünschenswerten Eigenschaften aus Definition Der Beweis hierfür kann [2] entnommen werden. Es ist klar, dass man nur dann einen möglichst genauen und realistischen Wert für den Value-at-Risk erhält, wenn man in der Lage ist die Abhängigkeiten der Realität auch im Modell möglichst genau zu beschreiben. Dies ist - wie gezeigt wurde - mit dem linearen Korrelationskoeffizienten als Abhängigkeitsmaß jedoch nur für elliptische Verteilungen gegeben. Die Verwendung des Value-at-Risk als Risikomaß für das oben definierte Portfolio Z ist in der Welt elliptisch verteilter Risiken also äußerst sinnvoll. 41 Zur Abhängigkeitsmodellierung nicht-elliptischer Verteilungen sollte der lineare Korrelationskoeffizient jedoch nicht verwendet werden. 40 Vgl. [1] S Vgl. [2] S

16 3.2 Alternative Abhängigkeitsmaße Im Abschnitt zur linearen Korrelation wurde deutlich, dass sich Abhängigkeiten zwischen elliptisch verteilten Zufallsvariablen in idealer Weise unter Verwendung des linearen Korrelationskoeffizienten beschreiben lassen. In diesem Fall ist es also (beispielsweise mit einer Monte-Carlo-Simulation) möglich den Value-at-Risk zuverlässig anhand der Randverteilungen und der Korrelation zu bestimmen. Im Allgemeinen hat man es aber nicht mit elliptisch verteilten Zufallsvariablen zu tun. Gesucht sind also weitere Maße, die es erlauben die tatsächliche Abhängigkeitstruktur zwischen Zufallsvariablen genauer zu beschreiben. Diese anderen Maße lassen sich in unterschiedlicher Art und Weise mithilfe von Copulas formulieren. Der Value-at-Risk kann dann ebenfalls mithilfe einer Monte- Carlo-Simulation bestimmt werden und zwar anhand der Randverteilungen und der zugehörigen Copula. Auswirkungen auf den Value-at-Risk Für den Value-at-Risk bedeutet das zunächst, dass dann auch Abhängigkeiten Beachtung finden, die durch den linearen Korrelationskoeffizienten nicht erfasst wurden. Die rein intuitive Folge daraus: Gegenüber einer Berechnung mit der linearen Korrelation verstärken sich positive Abhängigkeiten und negative Abhängigkeiten schwächen sich noch weiter ab. Der Value-at-Risk wird also bei positiven Abhängigkeiten größer, weil in dem Wert nun auch noch das Risiko beachtet wird, was der lineare Korrelationskoeffizient nicht erfasst hat. Das ist also durchaus wünschenswert, wenn man an einem möglichst realitätsnahen Modell interessiert ist um nicht von unerkannten Risiken überrascht zu werden. Im Folgenden werden einige solche alternative Abhängigkeitsmaße vorgestellt Komonotonie Zunächst wird mit der Komonotonie ein sehr allgemeines Maß für perfekte Abhängigkeit betrachtet. Definition 3.7. Zwei Risiken X und Y werden komonoton genannt, wenn es eine Zufallsvariable Z und zwei monoton steigende Funktionen f 1 und f 2 gibt, sodass X = f 1 (Z) und Y = f 2 (Z) gilt. Wenn f 1 eine monoton steigende Funktion ist und f 2 monoton fällt, so spricht man von kontramonotonen Zufallsvariablen. Konkret bedeutet dies, dass die Entwicklung der beiden Risiken komplett von einem einzigen gemeinsamen Faktor abhängt. Im Fall der Komonotonie können sich diese Risiken also niemals ausgleichen, so dass man dies als extremste Form der positiven Abhängigkeit bezeichnen kann. 42 Steigt hingegen das eine Risiko bei zwei kontramonotonen Risiken, so fällt das andere, so dass man hier von extremster negativer Abhängigkeit sprechen kann. Bemerkung 3.5. Sind X und Y komonotone Zufallsvariablen, dann gilt V ar α (X + Y ) = V ar α (X) + V ar α (Y ) Vgl. [1] S Vgl. [2] S

17 Fundamentale Copulas Komonotonie und Kontramonotonie lassen sich - zumindest im zweidimensionalen Fall - durch bestimmte Copulas modellieren. Zusammen mit der Unabhängigkeits-Copula bilden diese zwei Copulas die Gruppe der fundamentalen Copulas. Im Folgenden werden die fundamentalen zweidimensionalen Copulas vorgestellt. Definition 3.8. Die Komonotonie-Copula C o wird für alle (u 1, u 2 ) [0, 1] 2 definiert durch: C o (u 1, u 2 ) = min(u 1, u 2 ). Definition 3.9. Die Kontramonotonie-Copula C u wird für alle (u 1, u 2 ) [0, 1] 2 definiert durch: C u (u 1, u 2 ) = max(u 1 + u 2 1, 0). Die Richtigkeit der beiden Copulas garantiert uns der nachfolgende Satz, für dessen Beweis wir auf [2] verweisen. Satz Sei C u (bzw. C o ) eine zu dem Zufallsvektor (X 1, X 2 ) gehörige Copula. Dann existieren zwei monotone Funktionen f 1 und f 2 und eine Zufallsvariable Z, so dass (X 1, X 2 ) = (f 1 (Z), f 2 (Z)) mit f 1 steigend und f 2 fallend (bzw. f 1 und f 2 beide steigend). Wie man unschwer erkennt, entspricht dies genau unserer Definition von Komonotonie und Kontramonotonie. Die Copulas erzeugen also wirklich diese Abhängigkeitsstrukturen. Definition Die Unabhängigkeits-Copula C id wird für alle (u 1, u 2 ) [0, 1] 2 definiert durch: C id (u 1, u 2 ) = u 1 u 2. Für stochastisch unabhängige Zufallsvariablen X 1 und X 2 ist dies wirklich die richtige Copula, da nach dem Satz von Sklar C id (u 1, u 2 ) = C id (F 1 (x 1 ), F 2 (x 2 )) = F (x 1, x 2 ) gilt und außerdem für zwei unabhängige Zufallsvariabeln X 1 und X 2 bekanntermaßen gilt. F (x 1, x 2 ) = F 1 (x 1 ) F 2 (x 2 ) = u 1 u Die Schranken von Fréchet Mit Hilfe dieser drei Copulas lassen sich also die drei Extremfälle der Abhängigkeitsmodellierung (komplette negative Abhängigkeit, Unabhängigkeit und komplette positive Abhängigkeit) darstellen. Dadurch stehen sie zu vielen anderen Copulas in einer interessanten Beziehung. Als Beispiel hierfür sei die Beziehung zur Gumbel-Copula aus Abschnitt genannt, die gewissermaßen zwischen der Unabhängigkeitscopula C id und der Komonotonie-Copula C o interpoliert [2] S Vgl. [1] S

18 Eine wichtige weitere solche Beziehung liefern die Fréchet Schranken. Diese werden hier zunächst wieder allgemein (d.h. nicht nur für den zweidimensionalen Fall) definiert. Satz 3.2. Für jede n-dimensionale Copula C(u 1,..., u n ) gilt max{u u n + 1 n, 0} C(u 1,..., u n ) min{u 1,..., u n } Bemerkung 3.6. Im zweidimensionalen Fall gilt also genau C u C(u 1, u 2 ) C o, d.h. dass alle anderen Copulas zwischen der Kontramonotonie-Copula und der Komonotonie-Copula liegen. Für höhere Dimensionen sind die Schranken ähnlich zu interpretieren, jedoch ist die untere Schranke keine Copula mehr - die obere Schranke hingegen schon. 46 Zusammenfassend ist Komonotonie bzw. Kontramonotonie ein Abhängigkeitsmaß, das sehr viel allgemeiner definiert ist als z.b. die Korrelation und damit nicht nur lineare sondern jede Form von (perfekter) Abhängigkeit erkennt. Das Maß ist zudem kompatibel mit der Copula-Theorie, so dass es möglich ist die gemeinsame Verteilungsfunktion von zwei (oder mehreren) komonotonen Risiken mit bekannten Randverteilungen zu berechnen Rangkorrelation Ein weiteres Abhängigkeitsmaß ist die Rangkorrelation. Wie diese genau definiert ist und welche Vorteile sie gegenüber der linearen Korrelation bietet, soll in diesem Abschnitt kurz erläutert werden. Definition Seien X und Y Zufallsvariablen mit den Verteilungsfunktionen F 1 und F 2 und F ihre gemeinsame Verteilungsfunktion. Der Spearmansche Rangkorrelationskoeffizient von X und Y ergibt sich als ρ S (X, Y ) = ρ(f 1 (X), F 2 (Y )) wobei ρ den linearen Korrelationskoeffizienten bezeichnet. Neben dem Spearmanschen Rangkorrelationskoeffizienten existiert der Kendallsche Rangkorrelationskoeffizient. Beide haben - wie wir später sehen werden - ähnliche Eigenschaften. Definition Seien (X 1, Y 1 ) und (X 2, Y 2 ) zwei unabhängige Paare von Zufallsvariablen und F jeweils ihre gemeinsame Verteilungsfunktion. Der Kendallsche Rangkorrelationskoeffizient ergibt sich dann als ρ τ (X, Y ) = P [(X 1 X 2 )(Y 1 Y 2 ) > 0] P [(X 1 X 2 )(Y 1 Y 2 ) < 0]. Bemerkung 3.7. Wenn n > 2 Zufallsvariablen betrachtet werden sollen, werden die paarweisen Korrelationen - genau wie bei der linearen Korrelation - in eine n n-matrix geschrieben. Während die lineare Korrelation den Grad linearer Abhängigkeit zwischen Zufallsvariablen misst, sind sowohl der Kendallsche als auch der Spearmansche Rangkorrelationskoeffizient in der Lage, den Grad monotoner Abhängigkeiten zu messen. 46 Vgl. [3] S.20 16

19 Der folgende Satz liefert die wichtigsten Eigenschaften der Rangkorrelation und verdeutlicht die Unterschiede zur linearen Korrelation. Satz Seien X und Y Zufallsvariablen mit den Randverteilungen F 1 und F 2, gemeinsamer Verteilungsfunktion F und Copula C. Dann gilt: 1. ρ S (X, Y ) = ρ S (Y, X) und ρ τ (X, Y ) = ρ τ (Y, X) 2. X und Y unabhängig ρ S (X, Y ) = ρ τ (X, Y ) = ρ S (X, Y ), ρ τ (X, Y ) ρ S (X, Y ) = ρ τ (X, Y ) = (C(x, y) x y) dxdy 1 0 C(u, v) dc(u, v) 1 6. ρ S und ρ τ sind invariant unter streng monotonen Transformationen T : R R, d.h. { δ(x, Y ) falls T steigend δ(t (X), Y ) = δ {ρ S, ρ τ } δ(x, Y ) falls T fallend 7. ρ S (X, Y ) = ρ τ (X, Y ) = 1 C = C o 8. ρ S (X, Y ) = ρ τ (X, Y ) = 1 C = C u Die Punkte 1, 2 und 3 sind Eigenschaften, die wir bereits von dem linearen Korrelationskoeffizienten kennen. Interessant sind daher vor allen Dingen die übrigen Punkte, die allesamt wünschenswerte Eigenschaften an ein Abhängigkeitsmaß darstellen, welche der lineare Korrelationskoeffizient nicht erfüllen kann. Der größte Vorteil der Rangkorrelation gegenüber der linearen Korrelation ist, dass die beiden Rangkorrelationskoeffizienten ausschließlich von der zu den Zufallsvariablen gehörigen Copula abhängen (Eigenschaft 4 bzw. 5) und daher auch sie invariant unter streng monotonen Transformationen sind. Des Weiteren ermöglichen die Eigenschaften 7 und 8 eine elegante Messung perfekter Abhängigkeit. Der größte Nachteil ist, dass es sich im Gegensatz zur linearen Korrelation, die unmittelbar von der Varianz und der Kovarianz abhängt, bei den Rangkorrelationskoeffizienten nicht um eine momentbasierte Korrelation handelt Tail Abhängigkeit Eine Fragestellung, die im Risikomanagement von großer Bedeutung ist, beschäftigt sich damit, die Wahrscheinlichkeit für das gleichzeitige Eintreten mehrerer extremer Ereignisse anzugeben. Anders als bei den bisher vorgestellten Maßzahlen, bei denen das Ziel war die gesamte Abhängigkeit zwischen zwei Zufallsvariablen X und Y auszudrücken, geht es im Rahmen der Tail Abhängigkeit vielmehr darum Maßzahlen für die Abhängigkeit von extremen Ereignissen zu bestimmen. 48 Wie Abbildung 3.2 verdeutlicht, geht es also um die Frage, wie die Abhängigkeitsstruktur in den Randbereichen einer Verteilung in Form einer geeigneten Maßzahl formuliert werden kann. 47 [2] S Vgl. [1] S

20 Abbildung 3.2: Realisationen zweier Zufallsvariablen mit identischer Randverteilung und gleicher Korrelation, aber unterschiedlicher Abhängigkeitsstruktur. Die Tails sind anhand der Kreise zu erkennen Definition der Tail Abhängigkeit Seien im Folgenden also zwei Zufallsvariablen X und Y (die beispielsweise Risiken modellieren) sowie deren stetige Randverteilungen F 1 und F 2 gegeben. Man interessiert sich für die bedingte Wahrscheinlichkeit P (X a Y b), dass Risiko X höchstens zu einem Verlust von a führt, unter der Bedingung, dass Risiko Y höchstens einen Verlust von b erleidet. 50 Das kann bekanntlich folgendermaßen formuliert werden: P (X a Y b) = P (X a, Y b). P (Y b) Bei bekannter Copula C von X und Y ist es nach dem Satz von Sklar möglich, eine gemeinsame Verteilungsfunktion F zu finden, die F 1 und F 2 als Randverteilungen besitzt: P (X a Y b) = C(F 1(a), F 2 (b)). F 2 (b) O.B.d.A. treten die Ereignisse X a bzw. Y b mit derselben Wahrscheinlichkeit α ein d.h.: α = P (X a) = F 1 (a) und α = P (Y b) = F 2 (b). Aufgrund der Stetigkeit der Randverteilungen folgt damit: Es gilt also: a = F 1 1 (α) und b = F 1 2 (α). P (X a Y b) = C(F 1(F1 1 (α)), F 2 (F2 1 (α))) C(α, α) F 2 (F2 1 = (α)) α Wird nun der Grenzwert für α 0 gebildet (falls dieser existiert), so ergibt sich ergibt sich der untere Tail-Abhängigkeitskoeffizient als Grenzwert.. 49 Quelle: [3] S.4 50 Vgl. [1] S

21 Definition Seien X und Y zwei stetige Zufallsvariablen. Bei bekannter Copula C ergibt sich der untere Tail-Abhängigkeitskoeffizient als: wenn der Grenzwert existiert und λ L [0, 1] ist. C(α, α) λ L = lim, α 0 α Mit Hilfe des unteren Tail-Abhängigkeitskoeffizienten können nun Aussagen über die Wahrscheinlichkeit gemacht werden, dass Risiko X höchstens zu einem Verlust von a führt, unter der Bedingung, dass Risiko Y höchstens einen Verlust von b erleidet. Ist es hingegen das Ziel, Aussagen über die Wahrscheinlichkeit zu erhalten, dass das Risiko X einen sehr hohen Verlust erleidet (X > a) unter der Bedingung, dass auch Risiko Y einen hohen Verlust verursacht hat (Y > b), so wird der obere Tail-Abhängigkeitskoeffizient benötigt. Dieser kann sehr ähnlich hergeleitet werden. Jedoch wird zunächst einmal die Aussage des folgenden Satzes benötigt. Satz Seien zwei Zufallsvariablen X und Y gegeben. Dann gilt: P (X > a Y > b) = 1 P (X a) P (Y b) + P (X a, Y b). Damit folgt unmittelbar: P (X > a Y > b) = P (X > a, Y > b) P (Y > b) Äquivalent zu den obigen Ausführungen ist dann wieder: = 1 P (X a) P (Y b) + P (X a, Y b). 1 P (Y b) α = P (X a) = F 1 (a) und α = P (Y b) = F 2 (b). und aufgrund der Stetigkeit der Randverteilungen somit: Also in Copula-Schreibweise: a = F 1 1 (α) und b = F 1 2 (α). 1 P (X a) P (Y b) + P (X a, Y b) }{{}}{{}}{{} α α 1 P (Y b) }{{} α C(α,α) Wird der Grenzwert für α 1 gebildet (falls dieser existiert), so ergibt sich ergibt sich der obere Tail-Abhängigkeitskoeffizient als Grenzwert. Definition Seien X und Y zwei stetige Zufallsvariablen. Bei bekannter Copula C ergibt sich der obere Tail-Abhängigkeitskoeffizient als: falls der Grenzwert existiert und λ U [0, 1] ist. 1 2α + C(α, α) λ U = lim, α 1 1 α. 51 Vgl. [1] S Vgl. [1] S Vgl. [1] S

22 Bemerkung λ L = 0 bedeutet asymptotische Unabhängigkeit im unteren Tail. λ U = 0 bedeutet asymptotische Unabhängigkeit im oberen Tail. λ L (0, 1] weist auf Abhängigkeit im unteren Tail hin. λ U (0, 1] weist auf Abhängigkeit im oberen Tail hin. Je größer λ L (bzw. λ U ) ist, desto größer ist die Abhängigkeit im unteren (bzw. oberen) Tail. Bemerkung Die Tail Abhängigkeit hängt ausschließlich von der Copula ab. Die Invarianz unter streng monoton steigenden Transformationen überträgt sich daher, genau wie bei der Rangkorrelation, von der Copula auf die Tail Abhängigkeit. Die Abhängigkeiten in den Tails werden durch verschiedene Copulas in unterschiedlicher Art und Weise modelliert. So existieren beispielsweise Copulas, welche Abhängigkeit im unteren Tail besitzen und solche, die im unteren Tail asymptotische Unabhängigkeit modellieren. Bei der Wahl eines geeigneten Copula-Modells ist das Tail-Verhalten der entsprechenden Copula ein entscheidender Auswahlfaktor, insbesondere dann, wenn die Wahrscheinlichkeit für gemeinsam auftretende extreme Ereignisse relativ groß ist Tail-Abhängigkeitskoeffizienten für Beispiel-Copulas Wie in Bemerkung 3.9 beschrieben wurde, kann die Tail-Abhängigkeit für verschiedene Copulas sehr unterschiedlich ausfallen. In diesem Abschnitt sollen einige Tail-Abhängigkeitskoeffizienten beispielhaft dargestellt werden. 56 Die Unterschiede in der Modellierung der Tails bei den verschiedenen Copulas werden dadurch ersichtlich. Unabhängigkeits-Copula: Für die Unabhängigkeits-Copula gilt: λ L = 0 und λ U = 0. Dies ist nicht weiter verwunderlich, da es bedeutet, dass die Unabhängigkeits-Copula auch asymptotische Unabhängigkeit in den Tails modelliert. Komonotonie-Copula: Für die Komonotonie-Copula gilt: λ L = 1 und λ U = 1. Auch dies ist logisch, da es bedeutet, dass die Komonotonie-Copula auch asymptotisch totale Abhängigkeit erzeugt. Kontramonotonie-Copula: Für die Kontramonotonie-Copula gilt: λ L = 0 und λ U = 0. Sie modelliert also asymptotische Unabhängigkeit. 54 Vgl. [1] S Vgl. [4] S Vgl. [1] S. 281 und [2] S

23 Gauß-Copula: Ist der Korrelationskoeffizient ρ 1, so gilt für die Gauß-Copula: λ L = 0 und λ U = 0. Das bedeutet aber, dass selbst dann, wenn zwei Risiken durch die Gauß-Copula mit extrem starker Korrelation (aber ρ 1 ) gekoppelt sind, extreme Verluste nahezu unabhängig in den beiden Risiken eintreten. Insofern eignet sich die Gauß-Copula nicht zur Modellierung von Risiken, die eine Tail-Abhängigkeit besitzen. 57 Gumbel-Copula: Für die Gumbel-Copula mit Parameter Θ (0, 1] gilt: λ L = 0 und λ U = 2 2 Θ. Während im unteren Tail also asymptotische Unabhängigkeit vorliegt, liegt im oberen Tail für Θ < 1 asymptotische Abhängigkeit vor. Für Θ 0 strebt der obere Tail-Abhängigkeitskoeffizient gegen Konkordanz Die Konkordanz zeichnet sich durch eine etwas andere Sichtweise auf Abhängigkeiten zwischen Zufallsvariablen X und Y aus als es bei den bisher vorgestellten Maßen der Fall war. Hier geht es nicht darum die Stärke der Abhängigkeit festzustellen, sondern einzig und allein darum anzugeben ob die Abhängigkeit zwischen X und Y positiv oder negativ ist. Im Falle positiver Abhängigkeit spricht man von Konkordanz, bei negativer Abhängigkeit hingegen von Diskordanz. 58 Grundsätzlich stellt sich an dieser Stelle die Frage, wie eine positive (bzw. negative) Abhängigkeit überhaupt definiert werden kann. Aus den bisherigen Ausführungen dieser Arbeit könnte man sich vorstellen, dass beispielsweise positive Abhängigkeit genau dann vorliegt, wenn ρ(x, Y ) > 0 (oder ρ S (X, Y ) > 0 bzw. ρ τ (X, Y ) > 0) ist. In der Regel wird positive (bzw. negative) Abhängigkeit jedoch anders definiert. Zwei solcher Konzepte werden im Folgenden vorgestellt. 59 Definition Zwei Zufallsvariablen X und Y werden positiv quadrant abhängig (PQA) genannt, wenn für alle x, y R gilt: P (X x, Y y) P (X x) P (Y y). Bemerkung Positive quadrant Abhängigkeit ist ein geeignetes Konzept um positive Abhängigkeit zwischen Zufallsvariablen X und Y auszudrücken, da X und Y mit höherer Wahrscheinlichkeit beide große (bzw. kleine) Werte annehmen als im Falle der Unabhängigkeit zwischen X und Y. Wird die Ungleichung in Definition 3.15 umgekehrt, so spricht man von negativ quadrant abhängigen Zufallsvariablen. 57 [1] S Vgl. [2] S Vgl. [2] S Vgl. [2] S Vgl. [5] S

24 Definition Zwei Zufallsvariablen X und Y werden positiv assoziiert (PA) genannt, wenn für alle reellwertigen, messbaren Funktionen g 1 und g 2, die monoton steigend in beiden Komponenten sind und für die die nachfolgenden Erwartungswerte definiert sind, gilt: E(g 1 (X, Y ) g 2 (X, Y )) E(g 1 (X, Y )) E(g 2 (X, Y )). Bemerkung Die obige Definition für (PA) ist äquivalent zu: Cov(g 1 (X, Y ), g 2 (X, Y )) 0. Dies macht deutlich, dass auch die Positive Assoziation ein geeignetes Konzept darstellt, um positive Abhängigkeit zwischen Zufallsvariablen X und Y zu beschreiben. Wird die Ungleichung in Definition 3.16 umgekehrt, so spricht man von negativ assoziierten Zufallsvariablen. Bemerkung Sowohl (PQA), als auch (PA) sind, genau wie die Rangkorrelation und die Tail Abhängigkeit, invariant unter monoton steigenden Transformationen. (PQA) und (PA) sind stärkere Bedingungen an die Abhängigkeit zwischen Zufallsvariablen als die bereits bekannten Korrelationskoeffizienten. Dies wird auch durch die folgende Darstellung geschildert, die ebenfalls ausdrückt, dass Komonotonie die stärkste Form von Konkordanz bzw. positiver Abhängigkeit ist: Komonotonie (PA) (PQA) ρ(x, Y ) 0, ρ S (X, Y ) 0, ρ τ (X, Y ) 0 62 Vgl. [2] S Vgl. [5] S Vgl. [2] S

Quantitatives Risikomanagement

Quantitatives Risikomanagement Quantitatives Risikomanagement Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften und Irrtümer von Jan Hahne und Wolfgang Tischer -Korrelation und Abhängigkeit im Risikomanagement: Eigenschaften

Mehr

+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert:

+ 2 F2 (u) X 1 F1 (u)) Der Koeffizient der unteren Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: Tail Abhängigkeit Definition 12 Sei (X 1,X 2 ) T ein Zufallsvektor mit Randverteilungen F 1 und F 2. Der Koeffizient der oberen Tail-Abhängigkeit von (X 1,X 2 ) T wird folgendermaßen definiert: λ U (X

Mehr

Quantitative Risk Management

Quantitative Risk Management Quantitative Risk Management Copulas und Abhängigkeit Johannes Paschetag Mathematisches Institut der Universität zu Köln Wintersemester 2009/10 Betreuung: Prof. Schmidli, J. Eisenberg i Inhaltsverzeichnis

Mehr

Herzlich Willkommen zur letzten Vorlesung in. Statistik 2. vor Weihnachten

Herzlich Willkommen zur letzten Vorlesung in. Statistik 2. vor Weihnachten Herzlich Willkommen zur letzten Vorlesung in Statistik 2 vor Weihnachten Was sollen wir heute machen? Vorlesung? Übung? Weihnachtsfeier? Was sollen wir heute machen? Vorlesung? Übung? Weihnachtsfeier?

Mehr

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:

Korrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben: Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise

Mehr

Kompaktskript zur Vorlesung Stochastische Risikoanalyse

Kompaktskript zur Vorlesung Stochastische Risikoanalyse Kompaktskript zur Vorlesung Stochastische Risikoanalyse Friedrich-Schiller-Universität Jena Wirtschaftswissenschaftliche Fakultät Lehrstuhl für Wirtschafts- und Sozialstatistik Prof. Dr. P. Kischka Sommersemester

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

00. Einiges zum Vektorraum R n

00. Einiges zum Vektorraum R n 00. Einiges zum Vektorraum R n In diesem einleitenden Kapitel werden die in der LV Einführung in die mathematischen Methoden erwähnten Konzepte über Vektoren (im R 2 und R 3 ) im Rahmen des n-dimensionalen

Mehr

K8 Stetige Zufallsvariablen Theorie und Praxis

K8 Stetige Zufallsvariablen Theorie und Praxis K8 Stetige Zufallsvariablen Theorie und Praxis 8.1 Theoretischer Hintergrund Wir haben (nicht abzählbare) Wahrscheinlichkeitsräume Meßbare Funktionen Zufallsvariablen Verteilungsfunktionen Dichten in R

Mehr

Die Varianz (Streuung) Definition

Die Varianz (Streuung) Definition Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ

Mehr

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer 3.4 Asymptotische Evaluierung von Schätzer 3.4.1 Konsistenz Bis jetzt haben wir Kriterien basierend auf endlichen Stichproben betrachtet. Konsistenz ist ein asymptotisches Kriterium (n ) und bezieht sich

Mehr

11. Folgen und Reihen.

11. Folgen und Reihen. - Funktionen Folgen und Reihen Folgen Eine Folge reeller Zahlen ist eine Abbildung a: N R Statt a(n) für n N schreibt man meist a n ; es handelt sich also bei einer Folge um die Angabe der Zahlen a, a

Mehr

Kapitel VI. Euklidische Geometrie

Kapitel VI. Euklidische Geometrie Kapitel VI. Euklidische Geometrie 1 Abstände und Lote Wiederholung aus Kapitel IV. Wir versehen R n mit dem Standard Skalarprodukt x 1 y 1.,. := x 1 y 1 +... + x n y n x n y n Es gilt für u, v, w R n und

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

8. Stetige Zufallsvariablen

8. Stetige Zufallsvariablen 8. Stetige Zufallsvariablen Idee: Eine Zufallsvariable X ist stetig, falls ihr Träger eine überabzählbare Teilmenge der reellen Zahlen R ist. Beispiel: Glücksrad mit stetigem Wertebereich [0, 2π] Von Interesse

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Übungsblatt 9. f(x) = e x, für 0 x

Übungsblatt 9. f(x) = e x, für 0 x Aufgabe 1: Übungsblatt 9 Basketball. Ein Profi wirft beim Training aus einer Entfernung von sieben Metern auf den Korb. Er trifft bei jedem Wurf mit einer Wahrscheinlichkeit von p = 1/2. Die Zufallsvariable

Mehr

Solvency II und die Standardformel

Solvency II und die Standardformel Fakultät Mathematik und Naturwissenschaften Institut für Mathematische Stochastik Solvency II und die Standardformel Festkolloquium 20 Jahre (neue) Versicherungsmathematik an der TU Dresden Sebastian Fuchs

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

9 Die Normalverteilung

9 Die Normalverteilung 9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,

Mehr

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5

Klausurenkurs zum Staatsexamen (SS 2015): Lineare Algebra und analytische Geometrie 5 Dr. Erwin Schörner Klausurenkurs zum Staatsexamen (SS 5): Lineare Algebra und analytische Geometrie 5 5. (Herbst 9, Thema 3, Aufgabe ) Betrachtet werde die Matrix A := 3 4 5 5 7 7 9 und die lineare Abbildung

Mehr

Extremwertverteilungen

Extremwertverteilungen Seminar Statistik Institut für Stochastik 12. Februar 2009 Gliederung 1 Grenzwertwahrscheinlichkeiten 2 3 MDA Fréchet MDA Weibull MDA Gumbel 4 5 6 Darstellung von multivariaten, max-stabilen Verteilungsfunktionen

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)

ETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig) ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels

Mehr

1 Gemischte Lineare Modelle

1 Gemischte Lineare Modelle 1 Gemischte Lineare Modelle Wir betrachten zunächst einige allgemeine Aussagen für Gemischte Lineare Modelle, ohne zu tief in die mathematisch-statistische Theorie vorzustoßen. Danach betrachten wir zunächst

Mehr

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik

Scheinklausur Stochastik 1 für Studierende des Lehramts und der Diplom-Pädagogik Universität Karlsruhe (TH) Institut für Stochastik Dr. Bernhard Klar Dipl.-Math. oec. Volker Baumstark Name Vorname Matr.-Nr.: Scheinklausur Stochastik für Studierende des Lehramts und der Diplom-Pädagogik

Mehr

Vorlesung. Funktionen/Abbildungen

Vorlesung. Funktionen/Abbildungen Vorlesung Funktionen/Abbildungen 1 Grundlagen Hinweis: In dieser Vorlesung werden Funktionen und Abbildungen synonym verwendet. In der Schule wird eine Funktion häufig als eindeutige Zuordnung definiert.

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 2 Nichtlineare Gleichungssysteme Problem: Für vorgegebene Abbildung f : D R n R n finde R n mit oder ausführlicher f() = 0 (21) f 1 ( 1,, n ) = 0, f n ( 1,, n ) = 0 Einerseits führt die mathematische

Mehr

Monte-Carlo-Simulationen mit Copulas. Kevin Schellkes und Christian Hendricks 29.08.2011

Monte-Carlo-Simulationen mit Copulas. Kevin Schellkes und Christian Hendricks 29.08.2011 Kevin Schellkes und Christian Hendricks 29.08.2011 Inhalt Der herkömmliche Ansatz zur Simulation logarithmischer Renditen Ansatz zur Simulation mit Copulas Test und Vergleich der beiden Verfahren Fazit

Mehr

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.)

(Man sagt dafür auch, dass die Teilmenge U bezüglich der Gruppenoperationen abgeschlossen sein muss.) 3. Untergruppen 19 3. Untergruppen Nachdem wir nun einige grundlegende Gruppen kennengelernt haben, wollen wir in diesem Kapitel eine einfache Möglichkeit untersuchen, mit der man aus bereits bekannten

Mehr

3. Relationen Erläuterungen und Schreibweisen

3. Relationen Erläuterungen und Schreibweisen 3. Relationen Eine Relation ist allgemein eine Beziehung, die zwischen Dingen bestehen kann. Relationen im Sinne der Mathematik sind ausschließlich diejenigen Beziehungen, bei denen stets klar ist, ob

Mehr

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21

5.1 Determinanten der Ordnung 2 und 3. a 11 a 12 a 21 a 22. det(a) =a 11 a 22 a 12 a 21. a 11 a 21 5. Determinanten 5.1 Determinanten der Ordnung 2 und 3 Als Determinante der zweireihigen Matrix A = a 11 a 12 bezeichnet man die Zahl =a 11 a 22 a 12 a 21. Man verwendet auch die Bezeichnung = A = a 11

Mehr

Lehrskript Mathematik Q12 Analytische Geometrie

Lehrskript Mathematik Q12 Analytische Geometrie Lehrskript Mathematik Q1 Analytische Geometrie Repetitorium der analytischen Geometrie Eine Zusammenfassung der analytischen Geometrie an bayerischen Gymnasien von Markus Baur, StR Werdenfels-Gymnasium

Mehr

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen

Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen Thema14 Der Satz über inverse Funktionen und der Satz über implizite Funktionen In diesem Kapitel betrachten wir die Invertierbarkeit von glatten Abbildungen bzw. die Auflösbarkeit von impliziten Gleichungen.

Mehr

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate

Regression ein kleiner Rückblick. Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate Regression ein kleiner Rückblick Methodenseminar Dozent: Uwe Altmann Alexandra Kuhn, Melanie Spate 05.11.2009 Gliederung 1. Stochastische Abhängigkeit 2. Definition Zufallsvariable 3. Kennwerte 3.1 für

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Stetige Funktionen. Definition. Seien (X, d) und (Y, ϱ) metrische Räume und f : X Y eine Abbildung. D(f) X sei der Definitionsbereich von f.

Stetige Funktionen. Definition. Seien (X, d) und (Y, ϱ) metrische Räume und f : X Y eine Abbildung. D(f) X sei der Definitionsbereich von f. Stetige Funktionen Abbildungen f : X Y, wobei X und Y strukturierte Mengen sind (wie z.b. Vektorräume oder metrische Räume), spielen eine zentrale Rolle in der Mathematik. In der Analysis sind Abbildungen

Mehr

Lineare Abhängigkeit

Lineare Abhängigkeit Lineare Abhängigkeit Vorbemerkung. Es sei X eine Menge. Eine Familie von Elementen von X ist eine Abbildung I X, i x i. I heißt dabei Indexmenge. Man verwendet dabei oft die Schreibweise (x i ) oder (x

Mehr

2 Euklidische Vektorräume

2 Euklidische Vektorräume Sei V ein R Vektorraum. 2 Euklidische Vektorräume Definition: Ein Skalarprodukt auf V ist eine Abbildung σ : V V R, (v, w) σ(v, w) mit folgenden Eigenschaften ( Axiome des Skalarprodukts) (SP1) σ ist bilinear,

Mehr

Die Taylorreihe einer Funktion

Die Taylorreihe einer Funktion Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist

Mehr

Kenngrößen von Zufallsvariablen

Kenngrößen von Zufallsvariablen Kenngrößen von Zufallsvariablen Die Wahrscheinlichkeitsverteilung kann durch die sogenannten Kenngrößen beschrieben werden, sie charakterisieren sozusagen die Verteilung. Der Erwartungswert Der Erwartungswert

Mehr

Zahlen und metrische Räume

Zahlen und metrische Räume Zahlen und metrische Räume Natürliche Zahlen : Die natürlichen Zahlen sind die grundlegendste Zahlenmenge, da man diese Menge für das einfache Zählen verwendet. N = {1, 2, 3, 4,...} Ganze Zahlen : Aus

Mehr

Faktorenanalysen höherer Ordnung

Faktorenanalysen höherer Ordnung Faktorenanalysen höherer Ordnung 1 Ausgangssituation Übliche Faktorenanalysen (erster Ordnung) gehen von Zusammenhängen zwischen manifesten, beobachteten Variablen aus und führen diese Zusammenhänge auf

Mehr

1. Einleitung wichtige Begriffe

1. Einleitung wichtige Begriffe 1. Einleitung wichtige Begriffe Da sich meine besondere Lernleistung mit dem graziösen Färben (bzw. Nummerieren) von Graphen (speziell von Bäumen), einem Teilgebiet der Graphentheorie, beschäftigt, und

Mehr

Seminarvortrag aus Reiner Mathematik Existenz von Primitivwurzeln

Seminarvortrag aus Reiner Mathematik Existenz von Primitivwurzeln Seminarvortrag aus Reiner Mathematik Existenz von Primitivwurzeln Michael Kniely November 2009 1 Vorbemerkungen Definition. Sei n N +, ϕ(n) := {d [0, n 1] ggt (d, n) = 1}. Die Abbildung ϕ : N + N + heißt

Mehr

1 Mengen. 1.1 Elementare Definitionen. Einige mathematische Konzepte

1 Mengen. 1.1 Elementare Definitionen. Einige mathematische Konzepte Einige mathematische Konzepte 1 Mengen 1.1 Elementare Definitionen Mengendefinition Die elementarsten mathematischen Objekte sind Mengen. Für unsere Zwecke ausreichend ist die ursprüngliche Mengendefinition

Mehr

2. Stetige lineare Funktionale

2. Stetige lineare Funktionale -21-2. Stetige lineare Funktionale Die am Ende von 1 angedeutete Eigenschaft, die ein lineares Funktional T : D(ú) 6 verallgemeinerten Funktion macht, ist die Stetigkeit von T in jedem n 0 0 D(ú). Wenn

Mehr

Serie 10: Inverse Matrix und Determinante

Serie 10: Inverse Matrix und Determinante D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die

Mehr

Flüsse, Fixpunkte, Stabilität

Flüsse, Fixpunkte, Stabilität 1 Flüsse, Fixpunkte, Stabilität Proseminar: Theoretische Physik Yannic Borchard 7. Mai 2014 2 Motivation Die hier entwickelten Formalismen erlauben es, Aussagen über das Verhalten von Lösungen gewöhnlicher

Mehr

DEUTSCHE SCHULE MONTEVIDEO BIKULTURELLES DEUTSCH-URUGUAYISCHES ABITUR ( AUF SPANISCH )

DEUTSCHE SCHULE MONTEVIDEO BIKULTURELLES DEUTSCH-URUGUAYISCHES ABITUR ( AUF SPANISCH ) Grundlegende Bemerkungen : Der Begriff des Vektors wurde in den vergangenen Jahren im Geometrieunterricht eingeführt und das mathematische Modell des Vektors wurde vor allem auch im Physikunterricht schon

Mehr

Funktionsgrenzwerte, Stetigkeit

Funktionsgrenzwerte, Stetigkeit Funktionsgrenzwerte, Stetigkeit Häufig tauchen in der Mathematik Ausdrücke der Form lim f(x) auf. x x0 Derartigen Ausdrücken wollen wir jetzt eine präzise Bedeutung zuweisen. Definition. b = lim f(x) wenn

Mehr

Zufallsvariablen: Die allgemeine Definition

Zufallsvariablen: Die allgemeine Definition KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)

Mehr

Beispiel: Zweidimensionale Normalverteilung I

Beispiel: Zweidimensionale Normalverteilung I 10 Mehrdimensionale Zufallsvariablen Bedingte Verteilungen 10.6 Beispiel: Zweidimensionale Normalverteilung I Wichtige mehrdimensionale stetige Verteilung: mehrdimensionale (multivariate) Normalverteilung

Mehr

Mathematik für das Ingenieurstudium

Mathematik für das Ingenieurstudium Mathematik für das Ingenieurstudium von Martin Stämpfle, Jürgen Koch 2., aktual. Aufl. Hanser München 2012 Verlag C.H. Beck im Internet: www.beck.de ISBN 978 3 446 43232 1 Zu Inhaltsverzeichnis schnell

Mehr

1 Zahlentheorie. 1.1 Kongruenzen

1 Zahlentheorie. 1.1 Kongruenzen 3 Zahlentheorie. Kongruenzen Der letzte Abschnitt zeigte, daß es sinnvoll ist, mit großen Zahlen möglichst einfach rechnen zu können. Oft kommt es nicht darauf, an eine Zahl im Detail zu kennen, sondern

Mehr

Gewöhnliche Dierentialgleichungen

Gewöhnliche Dierentialgleichungen Gewöhnliche Dierentialgleichungen sind Gleichungen, die eine Funktion mit ihren Ableitungen verknüpfen. Denition Eine explizite Dierentialgleichung (DGL) nter Ordnung für die reelle Funktion t x(t) hat

Mehr

Spezielle stetige Verteilungen

Spezielle stetige Verteilungen Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für

Mehr

(geometrische) Anschauung

(geometrische) Anschauung (geometrische) Anschauung Marcus Page Juni 28 In dieser Lerneinheit widmen wir uns dem schon oft angesprochenen Zusammenhang zwischen Matrizen und linearen Abbildungen. Außerdem untersuchen wir Funktionen,

Mehr

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt

x 2 2x + = 3 + Es gibt genau ein x R mit ax + b = 0, denn es gilt - 17 - Die Frage ist hier also: Für welche x R gilt x = x + 1? Das ist eine quadratische Gleichung für x. Es gilt x = x + 1 x x 3 = 0, und man kann quadratische Ergänzung machen:... ( ) ( ) x x + = 3 +

Mehr

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1

Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester Aufgabe 1 Lehrstuhl für Statistik und Ökonometrie der Otto-Friedrich-Universität Bamberg Prof. Dr. Susanne Rässler Klausur zu Methoden der Statistik II (mit Kurzlösung) Sommersemester 2013 Aufgabe 1 In einer Urne

Mehr

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung

Mathematik: LehrerInnenteam Arbeitsblatt Semester ARBEITSBLATT 12. Erwartungswert, Varianz und Standardabweichung Mathematik: LehrerInnenteam Arbeitsblatt 7-7. Semester ARBEITSBLATT Erwartungswert, Varianz und Standardabweichung Die Begriffe Varianz und Standardabweichung sind uns bereits aus der Statistik bekannt

Mehr

Kapitel 2 Wahrscheinlichkeitsrechnung

Kapitel 2 Wahrscheinlichkeitsrechnung Definition 2.77: Normalverteilung & Standardnormalverteilung Es sei µ R und 0 < σ 2 R. Besitzt eine stetige Zufallsvariable X die Dichte f(x) = 1 2 πσ 2 e 1 2 ( x µ σ ) 2, x R, so heißt X normalverteilt

Mehr

4 Lineare Algebra (Teil 2): Quadratische Matrizen

4 Lineare Algebra (Teil 2): Quadratische Matrizen 4 Lineare Algebra (Teil : Quadratische Matrizen Def.: Eine (n n-matrix, die also ebensoviele Zeilen wie Spalten hat, heißt quadratisch. Hat sie außerdem den Rang n, sind also ihre n Spalten linear unabhängig,

Mehr

Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik

Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik Präsenzübungsaufgaben zur Vorlesung Elementare Sachversicherungsmathematik Dozent: Volker Krätschmer Fakultät für Mathematik, Universität Duisburg-Essen, WS 2012/13 1. Präsenzübung Aufgabe T 1 Sei (Z 1,...,

Mehr

1 Eingebettete Untermannigfaltigkeiten des R d

1 Eingebettete Untermannigfaltigkeiten des R d $Id: unter.tex,v 1.2 2014/04/14 13:19:35 hk Exp hk $ 1 Eingebettete Untermannigfaltigkeiten des R d In diesem einleitenden Paragraphen wollen wir Untermannigfaltigkeiten des R d studieren, diese sind die

Mehr

Differenzialrechnung

Differenzialrechnung Mathe Differenzialrechnung Differenzialrechnung 1. Grenzwerte von Funktionen Idee: Gegeben eine Funktion: Gesucht: y = f(x) lim f(x) = g s = Wert gegen den die Funktion streben soll (meist 0 oder ) g =

Mehr

GLEICHUNGEN MIT PARAMETERN

GLEICHUNGEN MIT PARAMETERN Mathematik-Olympiaden in Rheinland-Pfalz GLEICHUNGEN MIT PARAMETERN Fortgeschrittene Die Aufgaben auf diesem Arbeitsblatt haben alle eine elegante Lösungsidee. Bei vielen Gleichungen ist nach Anwenden

Mehr

Value at Risk Einführung

Value at Risk Einführung Value at Risk Einführung Veranstaltung Risk Management & Computational Finance Dipl.-Ök. Hans-Jörg von Mettenheim mettenheim@iwi.uni-hannover.de Institut für Wirtschaftsinformatik Leibniz Universität Hannover

Mehr

Aufgaben zu Kapitel 38

Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Aufgaben zu Kapitel 38 Verständnisfragen Aufgabe 38. Welche der folgenden vier Aussagen sind richtig:. Kennt man die Verteilung von X und die Verteilung von Y, dann kann man daraus

Mehr

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen.

Dieses Quiz soll Ihnen helfen, Kapitel besser zu verstehen. Dieses Quiz soll Ihnen helfen, Kapitel 2.5-2. besser zu verstehen. Frage Wir betrachten ein Würfelspiel. Man wirft einen fairen, sechsseitigen Würfel. Wenn eine oder eine 2 oben liegt, muss man 2 SFr zahlen.

Mehr

Kapitel III. Lineare Abbildungen

Kapitel III. Lineare Abbildungen Kapitel III. Lineare Abbildungen Beispiele: 1 Lineare Abbildungen a) Seien c 1,..., c n K vorgegeben. Betrachte die Funktion F (x 1,..., x n ) = c 1 x 1 + c 2 x 2 +... + c n x n in den Variablen x 1,...,

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

Die komplexen Zahlen und Skalarprodukte Kurze Wiederholung des Körpers der komplexen Zahlen C.

Die komplexen Zahlen und Skalarprodukte Kurze Wiederholung des Körpers der komplexen Zahlen C. Die omplexen Zahlen und Salarprodute Kurze Wiederholung des Körpers der omplexen Zahlen C. Erinnerung an die Definition von exp, sin, cos als Potenzreihen C C Herleitung der Euler Formel Definition eines

Mehr

Exemplar für Prüfer/innen

Exemplar für Prüfer/innen Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2016 Mathematik Kompensationsprüfung 3 Angabe für Prüfer/innen Hinweise zur

Mehr

Stochastik und Statistik für Ingenieure Vorlesung 4

Stochastik und Statistik für Ingenieure Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Stochastik und Statistik für Ingenieure Vorlesung 4 30. Oktober 2012 Quantile einer stetigen Zufallsgröße Die reelle Zahl

Mehr

Ausarbeitung des Seminarvortrags zum Thema

Ausarbeitung des Seminarvortrags zum Thema Ausarbeitung des Seminarvortrags zum Thema Anlagepreisbewegung zum Seminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn von Imke Meyer im W9/10 Anlagepreisbewegung

Mehr

entspricht der Länge des Vektorpfeils. Im R 2 : x =

entspricht der Länge des Vektorpfeils. Im R 2 : x = Norm (oder Betrag) eines Vektors im R n entspricht der Länge des Vektorpfeils. ( ) Im R : x = x = x + x nach Pythagoras. Allgemein im R n : x x = x + x +... + x n. Beispiele ( ) =, ( 4 ) = 5, =, 4 = 0.

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2016 Lineare Gleichungssysteme Schwerpunkte: Interpretation und Verständnis der Gleichungen Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik unter

Mehr

Thema 4 Limiten und Stetigkeit von Funktionen

Thema 4 Limiten und Stetigkeit von Funktionen Thema 4 Limiten und Stetigkeit von Funktionen Wir betrachten jetzt Funktionen zwischen geeigneten Punktmengen. Dazu wiederholen wir einige grundlegende Begriffe und Schreibweisen aus der Mengentheorie.

Mehr

Satz 16 (Multiplikationssatz)

Satz 16 (Multiplikationssatz) Häufig verwendet man die Definition der bedingten Wahrscheinlichkeit in der Form Damit: Pr[A B] = Pr[B A] Pr[A] = Pr[A B] Pr[B]. (1) Satz 16 (Multiplikationssatz) Seien die Ereignisse A 1,..., A n gegeben.

Mehr

Chi-Quadrat-Verteilung

Chi-Quadrat-Verteilung Chi-Quadrat-Verteilung Die Verteilung einer Summe X +X +...+X n, wobei X,..., X n unabhängige standardnormalverteilte Zufallsvariablen sind, heißt χ -Verteilung mit n Freiheitsgraden. Eine N(, )-verteilte

Mehr

Optimalitätskriterien

Optimalitätskriterien Kapitel 4 Optimalitätskriterien Als Optimalitätskriterien bezeichnet man notwendige oder hinreichende Bedingungen dafür, dass ein x 0 Ω R n Lösung eines Optimierungsproblems ist. Diese Kriterien besitzen

Mehr

Kapitel 5 Untermannigfaltigkeiten. 5.1 Glatte Flächen in R 3

Kapitel 5 Untermannigfaltigkeiten. 5.1 Glatte Flächen in R 3 Kapitel 5 Untermannigfaltigkeiten 5.1 Glatte Flächen in R 3 Bisher haben wir unter einem glatten Weg im R n stets eine differenzierbare Abbildung γ:i R n, definiert auf einem Intervall I R, verstanden.

Mehr

WS 2010/ Januar Mathematisches Institut der Universität München Prof. Dr. Rudolf Fritsch

WS 2010/ Januar Mathematisches Institut der Universität München Prof. Dr. Rudolf Fritsch Mathematisches Institut der Universität München Prof. Dr. Rudolf Fritsch WS 2010/2011 14. Januar 2011 Geometrie mit Übungen Übungsblatt 9, Musterlösungen Aufgabe 33. Es werden Kreise in der Euklidischen

Mehr

ε δ Definition der Stetigkeit.

ε δ Definition der Stetigkeit. ε δ Definition der Stetigkeit. Beweis a) b): Annahme: ε > 0 : δ > 0 : x δ D : x δ x 0 < δ f (x δ f (x 0 ) ε Die Wahl δ = 1 n (n N) generiert eine Folge (x n) n N, x n D mit x n x 0 < 1 n f (x n ) f (x

Mehr

7.2.1 Zweite partielle Ableitungen

7.2.1 Zweite partielle Ableitungen 72 72 Höhere Ableitungen 72 Höhere Ableitungen Vektorwertige Funktionen sind genau dann differenzierbar, wenn ihre Koordinatenfunktionen differenzierbar sind Es ist also keine wesentliche Einschränkung,

Mehr

8 Tangenten an Quadriken

8 Tangenten an Quadriken 8 Tangenten an Quadriken A Geraden auf Quadriken: Sei A 0 eine symmetrische n n Matri und Q : t A + b t + c = 0 eine nicht leere Quadrik im R n, b R n, c R. g = p + R v R n ist die Gerade durch p mit Richtung

Mehr

GF(2 2 ) Beispiel eines Erweiterungskörpers (1)

GF(2 2 ) Beispiel eines Erweiterungskörpers (1) GF(2 2 ) Beispiel eines Erweiterungskörpers (1) Im Kapitel 2.1 wurde bereits gezeigt, dass die endliche Zahlenmenge {0, 1, 2, 3} q = 4 nicht die Eigenschaften eines Galoisfeldes GF(4) erfüllt. Vielmehr

Mehr

2.2 Kern und Bild; Basiswechsel

2.2 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 22 Kern und Bild; Basiswechsel 35 Jede lineare Abbildung definiert charakteristische Unterräume, sowohl im Ausgangsraum als auch im Bildraum 22 Satz Sei L: V W eine lineare

Mehr

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente...

1.1.1 Ergebnismengen Wahrscheinlichkeiten Formale Definition der Wahrscheinlichkeit Laplace-Experimente... Inhaltsverzeichnis 0 Einführung 1 1 Zufallsvorgänge und Wahrscheinlichkeiten 5 1.1 Zufallsvorgänge.......................... 5 1.1.1 Ergebnismengen..................... 6 1.1.2 Ereignisse und ihre Verknüpfung............

Mehr

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion

Kapitel 12 Stetige Zufallsvariablen Dichtefunktion und Verteilungsfunktion. stetig. Verteilungsfunktion Kapitel 12 Stetige Zufallsvariablen 12.1. Dichtefunktion und Verteilungsfunktion stetig Verteilungsfunktion Trägermenge T, also die Menge der möglichen Realisationen, ist durch ein Intervall gegeben Häufig

Mehr

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht

Definitionen. Merkblatt lineare Algebra. affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht Seite 1 Definitionen affiner Teilraum Menge, die durch Addition eines Vektors v 0 zu allen Vektoren eines Vektorraumes V entsteht ähnliche Matrizen Matrizen, die das gleiche charakteristische Polynom haben

Mehr

Fragenkatalog Kapitel 1 Fehleranalyse

Fragenkatalog Kapitel 1 Fehleranalyse Teil 1: Numerik katalog Kapitel 1 Fehleranalyse 1. Zwischen was besteht ein funktionaler Zusammenhang z i? Welche Form hat er? 2. Welche 4 Typen von Fehlerquellen gibt es? Nenne Beispiele! 3. Wie berechnet

Mehr

1 Grundprinzipien statistischer Schlußweisen

1 Grundprinzipien statistischer Schlußweisen Grundprinzipien statistischer Schlußweisen - - Grundprinzipien statistischer Schlußweisen Für die Analyse zufallsbehafteter Eingabegrößen und Leistungsparameter in diskreten Systemen durch Computersimulation

Mehr

Simulation von Zufallsvariablen und Punktprozessen

Simulation von Zufallsvariablen und Punktprozessen Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die

Mehr

Univariates Datenmaterial

Univariates Datenmaterial Univariates Datenmaterial 1.6.1 Deskriptive Statistik Zufallstichprobe: Umfang n, d.h. Stichprobe von n Zufallsvariablen o Merkmal/Zufallsvariablen: Y = {Y 1, Y 2,..., Y n } o Realisationen/Daten: x =

Mehr

Messung von Rendite und Risiko. Finanzwirtschaft I 5. Semester

Messung von Rendite und Risiko. Finanzwirtschaft I 5. Semester Messung von Rendite und Risiko Finanzwirtschaft I 5. Semester 1 Messung von Renditen Ergebnis der Anwendung der Internen Zinsfuß- Methode ist die Rentabilität des Projekts. Beispiel: A0-100.000 ZÜ1 54.000

Mehr

Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1

Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1 Biometrie und Methodik (Statistik) - WiSem08/09 Probeklausur 1 Aufgabe 1 (10 Punkte). 10 Schüler der zehnten Klasse unterziehen sich zur Vorbereitung auf die Abschlussprüfung einem Mathematiktrainingsprogramm.

Mehr

Analysis I - Stetige Funktionen

Analysis I - Stetige Funktionen Kompaktheit und January 13, 2009 Kompaktheit und Funktionengrenzwert Definition Seien X, d X ) und Y, d Y ) metrische Räume. Desweiteren seien E eine Teilmenge von X, f : E Y eine Funktion und p ein Häufungspunkt

Mehr

Optimale Strategie für das Würfelspiel Zehntausend

Optimale Strategie für das Würfelspiel Zehntausend Optimale Strategie für das Würfelspiel Zehntausend David Peter 30. Oktober 2013 Um eine optimale Strategie für Zehntausend zu entwickeln, führen wir die Funktion E(p, n) ein, die den Erwartungswert an

Mehr