Stochastische Approximation des Value at Risk

Ähnliche Dokumente
Grundlegende Eigenschaften von Punktschätzern

ifa Institut für Finanz- und Aktuarwissenschaften Nested Simulations - Innovative Methoden für rechenintensive Probleme in der Lebensversicherung

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

SST und Solvency II im Vergleich für die Einzellebensversicherung: Kriterien und Auswirkungen

Vorlesung Gesamtbanksteuerung Mathematische Grundlagen III / Marktpreisrisiken Dr. Klaus Lukas Stefan Prasser

Replizierende Portfolios in der deutschen Lebensversicherung

Statistik Testverfahren. Heinz Holling Günther Gediga. Bachelorstudium Psychologie. hogrefe.de

Mathematik für Biologen

8. Konfidenzintervalle und Hypothesentests

Anleitung: Standardabweichung

Mathematische und statistische Methoden II

2 0,5% - 5,0% 3 5,0% - 12% 4 12% - 20% 5 20% - 30% 6 30% - 80% 7 >80%

Seminar im Wintersemester 2010/2011: Quantitative und implementierte Methoden der Marktrisikobewertung

Positionspapier. Anlage. Zur Verringerung der Bedeutung von externen Ratings bei der Versicherungsaufsicht. Zusammenfassung

Dynamisches Huffman-Verfahren

3 Konfidenzintervalle

Erläuterung des Vermögensplaners Stand: 3. Juni 2016

Kapitel 3 Schließende Statistik

Untersuchungen zum Thema Tracking Error

5. Schließende Statistik Einführung

9. Schätzen und Testen bei unbekannter Varianz

Korrelationen in Extremsituationen

Einführung in die linearen Funktionen. Autor: Benedikt Menne

Anforderungen an Krankenversicherer unter SST und Solvency II. Prüfungskolloquium zum Aktuar SAV Michele Casartelli, 16.

Grundgesamtheit und Stichprobe

Bootstrap-Konfidenzintervalle

Thomas Priermeier. Fundamentale Analyse in der Praxis. Kennzahlen Strategien Praxisbeispiele

Risikoaggregation und allokation

Prof. Dr. Christoph Kleinn Institut für Waldinventur und Waldwachstum Arbeitsbereich Waldinventur und Fernerkundung

Experimentelle und klinische Dosimetrie. bei der Doppelkontrastuntersuchung des Dünndarms. (Enteroklysma nach Sellink / Herlinger)

Lösungshinweiseshinweise zur Einsendearbeit 2 zum Kurs 41520, Banken und Börsen, SS 2008

1) Warum ist die Lage einer Verteilung für das Ergebnis einer statistischen Analyse von Bedeutung?

Der Zentrale Grenzwertsatz

Willkommen zur Vorlesung Statistik (Master)

Leistungsfähigkeit von Lokalisierungsverfahren im WLAN

von Unternehmensanleihen

SST: - In Kraft - Ab 2011 verbindlich - Modellabhängig

Auswahl von Schätzfunktionen

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

SEMINAR "WIRTSCHAFTSSTRAFRECHT- COMPLIANCE" (17./18. JUNI 2016)

Die Taylorreihe einer Funktion

VERORDNUNG (EU).../... DER KOMMISSION. vom XXX

Risiko- und Kapitalsteuerung in Banken. MN-Seminar Martina Böhmer

9 Prinzipien der statistischen Hypothesenprüfung

KMVU-Weiterbildung. QIS5 und MaRisk(VA) Dozenten: Prof. Dr. Dietmar Pfeifer / Dr. Doreen Straßburger

P (X = 2) = 1/36, P (X = 3) = 2/36,...

Systematische Optimierungsverfahren verbessern mit geringem Aufwand Prozesse und Produkte

Dipl.-Volksw. Markus Pullen Wintersemester 2012/13

k np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/467 Ernst W. Mayr

LEITLINIEN ZU DEN TESTS, BEWERTUNGEN ODER PRÜFUNGEN, DIE EINE UNTERSTÜTZUNGSMAßNAHME AUSLÖSEN KÖNNEN EBA/GL/2014/

Tier 1- und Tier 2-Modelle für die quantitative Abschätzung der inhalativen Exposition

Erweiterte Messunsicherheit

Siedlungswasserwirtschaft klimarobust gestalten

Einführung in die Informatik I Kapitel II.3: Sortieren

Solvenz II Zweck & Nutzen. PORIS User-Group Treffen 2012

Grundlagen der Elektrotechnik 1

A Die Bewertung der gemischten Kapitallebensversicherung. Versicherungswissenschaft in Berlin

Veröffentlichungen. - Neue MaRisk stärken Compliance und Risikomanagement, Gastkommentar in RisikoManager 02/2013, S. 2.

Verordnung vom 27. Juni 1995 über die Krankenversicherung (KVV)

Projekt Systementwicklung

1 Einleitung. 1 Vgl. Diers (2007), S. 1.

10. Die Normalverteilungsannahme

Shared Services: Grundlegende Konzeption und konkrete Umsetzung im Bereich Human Resources

Gefährliche Wechselwirkung von Markt- und Kreditrisiko: Beispiel Fremdwährungskredite

Beispiel 5 Europäische Call Option (ECO) in einer Aktie S mit Laufzeit T und Ausübungspreis (Strikepreis) K.

Textanalyse. Interkulturelle Bildung. Entwicklung und Entstehung

Ökonomische Analyse der Medikamentenverteilung im Krankenhaus

3.2 Streuungsmaße. 3 Lage- und Streuungsmaße 133. mittlere Variabilität. geringe Variabilität. große Variabilität

Simulationsbasierte Unternehmensbewertung Relevanz und Verbesserung der Bewertungsqualität

Aufgaben Risikomanagement II

Bei näherer Betrachtung des Diagramms Nr. 3 fällt folgendes auf:

Analysis of Cliquet Options for Index-Linked Life Insurance

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

Schule. Klasse. Station Figurierte Zahlen Teil 1. Tischnummer. Arbeitsheft. Teilnehmercode

Untersuchung unterschiedlicher Szenarien zum Ausstieg aus der Kohleverbrennung am Standort HKW Nord

Gelenkträger unter vertikalen und schrägen Einzellasten und einer vertikalen Streckenlast

Problem aller bisheriger Methoden: Ergebnis ist nur so gut wie das Modell selbst.

Einführung in die Maximum Likelihood Methodik

Grundlagen der Probabilistik

3.4 Asymptotische Evaluierung von Sch atzer Konsistenz Konsistenz Definition 3.4.1: konsistente Folge von Sch atzer

RESEARCH PROPOSAL. Dissertationsvorschlag über aus den Fachbereichen: vorgeschlagene Begutachter. Univ. Prof. DI Dr.

Messung von Konzentrationsrisiken

FORTSCHRITT IST UNSERE BESTIMMUNG

Domain-independent. independent Duplicate Detection. Vortrag von Marko Pilop & Jens Kleine. SE Data Cleansing

Algorithmen und Datenstrukturen Kapitel 10

3.3.1 Referenzwerte für Fruchtwasser-Schätzvolumina ( SSW)

BARRIER-HIT-REPORT Q4 2016

Target Volatility & Risk Control Indizes. Ulrich Stoof (Bloomberg LP) & Christian Menn (RIVACON & FH Mainz)

Statistische Verfahren zur Maschinen- und Prozessqualifikation

Major Banking & Insurance

(Text von Bedeutung für den EWR)

1 Grundprinzipien statistischer Schlußweisen

1 Ausgangspunkt: Die Fusion von Coaching und Training

Leitlinien zur Behandlung von verbundenen Unternehmen, einschließlich Beteiligungen

Verbesserung der Abläufe in der Notaufnahme. mit Hilfe von Simulationsmodellen

BERECHNUNG VON SCHADENSERSATZFORDERUNGEN

Routing Algorithmen. Begriffe, Definitionen

Transkript:

Stochastische Approximation des Value at Risk Zusammenfassung der Masterarbeit an der Universität Ulm Annemarie Bitter Motivation Eines der wichtigsten Projekte der Versicherungswirtschaft ist derzeit die sogenannte Solvency-II-Richtlinie der Versicherungsaufsicht. Mittels des drei Säulen Ansatzes sollen die Solvabilitätsvorschriften für die Eigenmittelausstattung, das Risikomanagement und das Berichtswesen auf EU-Ebene auf die aktuellen Anforderungen, wie bspw. Finanzkrisen und Niedrigzinsphasen, angepasst und vereinheitlicht werden. Da die Implementierung dieser Gesetzgebung von EU-Ebenen in nationales Recht einige Zeit in Anspruch nimmt, wird dieses Thema in zahlreichen wissenschaftlichen Artikeln und Arbeiten in den Mittelpunkt gerückt. Unter anderem stellt sich die Frage nach einer adäquaten Berechnung der Solvenzkapitalanforderungen (Säule 1). Gemäß Artikel 101 der Solvency-II-Richtlinie (Europäisches Parlament (2009)) beschreibt das SCR (Solvency Capital Requirement) die Solvenzkapitalanforderung, die ein Unternehmen stellen muss, um über den Zeitraum eines Jahres mit einer Wahrscheinlichkeit von 99,5% alle Verpflichtungen aus der laufenden und der in den folgenden zwölf Monaten erwarteten Geschäftstätigkeit erfüllen zu können (BaFin (2013)). Dies entspricht dem Risikomaß des Value at Risk der Basiseigenmittel über den Zeitraum eines Jahres. Da der Value at Risk aufgrund der komplexen Struktur des Versicherungsgeschäftes nicht direkt berechnet werden kann, wird für die Approximation häufig auf Simulationsverfahren zurückgegriffen. Diese benötigen in der Regel ein hohes Simulationsbudget und sind daher recht rechen- und zeitaufwendig. In der Literatur finden sich dazu zahlreiche Möglichkeiten zur Verbesserung der Effektivität solcher Simulationsverfahren. Ziel der Arbeit Grundlage dieser Arbeit ist die Dissertation von Daniela Bergmann Nested Simulations in Life Insurance und die 2012 erschienene 1

Artikelserie Stochastic determination of the Value at Risk for a portfolio of assets and liabilities in der Zeitschrift Der Aktuar von Tigran Kalberer. In diesen wird auf Näherungsverfahren eingegangen, welche auf sogenannten geschachtelten Simulationen zur Approximation des Value at Risk beruhen. Ziel dieser Arbeit ist es, einerseits die in Kalberer (2012c) dargestellte Fehlerabschätzung vorzustellen, zum anderen soll das Näherungsverfahren der Artikelserie von Tigran Kalberer mit den Ergebnissen aus Bergmann (2011) verglichen werden. Mitunter werden die Eigenschaften dieser Verfahren an einem kurzen Anwendungsbeispiel veranschaulicht. Aufbau der Arbeit Zu diesem Zweck wird im zweiten Kapitel der mathematische Rahmen dieser Arbeit und die Problemstellung dargelegt. Dazu gehört neben der Definition des Value at Risk auch die grundlegende Methodik bei der Schätzung des Value at Risk als empirisches Quantil mittels Simulationen. Das dritte Kapitel behandelt, wie diese grundlegende Methode mit dem sogenannten Nested Stochastic Approach auf geschachtelte Simulationen ausgeweitet werden kann. Unter anderem werden ausgewählte Eigenschaften dieses Verfahrens vorgestellt. Da dieses Verfahren generell ein hohes Simulationsbudget benötigt, werden in Kapitel 4 und 5 Modifikationen dieses Verfahrens vorgestellt, die das Simulationsbudget verringern bzw. ein vorgegebenes Budget effektiver nutzen. In Kapitel 4 wird zunächst eine Fehlerabschätzung für den impliziten Fehler bei der Berechnung des Value at Risk mittels Approximationsverfahren vorgestellt, im Allgemeinen und im Speziellen für den Nested Stochastic Approach. Darauf aufbauend wird die Methode des Nested Stochastic Light Approach aus der Artikelserie von Tigran Kalberer erläutert, welche vor allem bei einem geringen Simulationsbudget dieses gezielt zu nutzen versucht. In Bergmann (2011) wird eine zum Nested Stochastic Light Approach ähnliche Methodik zur Schätzung des Value at Risk beschrieben, die sogenannte Screening Prozedur. Die Screening Prozedur beruht im Gegensatz zum Nested Stochastic Light Approach auf Konfidenzintervallen und ermöglicht es damit, zusätzlich zu einem 2

bloßen Punktschätzer an den Value at Risk ein Konfidenzintervall für diesen anzugeben. Die Berechnungsweise von Konfidenzintervallen für den Value at Risk und die Screening Prozedur werden in Kapitel 5 erläutert. Abschließend werden der Nested Stochastic Light Approach und die Screening Prozedur im letzten Abschnitt verglichen. Die Ergebnisse jedes Kapitels werden durchgängig an einem einfachen Beispiel veranschaulicht. Ergebnisse In dieser Arbeit wurde der Value at Risk mittels des empirischen Quantils geschätzt. Im Speziellen wurde der Value at Risk mit Konfidenzniveau 99,5% des Wertes des Versicherungsunternehmens untersucht. Die einzelnen Realisierungen wurden mittels des Nested Stochastic Approach durch geschachtelte Simulationen angenähert, so dass jedem äußeren Szenario eine gewisse Anzahl innerer Simulationen zugeordnet wird, mit welchen der Wert des Versicherungsunternehmens angenähert wird. Dieser Näherungswert an den Wert des Versicherungsunternehmens ist umso genauer, je höher die Anzahl der inneren Simulationen ist. Da der Value at Risk jedoch ein Quantil (am linken Rand) der Verteilung des Wertes des Versicherungsunternehmens darstellt, ist diese Genauigkeit in weiter vom Value at Risk entfernten Regionen überflüssig. Deshalb wird im Nested Stochastic Approach das verfügbare Simulationsbudget nicht effektiv genutzt, was vor allem bei geringen Budgets von Nachteil ist. Um den Nested Stochastic Approach diesbezüglich zu verbessern wurde in dieser Arbeit die Anzahl der inneren Simulationen je äußerem Szenario verändert, damit dieser auch bei einem geringen Simulationsbudget effektiver wird. Andere Modifikationen zur Verbesserung des Nested Stochastic Approach, wie bspw. eine Optimierung der Quantilschätzung, wurden in dieser Arbeit nicht betrachtet. Beide vorgestellten so modifizierten Varianten des Nested Stochastic Approach, der Nested Stochastic Light Approach und die Screening Prozedur, beruhen demnach darauf, dass eine Ersetzungsmenge ausgewählt wird, welche eine sinnvolle Verteilung der inneren Simulationen auf die jeweiligen äußeren Szenarien vorgibt. Obwohl 3

beide Methoden somit auf demselben Prinzip basieren und sich ähnlich sind, gibt es einige Unterschiede, v. a. in der praktischen Anwendung. Die Screening Prozedur zieht bei der Auswahl der Ersetzungsmenge Konfidenzintervalle heran. Der zentrale Vorteil dieser mathematischen Herangehensweise ist, dass neben dem bloßen Punktschätzer für den Value at Risk zusätzlich ein Konfidenzintervall für diesen angegeben werden kann. Damit dieses jedoch eine klare Aussagekraft besitzt, darf das Simulationsbudget nicht zu gering ausfallen. Im Nested Stochastic Light Approach wird die Auswahl der Ersetzungsmenge durch eine Fehlerabschätzung, das Central Result, motiviert. Dabei wird der Fehler implizit dargestellt, der bei der Schätzung des Value at Risk durch Näherungsverfahren entsteht. Das Central Result kann somit auf jedes beliebiges Näherungsverfahren angewandt werden, welches eine Approximation an den Wert des Versicherungsunternehmens berechnet, und ist damit universell einsetzbar. Aus der Darstellung dieses Fehlerterms für den Nested Stochastic Approach leitet sich so eine Ersetzungsmenge ab. Obwohl der Nested Stochastic Light Approach eher intuitiv als mathematisch begründet wird, erzielt dieser ein tendenziell besseres Ergebnis als die Screening Prozedur vor allem für knappe Simulationsbudgets. Dies scheint die Kosten für den zusätzlichen Informationsgehalt über Konfidenzintervalle in der Screening Prozedur darzustellen. Insgesamt reagieren beide Verfahren relativ stabil gegenüber Änderungen in den methodenspezifischen und methodenfremden Parametern. Der deutlichste Unterschied beider Verfahren ergibt sich in dem Verhalten für unterschiedliche Simulationsbudgets und dessen Aufteilung auf die äußeren und inneren Simulationen. Hier scheint der Nested Stochastic Light Approach robuster als die Screening Prozedur zu sein. Ob in der Praxis der Nested Stochastic Light Approach oder die Screening Prozedur angewendet wird, sollte für den Einzelfall geprüft werden, da die Screening Prozedur durch die Bestimmung eines zusätzlichen Konfidenzintervalls zum Punktschätzer mehr Aussagekraft über dessen Verlässlichkeit liefern kann. Bei knappen Simulationsbudgets liefert der Nested Stochastic Light Approach jedoch einen genaueren Punktschätzer und die ermittelten Konfidenzintervalle beim Screening werden recht weit, so dass sich deren 4

Informationsgehalt verringert. Durch beide Verfahren wurde lediglich der Fehler minimiert, der durch die begrenzte Anzahl an inneren Simulationen entsteht. Die zweite Fehlerquelle beruht auf der Schätzung des Value at Risk mit einer begrenzten Anzahl an äußeren Szenarien. Diese könnte bspw. durch eine Control Variate oder durch den Einsatz von Importance Sampling bei der Quantilschätzung verbessert werden. 5