Kapitel 1 Einführung und Beispiele

Ähnliche Dokumente
Einführung in die stochastischen Prozesse

Einführung und Beispiele

Kapitel 2 Grundbegriffe der allgemeinen Theorie stochastischer Prozesse

Erneuerungs- und Semi-Markov-Prozesse

Der Poissonprozess. Kapitel 5

Wahrscheinlichkeitstheorie und Statistik

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 240/476 c Ernst W. Mayr

Statistik für Ingenieure Vorlesung 5

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Kapitel 6 Martingale

Einführung und Grundlagen

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4 Diskrete Markov-Prozesse

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

DWT 3.3 Warteprobleme mit der Exponentialverteilung 275/467 Ernst W. Mayr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Diskrete Strukturen II

Wirtschaftsmathematik

Stochastik. 1. Wahrscheinlichkeitsräume

Angewandte Stochastik

Wichtige Definitionen und Aussagen

3. Prozesse mit kontinuierlicher Zeit

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

2 Zufallsvariable, Verteilungen, Erwartungswert

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Binomialverteilung. Häufigkeit, mit der Ereignis A bei n unabhängigen Versuchen eintritt. Träger von X : X = {0, 1, 2,..., n}.

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Zeitstetige Markov-Prozesse: Einführung und Beispiele

Stochastik-Praktikum

Reelle Zufallsvariablen

Kapitel 7 Punkt- und Zählprozesse

3 Markov-Eigenschaft der Brownschen Bewegung

Scheinklausur zur Vorlesung Stochastik II

7.5 Erwartungswert, Varianz

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Stochastik Wiederholung von Teil 1

Die Probabilistische Methode

6. Kontinuierliche Zufallsgrößen. Beispiel 1: Die Exponentialverteilungen Sei λ > 0. Setzen

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Abgabetermin: 5. Mai 2017, Uhr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Statistik für Informatiker, SS Verteilungen mit Dichte

Stochastik I. Vorlesungsmitschrift

STOCHASTISCHE PROZESSE

TU DORTMUND Sommersemester 2018

Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

Statistik I für Betriebswirte Vorlesung 3

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

1 1 e x2 =2 d x 1. e (x2 +y 2 )=2 d x d y : Wir gehen nun zu Polarkoordinaten uber und setzen x := r cos und y := r sin.

Grundlagen der Wahrscheinlichkeitstheorie

Allgemeine Punktprozesse

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

Wahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme

Verschiedene stochastische Prozesse. Ann-Kathrin Ru ger 27. Mai 2013 Institut fu r Stochastik

Vorlesung: Statistik II für Wirtschaftswissenschaft

4. Verteilungen von Funktionen von Zufallsvariablen

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Statistik. Sommersemester Prof. Dr. Stefan Etschberger Hochschule Augsburg. für Betriebswirtschaft und internationales Management

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel 5: Markovketten

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wahrscheinlichkeitsräume und Zufallsvariablen

7. Die Brownsche Bewegung

Zufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential

Lösungen zu Übungen (I) Markov-Prozesse

Markov Ketten und Bonus Malus Systeme

Satz 104 (Skalierung exponentialverteilter Variablen)

Anwendungen mit SAS: Direkt aus der Praxis! Block 1

Einführung in die Statistik für Wirtschaftswissenschaftler für Betriebswirtschaft und Internationales Management

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Zufallsvariablen [random variable]

Brownsche Bewegung: Eine Einführung

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Statistik. Sommersemester Prof. Dr. Stefan Etschberger HSA. für Betriebswirtschaft und International Management

Gaußsche Felder und Simulation

Anzahl der Versuche, bei denen A eingetreten ist : Anzahl aller Versuche Mit Hilfe des obigen Gesetzes der groen Zahlen folgt Z = Pr[jZ pj ] ";

Referenten: Gina Spieler, Beatrice Bressau, Laura Uhlmann Veranstaltung: Statistik für das Lehramt Dozent: Martin Tautenhahn

Diskrete Markov-Prozesse

Statistik für Ingenieure Vorlesung 3

Statistik für Informatiker, SS Grundlagen aus der Wahrscheinlichkeitstheorie

KAPITEL 1. Martingale

13 Grenzwertsätze Das Gesetz der großen Zahlen

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II

Statistik und Wahrscheinlichkeitsrechnung

Vorlesung 5a. Zufallsvariable mit Dichten

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie

Der Metropolis-Hastings Algorithmus

Transkript:

Kapitel 1 Einführung und Beispiele

1.1 Einführende Beispiele und erste Definition 1.1 Einführende Beispiele und erste Definition Rein zeitliche Beispiele: IFO Geschäftsklima Index Zeit: diskret; Zustandsraum: stetig. Sommersemester 2010 7

1.1 Einführende Beispiele und erste Definition Aktienkurse (Inter-Tagesdaten) Zeit: stetig; Zustandsraum: stetig. Individuelle Arbeitslosigkeitsverläufe Zeit: diskret; Zustandsraum: binär / kategorial. Sommersemester 2010 8

DNA-Sequenzen 1.1 Einführende Beispiele und erste Definition Zeit : diskret; Zustandsraum: diskret. Sommersemester 2010 9

Schlafzustände 1.1 Einführende Beispiele und erste Definition state state awake Non REM REM awake Non REM REM Zeit: stetig; Zustandsraum: diskret. Sommersemester 2010 10

Rein räumliche Beispiele: 1.1 Einführende Beispiele und erste Definition Krebsatlas Raum: diskret; Zustandsraum: diskret. Sommersemester 2010 11

Schweizer Regenfalldaten 1.1 Einführende Beispiele und erste Definition Raum: stetig; Zustandsraum: stetig. Sommersemester 2010 12

Räumlich-zeitliche Beispiele: 1.1 Einführende Beispiele und erste Definition fmri-daten Zeit: diskret, Raum: diskret, Zustandsraum: stetig. Sommersemester 2010 13

Krebsatlas 1.1 Einführende Beispiele und erste Definition Zeit: diskret; Raum: diskret; Zustandsraum: diskret. Sommersemester 2010 14

1.1 Einführende Beispiele und erste Definition Allgemein: Realisierungen von Zufallsvariablen X t, t T, mit einer geeigneten Indexmenge T, z.b. mit T N 0, R + T Z 2 T R 2 T Z 2 N 0 (Zeit), (räumliches Gitter), (kontinuierliche Teilmenge), (Raum Zeit). Definition: Stochastischer Prozess als Familie von Zufallsvariablen Eine Familie {X t, t T } von Zufallsvariablen heißt stochastischer Prozess. Die Indexmenge T heißt Parameterraum, der Wertebereich S der Zufallsvariablen heißt Zustandsraum. Genauer nimmt man an: X t : (Ω, F, P ) (S, S) Zufallsvariable für alle t S σ Algebra (Ω, F, P ) Wahrscheinlichkeitsraum Sommersemester 2010 15

1.1 Einführende Beispiele und erste Definition X = {Ω, F, P, {X t, t T }} stochastischer Prozess Sommersemester 2010 16

1.2 Spezielle 1.2 Spezielle 1.2.1 Irrfahrten (Random Walks) Diskrete einfache Irrfahrt auf der Geraden: Start in X 0 = 0 (Zeit t = 0). Bewegung: (t = 1, 2,...) Ein Schritt nach rechts mit Wahrscheinlichkeit p Ein Schritt nach links mit Wahrscheinlichkeit q Verbleiben im Zustand mit Wahrscheinlichkeit r p + q + r = 1. X t Position nach t-tem Schritt. Sommersemester 2010 17

Alternative Darstellung: 1.2 Spezielle {Z t, t = 1, 2,...} i.i.d. Folge von Zufallsvariablen für t-ten Schritt. Z t { 1, 0, 1} P (Z t = 1) = q P (Z t = 0) = r P (Z t = 1) = p Definition von X t : X 0 = 0 X t = Z 1 + Z 2 +... + Z t bzw. X t = X t 1 + Z t, t 1 Sommersemester 2010 18

Formale Definition: 1.2 Spezielle Die Folge X = {X t, t N 0 }, mit X t = X t 1 + Z t, heißt (einfache) Irrfahrt auf der Geraden. {X t, t N 0 } ist ein stochastischer Prozess mit T = N 0 und S = Z. Zugrundeliegender Ergebnisraum Ω mit Ergebnissen ω: ω Folge der Realisierungen von Z 1, Z 2,..., z.b. Ω = { 1, 0, 1} N. ω = (1, 1, 1, 1, 1, 0, 0, 1, 1,...) = (Z 1 (ω) = 1, Z 2 (ω) = 1, Z 3 (ω) = 1,...) Die durch (t, X t ) gebildete Treppenfunktion heißt Pfad, Trajektorie oder Realisierung des Prozesses. Sommersemester 2010 19

1.2 Spezielle Spezialfälle: r = 0 p = q = 1 2 kein Unentschieden faires Spiel, symmetrische Irrfahrt Modifikation: Absorbierende Schranken Interpretation: Spieler A mit Anfangskapital a > 0 Spieler B mit Anfangskapital b > 0 X t Gewinn von A nach t Spielen {X t = a} Ruin von A ( Gambler s ruin ) {X t = b} Ruin von B. Ziel: Berechnung von Ruin- bzw. Gewinnwahrscheinlichkeiten. Sommersemester 2010 20

1.2 Spezielle Gewinnwahrscheinlichkeit bei p = q = 1 2 ist für A: P A = a a + b und für B: P B = b a + b Allgemeinere Gewinnwahrscheinlichkeiten Übung. Markov Eigenschaft der diskreten Irrfahrt: P (X t+1 = j X t = i, X t 1 = i t 1, X t 2 = i t 2,..., X 1 = i 1 ) = P (X t+1 = j X t = i). Interpretation: Die Zukunft X t+1 ist bei bekannter Gegenwart X t (bedingt) unabhängig von der Vergangenheit X t 1,..., X 1. Ungerichtete Form der Markov Eigenschaft: P (X t = i X s t ) = P (X t = i X t+1 = i t+1, X t 1 = i t 1 ) Sommersemester 2010 21

1.2 Spezielle Zwei dimensionale symmetrische Irrfahrt X t = (X 1t, X 2t ) Z 2 X t+1 = X t + Z t ; (( ) ( 1 1 Z t, 0 0 ) ( 0, 1 ), ( 0 1 )) mit P ( Z n = ( 1 0 )) =... = P ( Z n = ( 0 1 )) = 1 4 Allgemeine Irrfahrt (Random Walk): {Z t, t N} iid Folge, Z t beliebig verteilt. Gauß-Irrfahrt: {Z t, t N} iid N(0, σ 2 ), Gauß sches Weißes Rauschen Sommersemester 2010 22

Markov Eigenschaft: 1.2 Spezielle f(x t X t 1 = x t 1,..., X 1 = x 1 ) = f(x t X t 1 = x t 1 ) N(x t 1, σ 2 ) bzw. X t X t 1,..., X 1 X t X t 1 N(X t 1, σ 2 ) Autoregressiver Prozess der Ordnung 1 (AR(1)) X t = ρx t 1 + Z t, Z t i.i.d. Autoregressiver Prozess der Ordnung p (AR(p)) X t = ρ 1 X t 1 +... + ρ p X t p + Z t, Z t i.i.d. Gauß-Prozesse, falls Z t i.i.d. N(0, σ 2 ). Sommersemester 2010 23

Markov-Eigenschaft: 1.2 Spezielle Für AR(1): X t X t 1,..., X 1 X t X t 1 N(ρX t 1, σ 2 ) Für AR(p): X t X t 1,..., X 1 X t X t 1,..., X t p N(µ t, σ 2 ) mit µ t = ρ 1 X t 1 +... + ρ p X t p Sommersemester 2010 24

Räumliche Markov-Prozesse 1.2 Spezielle {X s, s = (i, j) Z 2 } heißt räumlicher (Gitter-)Prozess oder Zufallsfeld. X ij {0, 1} Indikatorvariablen, z.b. X ij = { 1 archäologischer Fund in (i, j) 0 sonst X s {0, 1, 2,...} Zählvariable, z.b. Anzahl von Krebserkrankungen in Landkreisen; irreguläres Gitter. X ij stetig verteilt, z.b. Graustufe/Farbe in der Bildanalyse Räumliche Markov Eigenschaft f(x ij {X kl, (k, l) (i, j)}) = f(x ij {X kl, (k, l) (i, j)}) : Nachbar von Sommersemester 2010 25

1.2.2 Wiener Prozess 1.2 Spezielle Stochastisches Modell für die Brown sche Bewegung (zeitstetige Irrfahrt kleiner Teilchen in homogener, ruhender Flüssigkeit). Irrfahrt kommt durch zufälliges Zusammenstoßen mit Molekülen der Flüssigkeit zustande. Parameterraum T = R +. Zustandsraum S = R (bzw. R 2, R 3 ). Bezeichnung: W = {W t, t R + } oder {W (t), t R + } Wichtiger Baustein zur Modellierung von Wertpapierpreisen mit Anwendung in der Optionsbewertung (Black-Scholes-Regel): Bezeichne P 0 (t) den Preis eines risikolosen Wertpapiers (z.b. Sparguthaben) zum Zeitpunkt t. Bei stetiger Verzinsung mit konstantem Zinssatz r gilt: P 0 (t) = P 0 (0)e rt ln P 0 (t) = ln P 0 (0) + rt Sommersemester 2010 26

= loglinearer Ansatz für Aktienkurse: 1.2 Spezielle ln P (t) = ln P (0) + rt + W (t), W (t) regelloser Fehler in stetiger Zeit. Wiener-Prozess als Grenzfall von Irrfahrten X(t) symmetrische diskrete Irrfahrt, X(0) = 0. Bewegungen zu den Zeitpunkten n t, n = 1, 2,... um ± x. X(t) = Lage des Teilchens für t = n t = n k=1 Z k Z k i.i.d. mit { P (Zk = + x) = 1 2 P (Z k = x) = 1 2 Sommersemester 2010 27

1.2 Spezielle E(Z k ) = 0 V ar(z k ) = ( x) 2 = E(X(t)) = 0 V ar(x(t)) = ( x) 2 n = ( x)2 t } t {{} =:σ 2 Grenzübergang n ( t 0, x 0), so dass konstant bleibt. Zentraler Grenzwertsatz σ 2 := ( x)2, 0 < σ 2 < t = X(t) N(0, σ 2 t) für n. Sommersemester 2010 28

Vor dem Grenzübergang gilt 1.2 Spezielle Zuwächse X(t) X(s), X(v) X(u), mit u < v < s < t sind unabhängig (zusammengesetzt aus getrennten i.i.d. Teilsummen) Zuwächse X(t+s) X(s) sind stationär (Verteilung hängt nur von der Zeitdifferenz ab): X(t + s) X(s) X(t) X(0) N(0, σ 2 t) Plausibel: Unabhängigkeit und Stationarität der Zuwächse überträgt sich auf Grenzprozess für n. Exakter Beweis aber schwierig. Axiomatischer Zugang Herleitung des Wiener-Prozesses als Grenzfall von Irrfahrten funktioniert auch für allgemeine symmetrische Irrfahrten, z.b. mit Z k N(0, σ 2 t), t = n t Sommersemester 2010 29

Axiomatische Definition des Wiener-Prozesses 1.2 Spezielle Ein stochastischer Prozess W = {W (t), t R + }, S = R, heißt Wiener-Prozess, wenn gilt: (W1) Zuwächse sind normalverteilt und stationär: W (s + t) W (s) N(0, σ 2 t) für alle s, t 0 (W2) Für alle 0 t 1 < t 2 <... < t n, n 3 sind die Zuwächse W (t 2 ) W (t 1 ),..., W (t n ) W (t n 1 ) unabhängig (W3) W (0) = 0 (W4) Pfade sind stetig. Sommersemester 2010 30

Bemerkungen: 1.2 Spezielle Für σ 2 = 1 heißt der Wiener Prozess normiert. (W3) ist Anfangsbedingung. Addition von c liefert W (t) = W (t) + c mit W (0) = c. (W1), (W2), (W3) bestimmen die endlich-dimensionalen Verteilungen von W (t 1 ), W (t 2 ),..., W (t n ) n 1, t 1,..., t n R +. (W4) folgt nicht aus (W1) (W3). Man müsste sogar zeigen, dass (W4) mit (W1) (W3) verträglich ist. Sommersemester 2010 31

Eindimensionale Verteilungen: 1.2 Spezielle W (t) N(0, σ 2 t) t R +, da nach (W1) und (W3). W (t) W (0) = W (t) N(0, σ 2 t) Bivariate Verteilungen: mit ( ) W (s) W (t) N(0, Σ), ( Σ = σ 2 s s ) s. t 0 s < t Für s, t beliebig: Cov(W (s), W (t)) = min(t, s)σ 2. Sommersemester 2010 32

Zugehörige Dichte: f s,t (x 1, x 2 ) = { 1 2πσ 2 s(t s) exp 1 2σ 2 1.2 Spezielle [ x 2 1 s + (x 2 x 1 ) 2 ]}, s < t t s Bedingte Dichten: W (s) [W (t) = b] N ( s ) t b, σ2s t (t s), s < t W (t) [W (s) = a] N(a, σ 2 (t s)) Sommersemester 2010 33

1.2 Spezielle Allgemeine endlichdimensionale Verteilungen: Für 0 t 1 < t 2 <... < t n, n N gilt (W (t 1 ),..., W (t n )) N(0, σ 2 Σ) Σ = t 1 t 1 t 1... t 1 t 1 t 2 t 2... t 2 t 1. t 2. t 3.... t 3. t 1 t 2 t 3... t n Dichte: f t1,...t n (x 1,..., x n ) = f(x 1 )f(x 2 x 1 )... f(x n x n 1 ) { [ exp 1 x 2 ]} 1 2σ = 2 t 1 + (x 2 x 1 ) 2 t 2 t 1 +... + (x n x n 1 ) 2 t n t n 1 (σ 2π) n t 1 (t 2 t 1 )... (t n t n 1 ) Dies zeigt auch die Markoveigenschaft des Wiener Prozess. Sommersemester 2010 34

Pfadeigenschaften: 1.2 Spezielle Stetig nach (W4). In jedem endlichen Intervall von unbeschränkter Variation: t 0, t 1,..., t n Gitter auf [t 0, t n ], Schrittweite δ n = n W (t k ) W (t k 1 ), für n k=1 Mit Wahrscheinlichkeit 1 nirgends differenzierbar. Plausibilitätserklärung: Für den Differenzenquotienten gilt W (t + h) W (t) h N ) (0, σ2 h d.h. die Varianz des Differenzenquotienten für h 0. Sommersemester 2010 35

1.2 Spezielle Es gilt sogar P { a W (t + h) W (t) h } b 0, [a,b] endl. Intervall Differenzenquotienten kann nicht gegen endliche Zufallsvariable konvergieren. Sommersemester 2010 36

Allgemeine Notation für Zählprozesse: 1.2.3 Zählprozesse und Poisson-Prozess {S n, n N} Stochastischer Prozess von Ereigniszeitpunkten, z.b. Eintreten von Schadensfällen bei KFZ Versicherung Todesfälle in klinischer Studie 1.2 Spezielle Ankünfte von Jobs bei Computer, von Kunden bei Servicestelle,... Kauf eines Produkts, Transaktionen an der Börse {T n, n N} Stochastischer Prozess von Verweildauern, Zwischenankunftszeiten, etc. mit T n = S n S n 1 Zählprozess N(t) = I [0,t] (S n ) = Anzahl der Ereignisse in (0, t]. n=1 Sommersemester 2010 37

1.2 Spezielle Vereinbarung: T n > 0 für alle n N, d.h. keine gleichzeitigen Ereignisse. Pfade sind rechtsstetige Treppenfunktionen mit Sprunghöhe 1 Verhältnis zwischen Zählprozess und Ereigniszeitpunkten: S n t N(t) n S n t < S n+1 N(t) = n N(t) = max n {S n t} = min n {S n+1 > t} Mehr zu Zählprozessen in Kapitel 7; hier: Poisson-Prozess als einfachster Zählprozess Sommersemester 2010 38

1.2 Spezielle Definition: Zählprozess N mit unabhängigen und stationären Zuwächsen: N besitzt unabhängige Zuwächse : n t 0 < t 1 <... < t n N(t 1 ) N(t 0 ),..., N(t n ) N(t n 1 ) unabhängig N besitzt stationäre Zuwächse : 0 t 1 < t 2, s > 0 N(t 2 ) N(t 1 ) und N(t 2 + s) N(t 1 + s) identisch verteilt Definition Poisson-Prozess: Ein Zählprozess N = {N(t), t 0} heißt Poisson-Prozess : (1) N hat unabhängige und stationäre Zuwächse (2) P {N(t + h) N(t) 2} = o(h) P {N(t + h) N(t) = 1} = λh + o(h) Sommersemester 2010 39

1.2 Spezielle Eigenschaft (2) lässt sich ersetzen durch Sprünge der Pfade haben (mit Wkeit 1) die Höhe 1, keine gleichzeitigen Ereignisse, Zählprozess nach unserer Übereinkunft. Für einen Poisson-Prozess N gilt d.h. P (N(t) = n) = (λt)n e λt, n N 0, n! mit Intensität oder Rate λ > 0. N(t) P o(λt) Bemerkung: (2) kann auch durch N(t) P o(λt) ersetzt werden Sommersemester 2010 40

1.2 Spezielle Der Poisson-Prozess ist ein homogener (stationärer) Markov-Prozess, d.h. s 0 <... < s n < s < t und j i gilt für P (N(t) = j N(s) = i, N(s n ) = i n,..., N(s 1 ) = i 1 ) = P (N(t) = j N(s) = i) = P (N(t s) = j i) = (λ(t s))j i e λ(t s) (j i)! Bemerkung: Jeder Prozess mit unabhängigen Zuwächsen ist ein Markov-Prozess. N ist Poisson Prozess mit Rate λ Die Zwischenzeiten T n sind i.i.d. Ex(λ) verteilt (exponentialverteilt mit Parameter λ). Für die Wartezeit auf das n-te Ereignis S n = T 1 +... + T n gilt S n Ga(n, λ) f Sn (t) = e λt λ n t n 1 (n 1)! Sommersemester 2010 41

1.2 Spezielle mit E(S n ) = n λ, V ar(s n ) = n λ 2, Modus(S n ) = n 1 λ. Vorwärtsrekurrenzzeit: d.h. V (t) Ex(λ). V (t) = S N(t)+1 t P (V (t) x) = F V (t) (x) = 1 e λx Bemerkung: V (t) Ex(λ) unabhängig von gewähltem t folgt aus Gedächtnislosigkeit der Exponentialverteilung: X Ex(λ) P (X t + x X > t) = P (X x). Sommersemester 2010 42

Rückwärtsrekurrenzzeit 1.2 Spezielle U(t) = t S N(t) P (U(t) = t) = e λt P (U(t) x) = 1 e λx, 0 x < t Bemerkung: U(t) + V (t) = T N(t)+1 = S N(t)+1 S N(t) Sampling Paradoxon: N(t) in S N(t) ist zufälliger Index; T (N(t)+1) T n, n fest. Für fest vorgegebenes t gilt E(T N(t)+1 ) = E(U(t)) + E(V (t)) = 1 λ (1 e λt ) + 1 λ > 1 λ = E(T n) Plausibilitätserklärung: Bei fest vorgegebenem t ist T N(t)+1 die zufällige Länge der enthaltenen Zwischenzeit. Im Schnitt werden längere Intervalle dabei favorisiert. Sommersemester 2010 43

Überlagerung von Poisson-Prozessen L = {L(t), t 0} PP mit Rate λ M = {M(t), t 0} PP mit Rate µ } unabhängig 1.2 Spezielle Dann heißt N = {N(t), t 0} mit Überlagerung von L und M. N(t, ω) = L(t, ω) + M(t, ω) Es gilt: N ist Poisson-Prozess mit Rate λ + µ Zerlegung von Poisson-Prozessen: N Poisson-Prozess mit Rate λ. Bei Eintritt eines Ereignisses wird ein binomisches Experiment P (X = 1) = p, P (X = 0) = 1 p, unabhängig von N, durchgeführt. X = 1 : Typ 1 Ereignis Zählprozess M X = 0 : Typ 0 Ereignis Zählprozess L Sommersemester 2010 44

1.2 Spezielle Es gilt: M und L sind unabhängige PP mit Raten λp und λ(1 p). Typisches Beispiel: Netzwerke, etwa Straßensystem. Verallgemeinerung: Räumlicher Poisson-Prozess Anzahl der Ereignisse in einem Gebiet A ist Poisson-verteilt mit Erwartungswert λ Fläche(A). Anzahl der Ereignisse in zwei nicht überlappenden Gebieten A 1 und A 2 sind unabhängig. Erweiterung I: Inhomogener Poisson-Prozess Ein Zählprozess N = {N(t), t 0} heißt nichtstationärer (inhomogener) Poisson- Prozess mit Rate (Intensitätsfunktion) λ(t), t 0 : (1) N hat unabhängige Zuwächse (2) P (N(t + h) N(t) 2) = o(h) P (N(t + h) N(t) = 1) = λ(t)h + o(h) Sommersemester 2010 45

1.2 Spezielle Es lässt sich zeigen: P (N(t + s) N(t) = n) = exp t+s t λ(u)du ( t+s t ) n λ(u)du n! (Λ(t + s) Λ(t))n = exp( (Λ(t + s) Λ(t)) n! mit Λ(t) = t 0 λ(u)du als kumulierte Rate, d.h. N(t + s) N(t) P o t+s t λ(s)ds Sommersemester 2010 46

1.2 Spezielle Erweiterung II: Bewerteter (Compound) Poisson-Prozess N Poisson-Prozess, {Y n, n N} von N unabhängige i.i.d. Folge. Dann heißt X = {X(t), t 0} mit X(t) = N(t) n=1 Y n bewerteter Poisson-Prozess. Beispiele: Schadensprozesse N(t) Prozess der Schadensanzahl, {Y n, n N} zugehörige Schadenshöhen, X(t) = N(t) n=1 Y n Gesamtschaden in [0, t]. Sommersemester 2010 47

Klassisches Versicherungsmodell von Cramér Lundberg 1.2 Spezielle R(t) = c 0 + c 1 t X(t) Risikoprozess, c 1 Prämienintensität, X(t) bewerteter Poisson-Prozess mit Intensität λ, Y n i.i.d. F Schadenhöhen. Ziel: Bestimmung der Wahrscheinlickeiten P (R(t) > 0 t) =? oder P (R(t) 0)? Sommersemester 2010 48