Hawkes Prozesse Grundlagen

Ähnliche Dokumente
Stoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016

Stochastische Prozesse

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Schwache Lösungen von SDEs und das lokale Martingalproblem

Stochastische Analysis

Stochastik I. Vorlesungsmitschrift

Allgemeine Punktprozesse

Zufallsvariable, Verteilung, Verteilungsfunktion

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

8 Die quadratische Variation, und die Integration bzgl. stetiger Semimartingale

Kapitel 6 Martingale

1.3 Zufallsvariablen

7 Poisson-Punktprozesse

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

Markierte Punktprozesse und zufällige Tesselationen

Maximale Generatoren Integral Stochastischer Ordnungen - Fortsetzung Eigenschaften von stochastischen Ordnungen Kleine Generatoren

Terminologie Stochastischer Prozesse

3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte

Einführung und Grundlagen

Strassen Type Theorems Proseminar Stochastik

3 Markov-Eigenschaft der Brownschen Bewegung

Abgabetermin: 5. Mai 2017, Uhr

Extremalpunkte und der Satz von Krein-Milman. 1 Lokalkonvexe topologische Vektorräume

Klausur zur Vorlesung Stochastik II

2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit

Stochastische Integration Stochastische Differentialgleichungen Stochastische Partielle Differentialgleichungen. Dominic Breit

Itô-Integation. M. Gruber Zusammenfassung

Markierte Punktprozesse und abstrakte kollektive Modelle

Stochastische Prozesse

3 Bedingte Erwartungswerte

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

KAPITEL 1. Martingale

2 Martingale in stetiger Zeit

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

Universität Leipzig, SoSo 2013

5 Zufallsvariablen, Grundbegriffe

Stochastik Wiederholung von Teil 1

Scheinklausur zur Vorlesung Stochastik II

Stabilität von Warteschlangen-Netzwerken: Fluid Approximationen und Lyapunov Funktionen

Endliche Markov-Ketten - eine Übersicht

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

2 Zufallsvariable, Verteilungen, Erwartungswert

Erwartungswert als Integral

22 Charakteristische Funktionen und Verteilungskonvergenz

Merkblatt zur Funktionalanalysis

10 Der Satz von Radon-Nikodym

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Aufgaben zu Kapitel 0

Grundlagen der Verteilungskonvergenz zufälliger Funktionen (vorläufige Version)

Vorlesungsskript: Martingale

Eindimensionale Stochastische Differentialgleichungen Mit Verallgemeinerter Drift Bzgl. Stetiger Lokaler Martingale DISSERTATION

Formelsammlung Analysis I & II

4 Gleichgradige Integrierbarkeit, Stoppzeiten und Martingale

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Studienbegleitende Prüfung Stochastik 2

Stochastische Prozesse Stoffzusammenfassung

Mathematik III. Vorlesung 74. Folgerungen aus dem Satz von Fubini. (( 1 3 x3 1 2 x2 y +2y 3 x) 1 2)dy. ( y +2y y +4y3 )dy

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Schwartz-Raum (Teil 1)

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011

Übungen zu Differentialgleichungen (WiSe 12/13)

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Seminar Gewöhnliche Differentialgleichungen

A. STOCHASTISCHE PROZESSE UND STOPPZEITEN 109

Gaußsche Felder und Simulation

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

1 Die direkte Methode der Variationsrechnung

Kapitel 7. Martingale 1

Brownsche Bewegung: Eine Einführung

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Reelle Zufallsvariablen

Liste wichtiger Stammfunktionen

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried

Orthogonalpolynome Einführung, Eigenschaften und Anwendungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

Zeitstetige Markov-Prozesse: Einführung und Beispiele

1 Bedingte Erwartungswerte

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

MAA = MAB + B AA = B CA + CAA BA A Nun sehen wir mit Proposition 10.7 aus dem Skript, dass A M AB gelten muss.

Stochastische Geometrie und ihre Anwendungen Thema: Faserprozesse

Gesetze der großen Zahlen

7 Der Satz von Girsanov

Klausur zur Vorlesung Stochastik II

Das Prinzip der Suchmaschine Google TM

Charakteristische Funktionen

Wahrscheinlichkeitstheorie

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse

Wichtige Klassen reeller Funktionen

Darstellungssatz von Riesz in vollständig regulären Räumen. Carina Pöll Wintersemester 2012

8 Verteilungsfunktionen und Dichten

Inhalt. Einführung. Deterministische Mosaike. Zufällige Mosaike. Mathematische Analyse. Statistik. Schluss

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

1. Übungsblatt zu Stochastische Prozesse

Klausur zu,,einführung in die Wahrscheinlichkeitstheorie

ist ein n-dimensionaler, reeller Vektorraum (vgl. Lineare Algebra). Wir definieren auf diesem VR ein Skalarprodukt durch i y i i=1

Transkript:

Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem Messraum (Ω, F). Definition (Punktprozess). Ein adaptierter càdlàg Prozess N mit N =, N t N für alle t und N t {, 1} für alle t heißt Punktprozess. Hierbei sei mit N := N N der Sprungprozess von N bezeichnet. Definition. (Previsible & Optionale σ-algebra) (i) Wir definieren die optionale σ-algebra O über Ω R + durch O := σ ( X : Ω R + R X ist adaptiert und càdlàg ). (ii) Wir definieren die previsible σ-algebra P über Ω R + durch P := σ ( X : Ω R + R X ist adaptiert und linksstetig ). Bemerkung. Man kann zeigen, dass jeder optionale Prozess X messbar bzgl. F B(R + ) ist. Weiter ist jeder previsible Prozess X auch optional (und somit auch messbar). Korollar. Es gilt P = σ ( {A {} : A F } {A (s, t] : s < t und A F s } ). Definition. (i) Wir bezeichnen mit M die Menge aller gleichgradig integrierbaren Martingale. (ii) Wir bezeichnen mit V die Menge aller adaptierten càdlàg Prozesse A mit A =, sodass jeder Pfad von lokal beschränkter Variation ist. (iii) Wir bezeichnen mit V + die Menge aller A V mit monoton wachsenden Pfaden. (iv) Definiere A := {A V E[Var(A) ] < }. (v) Definiere A + := {A V + E[Var(A) ] < }. Satz (Previsibler Kompensator). Es sei A A + loc. Dann existiert ein bis auf Ununterscheidbarkeit eindeutiger previsibler Prozess A p A + loc, sodass A A p M loc. Korollar. Jeder Punktprozess N ist lokal beschränkt. Insbesondere ist N A + loc. Bemerkung. Wir finden also zu jedem Punktprozess N einen previsiblen Prozess N p A + loc, sodass N N p M loc. Dieser wird auch als Intensität bezeichnet.

15. Februar 218 Zufällige Maße Es sei (E, τ) ein polnischer Raum mit Borel-σ-Algebra E. Wir bezeichnen mit Ω die Menge Ω R + E, mit Õ die σ-algebra O E und mit P die σ-algebra P E. Definition (Zufällige Maße). Ein zufälliges Maß auf R + E ist eine Familie µ = {µ(w; dt, dx) ω Ω} von nichtnegativen Maßen auf (R + E, B(R + ) E ) mit der Eigenschaft µ(w; {} E) = für alle ω Ω. Zusätzlich fordern wir, dass die Abbildung ω µ(ω, A) messbar bezüglich F ist für alle A B(R + ) E. Definition (Integration bezüglich zufälliger Maße). Es sei W eine Õ-messbare, reellwertige Abbildung auf Ω. Es folgt, dass die Abbildung (t, x) W (ω, t, x) messbar ist für alle ω Ω. Weiter definieren wir den Integralprozess W µ durch W µ t (ω) := W (ω, s, x)µ(ω, ds, dx), falls W (ω, s, x) µ(ω, ds, dx) < [,t] E und W µ t (ω) := sonst. Definition (Optionale zufällige Maße). [,t] E (i) Ein zufälliges Maß µ heißt optional (previsibel), falls der Prozess W µ optional (previsibel) für jede optionale (previsible) Abbildung W ist. (ii) Ein optionales zufälliges Maß heißt integrierbar, falls 1 µ A + (iii) Ein optionales zufälliges Maß heißt P-σ-endlich, falls eine strikt positive previsible Abbildung V auf Ω existiert, sodass V µ A + ; Dies ist äquivalent dazu, dass eine Partition A n P von Ω existiert, sodass 1 An µ A + für alle n N. Definition (N-wertige zufällige Maße). Ein N-wertiges zufälliges Maß µ ist ein zufälliges Maß mit folgenden Eigenschaften: µ(ω, {t} E) 1. Für A B(R + ) E ist µ(, A) eine N-wertige Abbildung. µ ist optional und P-σ-endlich. Definition (Erweiterte Poissonmaße). (i) Ein erweitertes Poissonmaß auf R + E bezüglich einer Filtration (F t ) t ist ein N-wertiges zufälliges Maß µ, sodass gilt: Das positive Maß m auf R + E, mit m(a) := E[µ(A)], ist σ-endlich. Für jedes s R + und jedes A B(R + ) E, sodass A (s, ) E und m(a) <, ist die Zufallsvariable µ(, A) unabhängig von F s. (ii) Das Maß m heißt Intensität von µ. (iii) Falls m({t} E) = für alle t R +, so heißt µ Poissonmaß. Gilt zusätzlich m(dt, dx) = dt F (dx), wobei F ein positives σ-endliches Maß auf (E, E ) ist, so heißt µ homogenes Poissonmaß.

Hawkes Prozesse Es sei im Folgenden nun G = (S, E) ein abzählbarer Graph mit Knoten i S und orientierten Kanten e E. Schreibe e = (j, i) E für eine orientierte Kante von dem Knoten j zu dem Knoten i. Weiter seien mit ϕ = (ϕ ji ) (j,i) E, wobei ϕ ji : [, ) R, und mit (h i ) i S, wobei h i : R [, ), eine zu den Kanten, bzw. zu den Knoten assoziierte Familie von Funktionen gegeben. Definition 1 (Hawkes-Prozess). Ein Hawkes-Prozess mit Parametern (G, ϕ, h) ist eine Familie von Zählprozessen (Z i t) t,i S, sodass: (i) Für alle i, j S mit i j gilt: (Z i t) t und (Z j t ) t springen fast sicher nie gleichzeitig. (ii) Für alle i S gilt: Der Kompensator (Λ i t) t von (Z i t) t hat die Form Λ i t = wobei der Prozess (λ i t) t gegeben sei durch λ i t = h i j i Der Prozess (λ i t) t heißt Intensitätsprozess von (Z i t) t. λ i s ds, ϕ ji (t s) dzs j. (1) Ein Hawkes-Prozess heißt linear, falls h i (x) = µ i + x, wobei µ i für alle i S. Existenz und Eindeutigkeit Es sei nun mit (π i (ds, dz)) i S eine Familie von iid (F t ) t -Poissonmaßen mit Intensitätsmaß m(ds dz) = λ 2 auf [, ) [, ) bezeichnet. Definition 2 (Hawkes-Prozesse als Lösung einer SDE). Eine Familie (Z i t) t,i S von (F t ) t -adaptierten càdlàg Prozessen heißt Hawkes Prozess mit Parametern (G, ϕ, h), falls für alle i S und für alle t gilt: Z i t = 1 { z h i ( j i s Lemma (Äquivalenz der Definitionen eines Hawkes-Prozess). ϕ ji (s u) dz j u)} π i (ds, dz) fast sicher. (2) a) Ein Hawkes-Prozess im Sinne von Definition 2 ist ein Hawkes Prozess im Sinne von Definition 1. b) Sei auf (Ω, F, (F t ) t, P) ein Hawkes Prozess (Z i t) t,i S nach Definition 1 gegeben. Dann existiert auf einem (erweiterten) Wahrscheinlichkeitsraum ( Ω, F, ( F t ) t, P) eine Familie (π i (ds, dz)) i S von iid ( F t ) t -Poissonmaßen mit Intensitätsmaßen m(ds, dz) = λ 2 auf [, ) [, ), sodass (Z i t) t,i S ein Hawkes-Prozess nach Definition 2 ist.

15. Februar 218 Voraussetzung 1. Es seien (c i ) i S nicht-negative Konstanten, (p i ) i S positive Gewichte und Φ : [, ) [, ) eine lokal integrierbare Funktion. Es gelte außerdem: i) Für alle i S und für alle x, y R: h i (x) h i (y) c i x y ii) i S h i ()p i < iii) Für alle t [, ) und für alle j S: c i p i ϕ ji (t) p j Φ(t) Beispiel. i j (i) Im Falle einer endlichen Menge S ist die Voraussetzung 1 erfüllt, falls h i Lipschitz für alle i S, ϕ ji lokal integrierbar für alle (j, i) E und p i = 1 für alle i S. (ii) Sei S = Z d und E = {(i, j) S S : i j {, 1}}. Die Voraussetzung 1 ist erfüllt mit p i = 2 i, c i = c > und Φ lokal integrierbar, sodass h i Lipschitz mit Konstante c für alle i S, p i h i () < und ϕ jk (t) Φ(t) für alle i S, für i S alle x, y R, für alle (j, k) E und für t. (iii) Für S = Z + und E = {(i, i + 1) : i S} ist die Voraussetzung 1 erfüllt, falls eine lokal integrierbare Funktion Φ und Konstanten c i und a i für alle i S existieren, sodass h i (x) h i (y) c i x y und ϕ i(i+1) (t) a i Φ(t) für alle t. (iv) Ist S = Z d, E = S S und existiere eine Konstante c >, eine lokal integrierbare Funktion Φ und eine nichtwachsende Funktion a : [, ) [, ), so ist die Voraussetzung 1 erfüllt, falls i S a( i ) <, h i () c und h i (x) h i (y) c x y für alle i S und ϕ ji (t) a( i j )Φ(t) für alle (i, j) E und t. Satz (Existenz und Eindeutigkeit). Unter Voraussetzung 1 existiert ein bis auf Ununterscheidbarkeit eindeutiger Hawkes-Prozess (Z i t) t,i S nach Definition 2 mit der Eigenschaft, dass i S p ie[z i t] < für alle t.

Propagation of Chaos Voraussetzung 2. Es seien h : R [, ) und ϕ : [, ) R Funktionen mit h(x) h(y) h lip = sup x y < und ϕ L 2 loc ([, ). x y Für N 1 sei G N = (S N, E N ) ein Graph mit Knotenmenge S N = {1,..., N} und Kantenmenge E N = {(i, j) i, j S N }. Setze h N i = h für alle i S N und ϕ N ij = 1 N ϕ für alle (i, j) E N. Definition (Grenzwertgleichung). Sei π(ds, dz) ein Poisson Maß auf [, ) [, ) mit Intensitätsmaß λ 2. Die Gleichung Z t = 1 {z h( s ϕ(s u)de( Z u))} heißt Grenzwertgleichung ( limit equation ). π(ds, dz) t Satz (Existenz und Eindeutigkeit). Unter Voraussetzung 2 existiert eine eindeutige Lösung ( Z t ) t zu der Grenzwertgleichung, sodass (E( Z t )) t lokal beschränkt ist. Bemerkung. Eine Lösung ( Z t ) t der Grenzwertgleichung ist ein verallgemeinerter Poisson Prozess auf [, ). Es sei mit D([, ), R) die Menge der R-wertigen càdlàg Funktionen auf [, ) und mit P(D([, ), R)) die Menge der Wahrscheinlichkeitsmaße auf D([, ), R) bezeichnet. Satz. Es gelte die Voraussetzung 2 und es sei mit (π i (ds, dz)) i=1,...,n eine Familie von iid Poisson Maßen gegeben (mit Intensitätsmaß λ 2 ). i) Zu N 1 lassen sich ein Hawkes-Prozess (Z N,1 t,..., Z N,N t ) t mit den Paramtern (G N, ϕ N, h N ) und eine iid Familie ( Z t) i t,i=1,...,n von Lösungen zu der Grenzwertgleichung konstruieren, sodass für alle T > und alle i = 1,..., N gilt: ( E sup Z N,i t [,T ] ) Z t i C T 1 N, wobei die Konstante C T > nur von h, ϕ und T abhängt. ii) Es gilt die mean-field approximation : 1 N N i=1 δ (Z N,i t ) t L ( ( Z t ) t ) in Wahrscheinlichkeit für N Wobei P(D([, ), R)) mit der Topologie der schwachen Konvergenz ausgestattet sei, die assoziiert ist zu der gleichmäßigen Konvergenz auf kompakten Intervallen (auf D([, ), R)).

15. Februar 218 Anhang Lemma 1. Sei φ : [, ) R lokal integrierbar und α : [, ) R cadlag, von lokal endlicher Variation und α() =. Dann gilt für alle t s φ(s u) dα(u) ds = s φ(s u) dα(u) ds = φ(t s)α(s)ds. Lemma 2. Sei φ : [, ) [, ) lokal integrierbar und g : [, ) [, ) lokal beschränkt. 1. Sei u eine lokal beschränkte nicht negative Funktion, sodass für alle t u t g t + φ(t s)u s ds. Dann ist abhängt. sup u t C T sup g t t [,T ] t [,T ] für eine Konstante C T, die nur von T und φ 2. Sei (u n ) n N eine Folge von nicht negativen lokal beschränkten Funktionen, sodass für alle t und für alle n N Dann gilt abhängt. sup t [,T ] n N u n+1 t φ(t s)u n s ds. u n t C T für eine Konstante C T, die nur von T, u und φ 3. Sei (u n ) n N eine Folge von nicht negativen lokal beschränkten Funktionen, sodass für alle t und für alle n N u n+1 t g t + φ(t s)u n s ds. Dann gilt φ abhängt. sup t [,T ] n N sup u n t C T für eine Konstante C T, die nur von T, u, g und Lemma 3. Seien X, Y zwei nicht negative Zufallsvariablen. Dann gilt E [ 1 {z X} 1 {z Y } ] dz = E[ X Y ].

Lemma 4. Sei π ein zufälliges erweitertes Poissonmaß mit Intensität m. Dann gilt für jede beschränkte, previsible Abbildung W : (Ω R + E, P) R [ ] E W (ω; s, z)π(ω; ds, dz) = E [ W (ω; s, z) ] m(ds, dz). R + E R + E Lemma 5. Sei h : R [, ) Lipschitz und ϕ : [, ) R lokal integrierbar. Dann besitzt die Gleichung ( s ) m t = h ϕ(s u)dm u ds t (3) eine eindeutige nichtfallende lokal beschränkte Lösung der Klasse C 1 ([, )). Lemma 6. Sei durch (Q N ) N 1 eine Folge von symmetrischen Wahrscheinlichkeitsmaßen auf D([, ), R) N gegeben. Für φ 1,..., φ k C b (D([, ), R)) und k 1 gelte: lim N φ 1 (x 1 ) φ k (x k )dq N (x 1,..., x N ) = k i=1 φ i (x)dq(x) für Q ein Wahrscheinlichkeitsmaß auf D([, ), R). Dann gilt: X N = 1 N N δ Xi Q in Verteilung. i=1 Literatur [1] Sylvain Delattre, Nicolas Fournier, Marc Hoffmann, Hawkes Processes On Large Networks, Université Paris-Diderot, Université Pierre-et-Marie Curie, Université Paris- Dauphine, 216. [2] Jean Jacod, Albert N. Shiryaev, Limit Theorems For Stochastic Processes, Springer- Verlag, 2. Edition, 22. [3] Alain-Sol Sznitman, Topics In Propagation Of Chaos, Springer-Verlag, 1. Edition, 1991.