STOCHASTISCHE PROZESSE

Größe: px
Ab Seite anzeigen:

Download "STOCHASTISCHE PROZESSE"

Transkript

1 Institut für Statistik Ludwig-Maximilians-Universität Ludwigstr München Skript zur Vorlesung STOCHASTISCHE PROZESSE Ludwig Fahrmeir, Günter Raßer, Thomas Kneib Dieses Skript beruht zu einem großen Teil auf Auszügen aus Fahrmeir, Kaufmann & Ost (1981). Ergänzungen betreffen Teile der Kapitel 2 und 3, sowie die Kapitel 6 und 7. Unser Dank gilt Rudi Eichholz, der den größten Teil des L A TEX-Skripts erstellte. Überarbeitete Version vom 28. April 2011 (M. Cattaneo)

2 Inhaltsverzeichnis Literatur 5 1 Einführung und Beispiele Einführende Beispiele und erste Definition Spezielle stochastische Prozesse Irrfahrten (Random walks) Wiener-Prozess Zählprozesse und Poisson-Prozess Grundbegriffe der allgemeinen Theorie Definitionen stochastischer Prozesse Klassische Definition: SP als Familie von Zufallsvariablen Stochastischer Prozess als Produktabbildung Stochastischer Prozess als Abbildung in Funktionenraum Existenzsatz von Kolmogorov Äquivalenz-und Stetigkeitsbegriffe Äquivalente stochastische Prozesse Stetigkeitsbegriffe Stationäre und nichtstationäre stochastische Prozesse Markov-Ketten Grundlegende Eigenschaften, Beispiele Klassifizierung von Zuständen und Rückkehrverhalten Das Grenzverhalten von homogenen MK Instationäre und inhomogene MK

3 INHALTSVERZEICHNIS Instationäre und inhomogene binäre MK 1. Ordnung Weitere inhomogene MK Statistische Inferenz für MK Likelihood-Inferenz für SP Inferenz bei homogenen Markov-Ketten Fallstudie: Niederschlag bei den Snoqualmie-Wasserfällen Hidden Markov Modelle Allgemeine Markov-Ketten und MCMC-Methoden Allgemeine Markovketten Metropolis-Hastings-Algorithmus und MCMC Der Metropolis-Hastings-Algorithmus Diskrete Markov-Prozesse Definition und elementare Eigenschaften Geburts- und Todesprozesse Geburtsprozesse Geburts- und Todesprozesse Diskrete MP: Skizze der allgemeinen Theorie Zur statistischen Analyse Erneuerungs- und Semi-Markov-Prozesse Erneuerungsprozesse Definition und grundlegende Begriffe Zur Theorie der Erneuerungsprozesse Semi-Markov-Prozesse Definition und grundlegende Eigenschaften Grenzwertsätze Bemerkung zur statistischen Inferenz Martingale Martingale in diskreter Zeit Definition und Beispiele

4 INHALTSVERZEICHNIS Spielsysteme und das Optional Stopping Theorem Doob-Meyer-Zerlegung in diskreter Zeit Martingale in stetiger Zeit Definition und Beispiele Doob-Meyer-Zerlegung in stetiger Zeit Punkt- und Zählprozesse Definition und einige Eigenschaften Spezielle Zählprozesse und Beispiele MP, SMP und EP als spezielle Zählprozesse Lebensdauern und Survivalanalyse Ein allgemeines Zählprozess-Modell Statistische Inferenz für Survival- und Ereignisdaten Nelson-Aalen-Schätzer Parametrische und semiparametrische Likelihood-basierte Inferenz MP mit stetigem Zustands- und Parameterraum Modellierung von Aktienpreisen Bonds (risikofreie Anlagen) Die geometrische Brownsche Bewegung als Aktienkursmodell Markov-Prozesse mit kontinuierlichem Zustandsraum Diffusionsprozesse und stochastische Differentialgleichungen

5 Literatur Ammann, M. (2001). Credit Risk Valuation (2nd ed.). Springer. Andersen, P.K., Borgan, O. (1985). Counting process models for life history data: A review (with discussion). Scand. J. Statist. 12, Andersen, P.K., Borgan, O., Gill, R., Keiding, N. (1993). Statistical Models Based on Counting Processes. Springer. Bauer, H. (2001). Wahrscheinlichkeitstheorie (5. Aufl.). De Gruyter. Bhattacharya, R., Waymire, E. (1990). Stochastic Processes with applications. Wiley. Billingsley, P. (1995). Probability and measure (3rd ed.). Wiley. Bingham, N.H., Kiesel, R. (2004). Risk-Neutral Valuation (2nd ed.). Springer. Brémaud, P. (1981). Point Processes and Queues: Martingale Dynamics. Springer. Fahrmeir, L., Kaufmann, H., Ost, F. (1981). Stochastische Prozesse. Hanser. Fleming, T.R., Harrington, D.P. (1991). Counting Processes and Survival Analysis. Wiley. Franke, J., Härdle, W., Hafner, C. (2001). Einführung in die Statistik der Finanzmärkte. Springer. Gänssler, P., Stute, W. (1977). Wahrscheinlichkeitstheorie. Springer. Guttorp, P. (1995). Stochastic Modelling of Scientific Data. Chapman & Hall. Grimmett, G., Stirzaker, D. (2001). Probability and Random Processes. Oxford University Press. Jacod, J. (1979). Calcul stochastique et problèmes de martingales. Lectures Notes in Mathematics 714. Springer. Karlin, S., Taylor, H.M. (1975). A first course in stochastic processes (2nd ed.). Academic Press. Koller, M. (2000). Stochastische Modelle in der Lebensversicherung. Springer. Korn, R., Korn, E. (1999). Optionsbewertung und Portfolio-Optimierung. Vieweg. Lawler, G.F. (2006). Introduction to Stochastic Processes (2nd ed.). Chapman & Hall. Liptser, R.S., Shiryayev, A.N. (1989). Theory of Martingales. Kluwer. Øksendal, B. (2000). Stochastic Differential Equations (5th ed.). Springer. Pruscha, H. (2000). Statistik stochstischer Prozesse. Vorlesung, LMU. Ross, S.M. (2007). Introduction to Probability Models (9th ed.). Academic Press. Taylor, H.E., Karlin, S. (1998). An Introduction to Stochastic Modelling (2nd ed.). Academic Press. Todorovic, P. (1992). Introduction to Stochastic Processes and their applications. Springer. 5

6 Kapitel 1 Einführung und Beispiele Inhalt: Anwendungsbeispiele erste Definition eines stochastischen Prozesses einige spezielle stochastische Prozesse Ziel: Aufzeigen der Vielfalt stochastischer Prozesse Einführung erster Grundbegriffe anhand von Beispielen 1.1 Einführende Beispiele und erste Definition Beispiele: rein zeitlich: Mikrodaten des IFO-Konjunkturtests Markenwahl Erwerbstätigkeit: Individuelle Verläufe, Anzahl Erwerbsloser Krankheiten : Individuelle Verläufe, Anzahl Erkrankter DNA-Sequenzen Genetische Evolution (Aktien)Kurse: Tagesdaten 6

7 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 7 (Aktien)Kurse: Inter-Tagesdaten Schlafzustände Schadensfälle und Schadenshöhen bei KFZ-Versicherung Brown sche Bewegung (ein- und mehrdimensional) räumlich + räumlich-zeitlich: Krebsatlas (räumlich, räumlich-zeitlich) Erwerbstätigkeit (räumlich, räumlich-zeitlich) fmri Daten (human brain mapping) Kosten bei privater Krankenversicherung (räumlich-zeitlich) In allen Beispielen beobachtet bzw. misst man Realisierungen von ZV X t, t T, mit einer geeigneten Indexmenge T, z.b. mit T N 0, R + T Z 2 T R 2 T Z 2 N 0 (Zeit), (räumliches Gitter), (kontinuierliche Teilmenge), (Raum-Zeit). Dies führt zur ersten Definition 1.1 Stochastischer Prozess (SP) als Familie von ZV Sei T Indexmenge bzw. Parameterraum. Die Familie {X t, t T } von ZVen heißt stochastischer Prozess. Der Wertebereich S der ZVen heißt Zustandsraum. Bemerkung: Genauer gilt X t : (Ω, F, P ) (S, S) ZV für alle t, S ist σ-algebra und (Ω, F, P ) ein W-Raum. Dabei ist in der Regel S Z, R, R 2,... und für die σ-algebra S gilt S = P(S) für S diskret bzw. S = B Borelmengen für S R +, R,... Dann heißt das Quadrupel X = {Ω, F, P, (X t, t T )} stochastischer Prozess. 1.2 Spezielle stochastische Prozesse Irrfahrten (Random walks) Irrfahrten ( Random Walks ): einfache stochastische Modelle für Spielsituationen; diskretisierte Idealisierung von Kursverläufen bzw. der Brown schen Bewegung.

8 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 8 Diskrete einfache Irrfahrt auf der Geraden Start in 0 (Zeit t = 0) Bewegung: (t = 1, 2,...) Ein Schritt nach rechts mit Wahrscheinlichkeit p Ein Schritt nach links mit Wahrscheinlichkeit q Verbleiben im Zustand mit Wahrscheinlichkeit r p + q + r = 1 {Z t, t = 1, 2,...} i.i.d. Folge Z t { 1, 0, 1} ZV für t-ten Schritt P (Z t = 1) = q, P (Z t = 0) = r, P (Z t = 1) = p X t, t = 0, 1, 2,... Position nach dem t-ten Schritt X 0 = 0, X t = Z 1 + Z Z t, bzw. X t = X t 1 + Z t, t 1 Definition 1.2 Einfache Irrfahrt Die Folge X = {X t, t N 0 }, mit X t = X t 1 + Z t, heißt (einfache) Irrfahrt auf der Geraden. (Z t i.i.d. mit P (Z t = 1) = p, P (Z t = 1) = q, P (Z t = 0) = r)

9 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 9 Also: {X t, t N 0 } ist ein stochastischer Prozess mit T = N 0, S = Z. Zugrundeliegender Ergebnisraum Ω, Ergebnisse ω: ω Folge der Realisierungen von Z 1, Z 2,... z.b. ω = (1, 1, 1, 1, 1, 0, 0, 1, 1,...) = (Z 1 (ω) = 1, Z 2 (ω) = 1, Z 3 (ω) = 1,...) Ω = { 1, 0, 1} N Pfad, Trajektorie, Realisierung: Treppenfunktion bzw. Polygon. Spezialfälle: r = 0 kein Unentschieden p = q = 1 2 faires Spiel, symmetrische Irrfahrt Modifikation: Absorbierende Schranken Interpretation: Spieler A mit Anfangskapital a Spieler B mit Anfangskapital b X t Gewinn von A nach t Spielen {X t = a} Ruin von A ( Gambler s ruin ) {X t = b} Ruin von B. Ziel: z.b. Berechnung von Ruinwahrscheinlichkeiten bzw. Gewinnwahrscheinlichkeiten. Ohne Beweis: Gewinnwahrscheinlichkeit bei p = q = 1 2 ist für A: P A = a a + b und für B: P B = b a + b Markov-Eigenschaft der diskreten Irrfahrt: P (X t+1 = j X t = i, X t 1 = i t 1, X t 2 = i t 2,..., X 1 = i 1 ) = P (X t+1 = j X t = i), für j {i + 1, i, i 1} Interpretation: Die Zukunft X t+1 ist bei bekannter Gegenwart X t (bedingt) unabhängig von der Vergangenheit X t 1,..., X 1 (X 0 = 0!) bzw. X t 1,..., X 1, X 0 ; X 0 unabhängig von {Z t }.

10 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 10 Beweis: P (X t+1 = j X t = i, X t 1 = i t 1,..., X 1 = i 1, X 0 = i 0 ) = P (Z t+1 = j i Z t = i i t 1,..., Z 1 = i 1 i 0, X 0 = i 0 ) (Z t+1,z t,...,z 1,X 0 unabhängig) = P (Z t+1 = j i) = P (X t+1 = j X t = i). Ungerichtete Form der Markov-Eigenschaft: P (X t = i X s t ) = P (X t = i X t+1 = i t+1, X t 1 = i t 1 ) Interpretation: Bei gegebenen Nachbarn X t+1, X t 1 ist X t von weiteren Nachbarn links und rechts unabhängig. Beweis: Zwei-dimensionale symmetrische Irrfahrt X n = (X 1n, X 2n ) Z 2 X n+1 = X n + Z n ; (( ) ( 1 1 ) ( 0 ) ( 0 )) Z n 0, 0, 1, 1 mit ( ( 1 )) ( ( 0 )) P Z n = 0 =... = P Z n = 1 = 1 4

11 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 11 Verallgemeinerungen Allgemeine Irrfahrt (Random Walk) Bisher: {Z t, t N} iid Folge mit Z t { 1, 0, 1}. Allgemein: {Z t, t N} iid Folge, Z t beliebig verteilt. Beispiel: {Z t, t N} iid N(0, σ 2 ), Gauß sches Weißes Rauschen, X t = X t 1 + Z t Gauß-Irrfahrt. Markov-Eigenschaft gilt analog: f(x t X t 1 = x t 1,..., X 1 = x 1 ) = f(x t X t 1 = x t 1 ) N(x t 1, σ 2 ) bzw. X t X t 1,..., X 1 X t X t 1 N(X t 1, σ 2 ) Autoregressive Prozesse Autoregressiver Prozess der Ordnung 1 (AR(1)) X t = ρx t 1 + Z t, Z t iid N(0, σ 2 ) Autoregressiver Prozess der Ordnung p (AR(p)) X t = ρ 1 X t ρ p X t p + Z t Gauß-Prozess, falls Z t iid N(0, σ 2 ). Markov-Eigenschaft X t X t 1,..., X 1 X t X t 1 N(ρX t 1, σ 2 ) für AR(1) X t X t 1,..., X 1 X t X t 1,..., X t p N(µ t, σ 2 ) für AR(p) mit µ t = ρ 1 X t ρ p X t p. Autoregressive Prozesse sind wichtiger Baustein in der Zeitreihenanalyse. Räumlicher Markov-Prozess Baustein für Bildanalyse, geographische Epidemiologie, etc. {X s, s = (i, j) Z 2 } heißt räumlicher (Gitter-)Prozess oder Zufallsfeld. Beispiele:

12 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 12 X ij {0, 1} Indikatorvariablen, z.b. { 1 archäologischer Fund in (i, j) X ij = 0 sonst X s {0, 1, 2,...} Zählvariable, z.b. Anzahl von Krebserkrankungen in bestimmter Periode in Landkreisen; dabei ist das Gitter irregulär. X ij stetig verteilt, z.b. Graustufe/Farbe in der Bildanalyse Räumliche Markov-Eigenschaft f(x ij X kl, (k, l) (i, j)) = f(x ij X kl, (k, l) (i, j)) : Nachbar von Wiener-Prozess Historisch: Der Wiener-Prozess ist stochastisches Modell für die Brown sche Bewegung, d.h. die (zeitstetige) Irrfahrt kleiner Teilchen in homogener ruhender Flüssigkeit. Irrfahrt kommt durch zufälliges Zusammenstoßen mit Molekülen der Flüssigkeit zustande. Moderne Herleitung: N. Wiener, Parameterraum T = R +, Zustandsraum S = R (bzw. R 2, R 3 ). Bezeichnung: W = {W t, t R + } oder {W (t), t R + }, (W (t) um die Funktion von t zu betonen) Der Wiener-Prozess ist wichtiger Baustein zur Modellierung von Wertpapierpreisen mit Anwendung in der Optionsbewertung (Black-Scholes-Regel), vgl. z.b. Korn/Korn (1999): Sei P 0 (0), P 0 (t) der Preis eines risikolosen Wertpapiers (z.b. Sparguthaben) zu den Zeitpunkten 0 und t. Bei stetiger Verzinsung mit konstantem Zinssatz r gilt P 0 (t) = P 0 (0)e rt bzw. ln P 0 (t) = ln P 0 (0) + rt = loglinearer Ansatz für Aktienkurse: ln P (t) = ln P (0) + rt + W (t), W (t): regelloser Fehler in stetiger Zeit N(0, σ 2 t).

13 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 13 Der Wiener-Prozess als Grenzfall von Irrfahrten X(t) symmetrische diskrete Irrfahrt mit Bewegungen zu den Zeitpunkten n t, n = 1, 2,... um ± x nach oben bzw. unten, jeweils mit Wahrscheinlichkeit 1 2. X(t) = Lage des Teilchens für t = n t, X(0) = 0 Start. = X(t) = n k=1 Z k, Z k iid mit { P (Zk = + x) = 1 2 P (Z k = x) = 1 2 E(Z k ) = 0 Var(Z k ) = ( x) 2 = E(X(t)) = 0, Var(X(t)) = ( x) 2 n = ( x)2 t t }{{} =:σ 2 Grenzübergang n, so dass konstant bleibt: Zentraler Grenzwertsatz Weiter gilt: σ 2 := ( x)2, 0 < σ 2 < t = X(t) N(0, σ 2 t) für n. Die Zuwächse X(t) X(s), X(v) X(u), mit u < v < s < t sind unabhängig, da sie sich aus getrennten iid Teilsummen der {Z n }-Folge zusammensetzen. Die Zuwächse X(t + s) X(s) sind stationär, d.h. die Verteilung hängt nur von der Zeitdifferenz ab X(t + s) X(s) X(t) X(0) N(0, σ 2 t) Plausibel: Unabhängigkeit und Stationarität der Zuwächse überträgt sich auf Grenzprozess für n. Exakter Beweis schwierig. Deshalb: Axiomatischer Zugang, obige Eigenschaften + Stetigkeit der Pfade (aus physikalischen Gründen) werden postuliert. Die Herleitung des Wiener-Prozesses als Grenzfall von Irrfahrten funktioniert auch für allgemeine symmetrische Irrfahrten, z.b. mit Var(X(t)) = nσ 2 t = tσ2 / t / t = X(t) N(0, σ 2 t) für n Z n N(0, σ 2 t), t = n t = σ 2 t

14 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 14 Axiomatische Definition und Eigenschaften des Wiener-Prozesses Definition 1.3 Wiener-Prozess W Ein stochastischer Prozess W = {W (t), t R + }, S = R, heißt Wiener-Prozess, wenn gilt: (W1) Zuwächse normalverteilt und stationär: W (s + t) W (s) N(0, σ 2 t) für alle s, t 0 (W2) Für alle 0 t 1 < t 2 <... < t n, n 3 sind die Zuwächse W (t 2 ) W (t 1 ),..., W (t n ) W (t n 1 ) unabhängig (W3) W (0) = 0 (W4) Pfade sind stetig Für σ 2 = 1 heißt der Wiener-Prozess normiert. Bemerkungen: (a) (W1), (W2) Wiener-Prozess ist Prozess mit stationären, unabhängigen und normalverteilten Zuwächsen. (b) (W3) ist Anfangsbedingung. Addition von c liefert W (t) = W (t) + c mit W (0) = c. (c) (W1), (W2), (W3) bestimmen endlich-dimensionale Verteilung von W (t 1 ), W (t 2 ),..., W (t n ) n 1. t 1,..., t n R +. (W4) folgt nicht aus (W1), (W2), (W3). Im Gegenteil: Man müsste zeigen, dass (W4) mit (W1) (W3) verträglich ist.

15 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 15 Eigenschaften des Wiener-Prozesses (a) Verteilungseigenschaften eindimensionale Verteilung: W (t) N(0, σ 2 t) t R +, da W (t) W (0) N(0, σ 2 t) nach (W1). }{{} =0 zweidimensionale Verteilungen: ( ) W (s) W (t) N(0, Σ), 0 s < t mit Σ = σ 2 ( s s s t ), also Cov(W (s), W (t)) = σ 2 s. Für s, t beliebig: Cov(W (s), W (t)) = min(t, s)σ 2. Beweis: W (s), W (t) W (s), 0 s < t o.b.d.a unabhängig und normalverteilt.(w1, W2) }{{}}{{} =:U =:V = W (s) = U, W (t) = U + V bivariat normalverteilt Cov(W (s), W (t)) = E(W (s) W (t)) = E[(W (t) W (s)) W (s) +(W (s)) 2 ] }{{}}{{}}{{} V U U = E[(W (t) W (s)) (W (s) W (0))] + E(W (s) }{{}}{{}}{{} V U U unabhängige Zuwächse = E[(W (t) W (s))] E[(W (s) W (0))] + Var(W (s)) }{{}}{{}}{{} E(V )=0 E(U)=0 σ 2 s ) 2 Die bivariate Normalverteilungsdichte lässt sich schreiben als: { f s,t (x 1, x 2 ) = 1 2σ 2 1 2πσ 2 s(t s) exp [ x 2 1 s + (x 2 x 1 ) 2 t s ]}, s < t Beweis: Übung Bedingte Dichten: ( s W (s) [W (t) = b] N t b, s ) σ2 t (t s), s < t W (t) [W (s) = a] N(a, σ 2 (t s))

16 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 16 Beweis: Übung W (s) [W (t) = b] Linearität des bedingten Erwartungswertes W (t) [W (s) = a] Neustart zur Zeit s in a Endlichdimensionale Verteilungen: 0 t 1 < t 2 <... < t n, n N (W (t 1 ),..., W (t n )) N(0, σ 2 Σ), t 1 t 1 t 1... t 1 t 1 t 2 t 2... t 2 Σ = t 1 t 2 t 3... t t 1 t 2 t 3... t n Dichte: f t1,...,t n (x 1,..., x n ) = { [ ]} exp 1 x 2 1 2σ 2 t 1 + (x 2 x 1 ) 2 t 2 t (xn x n 1) 2 t n t n 1 (σ 2π) n t 1 (t 2 t 1 )... (t n t n 1 )! = f t1 (x 1 )f t2 t 1 (x 2 x 1 )... f tn t n 1 (x n x n 1 ) Bemerkung: Dies zeigt die Markoveigenschaft von W, vgl. Kap. 8. (b) Pfade Die Pfade sind stetig, aber (m. Wkeit 1) nirgends differenzierbar und in jedem endlichen Intervall von unbeschränkter Variation Beweis: vgl. A2, Kap 6, FKO. (unbeschränkte Variation: s = t 0 < t 1 <... < t n = t Gitter auf [s, t], Schrittweite δ n = t s n ) Dann gilt: n W (t k ) W (t k 1 ), für n k=1

17 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 17 Plausibilitätserklärung für Nicht-Differenzierbarkeit: Für den Diff.Quotient gilt W (t + h) W (t) h d.h die Varianz des Diff.quot. für h 0. ( σ 2 ) N 0, h Es gilt sogar P { } W (t + h) W (t) a b 0, h Diff.quot. kann nicht gegen endliche ZV konvergieren. [a,b] endl. Intervall Weitere Eigenschaften, z.b. Markoveigenschaft, in Kap. 8. Fazit: Trotz der harmlos erscheinenden Verteilungseigenschaften ergeben sich extrem unglatte Pfade Zählprozesse und Poisson-Prozess Zählprozesse {S n, n N} SP von Ereigniszeitpunkten S n Zeitpunkt des n-ten Ereignisses z.b. Eintreten von Schadensfällen bei KFZ-Versicherung Todesfälle in klinischer Studie Ankünfte von Jobs bei Computer, von Kunden bei Servicestelle... Kauf eines Produkts, Transaktionen an Börse {T n, n N} SP von Verweildauern, Zwischenankunftszeiten, etc. mit T n = S n S n 1 Zählprozess N(t) = I [0,t] (S n ) = Anzahl der Ereignisse in (0,t]. n=1 (S 0 wird nicht gezählt)

18 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 18 Übereinkunft: T n > 0 für alle n N, d.h. keine gleichzeitigen Ereignisse. Pfade = Treppenfunktion mit Sprunghöhe 1, rechtsstetig Es gilt: S n t N(t) n S n t < S n+1 N(t) = n N(t) = max n {S n t} = min n {S n+1 > t} Mehr zu Zählprozessen in Kapitel 7; hier: Poisson-Prozess als einfachster Zählprozess Erweiterung: Markierter (oder bewerteter ) Zählprozess Zu jedem Ereigniszeitpunkt S n wird eine zweite Variable Y n beobachtet. z.b. Y n Schadenshöhe bei n-ten Schaden Y n Preis(-veränderung) bei n-ter Transaktion Y n Todesart Der Poisson-Prozess FKO, S. (80/81) ff. Definition 1.4 Zählprozess N mit unabhängigen und stationären Zuwächsen N besitzt unabhängige Zuwächse : n 0 t 0 < t 1 <... < t n sind N(t 1 ) N(t 0 ),..., N(t n ) N(t n 1 ) unabhängig N besitzt stationäre Zuwächse : 0 t 1 < t 2, s > 0 sind N(t 2 ) N(t 1 ) und N(t 2 + s) N(t 1 + s) identisch verteilt

19 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 19 Definition 1.5 Poisson-Prozess Der Zählprozess N = {N(t), t 0} heißt Poisson-Prozess : (1) N hat unabhängige und stationäre Zuwächse (2) P {N(t + h) N(t) 2} = o(h) P {N(t + h) N(t) = 1} = λh + o(h) Definition 1.6 o(h) o(h) bezeichnet eine Funktion von h, die für h 0 schneller gegen 0 geht als h, d.h. o(h) lim h 0 h = 0 Bemerkung: (2) Sprunghöhe der Pfade haben (ohne Beweis) (m. Wkeit 1) die Höhe 1 keine gleichzeitigen Ereignisse Zählprozess nach unserer Übereinkunft (ohne Beweis) Satz 1.1 Poisson-Verteilung Für Poisson-Prozess N gilt P {N(t) = n} = (λt)n e λt, n! n N 0, d.h. N(t) Po(λt), mit λ 0 Intensität, Rate. Bemerkung: (2) in Def. 1.5 kann durch N(t) Po(λt) ersetzt werden Beweis: Sei p 0 (t) := P (N(t) = 0), p n (t) := P (N(t) = n) Wir zeigen zunächst p 0 (t) = e λt. Es gilt wegen Definition 1.5,(1) p 0 (t + h) = P {N(t + h) = 0} = P {N(t) = 0, N(t + h) N(t) = 0} = P {N(t) = 0} P {N(t + h) N(t) = 0} = p 0 (t)p 0 (h) p 0 (t + h) p 0 (t) h Beachtet man noch, dass aus Def 1.5,(2) = p 0 (t) p 0(h) 1 h p 0 (h) = 1 λh + o(h)

20 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 20 folgt, so erhält man für h 0 p 0(t) = λp 0 (t), p 0 (0) = 1. Dies ist eine lineare Differentialgleichung für die unbekannte Funktion p 0 (t) und besitzt eine eindeutige Lösung. Einsetzen zeigt, dass e λt die Gleichung inklusive der Anfangsbedingung erfüllt. Für n > 0 gilt p n (t + h) = P {N(t + h) = n} = P {N(t) = n, N(t + h) N(t) = 0} + P {N(t) = n 1, N(t + h) N(t) = 1} n + P {N(t) = n k, N(t + h) N(t) = k} k=2 } {{ } o(h) wegen (2) = p n (t)p 0 (h) + p n 1 (t)p 1 (h) + o(h) = p n (t)(1 λh) + p n 1 (t)λh + o(h) h 0 liefert p n(t) = λp n (t) + λp n 1 (t), n = 1, 2,... mit p 0 (t) = e λt, p n (0) = 0. Man verifiziert nun leicht, dass die Wahrscheinlichkeitsfunktion der Poisson-Verteilung (eindeutige) Lösung dieser Differentialgleichung ist. Satz 1.2 N ist homogener Markov-Prozess Für den Poisson-Prozess gilt mit s 0 <... < s n < s < t P (N(t) = j N(s) = i, N(s n ) = i n,..., N(s 0 ) = i 0 ) = P (N(t) = j N(s) = i) = P (N(t) N(s) = j i) = P (N(t s) = j i) = (λ(t s))j i e λ(t s) (j i)! j i Beweis: P {N(t) = j N(s) = i, N(s n ) = i n,..., N(s 0 ) = i 0 } = P {N(t) N(s) = j i N(s) N(s n ) = i i n,...} (1) = P {N(t) N(s) = j i} = P {N(t) N(s) = j i N(s) N(0) = i} = P {N(t) = j N(s) = i} (Markoveigenschaft)

21 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 21 P {N(t) = j N(s) = i} = P {N(t) N(s) = j i} (1) = P {N(t s) N(0) = j i} (Homogenität). Aus Satz 1.1 folgt damit die Formel für die Übergangswahrscheinlichkeit P (N(t) = j N(s) = i). Bemerkung: Die erste Gleichung ist die Markov-Eigenschaft und besagt, dass bei Kenntnis des gegenwärtigen Zustands N(s) = i der zukünftige Zustand N(t) = j von der Vergangenheit un- abhängig ist. Wie der Beweis zeigt, wird für die Markov-Eigenschaft nur die Unabhängigkeit der Zuwächse benutzt. Also: Jeder Prozess mit unabhängigen Zuwächsen ist ein Markov-Prozess. Satz 1.3 N ist Poisson-Prozess mit Rate λ Die Zwischenzeiten T n sind iid Ex(λ) verteilt (exponentialverteilt mit Parameter λ). Beweis: Wir zeigen nur die Richtung. Es gilt P {T 1 > t} = P {N(t) = 0} = e λt, d.h. T 1 ist exponentialverteilt mit Parameter λ. Weiter gilt wegen der Unabhängigkeit und Stationarität der Zuwächse sowie Satz 1.2 P {T 2 > t T 1 = s} = P {N(s + t) N(s) = 0 N(s) = 1} = P {N(s + t) N(s) = 0} = e λt unabhängig von s. Die Regel der totalen Wahrscheinlichkeit liefert deshalb P {T 2 > t} = 0 e λt λe λs ds = e λt = P {T 2 > t T 1 = s}, also sind T 1 und T 2 unabhängig und exponentialverteilt. Die analoge Beweisführung für n 2 liefert das allgemeine Ergebnis.

22 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 22 Verallgemeinerung: räumlicher Poisson-Prozess Anzahl der Ereignisse in einem Gebiet A ist Poisson-verteilt mit E-Wert λ Fläche(A). Anzahl der Ereignisse in zwei nicht überlappenden Gebieten A 1 und A 2 sind unabhängig. Einige weitere Eigenschaften des Poisson-Prozesses (FKO S ) S n = T T n Wartezeit auf n-tes Ereignis, S 0 = 0. Es gilt: S n Ga(n, λ) f Sn (t) = e λt λ n t n 1 (n 1)! mit E(S n ) = n λ, Var(S n) = n λ 2, Modus(S n ) = n 1 λ. Beweis: (Zur Gammaverteilung) {N(t) n} {S n t} λt (λt)j F sn (t) = e j! j=n Differentiation liefert die Dichte der Gamma-Verteilung. Vorwärts-und Rückwärtsrekurrenzzeiten V (t) = S N(t)+1 t Vorwärtsrekurrenzeit

23 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 23 U(t) = t S N(t) Rückwärtsrekurrenzzeit U(t) + V (t) = T N(t)+1 = S N(t)+1 S N(t) Bemerkung: N(t) in S N(t) ist zufälliger Index; T (N(t)+1), T n, (n fest) Es gilt: P (V (t) x) = F V (t) (x) = 1 e λx d.h. V (t) Ex(λ) Bemerkung: V (t) Ex(λ) unabhängig von gewähltem t Gedächtnislosigkeit der Exponentialverteilung: X Ex(λ) P (X t + x X > t) = P (X x) P (U(t) = t) = e λt, P (U(t) x) = 1 e λx, 0 x < t (kein Ereignis vor t) Sampling Paradoxon: t fest, T N(t)+1 = V (t) + U(t) E(T N(t)+1 ) = E(U(t)) + E(V (t)) = 1 λ (1 e λt ) + 1 λ > 1 λ = E(T n) Plausibilitätserklärung: Bei fest vorgegebenem t ist T N(t)+1 die zufällige Länge der enthaltenen Zwischenzeit. Im Schnitt werden längere Intervalle dabei favorisiert. Überlagerung und Zerlegung von Poisson-Prozessen } L = {L(t), t 0} PP mit Rate λ unabhängig M = {M(t), t 0} PP mit Rate µ Dann heißt N = {N(t), t 0} mit N(t, ω) = L(t, ω) + M(t, ω) Überlagerung Es gilt: N ist PP mit Rate λ + µ

24 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 24 Zerlegung N PP mit Rate λ. Bei Eintritt eines Ereignisses wird ein binomisches Experiment P (X = 1) = p, P (X = 0) = 1 p, unabhängig von N, durchgeführt. X = 1 : Typ-1 Ereignis Zählprozess M X = 0 : Typ-0 Ereignis Zählprozess L Es gilt: M und L sind unabhängige PP mit Raten λp und λ(1 p) Beispiel: Netzwerke, etwa Straßensystem Verallgemeinerungen des Poisson-Prozesses Die Unabhängigkeit und insbesondere Stationarität der Zuwächse ist in Anwendungen oft kritisch (bereits diskutiert für Schadensfälle bei Versicherungen) Definition 1.7 Inhomogener Poisson-Prozess Ein Zählprozess N = {N(t), t 0} heißt nichtstationärer (inhomogener) PP mit Rate (Intensitätsfunktion) λ(t), t 0 (1) N hat unabhängige Zuwächse (2) P (N(t + h) N(t) 2) = o(h) P (N(t + h) N(t) = 1) = λ(t)h + o(h)

25 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 25 Es lässt sich zeigen: P (N(t + s) N(t) = n) = exp t+s t λ(u)du = exp( (Λ(t + s) Λ(t)) ( t+s ) n λ(u)du t n! (Λ(t + s) Λ(t))n n! mit Λ(t) = t 0 λ(u)du als kumulierte Rate, d.h. N(t + s) N(t) Po t+s t λ(u)du Definition 1.8 Bewerteter (Compound) Poisson-Prozess N PP, {Y n, n N} iid Folge, von N unabhängig. N(t) X = {X(t), t 0} mit X(t) = Y n heißt bewerteter PP n=1 Beispiele: N Schadensprozess {Y n, n N} zugehörige Schadenshöhe X(t) = N(t) n=1 Y n Gesamtschaden in [0, t] Klassisches Versicherungsmodell von Cramér-Lundberg Risikoprozess R(t) = c 0 + c 1 t X(t) c 1 X(t) = Prämienintensität = compound PP mit Intensität λ

26 KAPITEL 1. EINFÜHRUNG UND BEISPIELE 26 Schadenhöhen Y n iid. F N(t) klassischer P.P. Ziel: P (R(t) > 0 t) =? bzw. P (R(t) 0)?

27 Kapitel 2 Grundbegriffe der allgemeinen Theorie stochastischer Prozesse Inhalt Definitionen von SP Verteilung eines SP: SP als W-Maß auf Funktionenraum Existenzsatz von Kolmogorov Pfadeigenschaften Hier nur Skizze, Details insbesondere Billingsley, Bauer. 2.1 Definitionen stochastischer Prozesse Klassische Definition: SP als Familie von Zufallsvariablen (Ω, F, P ) W-Raum T Indexmenge (i.a. unendlich, z.b. N 0, R +,...) {X t, t T } Familie von ZV X t : (Ω, F, P ) (S, S) mit Wertebereich S, σ-algebra S. S abzählbar, S = P(S) diskrete ZV S = R oder Intervall I R, S = B oder B I reellwertige ZV 27

28 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 28 S = R p oder I R p, B = B p oder B p I vektorielle ZV Definition 2.1 Stochastischer Prozess Ein stochastischer Prozess (SP) ist das Quadrupel X = (Ω, F, P ; X t, t T ), T heißt Parameterraum, S Zustandsraum. Bemerkung: (a) Meist lässt man W-Raum (Ω, F, P ) weg. Also: SP X = {X t, t T } Familie von (i.a. abhängigen) ZV X t. (b) Für T = N 0 oder R + wird t meist als diskrete oder stetige Zeit interpretiert. Ist T Z 2 (Gitter) oder T R 2, heißt ein SP auch Zufallsfeld (random field) räumliche Statistik. T N 0 Z 2 zeitlich-räumliche Statistik. Klassifizierung von SP nach Zustands- und Parameterraum

29 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 29 Definition 2.2 Endlich-dimensionale Verteilungen und Verteilungsfamilien Sei X SP und sei {t 1,..., t n, n N} T beliebig. Dann heißen P t1,...,t n (B 1... B n ) = P (X t1 B 1,..., X tn B n ) endlich-dimensionale Verteilungen des SP X. Für reelle ZV heißen F t1,...,t n (x 1,..., x n ) = P (X t1 x 1,..., X tn x n ) endlich-dimensionale Verteilungsfunktionen des SP X. Die Menge aller endlich-dimensionalen Verteilungs(funktionen) heißt die Familie der endlichdimensionalen Verteilungs(funktionen) Folgende Verträglichkeitsbedingungen ( Konsistenzbedingungen ) gelten für alle n N, t 1,..., t n T : (a) F tk1,...,t kn (x k1,..., x kn ) = F t1,...,t n (x 1,..., x n ) für jede Permutation k 1,..., k n von 1,..., n (b) F t1,...,t k (x 1,..., x k ) = F t1,...,t n (x 1,..., x k,,..., ) 1 k < n und x 1,..., x k R Verträglichkeitsbedingungen gelten analog für Verteilungen (F P, x 1,..., x k B 1,..., B k ). Definition 2.3 Konsistente Verteilungsfamilie Eine endlich-dimensionale Verteilungsfamilie heißt konsistent : (a), (b) gelten. Definition 2.4 Pfad, Trajektorie, Realisierung Für jedes (feste) ω Ω heißt die Funktion X(ω) : T S, t X t (ω), Pfad, Trajektorie oder Realisierung des SP X. Also: ω fest, t läuft; X(ω) übliche (reelle) Folge (T diskret) bzw. Funktion (T stetig).

30 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE Stochastischer Prozess als Produktabbildung SP lässt sich auch auffassen als Funktion der beiden Variablen t und ω X. (.) : T Ω S Produktabbildung (t, ω) X t (ω) Hält man in der Produktabbildung t fest, erhält man die ZV X t : Ω S t fest ω X t (ω) ω läuft zurück. Aber: Produktabbildung X. (.) i.a. nicht messbar. Muss zusätzlich gefordert werden. Dann heißt der SP X messbar. Die meisten praktisch vorkommenden Prozesse sind (als Produktabbildung) messbar, insbesondere alle die wir besprechen. Alle SP mit diskretem T sind messbar.

31 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE Stochastischer Prozess als Abbildung in Funktionenraum Ordnet man jedem ω Ω seinen Pfad X(ω) S T (S T = Raum aller Funktionen T S) zu, kann man einen stochastischen Prozess auch auffassen als Abbildung in den Funktionenraum X : (Ω, F, P ) S T ω X(ω) = {X t (ω), t T } Vergleich mit mehrdimensionalen ZV Stochastischer Prozess p-dim ZV, p = 1: reelle ZV T = R +, N 0,... T = {1, 2,..., p} S R S = R, R X(ω) Funktion bzw. Folge = Punkt im Funktionraum S T X(ω) Punkt im R p, X(ω) R p Also: Stochastischer Prozess X ist ZV mit S T als Wertebereich. Problem: Lässt sich auf Funktionenraum eine σ-algebra A definieren, so dass X : (Ω, F) (S T, A) messbar ist? Antwort: Ja, wobei es oft zweckmäßig ist, den Funktionenraum einzuschränken. Beispiel: Wiener Prozess; hat stetige Pfade W : (Ω, F, P ) (C(T ), B C ) C(T ) = Raum aller stetigen Funktionen, B C = Borel-σ-Algebra Dann lässt sich P auf (Ω, F) als Bild-Wahrscheinlichkeits-Maß P X auf (S T, A) verpflanzen: W : (Ω, F, P ) (S T, A, P X ). Auffassung des stochastischen Prozesses X als W-Maß P X auf Funktionenraum. Details: Billingsley, Gänssler/Stute, Existenzsatz von Kolmogorov In wurde zur Definition eines stochastischen Prozesses X als Familie von ZV {X t, t T }, X t : (Ω, F, P ) (S, S) die Existenz eines gemeinsamen W-Raumes (Ω, F, P ) vorausgesetzt. Aus der Definition können dann insbesondere die endlich-dimensionalen Verteilungen abgeleitet werden. Bei den Beispielen (Irrfahrt, Poisson-Prozess, Wiener-Prozess,... ) wurde aber (Ω, F, P ) (S, S) nicht explizit angegeben.

32 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 32 Diskrete Irrfahrt: X n = Z Z n, n N Ereignis ω = (z 1,..., z n,...) mit z n { 1, 0, 1} x n (ω) = z z n Ω = ( 1, 0, 1) N Folgenraum, F = P(Ω) P = P 1... P n... Produkt-Maß p für z n = 1 mit P n := q für z n = 1 r für z n = 0 Poisson-Prozess: ω = (ω 1, ω 2,..., ω n,...), ω n R + ω n = Ergebnis von T n Ex(λ) Ω Menge aller solcher Folgen F = B + B +... B +... (Produkt-σ-Algebra) P = P 1 P 2... P n... Produkt-Maß zu Exp.-Verteilungen P 1,... P n In beiden Beispielen lassen sich zu jedem ω die Pfade X(ω), N(ω) der ZVen X n bzw. N(t) als messbare

33 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 33 Abbildungen definieren. In den meisten Fällen ist jedoch eine solche explizite Angabe von (Ω, F, P ) nicht möglich, z.b.: Aktienkurse, Folge von Markenwahlen, DNA-Strang. Der Existenzsatz von Kolmogorov zeigt, dass es reicht, wenn man endlich-dimensionale Verteilungen in konsistenter Weise vorgibt. Satz 2.1 Existenzsatz von Kolmogorov Sei {F t1,...,t n } (bzw. {P t1,...,t n }) ein konsistentes System von endlich-dimensionalen Verteilungsfunktionen (bzw. Verteilungen). Dann existiert ein W-Raum (Ω, F, P ) und ein stochastischer Prozess X = {Ω, F, P, (X t, t T )} mit F t1,...,t n als System von endlich-dimensionalen Verteilungsfunktionen, d.h. F t1,...,t n (x 1,..., x n ) = P (X t1 x 1,..., X tn x n ) Bemerkung: (a) Der stochastische Prozess X ist durch den Existenzsatz nicht eindeutig bestimmt. Es lässt sich immer ein Prozess X konstruieren, der zwar andere Pfade besitzt als X, aber die gleichen endlichdimensionalen Verteilungsfunktionen! (Vgl. auch Abschnitt 2.3). Beispiel: X mit stetigen Pfaden. X und X haben verschiedene Pfade, aber die gleichen endlich-dimensionalen Verteilungsfunktionen! (b) Spezialfall: Mehrdimensionale ZV, T = {1,..., p}. Existenzsatz sichert zu vorgegebener gemeinsamer Verteilungsfunktion F (x 1,..., x p ) die Existenz eines W-Raumes {Ω, F, P } mit F (x 1,..., x p ) = P (X 1 x 1,..., X p x p ).

34 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 34 Dabei kann man sogar (Ω, F) = (R p, B p ) wählen, d.h. die Realisierungen x 1,..., x p werden mit ω identifiziert, ω (x 1,..., x p ) R p. Analog bei stochastischen Prozessen: ω Pfad S T, Ω = Menge aller Pfade. Man braucht sich keinen zugrundeliegenden W-Raum wie bei Irrfahrt und Poisson-Prozess konstruieren. (c) Beispiel: Wiener Prozess Vorgabe von (W1), (W2), d.h. unabhängige und stationäre Zuwächse und W(3), d.h. W (0) = 0 endlich-dimensionale Verteilungsfunktionen wie in Abschnitt Existenzsatz garantiert stochastischen Prozess W, aber nicht notwendig stetige Pfade. Es lässt sich aber eine Version W mit stetigen Pfaden konstruieren, vgl. Billingsley, Sect (d) In den weiteren Kapiteln (analog wie bei Irrfahrt, Poisson-Prozess, Wiener Prozess): Vorgabe von Konstruktionsvorschriften bzw. Axiomen endlich-dimensionale Verteilungsfunktionen stochastischer Prozess inklusive W-Raum 2.3 Äquivalenz-und Stetigkeitsbegriffe Äquivalente stochastische Prozesse X = {X t, t T } und Y = {Y t, t T } seien zwei stochastische Prozesse auf gleichem W-Raum (Ω, F, P ) mit gleichem (S, S). Definition 2.5 Verteilungsäquivalenz, schwache Äquivalenz X und Y verteilungsäquivalent (schwach äquivalent) : die endlich-dimensionalen Verteilungen von X und Y sind gleich {t 1,..., t n } T, {B 1,..., B n } S, n N P (X t1 B 1,..., X tn B n ) = P (Y t1 B 1,..., Y tn B n ). Definition 2.6 Äquivalenz X und Y heißen äquivalent : P (X t = Y t ) = 1 t T Bemerkung: Man sagt: Y ist Version von X.

35 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 35 Definition 2.7 Ununterscheidbar X und Y heißen ununterscheidbar : X und Y haben mit Wahrscheinlichkeit 1 gleiche Pfade P {X t = Y t t T } = 1 P ({ω : X(ω) = Y (ω)}) = 1 Es gilt: X, Y ununterscheidbar äquivalent verteilungsäquivalent Falls T abzählbar: X, Y ununterscheidbar äquivalent Beweis: Ununterscheidbar Äquivalent: klar Äquivalent Verteilungsäquivalent: P (X t1 B 1,..., X tn B n ) = P (X t1 B 1,..., X tn B n, X t1 = Y t1,..., X tn = Y tn ) T abzählbar: Äquivalent Ununterscheidbar = P (Y t1 B 1,..., Y tn B n, X t1 = Y t1,..., X tn = Y tn ) = P (Y t1 B 1,..., Y tn B n ) P (X t = Y t ) = 1 t N P (X t Y t ) = 0 t N P (X t Y t ) = 0 ( ) P {X t Y t } t=1 P {X t Y t } t=1 t=1 P (X t Y t ) = 0 t=1 ( ) (de Morgan) = P {X t = Y t } t=1 = 1 Gegenbeispiel für nicht abzählbares T : X : X t (ω) = 0 t T, ω Ω, d.h. alle Pfade 0 { 1, t = τ(ω) Y : Y t (ω) = 0, sonst

36 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 36 Dabei ist τ > 0 stetige ZV, z.b. τ Ex(λ) X und Y verteilungsäquivalent. Da X t (ω) = 0 für alle (t, ω) P (ω : Y t (ω) = X t (ω)) = P (ω : Y t (ω) = 0) = P (ω : τ(ω) t) = 1 t T X und Y äquivalent, aber unterscheidbar Stetigkeitsbegriffe T R +, S R, S = B S Definition 2.8 Pfadstetig X heißt (fast sicher) pfadstetig : P (ω : lim s t X(s, ω) = X(t, ω) t R + ) = 1 (= P (lim s t X(s) = X(t) t R + ) = 1) Analog: fast sicher rechtsstetig, fast sicher cadlag (rechtsstetig mit Grenzwerten von links) Definition 2.9 Stetig X heißt (fast sicher) stetig : P (ω : lim s t X(s, ω) = X(t, ω)) = 1 t R +

37 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 37 Definition 2.10 Stochastisch Stetig X heißt stochastisch stetig : lim P (ω : X(s, ω) X(t, ω) > ɛ) = 0 ɛ > 0, t R + s t p lim X(s) = X(t) t R + s t X(s) konvergiert nach Wahrscheinlichkeit gegen X(t), wenn s t, t R +. Beispiel: Poisson-Prozess (a) N nicht pfadstetig (b) N fast sicher stetig (c) N stochastisch stetig

38 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 38 Beweis: (c) N stochastisch stetig: (b) N fast sicher stetig: Da S n Gamma-verteilte ZV: P ( N(t) N(s) > ɛ) P ( N(t) N(s) 1) = 1 e λ t s lim P ( N(t) N(s) > ɛ) lim (1 s t s t e λ t s ) = 0 {ω : N(t, ω) stetig in t 0} = {ω : S n (ω) t, n N} P {ω : S n (ω) = t} = 0 n N ( ) P {ω : S n (ω) t} = P {ω : S n (ω) = t} n=1 ( ) P {ω : S n (ω) t} = 1 n=1 n=1 P {ω : S n (ω) = t} = 0 n=1 Satz 2.2 X, Y äquivalent und X, Y fast sicher pfad-rechtsstetig X, Y ununterscheidbar. Beweis: z.b. Todorovic, prop , S. 7

39 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE Stationäre und nichtstationäre stochastische Prozesse Stationäre stochastische Prozesse sind stochastische Prozesse bei denen sich die endlich-dimensionale Verteilungsfunktion oder andere Charakteristika bei einer Zeitverschiebung (näherungsweise) nicht ändern. Beispiel: Rauschen in elektronischen Systemen Abweichungen in Regelsystemen physiologische Daten (?), z.b. EKG Zeitreihen nach Trend-/Saisonbereinigung Renditen in effizienten Märkten (?) FKO S. 209, Kap. 7/8 Definition 2.11 Strenge Stationarität Ein stochastischer Prozess X heißt streng stationär : n, t 1,..., t n, h F t1,...,t n (x 1,..., x n ) = F t1 +h,...,t n+h(x 1,..., x n ) d.h. die endlich-dimensionalen Verteilungsfunktionen sind invariant gegenüber einer Zeitverschiebung h. Folgerungen: F t1 (x 1 ) = F t1 +h(x 1 ), d.h. die eindimensionalen Verteilungen sind zeitinvariant. E(X t ) = µ = constant, Var(X t ) = σ 2 = constant.

40 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 40 Cov(X s, X t ) = (x 1 µ)(x 2 µ)df s,t (x 1, x 2 ) = (x 1 µ)(x 2 µ)df 0,t s (x 1, x 2 ) = Cov(X 0, X t s ) =: γ(t s) d.h. die Kovarianz zwischen X s, X t hängt nur von Zeitdifferenz t s, nicht von den Werten t, s auf der Zeitachse selbst ab! Definition 2.12 Autokovarianzfunktion γ(h) = Cov(X t+h, X t ) = Cov(X h, X 0 ) heißt (Auto-)Kovarianzfunktion. Eigenschaften: γ(h) = γ( h) γ(h) γ(0) = σ 2 = V ar(x t ) Definition 2.13 Schwache Stationärität Ein stochastischer Prozess X heißt schwach stationär : E(X t ) = µ, Cov(X t, X s ) = γ(t s) d.h. die Autokovarianz hängt nur von Zeitdifferenz ab. Offensichtlich gilt: Strenge Stationärität Schwache Stationärität Die Umkehrung gilt für Gauß-Prozesse, d.h. Prozesse mit multivariat normalverteilten endlichdimensionalen Verteilungsfunktionen, da die 1. und 2. Momente die endlich-dimensionalen Verteilungsfunktionen eindeutig bestimmen. Also: X Gauß-Prozess Schwache Stationarität und starke Stationarität sind äquivalent. Bemerkung: Es gibt auch Nicht-Gauß-Prozesse, bei denen schwache und starke Stationarität äquivalent sind.

41 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 41 Definition 2.14 Autokorrelationsfunktion (ACF) ρ(h) = γ(h) γ(0) = γ(h) σ 2 h 0 heißt Autokorrelationsfunktion. Beispiel: (a) Poisson-Prozess: Der Poisson-Prozess N ist nichtstationär, da E(N(t)) = Var(N(t)) = λt constant. Dagegen sind die Zuwächse stationär (und unabhängig). (b) Wiener-Prozess: Der Wiener-Prozess W ist ebenfalls nichtstationär, da zwar E(W (t)) = 0, aber Var(W (t)) = σ 2 t gilt. Die Zuwächse sind stationär (und unabhängig). (c) Zufällige trigonometrische Polynome: A und B seien identisch verteilte, unkorrelierte ZVen mit Erwartungswert 0 und Varianz σ 2. Für eine feste Frequenz ω sei für t Z X t = A cos(ωt) + B sin(ωt) Dann ist X = {X t, t Z} stationär mit E(X t ) = 0 und γ(h) = E(X t X t+h ) = E{(A cos(ωt) + B sin(ωt))(a cos(ω(t + h)) + B sin(ω(t + h)))} = E{A 2 cos(ωt) cos(ω(t + h)) + B 2 sin(ωt) sin(ω(t + h))} = σ 2 cos(ωh) (d) Moving Average-Prozess: Sei ɛ = {ɛ t, t Z} eine Folge von unkorrelierten ZVen mit E(ɛ t ) = 0, Var(ɛ t ) = σ 2. Ein solcher stationärer stochastischer Prozess heißt (diskretes) Weißes Rauschen. Gilt zusätzlich ɛ t iid N(0, σ 2 ), so heißt ɛ Gauß sches Weißes Rauschen. Definition 2.15 Moving Average-Prozess Der stochastische Prozess X = {X t, t Z} mit q X t = θ j ɛ t j, θ q 0 j=0 heißt moving average-prozess (Prozess der gleitenden Durchschnitte) der Ordnung q, i.z. X MA(q)

42 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 42 Aus der Definition folgt sofort q E(X t ) = θ j E(ɛ t j ) = 0. Die Kovarianzfunktion berechnet sich wegen j=0 X t = θ 0 ɛ t + θ 1 ɛ t θ h 1 ɛ t h+1 + θ h ɛ t h θ q ɛ t q X t h = θ 0 ɛ t h θ q h ɛ t q θ q ɛ t q h und zu E(ɛ t ɛ s ) = δ t,s σ 2 { σ 2 (θ 0 θ h + θ 1 θ h θ q h θ q ), h q γ(h) = E(X t X t h ) = 0, h > q. Speziell ergibt sich q Var(X t ) = σx 2 = γ(0) = σ 2 θj 2. j=0 Es gilt also: Jeder MA(q)-Prozess (mit q < ) ist stationär mit ACF ρ(h) = q h θ j θ j+h j=0 q θj 2 j=0, 0 h q 0, h > q. (e) Modellierung ökonomischer Zeitreihen durch stationäre Prozesse: Die Annahme, dass eine ökonomische Zeitreihe, d.h. eine Reihe von ökonomischen Daten y t, t = 1, 2,... als Pfad eines stationären stochastischen Prozesses angesehen werden kann, ist oft nicht sehr realistisch. Stationäre Prozesse können aber als Baustein für realitätsgetreuere Modelle dienen. Unterstellt man etwa einen linearen Trend, so ist ein möglicher Ansatz Y t = β 0 + β 1 t + X t, wobei X selbst stationär ist. Allgemeiner geht man beim sogenannten Komponentensatz (Kap 8.1) davon aus, dass Y t = T t + S t + X t gilt, mit der Trendkomponente T t und der Saisonkomponente S t und X t stationär, z.b. MAoder AR-Prozess. (f) Autoregressive Prozesse: Gauß sche Irrfahrt (Random walk): X 0 = 0 X t = X t 1 + ɛ t, ɛ t N(0, σ 2 ) iid

43 KAPITEL 2. GRUNDBEGRIFFE DER ALLGEMEINEN THEORIE 43 Nichtstationär, da zwar E(X t ) = 0 aber, Var(X t ) = t σ 2. Aber: AR(1)-Prozess X t = δx t 1 + ɛ t mit ɛ t N(0, σ 2 ) mit δ < 1 (zentrale Bedingung!) ist (für t ) stationär. Man kann zeigen, dass für jeden Startwert X 0, die Verteilung von X t für t gegen eine N(0, σ 2 (1 δ 2 ) ) konvergiert. Alternativ kann man N(0, σ 2 (1 δ 2 ) ) für X 0 schon fordern, d.h. der Prozess wird bereits im Equilibrium / Gleichgewicht gestartet und es gilt (nicht nur asymptotisch, sondern exakt): E(X t ) = 0 Var(X t ) = σ2 (1 δ 2 ) Corr(X s, X t ) = δ s t, insbesondere Corr(X t, X t+1 ) = δ Bei Vorliegen eines AR(1)-Prozess mit unbekanntem δ kann man also ρ durch die empirische Autokorrelation (zum Lag 1) schätzen. Var(X t ) = 1 T 1 T T (X t X)(X t 1 X) t=2 Var(X t ) T (X t X) 2 = empirische Varianz t=0 Mehr dazu in Zeitreihenanalysen AR(p)-Prozess etc. Schätzung der empirischen Korrelationsfunktion. ρ(l) = (g) Stationäre Gauß-Prozesse: {X(t), t 0} oder {X t, t N 0 } E(X(t)) = µ, Var(X(t)) = σ 2 1 T T t=l+1 (X t X)(X t L X) Var(X t ), L = Lag L. ρ(h) = Corr(X(t), X(t + h)) = Corr(X(0), X(h)) (vorgegebene Korrelationsfunktion) Stationärer Gauß-Prozess : Für alle n 1, t 1,..., t n ist X (n) = (X(t 1 ),..., X(t n )) multivariat normalverteilt mit E(X (n) ) = (µ,..., µ) σ 2 σ 2 ρ(t 2 t 1 )... σ 2 ρ(t n t 1 ) σ 2 ρ(t 1 t 2 ) σ 2 σ 2 ρ(t n t 2 ) Cov(X (n) ) =..... σ 2. ρ(t 1 t n 1 ).. σ 2 ρ(t n t n 1 ) σ 2 ρ(t 1 t n )... σ 2 ρ(t n 1 t n ) σ 2

44 Kapitel 3 Markov-Ketten Diskrete Zeit T = N 0, diskreter Zustandsraum S. In Beispielen / Anwendungen: S oft endlich. Ausnahme: z.b. einfache Irrfahrt ohne Schranken. Inhalt: FKO, Kapitel 2 in Auszügen und Ergänzungen 3.1 Grundlegende Eigenschaften, Beispiele Beispiel: Einfache Irrfahrt X t+1 = X t + Z t, Z t { 1, 0, +1} P (Z t = 0 X t = i) = r i, P (Z t = 1 X t = i) = q i, P (Z t = +1 X t = i) = p i, p i + r i + q i = 1 Offensichtlich hängt damit die Wahrscheinlichkeitsfunktion von X t+1, gegeben der bisherige Pfad {X t = i, X t 1 = i t 1,..., X 0 = i 0 } nur vom gegenwärtigen Zustand X t = i ab. 44

45 KAPITEL 3. MARKOV-KETTEN 45 Definition 3.1 Markov-Kette (MK) 1.Ordnung Der SP X = {X t, t N 0 }, S diskret, heißt MK : t N 0 ; j, i, i t 1,..., i 0 S 1. P (X t+1 = j X t = i, X t 1 = i t 1,..., X 0 = i 0 ) = P (X t+1 = j X t = i) 2. P (X t+1 = j X t, X t 1,..., X 0 ) = P (X t+1 = j X t ) Bemerkung: (a) P (X t+1 = j X t ) in 2. ist ZV, mit Werten P (X t+1 = j X t = i), i S. (b) Verbale Interpretation der Markov-Eigenschaft 1. bzw. 2. : Bei gegebener Gegenwart hängt die Zukunft des SP nicht von der Vergangenheit ab. Anders ausgedrückt: Bei gegebener Gegenwart sind Zukunft und Vergangenheit bedingt unabhängig. Definition 3.2 Übergangswahrscheinlichkeiten p ij (t) = P (X t+1 = j X t = i) heißt (einschrittige) Übergangswahrscheinlichkeit (ÜW) von i nach j (zum Zeitpunkt t). Im allgemeinen hängt p ij (t) von t tatsächlich ab. Die klassische Theorie behandelt jedoch weitgehend homogene MK. Definition 3.3 Homogene MK Eine MK heißt homogen bzw. besitzt stationäre ÜW : p ij (t) = p ij t N 0.

46 KAPITEL 3. MARKOV-KETTEN 46 Vereinbarung: Im weiteren MK homogen, falls nichts anderes vermerkt. Bemerkungen: Eine inhomogene MK ist i.a. kein stationärer SP. Behandlung nichtstationärer ÜW z.b. so: ( ) P (Xt+1 = j X t = i) logit p ij (t) = log = f ij (t) 1 P (X t+1 = j X t = i) = Vorlesung Angewandte Stochastische Prozesse, Computerintensive Verfahren, Generalisierte Regression. Definition 3.4 Übergangsmatrix ÜM Für homogene MK heißt Übergangsmatrix (ÜM). P = (p ij ), i, j S Bemerkung: Bei inhomogenen MK ist die ÜM P (t) = (p ij (t)) zeitabhängig. Für S = {0, 1, 2,...} ist also: P = p 00 p p 0j p i0 p i1... p ij P ist endlich, falls S endlich. Eigenschaften: p ij 0 und p ij = 1 (Zeilensumme = 1) j S

47 KAPITEL 3. MARKOV-KETTEN 47 Satz 3.1 Folgerungen aus der Definition einer MK 1. t, s 1 ; i 0,..., i s P (X t+s = i s,..., X t+1 = i 1 X t = i 0 ) = P (X s = i s,..., X 1 = i 1 X 0 = i 0 ) = p i0 i 1 p i1 i 2... p is 1 i s. Ist zusätzlich eine Anfangsverteilung p i (0) := P (X 0 = i), i S gegeben P (X s = i s,..., X 1 = i 1, X 0 = i 0 ) = p i (0)p i0 i 1... p is 1 i s 2. t, s 1 ; i 0,..., i t+s P (X t+s = i t+s,..., X t+1 = i t+1 X t = i t,..., X 0 = i 0 ) = P (X t+s = i t+s,..., X t+1 = i t+1 X t = i t ) (Erweiterung der Markov-Eigenschaft auf zukünftigen Verlauf X t+1,..., X t+s.) 3. Weitere Verallgemeinerung: 0 t 0 < t 1 <... < t k P (X tk = i k X tk 1 = i k 1,..., X t0 = i 0 ) = P (X tk = i k X tk 1 = i k 1 ) Beweis: FKO S. 15, 16, 17. Beweis zu 2.: Für s = 2 ; für s 3 analog durch Induktion. Mit V t 1 = {X t 1 = i t 1,..., X 0 = i 0 } gilt P {X t+2 = i t+2, X t+1 = i t+1 X t = i t, V t 1 } = P {X t+2 = i t+2 X t+1 = i t+1, X t = i t, V t 1 } P {X t+1 = i t+1 X t = i t, V t 1 } = P {X t+2 = i t+2 X t+1 = i t+1 } P {X t+1 = i t+1 X t = i t } = p itit+1 p it+1 i t+2 = P {X t+2 = i t+2, X t+1 = i t+1 X t = i t }. Bemerkung: Gelegentlich wird 3. zur Definition von MK benützt. Folgt hier aus der einfacheren Definition 3.1. Bemerkung: Damit lassen sich alle endlich-dimensionalen Verteilungen der MK berechnen, Satz von Kolmogorov anwendbar,

48 KAPITEL 3. MARKOV-KETTEN 48 Bei Vorgabe einer ÜM P und einer Startverteilung p(0) existiert zugehöriger SP mit W-Raum. Zugleich lässt sich die Likelihood berechnen, vgl. Statistische Inferenz. Mehrschrittige ÜW, Chapman-Kolmogorov-Gleichung Definition 3.5 Mehrschrittige ÜW p (t) ij := P (X t+s = j X s = i) = P (X t = j X 0 = i), t N 0 heißt t-schrittige ÜW von i nach j. Satz Chapman-Kolmogorov-Gleichungen p (t+s) ij = k S p (s) ik p(t) kj 2. Weiter gilt 3. Damit 1. in Matrixform: (p (t) ij ) = P t = P... P }{{} t mal P t+s = P s P t. Beweis:

49 KAPITEL 3. MARKOV-KETTEN 49 zu 1: p (t+s) ij = P {X t+s = j X 0 = i} = k S P {X t+s = j, X s = k X 0 = i} = k S P {X t+s = j X s = k, X 0 = i} P {X s = k X 0 = i} = k S P {X t+s = j X s = k} P {X s = k X 0 = i} = k S p (s) ik p(t) kj zu 2: Zunächst für t = 1, s = 1 p(2) ij p (2) ij dann Induktion: s = 1, t = 2,... = p ik p kj = (P 2 ) ij Definition 3.6 Zustandswahrscheinlichkeit heißen Zustandswahrscheinlichkeiten. p i (t) := P (X t = i), i S, p(t) = (p i (t), i S) (Zeilenvektor) heißt Zustandsverteilung. Es gilt p j (t) = i S p i (0)p (t) ij bzw. p(t) = p(0)p t Beweis: Satz von der totalen Wahrscheinlichkeit P (X t = j) = i S P (X t = j X 0 = i)p (X 0 = i).

50 KAPITEL 3. MARKOV-KETTEN 50 Darstellung von MK durch gerichtete Graphen Beispiele: (a) Irrfahrtmodelle FKO, S. 22 (b) Markov-Ketten auf einem DNA-Strang DNA-Stränge sind gerichtete (5 3 ) Ketten X t, t = 1, 2,..., mit X t {A(Adenin), G(Guanin), C(Cytosin), T (Thymin)}, (angeordnet in Form einer Doppel-Helix). Die Folge {X t } ist nicht unabhängig. Als (erste) Approximation wird eine homogene Markov- Kette mit Übergangsmatrix P = A C G T A C G T angenommen (vgl. Lange, K., 1997, Math. and Stat. Methods for Genetic Analysis, Springer, N.Y.)

Kapitel 2 Grundbegriffe der allgemeinen Theorie stochastischer Prozesse

Kapitel 2 Grundbegriffe der allgemeinen Theorie stochastischer Prozesse Kapitel 2 Grundbegriffe der allgemeinen Theorie stochastischer Prozesse 2.1 Definitionen stochastische Prozesse 2.1 Definitionen stochastische Prozesse 2.1.1 Klassische Definition: als Familien von Zufallsvariablen

Mehr

Kapitel 1 Einführung und Beispiele

Kapitel 1 Einführung und Beispiele Kapitel 1 Einführung und Beispiele 1.1 Einführende Beispiele und erste Definition 1.1 Einführende Beispiele und erste Definition Rein zeitliche Beispiele: IFO Geschäftsklima Index Zeit: diskret; Zustandsraum:

Mehr

Einführung in die stochastischen Prozesse

Einführung in die stochastischen Prozesse Einführung in die stochastischen Prozesse Vorlesung mit Übung von Sonja Greven und David Rügamer Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2016 Sommersemester 2016 Literatur

Mehr

Einführung und Beispiele

Einführung und Beispiele Kapitel 1 Einführung und Beispiele Inhalt: Anwendungsbeispiele erste Definition eines stochastischen Prozesses einige spezielle stochastische Prozesse Ziel: Aufzeigen der Vielfalt stochastischer Prozesse

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Erneuerungs- und Semi-Markov-Prozesse

Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Für den Poisson-Prozess und (reguläre) diskrete Markov-Prozesse impliziert die Markov-Eigenschaft, dass die Zwischenzeiten bzw. Verweildauern exponentialverteilt

Mehr

Der Poissonprozess. Kapitel 5

Der Poissonprozess. Kapitel 5 spielt in der stochastischen Modellierung eine fundamentale Rolle Grund ist seine verteilungsfreie Charakterisierung durch wenige qualitative Eigenschaften, die in zahlreichen Anwendungsbeispielen plausibel

Mehr

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse Definition: Erneuerungsprozess Sei {T n, n N} eine Folge unabhängiger, nichtnegativer Zufallsvariablen mit Verteilungsfunktion F, mit F () < 1. Dann heißt

Mehr

2 Stationarität. Strikte Stationarität

2 Stationarität. Strikte Stationarität 2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Kapitel 4 Diskrete Markov-Prozesse

Kapitel 4 Diskrete Markov-Prozesse Kapitel 4 Diskrete Markov-Prozesse 4.1 Definition und grundlegende Eigenschaften 4.1 Definition und grundlegende Eigenschaften Stetige Zeit aber weiterhin diskreter Zustandsraum. Beispiele: Klinische Studien,

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Wahrscheinlichkeitstheorie und Statistik

Wahrscheinlichkeitstheorie und Statistik Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter

Mehr

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse 2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten

Mehr

Statistik für Ingenieure Vorlesung 5

Statistik für Ingenieure Vorlesung 5 Statistik für Ingenieure Vorlesung 5 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 28. November 2017 3.4 Wichtige stetige Verteilungen 3.4.1 Exponentialverteilung Parameter:

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung

Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................

Mehr

Stochastische Prozesse Stoffzusammenfassung

Stochastische Prozesse Stoffzusammenfassung Stochastische Prozesse Stoffzusammenfassung Joachim Breitner 7. August 2018 Diese Zusammefassung ist natürlich alles andere als vollständig und zu knapp, um immer alle Aussagen mit Voraussetzungen korrekt

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke

ALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke ALMA II - ÜBERBLICK STOCHASTIK Jochen Garcke GRUNDBEGRIFFE Wahrscheinlichkeitsraum (Ω, A, P) beschreibt Zufallssituation Realisierung, Stichprobe, Elementarereignis ω Ω Ergebnisraum zufälliges Ereignis

Mehr

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]

Satz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y] Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x

Mehr

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen

Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Wirtschaftsmathematik

Wirtschaftsmathematik Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung

Brownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

7. Stochastische Prozesse und Zeitreihenmodelle

7. Stochastische Prozesse und Zeitreihenmodelle 7. Stochastische Prozesse und Zeitreihenmodelle Regelmäßigkeiten in der Entwicklung einer Zeitreihe, um auf zukünftige Entwicklung zu schließen Verwendung zu Prognosezwecken Univariate Zeitreihenanalyse

Mehr

Martingale. Kapitel 6. 6.1 Martingale in diskreter Zeit. 6.1.1 Definition und Beispiele

Martingale. Kapitel 6. 6.1 Martingale in diskreter Zeit. 6.1.1 Definition und Beispiele Kapitel 6 Martingale In der Statistik modellieren Martingale z.b. Glücksspiele oder Handelsstrategien in Finanzmärkten und sind ein grundlegendes Hilfsmittel für die statistische Inferenz stochastischer

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

4 Autokovarianzfunktion und Spektralmaß

4 Autokovarianzfunktion und Spektralmaß 4 Autokovarianzfunktion und Spektralmaß Im Folgenden sei {X t } t T T R und eine komplexwertige stationäre Zeitreihe mit T Z oder m : EX t γ(h) : Cov(X t, X t+h ) E(X t+h m)(x t m) [ acv.f. ] ρ(h) : γ(h)γ(0)

Mehr

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«

Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer« Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................

Mehr

OLS-Schätzung: asymptotische Eigenschaften

OLS-Schätzung: asymptotische Eigenschaften OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren

Mehr

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Statistik für Informatiker, SS Verteilungen mit Dichte

Statistik für Informatiker, SS Verteilungen mit Dichte 1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches

Mehr

Abgabetermin: 5. Mai 2017, Uhr

Abgabetermin: 5. Mai 2017, Uhr Übungsblatt Nr. 1 26. April 2017 1. Sei F k, k K, eine Familie von σ-algebren, wobei K eine beliebige Menge ist. Zeigen Sie, daß F d = k K F k ebenfalls eine σ-algebra ist! Beweisen Sie, daß die Vereinigung

Mehr

5 Zufallsvariablen, Grundbegriffe

5 Zufallsvariablen, Grundbegriffe II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher

Inhaltsverzeichnis. Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: Autor: René Pecher Dozent: Andreas Nestke Lehrfach: Mathe 3 Thema: Wahrscheinlichkeitstheorie Datum: 24.01.2011 Autor: René Pecher Inhaltsverzeichnis 1 Permutation 1 1.1 ohne Wiederholungen........................... 1 1.2

Mehr

Einige parametrische Familien für stochastische Prozesse

Einige parametrische Familien für stochastische Prozesse Einige parametrische Familien für stochastische Prozesse Seminar: Grundlagen der und Statistik von dynamischen Systemen 26. November 2014 Inhaltsverzeichnis 1 Einleitung 2 3 4 5 Einleitung Ziel des Vortrages:

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit

3 Bedingte Wahrscheinlichkeit, Unabhängigkeit 3 Bedingte Wahrscheinlichkeit, Unabhängigkeit Bisher : (Ω, A, P) zur Beschreibung eines Zufallsexperiments Jetzt : Zusatzinformation über den Ausgang des Experiments, etwa (das Ereignis) B ist eingetreten.

Mehr

Stochastik-Praktikum

Stochastik-Praktikum Stochastik-Praktikum Zeitreihenanalyse Peter Frentrup Humboldt-Universität zu Berlin 19. Dezember 2017 (Humboldt-Universität zu Berlin) Zeitreihenanalyse 19. Dezember 2017 1 / 13 Übersicht 1 Zeitreihen

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Kapitel 5: Markovketten

Kapitel 5: Markovketten Kapitel 5: Markovketten Definition 5.1 Bezeichnungen Bsp. 5.1 Definition 5.2 Eine Fam. (X i ) i I von ZV en X i : Ω E auf (Ω, F, P) mit Werten im messb. Raum (E, E) heißt Stochastischer Prozess. E Zustandsraum

Mehr

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X].

7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := Pr[X = k] s k = E[s X ], k Pr[X = k] = E[X]. 7.1.1 Zusammenhang zwischen der w.e. Funktion und den Momenten Da G X (s) := gilt G X(1) = Pr[X = k] s k = E[s X ], k=0 k Pr[X = k] = E[X]. k=1 DWT 7.1 Einführung 182/476 Beispiel 73 Sei X binomialverteilt

Mehr

Diskrete Strukturen II

Diskrete Strukturen II SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung

Brownsche Bewegung. M. Gruber. 19. März Zusammenfassung Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011 Zufällige stabile Prozesse und stabile stochastische Integrale Stochastikseminar, Dezember 2011 2 Stabile Prozesse Dezember 2011 Stabile stochastische Prozesse - Definition Stabile Integrale α-stabile

Mehr

Brownsche Bewegung: Eine Einführung

Brownsche Bewegung: Eine Einführung Brownsche Bewegung: Eine Einführung Batu Güneysu Institut für Mathematik Humboldt-Universität zu Berlin Greifswald, 18.04.2018 Batu Güneysu Brownsche Bewegung: Eine Einführung 1 / 14 Wir fixieren m N und

Mehr

Die Probabilistische Methode

Die Probabilistische Methode Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.

Mehr

1. Übungsblatt. Markus Reiß Kursusvorlesung Stochastische Prozesse Sommersemester 2006

1. Übungsblatt. Markus Reiß Kursusvorlesung Stochastische Prozesse Sommersemester 2006 Sommersemester 26 1. Übungsblatt 1. Zeige: Ist X Poisson(s)- und Y Poisson(t)-verteilt und sind X und Y unabhängig, so ist X + Y Poisson(t + s)-verteilt (t, s > ). Das heißt, es gilt die Eigenschaft einer

Mehr

Zufallsvariablen [random variable]

Zufallsvariablen [random variable] Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden

Mehr

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=

Definition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Gaußsche Felder und Simulation

Gaußsche Felder und Simulation 3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6

1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6 Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere

Mehr

Stochastik Wiederholung von Teil 1

Stochastik Wiederholung von Teil 1 Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,

Mehr

Diskrete Markov-Prozesse

Diskrete Markov-Prozesse Kapitel 4 Diskrete Markov-Prozesse Bei Markov-Ketten ist T = N 0, dh die Zeit wird als diskret betrachtet Bei Markov-Prozessen läuft die Zeit kontinuierlich mit T = R + Ist S diskret, wie in diesem Kapitel,

Mehr

Kapitel 7 Punkt- und Zählprozesse

Kapitel 7 Punkt- und Zählprozesse Kapitel 7 Punkt- und Zählprozesse Grundlage für den modernen Zugang zu Verweildauer-und Ereignisanalyse. Poisson-Prozesse, Erneuerungs-, Markov-, Semi-Markov-Prozesse sind Spezialfälle. Wir betrachten

Mehr

Vorlesung: Statistik II für Wirtschaftswissenschaft

Vorlesung: Statistik II für Wirtschaftswissenschaft Vorlesung: Statistik II für Wirtschaftswissenschaft Prof. Dr. Helmut Küchenhoff Institut für Statistik, LMU München Sommersemester 2017 Einführung 1 Wahrscheinlichkeit: Definition und Interpretation 2

Mehr

Einführung in Stochastische Prozesse und Zeitreihenanalyse Vorlesung, 2017S, 2.0h 24.November 2017 Hubalek/Scherrer

Einführung in Stochastische Prozesse und Zeitreihenanalyse Vorlesung, 2017S, 2.0h 24.November 2017 Hubalek/Scherrer Name: Mat.Nr.: Bitte keinen Rotstift oder Bleistift verwenden! 105.59 Einführung in Stochastische Prozesse und Zeitreihenanalyse Vorlesung, 2017S, 2.0h 24.November 2017 Hubalek/Scherrer (Dauer 90 Minuten,

Mehr

Stochastic Processes SS 2010 Prof. Anton Wakolbinger. Klausur am 16. Juli 2010

Stochastic Processes SS 2010 Prof. Anton Wakolbinger. Klausur am 16. Juli 2010 Stochastic Processes SS 2010 Prof. Anton Wakolbinger Klausur am 16. Juli 2010 Vor- und Nachname: Matrikelnummer: Studiengang: Tutor(in): In der Klausur können 100 Punkte erreicht werden. Die Gesamtpunktezahl

Mehr

Satz 104 (Skalierung exponentialverteilter Variablen)

Satz 104 (Skalierung exponentialverteilter Variablen) 2.3.1 Eigenschaften der Exponentialverteilung Satz 104 (Skalierung exponentialverteilter Variablen) Sei X eine exponentialverteilte Zufallsvariable mit dem Parameter λ. Für a > 0 ist die Zufallsvariable

Mehr

1.3 Wiederholung der Konvergenzkonzepte

1.3 Wiederholung der Konvergenzkonzepte 1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 2 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Wahrscheinlichkeitsräume und Zufallsvariablen

Wahrscheinlichkeitsräume und Zufallsvariablen Kapitel Wahrscheinlichkeitsräume und Zufallsvariablen. W-Raum Unter einem Zufallsexperiment verstehen wir einen vom Zufall beeinflussten Vorgang, der ein entsprechend zufälliges Ergebnis hervorbringt.

Mehr

KAPITEL 1. Martingale

KAPITEL 1. Martingale KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

Spezifische innere Volumina

Spezifische innere Volumina Spezifische innere Volumina Stochastische Geometrie und ihre en - Zufallsfelder Regina Poltnigg und Henrik Haßfeld Universität Ulm 13. Januar 2009 1 Regina Poltnigg und Henrik Haßfeld 1 2 Berechnung von

Mehr

1. Grundbegri e der Stochastik

1. Grundbegri e der Stochastik Wiederholung von Grundwissen der Stochastik. Grundbegri e der Stochastik Menge der Ereignisse. Die Elemente! der Menge heißen Elementarereignisse und sind unzerlegbare Ereignisse. Das Ereignis A tritt

Mehr

5 Erwartungswerte, Varianzen und Kovarianzen

5 Erwartungswerte, Varianzen und Kovarianzen 47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,

Mehr

Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle und Kalman Filter 15 p.2/??

Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle und Kalman Filter 15 p.2/?? Dynamische Systeme und Zeitreihenanalyse Zustandsraummodelle und Kalman Filter Kapitel 15 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Zustandsraummodelle

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Vorstellung der Kopplung bei Markovketten

Vorstellung der Kopplung bei Markovketten Vorstellung der Kopplung bei Markovketten Leonie Weinhold 13. Mai 2011 1 Einleitung In der Wahrscheinlichkeitstheorie und ihren Anwendungen ist die Coupling- Methode ein wichtiges Instrument, um z.b. Aussagen

Mehr