Einführung und Grundlagen

Größe: px
Ab Seite anzeigen:

Download "Einführung und Grundlagen"

Transkript

1 Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M, A ein Messraum ist Bisweilen ist es bequem, eine störende P-Nullmenge aus Ω zu entfernen, oder anders gesagt: Wenn Ω A mit P Ω = 1, dann macht es keinen wesentlichen Unterschied, statt Ω, A, P den reduzierten W-Raum Ω, A eω, P AeΩ zu nehmen und alle Zufallsvariablen auf Ω zu restringieren Wir schreiben dann aber wiederum Ω, A, P für den reduzierten W-Raum Definition 11 Stochastischer Prozess Eine Familie von Zufallsvariablen X t t T auf Ω mit Werten in einer Menge M, dh X t : Ω, A M, A für alle t T, wobei T irgendeine Indexmenge ist, heißt ein stochastischer Prozess mit Indexmenge T und Zustandsraum M Für jedes ω Ω heißt die Funktion t X t ω eine Funktion auf T mit Werten in M ein Pfad oder eine Trajektorie des stochastischen Prozesses Die interessanten Eigenschaften spezieller stochastischer Prozesse betreffen: a Die endlich-dimensionalen Randverteilungen P Xt 1,,Xt n, für n N und paarweise verschiedene t 1,, t n T b Die Pfade t X t ω für ω Ω ZB, im Fall M = R : Prozess mit stetigen Pfaden oder Prozess mit isotonen Pfaden Bemerkung: Verteilung eines stochastischen Prozesses Die Verteilung des stochastischen Prozesses X t t T mit Zustandsraum M ist die Verteilung der Zufallsvariablen X : Ω M T, Xω = X t ω t T, wobei M T die Menge aller Funktionen von T in M bezeichnet Diese Sichtweise führt allerdings zu neuen Maßund w-theoretischen Problemen, die wir nicht verfolgen wollen ZB ist hier ein erstes maßtheoretisches Problem die Festlegung einer geeigneten Sigma-Algebra A T im Funktionenraum M T, so dass X : Ω, A M T, A T Als für uns wichtiges Resultat ergibt sich dabei: Die Verteilung P X des stochastischen Prozesses ist eindeutig bestimmt durch das System aller endlich-dimensionalen Randverteilungen in Punkt a oben 1

2 Kapitel 1: Einführung und Grundlagen 2 11 Bedingte Verteilungen von Zufallsvariablen Definition 12 Bedingte Verteilung von X unter Y Seien X : Ω, A M, A und Y : Ω, A N, B zwei Zufallsvariablen auf Ω, wobei M, A und N, B zwei Messräume sind Eine bedingte Verteilung von X unter Y ist eine Familie P X Y = P X Y =y von W-Verteilungen auf A mit den folgenden Eigenschaften: y N i Für jedes A A ist die Funktion y P X Y =y A messbar bezgl der Sigma-Algebra B in N und der Borel schen Sigma-Algebra B 1 in R ii P X Y =y A dp Y y = P X 1 A Y 1 B A A, B B B Bemerkungen 1 Massenpunkte der Verteilung von Y Wenn P X Y = P X Y =y eine bedingte Verteilung von X unter Y ist, dann gilt für jeden Punkt y N y 0 N mit {y 0 } B und PY = y 0 > 0 : P X Y =y 0 = P X {Y =y 0}, wobei P X {Y =y 0} die elementare bedingte Verteilung von X unter dem Ereignis {Y = y 0 } ist, definiert durch P X {Y =y 0} A = P X 1 A {Y = y 0 } A A 2 Verallgemeinerte Fubini-Formel Wenn P X Y = P X Y =y eine bedingte Verteilung von X unter Y ist, dann gilt für eine Funktion y N g : M N, A B R, B 1 mit g X, Y 0 oder g X, Y P-integrierbar: E g X, Y = gx, y dp X Y =y x dp Y y N M Theorem 13 Eindeutigkeit und Existenz der bedingten Verteilung Seien X : Ω, A M, A und Y : Ω, A N, B a Die Sigma-Algebra A in M sei abzählbar erzeugt, dh es existiert ein abzählbares Teilsystem E A mit σe = A Dann ist die bedingte Verteilung von X unter Y P Y -fs eindeutig bestimmt, dh: Wenn Q y y N and Q y y N zwei bedingte Verteilungen von X unter Y sind, dann gilt P Y { y N : Qy = Q } y = 1 b Wenn M eine offene oder eine abgeschlossene Teilmenge von R d ist und A = B d M, dann existiert eine bedingte Verteilung von X unter Y und ist P Y -fs eindeutig bestimmt

3 Kapitel 1: Einführung und Grundlagen 3 Theorem 14 Bedingte Verteilung mit Hilfe von Dichten Seien X : Ω, A M, A und Y : Ω, A N, B, und die gemeinsame Verteilung P X,Y besitze die µ ν-dichte f, wobei µ ein sigma-endliches Maß auf A und ν ein sigma-endliches Maß auf B sind Sei noch f Y eine ν-dichte von P Y Dann gilt: { } Für Ñ := y N : 0 < f Y y = fx, y dµx < ist P Y Ñ = 1, und eine bedingte Verteilung von X unter Y ist gegeben durch M P X Y =y := f, y f Y y µ, falls y Ñ, und PX Y =y := P X, falls y N \ Ñ Dabei steht f, y für die Funktion M x fx, t Beispiel: X und Y gemeinsam normalverteilt Seien X : Ω, A R n 1, B n 1 und Y : Ω, A R n 2, B n 2, und X, Y seien gemeinsam normalverteilt: X Nβ, V mit β R Y n 1+n 2 und V PDn 1 + n 2 Wir partitionieren β und V entsprechend der Teil-Dimensionen n 1 und n 2 : [ ] β1 V β = und V = 1 V 12 V t 12 V 2 β 2 Mit Hilfe von Theorem 14 erhält man die bedingte Verteilung P X Y : P X Y =y = N β 1 + V 12 V 1 2 y β 2, V 1 V 12 V 1 2 V t 12, y R n 2 12 Singuläre Normalverteilungen n-dimensionale Normalverteilungen wurden durch Lebesgue-Dichten definiert, was positiv definite Kovarianzmatrizen erforderte Bisweilen jedoch, zb für allgemeine Gauß-Prozesse s Abschnitt 13, ist es nützlich, die Definition von Normalverteilungen etwas zu erweitern auf positiv semi-definite Kovarianzmatrizen die also auch singulär sein können W-Verteilungen auf B n mit singulärer Kovarianzmatrix können keine Lebesgue-Dichte besitzen Definition 15 Singuläre Normalverteilung Seien β R n and V eine positiv semi-definite n n Matrix, die singulär sei Die Normalverteilung Nβ, V ist wie folgt definiert Wähle eine Zerlegung V = UU t, mit einer reellen n n Matrix U ; dann: Nβ, V := N0, I n L U,β, wobei L U,β : R n R n, L U,β x = Ux + β Bemerkung: Wohldefiniertheit Im Allgemeinen gibt es viele n n Matrizen U mit UU t = V für eine gegebene positiv semi-definite n n Matrix V Daher muss nachgewiesen werden, dass Nβ, V aus Definition 15 nicht von der speziellen Wahl von U abhängt Das lässt sich zeigen mit Hilfe eines kleinen Matrizen-Resultats: Wenn U and Ũ zwei n n Matrizen mit UUt = ŨŨt, dann existiert eine orthogonale n n Matrix Q, so dass Ũ = UQ

4 Kapitel 1: Einführung und Grundlagen 4 Die lineare Transformationseigenschaft von Normalverteilungen setzt sich auf die so erweiterte Klasse der Normalverteilungen fort: Theorem 16 Lineare Transformationseigenschaft von Normalverteilungen Seien β R n, V eine positiv semi-definite n n Matrix, A eine m n Matrix and c R m Bezeichne: L A,c : R n R m, L A,c x = Ax + c Dann gilt: Nβ, V LA,c = NAβ + c, AV A t 13 Einige Klassen stochastischer Prozesse Definition 17 1-dim Wiener Prozess ohne Drift Wir betrachten einen stochastischen Prozess mit Indexmenge T = [ 0, und Zustandsraum M = R, also X t : Ω, A R, B 1 für alle t [ 0, Der Prozess X t t [0, heißt ein Wiener Prozess oder eine Brown sche Bewegung, wenn gilt: o X 0 0 ; i der Prozess hat stochastisch unabhängige Zuwächse: Für alle n N and alle 0 t 0 < t 1 < < t n sind die Zufallsvariablen Zuwächse X ti X ti 1 i = 1,, n stochastisch unabhängig ii Für alle s, t 0, s < t gilt: X t X s N 0, σ 2 t s ; dabei ist σ > 0 eine gegebene Konstante; iii die Pfade t X t ω, t [ 0,, sind stetig Definition 18 1-dim Gauß-Prozess Die Indexmenge T sei beliebig, und der Zustandsraum sei M = R, also X t : Ω, A R, B 1 für alle t T Der Prozess X t t T heißt ein Gauß-Prozess, wenn für alle n N and alle paarweise verschiedenen t 1,, t n T die gemeinsame Verteilung der Zufallsvariablen X t1,, X tn eine n-dimensionale Normalverteilung ist die auch singulär sein mag Wir bezeichnen dann: mt = EX t, t T, Mittelwert-Funktion; Ks, t = CovX s, X t, s, t T, Kovarianz-Funktion Bemerkungen 1 Die Verteilung eines Gauß-Prozesses ist vollständig durch seine Mittelwert-Funktion und seine Kovarianz-Funktion bestimmt Denn für jedes n N and alle paarweise verschiedenen t 1,, t n T gilt: mt1 X t1,, X tn t N,, mt n t, Kti, t j i,j=1,,n

5 Kapitel 1: Einführung und Grundlagen 5 2 Ein Wiener-Prozess ist ein Gauß-Prozess mit Mittelwert-Funktion m 0 und Kovarianz-Funktion Ks, t = σ 2 min{s, t}, s, t [ 0, Definition 19 Homogener Poisson-Prozess Sei N t t [0, ein stochastischer Prozess mit Zustandsraum M = N 0 und Indexmenge T = [ 0,, N t : Ω, A N 0, PN 0 für alle t [ 0, Der Prozess N t t [0, heißt ein homogener Poisson-Zählprozess, wenn gilt: o N 0 0 ; i der Prozess hat stochastisch unabhängige Zuwächse: Für jedes n N and alle 0 t 0 < t 1 < < t n sind die Zufallsvariablen Zuwächse N ti N ti 1 i = 1,, n stochastisch unabhängig; ii für alle s, t 0, s < t, gilt N t N s Poi λ t s ; dabei ist λ > 0 eine gegebene Konstante; iii die Pfade t N t ω, t [ 0,, sind isoton, rechtsseitig stetig, mit Sprungweiten 1 an den Unstetigkeitsstellen dh N t ω lim s t,s<t N s ω {0, 1} t > 0, sowie lim N tω = t ω Ω Definition 110 Markov-Kette Die Indexmenge sei T = N 0, und der Zustandsraum M sei abzählbar endlich oder abzählbar-unendlich Ein stochastischer Prozess X n n N0, wobei also heißt eine Markov-Kette, wenn gilt: X n : Ω, A M, PM für alle n N 0, M abzählbar Für jedes n 2, and alle x 0, x 1,, x n M mit PX 0 = x 0, X 1 = x 1,, X n 1 = x n 1 > 0 : P X n = x n X0 = x 0, X 1 = x 1,, X n 1 = x n 1 = P Xn = x n Xn 1 = x n 1 Die Markov-Kette heißt homogen, wenn für alle m, n N and alle x, y M mit PX m 1 = x > 0 und PX n 1 = x > 0 : P X m = y Xm 1 = x = P X n = y Xn 1 = x Beispiel: Ehrenfest sches Diffusionsmodell Eine homogene Markov-Kette X n n N0 mit Zustandsraum M = {1,, k}, k N gegeben, und Übergangswahrscheinlichkeiten 2xk x/k P X n = y Xn 1 = x 2, falls y = x x = 2 /k 2, falls y = x 1 k x 2 /k 2,, falls y = x + 1 0, sonst für alle x, y {1,, k} und n N mit PX n 1 = x > 0

6 Kapitel 1: Einführung und Grundlagen 6 Definition 111 Stationärer Prozess Die Indexmenge T sei eine der Mengen R, [ 0,, Z oder N 0, der Zustandsraum M, A sei beliebig Ein stochastischer Prozess X t t T heißt stationär, wenn für alle n N, alle t 1 < t 2 < < t n in T und alle h T die gemeinsame Verteilung von X t1,, X tn gleich der gemeinsamen Verteilung von X t1 +h,, X tn+h ist: P X t 1,,X tn = P X t 1 +h,,x t n+h n, t 1 < < t n, h Definition 112 Prozess mit stationären Zuwächsen Die Indexmenge T sei eine der Mengen R, [ 0,, Z oder N 0, der Zustandsraum M sei eine Borel sche Teilmenge von R d mit der Borel schen Spur-Sigma-Algebra A = BM d Ein stochastischer Prozess X t t T heißt ein Prozess mit stationären Zuwächsen, wenn für alle n N, alle t 0 < t 1 < < t n in T und alle h T die gemeinsame Verteilung von X ti X ti 1 i = 1,, n gleich der gemeinsamen Verteilung von X ti +h X ti 1 +h i = 1,, n ist: X P t1 X t0,,x t n X tn 1 X = P t1 +h X t0 +h,,x t n+h X tn 1 +h n, t 1 < < t n, h Definition 113 Prozess mit unabhängigen Zuwächsen Die Indexmenge T sei entweder [ 0, oder N 0, der Zustandsraum M sei eine Borel sche Teilmenge von R d mit der Borel schen Spur-Sigma-Algebra A = BM d Ein stochastischer Prozess X t t T heißt ein Prozess mit unabhängigen Zuwächsen, wenn für alle n N und alle t 0 < t 1 < < t n in T die Zufallsvariablen X 0, X t1 X t0, X t2 X t1,, X tn X tn 1 stochastisch unabhängig sind Anmerkung: Im Fall X 0 const kann die konstante Zufallsvariable X 0 aus obiger Bedingung entfernt werden Bemerkung: Wenn X t t T ein Prozess mit unabhängigen Zuwächsen ist, dann ist die Bedingung stationärer Zuwächse äquivalent mit: P X t X s = P X t+h X s+h für alle s, t T, s < t, und alle h T Wiener-Prozesse und homogene Poisson-Zählprozesse sind also Prozesse mit unabhängigen und stationären Zuwächsen

7 Kapitel 1: Einführung und Grundlagen 7 Definition 114 Markov Prozess Die Indexmenge T sei eine Teilmenge von R, der Zustandsraum M, A sei beliebig Ein stochastischer Prozess X t t T heißt ein Markov-Prozess, wenn gilt: Zu jedem Paar s, t T mit s < t existiert eine bedingte Verteilung von X t unter X s, P X t X s = P X t X s =x x M, mit der Eigenschaft, dass für alle n N und alle s 1 < < s n < s in T die Familie P X t X s=x x 1,,x n,x M n+1 eine bedingte Verteilung von X t unter X s1,, X sn, X s ist; kurz aber lax formuliert: Xs1 =x 1,, X s n =x n, X s =x = P X t X s =x Die Verteilungen P X t s 1 < < s n < s < t in T, x 1,, x n, x M, n N P X t X s =x für s, t T, s < t, und x M heißen dann Übergangsverteilungen des Markov-Prozesses X t t T Bemerkung: Markov-Prozess mit diskretem Zustandsraum Wenn M abzählbar ist und A = PM, dann lässt sich ein Markov-Prozess X t t T charakterisieren durch die folgende Bedingung: Für alle n N, alle s 1 < < s n < s < t in T, and alle x 1,, x n, x, y M mit P X s1 = x 1,, X sn = x n, X s = x > 0 gilt P X t = y X s1 = x 1,, X sn = x n, X s = x = P X t = y X s = x Die bedingten Wahrscheinlichkeiten T s,t x, y = P X t = y Xs = x, für s, t T, s < t, und x, y M mit PX s = x > 0, heißen dann Übergangswahrscheinlichkeiten des Markov-Prozesses X t t T elementarer Wenn außerdem T = N 0, dann ist die obige Markov-Eigenschaft äquivalent mit der in Definition 110 formulierten Bedingung: Für jedes n N, n 2, and alle x 0, x 1,, x n M mit PX 0 = x 0, X 1 = x 1,, X n 1 = x n 1 > 0 gilt P X n = x n X0 = x 0, X 1 = x 1,, X n 1 = x n 1 = P Xn = x n Xn 1 = x n 1 Wir sehen: Ein Markov-Prozess mit abzählbarem Zustandsraum und Indexmenge N 0 ist dasselbe wie eine Markov-Kette gemäß Definition 110 Theorem 115 Unabhängige Zuwächse = Markov Die Indexmenge T sei entweder [0, oder N 0, und der Zustandsraum M sei eine Borel sche Teilmenge von R d mit der Sigma-Algebra A = B d M Wenn X t t T ein Prozess mit unabhängigen Zuwächsen ist, dann ist X t t T ein Markov-Prozess mit Übergangsverteilungen P X t X s =x = P X t X s +x für alle s, t T, s < t, und alle x M Anmerkung: Streng genommen ist nur für P X s -fast alle x M die Verteilung von X t X s +x eine W-Verteilung auf B d M Für die übrigen x M die eine PX s -Nullmenge bilden, definiere man zb P X t X s =x = P X t s

8 Kapitel 1: Einführung und Grundlagen 8 Theorem 116 Chapman-Kolmogorov-Gleichung für Markov-Prozesse Sei X t t T, wobei T R, ein Markov-Prozess mit Zustandsraum M, A, und die Sigma-Algebra A sei abzählbar erzeugt Für je drei Punkte s < t < u in T gilt: P Xu Xs=x A = P Xu Xt=y A dp Xt Xs=x y A A, für P X s -fast alle x M M Bemerkungen 1 Diskreter Zustandsraum Wenn M abzählbar und A = PM, dann lässt sich die Chapman-Kolmogorov-Gleichung für einen Markov-Prozess elementarer mit den Übergangswahrscheinlichkeiten formulieren: T s,u x, z = y M T s,t x, y T t,u y, z x, z M mit PX s = x > 0, wobei s < t < u in T Streng genommen erfolgt die Summation nur über die y M mit PX t = y > 0 2 Übergangsverteilungen mit Lebesgue-Dichten Der Zustandsraum M sei eine Borel sche Teilmenge von R d und A = BM d Sei X t t T ein Markov- Prozess, dessen Übergangverteilungen Lebesgue-Dichten besitzen: P X t X s =x = f s,t x, λ d A s < t in T, x M Dann schreibt sich die Chapman-Kolmogorov-Gleichung als: f s,u x, z = f s,t x, y f t,u y, z d λ d y für P X s -fast alle x M und λ d -fast alle z M M wobei s < t < u in T Definition 117 Homogener Markov-Prozess Die Indexmenge T sei eine der Mengen R, [ 0,, Z oder N 0 ; der Zustandsraum M, A sei beliebig Ein Markov-Prozess X t t T heißt homogen, wenn sich die Übergangsverteilungen in Definition 114 so wählen lassen, dass gilt: P X t X s =x = P X t+h X s+h =x s < t in T, h T, x M Korollar 118 Die Indexmenge T sei entweder [ 0, or N 0 ; der Zustandsraum M sei eine Borel sche Teilmenge von R d und A = BM d Wenn X t t ein Prozess mit stationären und unabhängigen Zuwächsen ist, dann ist X t t T ein homogener Markov-Prozess mit Übergangsverteilungen P Xt Xs=x = P X t s X 0 +x, s < t, x M

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten

Kapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume

Kapitel II Kontinuierliche Wahrscheinlichkeitsräume Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Terminologie Stochastischer Prozesse

Terminologie Stochastischer Prozesse Terminologie Stochastischer Prozesse Nikolai Nowaczyk 2014-03-31 Dieses Script ist die Ausarbeitung zum einem Vortrag, gehalten im Seminar zur Wahrscheinlichkeitstheorie im SS 14 an der Uni Regensburg.

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Punktschätzer Optimalitätskonzepte

Punktschätzer Optimalitätskonzepte Kapitel 1 Punktschätzer Optimalitätskonzepte Sei ein statistisches Modell gegeben: M, A, P ϑ Sei eine Funktion des Parameters ϑ gegeben, γ : Θ G, mit irgendeiner Menge G, und sei noch eine Sigma-Algebra

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

Erwartungswert und Varianz von Zufallsvariablen

Erwartungswert und Varianz von Zufallsvariablen Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis

Mehr

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).

Kapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2). Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein

Mehr

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457. Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

1.3 Zufallsvariablen

1.3 Zufallsvariablen 1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

Kapitel 6 Martingale

Kapitel 6 Martingale Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse

Mehr

Konfidenzbereiche. Kapitel Grundlagen. Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus,

Konfidenzbereiche. Kapitel Grundlagen. Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, Kapitel 4 Konfidenzbereiche 4.1 Grundlagen Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

Stochastik. 1. Wahrscheinlichkeitsräume

Stochastik. 1. Wahrscheinlichkeitsräume Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.

Mehr

Gegenbeispiele in der Wahrscheinlichkeitstheorie

Gegenbeispiele in der Wahrscheinlichkeitstheorie Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition

Mehr

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung

2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung 2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von

Mehr

Erwartungswert als Integral

Erwartungswert als Integral Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral

Mehr

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung

4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung 4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt

Mehr

Grundlagen der Wahrscheinlichkeitstheorie

Grundlagen der Wahrscheinlichkeitstheorie Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN

8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN 8 1. GEOMETRIE DIFFERENZIERBARER MANNIGFALTIGKEITEN (vi) Konvergenz von Folgen ist in topologischen Räumen folgendermaßen definiert: Ist (a n ) M eine Folge, so heißt sie konvergent gegen a M, wenn es

Mehr

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013

Reelle Analysis. Vorlesungsskript. Enno Lenzmann, Universität Basel. 11. Oktober 2013 Reelle Analysis Vorlesungsskript Enno Lenzmann, Universität Basel 11. Oktober 2013 3 Fortsetzung von Prämassen zu Massen Der Begriff des Prämasses ist nicht ausreichend, um eine geschmeidige Integrationstheorie

Mehr

1 Bedingte Erwartungswerte

1 Bedingte Erwartungswerte Die folgenden Regeln sind das alltägliche Handwerkszeug für den Umgang mit bedingten Erwartungen und werden in diesem Abschnitt, allerdings ohne Beweise, zitiert. Es ist durchaus eine lohnenswerte Übung,

Mehr

2 Stationarität. Strikte Stationarität

2 Stationarität. Strikte Stationarität 2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele

Mehr

Aufgaben zu Kapitel 0

Aufgaben zu Kapitel 0 Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Kapitel 8: Zufallsvektoren

Kapitel 8: Zufallsvektoren Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

4. Gemeinsame Verteilung und Grenzwertsätze

4. Gemeinsame Verteilung und Grenzwertsätze 4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen

Mehr

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN

VERTEILUNGEN VON FUNKTIONEN EINER ZUFALLSVARIABLEN KAPITEL 15 VETEILUNGEN VON FUNKTIONEN EINE ZUFALLSVAIABLEN In diesem Kapitel geht es darum, die Verteilungen für gewisse Funktionen von Zufallsvariablen zu bestimmen. Wir werden uns auf den Fall absolut

Mehr

Schwache Konvergenz von Wahrscheinlichkeitsmaßen

Schwache Konvergenz von Wahrscheinlichkeitsmaßen Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind

Mehr

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren

1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Wahrscheinlichkeitstheorie und Maßtheorie

Wahrscheinlichkeitstheorie und Maßtheorie KAPITEL 7 Wahrscheinlichkeitstheorie und Maßtheorie 7.1. Vorüberlegungen Die folgenden drei Beispiele sind Spezialfälle des Oberbegriffs Maß. Beispiel 7.1.1 (Verteilung der Ladung oder der Masse). Man

Mehr

Allgemeine Punktprozesse

Allgemeine Punktprozesse Allgemeine Punktprozesse Michael Auchter 17. Mai 2010 Seite 2 Allgemeine Punktprozesse 17. Mai 2010 Inhaltsverzeichnis Definitionen Definition von Punktprozessen Das Intensitätsmaß Stationarität, Isotropie

Mehr

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume

Kapitel II Kontinuierliche Wahrscheinlichkeitsraume Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten

Mehr

Das Lebesgue-Maß im R p

Das Lebesgue-Maß im R p Das Lebesgue-Maß im R p Wir werden nun im R p ein metrisches äußeres Maß definieren, welches schließlich zum Lebesgue-Maß führen wird. Als erstes definieren wir das Volumen von Intervallen des R p. Seien

Mehr

Klausur zur Vorlesung Stochastik II

Klausur zur Vorlesung Stochastik II Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

4 Messbare Funktionen

4 Messbare Funktionen 4 Messbare Funktionen 4.1 Definitionen und Eigenschaften Definition 4.1. Seien X eine beliebige nichtleere Menge, M P(X) eine σ-algebra in X und µ ein Maß auf M. Das Paar (X, M) heißt messbarer Raum und

Mehr

12 Erwartungswerte. Erwartungswerte 111. Überblick

12 Erwartungswerte. Erwartungswerte 111. Überblick Erwartungswerte 111 12 Erwartungswerte Zur Motivation der Begrisbildung wird zunächst der Erwartungswert im diskreten Fall als Reihenwert eingeführt. Der allgemeine, auf dem Integral basierende Erwartungswert

Mehr

Meßbare Funktionen. Die angemessenen Abbildungen zwischen Meßräumen sind die meßbaren Funktionen.

Meßbare Funktionen. Die angemessenen Abbildungen zwischen Meßräumen sind die meßbaren Funktionen. Meßbare Funktionen Die angemessenen Abbildungen zwischen Meßräumen sind die meßbaren Funktionen. Definition. Seien (X, Ω 1 ) und (Y, Ω 2 ) Meßräume. Eine Abbildung f : X Y heißt Ω 1 -Ω 2 -meßbar oder kurz

Mehr

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist:

2. Ein Zufallsvektor X IR d ist multivariat normal verteilt dann und nur dann wenn seine charakteristische Funktion folgendermaßen gegeben ist: Multivariate elliptische Verteilungen a) Die multivariate Normalverteilung Definition 2 Der Zufallsvektor (X 1, X 2,..., X d ) T hat eine multivariate Normalverteilung (oder eine multivariate Gauss sche

Mehr

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, (

Wir gehen wieder von einem allgemeinen (parametrischen) statistischen Modell aus, ( Kapitel 4 Konfidenzbereiche Wir gehen wieder von einem allgemeinen parametrischen statistischen Modell aus, M, A, P ϑ ; sei eine Funktion des Parameters gegeben, die einen interessierenden Teil-Parameter

Mehr

7 Bedingte Erwartungswerte und Bedingte Verteilungen

7 Bedingte Erwartungswerte und Bedingte Verteilungen 7 edingte Erwartungswerte und edingte Verteilungen Sei (Ω,, P ein W Raum, (Ω, ein Messraum, Y : Ω Ω sei (, -messbar und nehme die Werte y 1,..., y n Ω an. Y 1 (y k {ω Ω Y (ω y k } : k Ω 1 + + n und σ(y

Mehr

TECHNISCHE UNIVERSITÄT MÜNCHEN

TECHNISCHE UNIVERSITÄT MÜNCHEN Prof. Dr. D. Castrigiano Dr. M. Prähofer Zentralübung 38. Einschränkung eines Maßes TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik Mathematik für Physiker 4 (Analysis 3) http://www.ma.tum.de/hm/ma9204

Mehr

Beispiel 6 (Multivariate Normalverteilung)

Beispiel 6 (Multivariate Normalverteilung) Beispiel 6 (Multivariate Normalverteilung) Sei X N(µ,Σ). Es existiert eine Matrix A IR d k, sodass X d = µ+az wobei Z N k (0,I) und AA T = Σ. Weiters gilt Z = RS wobei S ein gleichmäßig verteilter Zufallsvektor

Mehr

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen

Kapitel 6. Suffiziente Statistiken. 6.1 Vorbetrachtungen Kapitel 6 Suffiziente Statistiken In diesem Kapitel untersuchen wir einen weiteren statistischen Begriff, der eng mit Likelihoodfunktionen zusammenhängt und mit der Frage nach eventuell möglicher Datenreduktion

Mehr

Zusatzmaterial zur Vorlesung Statistik II

Zusatzmaterial zur Vorlesung Statistik II Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Ferienkurs zur Einführung in die Wahrscheinlichkeitstheorie

Ferienkurs zur Einführung in die Wahrscheinlichkeitstheorie Ferienkurs zur Einführung in die Wahrscheinlichkeitstheorie Wintersemester 2010/2011 Fabian Benesch 28.02.2011 Information Das Kleingedruckte Dieser Ferienkurs ist kein Bestandteil der Vorlesung Einführung

Mehr

Zeitstetige Markov-Prozesse: Einführung und Beispiele

Zeitstetige Markov-Prozesse: Einführung und Beispiele Zeitstetige Markov-Prozesse: Einführung und Beispiele Simone Wielart 08.12.10 Inhalt Q-Matrizen und ihre Exponentiale Inhalt Q-Matrizen und ihre Exponentiale Zeitstetige stochastische Prozesse Inhalt Q-Matrizen

Mehr

Ferienkurs in Maß- und Integrationstheorie

Ferienkurs in Maß- und Integrationstheorie Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien

Mehr

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert

Mehr

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung

Brownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;

Mehr

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1

4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral

Mehr

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik

Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen

Mehr

Zusammenfassung der Lebesgue-Integrationstheorie

Zusammenfassung der Lebesgue-Integrationstheorie Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige

Mehr

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016

Übungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016 Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]

Mehr

Wahrscheinlichkeitstheorie

Wahrscheinlichkeitstheorie Wahrscheinlichkeitstheorie Dr. C.J. Luchsinger 5 n (Konvergenz, LLN) 5.1 Konvergenzarten In der WT gibt es viele Konvergenzarten für Folgen von Zufallsgrössen. Sie haben alle ihre Berechtigung. In der

Mehr

A. Maß- und Integrationstheorie

A. Maß- und Integrationstheorie A. Maß- und Integrationstheorie Im folgenden sind einige Ergebnisse aus der Maß- und Integrationstheorie zusammengestellt, die wir im Laufe der Vorlesung brauchen werden. Für die Beweise der Sätze sei

Mehr

Strassen Type Theorems Proseminar Stochastik

Strassen Type Theorems Proseminar Stochastik Strassen Type Theorems Proseminar Stochastik Cecelie Hector Universität Hamburg Fachbereich Mathematik SoSe 2004 Vortrag am 25.06.04 Definition (a). Ein topologischer Raum E heißt polnisch, wenn es eine

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

Wiederholung von Linearer Algebra und Differentialrechnung im R n

Wiederholung von Linearer Algebra und Differentialrechnung im R n Wiederholung von Linearer Algebra und Differentialrechnung im R n 1 Lineare Algebra 11 Matrizen Notation: Vektor x R n : x = x 1 x n = (x i ) n i=1, mit den Komponenten x i, i {1,, n} zugehörige Indexmenge:

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

2.6 Der Satz von Fubini

2.6 Der Satz von Fubini 1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N

Mehr

Appendix I: Eine etwas komprimierte Einführung in die Wahrscheinlichkeitstheorie

Appendix I: Eine etwas komprimierte Einführung in die Wahrscheinlichkeitstheorie Appendix I: Eine etwas komprimierte Einführung in die Wahrscheinlichkeitstheorie Vorbemerkung: Die folgenden Seiten sind nicht zur Abschreckung gedacht, sondern als Ergänzung zu den Darstellungen, die

Mehr

Kapitel 8 Absolutstetige Verteilungen

Kapitel 8 Absolutstetige Verteilungen Kapitel 8 Absolutstetige Verteilungen Vorlesung Wahrscheinlichkeitsrechnung I vom 27. Mai 2009 Lehrstuhl für Angewandte Mathematik FAU 8. Absolutstetige Verteilungen Charakterisierung von Verteilungen

Mehr

7 Der Satz von Girsanov

7 Der Satz von Girsanov 7 Der Satz von Girsanov Der Satz von Girsanov wird uns eine neue Perspektive auf die Rolle des Drifts liefern. Die Prozesse Brownsche Bewegung B t, Brownsche Bewegung mit Drift X t = B t + µt haben wir

Mehr

10 Transformation von Zufallsvariablen

10 Transformation von Zufallsvariablen 10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik

Schwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind

Mehr

Maße auf Produkträumen

Maße auf Produkträumen Maße auf Produkträumen Es seien (, Ω 1 ) und (X 2, Ω 2 ) zwei Meßräume. Wir wollen uns zuerst überlegen, wie wir ausgehend davon eine geeignete σ-algebra auf X 2 definieren können. Wir betrachten die Menge

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm

Brownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche

Mehr

1 A dp = P(A B). (1.3)

1 A dp = P(A B). (1.3) Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

Zufallsvariable: Verteilungen & Kennzahlen

Zufallsvariable: Verteilungen & Kennzahlen Mathematik II für Biologen 12. Juni 2015 Zufallsvariable Kennzahlen: Erwartungswert Kennzahlen: Varianz Kennzahlen: Erwartungstreue Verteilungsfunktion Beispiel: Exponentialverteilung Kennzahlen: Erwartungswert

Mehr

Projektive Räume und Unterräume

Projektive Räume und Unterräume Projektive Räume und Unterräume Erik Slawski Proseminar Analytische Geometrie bei Prof. Dr. Werner Seiler und Marcus Hausdorf Wintersemester 2007/2008 Fachbereich 17 Mathematik Universität Kassel Inhaltsverzeichnis

Mehr

Grundbegriffe der Wahrscheinlichkeitsrechnung

Grundbegriffe der Wahrscheinlichkeitsrechnung Algorithmen und Datenstrukturen 349 A Grundbegriffe der Wahrscheinlichkeitsrechnung Für Entwurf und Analyse randomisierter Algorithmen sind Hilfsmittel aus der Wahrscheinlichkeitsrechnung erforderlich.

Mehr

1 falls x 2. falls x = 1 und. 0 falls x > 1. eine Lebesgue-integrierbare Majorante. Somit können wir den Satz von Lebesgue anwenden:

1 falls x 2. falls x = 1 und. 0 falls x > 1. eine Lebesgue-integrierbare Majorante. Somit können wir den Satz von Lebesgue anwenden: Lösungsvorschläge zur Klausur 045 Maß- und Integrationstheorie WS 205/6 Lösungsvorschlag zu Aufgabe Sei f n der Integrant 0 falls x > 2 und f n x) falls x 2. 3+sin 2n)+x x 4n Sein punktweiser Grenzwert

Mehr