Kapitel 2 Grundbegriffe der allgemeinen Theorie stochastischer Prozesse
|
|
- Anneliese Sternberg
- vor 5 Jahren
- Abrufe
Transkript
1 Kapitel 2 Grundbegriffe der allgemeinen Theorie stochastischer Prozesse
2 2.1 Definitionen stochastische Prozesse 2.1 Definitionen stochastische Prozesse Klassische Definition: als Familien von Zufallsvariablen (Ω, F, P ) Wahrscheinlichkeitsraum T (im Allgemeinen unendliche) Indexmenge, z.b. N 0, R +,... {X t, t T } Familie von Zufallsvariablen X t : (Ω, F, P ) (S, S) mit Wertebereich S und zugehöriger σ Algebra S. S abzählbar, S = P(S) diskrete ZV S = R oder Intervall I R, S = B oder B I reellwertige ZV S = R p oder I R p, S = B p oder B p I vektorielle ZV Sommersemester
3 2.1 Definitionen stochastische Prozesse Definition: Ein stochastischer Prozess ist das Quadrupel X = (Ω, F, P, {X t, t T }). T heißt Parameterraum, S Zustandsraum von X. Bemerkungen: Meist lässt man den Wahrscheinlichkeitsraum (Ω, F, P ) weg. Ein stochastischer Prozess X = {X t, t T } ist dann eine Familie von (im Allgemeinen abhängigen) Zufallsvariablen X t. Für T = N 0 oder R + wird t meist als diskrete oder stetige Zeit interpretiert. Ist T Z 2 (Gitter) oder T R 2, heißt X auch Zufallsfeld (random field) Räumliche Statistik (eigene Vorlesung). T N 0 Z 2, T R + R 2 oder T R + Z 2 zeitlich räumliche Statistik. werden häufig nach Zustands- und Parameterraum klassifiziert. Sommersemester
4 2.1 Definitionen stochastische Prozesse Definition: Sei X ein stochastischer Prozess (SP) und {t 1,..., t n, n N} T beliebig. Dann heißen P t1,...,t n (B 1... B n ) = P (X t1 B 1,..., X tn B n ) endlich-dimensionale Verteilungen des SP X. Für reelle Zufallsvariablen heißen F t1,...,t n (x 1,..., x n ) = P (X(t 1 ) x 1,..., X(t n ) x n ) endlich-dimensionale Verteilungsfunktionen des SP X. Die Menge aller endlich-dimensionalen Verteilung(sfunktion)en eines SP heißt Familie der endlich-dimensionalen Verteilung(sfunktion)en. Sommersemester
5 2.1 Definitionen stochastische Prozesse Endlich-dimensionale Verteilungsfunktionen (von SPen) erfüllen die folgenden Verträglichkeitsbedingungen (Konsistenzbedingungen): (a) Für jede Permutation k 1,..., k n von 1,..., n gilt F tk1,...,t k n (x k 1,..., x kn ) = F t1,...,t n (x 1,..., x n ). (b) Für alle 1 k < n und x 1,..., x k R gilt F t1,...,t k (x 1,..., x k ) = F t1,...,t n (x 1,..., x k,,..., ). Analoge Aussagen erhält man allgemein für Verteilungen mit F P, x 1,..., x k B 1,..., B k und S. Eine (beliebige) endlich-dimensionale Verteilungsfamilie heißt konsistent : (a) und (b) gelten. Sommersemester
6 2.1 Definitionen stochastische Prozesse Für jedes (feste) ω Ω heißt die Funktion X(ω) : T S t X t (ω), Pfad, Trajektorie oder Realisierung des stochastische Prozesses X. Für festes ω und laufendes t ist X t (ω) eine übliche (reelle) Folge (T diskret) bzw. Funktion (T stetig). Sommersemester
7 2.1.2 als Produktabbildungen 2.1 Definitionen stochastische Prozesse Ein stochastischer Prozess lässt sich auch auffassen als Funktion der beiden Variablen t und ω: X. (.) : T Ω S Produktabbildung (t, ω) X t (ω) Hält man in der Produktabbildung t fest, erhält man die Zufallsvariablen zurück: X t : Ω S t fest ω X t (ω) ω läuft. Im Allgemeinen muss die Messbarkeit der Produktabbildung X. (.) zusätzlich gefordert werden. (Der stochastische Prozess heißt dann messbar.) Alle Prozesse die wir in der Vorlesung besprechen und alle Prozesse mit diskretem Parameterraum sind messbar. Sommersemester
8 2.1 Definitionen stochastische Prozesse als Abbildungen in Funktionenräume Ordnet man jedem ω Ω seinen Pfad X(ω) S T zu, kann man einen stochastischen Prozess auch auffassen als Abbildung in den Funktionenraum S T X : (Ω, F, P ) S T ω X(ω) = {X t (ω), t T }. Dabei ist S T der Raum aller Funktionen T S, z.b. R [0, ) = Raum aller Funktionen f : [0, ) R R N 0 = Raum aller (reellen) Folgen. Vergleich mit p-dimensionaler Zufallsvariablen: Stochastischer Prozess p-dimensionale Zufallsvariable T = R +, N 0,... T = {1, 2,..., p} S R S = R, R X(ω) Punkt im Funktionraum S T X(ω) Punkt im R p Sommersemester
9 2.1 Definitionen stochastische Prozesse Frage: Lässt sich auf dem Funktionenraum S T eine σ-algebra A definieren, so dass X : (Ω, F) (S T, A) messbar ist? Antwort: Ja (die von den endlich-dimensionalen Projektionen erzeugte Produkt-σ- Algebra S T ), wobei es oft zweckmäßig ist, den Funktionenraum einzuschränken. Beispiel: Der Wiener Prozess hat stetige Pfade W : (Ω, F, P ) (C(T ), B C ) wobei C(T ) = Raum aller stetigen Funktionen, B C = Borel-σ-Algebra. Damit lässt sich die Verteilung eines stochastischen Prozesses als Bild- Wahrscheinlichkeits-Maß P X (auf (S T, A)) der ursprünglichen Verteilung P (auf (Ω, F)) betrachten: X : (Ω, F, P ) (S T, A, P X ). Auffassung des stochastischen Prozesses X als Wahrscheinlichkeits-Maß P X auf geeignetem Funktionenraum. Sommersemester
10 2.2 Existenzsatz von Kolmogorov 2.2 Existenzsatz von Kolmogorov Zur Definition eines stochastischen Prozesses haben wir die Existenz eines gemeinsamen Wahrscheinlichkeitsraumes (Ω, F, P ) vorausgesetzt, aus dem die endlich-dimensionalen Verteilungen abgeleitet werden können. In den Beispielen wurde (Ω, F, P ) (S, S) aber nicht explizit angegeben. Beispiel: Diskrete Irrfahrt X n = Z Z n, n N Ereignis ω = (z 1,..., z n,...) mit z n { 1, 0, 1} X n (ω) = z z n Ω = ( 1, 0, 1) N Folgenraum Sommersemester
11 2.2 Existenzsatz von Kolmogorov F = P(Ω) P = P 1... P n... Produkt-Maß mit Beispiel: Poisson-Prozess P n := p für z n = 1 q für z n = 1 r für z n = 0 ω = (ω 1, ω 2,..., ω n,...), ω n R + Ergebnis von T n Ex(λ) Ω = Menge aller solcher Folgen F = B + B +... B +... Produkt-σ-Algebra P = P 1 P 2... P n... Produkt-Maß der Exp.-Verteilungen P 1,..., P n,... In den meisten Fällen ist eine solche explizite Angabe von (Ω, F, P ) nicht möglich. Sommersemester
12 2.2 Existenzsatz von Kolmogorov Der Existenzsatz von Kolmogorov zeigt, dass es reicht, wenn man die endlichdimensionalen Verteilungen in konsistenter Weise vorgibt. Existenzsatz von Kolmogorov: Sei {F t1,...,t n } (bzw. {P t1,...,t n }) ein konsistentes System von endlich-dimensionalen Verteilungsfunktionen (bzw. Verteilungen). Dann existieren ein Wahrscheinlichkeitsraum (Ω, F, P ) und ein stochastischer Prozess X = (Ω, F, P, {X t, t T }) mit F t1,...,t n als System von endlich-dimensionalen Verteilungsfunktionen, d.h. F t1,...,t n (x 1,..., x n ) = P (X t1 x 1,..., X tn x n ). Bemerkungen: Der stochastische Prozess X ist durch den Existenzsatz nicht eindeutig bestimmt. Es lässt sich immer ein Prozess X konstruieren, der zwar andere Pfade besitzt als X, aber die gleichen endlich-dimensionalen Verteilungsfunktionen! Sommersemester
13 2.2 Existenzsatz von Kolmogorov Spezialfall mehrdimensionale Zufallsvariablen, T = {1,..., p}: Der Existenzsatz sichert zu vorgegebener gemeinsamer Verteilungsfunktion F (x 1,..., x p ) die Existenz eines W Raumes {Ω, F, P } mit F (x 1,..., x p ) = P (X 1 x 1,..., X p x p ). Dabei kann man sogar (Ω, F) = (R p, B p ) wählen, d.h. die Realisierungen x 1,..., x p werden mit ω identifiziert, ω (x 1,..., x p ) R p. Analog bei stochastischen Prozessen: ω Pfad S T, Ω = Menge aller Pfade. Man braucht sich keinen zugrundeliegenden Wahrscheinlichkeitsraum wie bei Irrfahrt und Poisson-Prozess zu konstruieren. Sommersemester
14 Beispiel: Wiener Prozess 2.2 Existenzsatz von Kolmogorov (W1), (W2) und W(3) ergeben die endlich-dimensionalen Verteilungsfunktionen des Wiener Prozesses (siehe 1.2.2). Der Existenzsatz garantiert die Existenz eines solchen stochastischen Prozess, dieser besitzt aber nicht notwendigerweise stetige Pfade. Es lässt sich aber eine Version mit stetigen Pfaden konstruieren. In den folgenden Kapiteln werden wir stochastische Prozesse in der Regel so einführen: Vorgabe von Konstruktionsvorschriften bzw. Axiomen. endlich-dimensionale Verteilungsfunktionen. stochastischer Prozess inklusive Wahrscheinlichkeitsraum. Sommersemester
15 2.3 Äquivalenz- und Stetigkeitsbegriffe 2.3 Äquivalenz- und Stetigkeitsbegriffe Äquivalente stochastische Prozesse Seien im Folgenden stets X = {X t, t T } und Y = {Y t, t T } zwei stochastische Prozesse auf dem gleichen W Raum (Ω, F, P ) mit gleichem Zustandsraum (S, S). X und Y heißen verteilungsäquivalent (schwach äquivalent) : Die endlich-dimensionalen Verteilungen von X und Y sind gleich {t 1,..., t n } T, {B 1,..., B n } S, n N gilt P (X t1 B 1,..., X tn B n ) = P (Y t1 B 1,..., Y tn B n ). X und Y heißen äquivalent : P (ω : X t (ω) = Y t (ω)) = 1 P (X t = Y t ) = 1 t T Man bezeichnet Y dann auch als Version von X. Sommersemester
16 X und Y heißen ununterscheidbar : 2.3 Äquivalenz- und Stetigkeitsbegriffe X und Y haben mit Wahrscheinlichkeit 1 gleiche Pfade P (X t = Y t, t T ) = 1 P ({ω : X(ω) = Y (ω)}) = 1 Es gilt: X, Y ununterscheidbar äquivalent verteilungsäquivalent. Falls T abzählbar: X, Y ununterscheidbar äquivalent. Sommersemester
17 2.3.2 Stetigkeitsbegriffe 2.3 Äquivalenz- und Stetigkeitsbegriffe Im Folgenden seien T R +, S R, S = B S X heißt (fast sicher) pfadstetig : P (ω : lim s t X(s, ω) = X(t, ω) t R + ) = 1 P (lim s t X(s) = X(t) t R + ) = 1 Analog definiert man fast sicher rechtsstetig, fast sicher cadlag (continué á droite limité á gauche, rechtsstetig mit Grenzwerten von links), etc. X heißt (fast sicher) stetig : P (ω : lim s t X(s, ω) = X(t, ω)) = 1 t R + Sommersemester
18 X heißt stochastisch stetig : 2.3 Äquivalenz- und Stetigkeitsbegriffe lim s t P (ω : X(s, ω) X(t, ω) > ɛ) = 0 ɛ > 0, t R + p lim s t X(s) = X(t) t R + X(s) konvergiert nach Wahrscheinlichkeit gegen X(t) t R. Sind X und Y äquivalent und fast sicher pfad-rechtsstetig, so sind X und Y ununterscheidbar. Sommersemester
19 2.4 Stationäre und nichtstationäre stochastische Prozesse 2.4 Stationäre und nichtstationäre stochastische Prozesse Ein stochastischer Prozess X heißt streng stationär : n, t 1,..., t n, h gilt F t1,...,t n (x 1,..., x n ) = F t1 +h,...,t n +h(x 1,..., x n ) d.h. die endlich-dimensionalen Verteilungsfunktionen sind invariant gegenüber einer Zeitverschiebung h. Folgerungen: F t (x 1 ) = F t+h (x 1 ), d.h. die eindimensionalen Verteilungen sind zeitinvariant. Erwartungswert und Varianz sind unabhängig von t: E(X t ) = µ V ar(x t ) = σ 2. Sommersemester
20 2.4 Stationäre und nichtstationäre stochastische Prozesse Die Kovarianz zwischen X s, X t hängt nur von Zeitdifferenz t s, nicht von den Werten t, s auf der Zeitachse selbst ab: Cov(X s, X t ) = = (x 1 µ)(x 2 µ)df xs,x t (x 1, x 2 ) (x 1 µ)(x 2 µ)df x0 x t s (x 1, x 2 ) = Cov(X 0, X t s ) =: γ(t s) γ(h) = Cov(X t+h, X t ) = Cov(X h, X 0 ) heißt (Auto-)Kovarianzfunktion. γ(h) besitzt die folgenden Eigenschaften: γ(h) = γ( h) γ(h) γ(0) = σ 2 = V ar(x t ) Sommersemester
21 Ein stochastischer Prozess X heißt schwach stationär : 2.4 Stationäre und nichtstationäre stochastische Prozesse E(X t ) = µ, Cov(X t, X s ) = γ(t s) d.h. die ersten beiden Momente sind verschiebungsinvariant. Es gilt Strenge Stationärität Schwache Stationärität. Für Gauß-Prozess sind schwache Stationarität und starke Stationarität äquivalent. Es gibt auch Nicht-Gauß-Prozesse, bei denen schwache und starke Stationarität äquivalent sind. Analog zur Auto-Kovarianz definiert man die Autokorrelationsfunktion ρ(h) = γ(h) γ(0) = γ(h) σ 2 h 0. Sommersemester
22 2.4 Stationäre und nichtstationäre stochastische Prozesse Sei ɛ = {ɛ t, t Z} eine Folge unkorrelierter ZVen mit E(ɛ t ) = 0, V ar(ɛ t ) = σ 2. Ein solcher stationärer stochastischer Prozess heißt (diskretes) Weißes Rauschen. Gilt zusätzlich ɛ t iid N(0, σ 2 ), so heißt ɛ Gauß sches Weißes Rauschen. Der stochastische Prozess X = {X t, t Z} mit X t = q θ j ɛ t j, θ q 0 j=0 heißt Moving Average-Prozess (Prozess der gleitenden Durchschnitte) der Ordnung q, in Zeichen X MA(q) Eigenschaften: E(X t ) = 0 V ar(x t ) = σ 2 q θj 2 j=0 Sommersemester
23 2.4 Stationäre und nichtstationäre stochastische Prozesse γ(h) = { σ 2 (θ 0 θ h + θ 1 θ h θ q h θ q ), h q 0, h > q. Der M A(q)-Prozess ist stationär mit Autokorrelationsfunktion ρ(h) = q h P j=0 θ j θ j+h qp θ j 2 j=0, 0 h q 0, h > q. Komponentensatz für Zeitreihen: Obwohl viele Zeitreihen in der Praxis kaum als stationär angenommen werden können, bilden stationäre Prozesse einen wichtigen Baustein für realitätsgetreuere Modelle. Man nimmt häufig an, dass sich die Original- Zeitreihe Y t zerlegen lässt in eine Trendkomponente T t, eine Saisonkomponente S t und einen stationären Fehler X t : Y t = T t + S t + X t. Sommersemester
24 2.4 Stationäre und nichtstationäre stochastische Prozesse Die Gauß sche Irrfahrt X 0 = 0 X t = X t 1 + ɛ t, ɛ t N(0, σ 2 ) i.i.d. ist nicht stationär, da zwar E(X t ) = 0 aber V ar(x t ) = tσ 2 gilt. Der Prozess X t = δx t 1 + ɛ t mit ɛ t N(0, σ 2 ) heißt autoregressiver Prozess erster Ordnung (AR(1)). Für δ < 1 ist der AR(1)-Prozess (bei t ) stationär. Für jeden Startwert X 0 konvergiert die Verteilung von X t für t gegen σ N(0, 2 (1 δ 2 ) ). Sommersemester
25 2.4 Stationäre und nichtstationäre stochastische Prozesse σ Fordert man X 0 N(0, 2 ) (d.h. der Prozess wird bereits im Equilibrium / (1 δ 2 ) Gleichgewicht gestartet), so gilt (nicht nur asymptotisch sondern exakt): E(X t ) = 0, V ar(x t ) = σ2 (1 δ 2 ), Corr(X s, X t ) = δ s t, insbesondere Corr(X t, X t+1 ) = δ. Bei Vorliegen eines AR(1)-Prozess kann man δ durch die empirische Autokorrelation (zum Lag 1) schätzen: ˆδ = ˆρ(1) = 1 T T (X t X)(X t 1 X) t=2 ˆσ 2. Sommersemester
26 Schätzung der empirischen Korrelationsfunktion zum Lag l 2.4 Stationäre und nichtstationäre stochastische Prozesse ˆρ(l) = 1 T T (X t X)(X t l X) t=l+1 ˆσ 2. Stationäre Gauß-Prozesse {X(t), t 0} oder {X t, t N 0 }: E(X(t)) = µ, V ar(x(t)) = σ 2, ρ(h) = Corr(X(t), X(t + h)) = Corr(X(0), X(h)) (vorgegebene Korrelationsfunktion) Sommersemester
27 2.4 Stationäre und nichtstationäre stochastische Prozesse Für alle n 1, t 1,..., t n ist X (n) = (X(t 1 ),..., X(t n )) multivariat normalverteilt mit E(X (n) ) = (µ,..., µ) 1 ρ(t 2 t 1 )... ρ(t n t 1 ) ρ(t 1 t 2 ) 1 ρ(t n t 2 ) Cov(X (n) ) = σ ρ(t 1 t n 1 )... ρ(t n t n 1 ) ρ(t 1 t n )... ρ(t n 1 t n ) 1 Sommersemester
2 Stationarität. Strikte Stationarität
2 Stationarität. Strikte Stationarität Die in 1 benutzten Begriffe sind noch zu präzisieren : Definition 2.1. a) Ein stochastischer Prozess {X t } t T heißt strikt stationär, falls für je endlich viele
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
Mehr7. Stochastische Prozesse und Zeitreihenmodelle
7. Stochastische Prozesse und Zeitreihenmodelle Regelmäßigkeiten in der Entwicklung einer Zeitreihe, um auf zukünftige Entwicklung zu schließen Verwendung zu Prognosezwecken Univariate Zeitreihenanalyse
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
Mehr4 Autokovarianzfunktion und Spektralmaß
4 Autokovarianzfunktion und Spektralmaß Im Folgenden sei {X t } t T T R und eine komplexwertige stationäre Zeitreihe mit T Z oder m : EX t γ(h) : Cov(X t, X t+h ) E(X t+h m)(x t m) [ acv.f. ] ρ(h) : γ(h)γ(0)
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrStatistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen
Statistische Analyseverfahren Abschnitt 2: Zufallsvektoren und mehrdimensionale Verteilungen Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober 2018 Prof. Dr. Hans-Jörg
MehrKapitel 4. Stochastische Grundlagen. 4.1 Filtrationen und Stoppzeiten
Kapitel 4 Stochastische Grundlagen An dieser Stelle möchte ich auf einige stochastische Grundlagen eingehen, die bisher im Kapitel 3 Anwendung gefunden haben und im Folgenden Anwendung finden werden. Grundproblem
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrInhaltsverzeichnis (Ausschnitt)
8 Messbarkeit und Bildwahrscheinlichkeit Inhaltsverzeichnis (Ausschnitt) 8 Messbarkeit und Bildwahrscheinlichkeit Messbare Abbildungen Bildwahrscheinlichkeit Deskriptive Statistik und Wahrscheinlichkeitsrechnung
MehrStoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016
Stoppzeiten und Charakteristische Funktionen Tutorium Stochastische Prozesse 15. November 2016 Inhalte des heutigen Tutoriums Im heutigen Tutorium besprechen wir: (1) Eindeutigkeit von Maßen ohne schnittstabilen
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrKapitel 1 Einführung und Beispiele
Kapitel 1 Einführung und Beispiele 1.1 Einführende Beispiele und erste Definition 1.1 Einführende Beispiele und erste Definition Rein zeitliche Beispiele: IFO Geschäftsklima Index Zeit: diskret; Zustandsraum:
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrStochastik Wiederholung von Teil 1
Stochastik Wiederholung von Teil 1 Andrej Depperschmidt Sommersemester 2016 Wahrscheinlichkeitsraum Definition Das Tripple (Ω, A, P) heißt Wahrscheinlichkeitsraum, falls gilt: (i) A ist eine σ-algebra,
MehrWahrscheinlichkeitstheorie und Statistik
Wahrscheinlichkeitstheorie und Statistik Definitionen und Sätze Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2018 2.5.2018 Diskrete Wahrscheinlichkeitsräume Diskreter
MehrEinführung in die angewandte Stochastik
Einführung in die angewandte Stochastik Fabian Meyer 5. April 2018 Inhaltsverzeichnis 1 Wahrscheinlichkeitsrechnung 3 1.1 Definitionen................................... 3 1.2 Wahrscheinlichkeitsmaß, Wahrscheinlichkeitsverteilung,
Mehr5 Zufallsvariablen, Grundbegriffe
II. Zufallsvariablen 5 Zufallsvariablen, Grundbegriffe Def. 12 Es seien (Ω 1, E 1,P 1 ) und (Ω 2, E 2,P 2 ) Wahrscheinlichkeitsräume. Eine Abbildung X : Ω 1 Ω 2 heißt E 1 E 2 meßbar, falls für alle Ereignisse
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrSTOCHASTISCHE PROZESSE
Institut für Statistik Ludwig-Maximilians-Universität Ludwigstr. 33 80539 München Skript zur Vorlesung STOCHASTISCHE PROZESSE Ludwig Fahrmeir, Günter Raßer, Thomas Kneib Dieses Skript beruht zu einem großen
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrZufallsvariable, Verteilung, Verteilungsfunktion
Kapitel 5 Zufallsvariable, Verteilung, Verteilungsfunktion 5.1 Zufallsvariable Sei (Ω, A, P ) ein beliebiger Wahrscheinlichkeitsraum. Häufig interessiert nicht ω selbst, sondern eine Kennzahl X(ω), d.h.
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
MehrEine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«
Eine Auswahl wichtiger Definitionen und Aussagen zur Vorlesung»Stochastik für Informatiker und Regelschullehrer«Werner Linde WS 2008/09 Inhaltsverzeichnis 1 Wahrscheinlichkeiten 2 1.1 Wahrscheinlichkeitsräume...........................
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 15. Jänner 2017 Evelina Erlacher Inhaltsverzeichnis 1 Mengen 2 2 Wahrscheinlichkeiten 3 3 Zufallsvariablen 5 3.1 Diskrete Zufallsvariablen............................
Mehr1. Stationarität Definition: Ein stochastischer Prozess. heißt streng oder stark stationär, falls für
" " " Beschreibung stochastischer Prozesse Wir betrachten diskrete Zeitpunkte und die zugehörigen Zufallsvariablen!. ann sind die Zufallsvariablen durch ihre gemeinsame ichte " #%$&#'$)(*#'$,+- charakterisiert.
MehrKonvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen
Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess
MehrDiskrete Strukturen II
SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen
MehrStochastik-Praktikum
Stochastik-Praktikum Zeitreihenanalyse Peter Frentrup Humboldt-Universität zu Berlin 19. Dezember 2017 (Humboldt-Universität zu Berlin) Zeitreihenanalyse 19. Dezember 2017 1 / 13 Übersicht 1 Zeitreihen
Mehr2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit
2 Fortsetzung von Prämaßen zu Maßen, Eindeutigkeit a) Fortsetzungssatz, Eindeutigkeit Es wird gezeigt, dass jedes Prämaß µ auf einem Ring R zu einem Maß µ auf A(R) fortgesetzt werden kann, d.h. µ kann
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrBrownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung
Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehr3 Bedingte Erwartungswerte
3 Bedingte Erwartungswerte 3.3 Existenz und Eindeutigkeit des bedingten Erwartungswertes E A 0(X) 3.6 Konvexitätsungleichung für bedingte Erwartungswerte 3.9 Konvergenzsätze von Levi, Fatou und Lebesgue
MehrUniversität Leipzig, SoSo 2013
Vorlesung Wahrscheinlichkeitstheorie I Universität Leipzig, SoSo 2013 Prof. Dr. Max v. Renesse renesse@uni-leipzig.de Sprechstunde: Di 13.15-14.45, A 337 Übungen: Mo 11.15 -- 12.45 A 314 K. Zimmermann
MehrBrownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung
Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
MehrBrownsche Bewegung. Satz von Donsker. Bernd Barth Universität Ulm
Brownsche Bewegung Satz von Donsker Bernd Barth Universität Ulm 31.05.2010 Page 2 Brownsche Bewegung 31.05.2010 Inhalt Einführung Straffheit Konvergenz Konstruktion einer zufälligen Funktion Brownsche
MehrZusatzmaterial zur Vorlesung Statistik II
Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November
Mehr1. Übungsblatt. Markus Reiß Kursusvorlesung Stochastische Prozesse Sommersemester 2006
Sommersemester 26 1. Übungsblatt 1. Zeige: Ist X Poisson(s)- und Y Poisson(t)-verteilt und sind X und Y unabhängig, so ist X + Y Poisson(t + s)-verteilt (t, s > ). Das heißt, es gilt die Eigenschaft einer
MehrKlausur zu,,einführung in die Wahrscheinlichkeitstheorie
Institut für angewandte Mathematik Wintersemester 2009/10 Andreas Eberle, Matthias Erbar, Bernhard Hader Klausur zu,,einführung in die Wahrscheinlichkeitstheorie Bitte diese Felder in Druckschrift ausfüllen
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein
Mehr3. ARMA-Modelle. Jetzt: Wichtigste Modellklasse für stationäre Prozesse
3. ARMA-Modelle Jetzt: Wichtigste Modellklasse für stationäre Prozesse Definition 3.1: (ARMA(p, q)-prozess) Gegeben sei das Weiße Rauschen {ɛ t } t Z WR(0, σ 2 ). Der Prozess {X t } t Z heißt AutoRegressiver-Moving-Average-Prozess
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Wiederh.) 1 Zusammenfassung Bedingte Verteilung: P (y x) = P (x, y) P (x) mit P (x) > 0 Produktsatz P (x, y) = P (x y)p (y) = P (y x)p (x) Kettenregel
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
Mehr2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse
2 Halbgruppen von Übergangswahrscheinlichkeiten Markov-Prozesse Im Folgenden sei (X, B) ein (polnischer) Messraum und T = [0, ) oder T = N 0 Definition 21 Eine Familie (P t ) t T von (X, B) mit Übergangswahrscheinlichkeiten
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
MehrKapitel II. Brownsche Bewegung. Literatur: Karatzas, Shreve (1999, Chap. 2).
Kapitel II Brownsche Bewegung Literatur: Karatzas, Shreve (1999, Chap. 2). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P) mit Filtration F = (F t ) t I, wobei I = [0, [. Definition 1. W = (W t ) t I Brownsche
MehrEinige Konzepte aus der Wahrscheinlichkeitstheorie (Review)
Einige Konzepte aus der Wahrscheinlichkeitstheorie (Review) 1 Diskrete Zufallsvariablen (Random variables) Eine Zufallsvariable X(c) ist eine Variable (genauer eine Funktion), deren Wert vom Ergebnis c
Mehr4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR. 4. Empirische Momente von ZR
Im Allgemeinen wird sich das Verhalten einer ZR über die Zeit ändern, z.b. Trend, saisonales Verhalten, sich verändernde Variabilität. Eine ZR wird als stationär bezeichnet, wenn sich ihr Verhalten über
Mehr1.5 Mehrdimensionale Verteilungen
Poisson eine gute Näherung, da np = 0 und 500p = 5 00 = n. Wir erhalten somit als Näherung Exakte Rechnung ergibt P(2 X 0) = k=2 0 k=2 π (k) = 0,26424. 0 ( ) 00 P(2 X 0) = 0,0 k 0,99 00 k = 0,264238. k.4.2.4
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
MehrBrownsche Bewegung. M. Gruber. 19. März Zusammenfassung
Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrGrundlagen der Verteilungskonvergenz zufälliger Funktionen (vorläufige Version)
KAPITEL 7 Grundlagen der Verteilungskonvergenz zufälliger Funktionen (vorläufige Version) In diesem Kapitel tragen wir die wichtigsten Grundlagen über die Verteilungskonvergenz zufälliger Funktionen zusammen,
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 20. April 2017 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 18.
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrZeitreihenanalyse. Seminar Finanzmathematik. Andreas Dienst SS Einleitung - Begrüßung - Motivation - Inhaltsangabe. 2.
Seminar Finanzmathematik - Begrüßung - Motivation - Inhaltsangabe 3. Zusammen - fassung Zeitreihenanalyse Andreas Dienst SS 2006 Zeitreihen: Definition und Motivation - Begrüßung - Motivation - Inhaltsangabe
MehrStatistik I für Betriebswirte Vorlesung 3
Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April
MehrDie Spektralzerlegung Cramér-Darstellung und Satz von Bochner
Die Spektralzerlegung Cramér-Darstellung und Satz von Bochner Ein wichtiges Charakteristicum eines quadratintegrablen stationären Prozesses X ist seine Kovarianzfunktion c(.), gegeben durch c(m) = EX t
MehrErwartungswert als Integral
Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral
MehrVorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden
Vorlesung Wahrscheinlichkeit und Statistik D-Math, ETH Überblick über den Stoff der einzelnen Stunden Hansruedi Künsch Frühlingssemester 2013 Repetition vom 19. 2. Ein Wahrscheinlichkeitsraum besteht aus
MehrSignifikanztests Optimalitätstheorie
Kapitel Signifikanztests Optimalitätstheorie Randomisierte Tests In einem statistischen Modell M, A, P ϑ sei ein Testproblem gegeben: H : ϑ Θ gegen H : ϑ Θ ; wobei also durch Θ Θ Θ eine Zerlegung des Parameterbereichs
Mehr1 Multivariate Zufallsvariablen
1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)
MehrKAPITEL 1. Martingale
KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst
MehrLösung Semesterendprüfung
MAE4 Mathematik: Analysis für Ingenieure 4 Frühlingssemester 26 Dr. Christoph Kirsch ZHAW Winterthur Aufgabe : Lösung Semesterendprüfung Wir betrachten die Ergebnismenge Ω : {, 2,, 4, 5, 6} 2 6 2 6 Elemente,
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
Mehr4. Gemeinsame Verteilung und Grenzwertsätze
4. Gemeinsame Verteilung und Grenzwertsätze Häufig in der Praxis: Man muss mehrere (n) ZV en gleichzeitig betrachten (vgl. Statistik I, Kapitel 6) Zunächst Vereinfachung: Betrachte n = 2 Zufallsvariablen
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrHawkes Prozesse Grundlagen
Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr2.Tutorium Multivariate Verfahren
2.Tutorium Multivariate Verfahren - Multivariate Verteilungen - Hannah Busen: 27.04.2015 und 04.05.2015 Nicole Schüller: 28.04.2015 und 05.05.2015 Institut für Statistik, LMU München 1 / 21 Gliederung
Mehr3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte
Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +
MehrSeminar in Statistik - FS Nonparametric Bayes. Handout verfasst von. Ivo Francioni und Philippe Muller
Seminar in Statistik - FS 2008 Nonparametric Bayes Handout verfasst von Ivo Francioni und Philippe Muller Zürich, 17. März 2008 1 EINLEITUNG 1 1 Einleitung Bis jetzt haben wir in der Bayes schen Statistik
MehrALMA II - ÜBERBLICK STOCHASTIK. Jochen Garcke
ALMA II - ÜBERBLICK STOCHASTIK Jochen Garcke GRUNDBEGRIFFE Wahrscheinlichkeitsraum (Ω, A, P) beschreibt Zufallssituation Realisierung, Stichprobe, Elementarereignis ω Ω Ergebnisraum zufälliges Ereignis
Mehr1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe
1.2 Summen von Zufallsvariablen aus einer Zufallsstichprobe Nachdem eine Stichprobe X 1,..., X n gezogen wurde berechnen wir gewöhnlich irgendwelchen Wert damit. Sei dies T = T (X 1,..., X n, wobei T auch
MehrGesetz der großen Zahlen
Gesetz der großen Zahlen Marie Reichstein Technische Universität Wien 19. Jänner 2012 Übersicht Geschichte Fragestellung schwaches Gesetz der großen Zahlen starkes Gesetz der großen Zahlen Null-Eins-Gesetze
MehrGaußsche Felder und Simulation
3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrZufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011
Zufällige stabile Prozesse und stabile stochastische Integrale Stochastikseminar, Dezember 2011 2 Stabile Prozesse Dezember 2011 Stabile stochastische Prozesse - Definition Stabile Integrale α-stabile
MehrTU DORTMUND Sommersemester 2018
Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade
MehrEinführung in die stochastischen Prozesse
Einführung in die stochastischen Prozesse Vorlesung mit Übung von Sonja Greven und David Rügamer Institut für Statistik Ludwig-Maximilians-Universität München Sommersemester 2016 Sommersemester 2016 Literatur
MehrA. Grundlagen der Stochastik
A. Grundlagen der Stochastik Satz A.1 (Axiome der Wahrscheinlichkeit). Folgende Axiome der Wahrscheinlichkeit können definiert werden: (1) Die Wahrscheinlichkeit P(A) eines Ergebnisses A bei einem Experiment
MehrA. Grundlagen der Stochastik
A. Grundlagen der Stochastik Satz A.1 (Axiome der Wahrscheinlichkeit). Folgende Axiome der Wahrscheinlichkeit können definiert werden: (1) Die Wahrscheinlichkeit P(A) eines Ergebnisses A bei einem Experiment
MehrDiskrete Zufallsvariablen (Forts.) I
9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig
MehrDiskrete Zufallsvariablen (Forts.) I
9 Eindimensionale Zufallsvariablen Diskrete Zufallsvariablen 9.4 Diskrete Zufallsvariablen (Forts.) I T (X ) ist endlich oder abzählbar unendlich, die Elemente von T (X ) werden daher im Folgenden häufig
Mehr