Stochastische Prozesse
|
|
- Birgit Stein
- vor 6 Jahren
- Abrufe
Transkript
1 INSTITUT FÜR STOCHASTIK SS 29 UNIVERSITÄT KARLSRUHE Blatt 6 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 27: Sei X eine R + -wertige Zufallsvariable. Dann heißt die Funktion L(t) := L X (t) := Ee t X, t die Laplace-Transformierte von X, wobei :=. Zeigen Sie a) L X () = 1, lim t L X (t) = P(X < ) und lim t L X (t) = P(X = ). b) L X ist nicht steigend und stetig auf (, ). Gilt zusätzlich P( < X < ) >, so ist L X strikt fallend. c) Sind X und Y unabhängige, R + -wertige Zufallsvariable, so gilt L X+Y (t) = L X (t) L Y (t), t. d) Sei P(X < ) = 1. Dann ist L X auf (, ) beliebig oft unter dem Integralzeichen differenzierbar, d.h. für k N gilt und es gilt L (k) X (t) = ( 1)k E(X k e t X ), t > lim t L (k) X (t) = ( 1)k EX k. Lösung: a) Nach Definition gilt L X () = Ee = 1. Ferner gilt lim t L X (t) = E lim t e tx = E1 {X< } = P(X < ) nach dem Satz von der monotonen Konvergenz. Ähnlich folgt mit Lebesgue s Satz von der dominierten Konvergenz lim t L X (t) = E lim t e tx = E1 {X=} = P(X = ). b) Da t e tx nicht steigend ist, gilt Entsprechendes für den Erwartungswert. Sei t n t in (, ). Dann gilt auch lim n e tnx(ω) = e tx(ω) für alle ω Ω (auch falls X(ω) = oder X(ω) = gilt) und aus dem Satz von der dominierten Konvergenz folgt die zweite Behauptung. Schließlich ist t e t x für x (, ) strikt fallend. Gilt also P( < X < ) >, so ist Ee tx = P(X = ) + E[e tx < X < ] P( < X < ) strikt fallend in t für t (, ).
2 c) L X+Y (t) = Ee t(x+y ) = E(e tx e ty ) = Ee tx Ee ty = L X (t) L Y (t) wegen der Unabhängigkeit von X und Y. d) Für k = folgt die erste Aussage unmittelbar aus der Definition. Sei jetzt die erste Behauptung gültig für k N. Wir wenden SII, 4.9 an (Differentiation unter dem Integralzeichen) mit U := (ǫ, ) für ein beliebiges, festes ǫ > und f(t, x) := x k e t x. Dann ist (i) und (ii) von SII, 4.9 erfüllt und es gilt f (t, x) = x k+1 e t x c e (ǫ/2) x, x, t U, für ein geeignetes c > wegen lim x x k+1 e (ǫ/2) x =. Setzt man h(x) := c e (ǫ/2) x, so ist auch (iii) von SII, 4.9 erfüllt. Es ist daher t L (k) X (t) auf U differenzierbar und es gilt gerade die erste Behauptung von d). Die zweite Behauptung folgt schließlich aus dem Satz von der monotonen Konvergenz. Aufgabe 28: Zeigen Sie: Sei (N (k) ) ein PPP(η (k) ), k K abzählbar, und die (N (k) ) stochastisch unabhängig. Dann ist N mit N(B) := k K N (k) (B), B S, ein PPP(η), falls K endlich ist oder falls η := k K η(k) lokal-endlich und alle N(B) für beschränkte B S endlich sind. Lösung: Wir zeigen, dass (7.6) von Satz 7.34 erfüllt ist. Sei zuerst K endlich. Dann gilt wegen der Unabhängigkeit der N (k) Ee N(f) = Ee P k K N(k) (f) = k K Ee N(k) (f) = k K e R (1 e f )dη (k) = e R (1 e f )dη und die Behauptung. Ist K unendlich, so kann K = N vorausgesetzt werden. (7.6) folgt dann aus (7.6) für K = {1,..., n}, dem Satz von der dominierten Konvergenz und SII, Bem.: Im Skriptum findet sich eine erweiterte Version von Aufgabe 28, bei der auf die Voraussetzung, dass N(B) für beschränkte B endlich ist, verzichtet wird (Satz 7.4). Aufgabe 29: Sei N der Poissonsche Punktprozess PPP(µ λ 2 ) in R 2 mit µ >. Sei X für einen festen Punkt x R 2 der euklidische Abstand von x zu dem nächstgelegenen Punkt von N. a) Bestimmen Sie die Verteilungsfunktion von X. b) Berechnen Sie EX. Lösung: Hier ist (S, d) = (R 2, d) mit der euklidischen Metrik d. Sei ǫ > und B ǫ := B ǫ (x) := {y R 2 : d(x, y) ǫ} die abgeschlossene ǫ-kugel um x. Dann gilt B ǫ S := B 2 und N(B ǫ ) Po(µ λ 2 (B ǫ )) = Po(µ πǫ 2 )
3 a) X ǫ gilt genau dann, wenn mindestens ein Punkt von N in B ǫ liegt. Entscheidend hierfür ist, dass in jeder ǫ-umgebung von x nur endlich viele Punkte von N liegen, da N ein Punktprozess ist. Damit gilt und damit {X ǫ} = {N(B ǫ ) 1} F X (t) = P(X t) = P(N(B t ) 1) = 1 P(N(B t ) = ) = 1 e µ πt2, t >. Wegen lim t F X (t) = gilt dies auch für t =. Wegen SII, 1.3 und (1.5) besitzt also X die Weibull-Verteilung W(µπ, 2) und damit Y := X 2 Exp(µπ). b) Zu berechnen ist EX = EY 1/2. Es gilt EX = EY 1/2 = y 1/2 µπ e µπy dy = µπ Γ(3/2) (µπ) 3/2 (µπ) 3/2 Γ(3/2) y3/2 1 e µπy dy π/2 = = 1 µπ 2 µ, da unter dem letzten Integral die Dichte der Γ(3/2, µπ)-verteilung steht. Aufgabe 3: Kunden K 1, K 2,... kommen in einer Bank gemäß einem homogenen Poisson-Prozess mit der Intensität λ > an. Es sind genügend viele Schalter vorhanden, so dass jeder ankommende Kunde sofort bedient wird. Y n sei die zufällige Zeit, die Kunde K n für seine Bedienung benötigt. Y 1, Y 2,... seien unabhängig, identisch verteilt mit Verteilungsfunktion G und unabhängig vom Ankunftsprozess. Sei für t > N 1 (t) die zufällige Anzahl von Kunden, deren Bedienung zum Zeitpunkt t abgeschlossen ist und N 2 (t) die zufällige Anzahl von Kunden, die zum Zeitpunkt t gerade bedient werden. Zeigen Sie, dass N 1 (t) und N 2 (t) stochastisch unabhängig und Poisson-verteilt sind. Bestimmen Sie die Parameter. Lösung: Seien σ 1 < σ 2 <... die zufälligen Ankunftszeitpunkte und N der Punktprozess zu (σ n ) n N und ν :=. Der Punktprozess M (mit Punkten in R 2 + ) zu ν und (σ n, Y n ) ist dann eine ρ-markierung von N, wobei ρ die Verteilung der Y n ist, d.h. ρ([, t]) = G(t), t. Setzen wir noch η := λ λ 1 +, so ist also N ein PPP(η) und daher Sei und M PPP(η ρ). C 1 := {(s, y) R 2 +: s + y t} C 2 := {(s, y) R 2 +: s t, s + y > t} Sei K n ein beliebiger Kunde. Dann ist die Bedienung von Kunde K n zum Zeitpunkt t abgeschlossen, falls (σ n, y n ) C 1 gilt und K n wird zum Zeitpunkt t gerade bedient, wenn (σ n, y n ) C 2 gilt. Es ist also N 1 (t) = M(C 1 ) und N 2 (t) = M(C 2 ). Wegen C 1 C 2 = und
4 da M unabhängige Zuwächse besitzt, sind also N 1 (t) und N 2 (t) stochastisch unabhängig und es gilt N 1 (t) Po(η ρ(c 1 )) und N 2 (t) Po(η ρ(c 2 )) Wir bestimmen den ersten Parameter zu η ρ(c 1 ) = 1 C1 (s, y) ρ(dy) λ ds = λ G(t s) ds = λ da G(y) = für y <. Wegen C 1 + C 2 = {(s, y) R 2 + : s t} gilt η ρ(c 1 + C 2 ) = und damit gilt für den zweiten Parameter η ρ(c 2 ) = λ t λ 1 [,t] (s) λ ds = λ t G(s) ds = λ G(t s) ds = λ (1 G(s)) ds G(s) ds, Aufgabe 31: (Abgangsprozess im M/G/ ) Wie in Aufgabe 3 kommen Kunden K 1, K 2,... in einer Bank gemäß einem homogenen Poisson-Prozess mit der Intensität γ > an. Es sind genügend viele Schalter vorhanden, so dass jeder ankommende Kunde sofort bedient wird. Y n sei die zufällige Zeit, die Kunde K n für seine Bedienung benötigt. Y 1, Y 2,... seien unabhängig, identisch verteilt mit Verteilungsfunktion G und unabhängig vom Ankunftsprozess. a) Sei N t die zufällige Anzahl von Kunden, deren Bedienung zum Zeitpunkt t abgeschlossen ist. Zeigen Sie, dass (N t ) t ein inhomogener Poisson-Prozess ist und bestimmen Sie die Intensitätsrate von (N t ). b) Sei jetzt der Ankunftsprozess ein Poissonscher Punktprozess auf R mit Intensitätmaß γ λ 1. Bestimmen Sie die Verteilung des Punktprozesses zur Menge der Zeitpunkte, bei denen eine Bedienung abgeschlossen wird. Lösung: Seien wie in der Lösung zu Aufgabe 3 σ 1 < σ 2 <... die zufälligen Ankunftszeitpunkte und M der Punktprozess zu (σ n, Y n ). M ist dann eine ρ-markierung des Ankunftsprozesses, wobei ρ die Verteilung der Y n ist, d.h. ρ([, t] = G(t), t. Es gilt dann M PPP(γλ 1 + ρ). a) Sei g(s, y) := s + y für (s, y) R 2 +. g(σ n, Y n ) = σ n + Y n ist der Zeitpunkt, zu dem die Bedienung von Kunde K n abgeschlossen ist. Nach Satz 7.46 ist N := M g, der Punktprozess zu (σ n +Y n ) n N, ein Poissonscher Punktprozess mit Intensitätsmaß η := (γ λ 1 + ρ) g. Hierbei ist zu beachten, dass wegen σ n +Y n σ n in jedem endlichen Intervall nur von endlich vielen Kunden die Bedienung abgeschlossen werden kann, und damit N tatsächlich ein Punktprozess ist.
5 Sei Λ(t) := η([, t]) die maßdefinierende Funktion von η. Wegen des Satzes von Fubini gilt Λ(t) = (γ λ 1 + ρ)(g 1 ([, t])) = (γ λ 1 + ρ)({(s, y) R2 + : s + y t}) = γ ρ([, t s]) ds = γ G(t s)ds = γ G(s)ds Mit r(t) := γ G(t) gilt also Λ(t) = r(s)ds, d.h. η = r λ1 +. (N t) t := (N([, t])) t ist also ein inhomogener Poisson-Prozess mit Intensitätsrate r. b) In a) waren die Ankünfte in R +, jetzt finden die Ankünfte zufällig in R statt. Beschrieben wird der Ankunftsprozess durch einen Poissonschen Punktprozess A PPP(γλ 1 ). Wegen Satz 7.35 existiert wieder eine Folge (σ n ) n N mit Werten in R, so dass A das zufällige Zählmaß zu (σ n ) ist. Wir definieren den Punktprozess M zu (σ n, Y n ). M ist dann eine ρ-markierung von A und es gilt M PPP(γλ 1 ρ). Wie oben ist dann N := M g der Punktprozess der Zeitpunkte, zu denen eine Bedienung abgeschlossen ist, ein Poissonscher Punktprozess mit Intensitätsmaß η := (γλ 1 ρ) g. Wegen des Satzes von Fubini gilt für B B 1 η(b) = (γ λ 1 ρ)({(s, y) R R + : s + y B}) = γ λ 1 (B y)ρ(dy) = γ λ 1 (B)ρ(dy) = γ λ 1 (B), also η = γ λ 1. Damit gilt N PPP(γλ 1 ). N hat also dieselbe Verteilung wie der Ankunftsprozess.
Stochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 9 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 40: Es sei (X t ) t 0 ein
Mehr8 Verteilungsfunktionen und Dichten
8 Verteilungsfunktionen und Dichten 8.1 Satz und Definition (Dichten) Eine Funktion f : R R heißt Dichtefunktion, kurz Dichte, wenn sie (Riemann-) integrierbar ist mit f(t) 0 für alle t R und Setzt man
MehrKlausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 24/25 Universität Karlsruhe 7. März 25 Priv-Doz. Dr. D. Kadelka Klausur zur Vorlesung Stochastik II Dauer: 9 Minuten Name: Vorname: Matrikelnummer: Diese Klausur
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrLösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried
Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
Mehr10 Transformation von Zufallsvariablen
10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :
MehrKlausur zur Vorlesung
Institut für Mathematische Stochastik WS 2006/2007 Universität Karlsruhe 12. Februar 2007 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Aufgabe 1 (15 Punkte) Klausur zur Vorlesung Statistik für Biologen
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrEinführung in die Stochastik 6. Übungsblatt
Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
MehrSchwache Konvergenz von Wahrscheinlichkeitsmaßen
Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrZufallsvariable: Verteilungen & Kennzahlen
Mathematik II für Biologen 12. Juni 2015 Zufallsvariable Kennzahlen: Erwartungswert Kennzahlen: Varianz Kennzahlen: Erwartungstreue Verteilungsfunktion Beispiel: Exponentialverteilung Kennzahlen: Erwartungswert
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
Mehr7 Bedingte Erwartungswerte und Bedingte Verteilungen
7 edingte Erwartungswerte und edingte Verteilungen Sei (Ω,, P ein W Raum, (Ω, ein Messraum, Y : Ω Ω sei (, -messbar und nehme die Werte y 1,..., y n Ω an. Y 1 (y k {ω Ω Y (ω y k } : k Ω 1 + + n und σ(y
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
Mehr2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung
2.2 Binomialverteilung, Hypergeometrische Verteilung, Poissonverteilung Die einfachste Verteilung ist die Gleichverteilung, bei der P(X = x i ) = 1/N gilt, wenn N die Anzahl möglicher Realisierungen von
MehrAsymptotische Stochastik (SS 2010)
Institut für Stochastik PD. Dr. Dieter Kadelka Daniel Gentner Asymptotische Stochastik (SS 2010) Lösungen zu Übungsblatt 4 Aufgabe 1 (lokaler Grenzwertsatz von de Moivre und Laplace und eine Verallgemeinerung)
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrAufgaben zu Kapitel 0
Aufgaben zu Kapitel 0 0.1. Seien A und B zwei Mengen. Wie kann man paarweise disjunkte Mengen A 1, A 2 und A 3 so wählen, dass A 1 A 2 A 3 = A B gilt? 0.2. Seien E ein Menge und A eine Teilmengen von E.
MehrÜbungen zu bedingten Erwartungswerten. Tutorium Stochastische Prozesse 13. Dezember 2016
Übungen zu bedingten Erwartungswerten Tutorium Stochastische Prozesse 13. Dezember 2016 Bedingter Erwartungswert Definition Sei X eine reellwertige Zufallsvariable auf (Ω, A, P), so dass E[ X ]
Mehr6. Übungsblatt zur Einführung in die Stochastik
Fachbereich Mathematik Prof. Dr. Michael Kohler Dipl.-Math. Andreas Fromkorth Dipl.-Inf. Jens Mehnert SS 9 1.6.29 6. Übungsblatt zur Einführung in die Stochastik Aufgabe 22 Sei P ein auf der Borelschen
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
Mehr4 Absolutstetige Verteilungen und Zufallsvariablen 215/1
4 Absolutstetige Verteilungen und Zufallsvariablen 215/1 23. Bemerkung Integralbegriffe für Funktionen f : R d R (i) Lebesgue-Integral (Vorlesung Analysis IV). Spezialfall: (ii) Uneigentliches Riemann-Integral
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
Mehr8 Die Exponentialverteilung
8 Die Exponentialverteilung 8.1 Einführung Modelle Zuverlässigkeitsmodelle Lebensdauermodelle Bedienungsmodelle. 277 W.Kössler, Humboldt-Universität zu Berlin Def. 26 (Exponentialverteilung) Sei X eine
MehrNormalverteilung. 1 2πσ. Gauß. 2 e 1 2 ((x µ)2 σ 2 ) Werkzeuge der empirischen Forschung. W. Kössler. Einleitung. Datenbehandlung. Wkt.
Normalverteilung Diskrete Stetige f(x) = 1 2πσ 2 e 1 2 ((x µ)2 σ 2 ) Gauß 91 / 169 Normalverteilung Diskrete Stetige Satz: f aus (1) ist Dichte. Beweis: 1. f(x) 0 x R und σ > 0. 2. bleibt z.z. lim F(x)
Mehr1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
MehrÜ b u n g s b l a t t 13
Einführung in die Stochastik Sommersemester 06 Dr. Walter Oevel 5. 6. 006 Ü b u n g s b l a t t 3 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
MehrAllgemeine Punktprozesse
Allgemeine Punktprozesse Michael Auchter 17. Mai 2010 Seite 2 Allgemeine Punktprozesse 17. Mai 2010 Inhaltsverzeichnis Definitionen Definition von Punktprozessen Das Intensitätsmaß Stationarität, Isotropie
MehrErwartungswert als Integral
Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral
MehrWeihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.
Weihnachtsaufgaben Diese Aufgaben dienen dazu die in der Vorlesung und den Übungen eingeführten Begriffe zu verstehen und zu vertiefen, die Bearbeitung ist freiwillig Das Blatt wurde von den Übungsleitern
MehrMaße auf Produkträumen
Maße auf Produkträumen Es seien (, Ω 1 ) und (X 2, Ω 2 ) zwei Meßräume. Wir wollen uns zuerst überlegen, wie wir ausgehend davon eine geeignete σ-algebra auf X 2 definieren können. Wir betrachten die Menge
Mehr12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.
12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X
MehrZufallsvariablen. f(x) dx = 1. Die stetige Zufallsvariable X wird also durch seine Dichtefunktion beschrieben. P(c < X < d) =
Diskrete Sei X stetig auf (a,b), wobei a, b unendlich sein können, a x 0 < x 1 b P(X = x 0 ) = 0, P(x 0 < X < x 1 ) > 0 (wenn f > 0). Die Funktion f heißt Dichtefunktion (von X) falls: 1. f(x) 0, a < x
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
MehrFerienkurs in Maß- und Integrationstheorie
Zentrum Mathematik Technische Universität München Dipl. Math. Wolfgang Erb WS 9/ Übungsblatt Ferienkurs in Maß- und Integrationstheorie Aufgabe. (σ-algebren Sei eine Menge und A eine σ-algebra in. Seien
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrGrundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
MehrKlausur zur Vorlesung Stochastik II
Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrZufallsvariablen [random variable]
Zufallsvariablen [random variable] Eine Zufallsvariable (Zufallsgröße) X beschreibt (kodiert) die Versuchsausgänge ω Ω mit Hilfe von Zahlen, d.h. X ist eine Funktion X : Ω R ω X(ω) Zufallsvariablen werden
Mehr8.3 Zuverlässigkeitsmodelle
8.3 Zuverlässigkeitsmodelle Def. 29 (Zuverlässigkeit) Die Zuverlässigkeit eines Systems ζ ist die Wahrscheinlichkeit, dass das System zum Zeitpunkt t intakt ist: Rel(ζ) = P(X t). Annahme: Das System besteht
MehrStetige Verteilungen Rechteckverteilung
Stetige Verteilungen Rechteckverteilung Die Längenabweichungen X produzierter Werkstücke von der Norm seien gleichmäßig verteilt zwischen a = mm und b = 4mm. Die Dichtefunktion lautet also f(x) = für a
MehrA. Maß- und Integrationstheorie
A. Maß- und Integrationstheorie Im folgenden sind einige Ergebnisse aus der Maß- und Integrationstheorie zusammengestellt, die wir im Laufe der Vorlesung brauchen werden. Für die Beweise der Sätze sei
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrBeweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.
Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf
MehrInstitut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban
Institut für Stochastik Prof. Dr. N. Bäuerle Dipl.-Math. S. Urban Lösungsvorschlag studienbegleitende Klausur Finanzmathematik I Aufgabe (7 Punkte) Vorgelegt sei ein Wahrscheinlichkeitsraum (Ω, F, P) und
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
Mehrφ(ζ, η) = (ζ η, η) = (x, y), bijektiv und stetig differenzierbar ist. Die Jacobi-Matrix von φ lautet: f(ζ) det(dφ(ζ, η)) dζ dη f(ζ) dζ dη.
Übungen (Aufg und Lösungen zu Mathem u Lin Alg II SS 6 Blatt 9 66 Aufgabe 43: Sei f : R R eine stetige Funktion Formen Sie das Integral f(x + y dx dy in ein einfaches Integral um Lösung: Führe neue Koordinaten
MehrDarstellungsformeln für die Lösung von parabolischen Differentialgleichungen
Kapitel 8 Darstellungsformeln für die Lösung von parabolischen Differentialgleichungen Wir hatten im Beispiel 5. gesehen, dass die Wärmeleitungsgleichung t u u = f auf Ω (0, ) (8.1) eine parabolische Differentialgleichung
MehrGaußsche Felder und Simulation
3 2 data_2d_1.dat data_2d_2.dat data_2d_64.dat data_2d_128.dat 1-1 -2-3 1 2 3 4 5 6 7 Gaußsche Felder und Simulation Benedikt Jahn, Aaron Spettl 4. November 28 Institut für Stochastik, Seminar Zufällige
MehrMathematik für Naturwissenschaften, Teil 2
Lösungsvorschläge für die Aufgaben zur Vorlesung Mathematik für Naturwissenschaften, Teil Zusatzblatt SS 09 Dr. J. Schürmann keine Abgabe Aufgabe : Eine Familie habe fünf Kinder. Wir nehmen an, dass die
MehrAktuelle Themen aus der Stochastik Wintersemester 2017/2018 Abschnitt 3: Metrische und polnische Räume
Aktuelle Themen aus der Stochastik Wintersemester 2017/2018 Abschnitt 3: Metrische und polnische Räume Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik Oktober/November 2017
MehrCharakteristische Funktionen
Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die
Mehr1 Vorbemerkungen 1. 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2. 3 Wahrscheinlichkeitsaxiome 4. 4 Laplace-Experimente 6
Inhaltsverzeichnis Vorbemerkungen 2 Zufallsexperimente - grundlegende Begriffe und Eigenschaften 2 3 Wahrscheinlichkeitsaxiome 4 4 Laplace-Experimente 6 5 Hilfsmittel aus der Kombinatorik 7 6 Bedingte
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
Mehr12 Erwartungswerte. Erwartungswerte 111. Überblick
Erwartungswerte 111 12 Erwartungswerte Zur Motivation der Begrisbildung wird zunächst der Erwartungswert im diskreten Fall als Reihenwert eingeführt. Der allgemeine, auf dem Integral basierende Erwartungswert
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
Mehr2.6 Der Satz von Fubini
1 2.6 Der Satz von Fubini Unser Ziel ist der Beweis des folgenden Ergebnisses. 6.1. Satz von Fubini Sei f : R n+m R integrierbar. Dann gibt es eine Nullmenge N R m, so dass gilt: 1. Für alle y R m \ N
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrAufgabe Punkte
Institut für Mathematik Freie Universität Berlin Carsten Hartmann, Stefanie Winkelmann Musterlösung für die Nachklausur zur Vorlesung Stochastik I im WiSe 20/202 Name: Matr.-Nr.: Studiengang: Mathematik
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Zufallsvariable Erinnerung: Merkmal, Merkmalsausprägung Deskriptive Statistik:
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrWahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen
Wahrscheinlichkeitstheorie Kapitel V - Stetige Verteilungen Georg Bol georg.bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Stetige Verteilungen Definition: Sei
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 4. Zufallsgrösse X Literatur Kapitel 4 * Storrer: Kapitel (37.2)-(37.8), (38.2)-(38.3), (38.5), (40.2)-(40.5) * Stahel: Kapitel 4, 5 und 6 (ohne
MehrAnalytische Methoden
KAPITEL 12 Analytische Methoden Es seien unabhängige Zufallsvariablen X 1,..., X n gegeben. Die Verteilungen dieser Zufallsvariablen seien bekannt. Wie bestimmt man dann die Verteilung der Summe X 1 +...
MehrFinanzmathematische Modelle und Simulation
Finanzmathematische Modelle und Simulation WS 9/1 Rebecca Henkelmann In meiner Ausarbeitung Grundbegriffe der Stochastik I, geht es darum die folgenden Begriffe für die nächsten Kapitel einzuführen. Auf
MehrÜbungsblatt 9 (25. bis 29. Juni)
Statistik 2 Dr. Andrea Beccarini Dipl.-Vw. Dipl.-Kffr. Heike Bornewasser-Hermes Sommersemester 2012 Übungsblatt 9 (25. bis 29. Juni) Stetiges Verteilungsmodell und Gemeinsame Verteilung Stetiges Verteilungsmodell
MehrVorlesung 12a. Zerlegung der Varianz
Vorlesung 12a Zerlegung der Varianz 1 Im zufälligen Paar (X, Y ) 2 Im zufälligen Paar (X, Y ) sei Y reellwertig mit endlicher Varianz. Im zufälligen Paar (X, Y ) sei Y reellwertig mit endlicher Varianz.
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrMisterlösung zur Klausur zur Vorlesung Analysis I, WS08/09, Samstag, (Version C)
Misterlösung zur Klausur zur Vorlesung Analysis I, WS08/09, Samstag, 14..009 (Version C Vokabelbuch In diesem Teil soll getestet werden, inwieweit Sie in der Lage sind, wichtige Definitionen aus der Vorlesung
MehrSerie 2 Lösungsvorschläge
D-Math Mass und Integral FS 214 Prof. Dr. D. A. Salamon Serie 2 Lösungsvorschläge 1. Seien folgende Mengen gegeben: und für a, b R R := [, ] := R {, }, (a, ] := (a, ) { }, [, b) := (, b) { }. Wir nennen
MehrLösungen zu Übungsblatt 9
Analysis : Camillo de Lellis HS 007 Lösungen zu Übungsblatt 9 Lösung zu Aufgabe 1. Wir müssen einfach das Integral 16 (x + y d(x, y x +y 4 ausrechnen. Dies kann man einfach mittels Polarkoordinaten, da
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsraume
Kapitel II Kontinuierliche Wahrscheinlichkeitsraume 1. Einfuhrung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 195/460 Beispiel 78 Wir betrachten
MehrMathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
MehrFouriertransformation und Unschärfeprinzip
Information, Codierung, Komplexität 2 SS 2007 24. April 2007 Das berühmte von Heisenberg in der Quantentheorie beruht, rein mathematisch betrachtet, auf einer grundlegenden Eigenschaft der der Dichtefunktionen
MehrÜbungen zu Partielle Differentialgleichungen, WS 2016
Übungen zu Partielle Differentialgleichungen, WS 2016 Ulisse Stefanelli 16. Januar 2017 1 Beispiele 1. Betrachten Sie die Beispiele von nichtlinearen PDG und Systemen, die wir im Kurs diskutiert haben,
Mehr0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5
4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit
MehrStetige Verteilungen, Unabhängigkeit & ZGS
Mathematik II für Biologen Stetige Verteilungen, & ZGS 19. Juni 2015 Stetige Verteilungen, & ZGS Stetige Zufallsvariable Dichte & Verteilungsfunktion Eigenschaften & Kennzahlen Definition Eigenschaften,
MehrZusatzmaterial zur Vorlesung Statistik II
Zusatzmaterial zur Vorlesung Statistik II Dr. Steffi Höse Professurvertretung für Ökonometrie und Statistik, KIT Wintersemester 2011/2012 (Fassung vom 15.11.2011, DVI- und PDF-Datei erzeugt am 15. November
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
MehrERWARTUNGSWERT. ABSOLUT STETIGE VERTEILUNGEN
KAPITEL 11 EWATUNGSWET. ABSOLUT STETIGE VETEILUNGEN In diesem Kapitel werden wir den Begriff des Erwartungswertes einer reellen Zufallsvariablen bezüglich eines beliebigen Wahrscheinlichkeitsmasses definieren
MehrKapitel 6 Martingale
Kapitel 6 Martingale Martingale spielen eine große Rolle in der Finanzmathematik, und sind zudem ein wichtiges Hilfsmittel für die statistische Inferenz stochastischer Prozesse, insbesondere auch für Zählprozesse
Mehr