Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze
|
|
- Hartmut Maurer
- vor 6 Jahren
- Abrufe
Transkript
1 Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie - Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze Klaus Kuchler 0. Januar 03
2 Zentraler Grenzwertsatz. Grundlagen, Sätze und Weiteres Im Weiteren betrachten wir nun, soweit nichts anderes angegeben wird, immer eine Folge von unabhängigen Zufallsvariablen (ZVen) {X n, n }, die auf einem Wahrscheinlichkeitsraum (Ω, F, P) definiert ist. Es ist zu beachten, dass diese Folgen von ZVen nicht notwendigerweise identisch verteilt sein muss. Des Weiteren führen wir noch folgende allgemein bekannte Notationen ein: F k sei die Verteilungsfkt. von X k, S n = X + + X n die Summe der ersten n ZVen, σ k = Var X k die Varianz der ZV X k und s n = Var S n = σ + + σ n die Varianz der Summe S n Dann erfüllt die Folge {X n, n } den Zentralen Grenzwertsatz (ZGWS), wenn gilt lim P[(S n E S n )/s n x] = Φ(x) = x e u / du, x R, () n π d.h. die Verteilungsfkt. von (S n ES n )/s n für n konvergiert punktweise bzw. sogar gleichmäßig in x gegen N (0, ). Nun führen wir drei Bedingungen ein, die in einem wichtigen Zusammenhang mit dem ZGWS stehen. Dazu sei o.b.d.a. angenommen, dass E X k = 0, k. Zuerst die sogenannte Lindeberg-Bedingung (diese kann beispielsweise die Voraussetzung der identischen Verteilung der ZVen im klassischen ZGWS ersetzen): lim n s n k= Als zweites die Feller-Bedingung: u εs n u df k (u) = 0 ε > 0 (L) lim max σk n k n s n = 0 (F) Und als letztes noch die Bedingung der asymptotischen Vernachlässigbarkeit der Summanden: lim max P[ X k/s n ε] = 0 ε > 0 (AV) n k n Im Folgenden formulieren wir zwei Sätze in Kurzform, die das Zusammenwirken der drei Bedingungen und des ZGWS zeigen (jeweils ohne Beweis): Satz von Lindeberg. (L) ZGWS
3 Der Satz von Lindeberg zeigt uns also, dass die Lindeberg-Bedingung lediglich eine hinreichende Bedingung für den ZGWS ist. Die Lindeberg-Bedingung ist keine notwendige Bedingung für die Gültigkeit des ZGWS. Satz von Lindeberg-Feller. (L) ZGWS und (F) ZGWS und (AV) In den nachfolgenden Gegenbeispielen werden Fragestellungen aufgegriffen, die zeigen werden, dass einige mit dem ZGWS in Verbindung stehende Eigenschaften nicht gelten, obwohl man deren Gültigkeit eigentlich erwarten könnte.. Beispiel: Dreiecksschema, das den ZGWS nicht erfüllt Wir betrachten folgendes Dreiecksschema für n N: S = X ; S = X + X ;.... S n = X n + X n + + X nn ; wobei X nk, k =,..., n unabhängige und Poisson-verteilte ZVen mit Parameter λ = n sind. Aufgrund der Faltungsstabilität der Poisson-Verteilung ist S n ebenfalls Poissonverteilt mit Parameter. Nun könnte man erwarten, dass die Größe (S n E S n )/s n = (S n )/ gegen die Standardnormalverteilung konvergiert. Dies trifft jedoch nicht zu und das, obwohl für große n jedes X nk fast sicher null ist, denn Das der ZGWS für (S n )/ n N : P P[X nk = 0] = e /n für n gegen unendlich. S n / / tatsächlich nicht erfüllt ist, zeigt die folgende Tatsache: / = P[S n 0] = P[S n = 0] = e / Φ / / /.3 Beispiel: Beziehungen zwischen ZGWS, der Feller-Bedingung und der Bedingung der asymptotischen Vernachlässigbarkeit der Summanden Die zu Beginn eingeführte Folge {X n } sei nun folgendermaßen verteilt: X n N (0, σ n), wobei σ = und σ k = k, k. Wegen der Invarianz der Normalverteilung gegenüber Faltung ist S n = X + + X n auch normalverteilt mit Erwartungswert 0 und 3
4 Varianz s n = n k= σ k = + n k= k = + n gilt trivialerweise für jedes n und daher erfüllt {X n } den ZGWS. S n /s n N (0, ) k=0 k geo. = + n Summe = n. Deshalb Weiter liefert die Ungültigkeit von (F) und lim max σk n k n s n n = lim n = n 0 lim max P[ X k/s n ε] lim n k n n P[ X n /s n ε] = }{{} N (0, ) π ε e u du > 0 } ε {{ } < ebenso die Ungültigkeit von (AV). Da nun weder (F) noch (AV) gelten, folgt mit dem Satz von Lindeberg-Feller, dass auch (L) nicht gilt. Nichtsdestotrotz erfüllt ja {X n } den ZGWS, was ums hiermit eindeutig nochmals klarmacht, dass die Lindeberg-Bedingung lediglich eine hinreichende, aber keine notwendige Bedingung für den ZGWS ist..4 Beispiel: Zwei in einem gewissen Sinne äquivalente Zufallsfolgen, von denen eine den ZGWS erfüllt und die andere nicht Die erste der beiden Folgen von ZVen {X n, n } sei durch folgende Wahrscheinlichkeitsverteilung bestimmt: P[X = ±] = und für k und ein c (0, ) P[X k = 0] = ( ) c, P[X k k = ±] = ( c), P[X k = ±k] = k c Die zweite Folge { X nk, k =,..., n, n } definieren wir durch Abschneiden der ersten Folge: X k, X k n X nk = 0, X k > n Es bezeichne nun S n = X + + X n die Summe der ersten n ZVen der Folge {X n } und S n = X n + + X nn die n-te Summe der ZVen der Folge { X nk }. Nun kann gezeigt werden, dass {X n } sowohl (L) als auch den ZGWS nicht erfüllt, aber { X nk } die Bedingung (L) und damit auch den ZGWS erfüllt, d.h ( S n E S n )/ s n d N (0, ). Im Buch Counterexamples in Probability von Jordan M. Stoyanov sind dazu auf den Seiten 84 u. 86 nähere Details zu finden. 4
5 Was an dieser Stelle nun noch gezeigt werden soll ist, dass die beiden Folgen {S n } und { S n } äquivalent sind in folgendem Sinne: Dies gilt, da P[S n S n ] und da k= k= k <, P[X k X nk ] per = Def. P[S n S n ] 0 für n P[ X k > n] P[ X k = k] = k= k= n k= n folgt, dass die Reihenreste gegen 0 konvergieren (Konvergenzkriterium von Cauchy), d.h. k c c k= n k n 0 P[S n S n ] 0 für n Wir haben hier also ein Beispiel für zwei im obigen Sinne äquivalente Zufallsfolgen gefunden, von denen jedoch nur eine den ZGWS erfüllt..5 Beispiel: Wenn der ZGWS für eine Folge von Zufallsvariablen gilt, konvergiert dann die Varianz von S n / n immer gegen? In diesem Gegenbeispiel betrachten wir die zwei Folgen {X n, n } und {Y n, n }, deren ZVen erneut unabhängig und wie folgt verteilt sind: Wie gewohnt sei P[X k = ±] = ( k ), P[X k = ±k] = k und P[Y k = ±] = S n = X + + X n und Sn = Y + + Y n. Der Erwartungswert von X n, als auch von Y n sind gleich null. Des Weiteren ist die Varianz von Y n gleich und da ja die Y n u.i.v. sind, ergibt sich die Gültigkeit des ZGWS für die Folge {Y n }, d.h. S n / n d N (0, ). Durch Anwendung des Prinzips der Trunkation auf die Folge {X n }, erhalten wir für S n / n das Gleiche Grenzverhalten in Verteilung wie für S n / n, d.h. dass auch S n / n d N (0, ). Nun könnte man doch vermuten, dass sowohl Var(S n / n) n als auch Var( S n / n) n. 5
6 Wenn wir diese Vermutung nun untersuchen, stellen wir zuerst fest, dass die Vermutung für die Folge {Y n }, also genauer für S n / n auch tatsächlich gilt, denn Var( S n / n) = n Var( S n ) = n n Var Y = n N. Aber unsere Vermutung trifft nicht auf die Folge {X n } zu, da Var(S n / n) = n Var(S n) = Var Y k = n k= n k= k = n k= k n. Dies zeigt uns also, dass die Gültigkeit des ZGWS nicht immer die Konvergenz der Varianz der normierten Summe S n / n gegen die Varianz der Standardnormalverteilung impliziert. Anders ausgedrückt sichert der ZGWS i.a. nicht die Konvergenz der Momente von S n / n gegen die Momente der N (0, )-Verteilung. Zur Sicherung deren Konvergenz ist eine zusätzliche Integrierbarkeitsbedingung notwendig, im Speziellen hier E[ S n / n +δ ] < für δ > 0 damit Var(S n / n) n..6 Beispiel: Gilt der ZGWS für zufällige Summen von ZVen immer? Die Antwort auf die in der Überschrift gestellte Frage ist, wie sollte es hier auch anders sein, nein. Bevor wir uns dazu ein Beispiel ansehen, wollen wir zunächst noch einführen, was wir unter dem ZGWS für zufällige Summen von ZVen verstehen. Wir betrachten zuallererst eine Folge von ZVen {X n, n }, die den ZGWS erfüllt. Dazu kommt noch eine zweite Folge von ZVen {ν n, n }, die Werte in N 0 annehmen kann und die für n gegen selbst fast sicher gegen konvergiert. Nun können wir T n definieren als T n := S νn = X + + X νn und b n als b n := Var T n. Der ZGWS gilt nun für die zufälligen Summen T n, falls lim P[(T n E T n )/b n x] = Φ(x), x R. () n Nun wollen wir uns ein Beispiel ansehen, in dem () nicht erfüllt ist. Dazu sei die Folge {X n, n } u.i.v. mit P[X = ±] = und die Folge {ν n, n } unabhängige ZVen, die die Werte n und n mit Wahrscheinlichkeit p (0, ) resp. q = p annehmen. Dabei seien die ZVen {ν n } und {X n } selbst wiederum voneinander unabhängig. Dann 6
7 gilt zum einen und zum anderen E T n = E[E[T n ν n ]] = E[E[S νn ν n ]] unabh. = E[ν n ] E[X ] = 0, }{{}}{{} =ν n E X =0 b n = Var T n = Var[E[T n ν n ] }{{} =ν n E X ] + E[Var[T n ν n ]] = (E X ) Var[ν n ] + E[Var[S νn ν n ]] = Var[X ] E[ν n ] }{{}}{{} =ν n Var[X ] = = E[ν n ] = np + nq = ( q + q)n = ( + q)n P[T n /b n x] totale = P[T n/b n x ν n = n] P[ν n = n] + P[T n /b n x ν n = n] P[ν n = n] Wkt. = p P[S νn /b n x ν n = n] + q P[S νn /b n x ν n = n] {X n } erfüllt ZGWS = p P[S n /b n x ν ////////] n = n + q P[S n /b n x ν/////////] n = n = p P[S n /b n x] + q P[S n /b n x] = p P[S n / n xb n / n] + q P[S n / n xb n / n] = p P[S n / n x + q] + q P[S n / n x + q/ ] Φ(x + q) = x +q / π e u du mit Wkt. p d n Subst. = Φ(x + q/ ) = x +q/ π e u / du mit Wkt. q x /(+q) π(+q) e z dz mit Wkt. p x /4(+q) π(+q) e z dz mit Wkt. q. Daher gilt () nicht, denn P[T n /b n x] konvergiert vielmehr gegen eine gemischte Verteilung bestehend aus zwei ZVen ξ N (0, ( + q) ) mit Wkt. p, η N (0, ( + q) ) mit Wkt. q. 7
8 Diverse Grenzwertsätze In diesem Abschnitt wollen wir uns noch einige Beispiele ansehen, die sich mit anderen Arten des Konvergenzverhaltens von Zufallsfolgen beschäftigen. Bevor wir jedoch mit den Beispielen beginnen, wollen wir zunächst noch einen wichtigen und dienlichen Satz einführen.. Grundlagen, Sätze und Weiteres Drei-Reihen-Satz von Kolmogorov. Sei {X n, n } eine Folge unabhängiger ZVen und X n (c) := X n { X n c} für ein c > 0. Dann sind folgende Aussagen äquivalent: (i) X n konvergiert P-f.s. (ii) Die drei Reihen E[X n (c) ], für jedes c > 0. Var X (c) n, (iii) Es existiert ein c > 0, sodass die drei Reihen E[X n (c) ], P[ X n c] konvergieren. P[ X n c] konvergieren Var X (c) n,. Beispiel: Prüfe auf P f.s Konvergenz mit Hilfe des Drei-Reihen-Satzes von Kolmogorov Wir wollen die beiden zufälligen Reihen X n mit X n = ± n für p = und Y n = Y n mit für p (0, ) n Y n = für p n auf P f.s Konvergenz mit Hilfe des Drei-Reihen-Satzes von Kolmogorov untersuchen. Zuerst nehmen wir uns die Reihe X n vor. Der Erwartungswert von X n ist null und die Varianz Var X n =. Weiter wählen wir c = und erhalten so für die Reihe n Var X n (c) aus dem Drei-Reihen-Satz von Kolmogorov folgendes Resultat: Var X () n = Var X n { X n } = Var X n = n = Wenn nun angenommen die Reihe X n fast sicher konvergieren würde, so müssten alle drei Reihen im Drei-Reihen-Satz von Kolmogoro aus (ii) für alle c > 0 konvergieren. Jedoch haben wir ja gerade mit c = dies widerlegt, weshalb X n nicht fast sicher konvergiert. Nun noch zur zweiten Reihe Y n. Für den Erwartungswert von Y n bekomen wir 8
9 E Y n = p + ( p) = ( p). Erneut wählen wir c = und erhalten so für die n n n Reihe E Y n (c) aus dem Drei-Reihen-Satz von Kolmogorov folgendes Resultat: E Y () n = E Y n { Y n } = E Y n = ( p) n = Analog zur ersten Reihe folgt, dass auch Y n nicht fast sicher konvergiert..3 Beispiel: Beziehung zwischen Konvergenz in L p für ZVen und bedingte Erwartungswerte Wir haben einen Wahrscheinlichkeitsraum (Ω, F, P) und eine beliebige Teil-σ-Algebra A F. Des Weiteren haben wir ZVen X und {X n, n } die L p -integrierbar sind und L es gelte X p n X für n, p. Dann folgt mit Hilfe der Jensenschen Ungleichung für bedingte Erwartungswerte, dass auch die Konvergenz von E[X n A] Lp E[X A] gilt (0 E[ E[X n A] E[X A] p ] = E[ E[X n X A] p ] Jensen Ungl. E[ X n X p ] n 0). E[E[ X n X p A]] P f.s. = Ob nun auch die Umkehrung gilt, wollen wir anhand eines Beispiels überprüfen: Seien {X n, n } u.i.v. mit P[X = c] = P[X = 0] = P f.s. und X = c für ein c R \ {0}. Als Teil-σ-Algebra wählen wir A = {, Ω} und erhalten somit, da E[X n A] = E[X n ] = c P[X n = c] + 0 P[X n = 0] = c E[X A] = E[X] = c, = c, n N und dass lim E[ E[X n A] E[X A] p ] = 0, p. n Jedoch gilt für E[ X n X p ] P f.s. = E[ X n c p ] = c c p + 0 c p = c p 0, n, p. Damit gilt die Umkehrung i.a. nicht, denn wie unser Beispiel gezeigt hat, folgt aus E[X n A] Lp L E[X A] nicht X p n X für n, p. 9
Mathematische Ökonometrie
Mathematische Ökonometrie Ansgar Steland Fakultät für Mathematik Ruhr-Universität Bochum, Germany ansgar.steland@ruhr-uni-bochum.de Skriptum zur LV im SoSe 2005. Diese erste Rohversion erhebt keinen Anspruch
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrKlausur zur Vorlesung Stochastik II
Institut für Stochastik WS 007/008 Universität Karlsruhe. 0. 008 r. B. Klar Klausur zur Vorlesung Stochastik II Muster-Lösung auer: 90 Minuten Name: Vorname: Matrikelnummer: iese Klausur hat bestanden,
MehrSchwache Konvergenz von Wahrscheinlichkeitsmaßen
Schwache Konvergenz von Wahrscheinlichkeitsmaßen 6. Juli 2010 Inhaltsverzeichnis 1 Definition 2 3 Lindeberg-Bedingung Interpretation Definition Motivation (Konvergenz von Wahrscheinlichkeitsmaßen) Sind
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
Mehr1.3 Wiederholung der Konvergenzkonzepte
1.3 Wiederholung der Konvergenzkonzepte Wir erlauben nun, dass der Stichprobenumfang n unendlich groß wird und untersuchen das Verhalten von Stichprobengrößen für diesen Fall. Dies liefert uns nützliche
MehrSatz von Borel-Cantelli. Limes inferior von Mengen. Limes superior von Mengen. Stetigkeit. Konvergenz von Zufallsvariablen. Kolmogorow-Ungleichung
Satz von Borel-Cantelli Limes inferior von Mengen Limes superior von Mengen Stetigkeit Konvergenz von Zufallsvariablen Kolmogorow-Ungleichung Tschebyschow-Ungleichung Konvergenzkriterien Starkes Gesetz
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.
12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X
MehrKlausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik
Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen
Mehr1.3 Zufallsvariablen
1.3 Zufallsvariablen Beispiel Irrfahrt zwischen drei Zuständen Start in G bei t = 0, Zeithorizont T N Grundraum σ-algebra Ω = {ω = (ω 0, ω 1,..., ω T ) {G, R, B} T +1, ω 0 = G} Wahrscheinlichkeitsmaß P
MehrCharakteristische Funktionen
Kapitel 9 Charakteristische Funktionen Jeder Wahrscheinlichkeitsverteilung auf (, B 1 ) (allgemeiner: (R n, B n )) ist eine komplexwertige Funktion, ihre charakteristische Funktion, zugeordnet, durch die
MehrDefinition Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) :=
Definition 2.34. Sei X eine stetige Z.V. mit Verteilungsfunktion F und Dichte f. Dann heißt E(X) := x f(x)dx der Erwartungswert von X, sofern dieses Integral existiert. Entsprechend wird die Varianz V(X)
Mehr7.2 Moment und Varianz
7.2 Moment und Varianz Def. 21 Es sei X eine zufällige Variable. Falls der Erwartungswert E( X p ) existiert, heißt der Erwartungswert EX p p tes Moment der zufälligen Variablen X. Es gilt dann: + x p
MehrEinführung in Quantitative Methoden
Einführung in Quantitative Methoden Karin Waldherr & Pantelis Christodoulides 11. Mai 2011 Waldherr / Christodoulides Einführung in Quantitative Methoden- 8.VO 1/40 Poisson-Verteilung Diese Verteilung
MehrBeweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass
Beweis: Mit Hilfe des Satzes von der totalen Wahrscheinlichkeit folgt, dass f Z (z) = Pr[Z = z] = x W X Pr[X + Y = z X = x] Pr[X = x] = x W X Pr[Y = z x] Pr[X = x] = x W X f X (x) f Y (z x). Den Ausdruck
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrWirtschaftsmathematik
Einführung in einige Teilbereiche der Wintersemester 206 Prof. Dr. Stefan Etschberger HSA Unabhängigkeit von Ereignissen A, B unabhängig: Eintreten von A liefert keine Information über P(B). Formal: P(A
MehrVorlesung 7a. Der Zentrale Grenzwertsatz
Vorlesung 7a Der Zentrale Grenzwertsatz als Erlebnis und Das Schwache Gesetz der Großen Zahlen Wiederholung: Die Normalverteilung Dichtefunktion ϕ der Standardnormalverteilung ϕ(x) 0.0 0.1 0.2 0.3 0.4
Mehr1 Stochastische Konvergenz 2
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrZufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011
Zufällige stabile Prozesse und stabile stochastische Integrale Stochastikseminar, Dezember 2011 2 Stabile Prozesse Dezember 2011 Stabile stochastische Prozesse - Definition Stabile Integrale α-stabile
MehrGesetze der großen Zahlen
Kapitel 0 Gesetze der großen Zahlen 0. Einführung Im ersten Kapitel wurde auf eine Erfahrungstatsache im Umgang mit zufälligen Erscheinungen aufmerksam gemacht, die man gewöhnlich als empirisches Gesetz
MehrGegenbeispiele in der Wahrscheinlichkeitstheorie
Gegenbeispiele in der Wahrscheinlichkeitstheorie Mathias Schaefer Universität Ulm 26. November 212 1 / 38 Übersicht 1 Normalverteilung Definition Eigenschaften Gegenbeispiele 2 Momentenproblem Definition
MehrOLS-Schätzung: asymptotische Eigenschaften
OLS-Schätzung: asymptotische Eigenschaften Stichwörter: Konvergenz in Wahrscheinlichkeit Konvergenz in Verteilung Konsistenz asymptotische Verteilungen nicht-normalverteilte Störgrößen zufällige Regressoren
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrKapitel 5 Reihen 196
Kapitel 5 Reihen 96 Kapitel 5. Definition und Beispiele 97 Das Material dieses Kapitels können Sie nachlesen in: MICHAEL SPIVAK, Calculus, Kapitel 22 DIRK HACHENBERGER, Mathematik für Informatiker, Kapitel
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrÜbungsrunde 11, Gruppe 2 LVA , Übungsrunde 10, Gruppe 2, Markus Nemetz, TU Wien,
1 4.36 Übungsrunde 11, Gruppe 2 LVA 17.369, Übungsrunde 1, Gruppe 2, 16.1.27 Markus Nemetz, markus.nemetz@tuwien.ac.at, TU Wien, 16.1.27 1.1 Angabe Die logische Struktur eines Systems bestehend aus drei
Mehr70 Wichtige kontinuierliche Verteilungen
70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche
Mehr7. Grenzwertsätze. Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012
7. Grenzwertsätze Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Mittelwerte von Zufallsvariablen Wir betrachten die arithmetischen Mittelwerte X n = 1 n (X 1 + X 2 + + X n ) von unabhängigen
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
Mehrn=1 a n mit reellen Zahlen a n einen
4 Unendliche Reihen 4. Definition und Beispiele Ein altes Problem der Analysis ist es, einer Reihe mit reellen Zahlen einen Wert zuzuordnen. Ein typisches Beispiel ist die unendliche Reihe + +..., die
MehrScheinklausur zur Vorlesung Stochastik II
Institut für Mathematische Stochastik WS 2007/2008 Universität Karlsruhe 25. 02. 2008 Dr. B. Klar Scheinklausur zur Vorlesung Stochastik II Muster-Lösung Dauer: 90 Minuten Name: Vorname: Matrikelnummer:
MehrWeihnachtsaufgaben. a) Welche Urnenmodelle gibt es? Stelle zu jedem Modell ein konkretes Beispiel auf, welches durch dieses Modell beschrieben wird.
Weihnachtsaufgaben Diese Aufgaben dienen dazu die in der Vorlesung und den Übungen eingeführten Begriffe zu verstehen und zu vertiefen, die Bearbeitung ist freiwillig Das Blatt wurde von den Übungsleitern
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
Mehr9 Die Normalverteilung
9 Die Normalverteilung Dichte: f(x) = 1 2πσ e (x µ)2 /2σ 2, µ R,σ > 0 9.1 Standard-Normalverteilung µ = 0, σ 2 = 1 ϕ(x) = 1 2π e x2 /2 Dichte Φ(x) = 1 x 2π e t2 /2 dt Verteilungsfunktion 331 W.Kössler,
Mehr1 Stochastische Konvergenz 2. 2 Das Gesetz der grossen Zahlen 4. 3 Der Satz von Bernoulli 6
Wirtschaftswissenschaftliches Zentrum 0 Universität Basel Mathematik Dr. Thomas Zehrt Grenzwertsätze Benötigtes Vorwissen: Der Stoff der Vorlesung,,Statistik wird als bekannt vorausgesetzt, insbesondere
MehrProbeklausur Statistik II
Prof. Dr. Chr. Müller PROBE-KLAUSUR 1 1 2 3 4 5 6 7 8 Gesamt: 15 8 16 16 7 8 15 15 100 Probeklausur Statistik II Name: Vorname: Fachrichtung: Matrikel-Nummer: Bitte beachten Sie folgendes: 1) Die Klausur
Mehr5 Binomial- und Poissonverteilung
45 5 Binomial- und Poissonverteilung In diesem Kapitel untersuchen wir zwei wichtige diskrete Verteilungen d.h. Verteilungen von diskreten Zufallsvariablen): die Binomial- und die Poissonverteilung. 5.1
MehrGrundbegriffe der Stochastik II
Grundbegriffe der Stochastik II Henrik Gebauer 6. Oktober 9 Zusammenfassung Dieser Vortrag dient der Wiederholung zentraler Begriffe der kontinuierlichen Stochastik. Wahrscheinlichkeitsverteilungen Sei
MehrDie Funktion f X;Y (x; y) := Pr[X = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen X und Y. Aus der gemeinsamen Dichte f X;Y kann man ableiten
Die Funktion f ;Y (x; y) := Pr[ = x; Y = y] heit gemeinsame Dichte der Zufallsvariablen und Y. Aus der gemeinsamen Dichte f ;Y kann man ableiten f (x) = y2w Y f ;Y (x; y) bzw. f Y (y) = Die Funktionen
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
MehrKlausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK
Institut für Stochastik Prof. Dr. Daniel Hug Name: Vorname: Matr.-Nr.: Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK Datum: 08. Februar 0 Dauer:
MehrÜbungsblatt 5 zur Vorlesung Wahrscheinlichkeitstheorie
Dr. Christoph Luchsinger Übungsblatt 5 zur Vorlesung Wahrscheinlichkeitstheorie Allgemeine Masse Herausgabe des Übungsblattes: Woche 13, Abgabe der Lösungen: Woche 14 (bis Freitag, 16.15 Uhr), Besprechung:
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrWahrscheinlichkeitsfunktion. Binomialverteilung. Binomialverteilung. Wahrscheinlichkeitshistogramme
Binomialverteilung Wahrscheinlichkeitsfunktion Konstruktionsprinzip: Ein Zufallsexperiment wird n mal unabhängig durchgeführt. Wir interessieren uns jeweils nur, ob ein bestimmtes Ereignis A eintritt oder
MehrGrundlagen der Wahrscheinlichkeitstheorie
Priv.-Doz. Dr. H. Steinacker Wintersemester 2013/2014 Grundlagen der Wahrscheinlichkeitstheorie betrachte Wiederholungen eines Experimentes, gleicher Vorbereitung (z.b. Würfeln, Dart werfen, Doppelspaltexperiment,...)
MehrWichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung
Wichtige Begriffe und Sätze aus der Wahrscheinlichkeitsrechnung Version: 22. September 2015 Evelina Erlacher 1 Mengen Es sei Ω eine Menge (die Universalmenge ) und A, B seien Teilmengen von Ω. Dann schreiben
MehrSatz 105 (Gedächtnislosigkeit) Beweis: Sei X exponentialverteilt mit Parameter λ. Dann gilt Pr[X > x + y X > y] = Pr[X > y] Pr[X > x + y] = Pr[X > y]
Gedächtnislosigkeit Satz 105 (Gedächtnislosigkeit) Eine (positive) kontinuierliche Zufallsvariable X mit Wertebereich R + ist genau dann exponentialverteilt, wenn für alle x, y > 0 gilt, dass Pr[X > x
MehrÜbung zu Empirische Ökonomie für Fortgeschrittene SS 2009
Übung zu Empirische Ökonomie für Fortgeschrittene Steen Elstner, Klaus Wohlrabe, Steen Henzel SS 9 1 Wichtige Verteilungen Die Normalverteilung Eine stetige Zufallsvariable mit der Wahrscheinlichkeitsdichte
Mehr1 Konvergenz im p ten Mittel
Konvergenz im p ten Mittel 1 1 Konvergenz im p ten Mittel In diesem Paragraphen werden zunächst in Abschnitt 1.1 die L p Räume eingeführt. Diese erweisen sich als vollständige, lineare Räume über R. In
MehrDie Varianz (Streuung) Definition
Die (Streuung) Definition Diskrete Stetige Ang., die betrachteten e existieren. var(x) = E(X EX) 2 heißt der Zufallsvariable X. σ = Var(X) heißt Standardabweichung der X. Bez.: var(x), Var(X), varx, σ
MehrSpezielle stetige Verteilungen
Spezielle stetige Verteilungen schon bekannt: Die Exponentialverteilung mit Parameter k R, k > 0 hat die Dichte f (x) = ke kx für x 0 und die Verteilungsfunktion F (x) = 1 e kx für x 0. Eigenschaften Für
MehrETWR Teil B. Spezielle Wahrscheinlichkeitsverteilungen (stetig)
ETWR Teil B 2 Ziele Bisher (eindimensionale, mehrdimensionale) Zufallsvariablen besprochen Lageparameter von Zufallsvariablen besprochen Übertragung des gelernten auf diskrete Verteilungen Ziel des Kapitels
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrBiostatistik, Sommer 2017
1/39 Biostatistik, Sommer 2017 Wahrscheinlichkeitstheorie: Gesetz der großen Zahl, Zentraler Grenzwertsatz Schließende Statistik: Grundlagen Prof. Dr. Achim Klenke http://www.aklenke.de 9. Vorlesung: 16.06.2017
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
Mehr4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung
4 Unabhängige Zufallsvariablen. Gemeinsame Verteilung Häufig werden mehrere Zufallsvariablen gleichzeitig betrachtet, z.b. Beispiel 4.1. Ein Computersystem bestehe aus n Teilsystemen. X i sei der Ausfallzeitpunkt
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrDiskrete Verteilungen
KAPITEL 6 Disrete Verteilungen Nun werden wir verschiedene Beispiele von disreten Zufallsvariablen betrachten. 1. Gleichverteilung Definition 6.1. Eine Zufallsvariable X : Ω R heißt gleichverteilt (oder
Mehr11. Übungsblatt zur Mathematik I für Maschinenbau
Fachbereich Mathematik Prof. Dr. M. Joswig Dr. habil. Sören Kraußhar Dipl.-Math. Katja Kulas. Übungsblatt zur Mathematik I für Maschinenbau Gruppenübung WS 200/ 2.0.-28.0. Aufgabe G (Grenzwertberechnung)
Mehr1 Erwartungswert und Kovarianzmatrix von Zufallsvektoren
Erwartungswert und Kovarianzmatrix von Zufallsvektoren Erwartungswert und Kovarianzmatrix von Zufallsvektoren. Definition Ist X X,...,X p ein p-dimensionaler Zufallsvektor mit E X j < für alle j, so heißt
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrFerienkurs Analysis 1, SoSe Unendliche Reihen. Florian Beye August 15, 2008
Ferienkurs Analysis 1, SoSe 2008 Unendliche Reihen Florian Beye August 15, 2008 1 Reihen und deren Konvergenz Definition 1.1. Eine reelle bzw. komplexe Reihe ist eine unendliche Summe über die Glieder
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
MehrGesetz der großen Zahlen
Gesetz der großen Zahlen Marie Reichstein Technische Universität Wien 19. Jänner 2012 Übersicht Geschichte Fragestellung schwaches Gesetz der großen Zahlen starkes Gesetz der großen Zahlen Null-Eins-Gesetze
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
Mehr11.4 Korrelation. Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient
11.4 Korrelation Def. 44 Es seien X 1 und X 2 zwei zufällige Variablen, für die gilt: 0 < σ X1,σ X2 < +. Dann heißt der Quotient (X 1,X 2 ) = cov (X 1,X 2 ) σ X1 σ X2 Korrelationskoeffizient der Zufallsgrößen
MehrDas Newton Verfahren.
Das Newton Verfahren. Ziel: Bestimme eine Nullstelle einer differenzierbaren Funktion f :[a, b] R. Verwende die Newton Iteration: x n+1 := x n f x n) f x n ) für f x n ) 0 mit Startwert x 0. Das Verfahren
MehrStichproben Parameterschätzung Konfidenzintervalle:
Stichproben Parameterschätzung Konfidenzintervalle: Beispiel Wahlprognose: Die Grundgesamtheit hat einen Prozentsatz p der Partei A wählt. Wenn dieser Prozentsatz bekannt ist, dann kann man z.b. ausrechnen,
Mehr1 Reihen von Zahlen. Inhalt:
5 Kapitel 3 Reihen Reihen von Zahlen Inhalt: Konvergenz und Divergenz von Reihen reeller oder komplexer Zahlen, geometrische Reihe, harmonische Reihe, alternierende Reihen. Cauchy-Kriterium, absolute Konvergenz,
MehrStetige Standardverteilungen
Universität Basel Wirtschaftswissenschaftliches Zentrum Stetige Standardverteilungen Dr. Thomas Zehrt Inhalt: 1. Die stetige Gleichverteilung 2. Die Normalverteilung (a) Einstimmung (b) Standardisierung
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrZufallsvariablen. Diskret. Stetig. Verteilung der Stichprobenkennzahlen. Binomial Hypergeometrisch Poisson. Normal Lognormal Exponential
Zufallsvariablen Diskret Binomial Hypergeometrisch Poisson Stetig Normal Lognormal Exponential Verteilung der Stichprobenkennzahlen Stetige Zufallsvariable Verteilungsfunktion: Dichtefunktion: Integralrechnung:
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie
Zentralübung Diskrete Wahrscheinlichkeitstheorie Christian Ivicevic (christian.ivicevic@tum.de) Technische Universität München 14. Juni 2017 Agenda Disclaimer und wichtige Hinweise Übungsaufgaben Disclaimer
Mehr,...) ist eine Folge, deren Glieder der Null beliebig nahe kommen. (iii) Die Folge a n = ( 1) n + 1 n oder (a n) = (0, 3 2, 2 3, 5 4, 4 5
3 Folgen 3.1 Definition und Beispiele Eine Abbildung a : Æ Ê heißt (reelle) Zahlenfolge. Statt a(n) schreiben wir kürzer a n und bezeichnen die ganze Folge mit (a n ) n Æ oder einfach (a n ), was aber
Mehr13.5 Der zentrale Grenzwertsatz
13.5 Der zentrale Grenzwertsatz Satz 56 (Der Zentrale Grenzwertsatz Es seien X 1,...,X n (n N unabhängige, identisch verteilte zufällige Variablen mit µ := EX i ; σ 2 := VarX i. Wir definieren für alle
Mehr(8 + 2 Punkte) = = 0.75
Aufgabe 1 (8 + 2 Punkte) Von 20 Teilnehmern einer Bergwanderung geben 8 Personen an Knieschmerzen zu haben. 6 Teilnehmer leiden an Sonnenbrand. 8 Teilnehmer blieben unversehrt. a) Wie groß ist die Wahrscheinlichkeit,
MehrMusterlösung Klausur,,Einführung in die W theorie
Institut für angewandte Mathematik Wintersemester 3/4 Andreas Eberle, Lisa Hartung / Patrick Müller Musterlösung Klausur,,Einführung in die W theorie. (Zufallsvariablen und ihre Verteilung) a) Was ist
MehrTheorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"
Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen
MehrVorlesungsskript: Martingale
Vorlesungsskript: Martingale von Steffen Dereich Fachbereich Mathematik und Informatik Philipps-Universität Marburg Version vom 25. Februar 2010 Inhaltsverzeichnis 4 Martingale 2 4.1 Einführung.......................................
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrLösungen zu Übungsblatt 9 Höhere Mathematik2/Stochastik 2 Master KI/PI
Lösungen zu Übungsblatt 9 Höhere Mathematik/Stochastik Anpassung von Verteilungen Zu Aufgabe ) a) Zeichnen des Histogranmmes: Um das Histogramm zu zeichnen, benötigen wir die Höhe der Balken. Die Höhe
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Beispiel 7.5.1: Es werden drei ideale Münzen geworfen, und der Gewinn sei X := Anzahl von W. In Beispiel 7.4.1 hatten wir dazu eine Wahrscheinlichkeitverteilung ermittelt: X
Mehr1. Wahrscheinlichkeitsverteilungen und Versicherungsanwendungen 1.1 Wichtige diskrete Verteilungen a. Poisson-Verteilung.
1. Wahrscheinlichkeitsverteilungen und Versicherungsanwendungen 1.1 Wichtige diskrete Verteilungen a. Poisson-Verteilung. Sei N eine zufällige Variable, ist ein Poisson-Verteilung mit Parameter λ definiert
MehrLösungen der Übungsaufgaben von Kapitel 3
Analysis I Ein Lernbuch für den sanften Wechsel von der Schule zur Uni 1 Lösungen der Übungsaufgaben von Kapitel 3 zu 3.1 3.1.1 Bestimmen Sie den Abschluss, den offenen Kern und den Rand folgender Teilmengen
MehrPrüfung. Wahrscheinlichkeit und Statistik. ETH Zürich SS 2016 Prof. Dr. P. Embrechts August BSc INFK. Nachname. Vorname.
ETH Zürich SS 2016 Prof. Dr. P. Embrechts August 2016 Prüfung Wahrscheinlichkeit und Statistik BSc INFK Nachname Vorname Legi Nummer Das Folgende bitte nicht ausfüllen! Aufgabe Max. Punkte Summe Kontrolle
MehrStochastik für die Naturwissenschaften
Stochastik für die Naturwissenschaften Dr. C.J. Luchsinger 7. n (Konvergenz, LLN, CLT) Literatur Kapitel 7 n heisst für uns n gross * Statistik in Cartoons: Kapitel 5, Seite 114 in Kapitel 6 * Stahel:
MehrErwartungswert als Integral
Erwartungswert als Integral Anton Klimovsky Gemischte ZVen, allgemeine ZVen, Erwartungswert für allgemeine ZVen, Lebesgue-Integral bzgl. WMaß, Eigenschaften des Integrals, Lebesgue-Maß, Lebesgue-Integral
MehrKorollar 116 (Grenzwertsatz von de Moivre)
Ein wichtiger Spezialfall das Zentralen Grenzwertsatzes besteht darin, dass die auftretenden Zufallsgrößen Bernoulli-verteilt sind. Korollar 116 (Grenzwertsatz von de Moivre) X 1,..., X n seien unabhängige
MehrD-INFK Analysis I FS 2017 Prof. Dr. Özlem Imamoglu. MC-Fragen Serie 1. Einsendeschluss: Freitag, der :00 Uhr
D-INFK Analysis I FS 2017 Prof. Dr. Özlem Imamoglu MC-Fragen Serie 1 Einsendeschluss: Freitag, der 26.09.2014 12:00 Uhr 1. Welche der folgenden Aussagen sind richtig? (a) Eine divergente Folge ist nicht
Mehr10 Transformation von Zufallsvariablen
10 Transformation von Zufallsvariablen Sei X : Ω R eine Zufallsvariable mit Verteilungsfunktion F X (x) = P(X < x). Wir betrachten eine Funktion g: R R und sei Zufallsvariable Y : Ω R mit Y = g(x). Y :
MehrKapitel II Kontinuierliche Wahrscheinlichkeitsräume
Kapitel II Kontinuierliche Wahrscheinlichkeitsräume 1. Einführung 1.1 Motivation Interpretation der Poisson-Verteilung als Grenzwert der Binomialverteilung. DWT 1.1 Motivation 211/476 Beispiel 85 Wir betrachten
MehrErwartungswert und Varianz von Zufallsvariablen
Kapitel 7 Erwartungswert und Varianz von Zufallsvariablen Im Folgenden sei (Ω, A, P ) ein Wahrscheinlichkeitsraum. Der Erwartungswert von X ist ein Lebesgue-Integral (allerdings allgemeiner als in Analysis
MehrMeßbare Funktionen. bilden die Grundlage der Integrationstheorie. Definition 24.1 :
24 Meßbare Funktionen bilden die Grundlage der Integrationstheorie. Definition 24. : Sei X eine beliebige Menge, Y ein topologischer Raum, λ ein Maß auf X. f : X Y heißt λ-messbar, falls f (Ω) λ-messbar
Mehr