Die Kopplung von Markovketten und die Irrfahrt auf dem Torus
|
|
- Liese Fried
- vor 7 Jahren
- Abrufe
Transkript
1 Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis werden wir vorbereitend die Irrfahrt auf dem n-kreis betrachen und darauf folgend die Irrfahrt auf dem Torus als wesentliches Beispiel heranziehen, in welchem wir versuchen werden eine obere Schranke für die Mischzeit auf diesem zu finden. Als maßgebliche Grundlage dieser Ausarbeitung ist [LPW09] Kapitel 5 zu nennen. Kopplung von Markovketten Die Kopplung zweier Wahrscheinlichkeitsverteilungen µ und ν haben wir bereits kennengelernt, sie wurde definiert als ein Paar von Zufallsvariablen X und Y, die auf dem gleichen Wahrscheinlichkeitsraum definiert sind, sodass µ die Randverteilung von X und ν die Randverteilung von Y ist. Wir wollen nun einen Schritt weiter gehen und Markovketten koppeln, dazu betrachten wir zunächst ein einfaches Beispiel zur Einführung. Beispiel.. Eine einfache Irrfahrt auf einem Pfad mit Knotenmenge {0,,...,n} ist eine Markovkette, die sich bei jedem Schritt mit gleicher Wahrscheinlichkeit entweder um eins nach oben oder um eins nach unten bewegt. Versucht die Irrfahrt einen der Endzustände 0 oder n zu überschreiten, so verweilt die Fahrt in diesem. Es ist auf einen Blick klar, dass für alle x, y {0,,.., n} mit x y immer P t (x, n) P t (y, n) gilt. Vereinfacht sagt dies, dass die Wahrscheinlichkeit, sich nach t Schritten auf dem Spitzenwert zu befinden nicht verringert, wenn man für den Startzustand einen höheren Wert wählt. Dies wollen wir nun mathematisch belegen, dazu sei, 2,... eine Folge von u.i.v. {, -}-wertigen Zufallsvariabeln mit Erwartungswert 0, sodass i mit i {0,,...,n} die Werte bzw. - mit gleicher Wahrscheinlichkeit annimmt. Weiter seien (X t ) mit Startwert x und (Y t ) mit Startwert y zwei auf {0,,...,n} definierte Irrfahrten. Es bezeichne P t (x, ) die Verteilung von X t und P t (y, ) die Verteilung von Y t, welche wir koppeln wollen. Dabei bewegen wir beide Ketten wenn möglich um einen Wert nach oben,
2 falls t = +, und um einen Wert nach unten, falls t = ist. Auf diese Weise bewegen wir die beiden Ketten im Gleichschritt, was zur Folge hat, dass sich die Ketten, wenn sie sich einmal getroffen haben, zusammen weiterbewegen. Ein Aufeinandertreffen ist dabei nur an den Endzuständen, d.h. bei 0 oder n, möglich. Es ist also offensichtlich, dass X t Y t gilt, wenn x y ist. Das bedeutet insbesondere aber, dass X t = n nicht gelten kann, ohne dass auch Y t = n gilt. Mit dieser Überlegung erhalten wir schließlich, dass wirklich gilt. P t (x, n) = P{X t = n} P{Y t = n} = P t (y, n) Anhand dieses Beispieles motivieren wir nun die Definition der Kopplung zweier Markovketten: Definition.2. Ein Prozess (X t, Y t ) t=0 heißt Kopplung zweier Markovketten mit Übergangsmatrix P, falls (X t ) und (Y t ) zwei auf dem selben Wahrscheinlichkeitsraum definierte Markovketten mit Übergangsmatrix P sind. Es ist zu beachten, dass die Markovketten dabei verschiedene Startverteilungen haben können. An dieser Stelle sei bemerkt, dass man jede Kopplung von Markovketten mit Übergangsmatrix P so modifizieren kann, dass die beiden Ketten, nachdem sie sich zum ersten Mal gleichzeitig auf einer Position befunden haben, dauerhaft simultan bewegen. Etwas präziser formuliert: X s = Y s X t = Y t t s. (.) Um eine Kopplung zu konstruieren, die dem genügt, können wir die Ketten nach der originalen Kopplung laufen lassen, bis sie sich treffen, danach lassen wir sie gemeinsam weiterlaufen. Notation: Für den Fall, dass (X t ) und (Y t ) gekoppelte Markovketten mit X 0 = x und Y 0 = y sind, schreiben wir oft P x,y für die Wahrscheinlichkeit auf dem Raum, auf dem (X t ) und (Y t ) beide definiert sind. 2
3 2 Beschränkung des Totalvariationsabstandes Es seien (X t ) und (Y t ) weiterhin Markovketten mit irreduzibler Übergangsmatrix P auf dem Zustandsraum Ω und zugehöriger stationärer Verteilung π. Wir wollen nun den Totalvariationsabstand der Verteilungen P t (x, ) und P t (y, ) betrachten und im folgenden Theorem eine obere Grenze für diesen Abstand finden und somit ein Schlüsselwerkzeug für dieses Kapitel liefern. Theorem 2.. Es sei {(X t, Y t )} eine Kopplung der beiden Markovketten (X t ) und (Y t ) mit X 0 = x und Y 0 = y, die (.) genügt. Dann definieren wir τ couple als die erste Zeit, bei der sich die beiden Markovketten (X t ) und (Y t ) treffen, also: τ couple := min{t : X t = Y t }. (2.) Dann gilt: P t (x, ) P t (y, ) T V P x,y {τ couple > t}. (2.2) Beweis. Sei t N 0 fest, aber beliebig gewählt. Dann ist (X t, Y t ) eine Kopplung von P t (x, ) und P t (y, ), denn es gilt P t (x, z) = P x,y {X t = z} und P t (y, z) = P x,y {Y t = z}. Nach Proposition.7 [LPW09] gilt: P t (x, ) P t (y, ) T V = inf {P{X Y } : (X,Y) ist Kopplung von P t (x, )und P t (y, )}. (X,Y) Damit folgt sofort, dass P t (x, ) P t (y, ) T V P x,y {X t Y t } (2.3) ist, wobei nach (.) P x,y {X t Y t } = P x,y {τ couple > t} gilt. Wir erhalten insgesamt somit (2.2), d.h. P t (x, ) P t (y, ) T V P x,y {τ couple > t}, also das, was zu zeigen war. Mit Hilfe dieses Theorems können wir nun den maximalen Abstand der Verteilung P t (x, ) zur zugehörigen stationären Verteilung π nach oben beschränken: Korollar 2.2. Man nehme an, dass für jedes Paar von Zuständen x,y Ω eine Kopplung (X t, Y t ) mit X 0 = x und Y 0 = y existiert. Dann gilt: d(t) max x,y Ω P x,y{τ couple > t}. 3
4 Beweis. Folgt sofort aus der Verknüpfung von Lemma. [LPW09] mit Theorem Die Irrfahrt auf dem Torus Bevor wir uns der Irrfahrt auf dem Torus, einem der Hauptaugenmerke dieses Vortrages zuwenden, müssen wir ein wenig Vorarbeit leisten, indem wir uns die Irrfahrt auf dem Kreis anschauen. Beispiel 3.. (Die Irrfahrt auf dem Kreis) Wir betrachten den Zustandsraum Ω = Z n = {0,..., n }. Die Irrfahrt auf dem n-kreis ist nun eine Markovkette mit Übergangsmatrix 2, falls k j+ (mod n) P (j, k) = 2, falls k j- (mod n) 0, sonst. Der dieser Irrfahrt zugrunde liegende Graph hat die Knotenmenge {,...,n} und Kanten zwischen j und k genau dann, wenn j k± (mod n) gilt. Wie man leicht einsieht, ist diese Irrfahrt für gerades n periodisch. Um dieses Problem zu umgehen betrachten wir die zugehörige träge Irrfahrt. Dabei ist die träge Irrfahrt auf dem n-kreis eine Markovkette mit Übergangsmatrix, falls k j+ (mod n) P (j, k) =, falls k j- (mod n) 2, falls k j (mod n) 0, sonst. Theorem 3.2. Für die träge Irrfahrt auf dem n-kreis gilt t mix n 2. Beweis. Wir konstruieren eine Kopplung (X t, Y t ) zweier Markovketten (X t ) und (Y t ), die die träge Irrfahrt auf Z n durchführen. Dabei lassen wir (X t ) auf Position x und (Y t ) auf Position y starten. In dieser Kopplung werden wir die beiden Ketten getrennt voneinander bewegen, damit sie nicht übereinander springen können, wenn sie sich auf benachbarten Positionen befinden. Um dies zu bewerkstelligen werden wir bei jeder Bewegung eine faire Münze werfen, um zu entscheiden welche Kette bewegt werden soll. Wir wollen die Kette (X t ) einen Schritt bewegen, wenn die Münze Kopf zeigt und die
5 Kette (Y t ), wenn die Münze Zahl zeigt. Dabei setzen wir voraus, dass die Münzwürfe unabhängig voneinander sind. Nachdem wir auf diese Weise entschieden haben welche Kette bewegt wird, werfen wir die Münze ein weiteres Mal, um zu entscheiden in welche Richtung sich die ausgewählte Kette bewegen soll. Befinden sich die Ketten einmal zum selben Zeitpunkt auf der selben Position im n-kreis, dann bewegen sie sich fortan gemeinsam. Wir definieren nun D t als die im Uhrzeigersinn betrachtete Distanz zwischen X t und Y t. Dann ist D t eine Irrfahrt auf einem Pfad mit der Knotenmenge {0,,...,n}. Die Fahrt bewegt sich auf allen inneren Knoten mit gleicher Wahrscheinlichkeit um nach oben oder um nach unten. Die Zustände 0 oder n sind jeweils absorbierend, was bedeutet, dass die Fahrt, wenn sie einmal einen dieser beiden Zustände erreicht hat, für immer in ihm verbleibt. Damit stellt sich uns die Frage, wie lange es dauern wird, bis diese Irrfahrt einen der Zustände 0 oder n erreicht hat. Eine Antwort darauf gibt Proposition 2. [LPW09], dort wird gezeigt, dass E x,y (τ) = k(n k) ist, wobei k der im Uhrzeigersinn betrachtete Abstand zwischen den Startpositionen x und y ist und τ = min{t 0 : D t {0, n}}. Nun ist offensichtlich, dass τ = min{t 0 : X t = Y t } =: τ couple gilt. t t Mit Hilfe von Korollar 2.2. und der Markovungleichung erhalten wir also: d(t) max P x,y {τ > t} max E x,y(τ) n2 x,y Z n t t. Wie man leicht einsieht, ist die rechte Seite dieser Ungleichung genau dann gleich, wenn t = n2 ist und somit gilt t mix n 2. Mit den im vorherigen Theorem gesammelten Resultaten können wir uns nun der Irrfahrt auf dem Torus zuwenden. Beispiel 3.3. (Die Irrfahrt auf dem Torus) Wir betrachten zunächst den Graphen des d-dimensionalen Torus; dessen Knotenmenge ist das Kartesische- Produkt Z d n = Z n... Z }{{ n. Zwei Punkte x = (x },..., x d ) und y = (y,..., y d ) d mal aus der Knotenmenge sind dabei benachbart, wenn für ein j {,..., n} gilt, dass x i = y i i j und x j y j ± (mod n) ist, d.h. wenn sich die beiden Punkte in genau einer Koordinate um den Wert unterscheiden. Wie man sich leicht überlegt, ist die einfache Irrfahrt auf dem Graphen Z d n periodisch, wenn n gerade ist. Dieses Problem werden wir umgehen, indem wir die träge Irrfahrt auf Z d n betrachten. 5
6 Theorem 3.. Für die träge Irrfahrt auf dem d-dim. Torus Z d n gilt t mix (ɛ) c(d)n 2 log 2 (ɛ ), wobei c(d) eine von der Dimension d abhängige Konstante ist. Beweis. Wir konstruieren zunächst eine Kopplung für jedes Paar (x,y) von Startpositionen und beschränken den Erwartungswert der Kopplungszeit τ = τ couple, im Hinblick darauf Korollar 2.2. anwenden zu können. Es seien nun also (X t ) = (Xt,..., Xt d ) und (Y t ) = (Yt,..., Yt d ) träge Irrfahrten auf Z d n mit X 0 = x und Y 0 = y. Um diese zu koppeln, wählen wir zufällig und mit gleicher Wahrscheinlichkeit eine der d Koordinaten aus. Stimmen die beiden Irrfahrten in der ausgewählten Koordinate überein, so bewegen wir die beiden Fahrten simultan in dieser Koordinate jeweils mit Wahrscheinlichkeit um + bzw. - oder lassen sie mit Wahrscheinlichkeit 2 auf ihrer Position verweilen. Unterscheidet sich die Position in der ausgewählten Koordinate, so wählen wir durch einen fairen Münzwurf eine der beiden Ketten aus sich zu bewegen und lassen die andere währendessen fixiert. Durch einen weiteren fairen Münzwurf entscheiden wir dann über die Richtung, in die die ausgewählte Kette entsprechen mit + oder - bewegt werden soll. Sei nun τ i die erforderliche Zeit, bis die beiden Ketten in der Koordinate i übereinstimmen, und Dt i der im Uhrzeigersinn betrachtete Abstand zwischen Xt i und Yt i, zu den Zeiten betrachtet, wenn die Koordinate i gewählt worden ist. Dann verhält sich Dt i i {,..., d} genauso wie der Abstand D t aus dem vorherigentheorem 3.2. in der Kopplung der trägen Irrfahrt auf dem n-kreis Z n. Die erforderliche Zeit bis sich die beiden Ketten in Koordinate i auf der selben Position befinden, ist folglich, wenn wir zunächst die Wartezeit zwischen den Koordinaten außer Acht lassen kleiner als n2 Sei nun Zk i die Wartezeit zwischen den Bewegungen in Koordinate i, dann ist Zk i geometrisch( d ) verteilt, da Koordinate i bei jeder Bewegung mit Wahrscheinlichkeit d ausgewählt wird, außerdem sind die Zi k natürlich für alle i identisch verteilt. Daraus folgend erhalten wir für Zk i den Erwartungswert d. Damit können wir die erforderliche Zeit bis die beiden Ketten in Koordinate i übereinstimmen als τ i = τ (i) k= Zi k schreiben mit τ (i) τ, wobei τ aus Theorem 3.2. entnommen, die benötigte Zeit ist, bis D t die 0 oder n erreicht. Mit der Formel von Wald ( ) und der Schranke an die Mischzeit aus dem vorherigen Theorem 3.2. erhalten wir somit: E x,y (τ i ) = E x,y ( τ k=. Z i k ) ( ) = E x,y (τ) E x,y (Z i ) = d E x,y (τ) 3.2. dn2. Wir sind des Weiteren an der erwarteten Kopplungszeit der Irrfahrt auf Z d n interessiert, sie ist gegeben durch τ couple = max τ i, da die beiden gekoppelten i d 6
7 Ketten am Ende in jeder Koordinate übereinstimmen sollen. Wir betrachten also E x,y (τ couple ) = E x,y ( max i d τ i) E x,y ( d τ i ) = d E x,y (τ ) d2 n 2 und erhalten damit eine von der Startposition unabhängige Schranke. Mit Hilfe der Markovungleichung können wir nun zeigen, dass i= P x,y {τ couple > t} E x,y(τ couple ) t d2 n 2 t ist. Die rechte Seite der Ungleichung ist gleich, falls t = n2 d 2 ist und somit gilt t mix d 2 n 2. Nach (.36) [LPW09] gilt aber t mix (ɛ) (log 2 (ɛ )) t mix, sodass wir daraus sofort t mix (ɛ) d 2 n 2 (log 2 (ɛ )) erhalten. Literaturverzeichnis [LPW09] D.A. Levin, Y. Peres, and E. L. Wilmer. Markov chains and mixing times.american Mathematical Society, Providence, RI, With a chapter by James G. Propp and David B. Wilson. 7
Thema: Totalvariationabstand, Kopplung und Mischzeiten
Technische Universität Berlin Thema: Totalvariationabstand, Kopplung und Mischzeiten Ausarbeitung zum Seminar Moderne Anwendung von Markovketten Name: Nina Kamswich Matrikelnummer: 33677 Fachbereich: Mathematik
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
MehrSchriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus
Technische Universität Berlin Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation Propp-Wilson-Algorithmus Lisa Brust Matrikelnummer: 330793 Master Mathematik 30. Juni 2016
MehrVorstellung der Kopplung bei Markovketten
Vorstellung der Kopplung bei Markovketten Leonie Weinhold 13. Mai 2011 1 Einleitung In der Wahrscheinlichkeitstheorie und ihren Anwendungen ist die Coupling- Methode ein wichtiges Instrument, um z.b. Aussagen
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrMarkov-Ketten 1. Definition 2.1
Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
MehrTrennende Markov Ketten
Trennende Markov Ketten (in Zusammenarbeit mit A. Martinsson) Timo Hirscher Chalmers Tekniska Högskola Seminarvortrag KIT 8. Mai 206 Übersicht Der Seminarvortrag ist wie folgt gegliedert: Einleitung Denitionen
MehrBeispiel 37. Wir werfen eine Münze so lange, bis zum ersten Mal
Beispiel 37 Wir werfen eine Münze so lange, bis zum ersten Mal Kopf erscheint. Dies geschehe in jedem Wurf unabhängig mit Wahrscheinlichkeit p. Wir definieren dazu die Zufallsvariable X := Anzahl der Würfe.
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
MehrKapitel 4: Irreduzible und aperiodische Markov Ketten 1
Matrielnummer: 1152750 Projetseminar zur Stochasti Kapitel 4: Irreduzible und aperiodische Marov Ketten 1 Für einige besonders interessante Ergebnisse der Marov Theorie, werden zunächst bestimmte Annnahme
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrDie Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 2011/2012
Die Höhe von binären Suchbäumen Ausarbeitung zum Seminar zu Stochastischen Rekursionsgleichungen im WS 011/01 Sandra Uhlenbrock 03.11.011 Die folgende Ausarbeitung wird, basierend auf Branching Processes
MehrExact Sampling: Der Propp-Wilson-Algorithmus
Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrMarkov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke
Markov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke 28.01.2004 28.01.04 Ariane Wietschke - Markov-Ketten 1 Übersicht 1. Herleitung der Definition 2. Komponenten von Markov-Ketten 3. Arten von
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
Mehrfür die Wahrscheinlichkeit, dass die Markov-Kette in t Schritten von Zustand i in Zustand j übergeht. Es ist also P (t) = (P t ) ij.
8 Markov-Ketten 8.1 Grundlegendes zu Markov-Ketten Eine Markov-Kette ist ein stochastischer Prozess, der in diskreten Zeitschritten abläuft. Dabei wird jeweils von einem Zustand in einen nächsten übergegangen.
MehrEinführung in die Störungstheorie
Einführung in die Störungstheorie Steffen Vanselow und Lukas Weymann June 6, 23 Vorbereitung. Integrabilität Betrachten System mit n Freiheitsgraden und k n Erhaltungsgrössen. Die Freiheitsgrade werden
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
MehrBrownsche Bewegung. M. Gruber. 19. März Zusammenfassung
Brownsche Bewegung M. Gruber 19. März 2014 Zusammenfassung Stochastische Prozesse, Pfade; Brownsche Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit, quadratische
MehrMultivariate Zufallsvariablen
Kapitel 7 Multivariate Zufallsvariablen 7.1 Diskrete Zufallsvariablen Bisher haben wir immer nur eine Zufallsvariable betrachtet. Bei vielen Anwendungen sind aber mehrere Zufallsvariablen von Interesse.
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrSammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien
Sammlung alter Klausuraufgaben zur Stochastik keine Abgabe keine Besprechung in den Tutorien Prof. F. Merkl 23. Mai 2016 Zu Ihrer Information und als zusätzliches Übungsmaterial sind hier die Aufgaben
MehrGraphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008
Graphentheorie Rainer Schrader Zentrum für Angewandte Informatik Köln 3. Januar 008 1 / 45 / 45 Gliederung man könnte vermuten, dass ein Graph mit großer chromatischer Zahl einen dichten Teilgraphen enthalten
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
Mehr2 Martingale in stetiger Zeit
2 Martingale in stetiger Zeit Ziel dieses Abschnitts ist es die wichtigsten Resultate für Martingale aus diskreter Zeit in stetige Zeit zu übertragen. Wie zu erwarten ist treten in stetiger Zeit einige
MehrUniversität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt
Universität Basel Wirtschaftswissenschaftliches Zentrum Zufallsvariablen Dr. Thomas Zehrt Inhalt: 1. Einführung 2. Zufallsvariablen 3. Diskrete Zufallsvariablen 4. Stetige Zufallsvariablen 5. Erwartungswert
MehrWir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir
Kapitel 3: Entropie Motivation Wir erinnern uns: Um eine Zufallsvariable mit N verschiedenen, gleichwahrscheinlichen Zuständen binär zu codieren, benötigen wir log N Bits log p N Bits Die Information steht
MehrÜ b u n g s b l a t t 7
Einführung in die Stochastik Sommersemester 07 Dr. Walter Oevel 21. 5. 2007 Ü b u n g s b l a t t 7 Mit und gekennzeichnete Aufgaben können zum Sammeln von Bonuspunkten verwendet werden. Lösungen von -Aufgaben
Mehr4 Diskrete Wahrscheinlichkeitsverteilungen
4 Diskrete Wahrscheinlichkeitsverteilungen 4.1 Wahrscheinlichkeitsräume, Ereignisse und Unabhängigkeit Definition: Ein diskreter Wahrscheinlichkeitsraum ist ein Paar (Ω, Pr), wobei Ω eine endliche oder
MehrEin Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr
Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,
MehrBrownsche Bewegung. M. Gruber. 20. März 2015, Rev.1. Zusammenfassung
Brownsche Bewegung M. Gruber 20. März 2015, Rev.1 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
Mehr! # %& (! ) # +,.. # / #. + /
! # %& (! ) # +,.. # / #. + / Inhaltsverzeichnis Einführung 2 2 Die τ-topologie 2 3 Der Kullback-Leibler-Abstand 2 4 Empirische Maße 3 5 Der Satz von Sanov 3 6 Anmerkungen 3 7 Lemma 4 8 Beweis Satz von
MehrZufallsgröße X : Ω R X : ω Anzahl der geworfenen K`s
X. Zufallsgrößen ================================================================= 10.1 Zufallsgrößen und ihr Erwartungswert --------------------------------------------------------------------------------------------------------------
MehrDisMod-Repetitorium Tag 3
DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
MehrRandom Walks. Dumbiri Gbenoba Zusammenfassung
Random Walks Dumbiri Gbenoba 234 342 Zusammenfassung In einem Fluss sind n Steine in einem Kreis angeordnet. Auf einem der Steine sitz ein Frosch. Dieser Frosch springt mit der Wahrscheinlichkeit von 1
Mehr7 Poisson-Punktprozesse
Poisson-Punktprozesse sind natürliche Modelle für zufällige Konfigurationen von Punkten im Raum Wie der Name sagt, spielt die Poisson-Verteilung eine entscheidende Rolle Wir werden also mit der Definition
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrBrownsche Bewegung. M. Gruber SS 2016, KW 11. Zusammenfassung
Brownsche Bewegung M. Gruber SS 2016, KW 11 Zusammenfassung Stochastische Prozesse, Pfade; Definition der Brownschen Bewegung; Eigenschaften der Brownschen Bewegung: Kovarianz, Stationarität, Selbstähnlichkeit;
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrStoppzeiten und Charakteristische Funktionen. Tutorium Stochastische Prozesse 15. November 2016
Stoppzeiten und Charakteristische Funktionen Tutorium Stochastische Prozesse 15. November 2016 Inhalte des heutigen Tutoriums Im heutigen Tutorium besprechen wir: (1) Eindeutigkeit von Maßen ohne schnittstabilen
MehrKapitel 6. Irrfahrten und Bernoullischemata
Kapitel 6 Irrfahrten und Bernoullischemata Ausgangspunkt dieses Kapitels ist das in den Abschnitten 2.5 und 3.3 vorgestellte mathematische Modell des mehrmals Werfens einer Münze. Die dort definierten
MehrEine notwendige und hinreichende Bedingung für einen Graphen mit Durchmesser 5, um 2-Durchmesser-stabil zu sein
Eine notwendige und hinreichende Bedingung für einen Graphen mit Durchmesser 5, um 2-Durchmesser-stabil zu sein Christian Hettkamp 25. Januar 2010 1 Inhaltsverzeichnis 1 Einführung 2 Definitionen, Vorraussetzungen
MehrVorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1
Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 2 Melanie Kaspar, Prof. Dr. B. Grabowski 3 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung
MehrUnabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
MehrOptimales Routing. Paul Kunze
Optimales Routing Paul Kunze 10.07.2015 Grundlagen Grundlagen endliche Menge an Punkten Φ = {x i } aus R 2 hier: gebildet durch Poisson-Punktprozess A = A D : Route zum Ziel D Φ. Abbildung auf einem Graphen
Mehr(X Y )(a) = X (a) Y (a).
Aufgabe Teilaufgabe a) Seien X, Y zwei Zufallsvariablen, so definieren wir das Produkt dieser Zufallsvariablen X Y wie folgt: (X Y )(a) = X (a) Y (a). Teilaufgabe b) Gegenbeispiel: Betrachten wir uns folgenden
MehrStochastik Aufgaben zum Üben: Teil 2
Prof. Dr. Z. Kabluchko Wintersemester 205/206 Hendrik Flasche Januar 206 Aufgabe Stochastik Aufgaben zum Üben: Teil 2 Es sei X eine Zufallsvariable mit Dichte f X (y) = cy 5 I y>. Bestimmen Sie c, P[2
MehrDefinition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion
Kapitel 2 Erwartungswert 2.1 Erwartungswert einer Zufallsvariablen Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion È ist definiert als Ü ÜÈ Üµ Für spätere
MehrSchwache Konvergenz. Ivan Lecei. 18. Juni Institut für Stochastik
Institut für Stochastik 18. Juni 2013 Inhalt 1 2 3 4 5 Nach ZGWS konvergiert für n F n (x) = P{ X 1+...+X n np npq x} gegen F(x) = 1 2π x e 1 2 u2 du, wenn die X i unabhängig und bernoulliverteilt sind
MehrHawkes Prozesse Grundlagen
Hawkes Prozesse Grundlagen Im Folgenden sei (Ω, F, F, P) eine stochastische Basis. Das heißt F = (F t ) t ist eine rechtsstetige Filtration mit F t F für alle t und P ein Wahrscheinlichkeitsmaß auf dem
Mehr10 Schnell mischende Markov-Ketten
10 Schnell mischende Markov-Ketten Allgemeines zu schnell mischenden Markov-Ketten findet man zum Beispiel in dem Buch Introduction to Markov Chains von Behrends (2000). Außerdem haben wir von einem Teil
MehrKAPITEL 1. Martingale
KAPITEL 1 Martingale 1.1. Stochastische Prozesse Sei (Ω, F, P) ein Wahrscheinlichkeitsraum. Das heißt, Ω ist eine Menge, F ist eine σ-algebra auf Ω, und P ein Wahrscheinlichkeitsmaß auf (Ω, F ). Zuerst
MehrVorlesung 7b. Der Zentrale Grenzwertsatz
Vorlesung 7b Der Zentrale Grenzwertsatz 1 Zentraler Grenzwertsatz (Tschebyscheff) Die standardisierte Summe von unabhängigen, identisch verteilten R-wertigen Zufallsvariablen konvergiert in Verteilung
MehrDie Probabilistische Methode
Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.
MehrKlausur zu,,einführung in die Wahrscheinlichkeitstheorie
Institut für angewandte Mathematik Wintersemester 2009/10 Andreas Eberle, Matthias Erbar, Bernhard Hader Klausur zu,,einführung in die Wahrscheinlichkeitstheorie Bitte diese Felder in Druckschrift ausfüllen
MehrSeminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie. Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze
Seminar: Gegenbeispiele in der Wahrscheinlichkeitstheorie - Ausarbeitung zum Seminarthema: Zentraler Grenzwertsatz und diverse Grenzwertsätze Klaus Kuchler 0. Januar 03 Zentraler Grenzwertsatz. Grundlagen,
MehrSatz 61 (Chebyshev-Ungleichung)
Die folgende Abschätzung ist nach Pavnuty Lvovich Chebyshev (1821 1894) benannt, der ebenfalls an der Staatl. Universität in St. Petersburg wirkte. Satz 61 (Chebyshev-Ungleichung) Sei X eine Zufallsvariable,
Mehrk np g(n, p) = Pr p [T K] = Pr p [T k] Φ. np(1 p) DWT 4.1 Einführung 359/476 c Ernst W. Mayr
Die so genannte Gütefunktion g gibt allgemein die Wahrscheinlichkeit an, mit der ein Test die Nullhypothese verwirft. Für unser hier entworfenes Testverfahren gilt ( ) k np g(n, p) = Pr p [T K] = Pr p
MehrStatistische Methoden
Statistische Methoden Dr. C.J. Luchsinger 2 Beweis CLT Literatur Kapitel 2: Krengel: 12 2.1 Einführung Wir repetieren aus WTS, Kapitel 5: Fragestellung: Was geschieht mit dem Ausdruck n k=1 X k nµ, (2.1)
MehrKlausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik
Klausur zur Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. C. Löh/M. Blank 27. Juli 2012 Name: Matrikelnummer: Vorname: Übungsleiter: Diese Klausur besteht aus 8 Seiten. Bitte überprüfen
MehrVertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrTU DORTMUND Sommersemester 2018
Fakultät Statistik. April 08 Blatt Aufgabe.: Wir betrachten das Zufallsexperiment gleichzeitiges Werfen zweier nicht unterscheidbarer Würfel. Sei A das Ereignis, dass die Augensumme beider Würfel ungerade
MehrWestfälische Wilhelms-Universität Münster. Fachbereich: Mathematik und Informatik. Planare Graphen
Westfälische Wilhelms-Universität Münster Fachbereich: Mathematik und Informatik Planare Graphen Kreuzungslemma und Charakterisierung planarer Graphen nach Kuratowski Andrea Vollmer Seminar: Graphentheorie
Mehr2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}
1. Berechne für jeden Knoten i in BFS-Art eine Liste S i von von i aus erreichbaren Knoten, so dass (i) oder (ii) gilt: (i) S i < n 2 + 1 und Si enthält alle von i aus erreichbaren Knoten (ii) S i = n
Mehr3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen. Bsp (3-maliges Werfen einer Münze) Menge der Elementarereignisse:
3 Bedingte Wahrscheinlichkeit, Unabhängigkeit von Ereignissen Bsp. 1.19 (3-maliges Werfen einer Münze) Menge der Elementarereignisse: Ω {zzz, zzw,zwz,wzz,zww,wzw,wwz,www}. Dabei gilt: Ω 2 3 8 N. Wir definieren
MehrStatistik III. Walter Zucchini Fred Böker Andreas Stadie
Statistik III Walter Zucchini Fred Böker Andreas Stadie Inhaltsverzeichnis 1 Zufallsvariablen und ihre Verteilung 1 1.1 Diskrete Zufallsvariablen........................... 1 1.2 Stetige Zufallsvariablen............................
MehrBlind Search. Ferienakademie im Sarntal Kurs 1 Moderne Suchmethoden der Informatik: Trends und Potenzial. Sophia Koch. 7.
Blind Search Ferienakademie im Sarntal Kurs Moderne Suchmethoden der Informatik: Trends und Potenzial Sophia Koch 7. November 04 Zusammenfassung Die einfachste Herangehensweise an die Optimierung einer
Mehr3 Konstruktion einer f.s. konvergente Folge
1 Einleitung Wir wollen uns mit stochastischen Gleichungen der Form R d = Q + C i R i (1.1 beschäftigen, wobei,q,(r i i 1,(C, C i i 1 stochastisch unabhängige nichtnegative Zufallsgrößen seien, (C, C i
MehrZufallsvariablen: Die allgemeine Definition
KAPITEL 8 Zufallsvariablen: Die allgemeine Definition 8.1. Zufallsvariablen Bis zu diesem Zeitpunkt haben wir ausschließlich Zufallsvariablen mit endlich oder abzählbar vielen Werten (also diskrete Zufallsvariablen)
Mehr10 Markow-Ketten. Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen
10 Markow-Ketten Themen: Lineare Differenzengleichungen Irrfahrten Warteschlangen 10.1 Lineare Differenzengleichungen Unter einer homogenen linearen Differenzengleichung der Ordnung r verstehen wir eine
MehrCauchy-Folgen und Kompaktheit. 1 Cauchy-Folgen und Beschränktheit
Vortrag zum Seminar zur Analysis, 10.05.2010 Michael Engeländer, Jonathan Fell Dieser Vortrag stellt als erstes einige Sätze zu Cauchy-Folgen auf allgemeinen metrischen Räumen vor. Speziell wird auch das
MehrMarkov-Paritionen und geometrische Modelle von Attraktoren
Markov-Paritionen und geometrische Modelle von Attraktoren Jan Christoph Kinne 15. Februar 2003 1 Was sind Markov-Partitionen? Hat man ein diskretes dynamisches System f : M M gegeben, so will man M in
Mehr3. Übungsblatt - Lösungsskizzen. so, dass f tatsächlich eine Wahrscheinlichkeitsdichte
Einführung in die Wahrscheinlichkeitstheorie und Statistik Prof. Dr. Jan Johannes Sandra Schluttenhofer Wintersemester 208/9 3. Übungsblatt - Lösungsskizzen Aufgabe 9 Stetige Verteilungen, 4 =.5 +.5 +
MehrDiskrete Strukturen II
SS 2004 Diskrete Strukturen II Ernst W. Mayr Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2004ss/ds/index.html.de 18. Juni 2004 Exponentialverteilung als Grenzwert der geometrischen
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
MehrVorlesung 9b. Bedingte Verteilungen und bedingte Wahrscheinlichkeiten
Vorlesung 9b Bedingte Verteilungen und bedingte Wahrscheinlichkeiten 1 Voriges Mal: Aufbau der gemeinsamen Verteilung von X 1 und X 2 aus der Verteilung ρ von X 1 und Übergangswahrscheinlichkeiten P(a
MehrBeweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i)
Die Probabilistische Methode Beobachtung: Besitzt ein Ereignis Ws > 0, so muss es existieren! Notation: Sei K n der komplette Graph mit n Knoten und ( n 2) Kanten. Satz Falls 2 (k 2) 1 > ( n k), existiert
MehrProjektionen und Produkte von Fraktalen
Hauptseminarvortrag 5. Dezember 2006 1 Index 2 6.3 Projektionen von s-mengen mit ganzzahliger Dimension 6.4 Projektionen beliebiger Mengen ganzzahliger Dimension 3 7.1 Einführung 7.3 Beispiele 7.4 Produktformeln(Fortsetzung)
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrMathematik 2 für Bauingenieure
Mathematik 2 für Bauingenieure Name (bitte ausfüllen): Prüfung am 6.3.2015 Reinhard Winkler Matrikelnummer (bitte ausfüllen): Die mündliche Prüfung findet in der Woche von 16. bis 20.3.2015 statt. Wenn
Mehr3 Gewöhnliche Differentialgleichungen 23.4.
3 Gewöhnliche Differentialgleichungen 23.4. 3.1 Differentialgleichungen erster Ordnung 3.1.1 Fundamentalsätze Definition 3.1. Es sei Ω R d eine offene Menge und V : Ω R d eine Vektorfunktion. Eine Kurve
MehrWoche 2: Zufallsvariablen
Woche 2: Zufallsvariablen Patric Müller ETHZ WBL 19/21, 29.04.2019 Wahrscheinlichkeit und Statistik Patric Müller WBL 2019 Teil III Zufallsvariablen Wahrscheinlichkeit
Mehreine Folge in R, für die man auch hätte schreiben können, wenn wir alle richtig raten, was auf dem Pünktchen stehen sollte.
Analysis, Woche 5 Folgen und Konvergenz A 5. Cauchy-Folgen und Konvergenz Eine Folge in R ist eine Abbildung von N nach R und wird meistens dargestellt durch {x n } n=0, {x n} n N oder {x 0, x, x 2,...
MehrVerzweigungszahl und kritische Perkolationswahrscheinlichkeit
Seminar über Bäume, Netzwerke und Zufall Prof. Dr. Wakolbinger, Prof. Dr. Geiger Verzweigungszahl und kritische Perkolationswahrscheinlichkeit Vortrag Nr., Anja Prüfer, 29. Juni 2005 sei G ein abzählbarer
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrWissenswertes über den Metropolis-Algorithmus
Wissenswertes über den Metropolis-Algorithmus Seminavortrag von Stefanie Schmutte Westfälische Wilhelms-Universität Münster Fachbereich Mathematik und Informatik Institut für mathematische Statistik Inhaltsverzeichnis
MehrMathematische und statistische Methoden II
Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden II Dr. Malte Persike persike@uni-mainz.de
Mehr3. Kombinatorik und Wahrscheinlichkeit
3. Kombinatorik und Wahrscheinlichkeit Es geht hier um die Bestimmung der Kardinalität endlicher Mengen. Erinnerung: Seien A, B, A 1,..., A n endliche Mengen. Dann gilt A = B ϕ: A B bijektiv Summenregel:
MehrDenition 57 Eine geometrisch verteilte Zufallsvariable X mit Parameter (Erfolgswahrscheinlichkeit) p 2 (0; 1] und q := 1 p hat die Dichte
5.3 Geometrische Verteilung Man betrachte ein Experiment, das so lange wiederholt wird, bis Erfolg eintritt. Gelingt ein einzelner Versuch mit Wahrscheinlichkeit p, so ist die Anzahl der Versuche bis zum
Mehr(b) Man nennt die Menge M beschränkt, wenn sie nach oben und unten beschränkt ist.
8 Punktmengen Für die Menge M = { 1 n ; n N } ist 1 = max(m), denn 1 M und 1 n 1 für alle n N. Die Menge M besitzt aber kein Minimum, denn zu jeder Zahl x = 1 n M existiert ein y M mit y < x, etwa y =
Mehr