MCMC - Simulation. Seminar für Finanz- und Versicherungsmathematik Wintersemester 2015/16. e

Größe: px
Ab Seite anzeigen:

Download "MCMC - Simulation. Seminar für Finanz- und Versicherungsmathematik Wintersemester 2015/16. e"

Transkript

1 MCMC - Simulation Seminar für Finanz- und Versicherungsmathematik Wintersemester 2015/16 Betreuer Dr. Stefan Gerhold Autor Christoph Müller e

2 Inhaltsverzeichnis 1 MCMC und die Kryptographie 3 2 Einführung in die Theorie der Markovketten 5 3 MCMC-Simulationen 10 4 Hard disk in a box 13 5 Mathematische Ausführung 15 6 MCMC in der Statistik 17 7 Zusammenfassung und Schlussfolgerung 20 8 Literaturverzeichnis 21 9 Abbildungsverzeichnis 22 1

3 Einleitung Simulationen sind in der Mathematik nicht mehr wegzudenken. Viele komplexe Fragestellungen können nur numerisch berechnet werden. Die folgende Arbeit wird sich mit der MCMC- Simulation beschäftigen. Durch die Einteilung der mathematischen Fragestellung in Zustände, welche mit zufälligen Wahrscheinlichkeiten wechseln, wird versucht das Problem auf Markovketten zu transferieren. Mit Hilfe des Gesetzes der großen Zahlen kann mit zunehmender Stichprobeanzahl ein genaueres Ergebnis erzielt werden. Zunächst werde ich ein Beispiel zur Anwendung dieser Methode geben und anschließend auf die Theorie und das Themengebiet genauere eingehen. 2

4 1 MCMC und die Kryptographie Zuerst gibt es einen kurzen Abstecher in die Kryptographie, um mit der MCMC-Simulation vertraut zu werden. In der Kryptographie ist das Ziel verschlüsselte Texte zu entschlüsseln. Es soll versucht werden dieses Problem mathematisch zu lösen. Hier ein Beispiel. Abbildung 1.1: Verschhlüsselter Text Um folgenden Text zu entschlüsseln benötigt man eine Funktion f mit: f : {coded} {decoded} welche für alle Zeichen im verschlüsselten Text Buchstaben oder Satz- und Sonderzeichen zurückgibt, wobei diese zwei Gruppen fortan als Symbole deklariert werden. Um dieses Problem zu lösen ist zunächst eine Statistik von Nöten. Man nimmt sich ein Standardliteraturwerk und zählt alle Eins-zu-Eins Übergänge von Symbolen. Man startet mit dem ersten Buchstaben des Alphabets und zählt wie oft im Text ein A nachgestellt ist. Dies wird für alle Symbolkombinationen durchgeführt und anschließend eine Matrix erstellt, welche so angeordnet ist, dass die Anzahl von dem Startsymbol in der Zeile aufgeschrieben sind. Es entsteht eine Übergangsmatrix von Eins-zu-Eins Übergängen. Man erhält eine quadratische Matrix A Nn n. In der deutschen Sprache ist die Dimension dieser Matrix sehr groß, da man Groß- und Kleinbuchstaben unterscheiden muss sowie alle Satz- und Sonderzeichen betrachten muss. Dies ist notwendig, da man nicht weiß ob bei der Verschlüsselung Zeichen Groß- und Kleinschreibung vernacchlässigt wurden oder ob die Satz- und Sonderzeichen verschlüsselt wurden. Falls ersichtlich wird, dass Satzzeichen nicht verschlüsselt wurden, könnte das n kleiner gemacht werden. Nun normieren wir die Zeilen der Matrix wie folgt i, j {1,..., n} : b ij = a ij a ij i damit erhalten wir eine stochastische Matrix B R n n, welche die Übergangswahrscheinlichkeit 3

5 der Eins-zu-Eins Übergänge angibt. Die Entschlüsselung erfolgt nach dem Trail-and-Error Prinzip. Deshalb wird eine Möglichkeit benötigt, um festzustellen wie gut eine Entschlüsselung tatsächhlich ist. Da schon eine Übergangsmatrix vorhanden ist, kann diese zur Klassifizierung der Entschlüsselung herangzogen werden. Eine geeignete Funktion wäre W (f) = i B f(si ),f(s i+1 ) wobei s i alle Zeichen des verschlüsselten Textes durchläuft. Nun kann folgender Algorithmus gestartet werden. Wähle ein f Berechne W (f) durch Mischen von Zuordnungen erstelle ein f Berechne W (f ) wenn W (f ) W (f) wähle f = f und starte erneut falls W (f) > W (f ) wirf eine Münze und bei Kopf gehe zu f und bei Zahl bleibe bei f Diese Rückschrittsmöglichkeit ist wichtig, da man damit verhindern kann, dass der Algorithmus nicht in einem lokalen Maximum stecken bleibt sondern das globale Maximum erreichen kann. Der Algorithmus versucht f mittels zufälligen Vertauschungen zu verbessern. Die Laufzeit dieses Algorithmus kann sehr stark schwanken. In den meisten Fällen werden ein paar tausend Durchläufe benötigt, um das globale Maximum zu erreichen. Der in Abbildung 1.1 gezeigte verschlüsselte Text, wird nach Anwendung des Algorithmus entschlüsselt: Abbildung 1.2: Entschlüsselter Text In diesem Fall handelt es sich um ein interessantes Beispiel. Der Text wurde von einem Gefängnisinsassen verschlüsselt und sollte verschickt werden. Die Gefängniswärter konnten den Text abfangen und er wurde nach obriger Methode entschlüsselt. Die Sinnhaftigkeit der Übersetzung kann man leicht erkennen. Der Text ist eine Mischung aus Englisch, Spanisch und einem eigenen Gefängnisjargon. Im folgenden Kapitel wird es eine allgemeine Einführung in die Theorie der Markovketten geben und wichtige Sätze und Definitionen werden formuliert, um das MCMC-Verfahren besser nachvollziehen zu können. 4

6 2 Einführung in die Theorie der Markovketten Definiton 2.1. Sei χ ein endlicher Zustandsraum. Sei (X t ) t N ein zeitdiskreter stochastischer Prozess. Dann ist X t eine Markovkette genau dann, wenn gilt. P (X t+1 = i t+1 X 0 = i 0,..., X t = i t ) = P (X t+1 = i t+1 X t = i t ) Diese Eigenschaft wird als die Markoveigenschaft bezeichnet. Eine wichtige Darstellungsform für Markovketten ist die stochastische Matrix. Definiton 2.2. Sei A R n n. A ist genau dann eine stochastische Matrix, wenn i, j : A ij 0 j : j A ij = 1. Nun lässt sich ein Markovprozess, wie folgt mit einer stochastischen Matrix charakterisieren: Definiton 2.3. Sei χ endlicher Zustandsraum mit χ = n. So beschreibt eine stochastische Matrix A R n n eine Markovkette wobei gilt, dass A ij = P (X t+1 = j X t = i) ist. Einzig eine Startverteilung muss noch angegeben werden, sodass die Markovkette wohldefiniert ist. Um einen wichtigen Satz für die weitere Arbeit einzuführen, braucht man zunächst eine wichtige Eigenschaft. Definiton 2.4. Eine Markovkette X t auf dem Zustandsraum χ heißt irreduzibel genau, dann wenn i, j χ ein s, t N mit s < t existiert, sodass P (X t = j X s = i) > 0. 5

7 Das bedeutet, dass jeder Zustand in endlichen Schritten erreicht werden kann. Ein wichtiger Satz für die Betrachtung der Konvergenz von Markovketten ist der folgende Satz: Satz 2.1. Sei X t eine irreduzible Markovkette auf dem endlichen Zustandsraum χ und A sei die stochastische Matrix welche die Markovkette beschreibt. Dann existiert ein einfacher Eigenwert λ = 1 zur Matrix A. Beweis. Zunächst wird gezeigt, dass Potenzen von stochastischen Matrizen wieder eine stochastische Matrix ist. Wir betrachten nun c ij = (A 2 ) ij = r a ir a rj. Da A eine stochastische Matrix ist sind ihre Einträge nichtnegativ. Daraus folgt auch, dass die Einträge von A 2 nichtnegativ sind. Zu zeigen bleibt noch, dass die Zeilensumme gleich 1 ist. Wir betrachten c ij = a ir a rj = a ir a rj = a ir a rj = 1. j j r r j r j Damit ist gezeigt, dass A 2 stochastisch ist. Analog kann man die Behauptung auch für alle Potenzen von A zeigen. Nach dem Satz von Perron Frobenius weiß man, dass der Spektralradius ein positiver und einfacher Eigenwert ist und er erfüllt die Gleichung ϱ(a) = lim n An 1 n. Wie vorhin gezeigt sind die Potenzen von A stochastisch, damit auch lim n An. Falls für die Matrixnorm nun die Zeilensummennorm gewählt wird ist A n = 1 damit folgt mit dem Satz von Perron Frobenius die Behauptung. Damit folgt, dass ein Eigenvektor zum Eigenwert 1 existiert. Dieser wird im folgenden immer mit π bezeichnet. Für diesen gilt Aπ = π. Zu beachten ist, dass falls man einmal diesen Vektor als Verteilung angibt, verlässt man die Verteilung nicht mehr, da A Aπ = Aπ = π. Dieser Vektor wird als stationäre Verteilung bezeichnet. Eine weitere Eigenschaft, welche die Existenz einer stationären Verteilung impliziert, ist die Detailed-Balance-Eigenschaft. Diese lautet A ij π i = A ji π j. Diese Eigenschaft ist eine Voraussetzung für die Definiton von MCMC-Simuationen. Das wichtigste Resultat das man wir für spätere Konvergenzbetrachtungen benötigen, ist, dass lim n (An ) ij = π j. Dies bedeutet, dass alle Zustände gegen die stationäre Verteilung konvergieren. Das motiviert den folgenden Satz: Satz 2.2. Sei X t eine Markovkette und A die zugehörige Zustandsraum χ endlich. Dann gilt: Übergangsmatrix. Weiters sei der lim n (An ) ij = π j i, j χ. Beweis. Wie zuvor bewiesen, existiert ein Eigenwert λ = 1 und der dazugehörige Eigenvektor π. Der Beweis für die Konvergenz ist das Grundprinzip der Vektoriteration. Bei dieser wird eine beliebige Startverteilung x hergenommen und es wird x 1 = Ax berechnet und iterativ fortgesetzt. Dann konvergiert x t gegen π. Dies ist die Behauptung die zu zeigen ist. Da der Beweis sehr umfangreich ist, wird er in dieser Arbeit nicht behandelt. Er kann im Skriptum Numerische Mathematik A von Lothar Nannen auf Seite 106 nachgeschlagen werden. 6

8 Als nächstes wird die Konvergenz der Markovkette betrachtet. Die Frage ist, wie schnell konvergiert die Markovkette. Dies wird im folgenden Satz behandelt. Für die Norm um die Konvergenz zu betrachten, wird die Norm der Totalen Variation herangezogen. Diese ist wie folgt definiert: A n i π T V = 1 A n ij π j. 2 j Satz 2.3. Sei A Übergangsmatrix und es existiert eine stationäre Verteilung. Dann existieren Eigenvektoren und Eigenwerte, sodass: 4 A n i π 2 T V χ 1 i=0 β 2n i ψ 2 i. Beweis. Wir führen folgendes Skalarprodukt auf dem Raum L 2 (π) ein g, h = x g(x)h(x)π x, wobei L 2 (π) die Menge aller {g : χ R} ist. Dann operiert K auf dem L 2 mit: Ag(x) = y g(y)a xy, nun folgt aus: Ag, h = g(j)a ij, h = i = i = j j j j = g, Ah. g(j)a ij h(i)π i g(j)π j A ij h(i) g(j)π j A ji h(i) i Nun folgt, dass A ein selbstadjungierender Operator ist. Nach dem Spektralsatz folgt nun, dass es eine ONB von Eigenvektoren gibt und es gilt: x χ : Ax = χ 1 i=0 β i x, ψ i ψ i, mit Kψ i = β i ψ i. Nun folgt mit x als das neutrale Element des Vektorraums: weiters sei: A = χ 1 i=0 χ 1 A 2 = π y χ 1 β i ψ i (x)ψ i (y)π(y) = π(y) i=0 i=0 χ 1 β i ψ i (x)ψ i (y)a xy = π y 7 i=0 β i ψ i (x)ψ i (y), β 2 i ψ i (x)ψ i (y),

9 induktiv folgt nun: χ 1 A n (x, y) = π(y) βi n ψ i (x)ψ i (y), i=0 schließlich folgt mit der Cauchy-Schwarz Ungleichung: 4 A n x π 2 T V y (A n xy π y ) 2 χ 1 = βi 2n ψi 2. π y i=0 Man kann nun sehen, dass die Konvergenz von den Eigenwerten und Eigenvektoren abhängt. Falls eine besser Konvergenzrate erreicht werden soll, dann müssen geeignete Manipulationen für die EW und EV gemacht werden. Es ist einfach die Übergangswahrscheinlichkeiten, jedoch die stationäre Verteilung oftmals schwierig zu berechnen. Genau aus diesem Grund wird auf die MCMC-Simulation zurückgegriffen. Die MCMC-Simulation wird im nächsten Kapitel vorgestellt. Zunächst folgt noch eine kurze Einführung in die Theorie der Markovketten auf allgemeinen Zustandsräumen. Bis hierher wurden nur endliche Zustandsräume betrachtet. Um Markovketten zu verallgemeinern, braucht man den Markovkern. Definiton 2.5. Sei Ψ ein beliebiger Raum mit einer σ-algebra F. Ein Kern ist eine Abbildung P : (Ψ, F) [0, 1], welche folgende Eigenschaften erfüllt: P (x, ) ist eine Wahrscheinlichkeit auf (Ψ, F) für alle x Ψ, P (, A) ist eine messbare Funktion für alle A F. Der Markovkern P (x, A) gibt also eine Wahrscheinlichkeit an, mit der man von dem Zustand x zum Ereignis A gelangt. Der Markovkern kann nun wie folgt iteriert werden: P 2 (x, A) = P (z, A)P (x, dz). Diese Gleichung sagt aus, dass man von x nach A in zwei Schritten gelangt, wobei über die Wahrscheinlichkeiten aller möglichen Zwischennzustände z integriert wird. Eine stationäre Verteilung erfüllt dann folgende Gleichung: π(a) = P (x, A)π(dx). Im späteren Verlauf der Arbeit wird diese Verallgemeinerung verwendet, um komplexere Beispiele zu lösen. 8

10 Zur Veranschaulichung sieht man in der nächsten Grafik den Graphen einer Markovkette. Abbildung 2.1: Markovkettengraph Wie man in diesem Graphen sieht, sind die einzelnen Zustände mit einer Übergangswahrscheinlichkeit verbunden. Diese Markovkette ist auch irreduzibel, da es keine getrennte Kommunikationsklasse gibt. Die Übergangsmatrix würde wie folgt lauten: A = Man sieht, dass die Zeilensumme immer 1 beträgt. Da sie irreduzibel ist, existiert die stationäre Verteilung. Die stationäre Verteilung ist π = (0.22, 0.4, 0.38). Im nächsten Kapitel wird der MCMC-Algorithmus eingeführt. 9

11 3 MCMC-Simulationen In diesem Kapitel werden die MCMC-Simulationen eingeführt und Motivation und Beispiele behandelt. MCMC steht für Markov-Chains-Monte-Carlo. Die MCMC-Simulation wird verwendet um eine Markovkette zu erzeugen, welche eine gewünschte Wahrscheinlichkeitsverteilung als stationäre Verteilung hat. Diese erzeugten Markovketten erfüllen alle die Detailed-Balance- Eigenschaft, welche im vorigen Kapitel vorgestellt wurde. Die Eigenschaft impliziert die Existenz einer stationären Verteilung. Wir betrachten nun einen Metropolis-Hastings-Algorithmus: Satz 3.1. Sei χ ein endlicher Zustandsraum und π(x) eine Wahrscheinlichkeit. Sei A xy die Übergangsmatrix einer Markovkette auf χ mit A xy > 0 A yx > 0. Sei B xy := min{1, πyayx π xa xy }. Dann sei { Axy B xy für x y K xy := J xy + A xz (1 B xz ) für x = y. z Dann erfülle K xy folgende Gleichung: π x K xy = π y K yx Beweis. für x = y trivial erfüllt. Für x y sei obda B yx = 1 (ansonsten ist B xy = 1) π x K xy = π x A xy π ya yx π xa xy = π y A yx = π y K yx. Nun sieht man, dass wir Markovkette, die anfangs keine Relation zu der stationären Verteilung hatte, zu einer neuen Markovkette umgewandelt wurde, welche die gewünschte stationäre Verteilung aufweist. Zunächst wird auf die Entstehung und die Motivation des Metropolisalogrithmus und des Metropolis-Hastings-Algorithmus eingegangen. Der Metropolisalogrithmus geht auf Nicholas Metropolis zurück veröffentlichte dieser eine Puplikation, in welcher er Markovketten verwendete um eine Boltzmann-Verteilung zu generieren. Er stellte folgenden Algorithmuus auf: Man startet im Ort x i, wobei dies den Ortsvektor nach dem i-ten Iterationsschritt bezeichnet. Es wird ein neuer Ort y vorgeschlagen welcher folgende Gleichung erfüllt y = x i + rq i wobei r fester Suchradius ist und q ein Zufallsvektor mit q(i) [ 1, 1] i. Nun wird die Energiedifferenz E = E(y) E(x i ) berechnet. Falls die Energiedifferenz E 0 wird y als neuer Ort akzeptiert ( ) und x i+1 = y. ansonsten wird y mit Wahrscheinlichkeit p := min(1, exp E κt ), wobei T die Temperatur des Systems und κ die Boltzmannkonstante ist, akzeptiert. 10

12 Dieser Algorihtmus generiert eine stationäre Verteilung welche der Boltzman-Verteilung entspricht. In der nächsten Grafik sieht man eine Boltzman-Verteilung: Abbildung 3.1: Boltzmann-Verteilung Wie man sieht ist die Boltzmann-Verteilung für niedrigere Temperaturen nach links gestaucht. W. Keith Hastings verallgemeinerte diesen Algorithmus, in dem er die Vorschlagsdichte P (x y) W (y)p (x y) generiert, welche Vorschläge mit Wahrscheinlichkeit p = min(1, W (x)p (y x)) akzeptiert und auch vom nächsten Zustand abhängig ist. Wobei W ( ) eine beliebige Wahrscheinlichkeitsverteilung ist. Nun wird wieder der in Satz 3.1 definierte Algorithmus herangezogen. Es wurde gezeigt, dass die Detailed-Balance-Eigenschaft gilt. Desweitern folgt nun, dass (πk) y = π x K xy = π y K yx = π y K yx = π y, x x x damit folgt, dass π der Linkseigenvektor zu K ist. Damit folgt mit Satz 2.1 und 2.2, dass die durch den Algorithmus erzeugte Markovkette K gegen die stationäre Verteilung konvergiert. Dies angewendet auf das Kryptographiebeispiel im 1. Kapitel ergibt folgenden Algorithmus. Zuvor benötigt man noch ein paar Eigenschaften. Sei χ die Menge aller Eins-zu-Eins Übergänge vom Raum der verschlüsselten Zeichen zum Raum der Symbole. Die stationäre Verteilung hat folgende Form: π(f) = z 1 i B(f(s i ), (f(s i+1 )), wobei z der Normierungsfaktor ist. M ist die Matrix der Einschrittübergänge der Sprache die für das Enschlüsseln verwendet wird. Der Normierungsfaktor lautet wie folgt: z = B(f(s i ), (f(s i+1 )). f i 11

13 Es wird über alle möglichen Enschlüsselungsfunktionen f summiert. Dies macht die Bestimmung von z fast unmöglich. Ein weiteres Problem stellt die Größe des Zustandsraums χ dar. Diese zwei Problematiken versucht man mit der MCMC-Simulation zu umgehen. Sei nun die Mächtigkeit der Menge aller Eins-zu-Eins Übergänge im verschlüsselten Text gleich m und Mächtigkeit der Menge aller Eins-zu-Eins Übergänge der Symbole gleich n mit n m. Dann ist χ = n(n 1)... (n m + 1). Diese Zahl kann sehr groß werden, falls beispielsweise m = n = 50 ist. Für den Algorithmus generiert man J(f, f ) was einen zufälligen Tausch von zwei Symbolen darstellt. Damit folgt: J(f, f ) := { 1 n(n 1)(m n+2)(m n+1) wenn f, f sich in maximal zwei Stellen unterscheiden 0 sonst. Aufgrund von J(f, f ) = J(f, f) folgt für die Akzeptierwahrscheinlichkeit, dass B(f, f ) = ist. π(f ) π(f) 12

14 4 Hard disk in a box In diesem Kapitel wird eine weitere Anwendung für das MCMC-Verfahren gezeigt. Bei Hard disk in a box gibt es folgende Ausgangssituation. Sei n die Anzahl der Scheiben mit Radius r in dem Einheitsquadrat. Es wird nun versucht die Teilchenbewegung mithilfe des MCMC- Algorithmus zu beschreiben. Dies wird wie folgt gemacht: Man startet mit x τ(n, r). Man nehme nun den Mittelpunkt einer Scheibe mit Wahrscheinlichkeit 1 n. Nun wird ein Punkt im Radius h ausgewählt. Verschiebe den Mittelpunkt zu dem Punkt. Falls diese neue Position in τ(n, r) liegt so akzeptiere diese Bewegung. Wobei τ(n, r) die Topologie der möglichen Positionen der Scheiben ist. Das Problem ist das Wählen einer uniform-verteilten Stichporbe von x τ(n, r). Dieser Algorithmus verschiebt zufällig Koordinaten. Falls nun X 1, X 2,... die erfolgreichen Positionen sind so wird, X k für kleine k und r uniform-verteilt sein. Für große k kann man eine Funktion f mit f : τ(n, r) R finden, wobei man τ(n,r) f(x)dx mit 1 k k f(x k ) i=1 approximieren kann. Um dieses f sinnvoll zu bestimmen, muss zunächst die Frage gestellt werden, wie diese aussehen können. Die Motivation für dieses Beispiel kommt von der Betrachtung von Phasendiagrammen. Diese geben den Verlauf der Aggregatzustände im Verhältnis zu Druck und Temperatur an. Ein solches sieht man in folgender Abbildung: Abbildung 4.1: Phasendiagramm 13

15 Diese Phasendiagramme sind bereits in der Forschung intensiv analysiert worden. Es gibt eine Kurve endlicher Länge zwischen dem flüssigen und gasförmigen Zustand, welche im Tripletpunkt startet. An diesem coexistieren alle drei Zuständ. Der Endpunkt dieser Kurve ist der kritische Punkt. Man kann eine gegen Unendlich laufende fest-flüssig Kurve erkennen. Eine interessante Folgerung dieses Phasendiagramms ist, dass egal welche Temperatur vorgegeben wird, man mit dem richtigen Druck eine fest-flüssige Transformation, oder umgekehrt erzeugen kann. Ab einem gewissen Druck sind die starken innermolekularen abstoßenden Kräfte nicht mehr relevant. In der nächsten Grafik sieht man wie die Scheibenverteilung bei gewissen Druck aussieht. Abbildung 4.2: Scheibenverteilung η bezeichnet die dynamische Viskosität. Dies entspricht Druck in einer Zeiteinheit. Je höher diese ist, desto höher ist der Druck. Man sieht nun, dass für höheren Druck die Scheiben eine Gitterform annehmen. Eine sinnvolle Funktion f welche oben gesucht wurde, lässt sich nun aufgrund der Gitterstruktur darstellen. Diese lautet: f(x) = 1 N 1 e 6iθ jk N N, j j=1 k wobei über die Anzahl N summiert wird. N j ist die Anzahl der Nachbarn der j-ten Scheibe. θ jk ist der Winkel zwischem der j-ten und k-ten Scheibe. Werte für diese Funktion können mit Simulationen erzeugt werden. Im nächsten Abschnitt wird dieses Problem mathematisch genauer ausgeführt. 14

16 5 Mathematische Ausführung Zunächst sei Ω R n ein verbundenes offenes Gebiet. p (x) > 0 x Ω und z= Ω p (x)dx <. Dann ist z 1 die Normierungskonstante und p (x) = z 1 p(x). Dieser Normmierungsfaktor ist schwierig zu bestimmen. Deshalb sollte man einen MCMC-Algorithmus finden, bei dem man nicht z berechnen muss. Eine Möglichkeit wäre folgender Algoritmus: Starte in x und wähle y A(h) wobei A eine messbare Menge ist und A Ω wobei Ω ein Lipschitzgebiet ist. Berechne p(y). falls p(y) p(x) dann gehe zu y. falls p(y) < p(x) gehe nach y mit Wahrscheinlichkeit p(y) p(x). andernfalls bleibe in x. Dieser Algoritmus setzt nicht voraus, dass man z direkt bestimmen muss. Da auf allgemeinen Räumen gearbeitet wird, muss ein Markovkern aufgestellt, welcher den Übergang von x 1 zu y darstellt. Dafür müssen einige Dinge beachtet werden. Sei φ(z) = V (A(h)) δ A(h), sodass φ(z)dz = 1. Sei p eine positiv beschränkte Funktion mit p(z)dz = 1. Für h [0, 1] gilt nun, dass: ( ) ( ) x y p(y) K h,p (x, y) = h d φ min h p(x), 1. Nun lässt sich der Markovkern durch folgende Gleichung darstellen: P (x, dy) = m(x)δ x + K h,p (x, y)δ y dy, wobei m(x) = 1 Ω Ω K h,p (x, y)dy. Falls man nun alles einsetzt, so kommt man schließlich auf folgenden Kern: mit P (x, dy) = m(x)δ x + h d V (A(h)) δ A(h) Rd h d m(x) = 1 V (A(h)) δ A(h) ( x y h ( x y h Ω ) ( ) p(y) min p(x), 1 dy ) ( ) p(y) min p(x), 1 dy, wobei h der Radius ist, in welchem y zu x liegt. δ x ist die Dichte am Ort x und V (A(h)) ist das Volumen von A(h). Nun kann der Algorithmus wie folgt dargestellt werden. 15

17 Wähle X 0 = x A(h) wähle X 1 P (X 0, dy) wähle X 2 P (X 1, dy). Damit folgt aus Def. 2.5, dass P (X 2 B) = P (z, B)P (x, dz) R d iterativ folgt dann weiters P (X k B) = P (z, B)P k 1 (x, dz) R d für geeignete h konvergiert nun P (X k B) gegen B p(y)dy. Der Algorithmus hat eine Konvergenzrate die man wie folgt darstellen kann: P (X k B) p(y)dy c 1 e c 2kh 2, B wobei p(x) beschränkt sein muss und B Teilmenge eines Lipschitzgebietes ist. c 1, c 2 sind positive Zahlen. Den Beweis für diese Abschätzung kann man in der Ausarbeitung Geometric Analysis for the Metropolis Algorithm on Lipschitz Domains von Persi Diaconis, Gilles Lebeau und Laurent Michel nachlesen. 16

18 6 MCMC in der Statistik Simulationen sind eine häufig verwendete Methode zur Erzeugung von Zufallszahlen. In der Statistik ist die Manipulation von Stichproben und Betrachtung ihrer Verteilungsfunktionen ein zentrales Thema. Es gibt einige Möglichkeiten solche Zufallszahlen zu erzeugen. Methoden dafür sind die Inversionsmethode, oder das Box-Muller-Verfahren. In diesem Kapitel soll das sogenannte Gibbs-Sampling betrachten werden. Das Gibbs-Sampling geht auf die Mathematiker S. und D. German zurück. Benannt wurde es nach dem amerikanischen Physiker J. W. Gibbs. Nachstehend folgt eine kurze Einführung in die Bayes-Statistik. Definiton 6.1. A-priori Verteilung: Die Verteilung einer sg X f(x; θ) wobei θ Θ. In der Bayes-Statistik wird der Faktor θ nicht als fester unbekannter Parameter betrachtet, sondern als Realisation der sg θ mit der Dichte h(θ). Diese wird als A-priori Dichte bezeichnet und dementsprechend erhält man durch Integration die A-priori Verteilung. Definiton 6.2. Sei X = (X 1, X 2,..., X n ) eine Stichprobe von X f(x; θ) so ist die bedingte Dichte von X θ = θ gleich f(x θ) = f(x i θ). Dann ist die gemeinsame Dichte von X und θ i g(x, θ) = f(x θ)h(θ). Die Randdichte ist dann wie folgt definiert g 1 (x) = g(x, θ)dθ = f(x θ)h(θ)dθ. Definiton 6.3. A-posteriori Verteilung: Sei die Randdichte wie oben, dann ist die A-posteriori Dichte definiert als k(θ x) = f(x θ)h(θ) g 1 (x) f(x θ)h(θ) =. f(x θ)h(θ)dθ Die A-posteriori Verteilung ist also asymptotischverteilt nach der Likelihoodfunktion mal der A-priori Verteilung. Zunächst wird ein kleines Motivationsbeispiel für Gibbs-Sampling gezeigt. Sei X f X (x) und Y f Y (y). Es wird angenommen, dass die Simulation der Beobachtungen von X schwierig ist, jedoch die von Y und X Y=y aber nicht. 17

19 Dann kann man dieses Problem umgehen indem man: Erzeuge Y f Y (y). Erzeuge X f X Y (x Y = y). Das erzeugte X hat die Dichte f X (x). Die Behauptung folgt aus: P (X t) = E(F X Y (t)) = = = = t t t t f X Y (x y)dx f Y (y)dy f X Y (x y)f Y (y)dy dx f X,Y (x, y)dy dx f X (x)dx. Nun kann man den Erwartungswert einer Funktion W = g(x) von X bestimmen. Man erzeugt zunächst Paare (X 1, Y 1 ),..., (X m, Y m ) und es gilt nach dem Gesetz der großen Zahlen: W = 1 m g(x i ) P E(g(X)). m i=1 Das Gibbs-Sampling hat ein ähnliches Prinzip. Für Erzeugung von sg nach f(x,y) werden wechselweise Beobachtungen von f(x y) und f(y x) herangezogen. Nun wird der bivariante Fall des Gibbs-Samplings betrachtet: Erzeugung des Startwerts (x 0, y 0 ) für i=0. Erzeuge X i+1 f(x y i ). Erzeuge Y i+1 f(y x i+1 ). i=i+1 und wiederhole. Die Paare (X 1, Y 1 ),..., (X m, Y m ) bilden eine Markovkette, da P [(X i, Y i ) = (i i, j i ) (X i 1, Y i 1 ) = (i i 1, j i 1 ),..., (X 1, Y 1 ) = (i 1, j 1 )] = P [(X i, Y i ) = (i i, j i ) (X i 1, Y i 1 ) = (i i 1, j i 1 )]. Also ist das Paar (X i, Y i ) nur von dem vorherigen Paar (X i 1, Y i 1 ) abhängig. Für i folgt nun für die Gibbs-Sampler: X i Y i D fx (x), D fy (y). Die Konvergenzgeschwindigkeit für die Kette kann stark varieren. Üblicherweise wird zur Schätzung zunächst die ersten m Elemente nicht verwendet und dann erst die nächsten n-m Paare. Dies wird als Einbrennen der Kette bezeichnet. Der Grund dafür ist, dass diese Paare sich anfangs noch stark von der stationären Verteilung unterscheiden können. Je mehr Schritte der Algorithmus läuft, desto besser wird die stationäre Verteilung erreicht. Deshalb lässt man die ersten m Paare weg, da diese die größte Varianz zur stationären Verteilung besitzen. Demnach ist ein geeigneter Schätzer für den Erwartungswert von X: Ē(X) = 1 n m n X i i=m+1 P E(X). 18

20 Für die Randdicht würde sich dann folgender Schätzer anbieten: f X (x) = 1 n m n i=m+1 f(x y i ). Dieser bivariante Sampler kann einfach auf einen mehrdimensionalen Fall erweitert werden. Die Hauptanwendung für den Gibbs-Sampler in der Bayes-Statistik, ist das sogenannte hierachische Modell. Bei diesem gibt es folgende Problemstellung. Da die A-priori Verteilung einen großen Einfluss auf die Ereignisse hat, versucht man eine sg zu finden, welche die A-priori Verteilung modelliert. Das Modell sieht wie folgt aus: X θ f(x θ), θ γ h(θ γ), γ ψ(γ). Der Hilfsparameter γ wird als Hyperparameter bezeichnet. In diesem Fall sehen die Gibbs- Sampler wie folgt aus: θ i x, γ i 1 g(θ x, γ i 1 ), γ x, θ i g(γ x, θ i ). Für die Grenzwerte dieser Gibbs-Sampler gilt nun: 1 n n i=1 θ i γ i D k(θ x), D g(γ x), u( θ i ) P E(u( θ) x). Nach dem Einbrennen der Markovkette schätzt man dann den Erwartungswert von u( θ) wie folgt ab: 1 n m n u(θ i ), n > m. i=1 19

21 7 Zusammenfassung und Schlussfolgerung Markovketten sind mathematische Modelle, welche für zufallsbedingte Ereigniswechsel eine gute Approximation liefern. Ihre Theorie ist gut erforscht und dadurch ist es leicht diese anzuwenden. Es ist oft eine Erleichterung eine komplexe Fragestellung auf Markovketten transformieren zu können. MCMC-Simulationen nutzen die Theorie der Markovketten aus und versuchen diese zum Lösen von komplexen Aufgabenstellungen zu verwenden. Die Anwendung der MCMC-Simulation ist weit gefächert. In dieser Arbeit wurde bewiesen, dass sie zur Entschlüsselung von Texten verwendet werden können. MCMC kann jedoch auch verwendet werden, um Teichlenbewegung und deren resultierenden Zustände zu beschreiben. Deshalb findet dieses Verfahren auch in der Thermodynamik Verwendung. Man könnte auch andere physikalische Phänomene damit zu beschreiben versuchen,z.b. Ladungsverteilung in elektrischen Bauteilen. Naheliegend ist die Anwendung in der Statistik. Das Gibbs-Sampling ist eine der wichtigsten Methoden zur Erzeugung von Stichproben in der Bayes-Statistik. Die MCMC-Simulation hat wie man sieht eine große Bedeutung in der Mathematik und der Physik. 20

22 8 Literaturverzeichnis [1] Diaconis, Persi; Lebeau, Gilles; Michel, Laurent; Geometric Analysis for the Metropolis Algorithm on Lipschitz Domains. [2] Waldmann, K.-H., 2013; Stochastische Modelle Eine anwendungsorientierte Einführung. [3] Diaconis, Persi, 2009; The Markov Chain Monte Carlo Revolution. [4] Neal, Radford M., 2011; MCMC using Hamiltonian dynamics. [5] Zeuner, Michelle, 2011; Die Monte-Carlo-Methode. [6] Robert, C. P., Casella, G., 2004; Monte Carlo Statistical Methods. [7] Beichl, Isabel, 2000; The Metropolis Algorithm. [8] Schomaker, Jens; Einführung in die Theorie der Markov-Ketten. [9] Spellecchia, Claudia, 2008; MCMC. [10] Gurker, Werner, Version 2015; Angewandte Mathematische Statistik. 21

23 9 Abbildungsverzeichnis Abbildung 1.1: Verschlüsselter Text; Diaconis, Persi; The Markov Chain Monte Carlo Revolution. Abbildung 1.2: Entschlüsselter Text; Diaconis, Persi; The Markov Chain Monte Carlo Revolution. Abbildung 2.1: Markovkettengraph; URL: Abbildung 3.1: Boltzmann-Verteilung; URL: Abbildung 4.1: Phasendiagramm; URL: phasendiagramm.html, Abbildung 4.2: Scheibenverteilung; Diaconis, Persi; The Markov Chain Monte Carlo Revolution. 22

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit

3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit 3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate

Mehr

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe

Mehr

Analysis I. Guofang Wang Universität Freiburg

Analysis I. Guofang Wang Universität Freiburg Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum

Mehr

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über

Mehr

MCMC. Ausarbeitung zum Seminar: The Top 10 Algorithms. Claudia Spellecchia Dübendorf, Schweiz Matrikelnummer

MCMC. Ausarbeitung zum Seminar: The Top 10 Algorithms. Claudia Spellecchia Dübendorf, Schweiz Matrikelnummer MCMC Ausarbeitung zum Seminar: The Top 10 Algorithms Claudia Spellecchia Dübendorf, Schweiz claudisp@student.ethz.ch Matrikelnummer 04-722-583 Abgabe der Arbeit: 13.03.2008 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis

Mehr

Varianz und Kovarianz

Varianz und Kovarianz KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]

Mehr

Unabhängige Zufallsvariablen

Unabhängige Zufallsvariablen Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de

Mehr

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende

Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,

Mehr

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Mehr

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5

0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5 4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

5 Teilmengen von R und von R n

5 Teilmengen von R und von R n 5 Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,...,x n ) : x i R} = R }... {{ R }. n mal Für x R ist x der Abstand zum Nullpunkt. Die entsprechende Verallgemeinerung

Mehr

Iterative Verfahren, Splittingmethoden

Iterative Verfahren, Splittingmethoden Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem

Mehr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr

Ein Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,

Mehr

Kapitel 8: Zufallsvektoren

Kapitel 8: Zufallsvektoren Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und

Mehr

6. Übungsblatt zur Einführung in die Stochastik

6. Übungsblatt zur Einführung in die Stochastik Fachbereich Mathematik Prof. Dr. Michael Kohler Dipl.-Math. Andreas Fromkorth Dipl.-Inf. Jens Mehnert SS 9 1.6.29 6. Übungsblatt zur Einführung in die Stochastik Aufgabe 22 Sei P ein auf der Borelschen

Mehr

KAPITEL 1. Einleitung

KAPITEL 1. Einleitung KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme

Mehr

4. Verteilungen von Funktionen von Zufallsvariablen

4. Verteilungen von Funktionen von Zufallsvariablen 4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten

Mehr

Konvergenz im quadratischen Mittel - Hilberträume

Konvergenz im quadratischen Mittel - Hilberträume CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften

Mehr

Das Trust-Region-Verfahren

Das Trust-Region-Verfahren Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

2.1 Importance sampling: Metropolis-Algorithmus

2.1 Importance sampling: Metropolis-Algorithmus Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Lineare Algebra II 8. Übungsblatt

Lineare Algebra II 8. Übungsblatt Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2

Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2 Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II Wiederholungsblatt: Analysis Sommersemester 2011 W. Werner, F. Springer erstellt von: Max Brinkmann Aufgabe 1: Untersuchen Sie, ob die

Mehr

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω

x, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω 5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,

Mehr

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom

Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe

Mehr

2 Zufallsvariable, Verteilungen, Erwartungswert

2 Zufallsvariable, Verteilungen, Erwartungswert 2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments

Mehr

51 Numerische Berechnung von Eigenwerten und Eigenvektoren

51 Numerische Berechnung von Eigenwerten und Eigenvektoren 5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,

Mehr

7 Lineare Abbildungen und Skalarprodukt

7 Lineare Abbildungen und Skalarprodukt Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u

Mehr

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)

Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die

Mehr

Einführung in Markoff-Ketten

Einführung in Markoff-Ketten Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die

Mehr

Zusammenfassung der Lebesgue-Integrationstheorie

Zusammenfassung der Lebesgue-Integrationstheorie Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,

Mehr

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...

I Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen... Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................

Mehr

Beispiel 6 (Einige Aufgaben zur Gleichverteilung)

Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß

Mehr

Wahrscheinlichkeitstheorie und Statistik vom

Wahrscheinlichkeitstheorie und Statistik vom INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen

Mehr

Klausur Stochastik und Statistik 31. Juli 2012

Klausur Stochastik und Statistik 31. Juli 2012 Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

7.5 Erwartungswert, Varianz

7.5 Erwartungswert, Varianz 7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k

Mehr

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4

Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4 TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge

Mehr

Die Mathematik hinter Google

Die Mathematik hinter Google Die Mathematik hinter Google Informationstag für Gymnasiastinnen und Gymnasiasten Universität Fribourg (Schweiz) georges.klein@unifr.ch Fribourg, 24. November 2010 georges.klein@unifr.ch Die Mathematik

Mehr

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =

C orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w = 1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition

Mehr

Kapitel VII - Funktion und Transformation von Zufallsvariablen

Kapitel VII - Funktion und Transformation von Zufallsvariablen Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl

Mehr

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute 3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.

Mehr

Simulation von Zufallsvariablen und Punktprozessen

Simulation von Zufallsvariablen und Punktprozessen Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die

Mehr

Simulationsmethoden in der Bayes-Statistik

Simulationsmethoden in der Bayes-Statistik Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen

Mehr

Der n-dimensionale Raum

Der n-dimensionale Raum Der n-dimensionale Raum Mittels R kann nur eine Größe beschrieben werden. Um den Ort eines Teilchens im Raum festzulegen, werden schon drei Größen benötigt. Interessiert man sich für den Bewegungszustand

Mehr

Wahrscheinlichkeit und Statistik: Zusammenfassung

Wahrscheinlichkeit und Statistik: Zusammenfassung HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

9 Eigenwerte und Eigenvektoren

9 Eigenwerte und Eigenvektoren 92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl

Mehr

2 Zufallsvariablen und deren Verteilungen

2 Zufallsvariablen und deren Verteilungen 2 Zufallsvariablen und deren Verteilungen 2.1 Zufallsvariablen Zufallsvariablen sind Funktionen von Ω in die reellen Zahlen R. Beispiel 2.1.1 (Zweimaliger Münzwurf). Ω = ZZ, KK, KZ, ZK}. Sei X(ω) die Anzahl

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie

Mathematische Grundlagen für die Vorlesung. Differentialgeometrie Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie

Mehr

12 Gewöhnliche Differentialgleichungen

12 Gewöhnliche Differentialgleichungen 2 2 Gewöhnliche Differentialgleichungen 2. Einleitung Sei f : D R wobei D R 2. Dann nennt man y = f(x, y) (5) eine (gewöhnliche) Differentialgleichung (DGL) erster Ordnung. Als Lösung von (5) akzeptiert

Mehr

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.

Beweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457. Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf

Mehr

Einführung in die Stochastik 6. Übungsblatt

Einführung in die Stochastik 6. Übungsblatt Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.

Mehr

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Monte-Carlo Tests Diplomarbeit Wiebke Werft Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2003 Betreuung: Prof. Dr. Arnold Janssen Inhaltsverzeichnis Einleitung

Mehr

9 Metrische und normierte Räume

9 Metrische und normierte Räume 9 Metrische und normierte Räume Idee: Wir wollen Abstände zwischen Punkten messen. Der Abstand soll eine reelle Zahl 0 sein (ohne Dimensionsangabe wie Meter...). 9.1 Definition Sei X eine Menge. Eine Metrik

Mehr

Stochastik I. Vorlesungsmitschrift

Stochastik I. Vorlesungsmitschrift Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................

Mehr

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen

Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska

Mehr

Mathematik für Physiker, Informatiker und Ingenieure

Mathematik für Physiker, Informatiker und Ingenieure Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de

Mehr

Inexakte Newton Verfahren

Inexakte Newton Verfahren Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n

Mehr

13 Auswahlaxiom und Zornsches Lemma

13 Auswahlaxiom und Zornsches Lemma 13 Auswahlaxiom und Zornsches Lemma Handout zur Funktionalanalysis I von H. Glöckner, 25.11.2008 Wichtige Teile der modernen Mathematik beruhen auf dem sogenannten Auswahlaxiom der Mengenlehre. Dieses

Mehr

Statistics, Data Analysis, and Simulation SS 2015

Statistics, Data Analysis, and Simulation SS 2015 Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die

Mehr

5. Spezielle stetige Verteilungen

5. Spezielle stetige Verteilungen 5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für

Mehr

4.5 Schranken an die Dichte von Kugelpackungen

4.5 Schranken an die Dichte von Kugelpackungen Gitter und Codes c Rudolf Scharlau 19. Juli 2009 341 4.5 Schranken an die Dichte von Kugelpackungen Schon in Abschnitt 1.4 hatten wir die Dichte einer Kugelpackung, speziell eines Gitters bzw. einer quadratischen

Mehr

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus

Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis

Mehr

7. Die Brownsche Bewegung

7. Die Brownsche Bewegung 7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen

Mehr

Einführung und Grundlagen

Einführung und Grundlagen Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,

Mehr

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.

8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W. 8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A

Mehr

Seminar Einführung in die Kunst mathematischer Ungleichungen

Seminar Einführung in die Kunst mathematischer Ungleichungen Seminar Einführung in die Kunst mathematischer Ungleichungen Geometrie und die Summe von Quadraten Clara Brünn 25. April 2016 Inhaltsverzeichnis 1 Einleitung 2 1.1 Geometrie allgemein.................................

Mehr

Markov Chain Monte Carlo Verfahren. Helga Wagner Bayes Statistik WS 2010/11 407

Markov Chain Monte Carlo Verfahren. Helga Wagner Bayes Statistik WS 2010/11 407 Markov Chain Monte Carlo Verfahren Helga Wagner Bayes Statistik WS 2010/11 407 Einführung Simulationsbasierte Bayes-Inferenz erfordert Ziehungen aus der Posteriori- Verteilung MCMC-Verfahren ermöglichen

Mehr

11. Folgen und Reihen.

11. Folgen und Reihen. - Funktionen Folgen und Reihen Folgen Eine Folge reeller Zahlen ist eine Abbildung a: N R Statt a(n) für n N schreibt man meist a n ; es handelt sich also bei einer Folge um die Angabe der Zahlen a, a

Mehr

Markov-Ketten 1. Definition 2.1

Markov-Ketten 1. Definition 2.1 Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,

Mehr

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p

2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.

Mehr

i j m f(y )h i h j h m

i j m f(y )h i h j h m 10 HÖHERE ABLEITUNGEN UND ANWENDUNGEN 56 Speziell für k = 2 ist also f(x 0 + H) = f(x 0 ) + f(x 0 ), H + 1 2 i j f(x 0 )h i h j + R(X 0 ; H) mit R(X 0 ; H) = 1 6 i,j,m=1 i j m f(y )h i h j h m und passendem

Mehr

40 Lokale Extrema und Taylor-Formel

40 Lokale Extrema und Taylor-Formel 198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:

Mehr

KAPITEL 5. Erwartungswert

KAPITEL 5. Erwartungswert KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar

Mehr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr

DWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr 1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Exact Sampling: Der Propp-Wilson-Algorithmus

Exact Sampling: Der Propp-Wilson-Algorithmus Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

3 Markov-Eigenschaft der Brownschen Bewegung

3 Markov-Eigenschaft der Brownschen Bewegung Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t

Mehr

2 Zufallsvariable und Verteilungsfunktionen

2 Zufallsvariable und Verteilungsfunktionen 8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr