MCMC - Simulation. Seminar für Finanz- und Versicherungsmathematik Wintersemester 2015/16. e
|
|
- Paulina Kranz
- vor 6 Jahren
- Abrufe
Transkript
1 MCMC - Simulation Seminar für Finanz- und Versicherungsmathematik Wintersemester 2015/16 Betreuer Dr. Stefan Gerhold Autor Christoph Müller e
2 Inhaltsverzeichnis 1 MCMC und die Kryptographie 3 2 Einführung in die Theorie der Markovketten 5 3 MCMC-Simulationen 10 4 Hard disk in a box 13 5 Mathematische Ausführung 15 6 MCMC in der Statistik 17 7 Zusammenfassung und Schlussfolgerung 20 8 Literaturverzeichnis 21 9 Abbildungsverzeichnis 22 1
3 Einleitung Simulationen sind in der Mathematik nicht mehr wegzudenken. Viele komplexe Fragestellungen können nur numerisch berechnet werden. Die folgende Arbeit wird sich mit der MCMC- Simulation beschäftigen. Durch die Einteilung der mathematischen Fragestellung in Zustände, welche mit zufälligen Wahrscheinlichkeiten wechseln, wird versucht das Problem auf Markovketten zu transferieren. Mit Hilfe des Gesetzes der großen Zahlen kann mit zunehmender Stichprobeanzahl ein genaueres Ergebnis erzielt werden. Zunächst werde ich ein Beispiel zur Anwendung dieser Methode geben und anschließend auf die Theorie und das Themengebiet genauere eingehen. 2
4 1 MCMC und die Kryptographie Zuerst gibt es einen kurzen Abstecher in die Kryptographie, um mit der MCMC-Simulation vertraut zu werden. In der Kryptographie ist das Ziel verschlüsselte Texte zu entschlüsseln. Es soll versucht werden dieses Problem mathematisch zu lösen. Hier ein Beispiel. Abbildung 1.1: Verschhlüsselter Text Um folgenden Text zu entschlüsseln benötigt man eine Funktion f mit: f : {coded} {decoded} welche für alle Zeichen im verschlüsselten Text Buchstaben oder Satz- und Sonderzeichen zurückgibt, wobei diese zwei Gruppen fortan als Symbole deklariert werden. Um dieses Problem zu lösen ist zunächst eine Statistik von Nöten. Man nimmt sich ein Standardliteraturwerk und zählt alle Eins-zu-Eins Übergänge von Symbolen. Man startet mit dem ersten Buchstaben des Alphabets und zählt wie oft im Text ein A nachgestellt ist. Dies wird für alle Symbolkombinationen durchgeführt und anschließend eine Matrix erstellt, welche so angeordnet ist, dass die Anzahl von dem Startsymbol in der Zeile aufgeschrieben sind. Es entsteht eine Übergangsmatrix von Eins-zu-Eins Übergängen. Man erhält eine quadratische Matrix A Nn n. In der deutschen Sprache ist die Dimension dieser Matrix sehr groß, da man Groß- und Kleinbuchstaben unterscheiden muss sowie alle Satz- und Sonderzeichen betrachten muss. Dies ist notwendig, da man nicht weiß ob bei der Verschlüsselung Zeichen Groß- und Kleinschreibung vernacchlässigt wurden oder ob die Satz- und Sonderzeichen verschlüsselt wurden. Falls ersichtlich wird, dass Satzzeichen nicht verschlüsselt wurden, könnte das n kleiner gemacht werden. Nun normieren wir die Zeilen der Matrix wie folgt i, j {1,..., n} : b ij = a ij a ij i damit erhalten wir eine stochastische Matrix B R n n, welche die Übergangswahrscheinlichkeit 3
5 der Eins-zu-Eins Übergänge angibt. Die Entschlüsselung erfolgt nach dem Trail-and-Error Prinzip. Deshalb wird eine Möglichkeit benötigt, um festzustellen wie gut eine Entschlüsselung tatsächhlich ist. Da schon eine Übergangsmatrix vorhanden ist, kann diese zur Klassifizierung der Entschlüsselung herangzogen werden. Eine geeignete Funktion wäre W (f) = i B f(si ),f(s i+1 ) wobei s i alle Zeichen des verschlüsselten Textes durchläuft. Nun kann folgender Algorithmus gestartet werden. Wähle ein f Berechne W (f) durch Mischen von Zuordnungen erstelle ein f Berechne W (f ) wenn W (f ) W (f) wähle f = f und starte erneut falls W (f) > W (f ) wirf eine Münze und bei Kopf gehe zu f und bei Zahl bleibe bei f Diese Rückschrittsmöglichkeit ist wichtig, da man damit verhindern kann, dass der Algorithmus nicht in einem lokalen Maximum stecken bleibt sondern das globale Maximum erreichen kann. Der Algorithmus versucht f mittels zufälligen Vertauschungen zu verbessern. Die Laufzeit dieses Algorithmus kann sehr stark schwanken. In den meisten Fällen werden ein paar tausend Durchläufe benötigt, um das globale Maximum zu erreichen. Der in Abbildung 1.1 gezeigte verschlüsselte Text, wird nach Anwendung des Algorithmus entschlüsselt: Abbildung 1.2: Entschlüsselter Text In diesem Fall handelt es sich um ein interessantes Beispiel. Der Text wurde von einem Gefängnisinsassen verschlüsselt und sollte verschickt werden. Die Gefängniswärter konnten den Text abfangen und er wurde nach obriger Methode entschlüsselt. Die Sinnhaftigkeit der Übersetzung kann man leicht erkennen. Der Text ist eine Mischung aus Englisch, Spanisch und einem eigenen Gefängnisjargon. Im folgenden Kapitel wird es eine allgemeine Einführung in die Theorie der Markovketten geben und wichtige Sätze und Definitionen werden formuliert, um das MCMC-Verfahren besser nachvollziehen zu können. 4
6 2 Einführung in die Theorie der Markovketten Definiton 2.1. Sei χ ein endlicher Zustandsraum. Sei (X t ) t N ein zeitdiskreter stochastischer Prozess. Dann ist X t eine Markovkette genau dann, wenn gilt. P (X t+1 = i t+1 X 0 = i 0,..., X t = i t ) = P (X t+1 = i t+1 X t = i t ) Diese Eigenschaft wird als die Markoveigenschaft bezeichnet. Eine wichtige Darstellungsform für Markovketten ist die stochastische Matrix. Definiton 2.2. Sei A R n n. A ist genau dann eine stochastische Matrix, wenn i, j : A ij 0 j : j A ij = 1. Nun lässt sich ein Markovprozess, wie folgt mit einer stochastischen Matrix charakterisieren: Definiton 2.3. Sei χ endlicher Zustandsraum mit χ = n. So beschreibt eine stochastische Matrix A R n n eine Markovkette wobei gilt, dass A ij = P (X t+1 = j X t = i) ist. Einzig eine Startverteilung muss noch angegeben werden, sodass die Markovkette wohldefiniert ist. Um einen wichtigen Satz für die weitere Arbeit einzuführen, braucht man zunächst eine wichtige Eigenschaft. Definiton 2.4. Eine Markovkette X t auf dem Zustandsraum χ heißt irreduzibel genau, dann wenn i, j χ ein s, t N mit s < t existiert, sodass P (X t = j X s = i) > 0. 5
7 Das bedeutet, dass jeder Zustand in endlichen Schritten erreicht werden kann. Ein wichtiger Satz für die Betrachtung der Konvergenz von Markovketten ist der folgende Satz: Satz 2.1. Sei X t eine irreduzible Markovkette auf dem endlichen Zustandsraum χ und A sei die stochastische Matrix welche die Markovkette beschreibt. Dann existiert ein einfacher Eigenwert λ = 1 zur Matrix A. Beweis. Zunächst wird gezeigt, dass Potenzen von stochastischen Matrizen wieder eine stochastische Matrix ist. Wir betrachten nun c ij = (A 2 ) ij = r a ir a rj. Da A eine stochastische Matrix ist sind ihre Einträge nichtnegativ. Daraus folgt auch, dass die Einträge von A 2 nichtnegativ sind. Zu zeigen bleibt noch, dass die Zeilensumme gleich 1 ist. Wir betrachten c ij = a ir a rj = a ir a rj = a ir a rj = 1. j j r r j r j Damit ist gezeigt, dass A 2 stochastisch ist. Analog kann man die Behauptung auch für alle Potenzen von A zeigen. Nach dem Satz von Perron Frobenius weiß man, dass der Spektralradius ein positiver und einfacher Eigenwert ist und er erfüllt die Gleichung ϱ(a) = lim n An 1 n. Wie vorhin gezeigt sind die Potenzen von A stochastisch, damit auch lim n An. Falls für die Matrixnorm nun die Zeilensummennorm gewählt wird ist A n = 1 damit folgt mit dem Satz von Perron Frobenius die Behauptung. Damit folgt, dass ein Eigenvektor zum Eigenwert 1 existiert. Dieser wird im folgenden immer mit π bezeichnet. Für diesen gilt Aπ = π. Zu beachten ist, dass falls man einmal diesen Vektor als Verteilung angibt, verlässt man die Verteilung nicht mehr, da A Aπ = Aπ = π. Dieser Vektor wird als stationäre Verteilung bezeichnet. Eine weitere Eigenschaft, welche die Existenz einer stationären Verteilung impliziert, ist die Detailed-Balance-Eigenschaft. Diese lautet A ij π i = A ji π j. Diese Eigenschaft ist eine Voraussetzung für die Definiton von MCMC-Simuationen. Das wichtigste Resultat das man wir für spätere Konvergenzbetrachtungen benötigen, ist, dass lim n (An ) ij = π j. Dies bedeutet, dass alle Zustände gegen die stationäre Verteilung konvergieren. Das motiviert den folgenden Satz: Satz 2.2. Sei X t eine Markovkette und A die zugehörige Zustandsraum χ endlich. Dann gilt: Übergangsmatrix. Weiters sei der lim n (An ) ij = π j i, j χ. Beweis. Wie zuvor bewiesen, existiert ein Eigenwert λ = 1 und der dazugehörige Eigenvektor π. Der Beweis für die Konvergenz ist das Grundprinzip der Vektoriteration. Bei dieser wird eine beliebige Startverteilung x hergenommen und es wird x 1 = Ax berechnet und iterativ fortgesetzt. Dann konvergiert x t gegen π. Dies ist die Behauptung die zu zeigen ist. Da der Beweis sehr umfangreich ist, wird er in dieser Arbeit nicht behandelt. Er kann im Skriptum Numerische Mathematik A von Lothar Nannen auf Seite 106 nachgeschlagen werden. 6
8 Als nächstes wird die Konvergenz der Markovkette betrachtet. Die Frage ist, wie schnell konvergiert die Markovkette. Dies wird im folgenden Satz behandelt. Für die Norm um die Konvergenz zu betrachten, wird die Norm der Totalen Variation herangezogen. Diese ist wie folgt definiert: A n i π T V = 1 A n ij π j. 2 j Satz 2.3. Sei A Übergangsmatrix und es existiert eine stationäre Verteilung. Dann existieren Eigenvektoren und Eigenwerte, sodass: 4 A n i π 2 T V χ 1 i=0 β 2n i ψ 2 i. Beweis. Wir führen folgendes Skalarprodukt auf dem Raum L 2 (π) ein g, h = x g(x)h(x)π x, wobei L 2 (π) die Menge aller {g : χ R} ist. Dann operiert K auf dem L 2 mit: Ag(x) = y g(y)a xy, nun folgt aus: Ag, h = g(j)a ij, h = i = i = j j j j = g, Ah. g(j)a ij h(i)π i g(j)π j A ij h(i) g(j)π j A ji h(i) i Nun folgt, dass A ein selbstadjungierender Operator ist. Nach dem Spektralsatz folgt nun, dass es eine ONB von Eigenvektoren gibt und es gilt: x χ : Ax = χ 1 i=0 β i x, ψ i ψ i, mit Kψ i = β i ψ i. Nun folgt mit x als das neutrale Element des Vektorraums: weiters sei: A = χ 1 i=0 χ 1 A 2 = π y χ 1 β i ψ i (x)ψ i (y)π(y) = π(y) i=0 i=0 χ 1 β i ψ i (x)ψ i (y)a xy = π y 7 i=0 β i ψ i (x)ψ i (y), β 2 i ψ i (x)ψ i (y),
9 induktiv folgt nun: χ 1 A n (x, y) = π(y) βi n ψ i (x)ψ i (y), i=0 schließlich folgt mit der Cauchy-Schwarz Ungleichung: 4 A n x π 2 T V y (A n xy π y ) 2 χ 1 = βi 2n ψi 2. π y i=0 Man kann nun sehen, dass die Konvergenz von den Eigenwerten und Eigenvektoren abhängt. Falls eine besser Konvergenzrate erreicht werden soll, dann müssen geeignete Manipulationen für die EW und EV gemacht werden. Es ist einfach die Übergangswahrscheinlichkeiten, jedoch die stationäre Verteilung oftmals schwierig zu berechnen. Genau aus diesem Grund wird auf die MCMC-Simulation zurückgegriffen. Die MCMC-Simulation wird im nächsten Kapitel vorgestellt. Zunächst folgt noch eine kurze Einführung in die Theorie der Markovketten auf allgemeinen Zustandsräumen. Bis hierher wurden nur endliche Zustandsräume betrachtet. Um Markovketten zu verallgemeinern, braucht man den Markovkern. Definiton 2.5. Sei Ψ ein beliebiger Raum mit einer σ-algebra F. Ein Kern ist eine Abbildung P : (Ψ, F) [0, 1], welche folgende Eigenschaften erfüllt: P (x, ) ist eine Wahrscheinlichkeit auf (Ψ, F) für alle x Ψ, P (, A) ist eine messbare Funktion für alle A F. Der Markovkern P (x, A) gibt also eine Wahrscheinlichkeit an, mit der man von dem Zustand x zum Ereignis A gelangt. Der Markovkern kann nun wie folgt iteriert werden: P 2 (x, A) = P (z, A)P (x, dz). Diese Gleichung sagt aus, dass man von x nach A in zwei Schritten gelangt, wobei über die Wahrscheinlichkeiten aller möglichen Zwischennzustände z integriert wird. Eine stationäre Verteilung erfüllt dann folgende Gleichung: π(a) = P (x, A)π(dx). Im späteren Verlauf der Arbeit wird diese Verallgemeinerung verwendet, um komplexere Beispiele zu lösen. 8
10 Zur Veranschaulichung sieht man in der nächsten Grafik den Graphen einer Markovkette. Abbildung 2.1: Markovkettengraph Wie man in diesem Graphen sieht, sind die einzelnen Zustände mit einer Übergangswahrscheinlichkeit verbunden. Diese Markovkette ist auch irreduzibel, da es keine getrennte Kommunikationsklasse gibt. Die Übergangsmatrix würde wie folgt lauten: A = Man sieht, dass die Zeilensumme immer 1 beträgt. Da sie irreduzibel ist, existiert die stationäre Verteilung. Die stationäre Verteilung ist π = (0.22, 0.4, 0.38). Im nächsten Kapitel wird der MCMC-Algorithmus eingeführt. 9
11 3 MCMC-Simulationen In diesem Kapitel werden die MCMC-Simulationen eingeführt und Motivation und Beispiele behandelt. MCMC steht für Markov-Chains-Monte-Carlo. Die MCMC-Simulation wird verwendet um eine Markovkette zu erzeugen, welche eine gewünschte Wahrscheinlichkeitsverteilung als stationäre Verteilung hat. Diese erzeugten Markovketten erfüllen alle die Detailed-Balance- Eigenschaft, welche im vorigen Kapitel vorgestellt wurde. Die Eigenschaft impliziert die Existenz einer stationären Verteilung. Wir betrachten nun einen Metropolis-Hastings-Algorithmus: Satz 3.1. Sei χ ein endlicher Zustandsraum und π(x) eine Wahrscheinlichkeit. Sei A xy die Übergangsmatrix einer Markovkette auf χ mit A xy > 0 A yx > 0. Sei B xy := min{1, πyayx π xa xy }. Dann sei { Axy B xy für x y K xy := J xy + A xz (1 B xz ) für x = y. z Dann erfülle K xy folgende Gleichung: π x K xy = π y K yx Beweis. für x = y trivial erfüllt. Für x y sei obda B yx = 1 (ansonsten ist B xy = 1) π x K xy = π x A xy π ya yx π xa xy = π y A yx = π y K yx. Nun sieht man, dass wir Markovkette, die anfangs keine Relation zu der stationären Verteilung hatte, zu einer neuen Markovkette umgewandelt wurde, welche die gewünschte stationäre Verteilung aufweist. Zunächst wird auf die Entstehung und die Motivation des Metropolisalogrithmus und des Metropolis-Hastings-Algorithmus eingegangen. Der Metropolisalogrithmus geht auf Nicholas Metropolis zurück veröffentlichte dieser eine Puplikation, in welcher er Markovketten verwendete um eine Boltzmann-Verteilung zu generieren. Er stellte folgenden Algorithmuus auf: Man startet im Ort x i, wobei dies den Ortsvektor nach dem i-ten Iterationsschritt bezeichnet. Es wird ein neuer Ort y vorgeschlagen welcher folgende Gleichung erfüllt y = x i + rq i wobei r fester Suchradius ist und q ein Zufallsvektor mit q(i) [ 1, 1] i. Nun wird die Energiedifferenz E = E(y) E(x i ) berechnet. Falls die Energiedifferenz E 0 wird y als neuer Ort akzeptiert ( ) und x i+1 = y. ansonsten wird y mit Wahrscheinlichkeit p := min(1, exp E κt ), wobei T die Temperatur des Systems und κ die Boltzmannkonstante ist, akzeptiert. 10
12 Dieser Algorihtmus generiert eine stationäre Verteilung welche der Boltzman-Verteilung entspricht. In der nächsten Grafik sieht man eine Boltzman-Verteilung: Abbildung 3.1: Boltzmann-Verteilung Wie man sieht ist die Boltzmann-Verteilung für niedrigere Temperaturen nach links gestaucht. W. Keith Hastings verallgemeinerte diesen Algorithmus, in dem er die Vorschlagsdichte P (x y) W (y)p (x y) generiert, welche Vorschläge mit Wahrscheinlichkeit p = min(1, W (x)p (y x)) akzeptiert und auch vom nächsten Zustand abhängig ist. Wobei W ( ) eine beliebige Wahrscheinlichkeitsverteilung ist. Nun wird wieder der in Satz 3.1 definierte Algorithmus herangezogen. Es wurde gezeigt, dass die Detailed-Balance-Eigenschaft gilt. Desweitern folgt nun, dass (πk) y = π x K xy = π y K yx = π y K yx = π y, x x x damit folgt, dass π der Linkseigenvektor zu K ist. Damit folgt mit Satz 2.1 und 2.2, dass die durch den Algorithmus erzeugte Markovkette K gegen die stationäre Verteilung konvergiert. Dies angewendet auf das Kryptographiebeispiel im 1. Kapitel ergibt folgenden Algorithmus. Zuvor benötigt man noch ein paar Eigenschaften. Sei χ die Menge aller Eins-zu-Eins Übergänge vom Raum der verschlüsselten Zeichen zum Raum der Symbole. Die stationäre Verteilung hat folgende Form: π(f) = z 1 i B(f(s i ), (f(s i+1 )), wobei z der Normierungsfaktor ist. M ist die Matrix der Einschrittübergänge der Sprache die für das Enschlüsseln verwendet wird. Der Normierungsfaktor lautet wie folgt: z = B(f(s i ), (f(s i+1 )). f i 11
13 Es wird über alle möglichen Enschlüsselungsfunktionen f summiert. Dies macht die Bestimmung von z fast unmöglich. Ein weiteres Problem stellt die Größe des Zustandsraums χ dar. Diese zwei Problematiken versucht man mit der MCMC-Simulation zu umgehen. Sei nun die Mächtigkeit der Menge aller Eins-zu-Eins Übergänge im verschlüsselten Text gleich m und Mächtigkeit der Menge aller Eins-zu-Eins Übergänge der Symbole gleich n mit n m. Dann ist χ = n(n 1)... (n m + 1). Diese Zahl kann sehr groß werden, falls beispielsweise m = n = 50 ist. Für den Algorithmus generiert man J(f, f ) was einen zufälligen Tausch von zwei Symbolen darstellt. Damit folgt: J(f, f ) := { 1 n(n 1)(m n+2)(m n+1) wenn f, f sich in maximal zwei Stellen unterscheiden 0 sonst. Aufgrund von J(f, f ) = J(f, f) folgt für die Akzeptierwahrscheinlichkeit, dass B(f, f ) = ist. π(f ) π(f) 12
14 4 Hard disk in a box In diesem Kapitel wird eine weitere Anwendung für das MCMC-Verfahren gezeigt. Bei Hard disk in a box gibt es folgende Ausgangssituation. Sei n die Anzahl der Scheiben mit Radius r in dem Einheitsquadrat. Es wird nun versucht die Teilchenbewegung mithilfe des MCMC- Algorithmus zu beschreiben. Dies wird wie folgt gemacht: Man startet mit x τ(n, r). Man nehme nun den Mittelpunkt einer Scheibe mit Wahrscheinlichkeit 1 n. Nun wird ein Punkt im Radius h ausgewählt. Verschiebe den Mittelpunkt zu dem Punkt. Falls diese neue Position in τ(n, r) liegt so akzeptiere diese Bewegung. Wobei τ(n, r) die Topologie der möglichen Positionen der Scheiben ist. Das Problem ist das Wählen einer uniform-verteilten Stichporbe von x τ(n, r). Dieser Algorithmus verschiebt zufällig Koordinaten. Falls nun X 1, X 2,... die erfolgreichen Positionen sind so wird, X k für kleine k und r uniform-verteilt sein. Für große k kann man eine Funktion f mit f : τ(n, r) R finden, wobei man τ(n,r) f(x)dx mit 1 k k f(x k ) i=1 approximieren kann. Um dieses f sinnvoll zu bestimmen, muss zunächst die Frage gestellt werden, wie diese aussehen können. Die Motivation für dieses Beispiel kommt von der Betrachtung von Phasendiagrammen. Diese geben den Verlauf der Aggregatzustände im Verhältnis zu Druck und Temperatur an. Ein solches sieht man in folgender Abbildung: Abbildung 4.1: Phasendiagramm 13
15 Diese Phasendiagramme sind bereits in der Forschung intensiv analysiert worden. Es gibt eine Kurve endlicher Länge zwischen dem flüssigen und gasförmigen Zustand, welche im Tripletpunkt startet. An diesem coexistieren alle drei Zuständ. Der Endpunkt dieser Kurve ist der kritische Punkt. Man kann eine gegen Unendlich laufende fest-flüssig Kurve erkennen. Eine interessante Folgerung dieses Phasendiagramms ist, dass egal welche Temperatur vorgegeben wird, man mit dem richtigen Druck eine fest-flüssige Transformation, oder umgekehrt erzeugen kann. Ab einem gewissen Druck sind die starken innermolekularen abstoßenden Kräfte nicht mehr relevant. In der nächsten Grafik sieht man wie die Scheibenverteilung bei gewissen Druck aussieht. Abbildung 4.2: Scheibenverteilung η bezeichnet die dynamische Viskosität. Dies entspricht Druck in einer Zeiteinheit. Je höher diese ist, desto höher ist der Druck. Man sieht nun, dass für höheren Druck die Scheiben eine Gitterform annehmen. Eine sinnvolle Funktion f welche oben gesucht wurde, lässt sich nun aufgrund der Gitterstruktur darstellen. Diese lautet: f(x) = 1 N 1 e 6iθ jk N N, j j=1 k wobei über die Anzahl N summiert wird. N j ist die Anzahl der Nachbarn der j-ten Scheibe. θ jk ist der Winkel zwischem der j-ten und k-ten Scheibe. Werte für diese Funktion können mit Simulationen erzeugt werden. Im nächsten Abschnitt wird dieses Problem mathematisch genauer ausgeführt. 14
16 5 Mathematische Ausführung Zunächst sei Ω R n ein verbundenes offenes Gebiet. p (x) > 0 x Ω und z= Ω p (x)dx <. Dann ist z 1 die Normierungskonstante und p (x) = z 1 p(x). Dieser Normmierungsfaktor ist schwierig zu bestimmen. Deshalb sollte man einen MCMC-Algorithmus finden, bei dem man nicht z berechnen muss. Eine Möglichkeit wäre folgender Algoritmus: Starte in x und wähle y A(h) wobei A eine messbare Menge ist und A Ω wobei Ω ein Lipschitzgebiet ist. Berechne p(y). falls p(y) p(x) dann gehe zu y. falls p(y) < p(x) gehe nach y mit Wahrscheinlichkeit p(y) p(x). andernfalls bleibe in x. Dieser Algoritmus setzt nicht voraus, dass man z direkt bestimmen muss. Da auf allgemeinen Räumen gearbeitet wird, muss ein Markovkern aufgestellt, welcher den Übergang von x 1 zu y darstellt. Dafür müssen einige Dinge beachtet werden. Sei φ(z) = V (A(h)) δ A(h), sodass φ(z)dz = 1. Sei p eine positiv beschränkte Funktion mit p(z)dz = 1. Für h [0, 1] gilt nun, dass: ( ) ( ) x y p(y) K h,p (x, y) = h d φ min h p(x), 1. Nun lässt sich der Markovkern durch folgende Gleichung darstellen: P (x, dy) = m(x)δ x + K h,p (x, y)δ y dy, wobei m(x) = 1 Ω Ω K h,p (x, y)dy. Falls man nun alles einsetzt, so kommt man schließlich auf folgenden Kern: mit P (x, dy) = m(x)δ x + h d V (A(h)) δ A(h) Rd h d m(x) = 1 V (A(h)) δ A(h) ( x y h ( x y h Ω ) ( ) p(y) min p(x), 1 dy ) ( ) p(y) min p(x), 1 dy, wobei h der Radius ist, in welchem y zu x liegt. δ x ist die Dichte am Ort x und V (A(h)) ist das Volumen von A(h). Nun kann der Algorithmus wie folgt dargestellt werden. 15
17 Wähle X 0 = x A(h) wähle X 1 P (X 0, dy) wähle X 2 P (X 1, dy). Damit folgt aus Def. 2.5, dass P (X 2 B) = P (z, B)P (x, dz) R d iterativ folgt dann weiters P (X k B) = P (z, B)P k 1 (x, dz) R d für geeignete h konvergiert nun P (X k B) gegen B p(y)dy. Der Algorithmus hat eine Konvergenzrate die man wie folgt darstellen kann: P (X k B) p(y)dy c 1 e c 2kh 2, B wobei p(x) beschränkt sein muss und B Teilmenge eines Lipschitzgebietes ist. c 1, c 2 sind positive Zahlen. Den Beweis für diese Abschätzung kann man in der Ausarbeitung Geometric Analysis for the Metropolis Algorithm on Lipschitz Domains von Persi Diaconis, Gilles Lebeau und Laurent Michel nachlesen. 16
18 6 MCMC in der Statistik Simulationen sind eine häufig verwendete Methode zur Erzeugung von Zufallszahlen. In der Statistik ist die Manipulation von Stichproben und Betrachtung ihrer Verteilungsfunktionen ein zentrales Thema. Es gibt einige Möglichkeiten solche Zufallszahlen zu erzeugen. Methoden dafür sind die Inversionsmethode, oder das Box-Muller-Verfahren. In diesem Kapitel soll das sogenannte Gibbs-Sampling betrachten werden. Das Gibbs-Sampling geht auf die Mathematiker S. und D. German zurück. Benannt wurde es nach dem amerikanischen Physiker J. W. Gibbs. Nachstehend folgt eine kurze Einführung in die Bayes-Statistik. Definiton 6.1. A-priori Verteilung: Die Verteilung einer sg X f(x; θ) wobei θ Θ. In der Bayes-Statistik wird der Faktor θ nicht als fester unbekannter Parameter betrachtet, sondern als Realisation der sg θ mit der Dichte h(θ). Diese wird als A-priori Dichte bezeichnet und dementsprechend erhält man durch Integration die A-priori Verteilung. Definiton 6.2. Sei X = (X 1, X 2,..., X n ) eine Stichprobe von X f(x; θ) so ist die bedingte Dichte von X θ = θ gleich f(x θ) = f(x i θ). Dann ist die gemeinsame Dichte von X und θ i g(x, θ) = f(x θ)h(θ). Die Randdichte ist dann wie folgt definiert g 1 (x) = g(x, θ)dθ = f(x θ)h(θ)dθ. Definiton 6.3. A-posteriori Verteilung: Sei die Randdichte wie oben, dann ist die A-posteriori Dichte definiert als k(θ x) = f(x θ)h(θ) g 1 (x) f(x θ)h(θ) =. f(x θ)h(θ)dθ Die A-posteriori Verteilung ist also asymptotischverteilt nach der Likelihoodfunktion mal der A-priori Verteilung. Zunächst wird ein kleines Motivationsbeispiel für Gibbs-Sampling gezeigt. Sei X f X (x) und Y f Y (y). Es wird angenommen, dass die Simulation der Beobachtungen von X schwierig ist, jedoch die von Y und X Y=y aber nicht. 17
19 Dann kann man dieses Problem umgehen indem man: Erzeuge Y f Y (y). Erzeuge X f X Y (x Y = y). Das erzeugte X hat die Dichte f X (x). Die Behauptung folgt aus: P (X t) = E(F X Y (t)) = = = = t t t t f X Y (x y)dx f Y (y)dy f X Y (x y)f Y (y)dy dx f X,Y (x, y)dy dx f X (x)dx. Nun kann man den Erwartungswert einer Funktion W = g(x) von X bestimmen. Man erzeugt zunächst Paare (X 1, Y 1 ),..., (X m, Y m ) und es gilt nach dem Gesetz der großen Zahlen: W = 1 m g(x i ) P E(g(X)). m i=1 Das Gibbs-Sampling hat ein ähnliches Prinzip. Für Erzeugung von sg nach f(x,y) werden wechselweise Beobachtungen von f(x y) und f(y x) herangezogen. Nun wird der bivariante Fall des Gibbs-Samplings betrachtet: Erzeugung des Startwerts (x 0, y 0 ) für i=0. Erzeuge X i+1 f(x y i ). Erzeuge Y i+1 f(y x i+1 ). i=i+1 und wiederhole. Die Paare (X 1, Y 1 ),..., (X m, Y m ) bilden eine Markovkette, da P [(X i, Y i ) = (i i, j i ) (X i 1, Y i 1 ) = (i i 1, j i 1 ),..., (X 1, Y 1 ) = (i 1, j 1 )] = P [(X i, Y i ) = (i i, j i ) (X i 1, Y i 1 ) = (i i 1, j i 1 )]. Also ist das Paar (X i, Y i ) nur von dem vorherigen Paar (X i 1, Y i 1 ) abhängig. Für i folgt nun für die Gibbs-Sampler: X i Y i D fx (x), D fy (y). Die Konvergenzgeschwindigkeit für die Kette kann stark varieren. Üblicherweise wird zur Schätzung zunächst die ersten m Elemente nicht verwendet und dann erst die nächsten n-m Paare. Dies wird als Einbrennen der Kette bezeichnet. Der Grund dafür ist, dass diese Paare sich anfangs noch stark von der stationären Verteilung unterscheiden können. Je mehr Schritte der Algorithmus läuft, desto besser wird die stationäre Verteilung erreicht. Deshalb lässt man die ersten m Paare weg, da diese die größte Varianz zur stationären Verteilung besitzen. Demnach ist ein geeigneter Schätzer für den Erwartungswert von X: Ē(X) = 1 n m n X i i=m+1 P E(X). 18
20 Für die Randdicht würde sich dann folgender Schätzer anbieten: f X (x) = 1 n m n i=m+1 f(x y i ). Dieser bivariante Sampler kann einfach auf einen mehrdimensionalen Fall erweitert werden. Die Hauptanwendung für den Gibbs-Sampler in der Bayes-Statistik, ist das sogenannte hierachische Modell. Bei diesem gibt es folgende Problemstellung. Da die A-priori Verteilung einen großen Einfluss auf die Ereignisse hat, versucht man eine sg zu finden, welche die A-priori Verteilung modelliert. Das Modell sieht wie folgt aus: X θ f(x θ), θ γ h(θ γ), γ ψ(γ). Der Hilfsparameter γ wird als Hyperparameter bezeichnet. In diesem Fall sehen die Gibbs- Sampler wie folgt aus: θ i x, γ i 1 g(θ x, γ i 1 ), γ x, θ i g(γ x, θ i ). Für die Grenzwerte dieser Gibbs-Sampler gilt nun: 1 n n i=1 θ i γ i D k(θ x), D g(γ x), u( θ i ) P E(u( θ) x). Nach dem Einbrennen der Markovkette schätzt man dann den Erwartungswert von u( θ) wie folgt ab: 1 n m n u(θ i ), n > m. i=1 19
21 7 Zusammenfassung und Schlussfolgerung Markovketten sind mathematische Modelle, welche für zufallsbedingte Ereigniswechsel eine gute Approximation liefern. Ihre Theorie ist gut erforscht und dadurch ist es leicht diese anzuwenden. Es ist oft eine Erleichterung eine komplexe Fragestellung auf Markovketten transformieren zu können. MCMC-Simulationen nutzen die Theorie der Markovketten aus und versuchen diese zum Lösen von komplexen Aufgabenstellungen zu verwenden. Die Anwendung der MCMC-Simulation ist weit gefächert. In dieser Arbeit wurde bewiesen, dass sie zur Entschlüsselung von Texten verwendet werden können. MCMC kann jedoch auch verwendet werden, um Teichlenbewegung und deren resultierenden Zustände zu beschreiben. Deshalb findet dieses Verfahren auch in der Thermodynamik Verwendung. Man könnte auch andere physikalische Phänomene damit zu beschreiben versuchen,z.b. Ladungsverteilung in elektrischen Bauteilen. Naheliegend ist die Anwendung in der Statistik. Das Gibbs-Sampling ist eine der wichtigsten Methoden zur Erzeugung von Stichproben in der Bayes-Statistik. Die MCMC-Simulation hat wie man sieht eine große Bedeutung in der Mathematik und der Physik. 20
22 8 Literaturverzeichnis [1] Diaconis, Persi; Lebeau, Gilles; Michel, Laurent; Geometric Analysis for the Metropolis Algorithm on Lipschitz Domains. [2] Waldmann, K.-H., 2013; Stochastische Modelle Eine anwendungsorientierte Einführung. [3] Diaconis, Persi, 2009; The Markov Chain Monte Carlo Revolution. [4] Neal, Radford M., 2011; MCMC using Hamiltonian dynamics. [5] Zeuner, Michelle, 2011; Die Monte-Carlo-Methode. [6] Robert, C. P., Casella, G., 2004; Monte Carlo Statistical Methods. [7] Beichl, Isabel, 2000; The Metropolis Algorithm. [8] Schomaker, Jens; Einführung in die Theorie der Markov-Ketten. [9] Spellecchia, Claudia, 2008; MCMC. [10] Gurker, Werner, Version 2015; Angewandte Mathematische Statistik. 21
23 9 Abbildungsverzeichnis Abbildung 1.1: Verschlüsselter Text; Diaconis, Persi; The Markov Chain Monte Carlo Revolution. Abbildung 1.2: Entschlüsselter Text; Diaconis, Persi; The Markov Chain Monte Carlo Revolution. Abbildung 2.1: Markovkettengraph; URL: Abbildung 3.1: Boltzmann-Verteilung; URL: Abbildung 4.1: Phasendiagramm; URL: phasendiagramm.html, Abbildung 4.2: Scheibenverteilung; Diaconis, Persi; The Markov Chain Monte Carlo Revolution. 22
Stochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrDer Ergodensatz. Hendrik Hülsbusch
Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen
MehrEndliche Markov-Ketten - eine Übersicht
Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und
Mehr13 Mehrdimensionale Zufallsvariablen Zufallsvektoren
3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem
Mehr3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit
3. Gemeinsame und bedingte Verteilung, stochastische Unabhängigkeit Lernziele dieses Kapitels: Mehrdimensionale Zufallsvariablen (Zufallsvektoren) (Verteilung, Kenngrößen) Abhängigkeitsstrukturen Multivariate
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrAnalysis I. Guofang Wang Universität Freiburg
Universität Freiburg 30.11.2016 5. Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,..., x n ) : x i R} = } R. {{.. R }. n mal Für x R ist x der Abstand zum
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrMCMC. Ausarbeitung zum Seminar: The Top 10 Algorithms. Claudia Spellecchia Dübendorf, Schweiz Matrikelnummer
MCMC Ausarbeitung zum Seminar: The Top 10 Algorithms Claudia Spellecchia Dübendorf, Schweiz claudisp@student.ethz.ch Matrikelnummer 04-722-583 Abgabe der Arbeit: 13.03.2008 INHALTSVERZEICHNIS 1 Inhaltsverzeichnis
MehrVarianz und Kovarianz
KAPITEL 9 Varianz und Kovarianz 9.1. Varianz Definition 9.1.1. Sei (Ω, F, P) ein Wahrscheinlichkeitsraum und X : Ω eine Zufallsvariable. Wir benutzen die Notation (1) X L 1, falls E[ X ]
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
MehrWahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrKapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Mehr0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5
4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
Mehr5 Teilmengen von R und von R n
5 Teilmengen von R und von R n Der R n ist eine mathematische Verallgemeinerung: R n = {x = (x 1,...,x n ) : x i R} = R }... {{ R }. n mal Für x R ist x der Abstand zum Nullpunkt. Die entsprechende Verallgemeinerung
MehrIterative Verfahren, Splittingmethoden
Iterative Verfahren, Splittingmethoden Theodor Müller 19. April 2005 Sei ein lineares Gleichungssystem der Form Ax = b b C n, A C n n ( ) gegeben. Es sind direkte Verfahren bekannt, die ein solches Gleichungssystem
MehrEin Zustand i mit f i = 1 heißt rekurrent. DWT 2.5 Stationäre Verteilung 420/476 c Ernst W. Mayr
Definition 140 Wir bezeichnen einen Zustand i als absorbierend, wenn aus ihm keine Übergänge herausführen, d.h. p ij = 0 für alle j i und folglich p ii = 1. Ein Zustand i heißt transient, wenn f i < 1,
MehrKapitel 8: Zufallsvektoren
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse 03.12.2015 Kapitel 8: Zufallsvektoren Statt einem Merkmal werden häufig mehrere Merkmale gleichzeitig betrachtet, z.b. Körpergröße und
Mehr6. Übungsblatt zur Einführung in die Stochastik
Fachbereich Mathematik Prof. Dr. Michael Kohler Dipl.-Math. Andreas Fromkorth Dipl.-Inf. Jens Mehnert SS 9 1.6.29 6. Übungsblatt zur Einführung in die Stochastik Aufgabe 22 Sei P ein auf der Borelschen
MehrKAPITEL 1. Einleitung
KAPITEL 1 Einleitung Wir beschäftigen uns in dieser Vorlesung mit Verfahren aus der Numerischen linearen Algebra und insbesondere dem sogenannten Mehrgitterverfahren zur Lösung linearer Gleichungssysteme
Mehr4. Verteilungen von Funktionen von Zufallsvariablen
4. Verteilungen von Funktionen von Zufallsvariablen Allgemeine Problemstellung: Gegeben sei die gemeinsame Verteilung der ZV en X 1,..., X n (d.h. bekannt seien f X1,...,X n bzw. F X1,...,X n ) Wir betrachten
MehrKonvergenz im quadratischen Mittel - Hilberträume
CONTENTS CONTENTS Konvergenz im quadratischen Mittel - Hilberträume Contents 1 Ziel 2 1.1 Satz........................................ 2 2 Endlich dimensionale Vektorräume 2 2.1 Defintion: Eigenschaften
MehrDas Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
MehrSeminar Gewöhnliche Differentialgleichungen
Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden
Mehr2.1 Importance sampling: Metropolis-Algorithmus
Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem
MehrWenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }
A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
MehrLineare Algebra II 8. Übungsblatt
Lineare Algebra II 8. Übungsblatt Fachbereich Mathematik SS 11 Prof. Dr. Kollross 1./9. Juni 11 Susanne Kürsten Tristan Alex Gruppenübung Aufgabe G1 (Minitest) Sei V ein euklidischer oder unitärer Vektorraum.
MehrWichtige Definitionen und Aussagen
Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge
MehrMusterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II. x 2
Musterlösung zu den Übungen zur Vorlesung Mathematik für Physiker II Wiederholungsblatt: Analysis Sommersemester 2011 W. Werner, F. Springer erstellt von: Max Brinkmann Aufgabe 1: Untersuchen Sie, ob die
Mehrx, y 2 f(x)g(x) dµ(x). Es ist leicht nachzuprüfen, dass die x 2 setzen. Dann liefert (5.1) n=1 x ny n bzw. f, g = Ω
5. Hilberträume Definition 5.1. Sei H ein komplexer Vektorraum. Eine Abbildung, : H H C heißt Skalarprodukt (oder inneres Produkt) auf H, wenn für alle x, y, z H, α C 1) x, x 0 und x, x = 0 x = 0; ) x,
MehrWahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom
Institut für Stochastik WS 009/10 Karlsruher Institut für Technologie (KIT) Dr. B. Klar Klausur Wahrscheinlichkeitstheorie und Statistik für Studierende des Maschinenbaus vom 08.0.010 Musterlösungen Aufgabe
Mehr2 Zufallsvariable, Verteilungen, Erwartungswert
2 Zufallsvariable, Verteilungen, Erwartungswert Bisher: Zufallsexperimente beschrieben durch W-Räume (Ω, A, P) Häufig interessiert nur eine zufällige Größe X = X(ω), die vom Ergebnis ω des Zufallsexperiments
Mehr51 Numerische Berechnung von Eigenwerten und Eigenvektoren
5 Numerische Berechnung von Eigenwerten und Eigenvektoren 5. Motivation Die Berechnung der Eigenwerte einer Matrix A IR n n als Lösungen der charakteristischen Gleichung (vgl. Kapitel 45) ist für n 5 unpraktikabel,
Mehr7 Lineare Abbildungen und Skalarprodukt
Mathematik II für inf/swt, Sommersemester 22, Seite 121 7 Lineare Abbildungen und Skalarprodukt 71 Vorbemerkungen Standard Skalarprodukt siehe Kap 21, Skalarprodukt abstrakt siehe Kap 34 Norm u 2 u, u
MehrLösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK)
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK (STOCHASTIK) für Studierende des Maschinenbaus vom 7. Juli (Dauer: 8 Minuten) Übersicht über die
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
MehrZusammenfassung der Lebesgue-Integrationstheorie
Zusammenfassung der Lebesgue-Integrationstheorie Das Lebesguesche Integral verallgemeinert das Riemannsche Integral. Seine Vorteile liegen für unsere Anwendungen vor allem bei den wichtigen Konvergenzsätzen,
MehrI Grundbegriffe 1 1 Wahrscheinlichkeitsräume Bedingte Wahrscheinlichkeiten und Unabhängigkeit Reellwertige Zufallsvariablen...
Inhaltsverzeichnis I Grundbegriffe 1 1 Wahrscheinlichkeitsräume......................... 1 2 Bedingte Wahrscheinlichkeiten und Unabhängigkeit........... 7 3 Reellwertige Zufallsvariablen........................
MehrBeispiel 6 (Einige Aufgaben zur Gleichverteilung)
Beispiel 6 (Einige Aufgaben zur Gleichverteilung) Aufgabe (Anwendung der Chebyshev-Ungleichung) Sei X eine Zufallsvariable mit E(X) = µ und var(x) = σ a) Schätzen Sie die Wahrscheinlichkeit dafür, daß
MehrWahrscheinlichkeitstheorie und Statistik vom
INSTITUT FÜR STOCHASTIK SS 2007 UNIVERSITÄT KARLSRUHE Priv.-Doz. Dr. D. Kadelka Dipl.-Math. oec. W. Lao Klausur (Maschineningenieure) Wahrscheinlichkeitstheorie und Statistik vom 2.9.2007 Musterlösungen
MehrKlausur Stochastik und Statistik 31. Juli 2012
Klausur Stochastik und Statistik 31. Juli 2012 Prof. Dr. Matthias Schmid Institut für Statistik, LMU München Wichtig: ˆ Überprüfen Sie, ob Ihr Klausurexemplar vollständig ist. Die Klausur besteht aus fünf
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrEinführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge zu Übungsblatt 4
TUM, Zentrum Mathematik Lehrstuhl für Mathematische Physik WS 3/4 Prof. Dr. Silke Rolles Thomas Höfelsauer Felizitas Weidner Tutoraufgaben: Einführung in die Wahrscheinlichkeitstheorie Lösungsvorschläge
MehrDie Mathematik hinter Google
Die Mathematik hinter Google Informationstag für Gymnasiastinnen und Gymnasiasten Universität Fribourg (Schweiz) georges.klein@unifr.ch Fribourg, 24. November 2010 georges.klein@unifr.ch Die Mathematik
MehrC orthogonal und haben die Länge 1). Dann ist die Länge von w = x u + y v gegeben durch w 2 Def. = w,w =
1 v Die Länge Def. Sei (V,, ) ein Euklidscher Vektorraum. Für jeden Vektor v V heißt die Zahl v,v die Länge von v und wird v bezeichnet. Bemerkung. Die Länge des Vektors ist wohldefiniert, da nach Definition
MehrKapitel VII - Funktion und Transformation von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel VII - Funktion und Transformation von Zufallsvariablen Markus Höchstötter Lehrstuhl
MehrArbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute
3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.
MehrSimulation von Zufallsvariablen und Punktprozessen
Simulation von Zufallsvariablen und Punktprozessen 09.11.2009 Inhaltsverzeichnis 1 Einleitung 2 Pseudozufallszahlen 3 Punktprozesse Zufallszahlen Definition (Duden): Eine Zufallszahl ist eine Zahl, die
MehrSimulationsmethoden in der Bayes-Statistik
Simulationsmethoden in der Bayes-Statistik Hansruedi Künsch Seminar für Statistik, ETH Zürich 6. Juni 2012 Inhalt Warum Simulation? Modellspezifikation Markovketten Monte Carlo Simulation im Raum der Sprungfunktionen
MehrDer n-dimensionale Raum
Der n-dimensionale Raum Mittels R kann nur eine Größe beschrieben werden. Um den Ort eines Teilchens im Raum festzulegen, werden schon drei Größen benötigt. Interessiert man sich für den Bewegungszustand
MehrWahrscheinlichkeit und Statistik: Zusammenfassung
HSR Hochschule für Technik Rapperswil Wahrscheinlichkeit und Statistik: Zusammenfassung beinhaltet Teile des Skripts von Herrn Hardy von Lukas Wilhelm lwilhelm.net 12. Januar 2007 Inhaltsverzeichnis 1
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr9 Eigenwerte und Eigenvektoren
92 9 Eigenwerte und Eigenvektoren Wir haben im vorhergehenden Kapitel gesehen, dass eine lineare Abbildung von R n nach R n durch verschiedene Darstellungsmatrizen beschrieben werden kann (je nach Wahl
Mehr2 Zufallsvariablen und deren Verteilungen
2 Zufallsvariablen und deren Verteilungen 2.1 Zufallsvariablen Zufallsvariablen sind Funktionen von Ω in die reellen Zahlen R. Beispiel 2.1.1 (Zweimaliger Münzwurf). Ω = ZZ, KK, KZ, ZK}. Sei X(ω) die Anzahl
MehrDie n-dimensionale Normalverteilung
U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung
MehrReelle Zufallsvariablen
Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen
MehrMathematische Grundlagen für die Vorlesung. Differentialgeometrie
Mathematische Grundlagen für die Vorlesung Differentialgeometrie Dr. Gabriele Link 13.10.2010 In diesem Text sammeln wir die nötigen mathematischen Grundlagen, die wir in der Vorlesung Differentialgeometrie
Mehr12 Gewöhnliche Differentialgleichungen
2 2 Gewöhnliche Differentialgleichungen 2. Einleitung Sei f : D R wobei D R 2. Dann nennt man y = f(x, y) (5) eine (gewöhnliche) Differentialgleichung (DGL) erster Ordnung. Als Lösung von (5) akzeptiert
MehrBeweis. Bauer (4. Auflage, 1991), S , Hoffmann-Jørgensen, Vol. I, S. 457.
Exkurs A: Bedingte Erwartungswerte, bedingte Verteilungen (Ω, A, P ) sei W-Raum, X : Ω IR P-quasiintegrierbar, F A Unter - σ- Algebra. E(X F) = E P (X F) (Version des) bedingter Erwartungswert von X unterf
MehrEinführung in die Stochastik 6. Übungsblatt
Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.
MehrMonte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf
Monte-Carlo Tests Diplomarbeit Wiebke Werft Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2003 Betreuung: Prof. Dr. Arnold Janssen Inhaltsverzeichnis Einleitung
Mehr9 Metrische und normierte Räume
9 Metrische und normierte Räume Idee: Wir wollen Abstände zwischen Punkten messen. Der Abstand soll eine reelle Zahl 0 sein (ohne Dimensionsangabe wie Meter...). 9.1 Definition Sei X eine Menge. Eine Metrik
MehrStochastik I. Vorlesungsmitschrift
Stochastik I Vorlesungsmitschrift Ulrich Horst Institut für Mathematik Humboldt-Universität zu Berlin Inhaltsverzeichnis 1 Grundbegriffe 1 1.1 Wahrscheinlichkeitsräume..................................
MehrKapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen
Institut für Volkswirtschaftslehre (ECON) Lehrstuhl für Ökonometrie und Statistik Kapitel XII - Kennzahlen mehrdimensionaler Zufallsvariablen Wahrscheinlichkeitstheorie Prof. Dr. W.-D. Heller Hartwig Senska
MehrMathematik für Physiker, Informatiker und Ingenieure
Mathematik für Physiker, Informatiker und Ingenieure Folien zu Kapitel V SS 2010 G. Dirr INSTITUT FÜR MATHEMATIK UNIVERSITÄT WÜRZBURG dirr@mathematik.uni-wuerzburg.de http://www2.mathematik.uni-wuerzburg.de
MehrInexakte Newton Verfahren
Kapitel 3 Inexakte Newton Verfahren 3.1 Idee inexakter Newton Verfahren Wir betrachten weiterhin das nichtlineare Gleichungssystem F (x) = mit einer zumindest stetig differenzierbaren Funktion F : R n
Mehr13 Auswahlaxiom und Zornsches Lemma
13 Auswahlaxiom und Zornsches Lemma Handout zur Funktionalanalysis I von H. Glöckner, 25.11.2008 Wichtige Teile der modernen Mathematik beruhen auf dem sogenannten Auswahlaxiom der Mengenlehre. Dieses
MehrStatistics, Data Analysis, and Simulation SS 2015
Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
Mehr5. Spezielle stetige Verteilungen
5. Spezielle stetige Verteilungen 5.1 Stetige Gleichverteilung Eine Zufallsvariable X folgt einer stetigen Gleichverteilung mit den Parametern a und b, wenn für die Dichtefunktion von X gilt: f x = 1 für
Mehr4.5 Schranken an die Dichte von Kugelpackungen
Gitter und Codes c Rudolf Scharlau 19. Juli 2009 341 4.5 Schranken an die Dichte von Kugelpackungen Schon in Abschnitt 1.4 hatten wir die Dichte einer Kugelpackung, speziell eines Gitters bzw. einer quadratischen
MehrDie Kopplung von Markovketten und die Irrfahrt auf dem Torus
Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis
Mehr7. Die Brownsche Bewegung
7. DIE BROWNSCHE BEWEGUNG 7 5 5 50 00 50 200 250 0 5 20 Abbildung 7.: Pfad einer Brownschen Bewegung 7. Die Brownsche Bewegung Definition 7.. Ein cadlag stochastischer Prozess {W t } mit W 0 = 0, unabhängigen
MehrEinführung und Grundlagen
Kapitel 1 Einführung und Grundlagen Generelle Notation: Ω, A, P sei ein W-Raum im Hintergrund nie weiter spezifiziert Die betrachteten Zufallsvariablen seien auf Ω definiert, zb X : Ω, A M, A, wobei M,
Mehr8. Formelsammlung. Pr[ ] = 0. 0 Pr[A] 1. Pr[Ā] = 1 Pr[A] A B = Pr[A] Pr[B] DWT 8.1 Gesetze zum Rechnen mit Ereignissen 203/467 Ernst W.
8. Formelsammlung 8.1 Gesetze zum Rechnen mit Ereignissen Im Folgenden seien A und B, sowie A 1,..., A n Ereignisse. Die Notation A B steht für A B und zugleich A B = (disjunkte Vereinigung). A 1... A
MehrSeminar Einführung in die Kunst mathematischer Ungleichungen
Seminar Einführung in die Kunst mathematischer Ungleichungen Geometrie und die Summe von Quadraten Clara Brünn 25. April 2016 Inhaltsverzeichnis 1 Einleitung 2 1.1 Geometrie allgemein.................................
MehrMarkov Chain Monte Carlo Verfahren. Helga Wagner Bayes Statistik WS 2010/11 407
Markov Chain Monte Carlo Verfahren Helga Wagner Bayes Statistik WS 2010/11 407 Einführung Simulationsbasierte Bayes-Inferenz erfordert Ziehungen aus der Posteriori- Verteilung MCMC-Verfahren ermöglichen
Mehr11. Folgen und Reihen.
- Funktionen Folgen und Reihen Folgen Eine Folge reeller Zahlen ist eine Abbildung a: N R Statt a(n) für n N schreibt man meist a n ; es handelt sich also bei einer Folge um die Angabe der Zahlen a, a
MehrMarkov-Ketten 1. Definition 2.1
Marov-Ketten Definition 2. Sei P eine -Matrix mit Elementen {P i,j : i, j,...,}. Ein Zufallsprozess (X 0, X,...) mit endlichem Zustandsraum S{s,...,s } heißt homogene Marov-Kette mit Übergangsmatrix P,
Mehr2. Geben Sie für das Jacobi-Verfahren eine scharfe a-priori Abschätzung für den Fehler. x (10) x p
Wiederholungsaufgaben Algorithmische Mathematik Sommersemester Prof. Dr. Beuchler Markus Burkow Übungsaufgaben Aufgabe. (Jacobi-Verfahren) Gegeben sei das lineare Gleichungssystem Ax b = für A =, b = 3.
Mehri j m f(y )h i h j h m
10 HÖHERE ABLEITUNGEN UND ANWENDUNGEN 56 Speziell für k = 2 ist also f(x 0 + H) = f(x 0 ) + f(x 0 ), H + 1 2 i j f(x 0 )h i h j + R(X 0 ; H) mit R(X 0 ; H) = 1 6 i,j,m=1 i j m f(y )h i h j h m und passendem
Mehr40 Lokale Extrema und Taylor-Formel
198 VI. Differentialrechnung in mehreren Veränderlichen 40 Lokale Extrema und Taylor-Formel Lernziele: Resultate: Satz von Taylor und Kriterien für lokale Extrema Methoden aus der linearen Algebra Kompetenzen:
MehrKAPITEL 5. Erwartungswert
KAPITEL 5 Erwartungswert Wir betrachten einen diskreten Wahrscheinlichkeitsraum (Ω, P) und eine Zufallsvariable X : Ω R auf diesem Wahrscheinlichkeitsraum. Die Grundmenge Ω hat also nur endlich oder abzählbar
MehrDWT 1.4 Rechnen mit kontinuierlichen Zufallsvariablen 234/467 Ernst W. Mayr
1.4.2 Kontinuierliche Zufallsvariablen als Grenzwerte diskreter Zufallsvariablen Sei X eine kontinuierliche Zufallsvariable. Wir können aus X leicht eine diskrete Zufallsvariable konstruieren, indem wir
Mehr1 Umkehrfunktionen und implizite Funktionen
Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13
MehrExact Sampling: Der Propp-Wilson-Algorithmus
Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
Mehr2 Zufallsvariable und Verteilungsfunktionen
8 2 Zufallsvariable und Verteilungsfunktionen Häufig ist es so, dass den Ausgängen eines Zufallexperiments, d.h. den Elementen der Ereignisalgebra, eine Zahl zugeordnet wird. Das wollen wir etwas mathematischer
MehrMusterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:
Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
Mehr