2.1 Importance sampling: Metropolis-Algorithmus

Ähnliche Dokumente
Randomisierte Algorithmen

Grundlagen der Monte Carlo Simulation

Lösung von Optimierungsproblemen mit Monte Carlo Methoden

Der Metropolis-Hastings Algorithmus

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

V5: Klassische statistische Mechanik thermodynamische Ensembles

Übungsaufgaben Lösungen

Einführung in Simulationen mit Monte Carlo und Brownscher Dynamik. Martin Oettel Johannes Bleibel

Statistics, Data Analysis, and Simulation SS 2015

Monte Carlo Simulationen zum Phasen und Keimbildungsverhalten von Polymerlösungen

Endliche Markov-Ketten - eine Übersicht

Forschungsmodul: Komplexe Systeme

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

2 Halbgruppen von Übergangswahrscheinlichkeiten. Markov-Prozesse

BZQ II: Stochastikpraktikum

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Methoden der Statistik Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Das Ising-Modell ist ebenso wie das Modell der harten Scheiben ein Modell mit einer enormen Vielfalt von physikalischen Phänomenen.

Statistik, Datenanalyse und Simulation

Brownsche Bewegung Seminar - Weiche Materie

3. Prozesse mit kontinuierlicher Zeit

Theoretische Biophysik - Statistische Physik

Fortgeschrittene MD/MC Methoden Wie man die freie Energie berechnet. Andreas Irmler

Modellierung- und Simulation Mathis Plewa ( )

Quantentrajektorien: dem Atom beim Zerfall zusehen. Seminar-Vortrag von Sanah Altenburg

Inhaltsverzeichnis Grundbegriffe. 2. Einführung in die statistische Mechanik. 3. Normalmoden. 4. Molekulardynamik

Cluster-Algorithmen: Der Wolff-Algorithmus

Statistik I für Betriebswirte Vorlesung 4

4.5 KLASSISCHE FLÜSSIGKEITEN 85

Kapitel 12: Markov-Ketten

Moleküldynamik. Modell: Klassische Mechanik Newtonsche Bewegungsgleichungen. = m a i

Stochastik-Praktikum

Molekulare Bioinformatik

Vorlesung Statistische Mechanik: Ising-Modell

Stefan Hunn. 21.Juni

4. Vorlesung. Globale Optimierung. Sampling von Energiehyperflächen. Monte Carlo / Metropolis-Algorithmus. statistische Mechanik

Kapitel 5. Kanonisches Ensemble. 5.1 Herleitung 1; E 1 =? 2; E 2 =?

Zufallsvariablen. Erwartungswert. Median. Perzentilen

Mathematik des Hybriden Monte-Carlo. Marcus Weber. Zuse Institute Berlin

6.2 Temperatur und Boltzmann Verteilung

Angewandte Stochastik

Statistik, Datenanalyse und Simulation

Würfelspiele und Zufall

16.3 Rekurrente und transiente Zustände

Prozesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).

Statistik I für Betriebswirte Vorlesung 3

3. Das Reinforcement Lernproblem

Thermodynamik. Christian Britz

Zusammenfassung: diskrete und stetige Verteilungen. Woche 4: Gemeinsame Verteilungen. Zusammenfassung: diskrete und stetige Verteilungen

Randomisierte Algorithmen

Theoretische Informatik 1

Einführung und Grundlagen

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Erreichte Punktzahlen: Die Bearbeitungszeit beträgt 3 Stunden.

E 7. Ergänzungen zu Kapitel 7

Schriftliche Ausarbeitung zum Seminarvortrag: Einführung in die Perfekte Simulation. Propp-Wilson-Algorithmus

15 Grundlagen der Simulation

Übungen zu Theoretische Physik IV

Moderne Theoretische Physik III (Theorie F Statistische Mechanik) SS 17

Molekulardynamik im metastabilen µvt-ensemble

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Statistische Physik - Theorie der Wärme (PD Dr. M. Falcke)

Übersicht. Rückblick: klassische Mechanik

Mathematik für Naturwissenschaftler II SS 2010

Theoretische Physik 25. Juli 2013 Thermodynamik und statistische Physik (T4) Prof. Dr. U. Schollwöck Sommersemester 2013

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

Lösung II Veröffentlicht:

2 Mikrokanonische Definition der Temperatur

Hausaufgabe Modellierung und Simulation 1

Wahrscheinlichkeitsverteilungen und ihre Implementierung in Root. Eric Volkmann

2.3 Intervallschätzung

Fokker-Planck Gleichung

Vorlesung Physikalische Chemie IV Statistische Thermodynamik realer chemischer Systeme"

Vorlesung Statistische Mechanik: Ising-Modell

Simulationsmethoden in der Bayes-Statistik

Definition 2.1 Der Erwartungswert einer diskreten Zufallsvariablen mit Wahrscheinlichkeitsfunktion

Konvergenz von Hopfield-Netzen

Lösungen zu Übungs-Blatt 8 Wahrscheinlichkeitsrechnung

Übungsscheinklausur,

ad Physik A VL2 ( )

Landau-Theorie. Seminar zur Theorie der Teilchen und Felder. Daniel Schröer

Auswahl von Prüfungsfragen für die Prüfungen im September 2011

7. Die Brownsche Bewegung

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Erreichte Punktzahlen: Die Bearbeitungszeit beträgt 3 Stunden.

Übungen mit dem Applet Vergleich von zwei Mittelwerten

Theoretische Biophysik - Statistische Physik

Monte Carlo Simulation des 2-D Ising Modells

Statistik für Ingenieure Vorlesung 3

1. Grundlagen der ebenen Kinematik

Klausur zum Fach GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK. für Studierende der INFORMATIK

DisMod-Repetitorium Tag 3

Bioinformatik für Biochemiker

Übungs-Blatt 7 Wahrscheinlichkeitsrechnung

Paarverteilungsfunktion und Strukturfaktor Seminar: Weiche Materie

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse

KAPITEL VIII. Elektrostatik. VIII.1 Elektrisches Potential. VIII.1.1 Skalarpotential. VIII.1.2 Poisson-Gleichung

Zur Berechnung der Wertziffern bei Teamturnieren

Transkript:

Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem wohldefinierten Ensemble. Da die Anzahl aller möglichen Konfigurationen mit steigender Teilchenzahl schnell sehr groß wird, führt eine einfache Mittelung über alle Zustände nicht zum Erfolg. Würde man z.b. eine Simulationsbox entlang jeder Achse in lediglich zehn Abschnitte unterteilen, erhält man bei zehn Teilchen in d = 3 Dimensionen etwa 10 30 Möglichkeiten. Selbst wenn alle Teilchen gleichartig sind und man lediglich unterschiedliche Konfigurationen berücksichtigt, liegt deren Gesamtzahl immer noch bei 2.6 10 23 und somit jenseits jeglicher heute zugänglicher Rechenleistung. Die Bestimmung eines Erwartungswertes muss folglich durch eine Mittelung über eine endliche Auswahl von Zuständen erfolgen. Da der mit Abstand größte Teil der Konfigurationen lediglich einen vernachlässigbaren Beitrag zum Mittelwert liefert, führt eine zufällige Auswahl ( simple oder random sampling ) nicht zum Erfolg. Vielmehr sollte das statistische Gewicht eines Zustand S i berücksichtigt werden, welches in einem klassischen System durch die Boltzmannverteilung gegeben ist. Im kanonischen Ensemble ist: P(S i ) = e βe(s i). (2.1) Z E entspricht der Energie der Konfiguration und Z der kanonischen Zustandssumme. Der kinetische Anteil spielt bei den folgenden Betrachtungen keine Rolle und kann z.b. in Z hineingezogen werden. Die Monte Carlo Simulation versucht nun Konfigurationen zu erzeugen, die einer vorgegebenen Wahrscheinlichkeitsverteilung (z.b. (??)) genügen. Der im folgenden Abschnitt vorgestellte Algorithmus wurde 1953 von Metropolis et al. veröffentlicht (N. Metropolis, et al., J. Chem. Phys. 21(6), 1087 1

2 2.1. IMPORTANCE SAMPLING: METROPOLIS-ALGORITHMUS (1953)). Die hierauf aufbauenden Monte Carlo Techniken bilden zusammen mit der Molekulardynamik Methode (MD) die Grundlagen klassischer molekularer Simulation. Die Darstellung des Algorithmus folgt im Wesentlichen der Darstellung in Landau / Binder, A Guide to Monte Carlo Simulations in Statistical Physics. Zustände, die einer gegebenen Verteilung genügen, können mit Hilfe einer Markov Kette realisiert werden. Hierzu definiere man einen stochastischen Prozess mit diskreten Zeitschritten t 1,t 2,... für ein System mit einer endlichen Anzahl von Zuständen S 1,S 2,.... X t sei der Zustand eines Systems zum Zeitpunkt t. Ferner betrachte man: P(X tn = S in X tn 1 = S in 1,X tn 2 = S in 2,...,X t1 = S i1 ), (2.2) also die bedingte Wahrscheinlichkeit, dass sich das momentane System (X tn = S in ) zum Zeitpunkt t n 1 im Zustand S n 1, zum Zeitpunkt t n 2 im Zustand S n 2 usw. befand. Eine Abfolge von Zuständen {X t } bezeichnet man als Markov Kette, falls die bedingte Wahrscheinlichkeit das System zum Zeitpunkt t n im Zustand S i anzutreffen lediglich vom direkten Vorgängerzustand X tn 1 abhängt: P = P(X tn = S in X tn 1 = S in 1 ) =: W in 1 i n = W(S in 1 S in ). (2.3) Die Vergangenheit vor t n 1 hat also keinen Einfluss auf die Eintrittswahrscheinlichkeit von X tn und die weitere Entwicklung der Kette. Wie in Gleichung (??) angedeutet, lässt sich P auch als Übergangswahrscheinlichkeit W ij vom Zustand i nach j interpretieren. Ist diese unabhängig von t, bezeichnet man den Prozess als stationär. Als Sprungwahrscheinlichkeit ist W ij immer größer Null. Die Wahrscheinlichkeit von i in einen beliebigen Zustand j zu springen und somit j W ij ist gleich Eins. Die so genannte master equation betrachtet die Änderung der bedingten Wahrscheinlichkeit als Funktion der Zeit. Der Fluss von einem Zustand i in einen Zustand j ist gegeben durch das Produkt aus der Wahrscheinlichkeit P i := P(X tn = S i ), dass sich das System zum Zeitpunkt t im Zustand i befindet, mit der Sprungwahrscheinlichkeit W ij von i nach j. Summiert man über alle Zustände i, erhält man den gesamten Zufluss nach j. Der Abfluss aus j ist entsprechend gegeben durch die Summe über alle Produkte P j W ji. Insgesamt erhält man also dp j (t) dt = j P i (t)w ij j P j (t)w ji. (2.4) Gleichung?? kann als Kontinuitätsgleichung aufgefasst werden. Die Gesamtwahrscheinlichkeit ( j P j) bleibt zu jedem Zeitpunkt erhalten. Im Gleichgewichtszustand ist der Zufluss in einen Zustand gleich dem Abfluss aus dem Zustand, d.h. dp j /dt = 0. Diese Bedingung ist auf jeden Fall erfüllt, falls gilt: P i (t)w ij = P j (t)w ji. (2.5)

KAPITEL 2. DR. P. VIRNAU 3 Die strengere Forderung, dass zwei beliebige Zustände zueinander im Gleichgewicht stehen, bezeichnet man als detailed balance. Die folgende Diskussion bezieht sich auf das kanonische Ensemble. Obwohl die Wahrscheinlichkeit in Gleichung (??) wegen der Zustandsumme im Nenner in der Regel nicht genau bestimmbar ist, kann man dennoch das Verhältnis zweier Wahrscheinlichkeiten angeben. Z kürzt sich dann in Gleichung (??) weg und es wird lediglich die Differenz in der Energie der beiden Zustände E = E j E i benötigt. Jede Übergangsrate, die die Detailed Balance Bedingung erfüllt, ist prinzipiell akzeptabel. Das erste solche Kriterium, welches in der statistischen Physik bei der Simulation harter Scheiben Anwendung fand, stammt von Metropolis et al.: { exp( β E), falls E > 0 W ij = (2.6) 1, falls E < 0. oder kürzer: W ij = min(1, exp( β E)) =: metrop (exp( β E)). (2.7) Ein Sprung auf ein energetisch tieferes Niveau wird demnach immer akzeptiert. Ein Sprung auf ein höheres Niveau jedoch nur mit einer exponentiellen Wahrscheinlichkeit. Diese wird umso geringer, je größer die Energiezunahme ausfällt. Die Überprüfung der Detailed Balance Bedingung erfolgt durch das Einsetzen von Bedingung (??) in (??). Der Metropolis Algorithmus kann auf einfache Weise implementiert werden. Das System befinde sich hierzu im Ausgangszustand i: : 1. Wähle zufällig einen neuen Zustand j aus. 2. Berechne die Energiedifferenz E zwischen j und dem alten Zustand i. 3. Ziehe eine Zufallszahl z aus [0,1]. 4. Falls z < exp( β E), akzeptiere den Schritt und führe das System in den neuen Zustand j über. : In einer typischen Simulation wird die obere Abfolge sehr oft wiederholt. Nach einer kurzen Relaxationsphase in der sich das System ins Gleichgewicht bewegt, können Messungen einer Observablen vorgenommen werden. Da die erzeugten Zustände bereits der Boltzmannverteilung genügen, berechnet sich der Erwartungswert O = i P io i, einfach aus dem arithmetischen Mittel. Im Vergleich mit einer Molekulardynamik Simulation hat Monte Carlo den großen Vorteil, dass Sprünge von einem Zustand in den nächsten beliebig unphysikalisch ausfallen können. Statistisch unabhängige Konfigurationen können so auf Kosten einer unrealistischen Dynamik sehr viel schneller erzeugt werden. Es folgen einige Beispiele.

4 2.1. IMPORTANCE SAMPLING: METROPOLIS-ALGORITHMUS 2.1.1 Lokale Verrückungen Eine der einfachsten und ältesten Übergänge ist die lokale Verrückung eines Polymer oder Lösungsmittelteilchens. Hierbei wählt man zufällig ein Teilchen im System aus und verschiebt es um eine bestimmt Länge und Orientierung (Abb.??). Im Anschluss Abbildung 2.1: Schematische Darstellung eines lokalen Monte Carlo Schrittes. wird die durch die Verrückung verursachte Energiedifferenz berechnet und der Zug gemäß des Metropolis Kriteriums akzeptiert oder abgelehnt. Der lokale Übergang ist zur Äquilibrierung einer kanonischen Konfiguration (konstante Teilchenzahl in der Box) geringer oder mittlerer Dichte nur bedingt geeignet. In einer dichten Phase ist er hingegen einer der wenigen Schritte, die überhaupt akzeptiert werden. 2.1.2 Reptation Beim Reptationsalgorithmus, der manchmal auch als Slithering Snake Algorithmus bezeichnet wird, schneidet man ein Endmonomer einer zufällig ausgewählten Kette ab und fügt es an der gegenüberliegenden Seite wieder an (Abb.??). Dies bewirkt eine Abbildung 2.2: Schematische Darstellung eines Reptationsschrittes. schlangenartige Kriechbewegung des Polymers. Die Bindungslänge bleibt dabei in der einfachsten Ausführung erhalten. Die Implementierung des Algorithmus erfolgt wie bei der lokalen Verrückung über das Metropolis Kriterium. Der Slithering Snake Algorithmus ist ein gutes Beispiel für einen unphysikalischen Monte Carlo Schritt. Er ermöglicht jedoch bei geringen und mittleren Dichten eine wesentlich effizientere Äquilibrierung eines Kettenmoleküls als die lokale Verrückung.

KAPITEL 2. DR. P. VIRNAU 5 2.1.3 Pivot Bei der Simulation von nichtkollabierten Einzelketten leistet der Pivot-Algorithmus hervorragende Dienste. In der einfachsten Implementierung wählt man zufällig ein Monomer als Drehzentrum aus und dreht einen Teil der Kette angefangen von diesem Monomer bis zu einem Ende der Kette um einen zufällig ausgewählten Winkel. Auf diese Weise kann man in wenigen Zügen eine statistisch unkorrelierte Konfiguration erzeugen. Eine besonders effiziente Implementierung findet sich in T. Kennedy, J.Statist.Phys. 106, 407 (2002). In dichten Systemen, wie z.b. bei kollabierten Polymeren versagt der Algorithmus.