Cluster-Algorithmen: Der Wolff-Algorithmus
|
|
- Peter Förstner
- vor 5 Jahren
- Abrufe
Transkript
1 ClusterAlgorithmen: Der WolffAlgorithmus Tobias Haas 7. Januar 2010 Tobias Haas ClusterAlgorithmen 7. Januar / 30
2 Übersicht I 1 Einleitung 2 Theorie 3 WolffAlgorithmus 4 Beispielimplementierung 5 Erweiterung auf harte Scheiben und andere Systeme 6 Grenzen von Clusteralgorithmen 7 Fazit Tobias Haas ClusterAlgorithmen 7. Januar / 30
3 Einleitung Motivation und Eigenschaften Motivation und Eigenschaften Weiterentwicklung von lokalen MonteCarloMethoden (zuerst für Gitter). Tobias Haas ClusterAlgorithmen 7. Januar / 30
4 Einleitung Motivation und Eigenschaften Motivation und Eigenschaften Weiterentwicklung von lokalen MonteCarloMethoden (zuerst für Gitter). Schnellere Konvergenz bei manchen Systemen und Bedingungen (z.b. Ising in der Nähe eines kritischen Punktes). Tobias Haas ClusterAlgorithmen 7. Januar / 30
5 Einleitung Motivation und Eigenschaften Motivation und Eigenschaften Weiterentwicklung von lokalen MonteCarloMethoden (zuerst für Gitter). Schnellere Konvergenz bei manchen Systemen und Bedingungen (z.b. Ising in der Nähe eines kritischen Punktes). Viele Clusteralgorithmen sind gut parallelisierbar. Tobias Haas ClusterAlgorithmen 7. Januar / 30
6 Einleitung Motivation und Eigenschaften Motivation und Eigenschaften Weiterentwicklung von lokalen MonteCarloMethoden (zuerst für Gitter). Schnellere Konvergenz bei manchen Systemen und Bedingungen (z.b. Ising in der Nähe eines kritischen Punktes). Viele Clusteralgorithmen sind gut parallelisierbar. Erweiterung auf andere Modelle (z.b. harte Kugel bzw. harte Scheiben, kontinuierliche Modelle). Tobias Haas ClusterAlgorithmen 7. Januar / 30
7 Einleitung Verschiedene Cluster Algorithmen Verschiedene Cluster Algorithmen SwendsenWangAlgorithmus [PRL 58, 86, 1987]. Tobias Haas ClusterAlgorithmen 7. Januar / 30
8 Einleitung Verschiedene Cluster Algorithmen Verschiedene Cluster Algorithmen SwendsenWangAlgorithmus [PRL 58, 86, 1987]. WolffAlgorithmus [PRL 62, 361, 1989]. Tobias Haas ClusterAlgorithmen 7. Januar / 30
9 Einleitung Verschiedene Cluster Algorithmen Verschiedene Cluster Algorithmen SwendsenWangAlgorithmus [PRL 58, 86, 1987]. WolffAlgorithmus [PRL 62, 361, 1989]. Invaded Cluster [PRL 75, 2792, 1995]. Tobias Haas ClusterAlgorithmen 7. Januar / 30
10 Einleitung Verschiedene Cluster Algorithmen Verschiedene Cluster Algorithmen SwendsenWangAlgorithmus [PRL 58, 86, 1987]. WolffAlgorithmus [PRL 62, 361, 1989]. Invaded Cluster [PRL 75, 2792, 1995]. ProbabilityChangeClusteralgorithmus [PRL 86, 572, 2001]. Tobias Haas ClusterAlgorithmen 7. Januar / 30
11 Einleitung Verschiedene Cluster Algorithmen Verschiedene Cluster Algorithmen SwendsenWangAlgorithmus [PRL 58, 86, 1987]. WolffAlgorithmus [PRL 62, 361, 1989]. Invaded Cluster [PRL 75, 2792, 1995]. ProbabilityChangeClusteralgorithmus [PRL 86, 572, 2001]. Clusteralgorithmen für andere Modelle und Fragestellungen Tobias Haas ClusterAlgorithmen 7. Januar / 30
12 Theorie MonteCarloMethode MonteCarloMethode I Satz (Gesetz der großen Zahlen) Für den statistischen Mittelwert einer Größe B im Phasenraum Ω B = Π(x)B(x) bzw. B = Π(x) B(x) dx x Ω x Ω mit dem normierten statistischen Gewicht Π(x) (also z.b. der Boltzmannfaktor) gilt für N hinreichend groß: 1 B lim N N N B(x k ) mit einer geeigneten Folge (x k ) k N, insbesondere sollte sie ergodisch sein. k=1 Tobias Haas ClusterAlgorithmen 7. Januar / 30
13 Theorie Detailed balance (detailliertes Gleichgewicht) MonteCarloMethode: Detailed balance (detailliertes Gleichgewicht) Konzept des detaillierten Gleichgewichts: Definition Mit: π(a)p(a b) = π(b)p(b a) π(x) der Wahrscheinlichkeit der Konfiguration x im Gleichgewicht. P(x y) der Übergangswahrscheinlichkeit von der Konfiguration x zur Konfiguration y. Für ein Gleichgewicht im kanonischen Ensemble verwenden wir den Boltzmannfaktor als statistisches Gewicht, π(x) = e βe(x). Tobias Haas ClusterAlgorithmen 7. Januar / 30
14 Theorie aprioriwahrscheinlichkeit MonteCarloMethode: aprioriwahrscheinlichkeit Konzept der aprioriprobability: Definition Mit: P(a b) = A(a b) P(a b) A(a b) der Wahrscheinlichkeit den Übergang zu betrachten. P(a b) der Wahrscheinlichkeit den Übergang zu akzeptieren. Tobias Haas ClusterAlgorithmen 7. Januar / 30
15 Theorie aprioriwahrscheinlichkeit MonteCarloMethode: aprioriwahrscheinlichkeit Konzept der aprioriprobability: Definition Mit: P(a b) = A(a b) P(a b) A(a b) der Wahrscheinlichkeit den Übergang zu betrachten. P(a b) der Wahrscheinlichkeit den Übergang zu akzeptieren. Umformulierung des Konzeptes des detaillierten Gleichgewichts: Definition P(a b) P(b a) A(b a) π(b) = A(a b) π(a) Tobias Haas ClusterAlgorithmen 7. Januar / 30
16 Theorie MonteCarloMethode MonteCarloMethode (II) Für uns genügen folgende Bedingungen: Tobias Haas ClusterAlgorithmen 7. Januar / 30
17 Theorie MonteCarloMethode MonteCarloMethode (II) Für uns genügen folgende Bedingungen: 1 Algorithmus muss Ergodizität gewährleisten. Tobias Haas ClusterAlgorithmen 7. Januar / 30
18 Theorie MonteCarloMethode MonteCarloMethode (II) Für uns genügen folgende Bedingungen: 1 Algorithmus muss Ergodizität gewährleisten. 2 Algorithmus soll detailliertes Gleichgewicht gewährleisten und mit aprioryprobability arbeiten. Tobias Haas ClusterAlgorithmen 7. Januar / 30
19 Theorie MonteCarloMethode MonteCarloMethode (II) Für uns genügen folgende Bedingungen: 1 Algorithmus muss Ergodizität gewährleisten. 2 Algorithmus soll detailliertes Gleichgewicht gewährleisten und mit aprioryprobability arbeiten. Zusätzlich fordern wir: Tobias Haas ClusterAlgorithmen 7. Januar / 30
20 Theorie MonteCarloMethode MonteCarloMethode (II) Für uns genügen folgende Bedingungen: 1 Algorithmus muss Ergodizität gewährleisten. 2 Algorithmus soll detailliertes Gleichgewicht gewährleisten und mit aprioryprobability arbeiten. Zusätzlich fordern wir: A(b a) 1 Die Quotienten A(a b) und π(b) π(a) müssen berechenbar sein. Tobias Haas ClusterAlgorithmen 7. Januar / 30
21 Theorie MetropolisAlgorithmus MetropolisAlgorithmus Metropolis schlug einen Algorithmus zur Berechnung einer Folge x k vor, die die zuvor gestellten Bedingungen (richtige Häufigkeit der verschiedenen x k ) erfüllt: Definition oder umformuliert P(a b) = min{1, π(b) π(a) } P(a b) = min{1, A(b a) π(b) A(a b) π(a) } Tobias Haas ClusterAlgorithmen 7. Januar / 30
22 WolffAlgorithmus IsingModell IsingModell (2D) ohne äußeres Magnetfeld Erinnerung (einfachste Variante): Tobias Haas ClusterAlgorithmen 7. Januar / 30
23 WolffAlgorithmus IsingModell IsingModell (2D) ohne äußeres Magnetfeld Erinnerung (einfachste Variante): Es werden von N 2 Spins auf einem 2 dimensionalen Gitter L mit Plätzen (i, j) die Komponenten in einer ausgezeichneten Richtung (o.b.d.a zrichtung) betrachtet. Abbildung: Beispielkonfiguration mit N = 7 Tobias Haas ClusterAlgorithmen 7. Januar / 30
24 WolffAlgorithmus IsingModell IsingModell (2D) ohne äußeres Magnetfeld Erinnerung (einfachste Variante): Es werden von N 2 Spins auf einem 2 dimensionalen Gitter L mit Plätzen (i, j) die Komponenten in einer ausgezeichneten Richtung (o.b.d.a zrichtung) betrachtet. Die Wechselwirkungsenergie ist durch H = J (i,j) s i s j gegeben mit s i { 1, 1} = {, } und der Summe über alle nächsten Nachbarn (i, j). Abbildung: Beispielkonfiguration mit N = 7 Tobias Haas ClusterAlgorithmen 7. Januar / 30
25 WolffAlgorithmus IsingModell Der WolffAlgorithmus. Tobias Haas ClusterAlgorithmen 7. Januar / 30
26 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell I Startkonfiguration gegeben. Abbildung: Beispielkonfiguration mit N = 7. Tobias Haas ClusterAlgorithmen 7. Januar / 30
27 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell I Startkonfiguration gegeben. Suche Platz (α 0, β 0 ) zufällig aus (Beispiel (α 0, β 0 ) = (4, 3)). Abbildung: Auswahl von (α 0, β 0 ) = (4, 3). Tobias Haas ClusterAlgorithmen 7. Januar / 30
28 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell I Startkonfiguration gegeben. Suche Platz (α 0, β 0 ) zufällig aus (Beispiel (α 0, β 0 ) = (4, 3)). Bilde ausgehend von (α 0, β 0 ) Verbindung zwischen zwei benachbarten Plätzen (wenn s i = s j ) mit Wahrscheinlichkeit p. Abbildung: Clusterbildung um (4, 3) mit Bindungswahrscheinlichkeit p. Tobias Haas ClusterAlgorithmen 7. Januar / 30
29 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell I Startkonfiguration gegeben. Suche Platz (α 0, β 0 ) zufällig aus (Beispiel (α 0, β 0 ) = (4, 3)). Bilde ausgehend von (α 0, β 0 ) Verbindung zwischen zwei benachbarten Plätzen (wenn s i = s j ) mit Wahrscheinlichkeit p. Flippe Cluster (wird für bestimmtes p immer akzeptiert, P = 1). Abbildung: Geflippter Cluster. Tobias Haas ClusterAlgorithmen 7. Januar / 30
30 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell I Startkonfiguration gegeben. Suche Platz (α 0, β 0 ) zufällig aus (Beispiel (α 0, β 0 ) = (4, 3)). Bilde ausgehend von (α 0, β 0 ) Verbindung zwischen zwei benachbarten Plätzen (wenn s i = s j ) mit Wahrscheinlichkeit p. Flippe Cluster (wird für bestimmtes p immer akzeptiert, P = 1). Wiederhole dies für neu gewählten Startplatz (α 1, β 1 ). Abbildung: Neu gewählter Startplatz. Tobias Haas ClusterAlgorithmen 7. Januar / 30
31 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell II Warum funktioniert der Algorithmus so (alle Züge werden immer akzeptiert)? Tobias Haas ClusterAlgorithmen 7. Januar / 30
32 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell II Warum funktioniert der Algorithmus so (alle Züge werden immer akzeptiert)? Konfiguration a hat A(a b) = A innen (1 p) n gleich E a = E innen E außen n gleich J n diff J π a = e βea Abbildung: Konfiguration a. Tobias Haas ClusterAlgorithmen 7. Januar / 30
33 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell II Warum funktioniert der Algorithmus so (alle Züge werden immer akzeptiert)? Konfiguration a hat A(a b) = A innen (1 p) n gleich E a = E innen E außen n gleich J n diff J π a = e βea Abbildung: Konfiguration a. Konfiguration b hat A(b a) = A innen (1 p) n diff E b = E innen E außen n gleich J n diff J π b = e βe b Abbildung: Konfiguration b. Tobias Haas ClusterAlgorithmen 7. Januar / 30
34 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell III Folglich gilt nach Metropolis: P(a b) = min ( 1, ) A innen (1 p) n diff e β(einneneaußenngleich J ndiff J A innen (1 p) n ) gleich e β(e innene außen n gleich Jn diff J ) Abbildung: Konfiguration a. Abbildung: Konfiguration b. Tobias Haas ClusterAlgorithmen 7. Januar / 30
35 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell III Folglich gilt nach Metropolis: ( ) A innen (1 p) P(a n diff e β(einneneaußenngleich J ndiff J b) = min 1, A innen (1 p) n ) gleich e β(e innene außen n gleich Jn diff J ) ( ) (1 p) n diff = min 1, (1 p) n e 2βngleichJ gleich e 2βn diff J Abbildung: Konfiguration a. Abbildung: Konfiguration b. Tobias Haas ClusterAlgorithmen 7. Januar / 30
36 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell III Folglich gilt nach Metropolis: ( ) A innen (1 p) P(a n diff e β(einneneaußenngleich J ndiff J b) = min 1, A innen (1 p) n ) gleich e β(e innene außen n gleich Jn diff J ) ( ) (1 p) n diff = min 1, (1 p) n e 2βngleichJ gleich e 2βn diff J ( «(1 p) ndiff e 2βJ «ngleich ) = min 1, e 2βJ (1 p) Abbildung: Konfiguration a. Abbildung: Konfiguration b. Tobias Haas ClusterAlgorithmen 7. Januar / 30
37 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Der WolffAlgorithmus für das IsingModell III Folglich gilt nach Metropolis: ( ) A innen (1 p) P(a n diff e β(einneneaußenngleich J ndiff J b) = min 1, A innen (1 p) n ) gleich e β(e innene außen n gleich Jn diff J ) ( ) (1 p) n diff = min 1, (1 p) n e 2βngleichJ gleich e 2βn diff J ( «(1 p) ndiff e 2βJ «ngleich ) = min 1, e 2βJ (1 p) = 1 wenn p = 1 e 2βJ gewählt wird. Jeder Zug immer akzeptiert! Abbildung: Konfiguration a. Abbildung: Konfiguration b. Tobias Haas ClusterAlgorithmen 7. Januar / 30
38 WolffAlgorithmus Der WolffAlgorithmus für das IsingModell Simulation. Tobias Haas ClusterAlgorithmen 7. Januar / 30
39 Beispielimplementierung WolffAlgorithmus am Beispiel des IsingModells WolffAlgorithmus am Beispiel des IsingModells I Magnetisierung eines 2 dimensionalen IsingModells in der Nähe des Phasenübergangs: J k B T = 0 J k B T = 0, 1 J k B T = 0, 3 J k B T = 0, 4 J = 0, 47 k B T J k B T = 0, 6 J k B T = 1 J k B T = 5 Tobias Haas ClusterAlgorithmen 7. Januar / 30
40 Beispielimplementierung WolffAlgorithmus am Beispiel des IsingModells J k B T = 0 J k B T = 0, 1 J k B T = 0, 3 J k B T = 0, 4 J k B T = 0, 47 J k B T = 0, 6 J k B T = 1 J k B T = 5 Tobias Haas ClusterAlgorithmen 7. Januar / 30
41 Beispielimplementierung WolffAlgorithmus am Beispiel des IsingModells WolffAlgorithmus am Beispiel des IsingModells II Konvergenz der Magnetisierung eines 2 dimensionalen IsingModells in der Nähe des Phasenübergangs: Vergleich der Konvergenzgeschwindigkeit eines lokalen MetropolisAlgorithmus mit der des WolffAlgorithmus. Phasenübergang des 2 dimensionalen IsingModells. Tobias Haas ClusterAlgorithmen 7. Januar / 30
42 Beispielimplementierung WolffAlgorithmus am Beispiel des IsingModells Vergleich der Konvergenzgeschwindigkeit eines lokalen MetropolisAlgorithmus mit der des WolffAlgorithmus. Tobias Haas ClusterAlgorithmen 7. Januar / 30
43 Beispielimplementierung WolffAlgorithmus am Beispiel des IsingModells Phasenübergang des 2 dimensionalen IsingModells. Tobias Haas ClusterAlgorithmen 7. Januar / 30
44 Beispielimplementierung WolffAlgorithmus am Beispiel des IsingModells Anderes Problem, anderer Algorithmus... Tobias Haas ClusterAlgorithmen 7. Januar / 30
45 Erweiterung auf harte Scheiben und andere Systeme Problem Problem Betrachte folgendes Problem: Abbildung: Konfiguration a Tobias Haas ClusterAlgorithmen 7. Januar / 30
46 Erweiterung auf harte Scheiben und andere Systeme Problem Problem Betrachte folgendes Problem: Cluster gut identifizierbar. Abbildung: Konfiguration a Tobias Haas ClusterAlgorithmen 7. Januar / 30
47 Erweiterung auf harte Scheiben und andere Systeme Problem Problem Betrachte folgendes Problem: Cluster verschoben (Transformation T ). Abbildung: Konfiguration b Tobias Haas ClusterAlgorithmen 7. Januar / 30
48 Erweiterung auf harte Scheiben und andere Systeme Problem Problem Betrachte folgendes Problem: Verschobener Cluster nicht mehr gut identifizierbar. Abbildung: Konfiguration b Tobias Haas ClusterAlgorithmen 7. Januar / 30
49 Erweiterung auf harte Scheiben und andere Systeme Problem Problem Betrachte folgendes Problem: Cluster gut findbar: A(a b) ist groß. Abbildung: Konfiguration a Abbildung: Konfiguration b Tobias Haas ClusterAlgorithmen 7. Januar / 30
50 Erweiterung auf harte Scheiben und andere Systeme Problem Problem Betrachte folgendes Problem: Cluster gut findbar: A(a b) ist groß. Cluster nicht gut auffindbar: A(b a) ist klein. Abbildung: Konfiguration a Abbildung: Konfiguration b Tobias Haas ClusterAlgorithmen 7. Januar / 30
51 Erweiterung auf harte Scheiben und andere Systeme Problem Problem Betrachte folgendes Problem: Cluster gut findbar: A(a b) ist groß. Cluster nicht gut auffindbar: A(b a) ist klein. π(a) π(b), P sehr klein, Zug wird kaum akzeptiert, zufälliges Auswählen und Verschieben sehr ineffektiv. Abbildung: Konfiguration a Abbildung: Konfiguration b Tobias Haas ClusterAlgorithmen 7. Januar / 30
52 Erweiterung auf harte Scheiben und andere Systeme Problem Problem Betrachte folgendes Problem: Cluster gut findbar: A(a b) ist groß. Cluster nicht gut auffindbar: A(b a) ist klein. π(a) π(b), P sehr klein, Zug wird kaum akzeptiert, zufälliges Auswählen und Verschieben sehr ineffektiv. Lösung: T = T 1 vermeidet das Problem. Abbildung: Konfiguration a Abbildung: Konfiguration b Tobias Haas ClusterAlgorithmen 7. Januar / 30
53 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf harte Scheiben: Taschenalgorithmus Der Taschenalgorithmus (pocket algorithm) Wähle Spiegelpunkt aus (Punktspiegelung ist selbstinvers) Abbildung: Konfiguration a Tobias Haas ClusterAlgorithmen 7. Januar / 30
54 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf harte Scheiben: Taschenalgorithmus Der Taschenalgorithmus (pocket algorithm) Wähle Spiegelpunkt aus (Punktspiegelung ist selbstinvers). Wähle erste Scheibe aus (und stecke sie in Tasche) Abbildung: Scheibe auswählen. Tobias Haas ClusterAlgorithmen 7. Januar / 30
55 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf harte Scheiben: Taschenalgorithmus Der Taschenalgorithmus (pocket algorithm) Wähle Spiegelpunkt aus (Punktspiegelung ist selbstinvers). Wähle erste Scheibe aus (und stecke sie in Tasche). Ziehe aus der Tasche eine Scheibe (erste) und spiegle sie Abbildung: Scheibe auswählen. Tobias Haas ClusterAlgorithmen 7. Januar / 30
56 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf harte Scheiben: Taschenalgorithmus Der Taschenalgorithmus (pocket algorithm) Wähle Spiegelpunkt aus (Punktspiegelung ist selbstinvers). Wähle erste Scheibe aus (und stecke sie in Tasche). Ziehe aus der Tasche eine Scheibe (erste) und spiegle sie. Alle von der gespiegelten Scheibe Getroffenen kommen in die Tasche Abbildung: Berührte Scheiben in Tasche. Tobias Haas ClusterAlgorithmen 7. Januar / 30
57 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf harte Scheiben: Taschenalgorithmus Der Taschenalgorithmus (pocket algorithm) Wähle Spiegelpunkt aus (Punktspiegelung ist selbstinvers). Wähle erste Scheibe aus (und stecke sie in Tasche). Ziehe aus der Tasche eine Scheibe (erste) und spiegle sie. Alle von der gespiegelten Scheibe Getroffenen kommen in die Tasche. Ziehe wieder aus Tasche und verfahre wie zuvor Abbildung: Aus Tasche ziehen. Tobias Haas ClusterAlgorithmen 7. Januar / 30
58 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf harte Scheiben: Taschenalgorithmus Der Taschenalgorithmus (pocket algorithm) Wähle Spiegelpunkt aus (Punktspiegelung ist selbstinvers). Wähle erste Scheibe aus (und stecke sie in Tasche). Ziehe aus der Tasche eine Scheibe (erste) und spiegle sie. Alle von der gespiegelten Scheibe Getroffenen kommen in die Tasche. Ziehe wieder aus Tasche und verfahre wie zuvor (bis Tasche leer ist) Abbildung: Tasche leer. Tobias Haas ClusterAlgorithmen 7. Januar / 30
59 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Wo sind die Cluster? Taschenalgorithmus: Wo sind die Cluster? Tobias Haas ClusterAlgorithmen 7. Januar / 30
60 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Wo sind die Cluster? Taschenalgorithmus: Wo sind die Cluster? Betrachte Anfangs und Endzustand Abbildung: Konfiguration a Abbildung: Konfiguration b Tobias Haas ClusterAlgorithmen 7. Januar / 30
61 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Wo sind die Cluster? Taschenalgorithmus: Wo sind die Cluster? Betrachte Anfangs und Endzustand. Überlagerung zeigt Subensembles, die unter T unabhängig von einander bleiben (Cluster), z.b. {2, 3, 4, 7} Abbildung: Konfiguration a Abbildung: Überlagerung von a und b. Abbildung: Konfiguration b Tobias Haas ClusterAlgorithmen 7. Januar / 30
62 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen Betrachte folgende Situation (harte Quadrate ohne Wechselwirkungen): Tobias Haas ClusterAlgorithmen 7. Januar / 30
63 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen Betrachte folgende Situation (harte Quadrate ohne Wechselwirkungen): a) Die (großen) Quadrate sind weit von einander entfernt, schwach effektive repulsive Wechselwirkung bei Annäherung Tobias Haas ClusterAlgorithmen 7. Januar / 30
64 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen Betrachte folgende Situation (harte Quadrate ohne Wechselwirkungen): a) Die (großen) Quadrate sind weit von einander entfernt, schwach effektive repulsive Wechselwirkung bei Annäherung b) Die (großen) Quadrate sind weit von einander entfernt, effektive attraktive Wechselwirkung bei Annäherung (entropischer Effekt) Tobias Haas ClusterAlgorithmen 7. Januar / 30
65 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen PocketAlgorithmus: Abbildung: Konfiguration a, Spiegelungspunkt ausgewählt. Tobias Haas ClusterAlgorithmen 7. Januar / 30
66 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen PocketAlgorithmus: Spiegelungspunkt auswählen. Abbildung: Konfiguration a, Spiegelungspunkt ausgewählt. Tobias Haas ClusterAlgorithmen 7. Januar / 30
67 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen PocketAlgorithmus: Spiegelungspunkt auswählen. Startquadrat auswählen. Abbildung: Startquadrat ausgehählt. Tobias Haas ClusterAlgorithmen 7. Januar / 30
68 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen PocketAlgorithmus: Spiegelungspunkt auswählen. Startquadrat auswählen. Spiegeln. Abbildung: Gespiegelt. Tobias Haas ClusterAlgorithmen 7. Januar / 30
69 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen PocketAlgorithmus: Spiegelungspunkt auswählen. Startquadrat auswählen. Spiegeln. Besonderheit: Alle voll vom Quadrat Überdeckten können direkt neu plaziert werden. Abbildung: Trafo der Überdeckten. Tobias Haas ClusterAlgorithmen 7. Januar / 30
70 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen PocketAlgorithmus: Spiegelungspunkt auswählen. Startquadrat auswählen. Spiegeln. Besonderheit: Alle voll vom Quadrat Überdeckten können direkt neu plaziert werden. Überdeckte Quadrate gehen in Tasche. Abbildung: Rest in Tasche. Tobias Haas ClusterAlgorithmen 7. Januar / 30
71 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen PocketAlgorithmus: Spiegelungspunkt auswählen. Startquadrat auswählen. Spiegeln. Besonderheit: Alle voll vom Quadrat Überdeckten können direkt neu plaziert werden. Überdeckte Quadrate gehen in Tasche. Ziehe aus Tasche und spiegele bis Tasche leer ( PocketAlgorithmus ). Abbildung: Aus Tasche ziehen und spiegeln. Tobias Haas ClusterAlgorithmen 7. Januar / 30
72 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen PocketAlgorithmus: Spiegelungspunkt auswählen. Startquadrat auswählen. Spiegeln. Besonderheit: Alle voll vom Quadrat Überdeckten können direkt neu plaziert werden. Überdeckte Quadrate gehen in Tasche. Ziehe aus Tasche und spiegele bis Tasche leer ( PocketAlgorithmus ). Abbildung: Potentiell überdeckte in Tasche. Tobias Haas ClusterAlgorithmen 7. Januar / 30
73 Erweiterung auf harte Scheiben und andere Systeme Taschenalgorithmus: Anwendung Taschenalgorithmus: Anwendung Phasentrennung in 2komponentigen Mischungen PocketAlgorithmus: Spiegelungspunkt auswählen. Startquadrat auswählen. Spiegeln. Besonderheit: Alle voll vom Quadrat Überdeckten können direkt neu plaziert werden. Überdeckte Quadrate gehen in Tasche. Ziehe aus Tasche und spiegele bis Tasche leer ( PocketAlgorithmus ). Neue Endkonfiguration. Abbildung: Tasche leer. Tobias Haas ClusterAlgorithmen 7. Januar / 30
74 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf andere Modelle Erweiterung auf andere Modelle Erweiterungen des vorgestellten WolffAlgorithmus Tobias Haas ClusterAlgorithmen 7. Januar / 30
75 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf andere Modelle Erweiterung auf andere Modelle Erweiterungen des vorgestellten WolffAlgorithmus Erweiterung von IsingModell auf andere Spinmodelle (Wolff: O(n)Modell). Tobias Haas ClusterAlgorithmen 7. Januar / 30
76 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf andere Modelle Erweiterung auf andere Modelle Erweiterungen des vorgestellten WolffAlgorithmus Erweiterung von IsingModell auf andere Spinmodelle (Wolff: O(n)Modell). Versuche externe Felder und andere Wechselwirkungen zu integrieren. Tobias Haas ClusterAlgorithmen 7. Januar / 30
77 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf andere Modelle Erweiterung auf andere Modelle Erweiterungen des vorgestellten WolffAlgorithmus Erweiterung von IsingModell auf andere Spinmodelle (Wolff: O(n)Modell). Versuche externe Felder und andere Wechselwirkungen zu integrieren. Erweiterung um Paarwechselwirkungen und kontinuierliche Modelle. Tobias Haas ClusterAlgorithmen 7. Januar / 30
78 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf andere Modelle Erweiterung auf andere Modelle Erweiterungen des vorgestellten WolffAlgorithmus Erweiterung von IsingModell auf andere Spinmodelle (Wolff: O(n)Modell). Versuche externe Felder und andere Wechselwirkungen zu integrieren. Erweiterung um Paarwechselwirkungen und kontinuierliche Modelle. Erweiterungen des PocketAlgorithmus Tobias Haas ClusterAlgorithmen 7. Januar / 30
79 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf andere Modelle Erweiterung auf andere Modelle Erweiterungen des vorgestellten WolffAlgorithmus Erweiterung von IsingModell auf andere Spinmodelle (Wolff: O(n)Modell). Versuche externe Felder und andere Wechselwirkungen zu integrieren. Erweiterung um Paarwechselwirkungen und kontinuierliche Modelle. Erweiterungen des PocketAlgorithmus Erweiterung um Paarwechselwirkungen (generalized Geometric Cluster Algorithm) Tobias Haas ClusterAlgorithmen 7. Januar / 30
80 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf andere Modelle Erweiterung auf andere Modelle Erweiterungen des vorgestellten WolffAlgorithmus Erweiterung von IsingModell auf andere Spinmodelle (Wolff: O(n)Modell). Versuche externe Felder und andere Wechselwirkungen zu integrieren. Erweiterung um Paarwechselwirkungen und kontinuierliche Modelle. Erweiterungen des PocketAlgorithmus Erweiterung um Paarwechselwirkungen (generalized Geometric Cluster Algorithm) VielteilchenTerme können (sofern deren energetische Störung klein ist) als Störung mitgenommen werden. Tobias Haas ClusterAlgorithmen 7. Januar / 30
81 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf andere Modelle Erweiterung auf andere Modelle Beispiele für andere Modelle (Referenzen): GCA for fluid simulation (mit Yukawaartigem bzw. Gaußartigem Potential) [PRE 71, , 2005] bzw. [PRL 92, , 2004]. Tobias Haas ClusterAlgorithmen 7. Januar / 30
82 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf andere Modelle Erweiterung auf andere Modelle Beispiele für andere Modelle (Referenzen): GCA for fluid simulation (mit Yukawaartigem bzw. Gaußartigem Potential) [PRE 71, , 2005] bzw. [PRL 92, , 2004]. ClusterMC simulations of the nematicisotropic transition [PRE 63, , 2001]. Tobias Haas ClusterAlgorithmen 7. Januar / 30
83 Erweiterung auf harte Scheiben und andere Systeme Erweiterung auf andere Modelle Erweiterung auf andere Modelle Beispiele für andere Modelle (Referenzen): GCA for fluid simulation (mit Yukawaartigem bzw. Gaußartigem Potential) [PRE 71, , 2005] bzw. [PRL 92, , 2004]. ClusterMC simulations of the nematicisotropic transition [PRE 63, , 2001]. Free energy and phase equilibria for the restricted primitive model of ionic fluids from MC simulations [JCP 101, 1452, 2005]. Tobias Haas ClusterAlgorithmen 7. Januar / 30
84 Grenzen von Clusteralgorithmen Grenzen von Clusteralgorithmen Clusteralgorithmen sind häufig schneller als lokale Algorithmen im Bereich von kritischen Punkten (d.h. nahe der Perkolationsgrenze bzw. den Phasenübergängen). Tobias Haas ClusterAlgorithmen 7. Januar / 30
85 Grenzen von Clusteralgorithmen Grenzen von Clusteralgorithmen Clusteralgorithmen sind häufig schneller als lokale Algorithmen im Bereich von kritischen Punkten (d.h. nahe der Perkolationsgrenze bzw. den Phasenübergängen). Entfernt von kritischen Punkten kann die Konvergenz (ins Gleichgewicht) sehr schlecht werden. Tobias Haas ClusterAlgorithmen 7. Januar / 30
86 Grenzen von Clusteralgorithmen Grenzen von Clusteralgorithmen Clusteralgorithmen sind häufig schneller als lokale Algorithmen im Bereich von kritischen Punkten (d.h. nahe der Perkolationsgrenze bzw. den Phasenübergängen). Entfernt von kritischen Punkten kann die Konvergenz (ins Gleichgewicht) sehr schlecht werden. Problem: Algorithmus kann ganze Box in Cluster verwandeln. Tobias Haas ClusterAlgorithmen 7. Januar / 30
87 Grenzen von Clusteralgorithmen Grenzen von Clusteralgorithmen Clusteralgorithmen sind häufig schneller als lokale Algorithmen im Bereich von kritischen Punkten (d.h. nahe der Perkolationsgrenze bzw. den Phasenübergängen). Entfernt von kritischen Punkten kann die Konvergenz (ins Gleichgewicht) sehr schlecht werden. Problem: Algorithmus kann ganze Box in Cluster verwandeln. Konkretes Beispiel eines Versagens: Onsagerproblem für Flüssigkristalle (die ganze Testbox wird zu einem Cluster). Tobias Haas ClusterAlgorithmen 7. Januar / 30
88 Grenzen von Clusteralgorithmen Grenzen von Clusteralgorithmen Clusteralgorithmen sind häufig schneller als lokale Algorithmen im Bereich von kritischen Punkten (d.h. nahe der Perkolationsgrenze bzw. den Phasenübergängen). Entfernt von kritischen Punkten kann die Konvergenz (ins Gleichgewicht) sehr schlecht werden. Problem: Algorithmus kann ganze Box in Cluster verwandeln. Konkretes Beispiel eines Versagens: Onsagerproblem für Flüssigkristalle (die ganze Testbox wird zu einem Cluster). Konkreter Algorithmus kann für bestimmte (Anfangs) Bedingungen versagen (Beispiel: Harte Kugeln mit Paarwechselwirkung bei sehr großer Dichte). Tobias Haas ClusterAlgorithmen 7. Januar / 30
89 Fazit Fazit Clusteralgorithmen sind häufig schneller im Bereich von Phasenübergängen. Tobias Haas ClusterAlgorithmen 7. Januar / 30
90 Fazit Fazit Clusteralgorithmen sind häufig schneller im Bereich von Phasenübergängen. Clusteralgorithmen sind häufig gut parallelisierbar (skalieren gut mit Anzahl der Cores). Tobias Haas ClusterAlgorithmen 7. Januar / 30
91 Fazit Fazit Clusteralgorithmen sind häufig schneller im Bereich von Phasenübergängen. Clusteralgorithmen sind häufig gut parallelisierbar (skalieren gut mit Anzahl der Cores). Problem wird verlagert: Man sucht Algorithmus, der einen oder mehrere für die Fragestellung möglichst gut geeignete(n) Cluster möglichst schnell aufbaut. Tobias Haas ClusterAlgorithmen 7. Januar / 30
92 Fazit Fazit Clusteralgorithmen sind häufig schneller im Bereich von Phasenübergängen. Clusteralgorithmen sind häufig gut parallelisierbar (skalieren gut mit Anzahl der Cores). Problem wird verlagert: Man sucht Algorithmus, der einen oder mehrere für die Fragestellung möglichst gut geeignete(n) Cluster möglichst schnell aufbaut. Clusteralgorithmen sind stark spezialisiert auf Modell und Fragestellung. Teils nur schlecht verallgemeinerbar oder übertragbar (Übertrag von Ising auf kontinuierliches System z.b. teils langsamer als lokaler Algorithmus). Tobias Haas ClusterAlgorithmen 7. Januar / 30
93 Fazit Fazit Clusteralgorithmen sind häufig schneller im Bereich von Phasenübergängen. Clusteralgorithmen sind häufig gut parallelisierbar (skalieren gut mit Anzahl der Cores). Problem wird verlagert: Man sucht Algorithmus, der einen oder mehrere für die Fragestellung möglichst gut geeignete(n) Cluster möglichst schnell aufbaut. Clusteralgorithmen sind stark spezialisiert auf Modell und Fragestellung. Teils nur schlecht verallgemeinerbar oder übertragbar (Übertrag von Ising auf kontinuierliches System z.b. teils langsamer als lokaler Algorithmus). Clusteralgorithmen können aufgrund ihrer Spezialisierung auf eine bestimmte Art von Systembedingung (z.b. auf die Nähe von Phasenübergängen) ihre gute Konvergenz gegenüber lokalen MCMethoden verlieren. Tobias Haas ClusterAlgorithmen 7. Januar / 30
Vorlesung 12b. Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen. Teil 1
Vorlesung 12b Übergangswahrscheinlichkeiten und Gleichgewichtsverteilungen Teil 1 1 Wir wissen schon: 2 Wir wissen schon: Eine gemeinsame Verteilung kann man verstehen als Produkt aus Start-und Übergangsverteilung:
MehrLösung von Optimierungsproblemen mit Monte Carlo Methoden
Lösung von Optimierungsproblemen mit Monte Carlo Methoden Am Beispiel des Problem des Handlungsreisenden Vortragende: Alexandra Vosseler Inhaltsverzeichnis I. Einleitung II. Optimierung mit MCM II.i Vom
Mehr2.1 Importance sampling: Metropolis-Algorithmus
Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus
MehrDas Ising-Modell ist ebenso wie das Modell der harten Scheiben ein Modell mit einer enormen Vielfalt von physikalischen Phänomenen.
Kapitel 6 Klassische -Spin Systeme 6. Das Ising-Modell Das Ising-Modell ist ebenso wie das Modell der harten Scheiben ein Modell mit einer enormen Vielfalt von physikalischen Phänomenen. Das Ising-Modell
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
MehrMethoden der Statistik Markov Chain Monte Carlo Methoden
Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrVorlesung Statistische Mechanik: Ising-Modell
Ising-Modell Vorlesung Statistische Mechanik: Ising-Modell Das Ising Modell besteht auser einer Anzahl von Spins, die wir mit s i bezeichnen wollen. Jeder der N Spins kann den Wert ±1 annehmen. Die Spins
MehrE 7. Ergänzungen zu Kapitel 7
E 7. Ergänzungen zu Kapitel 7 1 E 7.1 Ising Spin-1/2 System (D = 1) 2 E 7.2 Ising Spin-1/2 System (D = 2) G. Kahl & F. Libisch (E136) Statistische Physik I Erg. zu Kapitel 7 7. Juni 2016 1 / 12 E 7.1 Ising
MehrMoleküldynamik. Modell: Klassische Mechanik Newtonsche Bewegungsgleichungen. = m a i
Mikroskopische Simulation der Molekülbewegungen Moleküldynamik Statistische Mechanik Modell: Klassische Mechanik Newtonsche Bewegungsgleichungen Makroskopische igenschaften des Systems (nergie, Temp, Druck,
Mehr4.5 KLASSISCHE FLÜSSIGKEITEN 85
4.5 KLASSISCHE FLÜSSIGKEITEN 85 σ / 2 σ / 2 Abbildung 4.9: Modell der harten Scheiben Wie wir sehen werden, besitzt dieses Modell mehrere Phasen und ist damit ideal zum Studium gewisser Eigenschaften solcher
MehrDas ferromagnetische Curie Weiss Modell 1
Das ferromagnetische Curie Weiss Modell 1 Vorbemerkung In der Statistischen Physik können magnetische Materialien als System von miteinander wechselwirkender Elementarmagneten, sogenannter Spins, beschrieben
MehrMustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
MehrWahrscheinlichkeitsrechnung und Statistik
5. Vorlesung Verteilungsfunktion (VF) Definition 9 Die Verteilungsfunktion (VF) einer Zufallsgröße X ist F : R R definiert als F (x) := P({ω Ω : X (ω) x}) = P( X x ) für jedes x R. Satz 9 - Eigenschaften
MehrE 3. Ergänzungen zu Kapitel 3
E 3. Ergänzungen zu Kapitel 3 1 E 3.1 Kritisches Verhalten des van der Waals Gases 2 E 3.2 Kritisches Verhalten des Ising Spin-1/2 Modells 3 E 3.3 Theorie von Lee und Yang 4 E 3.4 Skalenhypothese nach
MehrStatistische Mechanik des Zahlenaufteilungsproblems
Statistische Mechanik des Zahlenaufteilungsproblems Heiko Bauke Heiko.Bauke@physik.uni-magdeburg.de Statistische Mechanik des Zahlenaufteilungsproblems, Heiko Bauke, 2002 p.1/19 Das Zahlenaufteilungsproblem
MehrStatistische Mechanik ungeordneter Systeme, SoSe 2005
Statistische Mechanik ungeordneter Systeme, SoSe 005 Timo Aspelmeier, Alexander K. Hartmann, Universität Göttingen 1. Juni 005 7 Fortgeschrittene Monte Carlo Verfahren 7.1 Phasenübergang im (ungeordneten)
MehrMonte-Carlo-Simulation und Ising-Modell
Monte-Carlo-Simulation und Ising-Modell Simon Dinter Betreuer: Prof. Dr. Müller-Preußker Seminar zur theoretischen Physik, SS 2007 5. Juli 2007 Gliederung 1 Das Ising Modell 2 Monte Carlo Simulation Motivation
MehrPhysikalische Grundlagen der Magnetresonanz-Tomographie MRT
Physikalische Grundlagen der Magnetresonanz-Tomographie MRT http://www.praxis-nuramed.de/images/mrt_3_tesla.png Seminarvortrag am 30.05.2016 von Nanette Range MRT Bilder Nanette Range 30.05.2016 2 Motivation
MehrÜbungen zu Moderne Theoretischen Physik III SS Curie-Paramagnetismus ( =30 Punkte, schriftlich)
Karlsruher Institut für echnologie Institut für heorie der Kondensierten Materie Übungen zu Moderne heoretischen Physik III SS 06 Prof. Dr. A. Shnirman Blatt 5 PD Dr. B. Narozhny, P. Schad Lösungsvorschlag.
MehrErreichte Punktzahlen: Die Bearbeitungszeit beträgt 3 Stunden.
Fakultät für Physik der LMU München Prof. Ilka Brunner Michael Kay Vorlesung T4, WS11/12 Klausur am 18. Februar 2012 Name: Matrikelnummer: Erreichte Punktzahlen: 1 2 3 4 5 6 Hinweise Die Bearbeitungszeit
MehrBildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17
Bildverarbeitung: Filterung D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Allgemeines Klassische Anwendung: Entrauschung (Fast) jeder Filter basiert auf einem Modell (Annahme): Signal + Rauschen
MehrBZQ II: Stochastikpraktikum
BZQ II: Stochastikpraktikum Block 5: Markov-Chain-Monte-Carlo-Verfahren Randolf Altmeyer February 1, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden
MehrPhasenübergänge und kritische Phänomene
Kontrollfragen Phasenübergänge und kritische Phänomene Stephan Mertens 27. Juni 2014 UE R ICKE UNI VERSITÄT MAG G N VO D O TT O EBURG 1 Einführung und Motivation 1. Was versteht man in der Thermodynamik
MehrWahrscheinlichkeitsrechnung und Statistik
8. Vorlesung - 2017 Bemerkung: Sei X = (X 1,..., X n ) Zufallsvektor. Der n dimensionale Vektor ( ) E(X ) = E(X 1 ),..., E(X n ) ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N (0,
MehrStatistische Physik - Theorie der Wärme (PD Dr. M. Falcke) Übungsblatt 12: Ferromagnet
Freie Universität Berlin WS 2006/2007 Fachbereich Physik 26.01.2007 Statistische Physik - heorie der Wärme PD Dr. M. Falcke) Übungsblatt 12: Ferromagnet Aufgabe 1 6 Punkte) Ein ferromagnetisches System
MehrStochastik-Praktikum
Stochastik-Praktikum Markov Chain Monte Carlo Peter Frentrup Humboldt-Universität zu Berlin 16. Januar 2018 (Humboldt-Universität zu Berlin) Markov Chain Monte Carlo 16. Januar 2018 1 / 17 Übersicht 1
MehrLocal Search Algorithmen 1
Local Search Algorithmen 1 Seminar über Algorithmen Manuel Gellfart 18.05.2012 Fachbereich Mathematik und Informatik 18.05.2012 2 Gliederung 1. Einleitung 2. Theorie 3. Beispiel: Vertex Cover 4. Beispiel:
MehrUniversalität für Wigner Matrizen
Universalität für Wigner Matrizen Benjamin Schlein, Universität Zürich HSGYM Tag 29. Januar 2015 1 1. Einführung Zufallmatrizen: sind N N Matrizen dessen Einträge Zufallsvariablen mit gegebenen Verteilung
MehrChern-Simons Theorie. Thomas Unden, Sabrina Kröner 01. Feb Theorie der kondensierten Materie. Fraktionaler Quanten-Hall-Effekt
Chern-Simons Theorie Thomas Unden, Sabrina Kröner 01. Feb. 2012 Theorie der kondensierten Materie Fraktionaler Quanten-Hall-Effekt Seite 2 Chern-Simons Theorie Thomas Unden, Sabrina Kröner 01. Feb. 2012
MehrSpin-Modelle und Monte-Carlo Simulationen
Spin-Modelle und Monte-Carlo Simulationen Ralf Gamillscheg Technische Universität Graz 12. 1. 2006 Ralf Gamillscheg (TUG) Monte Carlo Simulationen 12. 1. 2006 1 / 22 Einleitung Spins uä. Statistische Physik
MehrModerne Theoretische Physik III (Theorie F Statistische Mechanik) SS 17
Karlsruher Institut für Technologie Institut für Theorie der Kondensierten Materie Moderne Theoretische Physik III (Theorie F Statistische Mechanik SS 7 Prof. Dr. Alexander Mirlin Musterlösung: Blatt 6
MehrLösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten
Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage
MehrÜbungen zur Theoretischen Physik Fb SS 18
Karlsruher Institut für Technologie Institut für Theorie der Kondensierten Materie Übungen zur Theoretischen Physik Fb SS 18 Prof. Dr. A. Shnirman Blatt 3 PD Dr. B. Narozhny Lösungsvorschlag 1. Anharmonischer
MehrSeminar zur Theorie der Teilchen und Felder Supersymmetrie
Alexander Hock a-hock@gmx.net Seminar zur Theorie der Teilchen und Felder Supersymmetrie Datum des Vortrags: 28.05.2014 Betreuer: Prof. Dr. J. Heitger Westfälische Wilhelms-Universität Münster, Deutschland
MehrFerienkurs Experimentalphysik Übung 2 - Musterlösung
Ferienkurs Experimentalphysik 4 00 Übung - Musterlösung Kopplung von Drehimpulsen und spektroskopische Notation (*) Vervollständigen Sie untenstehende Tabelle mit den fehlenden Werten der Quantenzahlen.
MehrDie Bewegungsgleichungen eines geladenen Teilchens im externen elektromagnetischen Feld sind bekannt d dt m v = e E + e [
Vorlesung 4 Teilchen im externen Elektromagnetischen Feld Die Bewegungsgleichungen eines geladenen Teilchens im externen elektromagnetischen Feld sind bekannt d dt m v = e E + e v B c ]. 1) Das elektrische
MehrKonvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen
Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
MehrAlgorithmen in Zellularautomaten
Algorithmen in Zellularautomaten 13. ZA-Modelle mit wenigen Zuständen Thomas Worsch Fakultät für Informatik Institut für Theoretische Informatik Sommersemester 2018 Ziele einige (sehr) einfache ZA als
Mehr3 Markov-Eigenschaft der Brownschen Bewegung
Man verifiziert 2.) für P n = Q n, und somit gilt: jede Teilfolge von (P n ) n N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen der Maße P n. Dazu sei π t1,...,t
MehrCharakterisierung von Strukturen und Strukturbildungsprozessen im Bernalschen Modell einfacher Flüssigkeiten. Antje Elsner
Charakterisierung von Strukturen und Strukturbildungsprozessen im Bernalschen Modell einfacher Flüssigkeiten Antje Elsner Überblick Modell Algorithmus Simulation Analyse Grundprinzipien Eigenschaften Ablauf
Mehr( ) ( ) < b k, 1 k n} (2) < x k
Technische Universität Dortmund Fakultät für Mathematik Proseminar Analysis Prof. Dr. Röger Benjamin Czyszczon Satz von Heine Borel Gliederung 1. Zellen und offene Überdeckungen 2. Satz von Heine Borel
MehrRelaxation. Dominik Weishaupt. 2.1 T1: Longitudinale Relaxation T2/T2*: Transversale Relaxation 8
2 Relaxation 7 7 2 Relaxation Dominik Weishaupt 2.1 T1: Longitudinale Relaxation 8 2.2 T2/T2*: Transversale Relaxation 8 D. Weishaupt, V. D. Köchli, B. Marincek, Wie funktioniert MRI?, DOI 10.1007/978-3-642-41616-3_2,
MehrAtom-, Molekül- und Festkörperphysik
Atom-, Molekül- und Festkörperphysik für LAK, SS 2013 Peter Puschnig basierend auf Unterlagen von Prof. Ulrich Hohenester 11. Vorlesung, 4.7. 2013 Para-, Dia- und Ferromagnetismus Isingmodell, Curietemperatur,
MehrNumerische Methoden und Algorithmen in der Physik
Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 11.12.2008 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 18 Einführung Einführung Verfahren für
Mehr1.1 Geradenspiegelungen
1.1 Geradenspiegelungen 1.1.1 Eigenschaften Definition 1.1 Eine Abbildung der Ebene ist eine Vorschrift, die jedem Punkt P der Ebene einen Bildpunkt P zuordnet. Beispiel 1.1 Zentrische Streckung mit Zentrum
MehrKapitel 19 Partialbruchzerlegung
Kapitel 19 Partialbruchzerlegung Mathematischer Vorkurs TU Dortmund Seite 1 / 15 Zur Erinnerung wiederholen wir Definition 4.5 [part] Es sei n N 0 und a 0, a 1,..., a n R mit a n 0. Dann heißt die Funktion
MehrAufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen
Ü b u n g 1 Aufgabe 1 Die Ereignisse A, B und C erfüllen die Bedingungen P(A) = 0. 7, P(B) = 0. 6, P(C) = 0. 5 P(A B) = 0. 4, P(A C) = 0. 3, P(B C) = 0. 2, P(A B C) = 0. 1 Bestimmen Sie P(A B), P(A C),
MehrVorlesung Physikalische Chemie IV Statistische Thermodynamik realer chemischer Systeme"
Vorlesung Physikalische Chemie IV Statistische Thermodynamik realer chemischer Systeme" Dietmar Paschek SS 016 Gittermodell für Mischungen Grenzen der Bragg-Williams Näherung Das Ising Modell Quasi-Chemische
MehrStörungstheorie. Kapitel Motivation. 8.2 Zeitunabhängige Störungstheorie (Rayleigh-Schrödinger) nicht-entartete Störungstheorie
Kapitel 8 Störungstheorie 8.1 Motivation Die meisten quantenmechanischen Problemstellungen lassen sich (leider) nicht exakt lösen. So kommt zum Beispiel der harmonische Oszillator in der Natur in Reinform
MehrPaarverteilungsfunktion und Strukturfaktor Seminar: Weiche Materie
30.11.2007 Paarverteilungsfunktion und Strukturfaktor Seminar: Weiche Materie Johanna Flock Gliederung Einleitung Kurze Wiederholung Statistischer Mechanik Ensemble Statistische Beschreibung von Kolloid
Mehr15 Reale Gase; Virialentwicklung
Woche 3 5 Reale Gase; Virialentwicklung Klassisches Bild, wechselwirkende Teilchen. Clusterentwicklung als Ausgangspunkt für die Näherungsverfahren (Mayer,937) Modell: Einatomiges klassisches Gas, symmetrische
MehrAlgorithmen II Vorlesung am
Algorithmen II Vorlesung am 17.01.013 Parametrisierte Algorithmen INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER KIT Universität des Landes Baden-Württemberg und Algorithmen nationales
MehrKapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Universität Karlsruhe (TH) Institut für Statistik und Mathematische Wirtschaftstheorie Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
MehrAnalyis I -Metrische Räume - eine Einführung in die Topologie
Analyis I -Metrische Räume - eine Einführung in die Topologie E = E isolierter Punkte x 1 x 2 x 3 E ist abgeschlossen U ɛ (x) x innerer Punkt Ω Häufungspunkte Ω Metrik Metrische Räume Definition Sei X
MehrÜbersicht. 3 3 Kontextfreie Sprachen
Formale Systeme, Automaten, Prozesse Übersicht 3 3.1 Kontextfreie Sprachen und Grammatiken 3.2 Ableitungsbäume 3.3 Die pre -Operation 3.4 Entscheidungsprobleme für CFGs 3.5 Normalformen für CFGs 3.6 Chomsky-Normalform
MehrTuring Maschine. Thorsten Timmer. SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke. Turing Maschine SS 2005 p.
Thorsten Timmer SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke Turing Maschine SS 2005 p. 1/35 Inhalt Einführung Formale Definition Berechenbare Sprachen und Funktionen Berechnung ganzzahliger
MehrWahrscheinlichkeitsrechnung und Statistik
8. Vorlesung Pseudozufallszahlen sind, wie der Name schon sagt, keine echten Zufallszahlen, sondern werden durch Generatoren erzeugt. Als Pseudozufallszahlen bezeichnet man Zahlenfolgen die durch einen
Mehre x e x x e x + e x (falls die Grenzwerte existieren), e x e x 1 e 2x = lim x 1
Aufgabe a Hier kann man die Regel von de l Hospital zweimal anwenden (jeweils und die Ableitung des Nenners ist für hinreichend große x ungleich. Dies führt auf e x e x e x + e x e x + e x e x e x e x
MehrEinführung in Simulationen mit Monte Carlo und Brownscher Dynamik. Martin Oettel Johannes Bleibel
Einführung in Simulationen mit Monte Carlo und Brownscher Dynamik Martin Oettel Johannes Bleibel Die Monte Carlo-Methode 1. Beispiel Bestimmung von π 1 1 π = 1 1 dx 1 dy G(x, y) G (x, y) = θ(1 x 2 + y
MehrParallele Algorithmen in der Bildverarbeitung
Seminar über Algorithmen - SoSe 2009 Parallele Algorithmen in der Bildverarbeitung von Christopher Keiner 1 Allgemeines 1.1 Einleitung Parallele Algorithmen gewinnen immer stärker an Bedeutung. Es existieren
MehrBildsegmentierung mit Level Sets
Bildsegmentierung mit Level Sets Seminar Bildsegmentierung und Computer Vision im Wintersemester 2005 Übersicht 1 Übersicht 2 Definitionen Ausbreitungsgeschwindigkeit Übersicht 3 Inter-Frame-basierte Modellierung
MehrThermodynamik un Statistische Mechanik
Theoretische Physik Band 9 Walter Greiner Ludwig Neise Horst Stöcker Thermodynamik un Statistische Mechanik Ein Lehr- und Übungsbuch Mit zahlreichen Abbildungen, Beispiele n und Aufgaben mit ausführlichen
MehrWahrscheinlichkeitsrechnung und Statistik
7. Vorlesung - 2018 Bemerkung: Sei X = X 1,..., X n Zufallsvektor. Der n dimensionale Vektor EX = EX 1,..., EX n ist der Erwartungswert des Zufallsvektors X. Beispiel: Seien X, Y N0, 1. X, Y sind die Koordinaten
MehrMolekulardynamik im metastabilen µvt-ensemble
Molekulardynamik im metastabilen µvt-ensemble ITT-Institutsseminar Martin Horsch 29. Januar 2008 Untersuchung von Nukleationsprozessen Indirekte Simulation: Monte-Carlo-Simulation Transition Path/Interface
MehrGroßkanonische Monte-Carlo Simulationen eines Modells harter Stäbchen
»COMPUTATIONAL PHYSICS«PRAKTIKUM VERSUCH 6 WS 2015/16 Großkanonische Monte-Carlo Simulationen eines Modells harter Stäbchen Miriam Klopotek, Malte Lütje und Martin Oettel 20. Januar 2016 1 EINFÜHRUNG 1.1
MehrEinführung in die Stochastik 6. Übungsblatt
Einführung in die Stochastik 6. Übungsblatt Fachbereich Mathematik SS M. Kohler 3. Mai A. Fromkorth D. Furer Gruppen und Hausübung Aufgabe (a) Die Wahrscheinlichkeit, dass eine S Bahn Verspätung hat, betrage.3.
MehrBachelorarbeit. Monte-Carlo-Simulationen an Fe 30 -Schichtsystemen. Katrin Jahns Fachbereich Physik
Bachelorarbeit Monte-Carlo-Simulationen an Fe 30 -Schichtsystemen Katrin Jahns Fachbereich Physik 4. Juni 2006 Monte-Carlo-Simulationen an Fe 30 -Schichtsystemen Inhaltsverzeichnis 1 Einleitung 3 2 Statistische
MehrEigenwerte. Vorlesung Computergestützte Mathematik zur Linearen Algebra. Lehrstuhl für Angewandte Mathematik Sommersemester 2009
Eigenwerte Vorlesung Computergestützte Mathematik zur Linearen Algebra Lehrstuhl für Angewandte Mathematik Sommersemester 2009 25. Juni + 2.+9. Juli 2009 Grundlagen Definition Ist für A C n,n, Ax = λx
MehrAdaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Evolutionäre Algorithmen Teil II Evolutionsfenster durch Mutation und sexuelle Rekombination Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Evolutionäre Algorithmen
Mehr1. Thermodynamik magnetischer Systeme
1. Thermodynamik magnetischer Systeme 1 1.1 Thermodynamische Potentiale 2 1.2 Magnetische Modellsysteme G. Kahl (Institut für Theoretische Physik) Statistische Physik II Kapitel 1 5. April 2013 1 / 15
MehrBegleitmaterial zur Vorlesung Numerik II
Begleitmaterial zur Vorlesung Numerik II Andreas Meister Universität Kassel, AG Analysis und Angewandte Mathematik Andreas Meister (Universität Kassel) Begleitmaterial Numerik II 1 / 35 Inhalte der Numerik
MehrWahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen
Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de
MehrTheoretischen Physik II SS 2007 Klausur II - Aufgaben und Lösungen
Theoretischen Physik II SS 007 Klausur II - Aufgaben und Lösungen Aufgabe Hohlleiter Gegeben sei ein in z-richtung unendlich langer, gerader Hohlleiter (Innenradius R/3, Außenradius R), der einen Stromfaden
MehrEinführung in das Invarianzprinzip
15.03.2016 Motivation Betrachtet diesen Kreis, der in sechs Sektoren eingeteilt ist. Wir erlauben, die Zahl in je zwei benachbarten Feldern um jeweils 1 zu erhöhen. In welcher Reihenfolge muss man die
MehrPerkolation Christina Sander
Perkolation Christina Sander 28.6.2010 Seite 2 Perkolation 28.6.2010 Christina Sander Inhalt Motivation Definitionen Kritischer Wert Boolsches Modell Anhang Seite 3 Perkolation 28.6.2010 Christina Sander
MehrMarkov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes
Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,
MehrThermodynamik und Statistische Mechanik
Theoretische Physik Band 9 Walter Greiner Ludwig Neise Horst Stöcker Thermodynamik und Statistische Mechanik Ein Lehr- und Übungsbuch Mit zahlreichen Abbildungen, Beispielen und Aufgaben mit ausführlichen
MehrRuprecht-Karls-Universität Heidelberg Vorbereitung zur Diplomprüfung Theoretische Physik
Ruprecht-Karls-Universität Heidelberg Vorbereitung zur Diplomprüfung Theoretische Physik begleitend zur Vorlesung Statistische Mechanik und Thermodynamik WS 2006/2007 Prof. Dr. Dieter W. Heermann erstellt
MehrWigner-Funktion und kohärente Zustände
Wigner-Funktion und kohärente Zustände Daniel Kavajin Seminar zur Theorie der Atome, Kerne und kondensierten Materie 21.11.2012 Einleitung Ein klassischer Zustand wird durch einen Punkt im Phasenraum repräsentiert.
MehrFortgeschrittene MD/MC Methoden Wie man die freie Energie berechnet. Andreas Irmler
Fortgeschrittene MD/MC Methoden Wie man die freie Energie berechnet Andreas Irmler 22. März 2010 Inhaltsverzeichnis 1 Freie Energie 2 1.1 Motivation............................................... 2 1.2
MehrMerke: Zwei Oszillatoren koppeln am stärksten, wenn sie die gleiche Eigenfrequenz besitzen. RESONANZ
Merke: Zwei Oszillatoren koppeln am stärksten, wenn sie die gleiche Eigenfrequenz besitzen. RESONANZ Viele Kerne besitzen einen Spindrehimpuls. Ein Kern mit der Spinquantenzahl I hat einen Drehimpuls (L)
MehrMarkov Chain Monte Carlo, an introduction
Markov Chain Monte Carlo, an introduction Erich Novak 9. Oktober 2010 Zusammenfassung This lecture was given with the blackboard. Here I only collect a few key words and present some pictures. More details
MehrÜbungen zur Theoretischen Physik F SS 08. ds + dv + dn = TdS pdv + µdn. w α ln(w α )
Universität Karlsruhe Institut für Theorie der Kondensierten Materie Übungen zur Theoretischen Physi F SS 08 Prof. Dr. P. Wölfle Musterlösung Dr. M. Greiter Blatt 12 1. Alle thermodynamischen Zustandgrössen,
MehrDas Lebesgue-Maß im R p
Das Lebesgue-Maß im R p Wir werden nun im R p ein metrisches äußeres Maß definieren, welches schließlich zum Lebesgue-Maß führen wird. Als erstes definieren wir das Volumen von Intervallen des R p. Seien
MehrTheorie der Informatik. Theorie der Informatik P und NP Polynomielle Reduktionen NP-Härte und NP-Vollständigkeit
Theorie der Informatik 13. Mai 2015 20. P, NP und polynomielle Reduktionen Theorie der Informatik 20. P, NP und polynomielle Reduktionen 20.1 P und NP Malte Helmert Gabriele Röger 20.2 Polynomielle Reduktionen
Mehr3 Trend- und Saisonkomponenten
3 Trend- und Saisonkomponenten Schritte bei der Analyse von Zeitreihendaten : Plot ; Identifikation von Strukturbrüchen, Ausreißern etc. ; Modellansatz, z.b. klassisches Komponentenmodell X t = m t + s
MehrWelche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff?
2. Übung: Wahrscheinlichkeitsrechnung Aufgabe 1 Welche Axiome sind Grundlage der axiomatischen Wahrscheinlichkeitsdefinition von Kolmogoroff? a) P ist nichtnegativ. b) P ist additiv. c) P ist multiplikativ.
MehrDocken von Proteinen. Timo von Oertzen St. Johann, September 2002
Docken von Proteinen Timo von Oertzen St. Johann, September 2002 Das Dock - Problem Schlecht...... ganz schlecht... Gut! Das Dock - Problem Das Dock Problem ist die Suche nach der energetischen günstigsten
MehrProzesse dieser Art sind in der Informatik z.b. bei der Untersuchung der Auslastung von Servern wichtig (Warteschlangenmodelle).
77 Markowketten 77 Motivation Der Zustand eines Systems zur Zeit n N werde durch eine Zufallsvariable X n beschrieben und soll nur von X n abhängen (nicht jedoch von früheren Zuständen X n, X n 3, ) Wir
MehrÜbungsblatt 03 (Hausaufgaben)
Übungsblatt 03 Hausaufgaben Elektrizitätslehre und Magnetismus Bachelor Physik Bachelor Wirtschaftsphysik Lehramt Physik 0.05.008 Aufgaben. Gegeben sind Ladungen + am Orte a; 0; 0 und a; 0; 0: a Berechnen
Mehr3 Trend- und Saisonkomponenten
3 Trend- und Saisonkomponenten Schritte bei der Analyse von Zeitreihendaten : Plot ; Identifikation von Strukturbrüchen, Ausreißern etc. ; Modellansatz, z.b. klassisches Komponentenmodell X t = m t + s
MehrClustering. Herbert Stoyan Stefan Mandl. 18. Dezember 2003
Clustering Herbert Stoyan Stefan Mandl 18. Dezember 2003 Einleitung Clustering ist eine wichtige nicht-überwachte Lernmethode Andwenungen Marketing: Finde Gruppen von Kunden mit gleichem Kaufverhalten,
MehrIsing-Modell mit Monte Carlo Methode
Ising-Modell mit Monte Carlo Methode Bachelorarbeit der Philosophisch-naturwissenschaftlichen Fakultät der Universität Bern vorgelegt von Bänz Bessire 2007 Leiter der Arbeit Prof. Uwe-Jens Wiese Institut
MehrWahrscheinlichkeitsrechnung und Statistik
1. und 2. Vorlesung - 2017 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich werde mit Sicherheit gewinnen! Ist das wirklich unmöglich?
MehrLösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried
Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,
Mehr