Grundlagen Stochastischer Prozesse in Biophysikalischen Systemen

Größe: px
Ab Seite anzeigen:

Download "Grundlagen Stochastischer Prozesse in Biophysikalischen Systemen"

Transkript

1 Grundlagen Stochastischer Prozesse in Biophysikalischen Systemen Ronny Straube Max Planck Institut für Dynamik komplexer technischer Systeme Magdeburg January 29, 2014

2

3 Contents 1. Einleitung Motivation Der Poisson Prozess Deterministische Beschreibung Übergang zur stochastischen Beschreibung Lösung der Mastergleichung Die wahrscheinlichkeitserzeugende Funktion Mittelwert und Varianz Gentranskription als Poisson Prozess Deterministische Modellierung Stochastische Modellierung Gleichung für die wahrscheinlichkeitserzeugende Funktion Zeitabhängige Wahrscheinlichkeitsdichte Stochastische Prozesse Einleitung Beschreibung durch Verbundwahrscheinlichkeiten Konsistenzbedingungen Bedingte Wahrscheinlichkeiten Stationarität und Ergodizität Spektrale Leistungsdichte und Wiener-Khinchin Theorem Unendlich groÿe Messintervalle Endliche Messintervalle Beispiele Markov Prozesse Chapman-Kolmogorov Gleichung Stationäre und homogene Markov Prozesse Die Mastergleichung Herleitung der Mastergleichung Detailed Balance und thermodynamisches Gleichgewicht : Beispiele Random-Telegraph Prozess Lösung der Mastergleichung Mittelwert und Varianz im stationären Regime Stationäre Autokorrelationsfunktion

4 Contents 4.3. Zeitkontinuierlicher Random Walk (1d) Die wahrscheinlichkeitserzeugende Funktion Mittelwert und Varianz Zeitabhängige Lösung der Mastergleichung Übergang zur räumlich kontinuierlichen Beschreibung Chemische Reaktionen Aufstellen der Mastergleichung Parametrisierung durch Ausgangszustand und Sprungweite Multivariate Mastergleichung Simulation der Mastergleichung: Gillespie Algorithmus Die Wahrscheinlichkeitsdichte p (τ, i n k, t k ) Kopplung von Transkription und Translation Mastergleichung Quasi-stationäre Beschreibung der Proteinsynthese Eektive Mastergleichung für die Proteinsynthese Übergang zur kontinuierlichen Beschreibung Stationäre Lösung Fokker-Planck Gleichungen Die Kramers-Moyal Entwicklung Zeitliche Entwicklung von Erwartungswerten Gleichungen für Mittelwert und Varianz Der Wiener Prozess Unabhängige Zuwächse Autokorrelationsfunktion Der Ornstein-Uhlenbeck Prozess Zeitabhängige Lösung der Fokker-Planck Gleichung Stationäre Autokorrelationsfunktion Die van Kampen Entwicklung Entwicklung der Mastergleichung nach der inversen Systemgröÿe Vergleich mit Kramers-Moyal Fokker-Planck Gleichung Diskussion der van Kampen Entwicklung Mastergleichungen vom Diusionstyp Von der Mastergleichung zur Fokker-Planck Gleichung Stationäre Lösung der Mastergleichung Kramers-Moyal Entwicklung Van Kampen Entwicklung Zusammenfassung van Kampen-Entwicklung für Reaktionsnetzwerke Teilchenzahluktuationen Berechnung stochastischer Kenngröÿen Beispiel: Ligand-Rezeptorbindung

5 Contents 6. Stochastische Dierentialgleichungen Einleitung Die Langevin Methode Allgemeine Problemstellung Weiÿes Rauschen Stochastischer Integralbegri Denition des stochastischen Integrals Das Ito Integral Eigenschaften des Ito Integrals Das Stratonowich Integral Zugeordnete Fokker-Planck Gleichung Alternative Schreibweisen Das Rayleigh Teilchen Berechnung der Autokorrelationsfunktion Stationärer Prozess und Fluktuations-Dissipationstheorem Beschreibung durch Fokker-Planck Gleichung Multivariate Stochastische Dierentialgleichungen Korreliertes bzw. Farbiges Rauschen Farbiges Rauschen und Nicht-Markov'sche Dynamik A. Elemente der Wahrscheinlichkeitstheorie 121 A.1. Objektivierung von Wahrscheinlichkeiten A.2. Bedingte Wahrscheinlichkeit, Unabhängigkeit und Bayesche Formel A.3. Kontinuierliche Zufallsvariablen A.4. Erwartungswerte und Charakteristische Funktion A.5. Wichtige Verteilungen und deren charakteristische Funktion A.5.1. Poisson-Verteilung und Poisson'scher Grenzwertsatz A.5.2. Wartezeiten und exponentiell verteilte Zufallsgröÿen A.5.3. Gauÿ-Verteilung A.6. Transformation von Zufallsgröÿen A.7. Mehrdimensionale Verteilungen A.7.1. Momente, charakteristische Funktion und (Ko-)Varianzen A.7.2. Mehrdimensionale Gauÿ-Verteilung A.8. Gesetz der groÿen Zahlen und Zentraler Grenzwertsatz

6

7 Literatur Vorwort Dieses Vorlesungsskript ist im Rahmen einer 2-SWS umfassenden Vorlesung für Physiker, Mathematiker, Biosystemwissenschaftler und Kybernetiker an der Otto-von-Guericke Universität Magdeburg entstanden. Die Vorlesung ist als Einführung in die Theorie stochastischer Prozesse gedacht. Zur Vorbereitung habe ich die in Abschnitt genannten Standardbücher, Originalartikel (werden im laufenden Text zitiert) sowie zwei weitere im Internet zugängliche Vorlesungsskripte benutzt. Der laufende Text enthält viele explizit durch gerechnete Beispiele, die man typischerweise als Übungsaufgabe stellen würde. Als biologisches Standardbeispiel zur Anwendung der im Text vorgestellten Methoden dient der kombinierte Prozess bestehend aus mrna Transkription und Proteintranslation, der in den vergangenen Jahren zu einem tieferen Verständnis der in lebenden Zellen beobachteten Proteinverteilungen geführt hat. Im Anhang ndet man eine kurze Einführung in den Umgang mit stochastischen Variablen und Verteilungen. Literatur: Wahrscheinlichkeitstheorie 1. William Feller, An introduction to probability theory and its applications 1 & 2, Wiley 1968 & 1991 Literatur: Stochastische Prozesse 1. C. W. Gardiner, Handbook of Stochastic Methods, Springer N. van Kampen, Stochastic Processes in Physics and Chemistry, North Holland, J. Schnakenberg, RWTH Aachen, Vorlesungsskript Stochastische Prozesse, download unter 4. A. Pikovski, Universität Potsdam, Vorlesungsskript Stochastische Prozesse und Statistische Methoden, download unter 7

8

9 1. Einleitung 1.1. Motivation Die klassische Gleichgewichts-Thermodynamik ist eine Theorie der Mittelwerte (zumindest solange die betrachteten Systeme weit weg von Phasenübergängen sind), d.h. der makroskopische Zustand eines Systems (z. B. der eines Gases oder einer Flüssigkeit) lässt sich durch eine, im Allgemeinen, geringe Anzahl makroskopischer Parameter wie Druck, Temperatur, Energie, Teilchenzahl usw. beschreiben. Relative Abweichungen vom Mittelwert dieser Gröÿen sind typischerweise von der Gröÿenordnung N/ N 1/ N, d.h. für makroskopische Systeme mit N (1 Mol) Teilchen sind diese Fluktuationen von der Gröÿenordnung 10 12, also mikroskopisch klein. Diese Tatsache rechtfertigt die Beschreibung makroskopischer Systeme auf der Basis von Mittelwerten. Warum stochastische Modellierung? Die soeben angeführte Abschätzung zeigt aber auch, daÿ in Systemen mit weniger als 100 Teilchen die relativen Fluktuationen signikant werden können (>10%), was sich, zum Beispiel, beim Elektronenrauschen in einer Kathodenstrahlröhre beobachten lässt. Durch Anlegen einer niedrigen Spannung kann man erreichen, daÿ im Mittel pro Zeiteinheit immer nur ein Elektron aus der Kathode austritt. Dann beobachtet man, dass die Wartezeit zwischen zwei aufeinanderfolgenden Elektronen nicht konstant ist, sondern zufälligen Schwankungen unterliegt, die sich in messbaren Stromschwankungen an der Anode bemerkbar machen. Für die relativen Stromschwankungen ndet man I/ I 1/ I, wobei I n e proportional zur Anzahl an geossenen Elektronen ist. Insbesondere nimmt mit wachsender Betriebsspannung der Elektronenstrom zu und die relativen Stromschwankungen ab. Ähnliche Verhältnisse ndet man in lebenden Zellen, in denen eine Vielzahl von Proteinen (hauptsächlich solche, die als Signalmoleküle dienen) in nur geringer Anzahl ( 100 Moleküle) vorkommen. Die bei solch geringen Molekülzahlen beobachteten Fluktuationen in der Proteinanzahl von einer Zelle zur nächsten lassen sich allerdings nicht allein durch das 1/ N -Gesetz erklären, denn die Proteinsynthese ist ein gekoppelter Prozess bestehend aus Gentranskription und anschlieÿender mrna Translation. Wie wir später sehen werden, führt die Kopplung zweier dem 1/ N -Gesetz gehorchenden Prozesse im Allgemeinen nicht wieder zu einem solchen Prozess. Die in lebenden Zellen auftretenden Fluktuationen in regulatorisch wirkenden Molekülen können weitreichende Folgen haben, wie ein kürzlich erschienener Artikel im Science Journal zeigt 1. 1 P. J. Choi, L. Cai, K. Frieda and X. Sunney Xie. A stochastic single-molecule event triggers phenotype switching of a bacterial cell. Science 322, 442 (2008). 9

10 1. Einleitung Aus mathematischer Sicht geht man bei der Beschreibung uktuierender Gröÿen von Ratengleichungen für die Mittelwerte über zu Bilanzgleichungen für die Übergangswahrscheinlichkeiten eines zugrunde liegenden stochastischen Prozesses. An die Stelle von Konzentrationen und Reaktionsraten treten in der stochastischen Beschreibung Molekülzahlen und Übergangsraten. Diese Art der Beschreibung nennt man mesoskopisch. Im Gegensatz zu rein Mittelwert-basierten Theorien, wie den Newtonschen Gleichungen, wird die Dynamik in mesoskopischen Systemen auch durch Fluktuationen der zu beschreibenden Gröÿen beinusst. Speziell wird die diskrete Natur, der die Fluktuationen verursachenden Prozesse, explizit berücksichtigt. Demgegenüber spielen die Übergangsraten oft nur die Rolle phänomenologischer Parameter. Im Prinzip, können diese allerdings aus mikroskopischen Theorien, wie der Quantenmechanik, abgeleitet werden. In diesem Sinne stellt die mesoskopische Beschreibung ein Bindeglied zwischen der makroskopischen und der mikroskopischen Beschreibung physikalischer Prozesse dar Der Poisson Prozess Wir wollen hier ganz allgemein die zeitliche Entwicklung von Prozessen beschreiben, bei denen die betrachtete Grösse aufgrund zufälliger Ereignisse im Laufe der Zeit anwächst, beispielsweise 1. der zeitabhängige Strom, der durch Elektronen verursacht wird, die an der Anode eine Kathodenstrahlröhre ankommen. 2. die Anzahl an mrna Molekülen, die bis zu einem Zeitpunkt t erzeugt worden sind. 3. die Anzahl radioaktiver Kerne, die bis zu einem Zeitpunkt t zerfallen sind. In Bezug auf diese Prozesse soll nur voraus gesetzt werden, dass die Ereignisse unabhängig sind (Pro Zeiteinheit soll immer nur ein Ereignis statt nden.) mit konstanter Wahrscheinlichkeit pro Zeiteinheit eintreten. Diese beiden Forderungen denieren einen Poisson Prozess Deterministische Beschreibung Zum späteren Vergleich ist es zweckmäÿig sich vorher zu überlegen, wie der zeitliche Verlauf eines Poisson Prozesses aus deterministischer Sicht aussähe. Konkret wollen wir annehmen, dass Teilchen der Sorte X mit konstanter Rate k R erzeugt werden. Dann ist die zeitliche Entwicklung der Teilchenzahl durch die gewöhnliche DGL dx dt = k R, k R > 0, X(t = 0) = 0. bestimmt, wenn bei t = 0 noch kein Teilchen vorhanden war. Das heiÿt aber, dass die Teilchenzahl einfach linear im Laufe der Zeit anwächst, also X(t) = k R t. (1.1) 10

11 1.2. Der Poisson Prozess In vielen Fällen ist aber die Rate, mit der etwas erzeugt wird, nicht exakt konstant, sondern schwankt um einen mittleren Wert. Es macht also Sinn, statt einer festen Rate nur noch eine feste Wahrscheinlichkeit pro Zeiteinheit zu betrachten, mit der etwas erzeugt wird (Abb. 1.1A) Übergang zur stochastischen Beschreibung Sei P (n, t) die Wahrscheinlichkeit dafür, dass bis zur Zeit t genau n Ereignisse eingetreten sind, wenn zur Zeit t = 0 noch keines eingetreten war, dann lässt sich für P (n, t + t) die folgende Bilanzgleichung aufstellen P (n, t + t) = (k R t) P (n 1, t) + (1 k R t) P (n, t) (1.2) wobei k R die Wahrscheinlichkeit pro Zeiteinheit für das Eintreten eines Ereignisses ist. Gl. (1.2) überlegt man sich so: Damit zur Zeit t + t genau n Ereignisse eingetreten sind, gibt es genau zwei Möglichkeiten 1. Es sind bis zur Zeit t erst n 1 Ereignisse eingetreten (die Wahrscheinlichkeit dafür ist P (n 1, t)) und im Zeitintervall t tritt genau ein weiteres Ereignis (mit Wahrscheinlichkeit k R t) ein oder 2. Es sind bis zur Zeit t bereits n Ereignisse eingetreten (die Wahrscheinlichkeit dafür ist P (n, t)) und im Zeitintervall t darf kein weiteres Ereignis eintreten. (Die Wahrscheinlichkeit hierfür ist gerade 1 k R t.) Da beide Möglichkeiten unabhängig voneinander eintreten können, müssen die entsprechenden Wahrscheinlichkeiten addiert werden. Als Resultat erhält man Gleichung (1.2). Im Grenzwert kleiner Zeitschritte t 0 wird aus Gl. (1.2) die gewöhnliche DGL d dt P (n, t) = k R [P (n 1, t) P (n, t)], (1.3) wobei wir auf der linken Seite den Dierentialquotienten durch die 1. Ableitung gemäÿ ersetzt haben. P (n, t + t) P (n, t) lim := d P (n, t) t 0 t dt Bemerkungen 1. Gleichung (1.3) ist eine spezielle Mastergleichung, die in Abschnitt 4.1 allgemein für sogenannte Markov Prozesse hergeleitet wird. 2. Streng genommen, besteht Gl. (1.3) aus unendlich vielen gekoppelten Dierentialgleichungen - eine für jedes n N. 11

12 1. Einleitung Lösung der Mastergleichung Zur Lösung von Gl. (1.3) brauchen wir eine Anfangsbedingung. Dazu wollen wir annehmen, dass zur Zeit t = 0 noch kein Ereignis eingetreten war, also Diese Bedingungen lassen sich kompakt in der Form { 1, P (n, t = 0) = δ n0 := 0, P (0, t = 0) = 1 (1.4) P (n, t = 0) = 0, n 1. (1.5) n = 0 n 1 (1.6) zusammenfassen. Auÿerdem müssen wir beachten, dass Gl. (1.3) zunächst nur für n 1 sinnvoll ist, da zur Berechnung von P (0, t) (d.h. für n = 0) die Wahrscheinlichkeit P ( 1, t) bekannt sein muss. Da negative Werte von n als Zählvariable von Ereignissen keinen Sinn machen, xieren wir P ( 1, t) durch die Forderung P ( 1, t) 0. (1.7) Damit wird Gl. (1.3) zu einem System gekoppelter Dierentialgleichungen dp (0, t) = k R P (0, t) dt (1.8) dp (n, t) = k R [P (n 1, t) P (n, t)], dt n 1, (1.9) das sich iterativ, unter Verwendung der Anfangsbedingungen (1.4) und (1.5), lösen lässt. Für P (0, t) erhalten wir einfach P (0, t) = e k Rt, t 0, d.h. die Wahrscheinlichkeit, in dem Zustand n = 0 zu bleiben, wird exponentiell klein im Laufe der Zeit. Für P (1, t) erhalten wir damit die Gleichung dp (1, t) ] = k R [e krt P (1, t), P (1, t = 0) = 0, dt deren Lösung durch P (1, t) = (k R t) e krt, t 0 gegeben ist. Durch iteratives Lösen von Gl. (1.9) nden wir sukzessive P (2, t) = (k Rt) 2. 2 e k Rt P (n, t) = (k Rt) n e krt, n N, t 0, (1.10) n! d.h. die Wahrscheinlichkeit, dass bis zur Zeit t genau n Ergeignisse eingetreten sind, ist durch die Poisson Verteilung (1.10) gegeben. 12

13 Die wahrscheinlichkeitserzeugende Funktion 1.2. Der Poisson Prozess Statt, wie im letzten Abschnitt, P (n, t) für jedes n mühsam einzeln auszurechnen, wollen wir jetzt eine elegante Methode kennen lernen, mit deren Hilfe, alle n auf einmal berücksichtigt werden können. Dazu denieren wir die sogenannte wahrscheinlichkeitserzeugende Funktion durch F (z, t) = P (n, t)z n. (1.11) n=0 Die Idee besteht darin, aus der Masterleichung (1.3) eine Gleichung für F (z, t) herzuleiten, diese zu lösen und die gesuchten Wahrscheinlichkeiten aus der Taylorreihe von F (z, t) bezüglich z abzulesen. Um eine Gleichung für F (z, t) herzuleiten, multiplizieren wir beide Seiten in Gleichung (1.3) mit z n und summieren anschlieÿend über alle zulässigen Werte der stochastischen Variable n (also n = 0, 1,..., ). Dann erhalten wir n=0 d dt P (n, t) zn = k R [ ] P (n 1, t) z n P (n, t) z n. (1.12) n=0 Auf der linken Seite können wir die Zeitableitung mit der Summation vertauschen, da wir davon ausgehen, dass die Darstellung für F (z, t) in Gl. (1.11) (absolut) konvergent ist. Unter Beachtung, dass der zweite Term in Gl. (1.12) bereits mit der Potenzreihendarstellung für F (z, t) übereinstimmt, wird aus Gl. (1.12) zunächst t F (z, t) = k R n=0 [ ] P (n 1, t) z n F (z, t). n=0 Bleibt uns noch den ersten Term so umzuschreiben, dass die wahrscheinlichkeitserzeugende Funktion ins Spiel kommt. Das machen wir so P (n 1, t)z n = z P (n 1, t)z n 1 = z P (m, t)z m n=0 = z n=0 P (m, t)z m m=0 = zf (z, t). m= 1 Beim Übergang von Zeile 1 zu Zeile 2 haben wir ausgenutzt, dass P ( 1, t) 0 (Gl. 1.7). Damit erhalten wir insgesamt für die in Gleichung (1.11) denierte Funktion F (z, t) die (partielle) Dierentialgleichung t F (z, t) = k R (z 1) F (z, t). (1.13) Zur Lösung dieser Gleichung brauchen wir noch eine Anfangsbedingung, die wir aus der Anfangsbedingung P (n, t = 0) = δ n0 (Gl. 1.6) und Gl. (1.11) erhalten F (z, 0) = P (n, 0)z n = δ n0 z n = 1. (1.14) n=0 n=0 13

14 1. Einleitung (A) mrna (B) mrna Abbildung 1.1.: Der Poisson Prozess: (A) Teilchen (z.b. mrnas) werden mit konstanter Rate erzeugt. (B) Teilchen werden sowohl auf- als auch abgebaut. Die entsprechenden Wahrscheinlichkeitsdichten sind durch Gl. (1.16) (A) bzw. Gl. (1.25) (B) gegeben. Die gepunkteten Linien geben den zeitlichen Verlauf des Mittelwertes n an. In (A) wächst der Mittelwert im Laufe der Zeit an. In (B) erreicht er nach der Zeit t 1/γ R = 10s seinen stationären Wert n s = k R /γ R = 20. Die sich nach 50s einstellende Dichte entspricht etwa der in Gl. (1.26) denierten stationären Dichte. Die Lösung von Gl. (1.13) ist dann durch F (z, t) = exp (k R t [z 1]) (1.15) gegeben. Taylor-Entwicklung von F (z, t) bezüglich z liefert F (z, t) = e k Rt e k Rtz = e k Rt (k R t) n z n! = n! n=0 P (n, t) z n, d.h. die Wahrscheinlichkeit, dass bis zur Zeit t genau n Ereignisse eingetreten sind ist durch die Poisson Verteilung n=0 P (n, t) = (k Rt) n e krt, n = 0, 1, 2,... (1.16) n! gegeben (siehe Abb. 1.1A), in Übereinstimmung mit Gl. (1.10) Mittelwert und Varianz Allgemeine Denitionen: Wichtige Kenngröÿen einer Verteilung sind ihr Mittelwert N(t) = np (n, t) n=0 14

15 1.2. Der Poisson Prozess und ihre Varianz (deniert als mittlere quadratische Abweichung vom Mittelwert) var [N (t)] σn 2 (t) : = (N(t) N(t) ) 2 = N(t) 2 2N(t) N(t) + N(t) 2. = N(t) 2 2 N(t) 2 + N(t) 2 = N(t) 2 N(t) 2. Die Wurzel aus der Varianz bezeichnet man als Standardabweichung σ N := var(n). Sie ist ein Maÿ für die Schwankungsbreite der Verteilung und beschreibt Fluktuationen um den Mittelwert. Mittelwert und Varianz des Poisson Prozesses Verwendung von Gl. (1.16) N (t) = np (n, t) n=0 = n (k Rt) n e k Rt n! n=1 (k R t) n 1 = (k R t) (n 1)! e krt, m := n 1 = (k R t) n=1 (k R t) m e krt = k R t. m! m=0 Für den Mittelwert nden wir unter Anstatt das 2. Moment direkt zu berechnen, ist es einfacher die Kombination N 2 (t) N (t) = n (n 1) P (n, t) = n=0 n (n 1) (k Rt) n n! n=2 = (k R t) 2 n=2 e k Rt (k R t) n 2 (n 2)! e k Rt, m := n 2 = (k R t) 2 (k R t) m e krt = (k R t) 2 m! m=0 zu berechnen, d.h. für einen Poisson Prozess ist die Varianz gleich dem Mittelwert. σ 2 N (t) = N 2 (t) N (t) } {{ } = N (t) k R t + N (t) } {{ } (k R t) 2 k R t N (t) 2 } {{ } (k R t) 2 15

16 1. Einleitung Berechnung von Mittelwert und Varianz mittels F (z, t): Für kompliziertere Verteilungen ist es einfacher zur Berechnung von Mittelwert und Varianz die wahrscheinlichkeitserzeugende Funktion zu benutzen. Dazu dierenzieren wir F (z) nach z an der Stelle z = 1: z F (z, t) z=1 = nz n 1 P (n, t) z=1 = np (n, t) = N(t). (1.17) n=0 Analog erhält man durch zweimaliges Dierenzieren an der Stelle z = 1 n=0 also 2 z 2 F (z, t) z=1 = n(n 1)z n 2 P (n, t) z=1 = N 2 (t) N (t), (1.18) n=0 σn 2 (t) = 2 z 2 F (z, t) z=1 + ( ) 2 z F (z, t) z=1 z F (z, t) z=1 = 2 z 2 F (z, t) z=1 + N (t) N (t) 2 Anwendung auf den Poisson Prozess: Für den Poisson Prozess mit (siehe Gl. 1.15) F (z, t) = exp [k R t (z 1)] erhalten wir unter Verwendung von Gln. (1.17) und (1.18) für den Mittelwert und für die Varianz Bemerkungen: N(t) = z exp (k Rt (z 1)) z=1 = k R t (1.19) σ 2 N (t) = 2 z 2 exp (k Rt (z 1)) z=1 + k R t (k R t) 2 = (k R t) 2 + k R t (k R t) 2 = k R t. 1. Genau wie in der deterministischen Beschreibung (1.1) wächst der Mittelwert der erzeugten Teilchen linear in der Zeit. Darüberhinaus liefert die stochastische Beschreibung eine Aussage über die im System auftretenden Fluktuationen. Diese sind durch σ N (t) = var [N (t)] = k R t gegeben. Wir erwarten also, dass die tatsächlich gemessene Anzahl an erzeugten Teilchen zur Zeit t im Bereich (k R t k R t, k R t + k R t) liegt. 2. Die durch CV σ N(t) N(t) = kr t = 1 k R t kr t denierten relativen Fluktuationen bezeichnet man als coecient of variation. 16

17 1.3. Gentranskription als Poisson Prozess 3. Die Eigenschaft N(t) = σn 2 (t) ist eine Besonderheit des Poisson Prozesses. Insbesondere kennzeichnet der Fano Faktor F = σ2 X (t) X(t) 1 für beliebige Prozesse p(x, t) eine Abweichung vom Poisson'schen Verhalten Gentranskription als Poisson Prozess Die Anzahl der zur Zeit t in einer Zelle vorhandenen mrna Moleküle wird im Wesentlichen durch zwei Prozesse beeinusst: (i) die Rate k R, mit der mrna Moleküle durch Ablesen des entsprechenden Gens synthetisiert werden. (ii) die Rate γ R, mit der sie durch andere Proteine wieder abgebaut werden (siehe Abb. 1.1B) Deterministische Modellierung In deterministischer Beschreibung wird die zeitabhängige mrna Konzentration durch die gewöhnliche DGL d dt [mrna] = k R γ R [mrna], [mrna] (0) = 0 beschrieben, wobei wir angenommen haben, dass zur Zeit t = 0 noch kein Molekül vorhanden ist. Die Lösung dieser Gleichung ist einfach [mrna] (t) = k R γ R ( 1 e γ R t ), (1.20) d.h. nach hinreichend langer Wartezeit (t 1/γ R ) erreicht die mrna Konzentration ihren durch [mrna] s = k R γ R (1.21) denierten stationären Wert Stochastische Modellierung Falls die Anzahl an mrnas pro Zelle sehr gering ist, erwarten wir, durch zufällige Aufund Abbauprozesse bedingte, Abweichungen von der in Gl. (1.21) denierten mittleren mrna Konzentration. Zur Aufstellung der zu Gl. (1.3) analogen Mastergleichung bilanzieren wir wieder die Wahrscheinlichkeiten für die entsprechenden Elementarprozesse: 1. Wahrscheinlichkeit für die Synthese einer mrna in t: k R t 2. Wahrscheinlichkeit für den Abbau einer mrna in t: γ R n t 17

18 1. Einleitung wobei n die Anzahl der mrna Moleküle zur Zeit t ist. Dann lässt sich für die Wahrscheinlichkeit, dass zur Zeit t + t genau n mrna Moleküle vorhanden sind, wieder eine Bilanzgleichung aufstellen (siehe Gl. 1.2), die durch P (n, t + t) = (k R t) P (n 1, t) + γ R t (n + 1) P (n + 1, t) + (1 k R t) (1 γ R n t) P (n, t) gegeben ist. Nach Umstellen und Vernachlässigung der in t quadratischen Terme wird daraus im Grenzwert t 0 die Mastergleichung d dt P (n, t) = k R [P (n 1, t) P (n, t)] + γ R [(n + 1) P (n + 1, t) np (n, t)], die wir unter der Anfangsbedingung P (n, 0) = δ n0 lösen wollen Gleichung für die wahrscheinlichkeitserzeugende Funktion Diese Gleichung lässt sich wieder mit Hilfe der wahrscheinlichkeitserzeugenden Funktion F (z, t) = n=0 p n(t)z n lösen. Für F (z, t) erhalten wir, unter Berücksichtigung von (n + 1) z n p n+1 = z n+1 p n+1 = z m p m z z n=0 die partielle Dierentialgleichung n=0 m=1 = z (F (z, t) p 0(t)) = F (z, t) z t F (z, t) = k R (z 1) F (z, t) + γ R (1 z) F (z, t), (1.22) z deren Lösung (mit der Anfangsbedingung F (z, 0) = 1) durch F (z, t) = exp [ n (t) (1 z)] (1.23) gegeben ist. Die in Gl. (1.23) auftrende, zeitabhängige Funktion n (t) = k R γ R ( 1 e γ R t ) (1.24) ist mit dem in Gl. (1.20), auf der Basis der deterministischen Beschreibung, gefundenen Ausdruck für die mrna Konzentration identisch ist. Bemerkungen: 1. Im Limes γ R 0 geht die wahrscheinlichkeitserzeugende Funktion (1.23) [ ] lim F (z, t) = lim exp kr (z 1) (1 exp ( γ R t)) γ R 0 γ R 0 γ R [ = lim exp kr (z 1) ( 1 [ 1 γ R t + O ( γ 2 )]) ] R γ R 0 γ R = exp [k R t (z 1)] in die des Poisson-Prozesses (1.15) über. 18

19 1.3. Gentranskription als Poisson Prozess 2. Wir werden weiter unten sehen, dass der Ausdruck in Gl. (1.24) in der Tat die mittlere mrna Konzentration angibt Zeitabhängige Wahrscheinlichkeitsdichte Durch Entwicklung von F (z, t) (Gl. 1.23) in eine Tayloreihe bezüglich z sehen wir, dass dieses einfache Modell der Gentranskription ebenfalls durch einen Poisson-Prozess beschrieben wird, denn F (z, t) = exp [ n (t) (z 1)] [ n (t) ] n = exp [ n (t) ] z n, n! d.h. die Wahrscheinlichkeit, dass nach der Zeit t genau n mrna Moleküle produziert worden sind, ist durch die Poisson Verteilung (siehe Abb. 1.1B) P (n, t) = exp [ n (t) ] n=0 [ n (t) ]n, n = 0, 1, 2,... (1.25) n! gegeben, wobei Mittelwert und Varianz, in der Tat, mit der in Gl. (1.20) denierten mittleren mrna Konzentration n (t) k R γ R ( 1 e γ R t ) = σ 2 n (t) übereinstimmen. Insbesondere stellt sich nach hinreichend langer Wartezeit (t 1/γ R ) eine stationäre Poisson-Verteilung ein (Abb. 1.1 B, blaue Kurve) P s (n) = exp [ n s ] [ n s ]n, n = 0, 1, 2,... (1.26) n! die nur durch das Verhältnis n s = k R /γ R von Auf- und Abbaurate bestimmt ist und mit der in Gl. (1.21) denierten stationären mrna Konzentration übereinstimmt. 19

20

21 2. Stochastische Prozesse 2.1. Einleitung Ein stochastischer Prozess kann als Funktion von zwei Variablen aufgefasst werden Y X (t) = f(x, t), t R wobei t ein reeller Parameter (oft die Zeit) und X eine Zufallsgröÿe mit Dichte p X (x) ist. Setzt man für X zu jeder Zeit einen seiner möglichen Werte x ein, so erhält man eine Realisierung Y x (t) = f(x, t) des Prozesses. Anschaulich stellt man sich vor, dass der Wert einer (physikalischen) Gröÿe bei einer Messung zufälligen Schwankungen unterliegt, die durch unkontrollierte Wechselwirkung mit der Umgebung hervorgerufen werden. Kennt man eine möglichst groÿe Anzahl solcher Realisierungen, die unter identischen Bedingungen gewonnen wurden, so spricht man von einem Ensemble. Für stationäre Prozesse stellt sich die Frage, unter welchen Umständen man Mittelwerte über die Realisierungen eines Ensembles durch den zeitlichen Mittelwert einer einzelnen, hinreichend langen Realisierung ersetzen darf, was auf den Begri der Ergodizität führt. Beispiel Beim Poisson-Prozess p n (t) = (λt)n e λt, n 0, t R n! ist die zufällige Gröÿe X n diskret. Zu jedem festen Zeitpunkt t = t 0 gilt: 1. p n (t 0 ) p n = λ n e λ, λ = λt0 n! ist eine Wahrscheinlichkeitsverteilung der Zufallsgröÿe n N. 2. Auÿerdem ist p n zu jedem Zeitpunkt normiert λ p n = e λ n n! = 1. n=0 Kennt man die Wahrscheinlichkeitsdichte p X (x) sind der (zeitabhängige) Mittelwert und die Zweipunktkorrelationsfunktion durch Y (t) = dx Y x (t) p X (x) Y (t 1 ) Y (t 2 ) = dx Y x (t 1 ) Y x (t 1 ) p X (x). n=0 21

22 2. Stochastische Prozesse gegeben. Analog deniert man Momente höherer Ordnung. Von zentraler Bedeutung ist die durch κ(t 1, t 2 ) (Y (t 1 ) Y (t 1 ) ) (Y (t 2 ) Y (t 2 ) ) = Y (t 1 ) Y (t 2 ) Y (t 1 ) Y (t 2 ) denierte Autokorrelationsfunktion. Sie beschreibt, wie stark Schwankungen um den Mittelwert zu verschiedenen Zeitpunkten miteinander korreliert sind. Beispiel Sei Y X (t) durch Y X (t) = cos (ωt + X) gegeben, wobei X ein in [0, 2π] gleichverteilter Phasenwinkel ist. Dieser Prozess ist ein einfaches Modell zur Beschreibung einer monochromatischen, inkohärenten Lichtquelle. Wie lautet die zugehörige Autokorrelationsfunktion? Da der Mittelwert verschwindet, bekommen wir mit p X = 1/2π einfach κ(t 1, t 2 ) = Y X (t 1 )Y X (t 2 ) = 1 2π 2π 0 = 1 2 cos [ω (t 1 t 2 )]. dx cos (ωt 1 + x) cos (ωt 2 + x) Die Varianz dieses Prozesses ist zeitunabhängig σ 2 (t) = κ(t, t) = 1/2, da die Autokorrelationsfunktion nur von der Zeitdierenz abhängt Beschreibung durch Verbundwahrscheinlichkeiten Fúr viele Zwecke ist praktischer, eine handlichere Beschreibung stochastischer Prozesse zu benutzen. Will man, zum Beispiel, wissen wie groÿ die Wahrscheinlichkeit ist, dass Y X (t) zur Zeit t 1 den Wert y 1 annimmt, dann ist diese Einzelwahrscheinlichkeit durch den Ausdruck p 1 (y 1, t 1 ) = dx δ [y 1 Y x (t 1 )] p X (x) gegeben. Formal erhält man diesen Ausdruck aus der Formel zur Transformation von Wahrscheinlichkeitsdichten (siehe Abschnitt A.6). Analog erhält man die Verbundwahrscheinlichkeit, dass Y X (t) zur Zeit t 1 den Wert y 1 und zur Zeit t 2 den Wert y 2 und zur Zeit t n den Wert y n hat, durch p n (y 1, t 1 ; y 2, t 2 ;... ; y n, t n ) = dx δ [y 1 Y x (t 1 )] δ [y n Y x (t n )] p X (x). Anschaulich ist klar, dass der stochastische Prozess Y X (t) vollständig durch die Gesamtheit solcher Verbundwahrscheinlichkeiten charakterisiert ist. 22

23 2.2. Beschreibung durch Verbundwahrscheinlichkeiten Beispiel Sei Y X (t) wieder durch Y X (t) = cos (ωt + X) gegeben, wobei X ein in [0, 2π] gleichverteilter Phasenwinkel ist. Dann gilt für die Einzelwahrscheinlichkeit p 1 (y 1, t 1 ) = dx δ [y 1 Y x (t 1 )] p X (x) Zur Auswertung dieser Gleichung benutzen wir die Formeln = 1 2π dx δ [y 1 cos (ωt 1 + x)]. (2.1) 2π 0 b a δ [x f (ϕ)] = i { dx δ (x c) f (x) = δ (ϕ ϕ i ) f (ϕ i ) f (c), 0, c (a, b) sonst (2.2) wobei die Summation in Gl. (2.2) über alle Lösungen der Gleichung x = f(ϕ) zu erstrecken ist. Die Nullstellen des Arguments der δ-funktion in Gl. (2.1) sind durch { y 1 = cos (ωt 1 + x) x + ωt 1 = arccos y 1, x + ωt 1 = 2π arccos y 1, 0 < x + ωt 1 π π < x + ωt 1 2π gegeben. Damit erhalten wir für p 1 (y 1, t 1 ) p 1 (y 1, t 1 ) = 1 2π 2π = 1 2π = 1 2π = 1 2π = 1 π 0 2π 0 2π dx δ [y 1 cos (ωt 1 + x)] dx [ δ (x + ωt1 arccos y 1 ) y 1 (x) + δ (x + ωt ] 1 (2π arccos y 1 )) y 1 (x) dx [δ (x + ωt 1 arccos y 1 ) + δ (x + ωt 1 (2π arccos y 1 ))] 0 sin (ωt 1 + x) [ ] 1 sin(arccos y 1 ) + 1 sin (2π arccos y 1 ) 1, y 1 y 2 1 ( 1, 1), 1 d.h. die Wahrscheinlichkeit, einen bestimmten Wert y 1 zu beobachten ist unabhängig vom genauen Zeitpunkt der Beobachtung. Das liegt in dem speziellen Fall daran, dass der zugrunde liegende Prozess stationär ist. 23

24 2. Stochastische Prozesse Konsistenzbedingungen Andererseits kann man zeigen, dass beliebig vorgegebene Funktionen p n nur dann einen stochastischen Prozess denieren, wenn sie folgende 4 Konsistenzbedingungen erfüllen: 1. p n 0 2. p n ist invariant bei Vertauschung beliebiger Paare (y i, t i ) und (y k, t k ) 3. p 1 (y 1, t 1 ) dy 1 = 1 4. p n (y 1, t 1 ; y 2, t 2 ;... ; y n, t n ) dy n = p n 1 (y 1, t 1 ; y 2, t 2 ;... ; y n 1, t n 1 ). (2.3) Während die Bedingungen unmittelbar einsichtig sind, stellt die 4. Bedingung eine nichttriviale Bedingung dar: Denn da p n bezüglich aller Paare symmetrisch ist (2. Bedingung), bedeutet die 4. Bedingung in Gl. (2.3), dass bei der Integration über eine beliebige Zustandsvariable nicht nur p n 1 mit den entsprechenden verbleibenden Variablen (hier y 1,..., y n 1 ) heraus kommen, sondern dass dabei auch das zu y n gehörende Zeitargument (hier t n ) verschwinden muss. Mittelwerte werden mit Hilfe der Verbundwahrscheinlichkeiten wiefolgt gebildet: Y (t 1 ) Y (t n ) = dy 1... dy n y 1 y n p n (y 1, t 1 ;... ; y n, t n ). Im Folgenden nehmen wir an, dass die t i geordnet sind, also t n >... > t 1 und schreiben die früheste Zeit ganz nach rechts, also p n (y n, t n ;... ; y 1, t 1 ) Bedingte Wahrscheinlichkeiten Bedingte Wahrscheinlichkeiten werden durch p l k (y k+l, t k+l ;... ; y k+1, t k+1 y k, t k ;... ; y 1, t 1 ) = p l+k (y k+l, t k+l ;... ; y k+1, t k+1 ; y k, t k ;... ; y 1, t 1 ) p k (y k, t k ;... ; y 1, t 1 ) deniert. Insbesondere gilt für die Übergangswahrscheinlichkeit p 1 1 (y 2, t 2 y 1, t 1 ) = p 2(y 2, t 2 ; y 1, t 1 ). p 1 (y 1, t 1 ) Sie gibt die Wahrscheinlichkeit dafür an, dass der Prozess Y X (t) den Wert y 2 zum Zeitpunkt t 2 annimmt, wenn er zur Zeit t 1 den Wert y 1 hatte. Unter Verwendung der Konsistenzbedingung (2.3) zeigt man leicht, dass die Übergangswahrscheinlichkeit p 1 1 normiert ist p 1 1 (y 2, t 2 y 1, t 1 )dy 2 = 1, 24

25 2.3. Stationarität und Ergodizität denn dy 2 p 2 (y 2, t 2 ; y 1, t 1 ) (4.) = p 1 (y 1, t 1 ) =p 1 (y 1, t 1 ) dy 2 p 1 1 (y 2, t 2 y 1, t 1 ). Einfache Beispiele 1. Die gesamte Hierarchie an Verbundwahrscheinlichkeiten zerfällt in ein Produkt von Einzelwahrscheinlichkeiten p n (y n, t n ;... ; y 1, t 1 ) = Π i p 1 (y i t i ), d.h. der Wert, der Zufallsgröÿe Y am Zeitpunkt t ist komplett unabhängig von ihrem Wert in der Vergangenheit und Zukunft. 2. Die nächstschwächere Annahme, die man machen kann, ist, dass der Wert einer Zufallsgröÿe Y X (t) zur Zeit t nur vom Wert am unmittelbar davor gelegenen Zeitpunkt abhängt. Diese Idee führt auf die Klasse der Markov Prozesse, der wir uns im nächsten Kapitel zuwenden werden Stationarität und Ergodizität Ein Prozess heiÿt stationär, wenn alle seine Momente Y (t 1 ) Y (t n ) = Y (t 1 + τ) Y (t n + τ) für beliebige t 1,..., t n invariant unter Zeittranslationen sind. Auf der Ebene der Verbundwahrscheinlichkeiten übersetzt sich diese Forderung in p n (y n, t n ;... ; y 1, t 1 ) = p n (y n, t n + τ n ;... ; y 1, t 1 + τ 1 ), d.h. die p n hängen nur von Zeitdierenzen ab. Insbesondere sind alle gleichzeitigen Momente (wie Mittelwert und Varianz) zeitunabhängig. Für die Autokorrelationsfunktion eines stationären Prozesses gilt Bemerkungen: κ(t 1, t 2 ) = κ( t 1 t 2 ) = κ(τ) = Y (t + τ)y (t) Y Die Varianz des Prozesses ist gerade σ 2 (Y ) = κ(0). 2. Stochastische Prozesse heissen im weiteren Sinne stationär, wenn nur ihre ersten beiden Momente zeitunabhängig sind. Diese Kriterium wird häug zur Abschätzung der Stationarität von experimentell gewonnenen Zeitserien benutzt, da sich höhere Momente oft nur sehr ungenau aus experimentellen Daten abschätzen lassen. 25

26 2. Stochastische Prozesse Ein stationärer stochastischer Prozess heiÿt ergodisch, wenn der zeitliche Mittelwert einer Funktion gleich dem Ensemblemittelwert bezüglich der stationären Dichte ist, d.h. wenn 1 T/2 dy f(y)p s (y) f(y) = lim f(y(t))dt. T T T/2 Bemerkung: Man kann zeigen, dass für Ergodizität hinreichend ist, dass die durch denierte Korrelationszeit endlich ist. τ c := 1 κ(0) 0 dτ κ(τ) Beispiel: Sei κ(τ) = κ(0)e kτ, dann folgt τ c = 0 dτ e kτ = 1 k Spektrale Leistungsdichte und Wiener-Khinchin Theorem Unendlich groÿe Messintervalle Hier betrachten wir stochastische Prozesse auf dem Interval t (, ) und fragen nach den statistischen Eigenschaften des durch Fouriertransformation Y (t) = dω C(ω)e iωt bzw. C(ω) = 1 dt Y (t)e iωt (2.4) 2π gebildeten stochastischen Prozesses c(ω). Im Folgenden nehmen wir an, dass der Prozess Y (t) stationär ist und eine endliche Korrelationszeit τ c besitzt, d.h. Y (t) ist insbesondere ergodisch. Auÿerdem nehmen wir (ohne Einschränkung der Allgemeinheit) an, dass der Mittelwert Y (t) = 0 verschwindet. Dann hängt die Autokorrelationsfunktion κ(τ) nur von der Zeitdierenz τ ab und kann sowohl durch Zeitmittelung als auch durch Ensemblemittelung berechnet werden 1 T/2 κ (τ) = Y (t) Y (t + τ) = lim dt Y (t) Y (t + τ). (2.5) T T T/2 26

27 2.4. Spektrale Leistungsdichte und Wiener-Khinchin Theorem Da c(ω) im Allgemeinen komplex-wertig ist, denieren wir die reelle Autokorrelationsfunktion der spektralen Komponenten durch c (ω) c ( ω ) 1 = (2π) 2 dt dt ( e iωt+iω t Y (t) Y t ) t =t+τ = 1 2π = δ ( ω ω ) 1 2π dt e i(ω ω )t 1 2π dτ e iω τ Y (t) Y (t + τ) dτ e iωτ κ (τ), (2.6) wobei wir im letzten Schritt die Denition der Autokorrelationsfunktion in Gl. (2.5), sowie die Denition der δ-funktion δ ( ω ω ) = 1 dt e i(ω ω )t 2π benutzt haben. Der in Gl. (2.6) auftretende Ausdruck S (ω) = 1 2π dτ e iωτ κ (τ) wird als spektrale Leistungsdichte bezeichnet. Sie lässt sich wegen κ(τ) = κ( τ) auch in der Form S(ω) = 1 dτ e iωτ κ (τ) τ τ = 1 d ( τ) e iω( τ) κ ( τ) 2π 2π = 1 dτ e iωτ κ (τ) = 1 dτ cos (ωτ) κ (τ). 2π π 0 schreiben, woraus ersichtlich wird, dass die spektrale Leistungsdichte und die Autokorrelationsfunktion eines stationären Prozesses über die Fouriertransformation miteinander verknüpft sind, also S (ω) = 1 2π κ (τ) = dτ e iωτ κ (τ) (2.7) dω e iωτ S (ω) was als Wiener-Khinchin Theorem bezeichnet. Bemerkung Aus der Beziehung (siehe Gl. 2.6) c (ω) c ( ω ) = δ ( ω ω ) S (ω) folgt, dass die spektrale Leistungsdichte gleich dem mittleren Betragsquadrat der dem Prozess zugeordneten Fourierkomponenten ist. Insbesondere folgt aus der Stationarität des Prozesses, dass spektrale Komponenten zu verschiedenen Frequenzen (ω ω ) unkorreliert sind. 27

28 2. Stochastische Prozesse Endliche Messintervalle Streng genommen, existieren die Fourierintegrale (2.4) nicht, da Y (t) nach Voraussetzung ein stationärer Prozess ist, und daher insbesondere für t nicht schnell genug gegen Null geht, um obige Integrale existieren zu lassen. Auÿerdem kann man im Experiment nur über einen endlichen Zeitraum Messungen durchführen. In diesem Fall beschränken wir die in Gl. (2.4) denierten Fourier Integrale zunächst auf das Interval [ T/2, T/2] Y T (t) = T/2 T/2 Wir wollen dann zeigen, dass die durch dω C T (ω) e iωt bzw. C T (ω) = 1 T/2 dt Y T (t) e iωt. 2π T/2 S T (ω) S(ω) := lim T T mit S T (ω) = 2π C T (ω) C T (ω) (2.8) denierte spektrale Leistungsdichte mit dem in Gl. (2.7) gewonnenen Ausdruck identisch ist. Aus der Stationarität von Y T (t) und Y T (t) = 0 folgt zunächst S T (ω) = 1 T/2 2π = 1 2π T/2 T/2 T/2 T/2 dt dt T/2 T/2 T/2 dt Y T (t) Y T ( t ) e iωt+iωt dt κ ( t t ) e iω(t t ). Um diese Integrale zu berechnen, setzen wir τ = t t und beachten die dabei auftretenden Änderungen des Integrationsgebietes, die auf T/2 T/2 0 T/2 τ T T/2 dt dt dτ dt + dτ dt (2.9) T/2 T/2 T T/2 0 T/2+τ führen (siehe Abb. 2.1). Somit erhalten wir S T (ω) = 1 0 T/2 τ dτκ (τ) e iωτ dt + 1 2π 2π = 1 2π = T 2π T 0 T T T T/2 dτκ (τ) (T τ ) e iωτ + 1 2π ( dτκ (τ) 1 τ ) e iωτ T und damit unter Verwendung von Gl. (2.8) S(ω) : = lim T = 1 2π 1 2π T T T 0 T 0 dτκ (τ) e iωτ T/2 T/2+τ dτκ (τ) (T τ) e iωτ ( dτκ (τ) 1 τ ) e iωτ T dτκ (τ) e iωτ dt 28

29 2.4. Spektrale Leistungsdichte und Wiener-Khinchin Theorem Abbildung 2.1.: Veranschaulichung der bei der Transformation τ = t t auftretenden Änderung des Integrationsgebietes (siehe Gl. 2.9). was mit dem Ausdruck in Gl. (2.7) übereinstimmt, falls lim T 1 2πT T T dτκ (τ) τ e iωτ = 0. (2.10) Bemerkungen: 1. Die Bedingung in Gl. (2.10) gilt insbesondere für Autokorrelationsfunktionen der Form κ (τ) e τ /τc, τ c > Für jedes endliche T < ist das in Gl. (2.8) denierte Spektrum S T (ω) nach unten durch die Messzeit T und nach oben durch die Samplingrate t der Messdaten gemäÿ 2π/T < ω < 2π/ t begrenzt. 3. Falls der Mittelwert des Prozesses Y nicht verschwindet, gilt d.h. das in Gl. (2.7) denierte Spektrum Y (t) Y (t + τ) = κ (τ) + Y 2, S(ω) = S(ω) + Y 2 δ(ω) enthält einen zusätzlichen Beitrag bei ω = 0. 29

30 2. Stochastische Prozesse Beispiele Weiÿes Rauschen Wenn die Autokorrelationsfunktion von der Form κ(τ) = Cδ(τ) ist, erhält man für das Spektrum S(ω) = C 2π dτ e iωτ δ(τ) = C 2π eine Konstante. Da in dem Spektrum alle Frequenzen mit gleicher Amplitude vertreten sind, werden solche Prozesse als weiÿes Rauschen bezeichnet. Exponentielle Relaxation Die zugehörige Autokorrelationsfunktion hat die Gestalt κ(τ) = σ 2 Y e k τ, wobei k = 1/τ c umgekehrt proportional zur typischen Korrelationszeit des Systems und κ(0) = σy 2 gleich der Varianz des Prozesses ist. Unter Verwendung von Gl. (2.7) erhalten wir für die spektrale Leistungsdichte S(ω) = σ2 Y 2π = σ2 Y 2π = σ2 Y 2π = σ2 Y π ( 0 dτ e iωτ e k τ 0 dτ e (iω k)τ + ( 1 iω k + 1 iω + k k ω 2 + k 2, ) dτ e (iω+k)τ ) d.h. eine Lorentz-Verteilung, die sich in der dimensionslosen Form S(ω/k) = S(0) 1 + (ω/k) 2 mit S(0) σ2 Y πk (2.11) darstellen lässt. Aus Gl. (2.11) erkennt man, dass S(ω) monoton fallend mit einem Maximum bei ω = 0 ist. Für ω k geht S (ω) wie 1/ω 2 gegen Null, sodass in einem log-log Plot der Graph der Funktion ( log S(ω/k) = log 1 + (ω/k) 2) + log (S (0)) 2 log (ω/k) + log (S (0)) die Steigung 2 haben sollte (Abb. 2.2A). Auÿerdem lässt sich über den Beginn des asymptotischen Bereichs ω k die inverse Korrelationszeit abschätzen. 30

31 2.4. Spektrale Leistungsdichte und Wiener-Khinchin Theorem Bemerkung: Da beim Lorentzspektrum nicht mehr alle Frequenzen mit derselben Amplitude beitragen, spricht man hier von farbigem Rauschen. Exponentiell gedämpfte Oszillationen In diesem Fall ist die Autokorrelationsfunktion durch κ(τ) = σ 2 Y e k τ cos(ω 0 τ) gegeben, wobei 1/ω 0 eine durch die Systemdynamik bestimmte Zeitskala ist. Das zugehörige Spektrum S(ω) = σ2 Y dτ e iωτ e k τ cos(ω 0 τ) 2π = σ2 Y dτ [e i(ω+ω0)τ e k τ + e i(ω ω0)τ e k τ ] 4π = σ2 Y 4π + σ2 Y 4π = σ2 Y 4π + σ2 Y 4π = σ2 Y 2π [ 0 [ 0 [ dτ e [i(ω+ω0)+k]τ + 0 dτ e [i(ω ω0)+k]τ i (ω + ω 0 ) + k 1 i (ω + ω 0 ) k [ ] 1 i (ω ω 0 ) + k 1 i (ω ω 0 ) k [ ] k k 2 + (ω + ω 0 ) 2 + k k 2 + (ω ω 0 ) 2 ] dτ e [i(ω+ω 0) k]τ ] dτ e [i(ω ω 0) k]τ lässt sich in der dimensionslosen Form S (ω/k) = S (0) 1 [ 1 + γ (ω/k + γ) γ 2 ] 1 + (ω/k γ) 2 mit γ ω 0 k und S (0) σ2 Y 1 πk 1 + γ 2 ] (2.12) schreiben. Für γ 1 geht das Spektrum in das der expontiell abfallenden Autokorrelationsfunktion über (Gl. 2.11) während im Falle γ 1 ein ausgeprägtes Maximum in der Nähe der durch das System vorgegebenen Frequenz ω ω 0 auftritt (Abb. 2.2B). 31

32 2. Stochastische Prozesse (A) (B) Abbildung 2.2.: Vergleich der spektralen Leistungsdichten in Gl. (2.11) und (2.12). 32

33 3. Markov Prozesse Wir wollen im Folgenden annehmen, dass der Wert einer Zufallsgröÿe Y zur Zeit t nur vom Wert am unmittelbar davor gelegenen Zeitpunkt abhängt. Mit Hilfe bedingter Wahrscheinlichkeiten lässt sich das so formulieren: Für jede Menge aufeinanderfolgender Zeitpunkte t 1 < t 2 <... < t n gilt: p 1 n 1 (y n, t n y n 1, t n 1 ;... ; y 1, t 1 ) = p 1 1 (y n, t n y n 1, t n 1 ), d.h. alle bedingten Wahrscheinlichkeiten haben die Form von Übergangswahrscheinlichkeiten p 1 1. Damit zerfällt die gesamte Hierarchie an Verteilungsfunktionen in Produkte von Übergangswahrscheinlichkeiten und die Einzelwahrscheinlichkeit p 1 (y 1, t 1 ), z.b. p 3 (y 3, t 3 ; y 2, t 2 ; y 1, t 1 ) = p 1 2 (y 3, t 3 y 2, t 2 ; y 1, t 1 ) p 2 (y 2, t 2 ; y 1, t 1 ) = p 1 1 (y 3, t 3 y 2, t 2 ) p 1 1 (y 2, t 2 y 1, t 1 ) p 1 (y 1, t 1 ). (3.1) Für beliebiges n erhält man dann p n (y n, t n ;... ; y 1, t 1 ) = Π n i=2p 1 1 (y i, t i y i 1, t i 1 ) p 1 (y 1, t 1 ). Damit ist ein Markov Prozess eindeutig durch die Übergangswahrscheinlichkeit p 1 1 und die Anfangswahrscheinlichkeit p 1, die beliebig vorgegeben werden kann, eindeutig bestimmt. Im Gegensatz dazu kann p 1 1 nicht beliebig vorgegeben werden, sondern muss eine Konsistenzbedingung, die sogenannte Chapman-Kolmogorov Gleichung, erfüllen Chapman-Kolmogorov Gleichung Integriert man (3.1) über y 2 und dividiert durch p 1 (y 1, t 1 ) erhält man wegen dy 2 p 3 (y 3, t 3 ; y 2, t 2 ; y 1, t 1 ) = p 2 (y 3, t 3 ; y 1, t 1 ) = p 1 1 (y 3, t 3 y 1, t 1 )p 1 (y 1, t 1 ) die Chapman-Kolmogorov Gleichung p 1 1 (y 3, t 3 y 1, t 1 ) = dy 2 p 1 1 (y 3, t 3 y 2, t 2 )p 1 1 (y 2, t 2 y 1, t 1 ) (3.2) oder in diskrete Variante p 1 1 (n 3, t 3 n 1, t 1 ) = n 2 p 1 1 (n 3, t 3 n 2, t 2 )p 1 1 (n 2, t 2 n 1, t 1 ). 33

34 3. Markov Prozesse Hier gilt t 1 < t 2 < t 3. Die Chapman-Kolmogorov Gleichung ist eine Konsistenzbedingung für die Übergangswahrscheinlichkeiten eines Markov Prozesses, die die Form einer nichtlinearen Integralgleichung hat. Mit Hilfe der Übergangswahrscheinlichkeit p 1 1 kann man, ausgehend von einer Anfangsverteilung p 1 (y 0, t 0 ), die Wahrscheinlichkeit p 1 (y, t) berechnen, das System zu einem späteren Zeitpunkt t > t 0 im Zustand y anzutreen p 1 (y, t) = dy 0 p 2 (y, t; y 0, t 0 ) = dy 0 p 1 1 (y, t y 0, t 0 ) p 1 (y 0, t 0 ). (3.3) In diesem Sinne stellt der Integraloperator (Mp 1 ) (x, t 1 ) := dy p 1 1 (x, t 1 y, t 0 ) p 1 (y, t 0 ) (3.4) eine natürliche Verallgemeinerung der Flussabbildung gewöhnlicher Dierentialgleichungen dar (siehe Abb. 3.1). Bemerkung Die Dynamik deterministischer Systeme lässt sich im Rahmen der Markov Prozesse durch die singuläre Übergangswahrscheinlichkeit p 1 1 (x 1, t 1 x 0, t 0 ) = δ [x 1 Φ (x 0, t 1 t 0 )], wobei Φ die in Abb. 3.1A gezeigte Flussabbildung ist, beschreiben Stationäre und homogene Markov Prozesse Stationärer Prozess Wie wir bereits wissen, sind stationäre Prozesse durch statistische Eigenschaften gekennzeichnet, die nicht davon anhängen, wann sie gemessen werden, d.h. alle Verbundwahrscheinlichkeiten sind invariant gegen Zeitverschiebungen p n (y n, t n + τ;... ; y 1, t 1 + τ) = p n (y n, t n ;... ; y 1, t 1 ) und hängen deshalb nur von Zeitdierenzen ab. Insbesondere sind die Momente eines stationären Prozesses zeitunabhängig. Da sich für Markov Prozesse alle Verbundwahrscheinlichkeit als Produkt von Übergangswahrscheinlichkeiten p 1 1 (y n, t n y n 1, t n 1 ) und einer Startverteilung p 1 (y 1, t 1 ) schreiben lassen, bedeutet die Forderung nach Zeittranslationsinvarianz, dass die Startverteilung nicht explizit von der Zeit und die Übergangswahrscheinlichkeit nur von der Zeitdierent abhängen darf, also p 1 (y 1, t 1 ) = p s (y) p 1 1 (y 2, t 2 y 1, t 1 ) = p 1 1 (y 2, t 2 t 1 y 1, 0). 34

35 3.2. Stationäre und homogene Markov Prozesse (A) Flussabbildung (B) Abbildung 3.1.: Deterministische Beschreibung vs. Markov Prozess. (A) Die einer gewöhnlichen Dierentialgleichung zugeordnete Flussabbildung Φ beschreibt die zeitliche Entwicklung von Zuständen entlang einer Trajektorie. (B) An die Stelle der Flussabbildung tritt bei Markov Prozessen der in Gl. (3.4) denierte Integraloperator M, dessen Kern aus der Übergangswahrscheinlichkeit p 1 1 (x 1, t 1 x 0, t 0 ) des zugrunde liegenden Markov Prozesses gebildet wird. Homogener Prozess Ein nicht notwendigerweise stationärer stochastischer Prozess heiÿt homogen (bezgl. der Zeit), wenn seine Übergangswahrscheinlichkeit nur von der Zeitdierenz abhängt, p 1 1 (y 2, t 2 y 1, t 1 ) = p 1 1 (y 2, t 2 t 1 y 1, 0). Im Gegensatz zu stationären Prozessen kann aber der Mittelwert und/oder die Varianz eines homogenen Prozesses noch von der Zeit abhängen. In diesem Sinne sind stationäre Prozesse spezielle homogene Prozesse. Beispiel: Der Poisson Prozess aus Abschnitt 1.2 ist wegen λt (λt)n P (n, t 0, 0) = e n! homogen bezüglich der Zeit, aber nicht stationär, da mindestens eines seiner Momente, z.b. der Mittelwert n = λt explizit von der Zeit abhängt. 35

36 3. Markov Prozesse Stationäre Autokorrelationsfunktion Für allgemeine stochastische Prozesse berechnet man die Autokorrelationsfunktion wiefolgt κ(t 1, t 2 ) x(t 1 )x(t 2 ) = x(t 1 )x(t 2 ) x(t 1 ) x(t 2 ) x(t 1 )x(t 2 ) = dx 1 dx 2 x 1 x 2 p(x 2, t 2 ; x 1, t 1 ) = dx 1 x 1 p(x 1, t 1 ) dx 2 x 2 p(x 2, t 2 x 1, t 1 ). Für stationäre Prozesse hängt die Übergangswahrscheinlichkeit und damit die Autokorrelationsfunktion nur von der Zeitdierenz τ = t 2 t 1 ab. Es gilt also x(t 1 )x(t 2 ) = dx 1 x 1 p(x 1, t 1 ) dx 2 x 2 p(x 2, t 2 t 1 x 1, 0). Um daraus die stationäre Autokorrelationsfunktion zu erhalten, führen wir in der Einzeitpunktverteilung den Grenzwert lim t1 p(x 1, t 1 ) = p s (x 1 ) durch, während wir in der Übergangswahrscheinlichkeit p(x 2, t 2 x 1, t 1 ) = p(x 2, t 2 t 1 x 1, 0) die Zeitdierenz τ = t 2 t 1 konstant halten. Damit bekommen wir x(t 1 )x(t 2 ) x(τ)x(0) = dx 1 x 1 p s (x 1 ) dx 2 x 2 p(x 2, τ x 1 ) und schlieÿlich κ(τ) = x(τ)x(0) x 2. 36

37 4. Die Mastergleichung Wie wir im letzten Abschnitt gesehen haben, sind Markov Prozesse eindeutig durch ihre Übergangswahrscheinlichkeit p 1 1 (y 2, t 2 y 1, t 1 ) bestimmt (siehe Gl. 3.3). Diese können allerdings nicht beliebig vorgegeben werden, sondern müssen die Chapman-Kolmogorov Gleichung (3.2) erfüllen. Zwar könnten wir mit dieser Gleichung sofort überprüfen, ob eine vorgegebene Funktion p 1 1 (y 2, t 2 y 1, t 1 ) einen Markov Prozess deniert oder nicht, aber zum systematischen Aunden neuer Lösungen ist die Chapman-Kolmogorov Gleichung aus zweierlei Gründen ungeeignet: Zum einen ist sie eine nichtlineare Integralgleichung, deren Lösungen schwer zu nden sind. Zum anderen enthält sie keine freien Parameter, was eine physikalisch oder biologisch motivierte Modellierung erschwert. Aus diesen Gründen sucht man alternative Formulierungen der Chapman-Kolmogorov Gleichung, die mathematisch einfacher zu untersuchen und einer direkten Modellierung zugänglich sind. Das Resultat ist die Mastergleichung Herleitung der Mastergleichung Wir beschränken uns zunächst auf zeitlich homogene Markov Prozesse, für die die Übergangswahrscheinlichkeiten (per Denition) nur von der Zeitdierenz abhängen p 1 1 (y, t 2 z, t 1 ) := p(y, t 2 t 1 z). Hier und im Folgenden lassen wir die Indizes an den Übergangswahrscheinlichkeitsdichten weg, da aus dem Zusammenhang klar sein wird, was gemeint ist. Damit erhält die Chapman-Kolmogorov Gleichung die Form p(x, t 3 t 1 z) = dy p(x, t 3 t 2 y)p(y, t 2 t 1 z) was sich unter Einführung von t 1 = 0, t 2 = t > 0 und t 3 = t + t > t 2 auch in der Form p(x, t + t z) = dy p(x, t y)p(y, t z) schreiben lässt. Die Idee besteht darin, die Übergangswahrscheinlichkeit p(x, t y) in eine funktionale Taylorreihe in t zu entwickeln und dann zum Grenzübergang t 0 überzugehen. Wir nehmen also an p(x, t y) habe eine Taylorentwicklung der Form [ p(x, t, y) = δ(x y) + q(x y) t + O ( t) 2], 37

38 4. Die Mastergleichung d.h. die Wahrscheinlichkeit, dass ein Übergang von y nach x im Zeitintervall t statt ndet geht mit t gegen Null. Unter Verwendung der Normierungsbedingung für die bedingte Wahrscheinlichkeit dx p(x, t y) = 1 und Koezientenvergleich in Ordnung t folgt, dass dx q(x y) = 0 sein muÿ. Das können wir formal durch den Ansatz! = dx [δ(x y) + q(x y) t] = 1 + t dx q(x y) + O [( t) 2] q(x y) := W (x y) q 0 (y)δ(x y) (4.1) erfüllen, wobei q 0 (y) gerade durch q 0 (y) = dx W (x y) (4.2) gegeben ist. Anschaulich ist q 0 (y) die Gesamtrate aller Prozesse, die Übergänge aus dem Zustand y heraus beschreiben. Bemerkung: Ohne Beschränkung der Allgemeinheit können wir annehmen, dass die Diagonalelemente W (x x) = 0 sind, denn seien sie etwa durch W (x x) = W 0 (x) gegeben, dann können wir den Diagonalteil von W immer abspalten und q 0 (y) entsprechend umdenieren, also q(x y) = W (x y) q 0 (y)δ(x y) = W 0 (y)δ(x y) + W (x y) q 0 (y)δ(x y) = W (x y) q 0 (y)δ(x y), d.h. q(x y) hat dieselbe Form wie q(x y), wenn wir q 0 (y) = q 0 (y) + W 0 (y) setzen. Wir können also annehmen, dass die Übergangsraten W (x y) nur echte Übergänge vo einem Zustand in einen anderen beschreiben, d.h. W (x y) 0, x y (4.3) W (x x) = 0. Einsetzen von (4.1) in obigen Ansatz für die zeitliche Entwicklung der Übergangswahrscheinlichkeit liefert [ p(x, t, y) = (1 q 0 (y) t) δ(x y) + W (x y) t + O ( t) 2]. 38

39 4.1. Herleitung der Mastergleichung Diese Gleichung besagt, dass, wenn das System im Zustand y startet, die Wahrscheinlichkeit, dass es in einem kleinen Zeitintervall t im Zustand x endet, durch die Wahrscheinlichkeit 1 q 0 (y) t gegeben, dass es im Zustand y bleibt plus der Wahrscheinlichkeit, dass es einen Übergang in den Zustand x macht. Insofern kann die Funktion W (x y) als Übergangswahrscheinlichkeit pro Zeiteinheit angesehen werden. Setzen wir diese Entwicklung in die Chapman-Kolmogorov Gleichung ein, erhalten wir p(x, t + t z) = dy p(x, t y)p(y, t z) = dy (1 q 0 (y) t) δ(x y)p(y, t z) + dy W (x y)p(y, t z) t = (1 q 0 (x) t) p(x, t z) + dy W (x y)p(y, t z) t, was unter Beachtung von (4.2) und Umordnung in p(x, t + t z) p(x, t z) = dy W (x y)p(y, t z) t dy W (y x)p(x, t z) und schlieÿlich im Limes t 0 in die Mastergleichung d p(x, t z) = dy W (x y)p(y, t z) dy W (y x)p(x, t z) (4.4) dt übergeht mit der Anfangsbedingung p(x, 0 z) = δ(x z). Bemerkungen 1. Für diskrete Zufallsgröÿen lautet die (zeithomogene) Mastergleichung d dt P (n, t m) = l [W (n l) p(l, t m) W (l n) p(n, t m)] (4.5) mit der Anfangsbedingung P (n, 0 m) = δ nm. 2. Wenn man die Beschränkung auf zeithomogene Markov Prozesse fallen lässt, werden die Funktionen q(x z) in (4.1), und damit auch die Übergangsraten W (x z) W t (x z), zeitabhängige Funktionen. An der Form der Mastergleichung ändert sich nichts, nur beschreiben die Lösungen p(x 2, t 2 x 1, t 1 ) dann, im Allgemeinen, keine zeithomogenen Prozesse mehr. 3. Im Gegensatz zur Chapman-Kolmogorov Gleichung (3.2) ist die Mastergleichung (Gl. 4.5), bei vorgegebenen Übergangsraten W (n m), eine lineare Gleichung zur Bestimmung der Übergangswahrscheinlichkeiten des zugrunde liegenden Markov Prozesses. In diesem Sinne sind die Übergangsraten als phänomenologische Gröÿen anzusehen, die sich entweder aus mikroskopischen Theorien ableiten lassen oder nach Plausibilitätsgesichtspunkten zu wählen sind. 39

40 4. Die Mastergleichung Detailed Balance und thermodynamisches Gleichgewicht : Stationäre Lösungen der Mastergleichung erfüllen [W (n l) P s (l) W (l n) P s (n)] = 0 (4.6) l was sich unter Verwendung der Matrix (W nl W (n l)) U nl := W nl δ nl k W kn auch in der Form U nl P s (l) = 0 mit P s (l) 0 und l schreiben lässt. Die Spalten von U sind aber wegen U nl = W nl δ nl W kn = n n n n k P s (l) = 1 l W nl k W kl 0 linear abhängig, d.h. rang(u) N 1, wenn N die Gesamtanzahl möglicher Zustände ist. Es muss also mindestens eine nichttriviale stationäre Lösung geben muss. Die zugehörige Verteilung p s beschreibt i.a. stationäre Nichtgleichgewichtszustände. Die n Gleichungen (4.6) sind insbesondere dann erfüllt, wenn die sogenannten detailed balance Beziehungen W nl P s (l) W ln P s (n) = 0, n l (4.7) gelten. Die zugehörigen stationären Zustände sind dann thermodynamische Gleichgewichtszustände. Im Allgemeinen schränken die detailed balance Beziehungen die Übergangsraten dahingehend ein, dass nicht mehr alle von ihnen frei vorgebbar sind Beispiele Für n = 2 lautet die Mastergleichung mit konstanten Übergangsraten W 12 und W 21 : dp 1 = W 12 P 2 W 21 P 1 dt dp 2 = W 21 P 1 W 12 P 2. dt d.h. stationäre Zustände, deniert durch dp 1 /dt = 0 oder dp 2 /dt = 0, sind automatisch Gleichgewichtszustände, da die entsprechende Gleichung identisch mit der detailed balance Beziehung ist W 12 P 2 = W 21 P 1. 40

41 4.1. Herleitung der Mastergleichung Abbildung 4.1.: Links: Denition der Übergangsraten für einen Markov Prozess mit 3 Zuständen. Rechts: Wenn die detailed balance Beziehungen gelten (Gln und 4.13) ist das Produkt der Übergangsraten in Vorwärtsrichtung (J ) gleich dem Produkt der Übergangsraten in Rückwärtsrichtung (J ), d.h. es gibt keinen Nettouss im System. Unter Benutzung von P 2 = 1 P 1 folgt für den stationären Zustand P 1 = W 12 W 12 + W 21, P 2 = Für n = 3 lautet die Mastergleichung (siehe Abb. 4.1) W 21 W 12 + W 21. dp 1 = W 12 P 2 + W 13 P 3 (W 31 + W 21 ) P 1 dt dp 2 = W 21 P 1 + W 23 P 3 (W 12 + W 32 ) P 2 dt dp 3 = W 31 P 1 + W 32 P 2 (W 13 + W 23 ) P 3, dt d.h. stationäre Zustände werden jetzt durch die Gleichungen (W 12 P 2 W 21 P 1 ) + (W 13 P 3 W 31 P 1 ) = 0 (4.8) (W 21 P 1 W 12 P 2 ) + (W 23 P 3 W 32 P 2 ) = 0 (4.9) P 1 + P 2 + P 3 = 1 (4.10) beschrieben, wobei wir die aus dp 3 /dt = 0 folgende Gleichung durch die Normierungsbedingung ersetzt haben. Die allgemeine Lösung dieses Gleichungssystems lautet P 1 = W 12W 23 + W 12 W 13 + W 13 W 32 D P 2 = W 23W 31 + W 23 W 21 + W 21 W 13 D P 3 = W 31W 32 + W 31 W 12 + W 32 W 21 D D W 23 (W 12 + W 31 + W 21 ) + W 13 (W 21 + W 32 + W 12 ) + W 31 (W 32 + W 12 ) + W 21 W 32, (4.11) 41

42 4. Die Mastergleichung wobei die 6 Übergangsraten W 12, W 21,W 13, W 31, W 23 und W 32 keinen weiteren Einschränkungen unterliegen. Fordert man jedoch, dass die in den Gleichungen (4.8) und (4.9) in Klammern stehenden Ausdrücke einzeln verschwinden (detailed balance Beziehungen) W 12 P 2 = W 21 P 1 W 13 P 3 = W 31 P 1 (4.12) W 23 P 3 = W 32 P 2 dann folgt daraus, dass die Übergangsraten nicht mehr frei vorgebbar, sondern durch die Gleichung W 21 W 13 W 32 = W 23 W 31 W 12 (4.13) eingeschränkt sind. Will man also thermodynamische Gleichgewichtszustände beschreiben, dann kann man sich nur 5 der 6 möglichen Übergangsraten vorgeben, die 6. ist dann durch Gl. (4.13) bestimmt. Man kann nun versuchen, unter Berücksichtigung der detailed balance Beziehungen (4.12) die Ausdrücke in Gleichung (4.11) zu vereinfachen. Schneller geht as aber, die detailed balance Beziehungen (4.12) unter Berücksichtigung der Normierungsbedingung (Gl. 4.10) direkt zu lösen. Damit erhält man zunächst und daraus W 12 P 2 = W 21 P 1 W 13 (1 P 1 P 2 ) = W 31 P 1 P 1 = W 21 W 12 + W, P 31 2 = W 13 W 21 W W 21 W 12 + W 31 W 13 und P 3 = W 31 W W 21 W 12 + W. 31 W Random-Telegraph Prozess Der Random-Telegraph Prozess beschreibt Systeme, die nur in zwei Zuständen vorkommen können (Abb. 4.2). Damit lässt sich, zum Beispiel, der zeitabhängige Strom, der durch einen Ionenkanal ieÿt, modellieren. Im einfachsten Fall kann man annehmen, dass der Kanal in nur 2 Konformationszuständen (oen oder geschlossen) vorkommen kann, die entweder Ionen passieren lassen oder nicht. In Abwesenheit äuÿerer Signale nden die Übergänge zwischen oenem (1) und geschlossenem (0) Zustand in stochastischer Weise statt, wobei wir annehmen wollen, dass die Übergänge mit konstanter Rate erfolgen sollen: W (1 0) := a und W (0 1) := b. 42

43 4.2. Random-Telegraph Prozess offen geschlossen Abbildung 4.2.: Links: Random-Telegraph Prozess - es nden stochastische Übergänge zwischen 2 Zuständen 0 (Kanal geschlossen) und 1 (Kanal oen) mit konstanten Raten (a und b) statt. Rechts: Übergangswahrscheinlichkeiten P (n, t m) zur Zeit t im Zustand n = 0, 1 zu sein, wenn das System zur Zeit t = 0 im Zustand m = 0, 1 gestartet ist (vgl. Gleichungen 4.17 und 4.18). Die Korrelationszeit beträgt τ c = 1/(a + b) = 1.25s. Da es nur zwei Zustände gibt läÿt sich die Mastergleichung für die Übergangswahrscheinlichkeiten P (0, t) und P (1, t) leicht hinschreiben d P (0, t) = W (0 1) P (1, t) W (1 0) P (0, t) dt = bp (1, t) ap (0, t) (4.14) d P (1, t) = W (1 0) P (0, t) W (0 1) P (1, t) dt = ap (0, t) bp (1, t). (4.15) Lösung der Mastergleichung Addition der Gleichungen (4.14) und (4.15) liefert d (P (0, t) + P (1, t)) = 0, dt d.h. die Summe beider Wahrscheinlichkeiten ist konstant und wegen der Normierung der Gesamtwahrscheinlichkeit ist diese Konstante gleich Eins P (0, t) + P (1, t) = 1. (4.16) Die Gleichungen (4.14) und (4.15) lassen sich leicht integrieren: Ersetzt man z.b. in Gl. (4.14) unter Berücksichtigung von Gl. (4.16) P (1, t) durch 1 P (0, t), ergibt sich d P (0, t) = (a + b)p (0, t) + b, dt 43

44 4. Die Mastergleichung also P (0, t) = b a + b + C 0e (a+b)t. Zur Bestimmung der Integrationskonstanten benutzen wir die Anfangsbedingung P (0, t = 0 m) = δ 0m. Damit erhalten wir (jenachdem ob m = 0 oder m = 1 ist) P (0, t 0) = und aus P (1, t m) = 1 P (0, t m) P (1, t 0) = b a + b + a a + b e (a+b)t, P (0, t 1) = b [ 1 e (a+b)t] (4.17) a + b a [ 1 e (a+b)t], P (1, t 1) = a a + b a + b + b a + b e (a+b)t. (4.18) Für lange Zeiten konvergieren diese Ausdrücke gegen stationäre Werte: lim P (0, t 0) = lim P (0, t 1) = b t t lim P (1, t 0) = lim P (1, t 1) = a t t a + b := P s (0) (4.19) a + b := P s (1), d.h. wenn t τ c := 1/(a + b) dann kann man die Übergangswahrscheinlichkeiten (4.17) und (4.18) durch ihre stationären Werte in Gl. (4.19) ersetzen. Das heiÿt aber auch, dass das System für t τ c seinen Anfangszustand vergessen hat. In Abbildung 4.2 sind die zeitabhängigen und stationären Übergangswahrscheinlichkeiten (4.17), (4.18) und (4.19) grasch für den Fall a = 0.2/s und b = 0.6/s dargestellt Mittelwert und Varianz im stationären Regime Im Folgenden interessieren wir uns für Mittelwerte des Prozesses im stationären Regime (t 1/(a + b)). Diese berechnen sich unter Benutzung der stationären Übergangswahrscheinlichkeiten (4.19) gemäÿ f(n) = n=0,1 f(n)p s (n) = f(0)b + f(1)a. a + b Damit ergeben sich Mittelwert und Varianz zu n = 0 P s (0) + 1 P s (1) = a a + b = n2 σn 2 = n 2 n 2 = P s (1) [1 P s (1)] ab = (a + b) 2. und 44

45 4.3. Zeitkontinuierlicher Random Walk (1d) Bemerkung Die Varianz hat ein Maximum wenn beide Übergangsraten gleich sind: σ 2 n,max = 1 4, a = b. Falls eine der beiden Übergangsraten wesentlich kleiner ist als die andere (z.b. a b) verhält sich die Varianz wie σ 2 n a b Stationäre Autokorrelationsfunktion Zum Schluss berechnen wir noch die stationäre Korrelationsfunktion mit Hilfe der in Abschnitt (3.2) eingeführten Methode κ (t) = n(t)n(0) n 2 n(t)n(0) = nm P 2 (n, t; m, 0) = n,m=0,1 = = m=0,1 a a + b m P s (m) [ a a + b + n=0,1 n,m=0,1 nm P (n, t m, 0) P s (m) n P (n, t m, 0) = P s (1) P (1, t 1, 0) b a + b e (a+b)t Als Ergebnis erhalten wir ab κ(t) = (a + b) 2 e (a+b)t, d.h. die stationäre Autokorrelationsfunktion ist von der allgemeinen Form ]. κ(τ) = σ 2 n exp( τ/τ c ), wobei die Korrelationszeit durch τ c = 1/(a + b) gegeben ist Zeitkontinuierlicher Random Walk (1d) Wir betrachten ein Teilchen, welches Sprünge der Länge 1 auf einem räumlich diskreten Gitter macht (Abb. 4.3A). Wir wollen annehmen, dass Sprünge nach rechts bzw. links mit den Übergangsraten a und b stattnden, also W 1 (n + 1 n) = a und W 2 (n 1 n) = b. Die zugehörige Mastergleichung lautet dann d dt P (n, t) = W 1 (n n 1) P (n 1, t) W 1 (n + 1 n) P (n, t) +W 2 (n n + 1) P (n + 1, t) W 2 (n 1 n) P (n, t) = ap (n 1, t) + bp (n + 1, t) (a + b) P (n, t) (4.20) 45

46 4. Die Mastergleichung (A) (B) Abbildung 4.3.: (A) Random Walk auf einem 1d Gitter. (B) Aufenthaltswahrscheinlichkeit nach Gl. (4.30). Linke Seite: Symmetrischer Random Walk mit a = b = 10/s. Rechte Seite: Asymmetrischer Random Walk mit a = 12/s und b = 8/s. Wenn a > b bewegt sich das Teilchen im Mittel nach rechts. Die gepunkteten Linien geben den Mittelwert n = v t nach Gl. (4.24) an. Die durchgezogenen Linien entsprechen der Gauss'schen Approximation in Gl. (4.35) mit v = a b und D = a + b. die wir unter Anfangsbedingung P (n, t = 0 0, 0) = δ n0 (4.21) lösen wollen, d.h. zur Zeit t = 0 soll sich das Teilchen am Ursprung bei n = 0 benden Die wahrscheinlichkeitserzeugende Funktion Zur Lösung der Mastergleichung (4.20) denieren wir wieder die wahrscheinlichkeitserzeugende Funktion (siehe Abschnitt 1.2.4) durch F (z, t) = P (n, t)z n. (4.22) n= Um eine Gleichung für F (z, t) zu erhalten, multiplizieren wir beide Seiten der Gl. (4.20) mit z n und summieren über n von bis. Dann geht die Mastergleichung unter Ausnutzung von P (n + 1, t) z n = z 1 P (n + 1, t) z n+1 n= n= m=n+1 = z 1 m= = z 1 F (z, t) P (m, t) z m 46

47 und n= in die partielle Dierentialgleichung F (z, t) = t 4.3. Zeitkontinuierlicher Random Walk (1d) P (n 1, t) z n = zf (z, t) (az + bz (a + b) ) F (z, t) über, die mit Hilfe der aus Gl. (4.21) folgenden Anfangsbedingung F (z, 0) = 1 zu lösen ist. Das Ergebnis ist F (z, t) = exp [(az + bz ) ] (a + b) t. (4.23) Mittelwert und Varianz Mittelwert und Varianz lassen sich aus den partiellen Ableitungen von F (z, t) (Gl. 4.23) nach z gewinnen. Für den Mittelwert bekommen wir n = ( z F (z, t) z=1 = a b ) z 2 t exp [(az + bz ) ] (a + b) t z=1 = (a b) t (4.24) d.h. im Falle b > a bewegt sich das Teilchen im Mittel nach links während es sich im Falle a > b im Mittel nach rechts bewegt. Analog erhält man für die Varianz unter Benutzung von den Ausdruck Bemerkungen 2 z 2 F (z, t) z=1 = 2b ( z 3 t exp [ ] z=1 + a b ) 2 z 2 t 2 exp [ ] z=1 = (a b) 2 t 2 + 2bt σ 2 n(t) = 2 z 2 F (z, t) z=1 + n n 2 = (a + b) t. 1. Wegen n = vt können wir v = a b als mittlere Geschwindigkeit des Teilchens interpretieren. 2. Aus der räumlich kontinuierlichen Betrachtung (siehe Abschnitt 4.3.4) des 1d- Random-Walks folgt die Relation σ 2 n(t) = 2Dt, d.h. D = (a + b) /2 spielt die Rolle eines eektiven Diusionskoezienten. 47

48 4. Die Mastergleichung Zeitabhängige Lösung der Mastergleichung Die zeitabhängige Übergangswahrscheinlichkeit ergibt sich aus der Entwicklung von F (z, t) in Gl. (4.23) nach Potenzen z n F (z, t) = exp [(az + bz ) ] (a + b) t = e (a+b)t (at) l z l l! l=0 n=l k = e (a+b)t (bt) k z k k=0 k! n= k=max(0, n) Die Summationsgrenzen überlegen wir uns wie folgt: sei l fest und k = n = sei k fest und l = n =, (at) k+n (bt) k z n. (4.25) (k + n)!k! d.h. n =..., 2, 1, 0, 1, 2,.... Damit weiterhin l = n + k 0 gelten kann, muss die k- Summation von 0 bis erstreckt werden, falls n 0 ist. Ist n < 0 läuft die k-summation von n bis, also insgesamt. l,k=0 n= k=max(0, n) Der Vergleich von Gl. (4.25) mit Gl. (4.22) liefert Für n 0 wird daraus P (n, t 0, 0) = e (a+b)t P (n, t 0, 0) = e (a+b)t k=max(0, n) k=0 (at) k+n (bt) k. (k + n)!k! (at) k+n (bt) k, n 0. (4.26) (k + n)!k! Im Falle n 0 setzten wir k = max (0, n) = n = n und erhalten P (n, t 0, 0) = e (a+b)t k= n m=k n = e (a+b)t (at) k n (bt) k (k n )!k! m=0 (at) m (bt) m+ n m! (m + n )!, n 0 (4.27) Aus dem Vergleich von Gln. (4.26) und (4.27) folgt P (n, t) = P ( n, t), wenn man gleichzeitig a und b vertauscht. Das heisst aber, wir brauchen uns im Folgenden nur auf den Fall n 0 in Gl. (4.26) zu konzentrieren. Dazu schreiben wir a = a ab und b = b ab b a, 48

49 4.3. Zeitkontinuierlicher Random Walk (1d) was auf (at) k+n (bt) k = ( a b ) n 2 ( abt ) 2k+n führt, sodass sich die Übergangswahrscheinlichkeit (4.26) in der Form ( P (n, t 0, 0) = e (a+b)t a b schreiben lässt, wobei I n (z) die durch ) n 2 ( abt ) 2k+n k=0 ( = e (a+b)t a ) n 2 I n (2 abt b I n (z) = k=0 (z/2) 2k+n (k + n)!k! (k + n)!k! ), n 0 (4.28) (4.29) denierten, modizierten Besselfunktionen sind. Den Fall n 0 erhält man aus Gl. (4.28) einfach, indem man n durch n ersetzt und a mit b vertauscht, also P (n, t 0, 0) = e (a+b)t ( b a und damit insgesamt (siehe Abb. 4.3B) ) n 2 ( I n 2 ) abt, n 0, ( P (n, t 0, 0) = e (a+b)t a ) n 2 I b n (2 ) abt, n Z. (4.30) Übergang zur räumlich kontinuierlichen Beschreibung Im Folgenden wollen wir den Übergang zu einer räumlich kontinuierlichen Beschreibung auf der Ebene der Mastergleichung (4.20) für den asymmetrischen Random Walk durchführen. Dazu setzen wir x = nl sowie p (x, t) := P (nl, t) und entwickeln die rechte Seite der Mastergleichung für kleine Schrittweite l 1 in eine Taylorreihe P ((n ± 1) l, t) = p(x ± l, t) Einsetzen in die für l = 1 gültige Mastergleichung p(x, t) ± l x p(x, t) l2 2 x 2 p(x, t) + O(l3 ). (4.31) d P (nl, t) = [ap ([n 1] l, t) + bp ([n + 1] l, t) (a + b) P (nl, t)] dt 49

50 4. Die Mastergleichung liefert im Grenzwert l 0 (unter Berücksichtigung von x = nl) die partielle DGL [ p (x, t) = lim ap (x, t) al t l 0 x p (x, t) + a 2 l2 2 x 2 p (x, t) + O(l3 ) falls, die durch + bp (x, t) + bl x p (x, t) + b 2 l2 2 x 2 p (x, t) + O(l3 ) (a + b) p (x, t) = v 2 p (x, t) + D p (x, t) (4.32) x x2 v := lim (l [a b]) und (4.33) l 0 ( D := lim l 2 a + b ) (4.34) l 0 2 denierten Gröÿen bei dem durchgeführten Grenzübergang endlich bleiben. Die in Gln. (4.33) und (4.34) denierten Gröÿen lassen sich als mittlere Driftgeschwindigkeit bzw. Diusionskoezient interpretieren - beides makroskopisch beobachtbare Gröÿen. Gleichung (4.32) ist eine spezielle Fokker-Planck Gleichung, die uns in Kapitel 6 in etwas allgemeinerem Kontext wieder begegnen wird. Falls sich das Teilchen bei t = 0 am Ursprung bendet, ist die Lösung von Gl. (4.32) durch p (x, t 0, 0) = 1 4πDt e (x v t)2 4Dt, t 0 (4.35) gegeben. Das ist die Aufentwaltswahrscheinlichkeitsdichte eines Teilchens, dass sich mit der mittleren Geschwindigkeit v in positive x-richtung bewegt und deren Breite linear mit der Zeit anwächst (siehe Abb. 4.3B) x = v t σ 2 x = 2Dt. Die lineare Abhängigkeit der Varianz bezüglich der Zeit ist charakteristisch für Diusion Chemische Reaktionen Aufstellen der Mastergleichung Als Beispiel betrachten wir das (autokatalytische) Reaktionsschema A + X k 1 k 2 2X (4.36) X k 3 B. Die Anzahl an A- und B-Teilchen sei konstant (Teilchenreservoir). ] 50

51 Zum Aufstellen der Mastergleichung d dt P (N, t) = i 4.4. Chemische Reaktionen [W i (N M i )P (M i, t) W i (M i N)P (N, t)] (4.37) müssen wir uns überlegen, wie die Übergangsraten W i (N M i ) von der Teilchenzahl der beteiligten Molekülsorten abhängen. Betrachten wir zunächst die Reaktion A + X k 1 2X. Damit diese statt nden kann, müssen sich A- und X-Teilchen treen und miteinander reagieren. Wir nehmen an, dass sich dieser Prozess durch einen eektiven Parameter (k 1 ) beschreiben lässt, der die Dimension [k 1 ] = 1 mol s hat. Auÿerdem wird die Übergangsrate proportional zur Anzahl an A- und X-Teilchen sein, also W 1 (N + 1 N) = k 1 AN, d.h. bei dieser Reaktion ändert sich die Anzahl an X-Teilchen um N = +1. Die Übergangsraten für die beiden anderen Reaktionen in Gleichung (4.36) können analog motiviert werden 2X k 2 A + X W 2 (N 1 N) = k 2 N (N 1) (4.38) X k 3 B W 3 (N 1 N) = k 3 N. Die Dimension der die Reaktion charakterisierenden Parameter k 2 und k 3 lautet 1 [k 2 ] = mol s, [k 3] = 1 s. Zur Ableitung von W 2 in Gleichung (4.38) haben wir benutzt, dass die Anzahl an Möglichkeiten, für zwei X-Teilchen sich zu treen, proportional zu N (N 1) ist. Hier zeigt sich der diskrete Charakter der chemischen Reaktion auf Teilchenebene im Vergleich zu einer Beschreibung durch Konzentrationen n = N/V, bei der die Reaktionsrate proportional zu n 2 wäre. Insgesamt gibt es die 3 nichtverschwindenden Übergangsraten W 1 (N + 1 N) = k 1 AN (4.39) W 2 (N 1 N) = k 2 N (N 1) W 3 (N 1 N) = k 3 N mit deren Hilfe man die Mastergleichung sofort aufschreiben kann (siehe Abbildung 4.4): dp (N, t) dt = k 1 A(N 1)P (N 1, t) + (k 2 N(N + 1) + k 3 (N + 1)) P (N + 1, t) (k 1 AN + k 2 N(N 1) + k 3 N) P (N, t). (4.40) 51

52 4. Die Mastergleichung Abbildung 4.4.: Beziehung zwischen den in Gl. (4.39) denierten Übergangsraten und den von N aus erreichbaren Nachbarzuständen Parametrisierung durch Ausgangszustand und Sprungweite Für spätere Anwendungen wollen wir noch eine andere Schreibweise der Mastergleichung einführen. Die Übergangsraten (4.39) beschreiben Übergänge aus dem Zustand N in die Zustände N + 1 und N 1, d.h. in (4.37) ist M = N + 1 oder M = N 1. Genausogut könnten wir die Übergangsraten durch den Ausgangszustand N und die Sprungweite S = M N = ±1 parametrisieren. Die Übergangsrate hat dann die kompakte Form wobei V (N, S) = k 1 ANδ (S,+1) + (k 2 N(N 1) + k 3 N) δ (S, 1), (4.41) δ (S,M) = { 1, S = M 0, S M, d.h. der 1. Term in Gl. (4.41) kommt nur dann zum Tragen, wenn ein Teilchen erzeugt, also S = +1 ist. Analog kommt der 2. Term nur dann zum Tragen, wenn ein Teilchen vernichtet wird, also S = 1 ist. Mit Hilfe der Übergangsrate V (N, S) läÿt sich die Mastergleichung (4.37) in der Form d P (N, t) = [V (N S, S)P (N S, t) V (N, S)P (N, t)] (4.42) dt S=±1 schreiben. Explizit lautet die Mastergleichung für unser einfaches Beispiel also dp (N, t) dt = V (N 1, 1) P (N 1, t) + V (N + 1, 1) P (N + 1, t) (V (N, 1) + V (N, 1)) P (N, t) was nach Einsetzen des Ausdruckes für die Übergangsrate (4.41) natürlich mit Gleichung (4.40) übereinstimmt Multivariate Mastergleichung Wir betrachten ein System, in dem r chemische Reaktionen zwischen n Spezies stattnden. Die jte Reaktion 1 hat dann die allgemeine Form ν 1j X ν nj X n µ 1j X µ nj X n, j = 1,..., r. 1 Bei reversiblen Reaktionen werden Hin- und Rückreaktion separat gezählt. 52

53 4.4. Chemische Reaktionen Aus den positiven stöchiometrischen Koezienten ν ij und µ ij lässt sich die sogenannte stöchiometrische Matrix N konstruieren. Ihre Komponenten N ij = µ ij ν ij, i = 1,..., n, j = 1,..., r (4.43) geben an um wieviel Moleküle sich die Teilchenzahl der Spezies X i in der jten Reaktion ändert. Der Zustand dieses n-teilchensystems ist dann vollständig bestimmt, wenn alle Teilchenzahlen X i zur jeder Zeit t bekannt sind. Entsprechend hängt die Übergangswahrscheinlichkeit des zugeordneten Markov Prozesses von den Teilchenzahlen der n Spezies und der Zeit ab. Die Mastergleichung lautet dann dp (N 1,..., N n, t) dt Beispiel = r W j (N 1,..., N n N 1 N 1j,..., N n N nj ) P (N 1 N 1j,..., N n N nj, t) j=1 r W j (N 1 + N 1j,..., N n + N nj N 1,..., N n ) P (N 1,..., N n, t). j=1 Wir verallgemeinern das Beispiel aus Gl. (4.36) jetzt dahingehend, dass die Teilchenzahlen der A- und B-Teilchen als dynamische Variable betrachtet werden. Dann lautet die stöchiometrische Matrix N = A X B R1 R2 R (4.44) Bezeichnen wir die Teilchenzahlen von A, X und B mit X 1, X 2 und X 3, dann haben die 3 Übergangsraten die Form (vgl. Gl. 4.39) und die Mastergleichung lautet dp (N 1, N 2, N 3, t) dt W 1 (N 1 1, N 2 + 1, N 3 N 1, N 2, N 3 ) = k 1 N 1 N 2 W 2 (N 1 + 1, N 2 1, N 3 N 1, N 2, N 3 ) = k 2 N 2 (N 2 1) W 3 (N 1, N 2 1, N N 1, N 2, N 3 ) = k 3 N 2 = k 1 (N 1 + 1) (N 2 1) P (N 1 + 1, N 2 1, N 3, t) + k 2 (N 2 + 1) N 2 P (N 1 1, N 2 + 1, N 3, t) + k 3 (N 2 + 1) P (N 1, N 2 + 1, N 3 1, t) (k 1 N 1 N 2 + k 2 N 2 (N 2 1) + k 3 N 2 ) P (N 1, N 2, N 3, t). 53

54 4. Die Mastergleichung Abbildung 4.5.: Zur Simulation der Mastergleichung müssen iterativ 2 Fragen beantwortet werden: Wann ndet, ausgehend von einem Anfangszustand n k n(t k ), der nächste Übergang in einen der möglichen anderen Zustände statt (P nk (τ)) und welcher (p i (n k m i ))? Als Endzustände n k+1 kommen alle Zustände m i in Frage für die W i (m i n k ) 0. Speziell bei chemischen Reaktionen kann es vorkommen, dass verschiedene Übergänge (W 2 und W 3 ) zu demselben Endzustand (m 2 = m 3 ) führen Simulation der Mastergleichung: Gillespie Algorithmus Lösungen der Mastergleichung d dt P (n, t) = i [W i (n m i ) P (m i, t) W i (m i n) P (n, t)], (4.45) geben die Wahrscheinlichkeit an, das System zur Zeit t im Zustand n zu nden, wobei n ein beliebiger Zustand des Systems sein kann, d.h. P (n, t) enthält Information über alle möglichen Trajektorien (das Ensemble), die das System im Laufe der Zeit durchlaufen kann. Konkrete Realisierungen treten darin mit einer gewissen Wahrscheinlichkeit, entsprechend den zugrunde liegenden Übergangsraten W i, auf. Deshalb sollte es wesentlich einfacher sein, auf der Grundlage der Übergangsraten einzelne Realisierungen zu simulieren, anstatt die Mastergleichung selbst zu lösen. Diese Idee stellt die Grundlage der von Daniel Gillespie entwickelten Methode 2 dar, mit deren Hilfe man Realisierungen des durch die Mastergleichung beschriebenen Markov Prozesses simulieren kann. Verfügt man über eine hinreichend groÿe Anzahl an Realisierungen, kann man daraus beliebige Erwartungswerte der jeweils interessierenden Gröÿen berechnen. Zur Erzeugung einer Realisierung müssen wir, ausgehend von einem Ausgangszustand n(t k ) = n k, nur wissen Wann? die nächste Reaktion stattndet und Welche? (Abb. 4.5). Die iterierte Beantwortung dieser Fragen liefert dann eine Realisierung des durch 2 D. T. Gillespie, Exact Stochastic Simulation of Coupled Chemical Reactions, J. Phys. Chem. 81, ,

55 4.5. Simulation der Mastergleichung: Gillespie Algorithmus die Mastergleichung beschriebenen stochastischen Prozesses in Form einer Reihe von (zufälligen) Zeitpunkten t 1 < t 2 < t 3 <..., zu denen Reaktionen im System stattnden und sich die Teilchenzahlen der Zustände n 1 n 2, n 3... entsprechend ändern, wobei n(t) = n k während t k t < t k+1, k = 1, 2, 3,... gilt, d.h. während des Zeitintervalls t k t < t k+1 sind die Teilchenzahlen und damit die Übergangsraten W i (m i n k ) konstant Die Wahrscheinlichkeitsdichte p (τ, i n k, t k ) Zur Beantwortung der Frage: Wann die nächste Reaktion stattndet und welche? nehmen wir an, dass sich das System zur Zeit t k im Zustand n k bendet. Dann denieren wir die Wahrscheinlichkeit p (τ, i n k, t) dτ, dass die nächste Reaktion im Intervall (t k + τ, t k + τ + dτ) stattndet und es sich dabei um die i-te Reaktion n k m i handelt. Diese Wahrscheinlichkeit lässt sich als Produkt zweier Wahrscheinlichkeiten p (τ, i n k, t k ) dτ = q (τ) W i (m i n k ) dτ (4.46) schreiben, wobei q (τ) die Wahrscheinlichkeit ist, dass im Zeitintervall (t k, t k + τ) keine Reaktion stattndet während W i (m i n k ) dτ der Wahrscheinlichkeit entspricht, dass im Intervall (τ, τ + dτ) der Übergang n k m i erfolgt, also die i-te Reaktion stattndet. Zur Berechnung von q (t) machen wir uns klar, dass diese Wahrscheinlichkeit durch die Wahrscheinlichkeit gegeben ist, dass sich das System zur Zeit t t k immer noch im Ausgangszustand n k bendet, d.h. wir können q (n k, t) direkt aus der Mastergleichung (4.45) berechnen, wenn wir den möglichen Zustandsraum dahingehend einschränken, dass nur Übergänge aus dem aktuellen Zustand in andere Zustände möglich sind (d.h. wir setzen W i (n k m i ) = 0). Dann folgt d dt q (n k, t) = W nk q (n k, t), mit W nk = R W i (m i n k ), t k t < t k+1, (4.47) wobei W nk die Gesamtrate ist mit der Übergänge von n k in andere Zustände erfolgen. Da sich bis zum Eintreten einer neuen Reaktion (also im Zeitintervall t k t < t k+1 ) die Teilchenzahl n k und damit auch die Übergangsraten W i (m i n k ) nicht ändern, lautet die Lösung der DGL (4.47) mit der Anfangsbedingung q (n k, t k ) = 1 i=1 q (n k, t) = exp [ W nk (t t k )], t t k. Damit erhalten wir für die in Gl. (4.46) denierte Wahrscheinlichkeit den Ausdruck p (m i, τ n k, t k ) dτ = W i (m i n k ) exp ( ) R W i (m i n k ) τ dτ. (4.48) i=1 55

56 4. Die Mastergleichung Berechnung von p nk (τ) und p i (n k m i ) Aus der Darstellung für p (m i, τ n k, t k ) dτ in Gl. (4.48) erhalten wir die Wahrscheinlichkeitsdichten für den Zeitpunkt der nächsten Reaktion (p nk (τ)) und die Art der nächsten Reaktion (p i (n k m i )) durch Bildung der entsprechenden marginalen Dichten, d.h. p nk (τ) = = p i (n k m i ) = R p (m i, τ n k, t k ) i=1 ( ) R R W i (m i n k ) exp W i (m i n k ) τ i=1 = W nk exp ( W nk τ) und = = 0 0 i=1 dτ p (m i, τ n k, t k ) ( dτ W i (m i n k ) exp W i (m i n k ) R i=1 W i (m i n k ). τ ) R W i (m i n k ) Zur Berechnung von Zufallszahlen gemäÿ dieser Dichten brauchen wir noch die entsprechenden Wahrscheinlichkeitsverteilungsfunktionen. Diese sind durch und gegeben. P nk (τ) = P j = τ 0 i=1 dt p nk (t) = 1 exp ( W nk τ), W nk = j p i (n k m i ) = i=1 R W i (m i n k ) (4.49) i=1 j i=1 W i (m i n k ) R i=1 W i (m i n k ), j = 0,..., R, P 0 := 0 (4.50) Algorithmus zur Simulation von Realisierungen der Mastergleichung Damit ergibt sich folgender Algorithmus zur Simulation von Realisierungen der Länge T des durch die Mastergleichung (4.45) beschriebenen Markov Prozesses: 1. Setze k = 0 und lege den Ausgangszustand n k zur Zeit t k = 0 fest. 2. Berechne alle nichtverschwindenden Übergangsraten W i (m i n k ) sowie die Gesamtrate W nk = R i=1 W i (m i n k ) aus dem Zustand n k heraus. 3. Berechne 2 Zufallszahlen r, s (0, 1), setze aktuelle Zeit auf (vgl. Gl. 4.49) t k+1 = t k + 1 ( ) 1 ln, k = 0, 1, 2,... (4.51) W nk 1 r 56

57 4.5. Simulation der Mastergleichung: Gillespie Algorithmus und vergleiche s mit P j aus Gl. (4.50). Wenn P j < s P j+1, j = 0, 1,..., R 1, P 0 = 0 dann führe die W j+1 entsprechende Reaktion durch und ändere die Teilchenzahl gemäÿ n k m j+1 n k Falls t k+1 < T, gehe zurück zu Schritt 2, andernfalls ist das Ende der Simulation erreicht. Beispiel Als Beispiel zur Anwendung des Gillespie Algorithmus betrachten wir noch einmal die autokatalytische Reaktion aus Abschnitt 4.4. Je nach stattndender chemische Reaktion ändert sich die X-Teilchenzahl um höchsten ±1 (Abb. 4.6A), d.h. die Übergangsraten haben die Form W i (m i n k ) = W i (n k + l i n k ) mit l i = ±1, i = 1, 2, 3. Die Gesamtrate, den Zustand n k zu verlassen, ist dann durch W nk = 3 W i (n k + l i n k ) = k 1 An k + k 2 n k (n k 1) + k 3 n k i=1 gegeben. Um den Zeitpunkt der nächsten Reaktion zu berechnen, generieren wir eine in (0, 1) gleichverteilte Zufallszahl r und setzen (siehe Abb. 4.6B) t k+1 = t k ln W nk 1 r. Um zu entscheiden, welche Reaktion als nächste stattnden wird, setzen wir, Gleichung (4.50) folgend, P j = 0 und denieren P j = j i=1 W i (n k + l i n k ) 3 i=1 W, j = 1, 2, 3. i (n k + l i n k ) Die P j vergleichen wir mit einer weiteren aus (0, 1) generierten Zufallszahl s, wobei insgesamt 3 Fälle auftreten können: 0 < s < P 1 Reaktion 1 ndet statt P 1 < s < P 2 Reaktion 2 ndet statt P 2 < s < P 3 Reaktion 3 ndet statt. Abbildung (4.6C) zeigt einen Ausschnitt einer typischen Realisierung des durch die Mastergleichung (4.45) beschriebenen Markov Prozesses. Sie besteht aus Parallelen zur x- Achse, die immer dann einen Sprung in y-richtung aufweisen, wenn ein Übergang in 57

58 4. Die Mastergleichung (A) Reaktionssystem Anzahl an X Teilchen Anzahl an A Teilchen Übergangsraten Reaktion 1: Reaktion 2: Reaktion 3: Gesamtrate aller Übergänge von in andere Zustände Wahrscheinlichkeit, dass Reaktion i stattfindet: (B) Ausgangs zustand mögliche Endzustände Wahrschein lichkeit (C) X Teilchenzahl ist exponential verteilt Abbildung 4.6.: Anwendung des Gillespie Algorithmus auf die autokatalytische Reaktion aus Abschnitt 4.4. (A) Reaktionsgleichungen und Übergangsraten. (B) Ausgehend von einem Ausgangszustand n k = n(t k ) können nur Übergänge in benachbarte Zustände n k ± 1 erfolgen. Die Wahrscheinlichkeit im Zustand n k + 1 bzw. n k 1 zu landen ist P 1 bzw. P 2 + P 3. (C) Ausschnitt einer durch Simulation der Mastergleichung erhaltenen Realisierung. Die statt gefundenen Übergänge sind durch die entsprechende Übergangsrate W i gekennzeichnet. einen neuen Zustand stattndet. Die dargestellten Übergänge entsprechen generierten Zufallszahlen s k (0, 1) im Intervall t k+1 : P 1 < s k+1 P 2 W 2 t k+2 : P 2 < s k+2 P 3 W 3 t k+3 : P 0 < s k+3 P 1 W 1 t k+4 : P 2 < s k+4 P 3 W Kopplung von Transkription und Translation Im Abschnitt 1.3 hatten wir gesehen, dass die Anzahl an mrna Molekülen pro Zelle durch eine Poisson Verteilung beschrieben wird, wenn mrna Auf- und Abbau unabhängig voneinander erfolgen. Im Allgemeinen werden aber pro mrna Molekül mehrere 58

59 4.6. Kopplung von Transkription und Translation (A) 1 mrna 2 3 Protein 4 (B) (C) Protein Protein Protein mrna mrna mrna mrna Abbildung 4.7.: (A) Kombinierter Prozess bestehend aus mrna Transkription (1) und Proteintranslation (3) sowie mrna-abbau (2) und Proteinabbau (4). (B) Die zu (1)-(4) gehörigen Übergangsraten. (C) Beispielrealisierung des in Abschnitt denierten stochastischen Prozesses: Es werden 3 Proteine synthetisiert, bevor die mrna abgebaut wird. Proteine erzeugt, sodass diese oftmals in Bursts entstehen, was zu einer Abweichung vom Poisson'schen Verhalten und zu einer Verbreiterung der Proteinverteilung führt 3. Im Folgenden soll der in Abschnitt 1.3 eingeführte Prozess dahingehend erweitert werden, dass die Proteinsynthese an den Auf- und Abbau von mrna Molekülen gekoppelt wird. Dazu nehmen wir an, dass, pro mrna Molekül, Proteine mit spezischer Rate k P erzeugt und mit spezischer Rate γ P wieder abgebaut werden (Abb. 4.7A) Mastergleichung Mit Hilfe der in Abbildung 4.7B denierten Übergangsraten wird der in Abbildung 4.7A gezeigte Prozess, bestehend aus mrna Transkription und Proteintranslation, durch die Mastergleichung dp (r, n, t) dt = k R [p (r 1, n, t) p (r, n, t)] + γ R [(r + 1) p (r + 1, n, t) rp (r, n, t)] + k p r [p (r, n 1, t) p (r, n, t)] + γ P [(n + 1) p (r, n + 1, t) np (r, n, t)] beschrieben, wobei p (r, n, t) die Wahrscheinlichkeit angibt, zur Zeit t genau r mrnas und n Proteine im System zu haben. Eine exakte Lösung dieser Gleichung ist schwierig. Es lässt sich aber eine Näherungslösung konstruieren, wenn man den Umstand berücksichtigt, dass die Lebendauer eines mrna Moleküls (1/γ R ) im Allgemeinen wesentlich kürzer als die eines Proteins (1/γ P ) ist, d.h. γ P /γ R 1 4. Dann kann man annehmen, dass die mrna-verteilung, auf der Zeitskala der Proteindynamik (1/γ P ), bereits ihre stationäre Form erreicht hat. Unter diesen Umständen lässt sich eine eektive Mastergleichung 3 Otto Berg (1978) A model for the statistical uctuations of protein numbers in a microbial population. J. Theo. Biol. 71, V. Shahrezaei and P. S. Swain (2008) Analytical distributions for stochastic gene expression. Proc. Natl. Acad. Sci. USA 105,

60 4. Die Mastergleichung allein für die Proteindynamik aufstellen. Dazu müssen wir wissen, wieviele Proteine pro mrna Molekül synthetisiert werden, bevor das mrna Molekül wieder abgebaut wird? Quasi-stationäre Beschreibung der Proteinsynthese Zur Beantwortung dieser Frage denieren wir folgenden stochastischen Prozess: Ausgehend von 1 mrna Molekül soll in jedem Zeischritt t genau eine von zwei Möglichkeiten stattnden 1. Entweder wird ein Protein synthetisiert (Übergangsrate: k p ) 2. oder die mrna wird abgebaut (Übergangsrate: γ R ). Analog zum Random-Telegraph Prozess aus Abschnitt 4.2 hängt die stationäre Wahrscheinlichkeit, in dem einen oder anderen Zustand zu landen, nur vom relativen Anteil der jeweiligen Übergangsrate bezogen auf die Gesamtrate k P + γ R ab (siehe 4.19), also p syn = k P k P + γ R und p deg = γ R k P + γ R. Dann ist die Wahrscheinlichkeit, dass aus einem mrna Molekül n Proteine erzeugt werden, bevor die mrna wieder abgebaut wird, durch die geometrische Verteilung h n = p n syn p deg gegeben (Abb. 4.7C). Dies lässt sich auch in der Form h n = q n (1 q), n = 0, 1,... mit q b 1 + b < 1 (4.52) schreiben. Hierbei ist b = nh n = (1 q) q d dq n=0 q n = (1 q) q d dq n=0 1 1 q = q 1 q = b k P /γ R die mittlere Anzahl an Proteinen, die pro mrna Molekül synthetisiert werden Eektive Mastergleichung für die Proteinsynthese Mit Hilfe von Gleichung (4.52) kann die eektive Mastergleichung für den Protein Aufund Abbau in der Form ( n 1 ) d dt p n (t) = k R h n r p r (t) p n (t) h r + γ P [(n + 1) p n+1 (t) np n (t)] (4.53) r=0 r=1 geschrieben werden. Hierbei ist h n r p r (t) die Wahrscheinlichkeit, dass zur Zeit t bereits r Proteine vorhanden sind und im Zeitschritt dt pro mrna Molekül noch n r weitere Proteine synthetisiert werden. Dann ist h n r p r k R n 1 r=0 60

61 die Gesamtrate aller Übergänge in den Zustand n. Analog ist p n (t) 4.6. Kopplung von Transkription und Translation b h r = p n (t) 1 + b r=1 die Wahrscheinlichkeit, dass zur Zeit t bereits n Proteine vorhanden sind und in dt mindestens ein weiteres Protein erzeugt wird. Multipliziert mit k R ergibt sich daraus die Gesamtrate, mit der Übergänge aus dem Zustand n heraus stattnden. Bemerkungen: 1. Der in (4.53) scheinbar fehlende Term h 0 p n tritt nicht auf, da er keine Änderung des Zustandes p n bewirkt und damit keinen echten Übergang in den Zustand n hinein oder aus n heraus beschreibt (siehe Gl. 4.3). 2. In der Übung (Blatt 4) hatten wir gesehen, dass die Lösung der Mastergleichung (4.53) durch die negative Binomialverteilung p n = gegeben ist. Hierbei ist λ = k R /γ P. Γ (n + λ) n!γ (λ) ρn (1 ρ) λ, ρ b 1 + b (4.54) Übergang zur kontinuierlichen Beschreibung Im Folgenden wollen wir die Proteinzahl als kontinuierliche Variable x betrachten und setzen dazu x = nl mit l [0, 1], n = 0, 1, 2,... Für kontinuierliche Zufallsgröÿen lässt sich die geometrische Verteilung durch die Exponentialverteilung w(x) = 1 ( b exp x ), x [o, ) (4.55) b approximieren. Entsprechend approximieren wir die in (4.53) auftretenden Summen durch Integrale der Form n 1 x dx and dx. r=0 0 Dann ist die Wahrscheinlichkeit, dass mindestens ein Protein erzeugt wird durch P (x 1) 0 r=1 0 dxw(x) = 1 gegeben. Der in Gleichung (4.53) auftretende Protein Abbauterm nimmt in kontinuierlicher Beschreibung die Gestalt ( n = 1) (n + 1)lp (n+1)l nlp nl ( n) l (x + l) p (x + l) xp (x) l l 0 x (xp(x)) 61

62 4. Die Mastergleichung an. Für den verbleibenden Term erhalten wir n 1 l 0 h n r p r r=0 x 0 dx w ( x x ) p ( x ). Damit geht die diskrete Mastergleichung (4.53) in die kontinuierliche Mastergleichung [ t p(x, t) = γ x ] P x [xp(x, t)] + k R dx w(x x )p(x ) p(x) über Stationäre Lösung Zur Lösung der stationären Mastergleichung [ x ] 0 = x [xp(x, t)] + λ dx w(x x )p(x ) p(x), λ = k R. γ P 0 multiplizieren wir beide Seiten mit e sx und integrieren von 0 bis. Das liefert 0 dxe sx x [xp(x, t)] = [ e sx xp(x, t) ] x=0 + s = s s dxe sx p(x, t) 0 = s s ˆp(s) 0 0 dx xe sx p(x, t) und 0 x dxe sx dx w(x x )p(x ) = 0 = 0 0 dy 0 dye sy w(y) = ŵ(s) ˆp(s). dx e s(y+x ) w(y)p(x ) 0 dx e sx p(x ) Hier haben wir y = x x 0 gesetzt, da mit x auch x nach geht. Auÿerdem haben wir über ˆp(s) = 0 dxe sx p(x) und ŵ(s) = 0 dxe sx w(x) die zu p(x) und w(x) gehörigen Laplacetransformierten eingeführt. Für w(x) in Gleichung (4.55) bekommen wir die Laplacetransformierte ŵ(s) = 1 ( ) dxe sx e x 1 1 b = b 0 b 1 b + s = bs. 5 N. Friedman, L. Cai and X. Sunney Xie, Phys. Rev. Lett. 97, ,

63 4.6. Kopplung von Transkription und Translation Damit erhalten wir aus der kontinuierlichen Mastergleichung die Laplacetransformierte Gleichung ( ) 1 s s ˆp(s) = λ 1 + bs 1 ˆp(s) = λ bs ˆp(s), ˆp(0) = bs Deren Lösung ist durch ˆp(s) = gegeben. Rücktransformation liefert 1 (1 + bs) λ = 1 b ( λ s + 1 ) λ b Mittelwert und Varianz der Verteilung sind durch p(x) = xλ 1 e x b b λ Γ (λ). (4.56) x = λb und σ 2 x = x 2 x 2 = λb 2 gegeben. Zm Vergleich: Mittelwert und Varianz der negativen Binomialverteilung sind durch n = λb und σ 2 n = n 2 n 2 = λb (b + 1) gegeben. Für b 1 stellt die kontinuierliche Approximation also eine sehr gute Näherung dar (Abbildung 4.8). In E. coli Zellpopulationen wurden kürzlich Proteinverteilungen für eine Vielzahl an Proteinen experimentell vermessen 6. Dazu hat man gezählt wie häug ein bestimmtes Protein pro Zelle vorkommt. Die sich daraus ergebenden Verteilungen liessen sich sehr gut mit Hilfe der Gammaverteilung (4.56) beschreiben. 6 Y. Taniguchi et. al. Quantifying E. coli Proteome and Transcriptome with Single-Molecule Sensitivity in Single Cells. Science 329, (2010) 63

64 4. Die Mastergleichung Abbildung 4.8.: Vergleich zwischen negativer Binomialverteilung (4.54) und ihrer kontinuierlichen Approximation (durchgezogene Linie) durch die Gammaverteilung (4.56) bei festem Mittelwert n = x = λ b =

65 5. Fokker-Planck Gleichungen 5.1. Die Kramers-Moyal Entwicklung Im Abschnitt 4.5 hatten wir gesehen, dass sich die Übergangsraten in der Mastergleichung dp (x, t) dt = ds [V (x s s) p (x s, t) V (x s) p (x, t)], x, s R in der Form ( f + i (x)δ (s,+i) + f i (x)δ (s, i)) V (x, s) = i schreiben lassen. Oftmals nden nur Übergänge in benachbarte Zustände statt, d.h. s = ±1, sodass für x s eine Entwicklung der Übergangsraten im ersten Argument sinnvoll erscheint V (x s, s)p(x s, t) = ( s) k k [V (x, s)p(x, t)]. k! xk k=0 Setzt man diesen Ausdruck in die Mastergleichung ein, fällt der Term für k = 0 weg und man erhält die Kramers-Moyal Entwicklung p (x, t) t = ( 1) k k k! x k [a k(x)p(x, t)] (5.1) k=1 wobei die Sprungmomente k-ter Ordnung durch a k (x) = ds s k V (x, s) deniert sind. Die Kramers-Moyal Entwicklung is der Mastergleichung äquivalent, solange man alle Terme auf der rechten Seite berücksichtigt. Oft bricht man aber die Entwicklung nach dem zweiten Term ab und erhält daraus die Fokker-Planck Gleichung p (x, t) t 2 = x (a 1 (x) p (x, t)) x 2 (a 2 (x) p (x, t)) (5.2) die unter der Anfangsbedingung p(x, 0 y) = δ(x y) zu lösen ist. 65

66 5. Fokker-Planck Gleichungen Bemerkungen: 1. Im Allgemeinen können die Funktionen a 1 (x, t) und a 2 (x, t) zeitabhängig sein. Die zugehörigen Lösungen der Fokker-Planck Gleichung sind dann aber nicht mehr notwendigerweise zeit-homogen. 2. Für vektorwertige Zufallsvariable z = (z 1,..., z n ) hat die Fokker-Planck Gleichung die Gestalt t p( z, t) = i (A i ( z, t)p( z, t)) (B ij ( z, t)p( z, t)). z i 2 z ij i z j A( z, t) nennt man Driftvektor und B( z, t) Diusionsmatrix (positiv denit, symmetrisch). Sind sie zeitunabhängig, ist der zugehörige Markov Prozess zeithomogen und die Übergangswahrscheinlichkeiten hängen nur von der Zeitdierenz ab. 3. Die Fokker-Planck Gleichung hat die Form einer Kontinuitätsgleichung wobei die Gröÿe p (x, t) + j (x, t) = 0 (5.3) t x j (x, t) = a 1 (x) p (x, t) 1 2 x (a 2 (x) p (x, t)) (5.4) als Wahrscheinlichkeitsstromdichte interpretiert werden kann. 4. Stationäre Lösungen der Fokker-Planck Gleichung sind durch x j s (x) = 0 j s (x) = j 0 = konstant (5.5) gekennzeichnet. Im einfachsten Fall kann man nach stationären Lösungen suchen, deren Wahrscheinlichkeitsstromdichte im Unendlichen verschwindet, sodass lim j (x) = 0 (5.6) x gilt. Dann verschwindet auch die in Gleichung (5.5) denierte Konstante (j 0 0) und aus der Kontinuitätsgleichung (5.3) folgt durch Integration über x (, ) d dt die Erhaltung der Gesamtwahrscheinlichkeit P = dx p(x, t) = j(x, t) = 0, dx p (x, t) = konstant = 1. Der Wert der Konstanten folgt aus der Normierung der Wahrscheinlichkeitsdichte. Falls die stationäre Wahrscheinlichkeitsstromdichte j s (x) identisch verschwindet 66

67 5.1. Die Kramers-Moyal Entwicklung (Gleichung 5.6) dann werden stationäre Lösungen der Fokker-Planck Gleichung (5.2) durch die gewöhnliche DGL 1. Ordnung j s (x) = a 1 (x) p s (x) 1 2 x (a 2 (x) p s (x)) = 0 beschrieben. Integration liefert p s (x) = C [ x a 2 (x) exp 2 dy a ] 1 (y) a 2 (y) wobei die hierbei auftretende Konstante C durch die Normierungsbedingung p s (x) dx =! 1 1 C = [ dx a 2 (x) exp 2 ] x dy a 1(y) a 2 (y) (5.7) bestimmt ist. (Je nach Art der Funktionen a 1 und a 2 kann es vorkommen, dass die formale Lösung (5.7) nicht normierbar ist. In diesem Falle gibt es keine stationäre Lösung.) Zeitliche Entwicklung von Erwartungswerten Mit Hilfe der Fokker-Planck Gleichung können wir leicht eine Dierentialgleichung für beliebige Erwartungswerte der Form f (x) = dx f (x) p (x, t) herleiten. Sei also p(x, t) eine Lösung der Fokker-Planck Gleichung (5.2), dann gilt d f (x) = dx f (x) p (x, t) dt t [ = dx f (x) x (a 1(x)p(x, t)) ] 2 x 2 (a 2 (x) p (x, t)) [ = dx a 1 (x) p (x, t) x f(x) + 1 ] 2 a 2 (x) p (x, t) 2 x 2 f (x) d dt f (x) = f (x) a 1 (x) f (x) a 2 (x), (5.8) wobei wir angenommen haben, dass die in Zeile 3 auftretenden Randterme verschwinden lim x lim x [( x f (x) lim [f (x) a 1 (x) p (x)] = 0 x [ f (x) ] x (a 2 (x) p (x)) = 0 ) ] x (a 2 (x) p (x)) = 0. Typischerweise sind f (x), a 1 (x) und a 2 (x) Polynome in x, sodass p (x) hinreichend schnell (und ohne starke Oszillationen) gegen Null gehen muss, damit die Randterme verschwinden. 67

68 5. Fokker-Planck Gleichungen Gleichungen für Mittelwert und Varianz Setzt man in (5.8) f (x) = x oder f (x) = x 2 erhält man d dt x = a 1 (x) (5.9) bzw. d x 2 = 2 x a 1 (x) + a 2 (x) (5.10) dt die oenbar nur dann geschlossene Gleichungen für x bzw. x 2 darstellen, wenn a 1 (x) = ax + b bzw. a 2 (x) = cx 2 + dx + e. Im Allgemeinen erhält man keine geschlossenen Gleichungen für die Momente. Dierentialgleichung für die Varianz Mit Hilfe von Gln. (5.9) und (5.10) kann man direkt eine Gleichung für die Varianz σx 2 = ( x) 2, wobei x = x x ist, herleiten d ( x) 2 d dt dt x2 d dt x 2 = 2 xa 1 (x) + a 2 (x) 2 x d dt x = 2 xa 1 (x) + a 2 (x) 2 x a 1 (x) d ( x) 2 = 2 x a 1 (x) + a 2 (x). (5.11) dt Ebenso wie Gl. (5.10) ist Gl. (5.11) nur dann eine geschlossene Gleichung für ( x) 2, wenn a 1 höchstens linear and a 2 höchstens quadratisch in x ist. Gilt speziell a 2 (x) 0 and a 1 (x) = a x + b dann verschwindet die stationäre Varianz wegen 2a ( x) 2 + 2b x = 2a ( x) 2 = 0. Das legt den Verdacht nahe, dass Fluktuationen nur dann auftreten können, wenn in der Kramers-Moyal Entwicklung (5.1) der Term proportional zu a 2 (x) berücksichtigt wird Der Wiener Prozess Der Wiener Prozess, den wir im Hinblick auf spätere Anwendungen mit `W ' bezeichnen wollen, spielt für das Verständnis stochastischer Dierentialgleichungen, welche in Kapitel 6 behandelt werden, eine übergeordnete Rolle. Formal erhält man ihn als Lösung der Fokker-Planck Gleichung (5.2) mit a 1 0 und a t p (w, t) = 1 p (w, t) 2 w2 68

69 5.2. Der Wiener Prozess und der Anfangsbedingung p(w, t 0 w 0, t 0 ) = δ(w w 0 ), d.h. die Übergangswahrscheinlichkeit hat die Form einer Gauss-Verteilung p 1 1 (w, t w 0, t 0 ) = 1 (w w 0 ) 2 2π(t t0 ) e 2(t t 0), t t 0. (5.12) Für Mittelwert und Varianz ndet man X(t) = w 0 (5.13) σ 2 W W 2 (t) w 2 0 = t t 0, (5.14) d.h. die Übergangswahrscheinlichkeitsdichte bleibt um ihren Startwert w 0 zentriert, aber die Varianz σ 2 W wächst proportional zur Zeitdierenz t t 0 an, was charakteristisch für diusive Prozesse ist (siehe Abb. 4.3B). Bermerkung: Der Wiener Prozess ist ein Beispiel für einen zeit-homogenen, aber nicht stationären Prozess. Er ist zeit-homogen, da die Übergangswahrscheinlichkeitsdichte (5.12) nur von der Zeitdierenz abhängt, aber er ist nicht stationär, da seine Varianz zeitabhängig ist Unabhängige Zuwächse Da der Wiener Prozess ein Markov Prozess ist, lässt sich die n-zeitpunkt Verbundwahrscheinlichkeit als p n (w n, t n ;... ; w 0, t 0 ) = Π n i=1p 1 1 (w i, t i w i 1, t i 1 )p 1 (w 0, t 0 ) schreiben. Nach Einsetzen der expliziten Ausdrücke für die Übergangswahrscheinlichkeiten (5.12) wird daraus p n (w n, t n ;... ; w 0, t 0 ) = Π n 1 (w i=1 i w i 1) 2π(ti t i 1 ) e 2(t i t i 1) p 1 (w 0, t 0 ). Da dieser Ausdruck nur von den Zuwächsen w i = w i w i 1 und den Zeitdierenzen t i = t i t i 1 abhängt, liegt es Nahe, diese als neue Variablen zu benutzen: W i = W (t i ) W (t i 1 ) t i = t i t i 1, i = 1,..., n. Dann faktorisiert die n-zeitpunkt Verbundwahrscheinlichkeit für die Zuwächse W i in n Einzelwahrscheinlichkeiten p n ( w n, t n ;... ; w 1, t 1 ; w 0, t 0 ) = Π n i=1p 1 ( w i, t i ) p 1 (w 0, t 0 ) mit (5.15) 1 p 1 ( w i, t i ) = ( w i ) 2π( ti ) e 2 t i

70 5. Fokker-Planck Gleichungen d.h. die Zuwächse W i sind unabhängig voneinander und unabhängig von W (t 0 ). Insbesondere gilt Bemerkungen: W i = ( W i ) 2 = w i d ( w i ) ( w i ) 2 2π( ti ) e 2 t i = 0, i = 1,..., n (5.16) ( w i ) 2 d ( w i ) ( w i ) 2 2π( ti ) e 2 t i = t i. (5.17) 1. Der so konstruierte Prozess ist stationär, da alle zeitgleichen Momente (t 1 = t 2 =... = t n ), insbesondere die Varianz (5.17), wegen t i = 0 zeitunabhängig sind. 2. Für zwei aueinander folgende Zeitpunkte t 0 und t 1 > t 0 folgt aus Gleichung (5.15), dass der Zuwachs W 1 = W (t 1 ) W (t 0 ) unabhängig von W (t 0 ) ist, also [W (t 1 ) W (t 0 )] W (t 0 ) W 1 W (t 0 ) = W 1 W (t } {{ } 0 ) = 0 (5.18) =0 wobei wir im letzten Schritt Gleichung (5.16) benutzt haben. 3. Einen stationären Prozess mit unabhängigen Zuwächsen nennt man Lévy Prozess Autokorrelationsfunktion Bei der Berechnung der Autokorrelationsfunktion müssen wir beachten, dass der Wiener Prozess nicht stationär ist, sodass die Autokorrelationsfunktion explizit von zwei Zeitargumenten abhängt, also κ (t 1, t 2 ) = W (t 1 ) W (t 2 ) W (t) 2. Insbesondere ist der Mittelwert nach Gleichung (5.13) durch W (t) = w 0 gegeben. Zur Berechnung von W (t 1 ) W (t 2 ) = dw 1 dw 2 w 1 w 2 p 2 (w 1, t 1 ; w 2, t 2 ) müssen zwei Fälle unterschieden werden, jenachdem ob t 1 < t 2 oder t 2 < t 1 gilt. Dementsprechend erhält man W (t 1 ) W (t 2 ) = { dw1 dw 2 w 1 w 2 p 1 1 (w 2, t 2 w 1, t 1 ) p 1 (w 1, t 1 ), dw1 dw 2 w 1 w 2 p 1 1 (w 1, t 1 w 2, t 2 ) p 1 (w 2, t 2 ), falls t 1 < t 2 falls t 2 < t 1. 70

71 5.2. Der Wiener Prozess Hierbei ist die Übergangswahrscheinlichkeit durch p 1 1 (w 2, t 2 w 1, t 1 ) = 1 (w 2 w 1 ) 2 2π(t2 t 1 ) e 2(t 2 t 1), t 2 t 1 gegeben. Nimmt man weiterhin an, das Teilchen bende sich zur Zeit t 0 am Ort w 0, dann ndet man als Anfangsdichte p 1 (w 1, t 1 ) = dzp 1 1 (w 1, t 1 z, t 0 ) δ (z w 0 ) = p 1 1 (w 1, t 1 w 0, t 0 ) 1 = (w 1 w 0 ) 2π (t1 t 0 ) e 2 2(t 1 t 0). Damit erhalten wir im Falle t 1 < t 2 W (t 1 ) W (t 2 ) = dw 1 dw 2 w 1 w 2 p 1 1 (w 2, t 2 w 1, t 1 ) p 1 (w 1, t 1 ) = = (w 1 w 0 ) 2 2π (t1 t 0 ) e 2(t 1 t 0 ) dw 1 w 1 (w 1 w 0 ) 2 2π (t1 t 0 ) e 2(t 1 t 0 ) dw 1 w 2 1 = t 1 t 0 + w 2 0, t 1 < t 2 w 2 dw 2 (w 2 w 1 ) 2 2π(t2 t 1 ) e 2(t 2 t 1 ) und analog W (t 1 ) W (t 2 ) = dw 1 dw 2 w 1 w 2 p 1 1 (w 1, t 1 w 2, t 2 ) p 1 (w 2, t 2 ) = w 2 dw 2 (w 2 w 0 ) 2 2π (t2 t 0 ) e 2(t 2 t 0 ) = t 2 t 0 + w 2 0, t 2 < t 1 w 1 dw 1 (w 1 w 2 ) 2 2π(t1 t 2 ) e 2(t 1 t 2 ) also insgesamt κ (t 1, t 2 ) = W (t 1 ) W (t 2 ) w 2 0 = min(t 1 t 0, t 2 t 0 ). Einfacher ist es, die Unabhängigkeit der Zuwächse W zu benutzen. Im Falle t 2 > t 1 kann man dann schreiben W (t 1 )W (t 2 ) = (W (t 2 ) W (t 1 )) W (t 1 ) + W 2 (t 1 ) = W (t 2 ) W (t 1 ) + W 2 (t 1 ) (5.18) = W (t 2 ) W (t } {{ } 1 ) + W 2 (t 1 ) =0 = W 2 (t 1 ) = t 1 t 0 + w0, 2 t 1 < t 2 71

72 5. Fokker-Planck Gleichungen (A) (B) Abbildung 5.1.: Autokorrelationsfunktion des Wiener Prozess (5.19) für t 0 = 0 als (A) Funktion von t 1 und t 2 und (B) als Funktion von t 2 für einen festen Zeitpunkt t 1. Im Bereich t 2 < t 1 steigt κ t1 (t 2 ) linear an und erreicht sein Maximum für t 2 = t 1. Im Bereich t 2 > t 1 bleibt κ t1 (t 2 ) = t 1 konstant. In der letzten Zeile haben wir Gleichung (5.14) benutzt σw 2 = W 2 (t 1 ) w0 2 = t 1 t 0. Im Falle t 1 > t 2 erhalten wir analog W (t 1 ) W (t 2 ) = (W (t 1 ) W (t 2 )) W (t 2 ) + W 2 (t 2 ) = W 2 (t 2 ) = t 2 t 0 + w0, 2 t 2 < t 1 also insgesamt κ (t 1, t 2 ) = W (t 1 ) W (t 2 ) w0 2 = min(t 1 t 0, t 2 t 0 ). (5.19) 72

Statistische Thermodynamik I Lösungen zur Serie 1

Statistische Thermodynamik I Lösungen zur Serie 1 Statistische Thermodynamik I Lösungen zur Serie Zufallsvariablen, Wahrscheinlichkeitsverteilungen 4. März 2. Zwei Lektoren lesen ein Buch. Lektor A findet 2 Druckfehler, Lektor B nur 5. Von den gefundenen

Mehr

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen

Gleichungen Lösen. Ein graphischer Blick auf Gleichungen Gleichungen Lösen Was bedeutet es, eine Gleichung zu lösen? Was ist überhaupt eine Gleichung? Eine Gleichung ist, grundsätzlich eine Aussage über zwei mathematische Terme, dass sie gleich sind. Ein Term

Mehr

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung. Lineare Gleichungen mit einer Unbekannten Die Grundform der linearen Gleichung mit einer Unbekannten x lautet A x = a Dabei sind A, a reelle Zahlen. Die Gleichung lösen heißt, alle reellen Zahlen anzugeben,

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Brückenkurs Mathematik TU Dresden 2015 Lineare Gleichungssysteme Schwerpunkte: Modellbildung geometrische Interpretation Lösungsmethoden Prof. Dr. F. Schuricht TU Dresden, Fachbereich Mathematik auf der

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. 13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen. Sie heißt linear, wenn sie die Form y (n) + a n 1 y (n 1)

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

Technik der Fourier-Transformation

Technik der Fourier-Transformation Was ist Fourier-Transformation? Fourier- Transformation Zeitabhängiges Signal in s Frequenzabhängiges Signal in 1/s Wozu braucht man das? Wie macht man das? k = 0 Fourier- Reihe f ( t) = Ak cos( ωkt) +

Mehr

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse 11 13. 501322 Lösung 10 Punkte 50. Mathematik-Olympiade. Stufe (Regionalrunde) Klasse 3 Lösungen c 00 Aufgabenausschuss des Mathematik-Olympiaden e.v. www.mathematik-olympiaden.de. Alle Rechte vorbehalten. 503 Lösung 0 Punkte Es seien

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen 1. Quadratische Gleichungen Quadratische Gleichungen lassen sich immer auf die sog. normierte Form x 2 + px + = 0 bringen, in

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

DIFFERENTIALGLEICHUNGEN

DIFFERENTIALGLEICHUNGEN DIFFERENTIALGLEICHUNGEN GRUNDBEGRIFFE Differentialgleichung Eine Gleichung, in der Ableitungen einer unbekannten Funktion y = y(x) bis zur n-ten Ordnung auftreten, heisst gewöhnliche Differentialgleichung

Mehr

7 Rechnen mit Polynomen

7 Rechnen mit Polynomen 7 Rechnen mit Polynomen Zu Polynomfunktionen Satz. Zwei Polynomfunktionen und f : R R, x a n x n + a n 1 x n 1 + a 1 x + a 0 g : R R, x b n x n + b n 1 x n 1 + b 1 x + b 0 sind genau dann gleich, wenn

Mehr

W-Rechnung und Statistik für Ingenieure Übung 11

W-Rechnung und Statistik für Ingenieure Übung 11 W-Rechnung und Statistik für Ingenieure Übung 11 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) Mathematikgebäude Raum 715 Christoph Kustosz (kustosz@statistik.tu-dortmund.de) W-Rechnung und Statistik

Mehr

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!. 040304 Übung 9a Analysis, Abschnitt 4, Folie 8 Die Wahrscheinlichkeit, dass bei n - maliger Durchführung eines Zufallexperiments ein Ereignis A ( mit Wahrscheinlichkeit p p ( A ) ) für eine beliebige Anzahl

Mehr

Die reellen Lösungen der kubischen Gleichung

Die reellen Lösungen der kubischen Gleichung Die reellen Lösungen der kubischen Gleichung Klaus-R. Löffler Inhaltsverzeichnis 1 Einfach zu behandelnde Sonderfälle 1 2 Die ganzrationale Funktion dritten Grades 2 2.1 Reduktion...........................................

Mehr

R ist freie Software und kann von der Website. www.r-project.org

R ist freie Software und kann von der Website. www.r-project.org R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird

Mehr

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.)

Lösungsmethoden gewöhnlicher Differentialgleichungen (Dgl.) Lösungsmethoden gewöhnlicher Dierentialgleichungen Dgl) Allgemeine und partikuläre Lösung einer gewöhnlichen Dierentialgleichung Eine Dierentialgleichung ist eine Gleichung! Zum Unterschied von den gewöhnlichen

Mehr

Grundlagen der Monte Carlo Simulation

Grundlagen der Monte Carlo Simulation Grundlagen der Monte Carlo Simulation 10. Dezember 2003 Peter Hofmann Inhaltsverzeichnis 1 Monte Carlo Simulation.................... 2 1.1 Problemstellung.................... 2 1.2 Lösung durch Monte

Mehr

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen

Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Elemente der Analysis I Kapitel 2: Einführung II, Gleichungen Prof. Dr. Volker Schulz Universität Trier / FB IV / Abt. Mathematik 8. November 2010 http://www.mathematik.uni-trier.de/ schulz/elan-ws1011.html

Mehr

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Vorkurs Mathematik Übungen zu Differentialgleichungen

Vorkurs Mathematik Übungen zu Differentialgleichungen Vorkurs Mathematik Übungen zu Differentialgleichungen Als bekannt setzen wir die folgenden Umformungen voraus: e ln(f(x)) = f(x) e f(x)+c = e f(x) e c e ln(f(x)) +c = f(x) e c = f(x) c f ( g(x) ) g (x)

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort: Tangentengleichung Wie Sie wissen, gibt die erste Ableitung einer Funktion deren Steigung an. Betrachtet man eine fest vorgegebene Stelle, gibt f ( ) also die Steigung der Kurve und somit auch die Steigung

Mehr

Grundlagen der Theoretischen Informatik, SoSe 2008

Grundlagen der Theoretischen Informatik, SoSe 2008 1. Aufgabenblatt zur Vorlesung Grundlagen der Theoretischen Informatik, SoSe 2008 (Dr. Frank Hoffmann) Lösung von Manuel Jain und Benjamin Bortfeldt Aufgabe 2 Zustandsdiagramme (6 Punkte, wird korrigiert)

Mehr

6.2 Scan-Konvertierung (Scan Conversion)

6.2 Scan-Konvertierung (Scan Conversion) 6.2 Scan-Konvertierung (Scan Conversion) Scan-Konvertierung ist die Rasterung von einfachen Objekten (Geraden, Kreisen, Kurven). Als Ausgabemedium dient meist der Bildschirm, der aus einem Pixelraster

Mehr

Einführung in die Algebra

Einführung in die Algebra Prof. Dr. H. Brenner Osnabrück SS 2009 Einführung in die Algebra Vorlesung 13 Einheiten Definition 13.1. Ein Element u in einem Ring R heißt Einheit, wenn es ein Element v R gibt mit uv = vu = 1. DasElementv

Mehr

Approximation durch Taylorpolynome

Approximation durch Taylorpolynome TU Berlin Fakultät II - Mathematik und Naturwissenschaften Sekretariat MA 4-1 Straße des 17. Juni 10623 Berlin Hochschultag Approximation durch Taylorpolynome Im Rahmen der Schülerinnen- und Schüler-Uni

Mehr

Mathematischer Vorbereitungskurs für Ökonomen

Mathematischer Vorbereitungskurs für Ökonomen Mathematischer Vorbereitungskurs für Ökonomen Dr. Thomas Zehrt Wirtschaftswissenschaftliches Zentrum Universität Basel Gleichungen Inhalt: 1. Grundlegendes 2. Lineare Gleichungen 3. Gleichungen mit Brüchen

Mehr

Mathematik des Hybriden Monte-Carlo. Marcus Weber. Zuse Institute Berlin

Mathematik des Hybriden Monte-Carlo. Marcus Weber. Zuse Institute Berlin Mathematik des Hybriden Monte-Carlo Marcus Weber Zuse Institute Berlin Statistische Thermodynamik Ziel: Am Computer ein Ensemble samplen. Messung im Gleichgewicht (zeitunabhängige Verteilung π der Systemzustände

Mehr

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3

Lineare Funktionen. 1 Proportionale Funktionen 3 1.1 Definition... 3 1.2 Eigenschaften... 3. 2 Steigungsdreieck 3 Lineare Funktionen Inhaltsverzeichnis 1 Proportionale Funktionen 3 1.1 Definition............................... 3 1.2 Eigenschaften............................. 3 2 Steigungsdreieck 3 3 Lineare Funktionen

Mehr

8.2 Thermodynamische Gleichgewichte, insbesondere Gleichgewichte in Mehrkomponentensystemen Mechanisches und thermisches Gleichgewicht

8.2 Thermodynamische Gleichgewichte, insbesondere Gleichgewichte in Mehrkomponentensystemen Mechanisches und thermisches Gleichgewicht 8.2 Thermodynamische Gleichgewichte, insbesondere Gleichgewichte in Mehrkomponentensystemen Mechanisches und thermisches Gleichgewicht 8.2-1 Stoffliches Gleichgewicht Beispiel Stickstoff Sauerstoff: Desweiteren

Mehr

Chemie Zusammenfassung KA 2

Chemie Zusammenfassung KA 2 Chemie Zusammenfassung KA 2 Wärmemenge Q bei einer Reaktion Chemische Reaktionen haben eine Gemeinsamkeit: Bei der Reaktion wird entweder Energie/Wärme frei (exotherm). Oder es wird Wärme/Energie aufgenommen

Mehr

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b

Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. z(t) = at + b Aufgabe 1: Im Jahr t = 0 hat eine Stadt 10.000 Einwohner. Nach 15 Jahren hat sich die Einwohnerzahl verdoppelt. (a) Nehmen Sie lineares Wachstum gemäß z(t) = at + b an, wobei z die Einwohnerzahl ist und

Mehr

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen? Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen können zwei Ebenen (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen? Wie heiÿt

Mehr

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt:

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt: Aufgabe 1 1.1. Bestimmung von D max : 1. Bedingung: x >0 ; da ln(x) nur für x > 0 definiert ist. 2. Bedingung: Somit ist die Funktion f a nur für x > 0 definiert und sie besitzt eine Definitionslücke an

Mehr

4. Versicherungsangebot

4. Versicherungsangebot 4. Versicherungsangebot Georg Nöldeke Wirtschaftswissenschaftliche Fakultät, Universität Basel Versicherungsökonomie (FS 11) Versicherungsangebot 1 / 13 1. Einleitung 1.1 Hintergrund In einem grossen Teil

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Eines der am häufigsten auftretenden Standardprobleme der angewandten Mathematik ist das Lösen linearer Gleichungssysteme, etwa zur Netzwerkberechnung in der Elektrotechnik oder

Mehr

Modellbildungssysteme: Pädagogische und didaktische Ziele

Modellbildungssysteme: Pädagogische und didaktische Ziele Modellbildungssysteme: Pädagogische und didaktische Ziele Was hat Modellbildung mit der Schule zu tun? Der Bildungsplan 1994 formuliert: "Die schnelle Zunahme des Wissens, die hohe Differenzierung und

Mehr

Plotten von Linien ( nach Jack Bresenham, 1962 )

Plotten von Linien ( nach Jack Bresenham, 1962 ) Plotten von Linien ( nach Jack Bresenham, 1962 ) Ac Eine auf dem Bildschirm darzustellende Linie sieht treppenförmig aus, weil der Computer Linien aus einzelnen (meist quadratischen) Bildpunkten, Pixels

Mehr

EM-Wellen. david vajda 3. Februar 2016. Zu den Physikalischen Größen innerhalb der Elektrodynamik gehören:

EM-Wellen. david vajda 3. Februar 2016. Zu den Physikalischen Größen innerhalb der Elektrodynamik gehören: david vajda 3. Februar 2016 Zu den Physikalischen Größen innerhalb der Elektrodynamik gehören: Elektrische Stromstärke I Elektrische Spannung U Elektrischer Widerstand R Ladung Q Probeladung q Zeit t Arbeit

Mehr

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW

Universität Bonn, Institut für Angewandte Mathematik. WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW Universität Bonn, Institut für Angewandte Mathematik Dr. Antje Kiesel WS 2012/2013 Prüfung Angewandte Mathematik und Statistik - Agrarwiss. /ELW 08.03.2013 Matrikelnummer Platz Name Vorname 1 2 3 4 5 6

Mehr

Lineare Differentialgleichungen erster Ordnung erkennen

Lineare Differentialgleichungen erster Ordnung erkennen Lineare Differentialgleichungen erster Ordnung In diesem Kapitel... Erkennen, wie Differentialgleichungen erster Ordnung aussehen en für Differentialgleichungen erster Ordnung und ohne -Terme finden Die

Mehr

Hamilton-Formalismus

Hamilton-Formalismus KAPITEL IV Hamilton-Formalismus Einleitung! IV.1 Hamilton sche Bewegungsgleichungen IV.1.1 Kanonisch konjugierter Impuls Sei ein mechanisches System mit s Freiheitsgraden. Im Rahmen des in Kap. II eingeführten

Mehr

8. Quadratische Reste. Reziprozitätsgesetz

8. Quadratische Reste. Reziprozitätsgesetz O Forster: Prizahlen 8 Quadratische Reste Rezirozitätsgesetz 81 Definition Sei eine natürliche Zahl 2 Eine ganze Zahl a heißt uadratischer Rest odulo (Abkürzung QR, falls die Kongruenz x 2 a od eine Lösung

Mehr

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand

Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand Entladen und Aufladen eines Kondensators über einen ohmschen Widerstand Vorüberlegung In einem seriellen Stromkreis addieren sich die Teilspannungen zur Gesamtspannung Bei einer Gesamtspannung U ges, der

Mehr

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung

Definition 3.1: Ein Differentialgleichungssystem 1. Ordnung Kapitel 3 Dynamische Systeme Definition 31: Ein Differentialgleichungssystem 1 Ordnung = f(t, y) ; y R N ; f : R R N R N heißt namisches System auf dem Phasenraum R N Der Parameter t wird die Zeit genannt

Mehr

2.8 Grenzflächeneffekte

2.8 Grenzflächeneffekte - 86-2.8 Grenzflächeneffekte 2.8.1 Oberflächenspannung An Grenzflächen treten besondere Effekte auf, welche im Volumen nicht beobachtbar sind. Die molekulare Grundlage dafür sind Kohäsionskräfte, d.h.

Mehr

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen Austausch- bzw. Übergangsrozesse und Gleichgewichtsverteilungen Wir betrachten ein System mit verschiedenen Zuständen, zwischen denen ein Austausch stattfinden kann. Etwa soziale Schichten in einer Gesellschaft:

Mehr

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Zählen und Zahlbereiche Übungsblatt 1 1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage: Für alle m, n N gilt m + n = n + m. in den Satz umschreiben:

Mehr

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben

Mehr

Aufgabenset 1 (abzugeben 16.03.2012 an LK@wacc.de)

Aufgabenset 1 (abzugeben 16.03.2012 an LK@wacc.de) Aufgabenset 1 (abzugeben 16.03.2012 an LK@wacc.de) Aufgabe 1 Betrachten Sie die Cashflows der Abbildung 1 (Auf- und Abwärtsbewegungen finden mit gleicher Wahrscheinlichkeit statt). 1 Nehmen Sie an, dass

Mehr

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen

Beispiel 48. 4.3.2 Zusammengesetzte Zufallsvariablen 4.3.2 Zusammengesetzte Zufallsvariablen Beispiel 48 Ein Würfel werde zweimal geworfen. X bzw. Y bezeichne die Augenzahl im ersten bzw. zweiten Wurf. Sei Z := X + Y die Summe der gewürfelten Augenzahlen.

Mehr

1 C H R I S T O P H D R Ö S S E R D E R M A T H E M A T I K V E R F Ü H R E R

1 C H R I S T O P H D R Ö S S E R D E R M A T H E M A T I K V E R F Ü H R E R C H R I S T O P H D R Ö S S E R D E R M A T H E M A T I K V E R F Ü H R E R L Ö S U N G E N Seite 7 n Wenn vier Menschen auf einem Quadratmeter stehen, dann hat jeder eine Fläche von 50 mal 50 Zentimeter

Mehr

Betragsgleichungen und die Methode der Fallunterscheidungen

Betragsgleichungen und die Methode der Fallunterscheidungen mathe online Skripten http://www.mathe-online.at/skripten/ Betragsgleichungen und die Methode der Fallunterscheidungen Franz Embacher Fakultät für Mathematik der Universität Wien E-mail: franz.embacher@univie.ac.at

Mehr

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik

Höhere Mathematik 3. Apl. Prof. Dr. Norbert Knarr. Wintersemester 2015/16. FB Mathematik Höhere Mathematik 3 Apl. Prof. Dr. Norbert Knarr FB Mathematik Wintersemester 2015/16 4. Homogene lineare Dierentialgleichungen 4.1. Grundbegrie 4.1.1. Denition. Es sei J R ein Intervall und a 0 ; : :

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

Repetitionsaufgaben Wurzelgleichungen

Repetitionsaufgaben Wurzelgleichungen Repetitionsaufgaben Wurzelgleichungen Inhaltsverzeichnis A) Vorbemerkungen B) Lernziele C) Theorie mit Aufgaben D) Aufgaben mit Musterlösungen 4 A) Vorbemerkungen Bitte beachten Sie: Bei Wurzelgleichungen

Mehr

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: 978-3-446-42033-5. Weitere Informationen oder Bestellungen unter

Leseprobe. Wilhelm Kleppmann. Versuchsplanung. Produkte und Prozesse optimieren ISBN: 978-3-446-42033-5. Weitere Informationen oder Bestellungen unter Leseprobe Wilhelm Kleppmann Versuchsplanung Produkte und Prozesse optimieren ISBN: -3-44-4033-5 Weitere Informationen oder Bestellungen unter http://www.hanser.de/-3-44-4033-5 sowie im Buchhandel. Carl

Mehr

Beweisbar sichere Verschlüsselung

Beweisbar sichere Verschlüsselung Beweisbar sichere Verschlüsselung ITS-Wahlpflichtvorlesung Dr. Bodo Möller Ruhr-Universität Bochum Horst-Görtz-Institut für IT-Sicherheit Lehrstuhl für Kommunikationssicherheit bmoeller@crypto.rub.de 6

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme 1 Zwei Gleichungen mit zwei Unbekannten Es kommt häufig vor, dass man nicht mit einer Variablen alleine auskommt, um ein Problem zu lösen. Das folgende Beispiel soll dies verdeutlichen

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de

Mehr

!(0) + o 1("). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen.

!(0) + o 1(). Es ist damit möglich, dass mehrere Familien geschlossener Orbits gleichzeitig abzweigen. Bifurkationen an geschlossenen Orbits 5.4 167 der Schnittabbldung konstruiert. Die Periode T (") der zugehörigen periodischen Lösungen ergibt sich aus =! + o 1 (") beziehungsweise Es ist also t 0 = T (")

Mehr

WB Wechselstrombrücke

WB Wechselstrombrücke WB Wechselstrombrücke Blockpraktikum Frühjahr 2007 (Gruppe 2) 25. April 2007 Inhaltsverzeichnis 1 Einführung 2 2 Theoretische Grundlagen 2 2.1 Wechselstromwiderstand................. 2 2.2 Wechselstromwiderstand

Mehr

BONUS MALUS SYSTEME UND MARKOV KETTEN

BONUS MALUS SYSTEME UND MARKOV KETTEN Fakultät Mathematik und Naturwissenschaften, Fachrichtung Mathematik, Institut für Mathematische Stochastik BONUS MALUS SYSTEME UND MARKOV KETTEN Klaus D. Schmidt Ringvorlesung TU Dresden Fakultät MN,

Mehr

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert:

a n + 2 1 auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: Beispiel: Wir untersuchen die rekursiv definierte Folge a 0 + auf Konvergenz. Berechnen der ersten paar Folgenglieder liefert: ( ) (,, 7, 5,...) Wir können also vermuten, dass die Folge monoton fallend

Mehr

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG

RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG Die Poisson-Verteilung Jianmin Lu RUPRECHTS-KARLS-UNIVERSITÄT HEIDELBERG Ausarbeitung zum Vortrag im Seminar Stochastik (Wintersemester 2008/09, Leitung PD Dr. Gudrun Thäter) Zusammenfassung: In der Wahrscheinlichkeitstheorie

Mehr

Name:... Matrikel-Nr.:... 3 Aufgabe Handyklingeln in der Vorlesung (9 Punkte) Angenommen, ein Student führt ein Handy mit sich, das mit einer Wahrscheinlichkeit von p während einer Vorlesung zumindest

Mehr

Das Mathematik-Abitur im Saarland

Das Mathematik-Abitur im Saarland Informationen zum Abitur Das Mathematik-Abitur im Saarland Sie können Mathematik im Abitur entweder als grundlegenden Kurs (G-Kurs) oder als erhöhten Kurs (E-Kurs) wählen. Die Bearbeitungszeit für die

Mehr

Die Näherung durch die Sekante durch die Punkte A und C ist schlechter, da der Punkt C weiter von A entfernt liegt.

Die Näherung durch die Sekante durch die Punkte A und C ist schlechter, da der Punkt C weiter von A entfernt liegt. LÖSUNGEN TEIL 1 Arbeitszeit: 50 min Gegeben ist die Funktion f mit der Gleichung. Begründen Sie, warum die Steigung der Sekante durch die Punkte A(0 2) und C(3 11) eine weniger gute Näherung für die Tangentensteigung

Mehr

Statistik I für Betriebswirte Vorlesung 11

Statistik I für Betriebswirte Vorlesung 11 Statistik I für Betriebswirte Vorlesung 11 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 22. Juni 2012 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Mean Time Between Failures (MTBF)

Mean Time Between Failures (MTBF) Mean Time Between Failures (MTBF) Hintergrundinformation zur MTBF Was steht hier? Die Mean Time Between Failure (MTBF) ist ein statistischer Mittelwert für den störungsfreien Betrieb eines elektronischen

Mehr

Charakteristikenmethode im Beispiel

Charakteristikenmethode im Beispiel Charakteristikenmethode im Wir betrachten die PDE in drei Variablen xu x + yu y + (x + y )u z = 0. Das charakteristische System lautet dann ẋ = x ẏ = y ż = x + y und besitzt die allgemeine Lösung x(t)

Mehr

ONLINE-AKADEMIE. "Diplomierter NLP Anwender für Schule und Unterricht" Ziele

ONLINE-AKADEMIE. Diplomierter NLP Anwender für Schule und Unterricht Ziele ONLINE-AKADEMIE Ziele Wenn man von Menschen hört, die etwas Großartiges in ihrem Leben geleistet haben, erfahren wir oft, dass diese ihr Ziel über Jahre verfolgt haben oder diesen Wunsch schon bereits

Mehr

Ü b u n g s b l a t t 11

Ü b u n g s b l a t t 11 Mathe für Physiker I Wintersemester 0/04 Walter Oevel 8. 1. 004 Ü b u n g s b l a t t 11 Abgabe von Aufgaben am 15.1.004 in der Übung. Aufgabe 91*: (Differentialgleichungen, Separation. 10 Bonuspunkte

Mehr

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678

q = 1 p = 0.8 0.2 k 0.8 10 k k = 0, 1,..., 10 1 1 0.8 2 + 10 0.2 0.8 + 10 9 1 2 0.22 1 = 0.8 8 [0.64 + 1.6 + 1.8] = 0.678 Lösungsvorschläge zu Blatt 8 X binomialverteilt mit p = 0. und n = 10: a PX = = 10 q = 1 p = 0.8 0. 0.8 10 = 0, 1,..., 10 PX = PX = 0 + PX = 1 + PX = 10 10 = 0. 0 0.8 10 + 0. 1 0.8 9 + 0 1 10 = 0.8 8 [

Mehr

1 topologisches Sortieren

1 topologisches Sortieren Wolfgang Hönig / Andreas Ecke WS 09/0 topologisches Sortieren. Überblick. Solange noch Knoten vorhanden: a) Suche Knoten v, zu dem keine Kante führt (Falls nicht vorhanden keine topologische Sortierung

Mehr

Minimale Darstellungen, Kommutator- und Fixräume, projektive Geometrie

Minimale Darstellungen, Kommutator- und Fixräume, projektive Geometrie Notation Die in dieser Arbeit verwendete Notation ist im Wesentlichen Standard, so wie sie beispielsweise in [As] zu nden ist. Einige Abweichungen hiervon, Klarstellungen und zusätzliche Notationen (sofern

Mehr

14 Schmiegeparabel und Freunde, Taylor-Reihe

14 Schmiegeparabel und Freunde, Taylor-Reihe 14 Schmiegeparabel und Freunde, Taylor-Reihe Jörn Loviscach Versionsstand: 20. März 2012, 16:01 Die nummerierten Felder sind absichtlich leer, zum Ausfüllen in der Vorlesung. Videos dazu: http://www.j3l7h.de/videos.html

Mehr

Vorbemerkung. [disclaimer]

Vorbemerkung. [disclaimer] Vorbemerkung Dies ist ein abgegebener Übungszettel aus dem Modul physik2. Dieser Übungszettel wurde nicht korrigiert. Es handelt sich lediglich um meine Abgabe und keine Musterlösung. Alle Übungszettel

Mehr

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt

Rekursionen. Georg Anegg 25. November 2009. Methoden und Techniken an Beispielen erklärt Methoden und Techniken an Beispielen erklärt Georg Anegg 5. November 009 Beispiel. Die Folge {a n } sei wie folgt definiert (a, d, q R, q ): a 0 a, a n+ a n q + d (n 0) Man bestimme eine explizite Darstellung

Mehr

Arbeitspunkt einer Diode

Arbeitspunkt einer Diode Arbeitspunkt einer Diode Liegt eine Diode mit einem Widerstand R in Reihe an einer Spannung U 0, so müssen sich die beiden diese Spannung teilen. Vom Widerstand wissen wir, dass er bei einer Spannung von

Mehr

Physik 4, Übung 11, Prof. Förster

Physik 4, Übung 11, Prof. Förster Physik 4, Übung 11, Prof. Förster Christoph Hansen Emailkontakt ieser Text ist unter dieser Creative Commons Lizenz veröffentlicht. Ich erhebe keinen Anspruch auf Vollständigkeit oder Richtigkeit. Falls

Mehr

Skizze zur Veranschaulichung der Legendretransformation

Skizze zur Veranschaulichung der Legendretransformation 9 Die thermodynamischen Funktionen G und H Ehe das Schema des vorherigen Abschnittes zur Konstruktion weiterer thermodynamischer Potentiale zu Ende gebracht wird, kurz einige Erläuterungen zur Legendretransformation.

Mehr

Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist

Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist Frage Die Pareto Verteilung wird benutzt, um Einkommensverteilungen zu modellieren. Die Verteilungsfunktion ist k a F (x) =1 k>0,x k x Finden Sie den Erwartungswert und den Median der Dichte für a>1. (Bei

Mehr

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83

9.2. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 9.. DER SATZ ÜBER IMPLIZITE FUNKTIONEN 83 Die Grundfrage bei der Anwendung des Satzes über implizite Funktionen betrifft immer die folgende Situation: Wir haben eine Funktion f : V W und eine Stelle x

Mehr

Korrelation (II) Korrelation und Kausalität

Korrelation (II) Korrelation und Kausalität Korrelation (II) Korrelation und Kausalität Situation: Seien X, Y zwei metrisch skalierte Merkmale mit Ausprägungen (x 1, x 2,..., x n ) bzw. (y 1, y 2,..., y n ). D.h. für jede i = 1, 2,..., n bezeichnen

Mehr

Ausarbeitung des Seminarvortrags zum Thema

Ausarbeitung des Seminarvortrags zum Thema Ausarbeitung des Seminarvortrags zum Thema Anlagepreisbewegung zum Seminar Finanzmathematische Modelle und Simulationen bei Raphael Kruse und Prof. Dr. Wolf-Jürgen Beyn von Imke Meyer im W9/10 Anlagepreisbewegung

Mehr

AUTOMATISIERTE HANDELSSYSTEME

AUTOMATISIERTE HANDELSSYSTEME UweGresser Stefan Listing AUTOMATISIERTE HANDELSSYSTEME Erfolgreich investieren mit Gresser K9 FinanzBuch Verlag 1 Einsatz des automatisierten Handelssystems Gresser K9 im Portfoliomanagement Portfoliotheorie

Mehr

Kevin Caldwell. 18.April 2012

Kevin Caldwell. 18.April 2012 im Rahmen des Proseminars Numerische Lineare Algebra von Prof.Dr.Sven Beuchler 18.April 2012 Gliederung 1 2 3 Mathematische Beschreibung von naturwissenschaftlich-technischen Problemstellungen führt häufig

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

Abiturprüfung Mathematik 2008 (Baden-Württemberg) Berufliche Gymnasien ohne TG Analysis, Aufgabe 1

Abiturprüfung Mathematik 2008 (Baden-Württemberg) Berufliche Gymnasien ohne TG Analysis, Aufgabe 1 Abiturprüfung Mathematik (Baden-Württemberg) Berufliche Gymnasien ohne TG Analysis, Aufgabe Für jedes t f t () + t R ist die Funktion f t gegeben durch = mit R. Das Schaubild von f t heißt K t.. (6 Punkte)

Mehr

Musterlösungen zur Linearen Algebra II Blatt 5

Musterlösungen zur Linearen Algebra II Blatt 5 Musterlösungen zur Linearen Algebra II Blatt 5 Aufgabe. Man betrachte die Matrix A := über dem Körper R und über dem Körper F und bestimme jeweils die Jordan- Normalform. Beweis. Das charakteristische

Mehr

A2.3: Sinusförmige Kennlinie

A2.3: Sinusförmige Kennlinie A2.3: Sinusförmige Kennlinie Wie betrachten ein System mit Eingang x(t) und Ausgang y(t). Zur einfacheren Darstellung werden die Signale als dimensionslos betrachtet. Der Zusammenhang zwischen dem Eingangssignal

Mehr

Info zum Zusammenhang von Auflösung und Genauigkeit

Info zum Zusammenhang von Auflösung und Genauigkeit Da es oft Nachfragen und Verständnisprobleme mit den oben genannten Begriffen gibt, möchten wir hier versuchen etwas Licht ins Dunkel zu bringen. Nehmen wir mal an, Sie haben ein Stück Wasserrohr mit der

Mehr

6 Allgemeine Theorie des elektromagnetischen Feldes im Vakuum

6 Allgemeine Theorie des elektromagnetischen Feldes im Vakuum 6 ALLGEMEINE THEORIE DES ELEKTROMAGNETISCHEN FELDES IM VAKUUM 25 Vorlesung 060503 6 Allgemeine Theorie des elektromagnetischen Feldes im Vakuum 6.1 Grundaufgabe der Elektrodynamik Gegeben: Ladungsdichte

Mehr

Nerreter, Grundlagen der Elektrotechnik Carl Hanser Verlag München. 8 Schaltvorgänge

Nerreter, Grundlagen der Elektrotechnik Carl Hanser Verlag München. 8 Schaltvorgänge Carl Hanser Verlag München 8 Schaltvorgänge Aufgabe 8.6 Wie lauten für R = 1 kω bei der Aufgabe 8.1 die Differenzialgleichungen und ihre Lösungen für die Spannungen u 1 und u 2 sowie für den Strom i? Aufgabe

Mehr

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN CHRISTIAN HARTFELDT. Zweiter Mittelwertsatz Der Mittelwertsatz Satz VI.3.4) lässt sich verallgemeinern zu Satz.. Seien f, g : [a, b] R auf [a,

Mehr