Charakter-orientierte Methoden. 1. Maximum Parsimony (MP) 2. Maximum Likelihood (ML)

Ähnliche Dokumente
Einführung in die Bioinformatik

Fernstudium "Molekulare Phylogenie" Bernhard Lieb Michael Schaffeld. Institut für Zoologie Universität Mainz

Welche Alignmentmethoden haben Sie bisher kennengelernt?

Molekulare Phylogenie

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Molekulare Phylogenie II

Bayesian updating in natural hazard risk assessment

Statistics, Data Analysis, and Simulation SS 2015

Bayes sche Phylogenierekonstruktion mit molekularen und morphologischen Merkmalen

Beurteilende Statistik

Methoden der Statistik Markov Chain Monte Carlo Methoden

Grundbegriffe der Wahrscheinlichkeitsrechnung

Wichtige Definitionen und Aussagen

Der Metropolis-Hastings Algorithmus

Statistics, Data Analysis, and Simulation SS 2015

Bayesian Networks. Syntax Semantics Parametrized Distributions Inference in Bayesian Networks. Exact Inference. Approximate Inference

Population und Stichprobe: Wahrscheinlichkeitstheorie

Allgemeine Aufgabenstellung. Ziele

BZQ II: Stochastikpraktikum

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Bioinformatik für Lebenswissenschaftler

Übungen mit dem Applet Zentraler Grenzwertsatz

Einführung in die Bayes-Statistik. Helga Wagner. Ludwig-Maximilians-Universität München WS 2010/11. Helga Wagner Bayes Statistik WS 2010/11 1

Fernstudium "Molekulare Evolution" Bernhard Lieb Michael Schaffeld. Institut für Zoologie Universität Mainz

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Einführung in die Angewandte Bioinformatik: Phylogenetik und Taxonomie

Übungsaufgaben Lösungen

Einführung in die Wahrscheinlichkeitsrechnung

Signalverarbeitung 2. Volker Stahl - 1 -

Willkommen zur Vorlesung Statistik (Master)

2.1 Importance sampling: Metropolis-Algorithmus

Vorlesung: Statistik II für Wirtschaftswissenschaft

P(B A j )P(A j ) n. P(A j ) =

Wahrscheinlichkeitsrechnung und Statistik

Primer: Inferenzstatistik 1.0

Algorithmische Bioinformatik II WS2004/05 Ralf Zimmer Part III Probabilistic Modeling IV Bayesian Modeling: Algorithms, EM and MC Methods HMMs

Statistische Methoden der Datenanalyse Wintersemester 2011/2012 Albert-Ludwigs-Universität Freiburg

Mathematik für Biologen

Wahrscheinlichkeitstheorie 2

Simulationsmethoden in der Bayes-Statistik

Evolutionary Trees: Distance Based

4. Grundzüge der Wahrscheinlichkeitsrechnung

Multiple Alignments. Vorlesung Einführung in die Angewandte Bioinformatik Prof. Dr. Sven Rahmann. Webseite zur Vorlesung

Allgemeine diskrete Wahrscheinlichkeitsräume I

Allgemeine diskrete Wahrscheinlichkeitsräume II. Beispiel II. Beispiel I. Definition 6.3 (Diskreter Wahrscheinlichkeitsraum)

Bayessche Statistik-Denken in Wahrscheinlichkeit

Wahrscheinlichkeitsrechnung und Statistik

Satz von der totalen Wahrscheinlichkeit

Mathe III. Garance PARIS. Mathematische Grundlagen III. Informationstheorie. 20. Juni /1

6: Diskrete Wahrscheinlichkeit

Einführung in die Wahrscheinlichkeitsrechnung

73 Hypothesentests Motivation Parametertest am Beispiel eines Münzexperiments

Rechnernutzung in der Physik Teil 3 Statistische Methoden der Datenanalyse

Was bedeutet p<0.05?

Grundlagen der Bioinformatik Assignment 3: Hierarchical Clustering SS Yvonne Lichtblau/Johannes Starlinger

Wirtschaftsstatistik I [E1]

8. Konfidenzintervalle und Hypothesentests

Bayes sches Lernen: Übersicht

Aufgabe 1. Übung Wahrscheinlichkeitsrechnung Markus Kessler Seite 1 von 8. Die Ereignisse A, B und C erfüllen die Bedingungen

Das Bayes'sche Prinzip

Zusammenfassung Mathe II. Themenschwerpunkt 2: Stochastik (ean) 1. Ein- und mehrstufige Zufallsexperimente; Ergebnismengen

Statistik Einführung // Wahrscheinlichkeitstheorie 3 p.2/58

Wahrscheinlichkeitsrechnung und schließende Statistik

Phylogenetik. Vorlesung Einführung in die Angewandte Bioinformatik Prof. Dr. Sven Rahmann. Webseite zur Vorlesung

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

8.1 Einleitung. Grundlagen der Künstlichen Intelligenz. 8.1 Einleitung. 8.2 Lokale Suchverfahren. 8.3 Zusammenfassung. Suchprobleme: Überblick

Wahrscheinlichkeitstheorie

Zentrum für Bioinformatik. Übung 4: Revision. Beispielfragen zur Klausur im Modul Angewandte Bioinformatik (erste Semesterhälfte)

Übungen zur Vorlesung Algorithmische Bioinformatik

Statistik und Wahrscheinlichkeitsrechnung

Stochastik - Kapitel 2

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze

Die Maximum-Likelihood-Methode

Bayesianische Netzwerke - Lernen und Inferenz

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank

Konzept diskreter Zufallsvariablen

Mehrdimensionale Zufallsvariablen

Interaktives Skriptum: Elementare Wahrscheinlichkeitsrechnung

SozialwissenschaftlerInnen II

STOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück

Wahrscheinlichkeitsverteilungen

Effiziente Methoden Für Die Berechnung Von Aminosäure Ersetzungsraten

Einführung. Wahrscheinlichkeit. 1 Wahrscheinlichkeit: Definition und Interpretation. 2 Elementare Wahrscheinlichkeitsrechnung, bedingte

Splitting. Impurity. c 1. c 2. c 3. c 4

1. Grundbegri e der Stochastik

3. Grundbegriffe der Wahrscheinlichkeitstheorie

Stochastic Processes SS 2010 Prof. Anton Wakolbinger. Klausur am 16. Juli 2010

Bayesian Networks. Syntax Semantics Parametrized Distributions Inference in Bayesian Networks. Exact Inference. Approximate Inference

Übungsklausur zur Vorlesung Wahrscheinlichkeit und Regression Thema: Wahrscheinlichkeit. Übungsklausur Wahrscheinlichkeit und Regression

Ziegenproblem, Monty-Hall-Problem, Wahrscheinlichkeitsrechnung. Ziegenproblem, Monty-Hall-Problem, Drei-Türen-Problem

1. Einführung in die induktive Statistik

Kapitel 5 Stochastische Unabhängigkeit

Vorlesung 8b. Zweistufige Zufallsexperimente. Teil 1

3.3 Bedingte Wahrscheinlichkeit

Vorhersage von Protein-Funktionen. Patrick Pfeffer

MBI: Sequenzvergleich ohne Alignment

Aufgabe 1 Probabilistische Inferenz

Wahrscheinlichkeitsrechnung

Transkript:

Genomforschung und Sequenzanalyse Einführung in Methoden der Bioinformatik Molekulare Phylogenie III Bernhard Lieb & Tom Hankeln WS 2007/2008 1 Charakter-orientierte Methoden 1. Maximum Parsimony (MP) 2. Maximum Likelihood (ML) 2 1

Maximum Likelihood The explanation that makes the observed outcome the most likely L = P(D H) Wahrscheinlichkeit der Daten, gegeben eine Hypothese Die Hypothee ist eine Baumtopologie, dessen Astlängen und ein Evolutionsmodell unter dessen Präsenz die Daten evolvierten Zum ersten mal von Cavalli-Sforza and Edwards (1967) für gene frequency data benutzt, später (1981) von Felsenstein für DNA Sequenzen 3 Probability and likelihood Die Wahrscheinlichkeit liegt immer zwischen NIE (0) und SICHER (1). Die bedingte Wahrscheinlichkeit ist die Wahrscheinlichkeit eines Ereignisses A, gegeben das Ereignis B: P(A B)....if probability allows us to predict unknown outcomes based on known parameters P(H D), then likelihood allows us to determine unknown parameters based on known outcomes P(D H). 4 2

Probability and likelihood 0,5 0,5 0,5 0,5 0,5 0,25 0,25 0,5 L(p Z ZZ)=0,25 P(ZZ p Z =0,5)=0,25 5 Likelihood Hypothese Ereignisse sind unabhängig Alle Kopfwürfe besitzen gleiche unbekannte Kopfwahrscheinlichkeit p Daten: KKZKZKKZZZ L = P(Daten Hypothese ) => Likelihood L(D H) = pp(1-p)(1-p)p(1-p)pp(1-p)(1-p)(1-p) keine Verteilung, Plot der selben Daten (KKZKZKKZZZ) gegen verschiedene Werte von p (Hypothese) alles wird getestet (gerechnet) => Mit welcher Kopfwahrscheinlichkeit p bekomme ich am ehesten diese Daten? Likelihood 0,0 0,2 0,4 0,6 0,8 1,0 [p] 6 3

Maximum Likelihood L = P(data hypothesis) Wahrscheinlichkeit der beobachteten Daten (Sequenzen!) im Lichte der Hypothese (Stammbaum). d.h, es wird der Stammbaum errechnet, der die beobachteten Daten (also die alignierten Sequenzen) am besten (unter der Annahme des Modells) erklärt. Evolutionsmodell 7 Maximum Likelihood benötigt ein explizites Evolutionsmodell Parameter werden aus Daten + Modell errechnet. Explizite Verbindung Daten + Modell + Stammbaum. aber: schlechtes Modell => schlechter Stammbaum Alternative Stammbäume lassen sich testen => keine Methode extrahiert mehr Information aus den Daten; aber: sehr rechenintensiv 8 4

Maximum Likelihood Evolutionsmodelle Für DNA-Sequenzen: => JC, K2P, F81, HKY, REV Für Protein-Sequenzen: => PAM, BLOSUM, JTT, WAG... 9 Maximum Likelihood Seq1 CGAGAC Seq2 AGCGAC Seq3 AGATTA Seq4 GGATAG Frage: Wie hoch ist die Wahrscheinlichkeit, dass der Stammbaum A für die Daten (Sequenzen) unter dem gegebenen Modell verantwortlich ist? 1 2 3 A 4 10 5

Maximum Likelihood 1 3 OTU 1 CGAGA C OTU 2 AGCGA C OTU 3 AGATT A OTU 4 GGATA A j 2 4 C A?? ACGT ACGT C A 4 x 4 Möglichkeiten Die Wahrscheinlichkeit für eine best. Position j ist die Summe der Einzelwahrscheinlichkeiten aller möglichen ancestralen Nukleotide unter dem gegebenen Modell. 11 ML Beispiel (vereinfacht): Daten: Modell (nicht realistisch): OTU 1 OTU 2 OTU 3 OTU 4 C C A A A T C G A 1 0,1 0,1 0,1 T 1 0,1 0,1 C 1 0,1 G 1 12 6

ML - Beispiel: 1 2 3 4 Stammbaum A: C A X,Y = A, T, G, oder C X Y C A ML: Summe der 4 x 4 Einzelwahrscheinlichkeiten 13 ML - Beispiel: 1 3 1. Topologie, immer gleich für unterschiedliche Knoten! Stammbaum A1: 2 4 Stammbaum A2: C A C A C A C T C A C A 1 x 1 x 0,1 x 1 x 1 = 0,1 1 x 1 x 0,1 x 0,1 x 0,1 = 0,001 usw... Summe aus 16 möglichen Stammbäumen! 14 7

ML - Beispiel: 1 3 1 2 2. Topologie (andere Topologie)! Aber immer gleich für unterschiedliche Knoten! Stammbaum B1: C C 2 4 3 4 Stammbaum B2: C C C A C T A A A A 0,1 x 0,1 x 1 x 0,1 x 1 = 0,001 1 x 0,1 x 0,1 x 0,1 x 0,1 = 0,0001 usw... usw..usw Summe aus 16 möglichen Stammbäumen! 15 ML - Beispiel: Stammbaum A: Stammbaum B: C A C C C A A A Gesamt"wahrscheinlichkeit": = 0,12427 => logl = -0,90563 Gesamt"wahrscheinlichkeit": = 0,02302 => logl = -1,6379 16 8

Maximum Likelihood 1 CGAGAC 2 AGCGAC 3 AGATTA 4 GGATAG i....z Wahrscheinlichkeit des Stammbaums A ist das Produkt aller Wahrscheinlichkeiten für jede Position: ML- Stammbaum = Stammbaum mit größter "Likelihood". 1 2 3 A 4 17 Maximum Likelihood Sequence 1 Sequence 2 Sequence 3 Sequence 4 CGAGAA AGCGAA AGATTT GGATAT X,Y = A, T, G, oder C A T C G A 1,0 0,1 0,2 0,4 T 1,0 0,3 0,6 C 1,0 0,1 G 1,0 Berechnen Likelihood einer aller Möglichkeiten vorgegebenen Topologie für eine ist das Produkt aller 1x1x1x0,1x0,1=0,01 Topologie und eine Wahrscheinlichkeiten Position jeder Position 18 9

Maximum Likelihood Likelihood für alle anderen Topologien und Vergleich der Likelihoods L = P(data hypothesis) Sequence 1 Sequence 2 Sequence 3 Sequence 4 CGAGAA AGCGAA AGATTT GGATAT A T C G A 1,0 0,1 0,2 0,4 T 1,0 0,3 0,6 C 1,0 0,1 G 1,0 Für n=50 Sequenzen gibt es 2,84x10 76 mögliche Bäume <-> Atome im Universum: ~10 80 19 Maximum Likelihood - Vorteile Mathematisch gut definiert Funktioniert gut in Simulationsexperimenten Erlaubt explizite Verbindung von Evolutionsmodell und Daten (Sequenzen) "Realistische" Annahmen zur Evolution Verschiedene Modelle und Stammbäume lassen sich testen 20 10

Maximum Likelihood - Nachteile Maximum likelihood ist nur konsistent (ergibt einen "wahren" Stammbaum) wenn die Evolution nach den gegebenen Modell ablief: Wie gut stimmt mein Modell mit den Daten überein? 21 Maximum Likelihood Lokale Maxima Bauminsel 22 11

Maximum Likelihood Bei vielen Taxa sind computertechnisch nicht alle möglichen Stammbäume berechenbar für n=50 Sequenzen gibt es 2,84x10 76 mögliche Bäume Lösung: "Intelligente Algorithmen" - Quartet puzzling - Bayessche Methode + MCMCMC 23 Was können oder kennen wir!? Alignment Max.Parsimony Evolutionsmodelle Distanz matrix Neigbor Joining Max. Likelihood UPGMA Stammbaum 24 12

Die Machbarkeit!? Viele Methoden sind Computer-technisch nicht zu lösen, insbesondere bei vielen Taxa d.h., nicht alle (möglichen) Stammbäume berechenbar L = P(data hypothesis) =5,5 25 Die Machbarkeit!? Intelligente Algorithmen - Quartet puzzling - Bayes sche Methode + MCMCMC 26 13

Quartet puzzling Wie löst man ein großes Problem? => Man zerlegt es in viele kleine Teilprobleme. Wenn es aber zu viele kleine Teilprobleme sind? => Man rechnet von der Lösung einiger Teilprobleme auf die Lösung des Gesamtproblems hoch. Quartet puzzling: Errechnung eines Gesamtstammbaums aus vielen Einzelstammbäumen mit jeweils vier Taxa => Quartetten! Programm: Tree-Puzzle (Strimmer & van Haeseler, 1996) http://www.tree-puzzle.de/ 27 The shell 28 14

Treepuzzle Drei Schritte 1.) 2.) 3.) Max Likelihood Quartet-puzzle Majority rule consensus 29 Quartet puzzling 1.) OTU 1 4.) OTU 1 OTU 3 OTU 2 OTU 4 2.) OTU 1 OTU 2 OTU 1 OTU 2 3.) OTU 1 OTU 2 OTU 3 OTU 1 OTU 4 OTU 2 OTU 3 OTU 4 OTU 3 => Quartett ist die minimale Einheit zur Lösung eines phylogenetischen Problems. 30 15

Berechnung der Einzelwahrscheinlichkeiten Berechnung: wie bei ML Summe der Likelihoods (eine Position, alle Möglichkeiten) Produkt aller Likelihoods (alle Positionen) Wahrscheinlichkeit für einen Stammbaum lnl= n i= 1 ln L (i) 31 Berechnung der Einzelwahrscheinlichkeiten OTU 1 OTU 2 OTU 3 OTU 4 L1 Größte Likelihood vote and puzzle OTU 1 OTU 2 L2 OTU 3 OTU 4 OTU 1 OTU 2 L3 OTU 4 OTU 3 32 16

Puzzling step (für 5. Taxon) ABCDE, ABCDE, ABCDE, ABCDE ABCDE ML Quartette 33 Puzzling step für 5 Taxa 34 17

Puzzling step Hinzufügen der restlichen Sequenzen an den besten Vierer-Baum über Nachbarbeziehungen viele viele viele intermediäre Bäume Schon wieder nicht möglich => häufige Wiederholung der Puzzling steps mit verschiedenen Ausgangstopologien 35 Quartet puzzling Scorpion 95 Vogelspinne Tausendfüsser 66 Doppelfüsser Hummer... "Puzzling" = Basteln eines kompletten Stammbaums. 44 88 90 Flohkrebs Drosophila Heuschrecke = Wie häufig stehen die OTUs in Quartetten zusammen? Je höher dieser Wert ist, desto besser ist die entsprechende Topologie (alles, was rechts des Knotenpunkts steht) abgesichert (~ "Bootstrap"- Unterstützung). 36 18

Vorteile: Quartet puzzling Relativ schnelle Methode um ML-Stammbaum zu konstruieren. Phylogenetischer Informationsgehalt der Sequenzen lässt sich einfach bestimmen => "Likelihood mapping". Nachteile: Wenn Anzahl der OTUs groß, werden nicht alle möglichen Quartette berechnet, sondern aus einem Teil der Daten der komplette Stammbaum konstruiert. Quartette nicht immer aufgelöst, d.h. Topologie nicht immer eindeutig Unterstützungswerte wahrscheinlichkeitstheoretisch nicht eindeutig definiert. 37 Maximum Likelihood "Wahrscheinlichkeit" (Likelihood) der Sequenzdaten, gegeben die Topologie des Stammbaums und ein Evolutionsmodell. Sequenz 1 Sequenz 4 Sequenz 2 Sequenz 3 Sequenz 5 + Modell (PAM, BLOSUM...) Seq1 KIADKNFTYRHHNQLV Seq2 KVAEKNMTFRRFNDII Seq3 KIADKDFTYRHW-QLV Seq4 KVADKNFSYRHHNNVV Seq5 KLADKQFTFRHH-QLV Anders formuliert: Welcher Stammbaum (und welches Evolutionsmodell) erklärt am besten meine Sequenzdaten? L = P(data tree) 38 19

Wahrscheinlichkeit nach Bayes Reverend Thomas Bayes (1702-1761) (presbyterianischer Pfarrer) Wahrscheinlichkeitsrechnungen nach Bayes erst seit ein paar Jahren in der Statistik akzeptiert. Seit den 90er Jahren auch Anwendung in der molekularen Phylogenie. 39 Wahrscheinlichkeit nach Bayes Die Wahrscheinlichkeit ("posterior propability") beruht auf einem anfänglichen Evolutionsmodell und neuen Erkenntnissen nach einem Experiment. posterior propability P(H D) prior propability P(H) 40 20

Bayes Bayes sche Statistik beruht auf dem Satz von Bayes. A ist die Hypothese. B ist das beobachtete Ereignis. P(A) ist die A-Priori-Wahrscheinlichkeit von A. P(B A) ist die bedingte Wahrscheinlichkeit von B, unter der Bedingung dass die Hypothese A wahr ist (als Funktion von A nennt man sie die Likelihood-Funktion): P(B) ist die unbedingte Wahrscheinlichkeit von B. P(A B) ist die A-Posteriori-Wahrscheinlichkeit von A gegeben B. An Essay towards solving a Problem in the Doctrine of Chances. By the late Rev. Mr. Bayes, communicated by Mr. Price, in a letter to John Canton, M. A. and F. R. S. 41 Bayes 42 21

Wahrscheinlichkeit nach Bayes Posteriore Wahrscheinlichkeit für ein Ereignis A (tree) unter der Bedingung, dass B (alignment) auftritt. P( tree data) Die Wahrscheinlichkeit für ein Ereignis B (alignment) unter der Bedingung, dass A (tree) auftritt (Likelihood) A-Priori- Wahrscheinlichkeit für ein Ereignis A (tree) P ( data tree) P ( tree) = P ( data) A-Priori-Wahrscheinlichkeit für ein Ereignis B (alignment) Die Wahrscheinlichkeit eines Stammbaums, gegeben die Sequenzdaten, enspricht dem Produkt aus der Wahrscheinlichkeit der Daten gegeben den Stammbaum (likelihood) und der Wahrscheinlichkeit des Stammbaums (prior probability), geteilt durch die Wahrscheinlichkeit der Daten (Randbedingungen). 43 Randbedingungen P ( A B) P ( B A) = P ( B) P ( A) = ( B) P(B A) P(A) P = B P(B A 1 )P(A 1) + P(B A2)P(A2 )... P(B) sind die Randbedingungen der Daten. D.h., es werden ALLE möglichen Werte von B berechnet. Sie geben, ebenso wie P(A), das "Vorabwissen" an, welches man berücksichtigt. 44 22

Bayes 45 Beispiel: Ist mein Würfel gezinkt? 90 ungezinkte Würfel 10 gezinkte Würfel Wurf ungezinkt gezinkt P(A) Wie gross ist die Wahrscheinlichkeit, dass ich einen gezinkten Würfel ziehe (also )? => 1/10 46 23

Beispiel: Ist mein Würfel gezinkt? Nun ziehe ich einen Würfel und würfle damit zweimal. Das Ergebnis ist: Frage: Ist mein Würfel gezinkt? 47 Beispiel: Ist mein Würfel gezinkt? Bayes: P(gezinkt ) = P( -> likelihood -> prior P( gezinkt) 1/10 gezinkt) 1/10 + P( ungezinkt) 9/10 -> alle Möglichkeiten Wurf ungezinkt gezinkt P(gezinkt ) 0,2137 prior posterior 0,1 0,2137 48 24

Mehr Daten: Ist mein Würfel gezinkt? Nun ziehe ich einen Würfel und würfle damit 20x. Das Ergebnis ist: Wurf Häufigkeit Bayes: P (gezinkt D) = 0,979 P (ungezinkt D) = 0,021 vorher: P(gezinkt ) 0,2137 prior posterior 0,1 0,2137 49 Randbedingungen P ( A B) P ( B A) = P ( B) P ( A) = ( B) P(B A) P(A) P = B P(B A 1 )P(A 1) + P(B A2)P(A2 )... P(B) sind die Randbedingungen der Daten. D.h., es werden ALLE möglichen Werte von B berechnet. Sie geben, ebenso wie P(A), das "Vorabwissen" an, welches man berücksichtigt. 50 25

Wahrscheinlichkeit nach Bayes Bayes sucht die Bäume mit den höchsten posterior probabilities. P ( A B) = P ( B A) P ( A) P ( B) = ( B) P(B A) P(A) P = B P(B A 1 )P(A 1) + P(B A2)P(A2 )... Nenner: Summation über alle denkbaren Hypothesen (Bäume) => MCMCMC Metropolis-Coupled Markov Chain Monte Carlo 51 Wahrscheinlichkeit nach Bayes MC 3 - MCMCMC - Metropolis-Coupled Markov Chain Monte Carlo Zufällige Stichprobe aus der posterior probability Verteilung ziehen Stichprobe muss groß (genug) sein Prozentsatz mit dem Clade bei den Bäumen auftritt wird als Wahrscheinlichkeit interpretiert, dass Clade korrekt ist Metropolis-Coupled Markov Chain Monte Carlo 52 26

Andrey (Andrei) Andreyevich Markov Russischer Mathematiker (1856 1922) Ein stochastischer Prozess besitzt die sogenannte Markov Eigenschaft, wenn: Die bedingte Wahrscheinlichkeitsverteilung zukünftiger Zustände, bei gegebenen momentanten Status und allen vergangenen Ereignissen NUR von dem momentanen Status abhängt und NICHT von den vergangenen 53 Wahrscheinlichkeit nach Bayes MC 3 - MCMCMC - Metropolis-Coupled Markov Chain Monte Carlo Zufällige Stichprobe aus der posterior probability -Verteilung ziehen Stichprobe muss groß (genug) sein Prozentsatz mit dem eine Gruppierung ( Clade ) bei diesen zufälligen Bäumen auftritt wird als Wahrscheinlichkeit interpretiert, dass Clade korrekt ist Markov Chain Ziel ist es, Wahrscheinlichkeiten für das Eintreten zukünftiger Ereignisse anzugeben Im Falle einer Markow-Kette erster Ordnung wird hierfür sogar nur Kenntnis über den momentanen Zustand benötigt (Gedächtnislosigkeit). Auf lange Sicht pendelt sich Wahrscheinlichkeit auf einen Wert ein => Prozentsatz mit dem Clade in den Bäumen auftritt 54 27

Wahrscheinlichkeit nach Bayes MC 3 - MCMCMC - Metropolis-Coupled Markov Chain Monte Carlo Zufällige Stichprobe aus der posterior probability -Verteilung ziehen Stichprobe muss groß (genug) sein Prozentsatz mit dem eine Gruppierung ( Clade ) bei diesen zufälligen Bäumen auftritt wird als Wahrscheinlichkeit interpretiert, dass Clade korrekt ist Markov Chain Monte Carlo Zufallselement - die Bank gewinnt auf lange Sicht immer Die Masse machts - Wahrscheinlichkeit falscher Rückschlüsse sinkt mit zunehmender Generationszahl Kurz gesagt, was bedeutet MCMC? Viele Zufallsproben aus der posterioren Wahrsscheinlichkeitsverteilung (Bäume) 55 nehmen und Rückschlüsse ziehen Wahrscheinlichkeit nach Bayes MC 3 - MCMCMC - Metropolis-Coupled Markov Chain Monte Carlo Q Metropolis-Hastings-Green-Algorithmus Vorgegebener (Zufalls-)Baum T i mit Topologie, Astlängen und Evolutionsmodell posterior probabilities Q 1 Q < 1 Neuer Baum, neue Parameter Akzeptieren oder Verwerfen? = Neuen Baum akzeptieren! P ( B Ti) P ( Ti) P( D) P( B Tj) P ( Tj) P( D) X X P( B Ti) P( Ti) P ( B Tj) P( Tj) Generation einer Zufallszahl (0-1) Z< Q, neuen Baum akzeptieren, sonst alter Baum 56 = 28

Wahrscheinlichkeit nach Bayes MC 3 - MCMCMC - Metropolis-Coupled Markov Chain Monte Carlo Metropolis-Hastings-Green-Algorithmus Q posterior probabilities = P( B Ti) P( Ti) P( B Tj) P( Tj) likelihoods priors P( T T ) P( T T ) j i x shape parameter, Astlängen.. i j Änderungsvorschläge Lösung DAS PROBLEM 1 P ( B T ) = P ( B tree, length, substitution, α shape) 57 Wahrscheinlichkeit nach Bayes MC 3 - MCMCMC - Metropolis-Coupled Markov Chain Monte Carlo Metropolis-Hastings-Green-Algorithmus Q Q < 1 1 Neuen Baum akzeptieren! Generation einer Zufallszahl (0-1) Z< Q, neuen Baum akzeptieren, sonst alter Baum Q Q posterior probabilities posterior probabilities = = 0,5 0,1 0,1 0,5 = = 5 0,2 neuen Baum akzeptieren 0,1 behalten neue Zufallszahl 0,3 neuer Baum Im Gegensatz zur Maximum likelihood kann hier likelihood und 58 29

MCMC (Markov Chain Monte Carlo) Wahrscheinlichkeitsdichte Problem: Wir erwarten keine diskrete Wahrscheinlichkeit, sondern eine Wahrscheinlichkeitsdichte! Beispiel: Man werfe eine Münze 100x. Es ist unwahrscheinlich, dass genau jeweils 50x "Kopf" und 50x "Zahl" herauskommen. 90 z.b. Ergebnis von 100 x 100 Münzwürfen. Darstellung z.b. für Ergebnis "Zahl". 100x1000 59 MCMC (Markov Chain Monte Carlo) Problem: Wie ermittelt man die Verteilung der Wahrscheinlichkeiten mit einer endlichen Anzahl von Versuchen? Lösung: Ermittlung der Wahrscheinlichkeitsdichte mittels MCMC (Markov Chain Monte Carlo) Simulation => nur einige Wahrscheinlichkeiten werden wirklich ermittelt, die Verteilung der Wahrscheinlichkeiten wird hochgerechnet. 60 30

Maximum Likelihood Lokale Maxima 61 MCMC (Markov Chain Monte Carlo) 62 31

Start, sample and burnin MrBayes Man startet mit einen beliebigen Stammbaum durch "burnin" werden "frühe" Ergebnisse (Stammbäume) verworfen, und über alle anderen gesamplet. => Wie gut stimmen die jeweiligen Bäume überein? Entspricht ~ Bootstrapping (kommt noch). wird verworfen 63 How to get up and get over?? 64 32

Wahrscheinlichkeit nach Bayes MC 3 - MCMCMC - Metropolis-Coupled Markov Chain Monte Carlo Zufällige Stichprobe aus der posterior probability -Verteilung ziehen Stichprobe muss groß (genug) sein Prozentsatz mit dem eine Gruppierung ( Clade ) bei diesen zufälligen Bäumen auftritt wird als Wahrscheinlichkeit interpretiert, dass Clade korrekt ist Metropolis-Coupled => mehrere MCMC laufen parallel und kommunizieren 65 MCMCMC (Metropolis coupled Markov Chain Monte Carlo) Landschaft aus Sicht der "cold chain". Landschaft aus Sicht der "heated chains". 66 33

MCMCMC (Metropolis coupled Markov Chain Monte Carlo) MC 3 läßt mehrere "chains" suchen Die "cold chain" zählt, die anderen sind "heated chains" Landschaft wird für heated chain "geebnet" => Übergang zu einem anderen Optimum ist leichter möglich. 67 Wahrscheinlichkeit nach Bayes Vorteile: Vorabinformation wird berücksichtigt. Sehr schnelle Lösung komplexer phylogenetischer Probleme möglich! Diskrete Wahrscheinlichkeitswerte werden für jeden Ast gegeben. Nachteile: Vorabinformation wird berücksichtigt. Wahrscheinlichkeitstheoretisch umstritten. 68 34

Past and next Molekularphylogenetische Methoden: - Quartet puzzling - Bayesian approach Test von Stammbäumen - Bootstrapping - Likelihood tests 69 Statistische Auswertung.oder. Wie gut ist mein Stammbaum? häufigste Methode ist Bootstrapping 70 35

Bayes Faktor Bayes Faktor (nach Kass & Raftery (1995) entspricht LRT) Vergleich zweier Modelle M i und M j : P( D Mi) B ij = P ( D Mj) Kriterien nach Kass and Raftery (1995): B ij < 1, negative (support for M j ) 1 < B ij < 3, barely worth mentioning 3 < B ij < 12, positive 12 < B ij < 150, strong and B ij > 150, very strong. Vorteil: Nested und non-nested data kann verglichen werden 71 Bootstrapping Ziehen MIT Zurücklegen 72 36

Bootstrapping Orginalsequenzen Position Sequence 1 2 3 4 5 6 7 8 9 A A A A A G T G C A B A G C C G T G C G C A G A T A T C C A D A G A G A T C C G Pseudosample 1 Position Sequence 1 2 2 4 5 5 7 8 8 A A A A A G G G C C B A G G C G G C C C C A G G T A A C C C D A G G G A A C C C Pseudosample 2 Position Sequence 1 1 1 4 4 6 7 7 7 A A A A A A T G G G B A A A C C T G G G C A A A T T T C C C D A A A G G T C C C z.b. 100 Wiederholungen A B C D A C D B 100 Stammbäume 73 Bootstrapping 100 84 96 100 100 100 Majority-rule consensus tree Taxon 1 Taxon 2 Taxon 3 Taxon 8 Taxon 9 Taxon 4 Taxon 5 Taxon 6 Taxon 7 123456789 Freq -----------------.**... 100.00...**... 100.00...**.. 100.00...****.. 100.00...****** 96.00...** 84.00...****.* 13.00...*****. 5.00.*******. 3.00.**...*. 1.00.**...* 1.00 74 37

Bootstrapping STRICT CONSENSUS -> MAJORITY-RULE CONSENSUS TREE Taxon 8 Taxon 1 Taxon 9 Taxon 2 100 Taxon 4 Taxon 3 Taxon 5 Taxon 6 Taxon 8 Taxon 7 100 Taxon 9 ein replicate zwei Topologien 84 Taxon 4 Taxon 8 40/65 Taxon 5 Taxon 9 100 Taxon 4 Taxon 6 100 Taxon 5 Taxon 7 Taxon 6 Taxon 7 FWR: FREQUENCY IN REPLICATES (geringere Gewichtung, Einbeziehung aller Bäume) 75 Jackknife Prinzip gleich zu bootstrap allerdings werden zufällig Daten gelöscht Unterstützungswerte ensprechen sich aber nicht Bootstrap-Wert in % entspricht jacknife -Wert bei ca. 40 % gelöschte Daten 76 38

Likelhood mapping Berechnung der posterior probability (P i ) aller Bäume P i summiert sich auf 1 (irgendeine Topologie muss sein) 3 Ecken repräsentieren die 3 Topologien Je näher P an einer der Ecke desto stärker wird dieser Baum favorisiert 28 33 30 Plaxip Calloc Nuttal Lepitoc 64 Nuttall Lorica Stenos 58 Lepido Lorice 62 Onitho 60 Tonici AfH 61 Notopl 66 Crypto 0.1 NpH 77 Split Tree 78 39

Phylogenetic methods Schwarzspitzenhai Evolutionary relationships among unique mtdna haplotypes were reconstructed using the maximum- parsimony (MP) optimality criterion with all mutations weighted equally and indels treated as a fifth state. A two-nucleotide indel at positions 1045 and 1046 was treated as one event by omitting the second nucleotide from analyses. Heuristic tree searches were performed for all MP analyses with 1000 random-addition replications, saving a maximum of 1000 trees per replicate, and tree- bisection reconnection (TBR) branch swapping. Statistical support for nodes was determined via 1000 nonparametric bootstrap replicates (Felsenstein 1985) with 10 random-addition sequences per replicate, saving a maximum of 1000 trees per replicate, and nearest neighbour interchange (NNI) branch swapping. Haplotype trees were initially rooted using blacktip reef shark ( C. melanopterus ) and Australian blacktip shark, C. tilstoni, sequences as outgroups. Although the relationships of species within the genus Carcharhinus are not fully resolved (Lavery 1992; Naylor 1992), C. melanopterus and C. tilstoni were the closest relatives to C. limbatus for which tissue samples were available. C. melanopterus was used as the sole outgroup after C. limbatus was found to 79 be paraphyletic to C. tilstoni in the MP analyses. Methoden im Vergleich maximal support (Raubbeutler) nach: Gene und Stammbäume, Knoop und Müller Allg Trend: support MP/NJ < ML, Bayes 80 40

Die "Molekulare Uhr" Relativer Ratentest: Molecular clock-hypothese: XA = XB Außengruppe C als Bezug AC BC ~ 0 AC/BC ~ 1 X A B C = Außengruppe 81 Die "Molekulare Uhr" 343 Vetigastropoda 480 736 370 Protobranchia 520 420 fossil records 220 Decabrachia Octobrachia Tetrabranchiata 800 700 600 500 400 300 200 100 0 million years 82 41

Bedeutung der molekularen Phylogenie für die Systematik Frühere Vorstellungen zur Evolution und zu den Verwandtschaftsverhältnissen der Organismen beruhten auf morphologischen Kriterien Die molekulare Phylogenie hat viele der früheren Vorstellungen in den letzten ~10 Jahren über den Haufen geworfen, aber die meisten Hypothesen bestätigt. Am interessantesten sind natürlich die "revolutionären" Vorstellungen, z.b.: - Ecdysozoa - Lophotrochozoa - Afrotheria... 83 84 42

Ecdysozoa - Lophotrochozoa 85 Ecdysozoa - Lophotrochozoa Glenner et al., 2005 Curr Biol 86 43

87 Afrotheria Microgale longicaudata Rüssel- springer Elefanten Erdferkel Borstenigel Schliefer Seekühe 88 44

Afrotheria Afrotheria vor > 100 Mio Jahren in Afrika entstanden! Auseinanderbrechen des südlichen Gondwana (Kreide) 89 Konvergente Entwicklung!? snail-like? 90 45

91 46