Hidden Markov Model (HMM)
|
|
- Adolf Bieber
- vor 6 Jahren
- Abrufe
Transkript
1 Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics K1 1/11
2 1.. stochastisches Modell zur Modellierung eines Systems durch eine Markov-Kette mit unbeobachteten Zuständen Zustände der Markov-Kette sind verborgen jedem Zustand sind beobachtbare Ausgangssymbole (Emissionen) zugeordnet Emissionen treten abhängig vom Zustand mit best. Wahrscheinlichkeit auf anhand der beobachteten Sequenz von Emissionen wahrscheinlichkeitstheoretische Aussagen über verborgene Zustände Einsatzgebiete: Sprach- und Schrifterkennung, Spamfilter, Phsychologie, etc. Machine learning in bioinformatics K1 2/11
3 Was ist ein HMM? Markov-Kette: Serie von Zuständen, die mit Hilfe von Übergangswahrscheinlichkeiten auftreten (stochast. Prozess) Ziel: Angabe von Wahrscheinlichkeiten zukünftiger Ereignisse anhand bengrenzter Vorgeschichte Prognose bei Kenntnis der gesamten Vorgeschichte Hidden Markov Model:.. endliches Modell, beschreibt Serie von Beobachtungen durch einen versteckten stochastischen Prozess P(s i s i 1) i+1 i P(s s ) s i 1 s i s i+1 P(e i 1 s i 1 ) P(e i 1 s) i P(e i s i) P(e i s i) e i 1 e i e i+1 Machine learning in bioinformatics K1 3/11
4 Und nun formal: Ein HMM µ = (X, A, Y, B, π) ist gegeben durch: X Menge aller Zustände (Alphabet) A Übergangsmatrix der Zustände aus X Y Menge aller Emissionen (Beobachtungen) B Beobachtungsmatrix, mit b ij = P(y j Y x i X ) π Anfangswahrscheinlichkeitsverteilung, mit π(i) ist Wk, das x i Startzustand ist Ein HMM ist zeitinvariant wenn die Wk aus A und B sich mit der Zeit nicht ändern. Unterliegende Markov-Ketten sind meist 1. Ordnung. Machine learning in bioinformatics K1 4/11
5 Anwendung - Spracherkennung Zustände: Phoneme Emissionen: Ketten von Lauten lets go tu the part te potty party patty p ar te Jede Soundsequenz kann mit best. Wk von einem Modell generiert werden. Ein Sprachmodell besteht aus Wk für die Lauterzeugung und für Lautübergänge Machine learning in bioinformatics K1 5/11
6 Anwendung - Bioinformatik Sequenz-Alignment Proteinmodellierung Zustände: Spalten des Alignments Aminosäuren Emissionen: Ancestrale Sequenz Primärstruktur Machine learning in bioinformatics K1 6/11
7 Anwendung - Bioinformatik Zustände: Emissionen: Sequenz-Alignment Spalten des Alignments Ancestrale Sequenz Consensus Sequenz einer Menge von Sequenzen lässt sich auch mit regulären Ausdrücken beschreiben: A C A A T G T C A A C T A T C A C A C - - A G C A G A A T C A C C G - - A T C RegExpr: [AT][CG][AC][ACTG]*A[TG][GC] keine Aussage über Qualität jeder Ableitbaren Sequenz möglich: z.bsp. TGCCC-AGG (sehr unwahrscheinlich) und ACAC ATC (Consensus) sind beide ableitbar Machine learning in bioinformatics K1 7/11
8 Ableitung eines HMM vom Sequenzalignment profile HMM Machine learning in bioinformatics K1 8/11
9 Wahrscheinlichkeiten vs. log-odds Scores P(ACACATC) = Sequenz Wk 100 Log odds Consensus ACAC--ATC Öriginal ACA---ATG andere TCAACTATC ACAC--AGC AGA---ATC exceptional TGCT--AGG L(S) = log P(S) = log P(S) L log L with L... Length(S) log-odds Scores trennen wahrscheinlichere Sequenzen besser von unwahrscheinlichen! Machine learning in bioinformatics K1 9/11
10 Aufbau eines profile HMM Machine learning in bioinformatics K1 10/11
11 Anwendungen Suche in Datenbanken Geg. 1 Sequenz, gehört diese zu einer bestimmten Familie? Sequenz Alignments Gibt es bestimmte Regionen in einer Sequenz? Machine learning in bioinformatics K1 11/11
Maschinelles Lernen in der Bioinformatik
Maschinelles Lernen in der Bioinformatik Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) VL 2 HMM und (S)CFG Jana Hertel Professur für Bioinformatik Institut für Informatik
MehrMethoden zur Cluster - Analyse
Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
MehrHidden Markov Models (HMM) Karin Haenelt
Hidden Markov Models (HMM) Karin Haenelt 16.5.2009 1 Inhalt Einführung Theoretische Basis Elementares Zufallsereignis Stochastischer Prozess (Folge von elementaren Zufallsereignissen) Markow-Kette (Stochastischer
MehrFriedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong
Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem
MehrHidden Markov Models
Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
Mehr16.3 Rekurrente und transiente Zustände
16.3 Rekurrente und transiente Zustände Für alle n N bezeichnen wir mit f i (n) = P(X n = i,x n 1 i,...,x 1 i,x 0 = i) die Wahrscheinlichkeit, daß nach n Schritten erstmalig wieder der Zustand i erreicht
MehrStatistische Verfahren:
Statistische Verfahren: Hidden-Markov-Modelle für Multiples Alignment Stochastic Context-Free Grammars (SCFGs) für RNA-Multiples Alignment Übersicht 1 1. Hidden-Markov-Models (HMM) für Multiples Alignment
MehrMarkov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes
Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrAufabe 7: Baum-Welch Algorithmus
Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,
MehrHidden Markov Models und DNA-Sequenzen
Hidden Markov Models und DNA-Sequenzen Joana Grah Seminar: Mathematische Biologie Sommersemester 2012 Betreuung: Prof. Dr. Matthias Löwe, Dr. Felipe Torres Institut für Mathematische Statistik 28. Juni
Mehr3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen
3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 14. Mai 2008 1 Kollokationen
MehrSpracherkennung und Sprachsynthese
Spracherkennung und Sprachsynthese Einführung in die Computerlinguistik Sommersemester 2012 Peter Kolb Spracherkennung / -synthese Spracherkennung (automatic speech recognition, ASR) Sprachsynthese (text-to-speech,
MehrAlgorithmische Bioinformatik
Algorithmische Bioinformatik Hidden-Markov-Modelle Viterbi - Algorithmus Ulf Leser Wissensmanagement in der Bioinformatik Inhalt der Vorlesung Hidden Markov Modelle Baum, L. E. and Petrie, T. (1966). "Statistical
MehrLösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK
Institut für Stochastik Dr. Steffen Winter Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK für Studierende der INFORMATIK vom 17. Juli 01 (Dauer: 90 Minuten) Übersicht über
MehrBioinformatik. Lokale Alignierung Gapkosten. Silke Trißl / Ulf Leser Wissensmanagement in der. Bioinformatik
Bioinformatik Lokale Alignierung Gapkosten Silke Trißl / Ulf Leser Wissensmanagement in der Bioinformatik Inhalt dieser Vorlesung Ähnlichkeit Lokales und globales Alignment Gapped Alignment Silke Trißl:
MehrPart-of-Speech Tagging. Stephanie Schuldes
Part-of-Speech Tagging Stephanie Schuldes 05.06.2003 PS Erschließen von großen Textmengen Geißler/Holler SoSe 2003 Motivation Ziel: vollständiges Parsing und Verstehen natürlicher Sprache Herantasten durch
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrDynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten
DynaTraffic Modelle und mathematische Prognosen Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten Worum geht es? Modelle von Verkehrssituationen Graphen: Kanten, Knoten Matrixdarstellung
MehrAlgorithmische Anwendungen WS 2005/2006
Algorithmische Anwendungen WS 2005/2006 Sequenzalignment Gruppe F_lila_Ala0506 Allal Kharaz Yassine ELassad Inhaltsverzeichnis 1 Problemstellungen...................................... 3 1.1 Rechtschreibkorrektur...............................
MehrDie Kopplung von Markovketten und die Irrfahrt auf dem Torus
Die Kopplung von Markovketten und die Irrfahrt auf dem Torus Verena Monschang Vortrag 20.05.20 Dieser Seminarvortrag thematisiert in erster Linie die Kopplung von Markovketten. Zu deren besseren Verständnis
MehrBioinformatik I (Einführung)
Kay Diederichs, Sommersemester 2015 Bioinformatik I (Einführung) Algorithmen Sequenzen Strukturen PDFs unter http://strucbio.biologie.unikonstanz.de/~dikay/bioinformatik/ Klausur: Fr 17.7. 10:00-11:00
MehrGenvorhersage & Genom- Annotation
WS2016/2017 Genomforschung und Sequenzanalyse - Einführung in Methoden der Bioinformatik- Thomas Hankeln Genvorhersage & Genom- Annotation Ebenen der Annotation Genstruktur (Exons/Introns, UTR s, Promoter,
MehrProbe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013
Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte
MehrPart-Of-Speech-Tagging mit Viterbi Algorithmus
Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus
MehrInformatik IV Theoretische Informatik: Formale Sprachen und Automaten, Berechenbarkeit und NP-Vollständigkeit. Zugangsnummer: 3288
Informatik IV Theoretische Informatik: Formale Sprachen und Automaten, Berechenbarkeit und NP-Vollständigkeit Wiederholung Kapitel 2 http://pingo.upb.de Zugangsnummer: 3288 Dozent: Jun.-Prof. Dr. D. Baumeister
MehrDer Viterbi-Algorithmus.
Der Viterbi-Algorithmus. Eine Erläuterung der formalen Spezifikation am Beispiel des Part-of-Speech Tagging. Kursskript Karin Haenelt, 9..7 (.5.) Einleitung In diesem Skript wird der Viterbi-Algorithmus
MehrTheorie der Informatik. Theorie der Informatik. 6.1 Einführung. 6.2 Alphabete und formale Sprachen. 6.3 Grammatiken. 6.4 Chomsky-Hierarchie
Theorie der Informatik 17. März 2014 6. Formale Sprachen und Grammatiken Theorie der Informatik 6. Formale Sprachen und Grammatiken Malte Helmert Gabriele Röger Universität Basel 17. März 2014 6.1 Einführung
MehrPrimärstruktur. Wintersemester 2011/12. Peter Güntert
Primärstruktur Wintersemester 2011/12 Peter Güntert Primärstruktur Beziehung Sequenz Struktur Proteinsequenzen, Sequenzdatenbanken Sequenzvergleich (sequence alignment) Sequenzidentität, Sequenzhomologie
MehrGrundbegriffe der Informatik Tutorium 11
Grundbegriffe der Informatik Tutorium 11 Tutorium Nr. 32 Philipp Oppermann 29. Januar 2014 KARLSRUHER INSTITUT FÜR TECHNOLOGIE KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik WS 2/22 Manfred Pinkal Beispiel: Adjektive im Wahrig-Korpus Frequenzen in einem kleinen Teilkorpus: n groß - -
MehrBayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008
Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation
MehrSpracherkennung. Gliederung:
Spracherkennung Gliederung: - Einführung - Geschichte - Spracherkennung - Einteilungen - Aufbau und Funktion - Hidden Markov Modelle (HMM) - HMM bei der Spracherkennung - Probleme - Einsatzgebiete und
MehrUniversität Karlsruhe Institut für Theoretische Informatik. Klausur: Informatik III
Name Vorname Matrikelnummer Universität Karlsruhe Institut für Theoretische Informatik o. Prof. Dr. P. Sanders 26. Feb. 2007 Klausur: Informatik III Aufgabe 1. Multiple Choice 10 Punkte Aufgabe 2. Teilmengenkonstruktion
MehrSepp und Helmut, zwei alte selbsternannte Fußball-Experten unterhalten sich am Stammtisch.
Knobelaufgabe Mathematik Sommersemester 6 Sepp und Helmut, zwei alte selbsternannte Fußball-Eperten unterhalten sich am Stammtisch. Sepp: Es geht nichts über die 4er-Abwehrkette! 4 in der Abwehr, 4 im
MehrBACHELORARBEIT. Markov-Ketten und ihre Greensche Funktion. Jasmin Riegler. Wien, Jänner 2013
BACHELORARBEIT Markov-Ketten und ihre Greensche Funktion Jasmin Riegler Wien, Jänner 203 Studienkennzahl: A 033 62 Studienrichtung: Mathematik Betreuer: Privatdoz. Dr. Mag. Bernhard Krön Inhaltsverzeichnis
MehrJohannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule, Berlin Friedrich-Schiller-Gymnasium, Königs Wusterhausen
Glückssträhnen...?! Teilnehmer: Aptin Haerian Max Irmscher Markus Johl Felix Montenegro Hoang Lam Nguyen Anne Christin Rettig Herder-Oberschule, Berlin Johannes-Kepler-Gymnasium, Chemnitz John-Lennon-Oberschule,
Mehr4.5 Wachstumsfunktionen
4.5 Wachstumsfunktionen Wenn man die Entwicklung einer Pflanze modelliert, ist es zweckmäßig, das Verzweigen und das Längenwachstum in verschiedenen Regeln zu modellieren. Das wurde zum Beispiel in den
MehrBericht zur Prüfung im Mai 2007 über Stochastische Risikomodellierung und statistische Methoden (Grundwissen)
Blätter DGVFM 2008) 29: 117 126 DOI 10.1007/s11857-007-0034-y ACTUARIAL EXAMS Bericht zur Prüfung im Mai 2007 über Stochastische Risikomodellierung und statistische Methoden Grundwissen) Dietmar Pfeifer
MehrUnabhängige Zufallsvariablen
Kapitel 9 Unabhängige Zufallsvariablen Die Unabhängigkeit von Zufallsvariablen wird auf die Unabhängigkeit von Ereignissen zurückgeführt. Im Folgenden sei Ω, A, P ) ein Wahrscheinlichkeitsraum. Definition
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Tutorium 27 29..24 FAKULTÄT FÜR INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Definition
MehrSeminar Kompressionsalgorithmen Huffman-Codierung, arithmetische Codierung
Huffman-Codierung, arithmetische Codierung Theoretische Informatik RWTH-Aachen 4. April 2012 Übersicht 1 Einführung 2 3 4 5 6 Einführung Datenkompression Disziplin,die Kompressionsalgorithmen entwirft
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Tutorium 4 26..25 INSTITUT FÜR THEORETISCHE INFORMATIK KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
MehrStatistische Methoden in der Bioinformatik
Statistische Methoden in der Bioinformatik Prof. Dr. Jörg Rahnenführer Raum 720 Email: rahnenfuehrer@statistik. tu-.de Voraussetzungen: Vordiplom in Statistik, Mathematik, Datenanalyse, Informatik Zeiten
MehrKapitel 9 WAHRSCHEINLICHKEITS-RÄUME
Kapitel 9 WAHRSCHEINLICHKEITS-RÄUME Fassung vom 12. Januar 2001 121 WAHRSCHEINLICHKEITS-RÄUME Stichproben-Raum. 9.1 9.1 Stichproben-Raum. Die bisher behandelten Beispiele von Naturvorgängen oder Experimenten
Mehr3. Prozesse mit kontinuierlicher Zeit
3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess
MehrEinführung in Markoff-Ketten
Einführung in Markoff-Ketten von Peter Pfaffelhuber Version: 6. Juli 200 Inhaltsverzeichnis 0 Vorbemerkung Grundlegendes 2 Stationäre Verteilungen 6 3 Markoff-Ketten-Konvergenzsatz 8 0 Vorbemerkung Die
MehrKapitel 7: Sequenzen- Alignierung in der Bioinformatik
Kapitel 7: Sequenzen- Alignierung in der Bioinformatik VO Algorithm Engineering Professor Dr. Petra Mutzel Lehrstuhl für Algorithm Engineering, LS11 19. VO 14. Juni 2007 1 Literatur für diese VO Volker
MehrExact Sampling: Der Propp-Wilson-Algorithmus
Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München gerstel@in.tum.de Zusammenfassung Der Propp-Wilson-Algorithmus liefert
MehrFormale Methoden 1. Gerhard Jäger 23. Januar Uni Bielefeld, WS 2007/2008 1/18
1/18 Formale Methoden 1 Gerhard Jäger Gerhard.Jaeger@uni-bielefeld.de Uni Bielefeld, WS 2007/2008 23. Januar 2008 2/18 Das Pumping-Lemma Sein L eine unendliche reguläre Sprache über ein endliches Alphabet
MehrEinführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen
Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen David Geier und Sven Middelberg RWTH Aachen, Sommersemester 27 Inhaltsverzeichnis Information 2 Aufgabe 4 Aufgabe 2 6 4 Aufgabe
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrBLAST. Datenbanksuche mit BLAST. Genomische Datenanalyse 10. Kapitel
Datenbanksuche mit BLAST BLAST Genomische Datenanalyse 10. Kapitel http://www.ncbi.nlm.nih.gov/blast/ Statistische Fragen Datenbanksuche Query Kann die globale Sequenzähnlichkeit eine Zufallsfluktuation
MehrEinführung in die Computerlinguistik Formale Grammatiken rechtslineare und kontextfreie Grammatiken Kellerautomaten
Einführung in die Computerlinguistik Formale Grammatiken rechtslineare und kontextfreie Grammatiken Kellerautomaten Dozentin: Wiebke Petersen 13. Foliensatz Wiebke Petersen Einführung CL 1 Formale Grammatik
MehrLogik für Informatiker
Vorlesung Logik für Informatiker 1. Einführung Bernhard Beckert Universität Koblenz-Landau Sommersemester 2006 Logik für Informatiker, SS 06 p.1 Formale Logik Ziel Formalisierung und Automatisierung rationalen
Mehr1 A dp = P(A B). (1.3)
Markov-etten Seminar Stochastik vom 4-500 Version Oktober 00 Markus Penz Vorbemerkungen zu bedingten Wahrscheinlichkeiten Sei (Ω, F,P) ein Wahrscheinlichkeitsraum und X : Ω R eine F-messbare sowie integrierbare
MehrUniversität Karlsruhe Institut für Theoretische Informatik. Klausur: Informatik III
Name Vorname Matrikelnummer Universität Karlsruhe Institut für Theoretische Informatik o. Prof. Dr. P. Sanders 10.4.2007 Klausur: Informatik III Aufgabe 1. Multiple Choice 11 Punkte Aufgabe 2. Minimalautomaten
MehrSTOCHASTISCHE UNABHÄNGIGKEIT. Annika Pohlmann Philipp Oel Wilhelm Dück
STOCHASTISCHE UNABHÄNGIGKEIT Annika Pohlmann Philipp Oel Wilhelm Dück 1 GLIEDERUNG 1) Bedingte Wahrscheinlichkeiten 2) Unabhängigkeit für mehr als zwei Ereignisse 3) Unabhängigkeit für Zufallsvariable
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik Evaluation Annotation eines Goldstandard : Testkorpus mit der relevanten Zielinformation (z.b. Wortart) Automatische
MehrExakter Binomialtest als Beispiel
Prinzipien des statistischen Testens Entscheidungsfindung Exakter Binomialtest als Beispiel Statistische Tests Nullhypothese Alternativhypothese Fehlentscheidungen Ausgangspunkt: Forschungshypothese Beispiele:.
Mehr0 für t < für 1 t < für 2 t < für 3 t < für 4 t < 5 1 für t 5
4 Verteilungen und ihre Kennzahlen 1 Kapitel 4: Verteilungen und ihre Kennzahlen A: Beispiele Beispiel 1: Eine diskrete Zufallsvariable X, die nur die Werte 1,, 3, 4, 5 mit positiver Wahrscheinlichkeit
MehrMarkov-Ketten und Google s Page-Rank 1 / 70
Markov-Ketten und Google s Page-Rank 1 / 70 Zielstellung 1 Wir geben einen kurzen Überblick über die Arbeitsweise von Suchmaschinen für das Internet. Eine Suchmaschine erwartet als Eingabe ein Stichwort
MehrAlgorithmische Bioinformatik
Algorithmische Bioinformatik Gene Finding mit Markov-Modellen Ulf Leser Wissensmanagement in der Bioinformatik Ziel der Vorlesung Einstieg in statistische Verfahren Problemstellung Statistisches Patternmatching
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, den 15.0.009 Fachbereich Mathematik Prof. Dr. M. Winkler C. Stinner Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Lösung Die Klausur gilt als bestanden,
MehrGenannotation bei Prokaryoten
Genannotation bei Prokaryoten Maike Tech Abt. Bioinformatik Institut für Mikrobiologie und Genetik (IMG) Universität Göttingen 28. November 2005 Genetik von Pro- und Eukaryoten Eukaryoten Prokaryoten Zellkern
MehrDie Folgerungsbeziehung
Kapitel 2: Aussagenlogik Abschnitt 2.1: Syntax und Semantik Die Folgerungsbeziehung Definition 2.15 Eine Formel ψ AL folgt aus einer Formelmenge Φ AL (wir schreiben: Φ = ψ), wenn für jede Interpretation
MehrGrundlagen der Theoretischen Informatik
Grundlagen der Theoretischen Informatik Wintersemester 2007 / 2008 Prof. Dr. Heribert Vollmer Institut für Theoretische Informatik 29.10.2007 Reguläre Sprachen Ein (deterministischer) endlicher Automat
MehrENTWICKLUNG EINES INSTITUT FÜR INFORMATIK. Werner Hoffmann STOCHASTISCHEN VERFAHRENS ZUR NACHVERFOLGUNG STUDENTISCHER QUIZLEISTUNGEN IN BACKSTAGE
INSTITUT FÜR INFORMATIK der Ludwig-Maximilians-Universität München ENTWICKLUNG EINES STOCHASTISCHEN VERFAHRENS ZUR NACHVERFOLGUNG STUDENTISCHER QUIZLEISTUNGEN IN BACKSTAGE Werner Hoffmann Bachelorarbeit
MehrAufgabentypen die in der Klausur vorkommen
Aufgabentypen die in der Klausur vorkommen können 1. Nennen Sie fünf wichtige Anwendungsgebiete der Computerlinguistik. 2. Für welches der drei Anwendungsgebiete Maschinelle Übersetzung, Rechtschreibkorrektur
MehrUE Algorithmen und Datenstrukturen 1 UE Praktische Informatik 1. Übung 2. Spezifikation Schrittweise Verfeinerung
UE Algorithmen und Datenstrukturen 1 UE Praktische Informatik 1 Übung 2 Spezifikation Schrittweise Verfeinerung Institut für Pervasive Computing Johannes Kepler Universität Linz Altenberger Straße 69,
MehrLANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
MehrFOR MUW SSM3 (2008) STUDENTS EDUCATIONAL PURPOSE ONLY
Angewandte Bioinformatik Grundlagen der Annotation von eukaryotischen Genomen Online Datenbanken und Bioinformatik Tools Sequenzen Sequenzalignment: Fasta und Blast Motive und Hidden Markov Models Genom-Browser
MehrSplice-Stellen. Zentrales Dogma. Splicing. Introns & Exons. Genomische Datenanalyse 5. Kapitel
Splice-Stellen Zentrales Dogma Genomische Datenanalyse 5. Kapitel Splicing Introns & Exons Splice-Mechanismus Splice-Apparat Splice-Site-Erkennung Der GT-AG Typ Splicing findet immer nur an wenigen genau
MehrStochastik. 1. Wahrscheinlichkeitsräume
Stochastik 1. Wahrscheinlichkeitsräume Ein Zufallsexperiment ist ein beliebig oft und gleichartig wiederholbarer Vorgang mit mindestens zwei verschiedenen Ergebnissen, bei dem der Ausgang ungewiß ist.
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrModellbildung und Simulation
Modellbildung und Simulation Wintersemester 2007/2008 Klaus Kasper Praktikum Mittwochs: 10:15 13:30 (Y) Start: 24.10.2007 Ort: D15/202 Donnerstags: 14:15 17:30 (X) Start: 25.10.2007 Ort: D15/102 Zulassungsvoraussetzung
MehrStochastische Prozesse. Woche 5
FS 2016 Stochastische Prozesse Woche 5 Aufgabe 1 PageRank-Algorithmus von Google Das Herz der Google-Suchmaschine ist ein Algorithmus, der alle Dokumente des WWW nach ihrer Wichtigkeit anordnet. Die Auflistung
MehrBCDS Seminar. Protein Tools
BCDS Seminar Protein Tools Gliederung Nützliche Tools Three-/one-letter Amino Acids' Сodes RandSeq Random Protein Sequence Generator Protein Colourer ProtParam PeptideCutter ProtScale TMHMM Server 2.0
MehrGrundlagen der Theoretischen Informatik / Einführung in die Theoretische Informatik I
Vorlesung Grundlagen der Theoretischen Informatik / Einführung in die Theoretische Informatik I Bernhard Beckert Institut für Informatik Sommersemester 2007 B. Beckert Grundlagen d. Theoretischen Informatik:
MehrTheorie der Informatik
Theorie der Informatik 6. Formale Sprachen und Grammatiken Malte Helmert Gabriele Röger Universität Basel 17. März 2014 Einführung Beispiel: Aussagenlogische Formeln Aus dem Logikteil: Definition (Syntax
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
MehrLANGZEITVERHALTEN VON MARKOW-KETTEN
LANGZEITVERHALTEN VON MARKOW-KETTEN NORA LOOSE. Buchstabensalat und Definition Andrei Andreewitsch Markow berechnete Anfang des 20. Jahrhunderts die Buchstabensequenzen in russischer Literatur. 93 untersuchte
MehrStudiengang Informatik der FH Gießen-Friedberg. Sequenz-Alignment. Jan Schäfer. WS 2006/07 Betreuer: Prof. Dr. Klaus Quibeldey-Cirkel
Studiengang Informatik der FH Gießen-Friedberg Sequenz-Alignment Jan Schäfer WS 2006/07 Betreuer: Prof. Dr. Klaus Quibeldey-Cirkel Überblick Einführung Grundlagen Wann ist das Merkmal der Ähnlichkeit erfüllt?
MehrTesten von Hypothesen
Elke Warmuth Humboldt-Universität zu Berlin Sommersemster 2010 1 / 46 2 / 46 1 Testen von Hypothesen 3 / 46 Signifikant, signifikant, signifikant,... 4 / 46 Signifikant, signifikant, signifikant,... 5
MehrBioinformatik. Substitutionsmatrizen BLAST. Ulf Leser Wissensmanagement in der. Bioinformatik
Bioinformatik Substitutionsmatrizen BLAST Ulf Leser Wissensmanagement in der Bioinformatik Inhalt dieser Vorlesung Substitutionsmatrizen: PAM und BLOSSUM Suche in Datenbanken: Basic Local Alignment Search
Mehr7.5 Erwartungswert, Varianz
7.5 Erwartungswert, Varianz Def. 7.5.: a) X sei eine diskrete ZV, die bei unendl. vielen Werten x k folgende Zusatzbedingung erfüllt: x k p k
MehrInformatikstudien 2010 Martin Polaschek
Informatikstudien 2010 Martin Polaschek In welchen Studien gibt es Änderungen? Bachelor Informatik Master Medieninformatik (2006) Master Scientific Computing Master Wirtschaftsinformatik (2006) Änderungen
MehrWas bisher geschah Alphabet, Wort, Sprache
Was bisher geschah Alphabet, Wort, Sprache Wörter w A Operationen: Spiegelung R, Verkettung Palindrome Relationen: Präfix, Infix, Postfix, lexikographische, quasi-lexikographische Ordnung Sprachen L A
MehrVorlesung 8b. Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten
Vorlesung 8b Bedingte Erwartung, bedingte Varianz, bedingte Verteilung, bedingte Wahrscheinlichkeiten 1 Wie gehabt, denken wir uns ein zufälliges Paar X = (X 1,X 2 ) auf zweistufige Weise zustande gekommen:
MehrDiskrete Strukturen Kapitel 1: Einleitung
WS 2015/16 Diskrete Strukturen Kapitel 1: Einleitung Hans-Joachim Bungartz Lehrstuhl für wissenschaftliches Rechnen Fakultät für Informatik Technische Universität München http://www5.in.tum.de/wiki/index.php/diskrete_strukturen_-_winter_15
MehrQuantitative Auswertung II. Korpuslinguistik Heike Zinsmeister
Quantitative Auswertung II Korpuslinguistik Heike Zinsmeister 16.12.2011 Unterschiedstest Fall 1: unabhängige Stichproben Daten eine unabhängige Variable auf Nominal- oder Kategorialniveau eine abhängige
MehrExponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models
Exponential Family, Maximum Likelihood, EM Algorithmus und Gaussian Mixture Models Korbinian Schwinger 3. November 003 Inhaltsverzeichnis Inhaltsverzeichnis Exponential Family 3. Definition...............................
MehrVeranstaltungen, SWS, ECTS, Prüfungsdauer
Anhang 1: 1 2 3 4 5 6 7 8 9 10 Veranstaltungen, SWS, ECTS, Pflichtveranstaltungen in Grundstudium Veranstaltung SWS ECTS (Klausur) (mündl.) Einführung in die Informatik I (LMU/TUM Alt) # 4V+3Ü 9 135-225
Mehr