Aufabe 7: Baum-Welch Algorithmus



Ähnliche Dokumente
W-Rechnung und Statistik für Ingenieure Übung 11

Markovketten. Bsp. Page Ranking für Suchmaschinen. Wahlfach Entscheidung unter Risiko und stat. Datenanalyse

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Kapitalerhöhung - Verbuchung

Aufgaben zur Flächenberechnung mit der Integralrechung

Part-Of-Speech-Tagging mit Viterbi Algorithmus

Abituraufgabe zur Stochastik, Hessen 2009, Grundkurs (TR)

Zeichen bei Zahlen entschlüsseln

Java-Programmierung mit NetBeans

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Klausur Nr. 1. Wahrscheinlichkeitsrechnung. Keine Hilfsmittel gestattet, bitte alle Lösungen auf dieses Blatt.

HIER GEHT ES UM IHR GUTES GELD ZINSRECHNUNG IM UNTERNEHMEN

Informationsblatt Induktionsbeweis

Melanie Kaspar, Prof. Dr. B. Grabowski 1

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

Rente = laufende Zahlungen, die in regelmäßigen Zeitabschnitten (periodisch) wiederkehren Rentenperiode = Zeitabstand zwischen zwei Rentenzahlungen

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Theoretische Informatik SS 04 Übung 1

Füllmenge. Füllmenge. Füllmenge. Füllmenge. Mean = 500,0029 Std. Dev. = 3,96016 N = ,00 490,00 495,00 500,00 505,00 510,00 515,00 Füllmenge

EMIS - Langzeitmessung

i x k k=1 i u i x i v i 1 0, ,08 2 0, ,18 3 0, ,36 4 0, ,60 5 1, ,00 2,22 G = n 2 n i=1


Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Im Beispiel werden mit F3 die Berechnungsfelder aufgerufen und das Feld#O040 (Basis AHV) übernommen.

Tutorial: Homogenitätstest

Aufgabe 1 Berechne den Gesamtwiderstand dieses einfachen Netzwerkes. Lösung Innerhalb dieser Schaltung sind alle Widerstände in Reihe geschaltet.

Kugel-Fächer-Modell. 1fach. 3fach. Für die Einzelkugel gibt es 3 Möglichkeiten. 6fach. 3! Möglichkeiten

Rekursionen (Teschl/Teschl )

Rekursionen. Georg Anegg 25. November Methoden und Techniken an Beispielen erklärt

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Anleitung über den Umgang mit Schildern

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Aufgabenblatt 3: Rechenbeispiel zu Stiglitz/Weiss (AER 1981)

8. Berechnung der kalkulatorischen Zinsen

Grundlagen der Theoretischen Informatik, SoSe 2008

Statistische Thermodynamik I Lösungen zur Serie 1

Online-Bestellung Tageskarten für Mitglieder des FC St. Pauli, die nicht im Besitz einer Dauer- oder Saisonkarte sind.

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

Professionelle Seminare im Bereich MS-Office

1 Vom Problem zum Programm

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

Eine Logikschaltung zur Addition zweier Zahlen

MATHEMATIK 3 STUNDEN. DATUM: 8. Juni 2009

BERECHNUNG DER FRIST ZUR STELLUNGNAHME DES BETRIEBSRATES BEI KÜNDIGUNG

Das Pflichtenheft. Dipl.- Ing. Dipl.-Informatiker Dieter Klapproth Ains A-Systemhaus GmbH Berlin

Firmware-Update, CAPI Update

Der monatliche Tarif für ein Handy wurde als lineare Funktion der Form f(x) = k x + d modelliert (siehe Grafik).

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher

Was meinen die Leute eigentlich mit: Grexit?

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Beweisbar sichere Verschlüsselung

Angebote der Landesregierung zur großzügigen Bewilligung von Teilzeitbeschäftigung und Beurlaubung ohne Bezüge für die Landesbediensteten 3.

Das Fahrtenbuch Fluch oder Segen?

Kurzanleitung MAN E-Learning (WBT)

Guten Morgen und Willkommen zur Saalübung!

Physik & Musik. Stimmgabeln. 1 Auftrag

Grundbegriffe der Informatik

6.2 Scan-Konvertierung (Scan Conversion)

3. LINEARE GLEICHUNGSSYSTEME

Grundlagen der Informatik

Informatik für Schüler, Foliensatz 12 Pseudo-Zufallszahlen

Lineare Funktionen. 1 Proportionale Funktionen Definition Eigenschaften Steigungsdreieck 3

Installation und Bedienung von vappx unter ios

Behörde für Bildung und Sport Abitur 2008 Lehrermaterialien zum Leistungskurs Mathematik

Zeit- und Feriensaldoberechnung TimeSafe Leistungserfassung

Impulse Inklusion 2014 Beteiligungskulturen - Netzwerke - Kooperationen (Leichte Sprache Version)

Die Industrie- und Handelskammer arbeitet dafür, dass Menschen überall mit machen können

Rente = laufende Zahlungen, die in regelmäßigen Zeitabschnitten (periodisch) wiederkehren Rentenperiode = Zeitabstand zwischen zwei Rentenzahlungen

WINDOWS 10 Upgrade. Beispiel: Desktop-Ausschnitt von vorhandenem WIN 8.1 (rechte Ecke der Taskleiste)

Bewertung von Barriere Optionen im CRR-Modell

Einbindung des Web Map Service für Gemeinden Anleitung

Numerische Verfahren und Grundlagen der Analysis

Kapiteltests zum Leitprogramm Binäre Suchbäume

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Zahlenmauern. Dr. Maria Koth. Ausgehend von dieser einfachen Bauvorschrift ergibt sich eine Vielzahl an möglichen Aufgabenstellungen.

Tipp III: Leiten Sie eine immer direkt anwendbare Formel her zur Berechnung der sogenannten "bedingten Wahrscheinlichkeit".

Theoretische Grundlagen der Informatik WS 09/10

Die Bundes-Zentrale für politische Bildung stellt sich vor

Zwei einfache Kennzahlen für große Engagements

Konzepte der Informatik

Übungsaufgaben Tilgungsrechnung

7. Bewässerung: Mehrmals pro Woche

Impulse Inklusion Selbst-bestimmtes Wohnen und Nachbarschaft

11.3 Komplexe Potenzreihen und weitere komplexe Funktionen

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus:

ACDSee Pro 2. ACDSee Pro 2 Tutorials: Übertragung von Fotos (+ Datenbank) auf einen anderen Computer. Über Metadaten und die Datenbank

n S n , , , , 167 Nach einem Jahr beträgt der Schuldenstand ca. 1177,09.

R. Brinkmann Seite Schriftliche Übung Mathematik Stochastik II (Nachschreiber) Jan. 2007

Sicherer Datenaustausch mit Sticky Password 8

1.1 Allgemeines. innerhalb der Nachtzeit (19:00 24:00) Gesamte Normalarbeitszeit (16:00 19:00)

Die Größe von Flächen vergleichen

Zahlensysteme. von Christian Bartl

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

Zahlenwinkel: Forscherkarte 1. alleine. Zahlenwinkel: Forschertipp 1

1 Part-of-Speech Tagging

Die Post hat eine Umfrage gemacht

PC CADDIE Web-SMS-Service

Einleitende Bemerkungen

Transkript:

Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio, Matr. Nr.0226388 e0226388@student.tuwien.ac.at Wien, am 23. Januar 2006

3 Baum-Welch Algorithmus 1 Einleitung Beim Einsatz von Hidden Markov Models ist die Wahl der Parameter von essentieller Bedeutung. In den meisten realen Anwendungen können die Parameter nicht exakt berechnet werden. Die gängige Vorgehensweise ist, diese Parameter näherungsweise mit Hilfe einer bzw. mehrerer Trainingssequenzen zu bestimmen. Eine Trainingssequenz ist quasi ein Musterbeispiel für die Phänomene die das HMM beschreiben soll. Man unterscheidet 2 Arten von Trainingsequenzen: Bekannter Pfad: Die Zustandsübergänge bei der Sequenz sind bekannt (z.b. Münzwurf: es wurde beobachtet wie der Croupier die Münzen wechselt) Unbekannter Pfad: Es sind keine weiteren Informationen bekannt. Der Baum-Welch Algorithmus fällt in die zweite Gruppe. 2 Parameter Ein Hidden Markov Model ist ein 5 T upel S, K, Π, A, B : S = {s 1,..., s N } die Menge der Zustände K das Ausgabealphabet Π = {π 1,..., π N } die Menge der Anfangswahrscheinlichkeiten für jeden Zustand, π 1 = P (X 1 = s i ) A die Menge der Übergangswahrscheinlichkeiten, a ij = P (X t+1 = s j X t = s i ), a ij 0, N j=1 = 1 i B die Menge der Ausgabewahrscheinlichkeiten, b i (k) = P (o t = k X t = s i ), k K X = {X 1... X T } Folge der beobachteten Daten, X i S O = {o 1... o T } versteckte Daten, zu den Daten zugehörige Zustände, o i K 3 Baum-Welch Algorithmus Der Baum-Welch Algorithmus berechnet iterativ einen Maximum-Likelihood-Schätzwert für ein Modell θ = (Π, A, B) bei einer gegebenen Trainingssequenz O = (o 1... o T ): arg max P (O θ) θ Dieser Algorithmus arbeitet mit Trainingssequenzen bei denen keine Pfadangaben bekannt sind. Der Algorithmus dient dazu, ein Hidden Markov Model zu trainieren, das bedeutet, die Parameter von θ so zu setzen, dass es die gegebenen Trainingssequenzen so gut wie möglich modelliert. Die Sequenz ist dann gut modelliert, wenn die Gesamtwahrscheinlichkeit, dass die Trainingssequenz vom HMM generiert wird, maximal ist. Das Grundprinzip ist folgendermaßen: Es wird mit Schätzwerten für die Parameter begonnen. (Zufallszahlen, Erfahrungswerte oder Heuristiken) Mit Hilfe der Schätzwerte werden neue, bessere Parameter berechnet. 1

3 Baum-Welch Algorithmus 3.1 Forward Algorithmus Der Vorgang wird so lange wiederholt bis sich keine wesentliche Verbesserung mehr feststellen lässt. Die Wahrscheinlichkeit P (O θ) der Trainingssequenz O = (o 1... o T ), kann folgendermaßen berechnet werden: P (O θ) = X P (O X, θ)p (X θ) = X π X1 T t=1 a XtX t+1 b Xt (o t ), wobei X = (X 1,..., X T ) eine Folge von T Zuständen ist. Da die Berechnung dieser Formel zu Aufwendig ist, verwendet man den Forward Algorithmus und Backward Algorithmus. 3.1 Forward Algorithmus Durch den Forward Algorithmus erhält man die Wahrscheinlichkeit, den Zustand j zum Zeitpunkt t zu erreichen, wenn der bisherige Teil der Trainingssequenz o 1...o t ist. α t (j) = P (o 1... o t, X t = s i θ) Basisfall α 1 (j) = π j b j (o 1 ), 1 j N Induktion N α t (j) = b j (o t ) α t 1 (i)a ij, i=1 2 t T, 1 j N 3.2 Backward Algorithmus Mit dem Backward Algorithmus erhält man die Wahrscheinlichkeit, den Zustand i zum Zeitpunkt t zu erreichen, wenn der nachfolgende Teil der Trainingssequenz o t+1...o T ist. β t (i) = P (o t+1... o T, X t = s i θ) Basisfall β T (i) = 1, 1 i N Induktion N β t (i) = β t+1 (j)a ij b j (o t+1 ), j=1 1 t T 1, 1 j N 3.3 EM-Algorithmus Mit Hilfe des EM-Algorithmus kann man bei vorhandenen unvollständigen Daten, die Parameter so finden, dass die Verteilung die Daten optimal beschreibt. Es wird jedoch nur ein lokales Maxima gefunden, dessen Güte abhängig von den Anfangswerten ist. Der Algorithmus geht in zwei Schritten vor, dem Estimation Step und dem Maximization Step. 2

3 Baum-Welch Algorithmus 3.4 Ablauf 3.3.1 Estimation Step In diesem Schritt werden die Erwartungswerte für die Anzahl der Übergänge pro Kante berechnet. P (X t = s i, X t+1 = s j O, θ) = α t(i)a ij b j (o t+1 )β t+1 (j) N m=1 α t(m)β t (m) P (X t = s i O, θ) = α t (i)β t (i) N m=1 α t(m)β t (m) 3.3.2 Maximization Step In diesem Schritt werden anhand der Erwartungswerte die Modellparameter neu berechnet. ˆπ i = P (X 1 = s i O, θ) T 1 t=1 â ij = P (X t = s i, X t+1 = s j O, θ) T 1 t=1 P (X t = s i O, θ) T t=1 ˆbi (k) = P (X t = s i O, θ)δ k,ot T t=1 P (X, δ k,ot := t = s i O, θ) { 1, k = o t 0, sonst Damit wurde ein neues Modell ˆθ = ( ˆΠ, Â, ˆB) berechnet. Es gilt P (O ˆθ) P (O θ). 3.4 Ablauf Initialisierung Anfangsparameter θ = (Π, A, B) schätzen Trainingssequenz O = (o 1... o T ) gegeben Iteration 1. forward α t (j) berechnen (für alle Zustände t, über alle Stellen j der Trainingssequenz) 2. backward β t (i) berechnen (für alle Zustände t, über alle Stellen i der Trainingssequenz) 3. Matrizen der Erwartungswerte A ij, B i (b) bestimmen 4. neues Modell ˆθ = (ˆΠ, Â, ˆB) (Matrizen der Wahrscheinlichkeiten a ij, b i (b)) ermitteln 5. neue Wahrscheinlichkeit der Trainingsequenz (log likelihood) berechnen 3.5 Abbruchbedingung Das Finden einer geeigneten Abbruchbedingung stellt eine schwierige Aufgabe da. Je nach Anwendung können eine oder mehrere der folgenden Varianten zum Einsatz kommen. Abbruch sobald sich das Modell nur mehr geringfügig ändert (insbesondere wenn die Grenze des darstellbaren Bereichs erreicht ist) Abbruch wenn sich die Wahrscheinlichkeit für die Trainingssequenzen nicht mehr ändert. Abbruch nach einer bestimmten Anzahl von Iterationen 3

LITERATUR LITERATUR Literatur [1] Neil C. Jones & Pavel A. Pevzner: An Introduction to Bioninformatics Algorithms - Slides Chapter 11: Hidden Markov Models; MIT Press; http://www.bioalgorithms.info/slides.htm#ch11 [2] Holger Wunsch: Der Baum-Welch Algorithmus für Hidden Markov Models, ein Spezialfall des EM- Algorithmus; 2001; http://www.sfs.nphil.uni-tuebingen.de/resources/em.pdf 4