Hidden Markov Modelle

Ähnliche Dokumente
Hidden Markov Modelle

Hidden-Markov-Modelle

Hidden Markov Models

Hidden Markov Models (HMM)

Projektgruppe. Text Labeling mit Sequenzmodellen

Einführung in die Computerlinguistik

Zeitreihenanalyse mit Hidden Markov Modellen

Hidden Markov Models

Hidden Markov Modellen

Signalverarbeitung 2. Volker Stahl - 1 -

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Prof. Dr. Marcus Spies Institut f. Informatik LMU München

Vorlesung Maschinelles Lernen

Active Hidden Markov Models for Information Extraction

Kapitel 12: Markov-Ketten

HMMs und der Viterbi-Algorithmus

Der Viterbi-Algorithmus im Part-of-Speech Tagging

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

HMM-Synthese (Grundzüge)

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Roman Firstein. Maximum Entropy Markov Models for Information Extraction and Segmentation

DisMod-Repetitorium Tag 3

Statistische Sprachmodelle

Hidden-Markov-Modelle

Hidden Markov Model (HMM)

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Der Viterbi Algorithmus

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Hidden Markov Models (HMM) Karin Haenelt

3.2 Maximum-Likelihood-Schätzung

3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen

Einführung in die automatische Spracherkennung

80 7 MARKOV-KETTEN. 7.1 Definition und Eigenschaften von Markov-Ketten

Stochastik und Markovketten

Lernalgorithmen SoSe 2010 in Trier. Henning Fernau Universität Trier

Sprachsynthese und Spracherkennung

Aufabe 7: Baum-Welch Algorithmus

Elementare Wahrscheinlichkeitslehre

Evaluation und Training von HMMs

DynaTraffic Modelle und mathematische Prognosen. Simulation der Verteilung des Verkehrs mit Hilfe von Markov-Ketten

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Ein springendes Profil-HMM zur Erkennung von rekombinanten HI-Viren

Probabilistische kontextfreie Grammatiken

Markov-Ketten Proseminar: Das virtuelle Labor Ariane Wietschke

Zusammenfassung Tutorien der Woche ALDABI

Maschinelle Sprachverarbeitung: N-Gramm-Modelle

Spracherkennung. Gliederung:

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Hidden Markov Models Erläuterung der Bestimmung der Wahrscheinlichkeit einer Beobachtung

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Automatische Spracherkennung

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Angewandte Stochastik

Endliche Markov-Ketten - eine Übersicht

DynaTraffic Lösungen Einstiegsaufgaben

Bedingt unabhängige Zufallsvariablen

Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16

TreeTagger. Deborah Watty

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Spracherkennung und Sprachsynthese

Sprachdialogsystem mit robuster automatischer Spracherkennung

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008

Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.

Einführung in die Maximum Likelihood Methodik

2. Entsprechende Listen P i von Vorgängern von i 3. for i := 1 to n do. (ii) S i = Knoten 2 + 1}

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung

Automatische Spracherkennung

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank

Tagging mit Hidden Markov Models und Viterbi-Algorithmus

Algorithmen und Datenstrukturen in der Bioinformatik Zweites Übungsblatt WS 05/06 Musterlösung

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung

Markov Ketten und Bonus Malus Systeme

Automatische Spracherkennung

Welf Walter

Matrizen. Nicht nur eine Matrix, sondern viele 0,5 0,2 0,3 A 0,2 0,7 0,1

Statistik II SoSe 2006 immer von 8:00-9:30 Uhr

Spracherkennung Hauptseminar Interaktion von Mensch und Roboter

Informatik II, SS 2016

Vorlesung: Statistik II für Wirtschaftswissenschaft

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Algorithmen und Datenstrukturen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Kapitel 5 Erneuerungs- und Semi-Markov-Prozesse

Der VITERBI-Algorithmus

3. Das Reinforcement Lernproblem

Algorithmen und Datenstrukturen

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Planung von Handlungen bei unsicherer Information

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

W-Rechnung und Statistik für Ingenieure Übung 11

Transkript:

Hidden Markov Modelle (Vorabversion begleitend zur Vorlesung Spracherkennung und integrierte Dialogsysteme am Lehrstuhl Medieninformatik am Inst. f. Informatik der LMU München, Sommer 2005) Prof. Marcus Spies, LMU München Diese Folien wurden vom Autor zur Einführung in das Thema 1994 verfaßt in der... Abteilung Spracherkennung IBM Deutschland Informationssysteme GmbH Wissenschaftliches Zentrum Vangerowstr. 18 69115 Heidelberg Geringfügige Korrekturen und Aktualisierungen wurden vorgenommen. Warum Hidden Markov Modelle? (1) Hidden Markov Modelle Marcus Spies 1

Erkennung: Rückschluß von beobachteter auf latente Folge (Akustik! Phonetik) Hidden Markov Modelle Marcus Spies 2 klassisches Markov-Modell: Zustände mit Übergängen, Anfangsverteilung der Zustände wird durch einen Wahrscheinlichkeitsvektor gegeben. Übergänge werden durch Übergangsmatrix bedingter Wahrscheinlichkeiten definiert, dabei üblicherweise (!) schwaches Gedächtnis : nur der vorausgegangene Zustand beeinflußt die Wahrscheinlichkeit des aktuellen Zustandes (Themen dabei: Stationarität, absorbierende Zustände, Ergodizität...) Hidden Markov Modelle Marcus Spies 3

Warum Hidden Markov Modelle? (2) Schematische Modellierung von Phonemen: Hidden Markov Modelle Marcus Spies 4 (in diesem Bild werden Verweil-Transitions nicht dargestellt.) Hidden Markov Modelle Marcus Spies 5

Grundansatz Zu modellieren ist ein Segment akustischer Daten: Unit. Dieses Segment besteht aus mehreren akustisch zusammenhängenden Ereignissen, kleinsten akustischen Einheiten. Jeder kleinsten akustischen Einheit (KAE) entspricht ein Zustand im HMM. Kleinste akustische Einheiten unterliegen statistischen Schwankungen, die durch Emissionswahrscheinlichkeiten des jwlg. Zustands modelliert werden. Die Verweildauer bei einer KAE wird durch eine Schleife im HMM für einen Knoten mit dem jeweiligen Hidden Markov Modelle Marcus Spies 6 Zustand modelliert dies entspricht einem Übergang von einem Knoten zu sich selbst. Die möglichen Übergänge von einer KAE zu einer oder mehreren weiteren KAE werden durch weitere Übergangswahrscheinlichkeiten modelliert. Wegen der zeitlichen Eigenschaften des Sprachsignals machen i.a. rückwärtige Übergänge von KAE zu einer bereits besuchten KAE keinen Sinn. (left-toright HMM) Hidden Markov Modelle Marcus Spies 7

Units können sein: Worte, Phoneme, Senone. Für ASR-Anwendungen mit kleinen Vokabularen können Wortmodelle sinnvoll sein (Bsp. Kommandos, Ziffern...). Für ASR-Anwendungen mit großen Vokabularen müssen möglichst kleine wortunabhängige akustische Einheiten modelliert werden, daher hier eher Senon- Modellierung. Ein Senon ist eine kleinste akustische Einheit, die sich als Blatt eines Entscheidungsbaums für Aussprachenmodellierung bilden läßt. Senone repräsentieren i.a. akustisch homogene Einheiten. Hidden Markov Modelle Marcus Spies 8 HMMs für Senone enthalten nur Schleifen und einfache Vorwärtsübergänge (d.h., Verzweigung nur bzgl. Verweilen / Verlassen je einer KAE). Senone enthalten nur genau eine KAE, es gibt in einem entspr. HMM lediglich eine Schleife f. Modellierung der Verweilwahrscheinlichkeit). Ein Senon kann unmittelbar gegen Merkmalsvektoren aus akustischen Daten gematcht werden. HMMs für Units können zu größeren HMMs aggregiert werden. Hidden Markov Modelle Marcus Spies 9

Hidden Markov Modelle: Analysen drei Fragen: 1. Evaluation: Wahrscheinlichkeit einer beobachteten Sequenz Ermittlung von deren Likelihood 2. Decoding: Ermittlung der besten latenten Sequenz anhand einer beobachteten Sequenz 3. Learning: Schätzung der Modellparameter anhand von Trainingssequenzen Hidden Markov Modelle Marcus Spies 10 Hidden Markov Modelle:Grundbegriffe(1) S : Menge von Zuständen (states) s " S : einzelner Zustand 1...,t,...T : Zeitpunkte (diskret) O : Folge beobachteter outputs (Observations) (z.b. O t : output zum Zeitpunkt t) ; o bezeichnet einen Output. Hidden Markov Modelle Marcus Spies 11

Hidden Markov Modelle:Grundbegriffe(2) b s (s " S): Ausgabewahrscheinlichkeit im Zustand s. Hier speziell : b s (o) : Wahrscheinlichkeit im Zustand s output o zu generieren. (Emissionswahrscheinlichkeit; hier zunächst diskret) a 0 Vektor von Anfangswahrscheinlichkeiten z.b. : a 0 s : Anfangswahrscheinlichkeit für Zustand s " S. Hidden Markov Modelle Marcus Spies 12 (Dieser Vektor wird überflüssig, wenn man einen speziellen Startzustand annimmt, der von allen übrigen Zuständen aus mit Wahrscheinlichkeit 0 erreicht wird.) a s s 1 2 Wahrscheinlichkeit vom Zustand s 1 in Zustand s 2 zu wechseln: Übergangswahrscheinlichkeit. Hidden Markov Modelle Marcus Spies 13

Hidden Markov Modelle:Grundbegriffe(3) Übergangsmatrix : (stochastische Matrix) Einträge a s s 1 2 jeweils!0 und " 1. Zeilensumme jeweils 1. Vorgänger "Anfang" 1.. s1. sn Nachfolger 1... s2... sn...... a...... s1s2 Hidden Markov Modelle Marcus Spies 14 Hidden Markov Modelle:Grundbegriffe(4)! Parameter, die die Wahrscheinlichkeiten steuern P! ( O) Wahrscheinlichkeit, die Folge O zu beobachten, wenn! alle Parameter steuert. [ alternativ : P(O!)] Einfaches Beispiel: a 0 [Kompliziertes Beispiel :! ' 1$ # & = ' 2 # & "' % 3!' 11.. # A =.. # ". ' 33 $ & & % Hidden Markov Modelle Marcus Spies 15

z.b. Binomial/Multinomialverteilunng] Hidden Markov Modelle Marcus Spies 16 Wahrscheinlichkeit einer Beobachtungsfolge (1) 1.Frage : Wie groß ist P! ( O) für bestimmtes O? (entspricht P ("akust. Kette" Wortmodell ) Bayesschen Klassifikator) Antwort: " " im Sei S die Menge aller T-langen Pfade mit Zuständen aus S. Bsp: T = 3, S = 3. Dann allgemein S = S T Hidden Markov Modelle Marcus Spies 17

s1 s2 s3 t1 s1 s2 s3 t2 s1 s2 s3 t3 Hidden Markov Modelle Marcus Spies 18 Unterscheidung diskrete kontinuierliche HMM je nach Emissionswahrscheinlichkeiten folgende Darstellungen beziehen sich zunächst auf diskrete HMM; O t bezeichnet das im Zeitpunkt t beobachtete (observed) Symbol im kontinuierlichen Fall bezeichnet O t den in t beobachteten Merkmalsvektor Hidden Markov Modelle Marcus Spies 19

Wahrscheinlichkeit einer Beobachtungsfolge (2) P " ( O) = P " ( O,s) = P " ( O s)p " ( s) $ s#s s : ein Pfad über T Zeitpunkte intuitiv: $ s#s Summe über alle möglichen Pfade: (Wahrscheinlichkeit des Pfades und der beobachteten Folge) Hidden Markov Modelle Marcus Spies 20 (bedingte Wahrscheinlichkeit der Folge gegeben Pfad * Wahrscheinlichkeit des Pfades) Hidden Markov Modelle Marcus Spies 21

Wahrscheinlichkeit einer Beobachtungsfolge (3) P ( O s) b ( O )! = " s t t T t= 1 Produkt über alle Zeitpunkte : Ausgabewahrscheinlichkeit beim Pfadelement s t des Symbols O t. ( ) P! s = a0 " a t # T $ s s st t= 1 1 1 Produkt : Anfangswert des ersten Zustandes * alle Übergangswerte der Hidden Markov Modelle Marcus Spies 22 nachfolgend aufeinanderfolgenden Zustände im Pfad S. Hidden Markov Modelle Marcus Spies 23

Wahrscheinlichkeit einer Beobachtungsfolge (4) Ergebnis: T & 0s s 1 % s s s t s$ S t= 2 ( ) ( ) ( ) P! O = a " b O a b O 1 1 t # 1 t t praktisch unbrauchbar (Komplexität in der Größenordnung O( S T ) Vereinfachung : Forward/Backward Algorithmus. Hidden Markov Modelle Marcus Spies 24 "Forward-Variable": Wahrscheinlichkeit der beobachteten Folge O 1 bis O t und Zustand s t zum Zeitpunkt t. Hidden Markov Modelle Marcus Spies 25

Wahrscheinlichkeit einer Beobachtungsfolge (5) ( s) = P ( O O s = s)! t " t t 1..., r t-1 s t t Diese Variable ist rekursiv zu berechnen. Hidden Markov Modelle Marcus Spies 26 ( ) = ( " t #1 r " t s & ( ' % r$ S ) ( )a rs + * b O s t ( ) Rekursion " 1 ( s i ) = a 0si b si ( O 1 ) Wahrscheinlichkeit, zum ersten Zeitpunkt Zustand s i zu haben und Symbol O 1 auszugeben. Komplexität in der Größenordnung O( S 2 T) Hidden Markov Modelle Marcus Spies 27

Wahrscheinlichkeit einer Beobachtungsfolge (6) Hidden Markov Modelle Marcus Spies 28 Wahrscheinlichkeit einer Beobachtungsfolge (7) Folgerung: " T ( s) $ = $ P " O 1,...,O T,s T = s s#s alle Zustände s#s ( ) ( ) = P " ( O) = P " O 1,...,O T Gesamtwahrscheinlichkeit beobachtete Folge = Summe der Forward- Variablen zum letzten Beobachtungszeitpunkt. => erhebliche Vereinfachung der Berechnung. Hidden Markov Modelle Marcus Spies 29

Ermittlung des besten verborgenen Pfades (1) 2. Frage : Gegeben eine beobachtete Folge und ein Modell, welches ist der wahrscheinlichste verborgene Pfad? Antwort : Beispiel : Viterbi-Alignment 2 Zustände Hidden Markov Modelle Marcus Spies 30 Ermittlung des besten verborgenen Pfades (2) t 2 bester Pfad muß durch s 1 oder s 2 gehen. wenn durch s 1, dann ist s s 1 1 das optimale Anfangsstück, wenn durch s 2, dann ist s s 2 2 das optimale Anfangsstück => Für jeden Zeitpunkt t ist das Anfangsstück des insgesamt besten Pfades einer der bis t besten Teilpfade für jeden Zustand s! S. Hidden Markov Modelle Marcus Spies 31

Ermittlung des besten verborgenen Pfades (3) Wenn s_1 der beste Vorgänger von s_1 ist, dann gilt hier ( ) = a 0s1 b s1 O 1 " 2 s 1 ( )a Hidden Markov Modelle Marcus Spies 32 Wahrscheinlichkeit des Pfades und der Ausgaben bis t=2. Hidden Markov Modelle Marcus Spies 33

Ermittlung des besten verborgenen Pfades (4) Viterbi Alignment Idee: Unter den zu einem Zeitpunkt für jeden Zustand besten Pfaden muß das Anfangsstück des insgesamt besten Pfades sein. Hidden Markov Modelle Marcus Spies 34 Die Viterbi-Aufreihung (1) Algorithmus: (Notation S =N : Es gibt N Zustände) Schritt 1 : " 1 ( s i ) = a 0si b si ( O 1 ) [ ist dasselbe wie " 1 ( s i ) ] ("Ertrag" für den Pfad) " 1 ( s i ) = 0 (bestmögliche Vorgänger speichern) Hidden Markov Modelle Marcus Spies 35

Die Viterbi-Aufreihung (2) Schritt 2 : Rekursion über Zeitpunkte und Zustände " t ( s j ) = max( # s t$1( i)a si s j ) % b s j O t s i #S s i "S ( ) bestmöglicher Übergang (maximaler Ertrag für von t!1 nach t zu s j s j + Übergang zu s i mal Ausgabewahrscheinlichkeit O t in s j ; entspricht Variable V bei Huang et al., Kap. 8) " t ( s j ) = argmax( $ t %1 ( s i )a si s j ) "dasjenige s i, für das (...) am größten wird" Hidden Markov Modelle Marcus Spies 36 Hidden Markov Modelle Marcus Spies 37

Die Viterbi-Aufreihung (3) Schritt 3 : Beendigung t=t : P * = max s i " S # t I T * = argmax s i "S ( ) s i (# t ( s i )) I T * P * : : der Endpunkt(-zustand) des besten Pfades die Pfadwahrscheinlichkeit Hidden Markov Modelle Marcus Spies 38 Die Viterbi-Aufreihung (4) Schritt 4 : Rückverfolgung des besten Pfades : für t=t-1 bis 1 : I * * t = " t +1 ( I t +1 ) Zustand des besten Pfades in t Hidden Markov Modelle Marcus Spies 39

Schätzung der Modellparameter (1) 3. Frage : Gegeben beobachtete Folge, wie können die Parameter gesetzt werden, um diese Folge maximal wahrscheinlich zu machen? Problem: Wir beobachten Output-Sequenzen := unvollständige Daten (da wir den erzeugenden verborgenen Pfad nicht kennen). Um die Parameter der Übergangs- und Ausgabe-Wahrscheinlichkeiten zu schätzen, müssen wir auf die plausibelsten vollständigen Daten (Output-Sequenzen bezogen auf verborgene Pfade) zurück schließen. Lösungsansatz: EM-Algorithmus (Dempster, A., Laird, N., Rubin, D. (1977): Maximum Likelihood from Hidden Markov Modelle Marcus Spies 40 Incomplete Data via the EM Algorithm. J. Roy. Stat. Soc., B, 39, pp. 1-38.): Wir beobachten unvollständige Daten und schätzen die Wahrscheinlichkeiten vollständiger Daten (Erwartungswertbildung vollständiger Daten). Dann ändern wir die Parameter des HMM so ab, daß diese Erwartungswerte maximal wahrscheinlich werden (M-aximierung). In der Praxis wird diese Maximierung bereits bei der maximum-likelihood Schätzung der vollständigen Daten erreicht. Daß dies so ist, weist Jelinek, Kapitel 9 nach. Hidden Markov Modelle Marcus Spies 41

Bei HMM mit kontinuierlichen Outputs (ASR: Konvexkombinationen von Normalverteilungen) werden entsprechend die Parameter der Normalverteilungen und die Mischungskoeffizienten geschätzt (s. Huang et al., Kap. 8.3). Umsetzung EM für HMM setzt 3 Definitionen voraus. 1. "backward-variable"(rückwärts die Kette verfolgend) ( ) = P # O t +1...O T s t = s i ( ) =1 für alle s $ S " t s i " T s (Folgerung : ( ) P " ( O,s t = s) = # t ( s)$ t ( s) = P " ( O 1...O t,s t = s)p " ( O t +1...O T s t = s) ) Hidden Markov Modelle Marcus Spies 42 Schätzung der Modellparameter (2) 2. " t ( s) = P # ( s t = so) = P # ( s t = s,o) /P # ( O) [ Wahrscheinlichkeit, zum Zeitpunkt t in s zu sein, gegeben beobachtete Folge ] Summe T! t( s) " t( s) = P ( O) # #" t ( s) gibt an, mit welcher Wahrscheinlichkeit t=1 Zustand s insgesamt angenommen wird. Hidden Markov Modelle Marcus Spies 43

Dies ist gerade die gesuchte Schätzung für die Wahrscheinlichkeiten der nicht beobachteten latenten Zustände des HMM. Hidden Markov Modelle Marcus Spies 44 Schätzung der Modellparameter (3) ( ) 3. " t ( r,s) = P # s t = r,s t +1 = so [ Wahrscheinlichkeit, von t nach t+1 den Übergang vom Zustand r in den Zustand s zu machen (gegebene Beobachtungen) ] ( ) /P " ( O) ( ) /P " ( O) = P " s t = r,s t +1 = s,o = # t ( r)a rs b s ( O t +1 )$ t +1 s Hidden Markov Modelle Marcus Spies 45

Dies is t g er ade die gesuchte Schätzung für die Wahrscheinlichkeiten der nicht beobachteten Übergänge zwischen latenten Zuständen des HMM. Hidden Markov Modelle Marcus Spies 46 Schätzung der Modellparameter (4) Ausführliche Herleitung: Hidden Markov Modelle Marcus Spies 47

P " ( s t = r,s t +1 = s,o) /P " ( O) = P " ( O 1...O t,s = r)p " s t +1 = s s t = r P " O t +1...O T s t +1 = s Nun ist ( ) ( ) /P " O P " O t +1...O T s t +1 = s ( ) ( ) = P " O t +1 s t +1 = s Also ist P " ( s t = r,s t +1 = s,o) /P " (O) = # t ( r)a rs b s ( O t +1 )$ t +1 s ( ) /P " ( O) ( )P " O t +2...O T s t +1 = s ( ) Hidden Markov Modelle Marcus Spies 48 Schätzung der Modellparameter (5) Überlegung : Wenn Parameter so abgeändert werden, daß die angenommenen Wahrscheinlichkeiten für Zustände bzw. Übergänge den beobachteten Häufigkeiten entsprechen, dann muß sich die Wahrscheinlichkeit P (! O) vergrößern, für neues #" : P # ' O ( ) $ P # ( O). Umsetzung : ("Baum / Welch reestimates") a " 0si = # 1 s i ( ) (neue Anfangswahrscheinlichkeit für s i := Wahrscheinlichkeit unter O mit s i einen Pfad zu beginnen). Hidden Markov Modelle Marcus Spies 49

Schätzung der Modellparameter (6) a " rs = # t r,s " b s o T &1 % t=1 T &1 %% ( ) / # t ( r, s ") t=1 s " $S (neue Übergangswerte für r! s ist relative geschätzte Häufigkeit des Übergangs r! s bezogen auf alle anderen s'.) $ / $ # t s ( ) = # t ( s) t:o t = o T t=1 ( ) (neue Emissionswahrscheinlichkeiten: relative geschätzte Häufigkeit der Ausgabe o über alle Pfade zu allen Zeitpunkten.) Hidden Markov Modelle Marcus Spies 50 Ein Beispiel (1) Hidden Markov Modelle Marcus Spies 51

Ein Beispiel (2) Beobachtung: E S E. 1. Wie wahrscheinlich ist " E S E "? t 1 t 2 t 3 E S E Hidden Markov Modelle Marcus Spies 52 + = P " ( O) Hidden Markov Modelle Marcus Spies 53

Hidden Markov Modelle Marcus Spies 54 Ein Beispiel (3) t 1 t 2 t 3 E S E A " 1 ( A) =.15 ( ) =.32 *.7 =.224 ( ) = B " 2 A # 2 A.0896 *.3 =.02688 ( ) = A " 3 A Hidden Markov Modelle Marcus Spies 55

B " 1 ( B) =.4 ( ) =.09*.2 =.018 ( ) = A " 2 B # 2 B 0.1344 *.8 =.10752 ( ) = A " 3 B Hidden Markov Modelle Marcus Spies 56 Ein Beispiel (4) Wahrscheinlichstes Pfadende : B mit P T * =. 10752 (das sind mehr als 60% der Gesamtwahrscheinlichkeit dieser Beobachtungsfolge) Backtracking: I * 3 = B,I * 2 = " 3 ( B) = A,I * 1 = " 2 ( A) = B bester Pfad : B A B. Hidden Markov Modelle Marcus Spies 57

Ausblick: Von latenten Pfaden zu latenten Strukturen Stochastische kontextfreie Grammatiken : Hidden Markov Modelle Marcus Spies 58 Hidden Markov Modelle Marcus Spies 59