Hidden-Markov-Modelle als Gewichtete Endliche Automaten
|
|
- Klaudia Küchler
- vor 5 Jahren
- Abrufe
Transkript
1 Hidden-Markov-Modelle als Gewichtete Endliche Automaten Alexander Becker Georg Jähnig 19. Mai 2008 Hauptseminar Theorie semiringgewichteter Automaten Thomas Hanneforth, Kay Würzner Institut für Linguistik Universität Potsdam Zusammenfassung Hidden-Markov-Modelle sind verbreitete stochastische Modelle, die Zufallsprozesse beschreiben. Sie verwenden dazu eigene Algorithmen wie den Forward- und den Viterbi-Algorithmus. Wir dokumentieren, wie Hidden-Markov-Modelle in Gewichtete Endliche Automaten und Transduktoren umgewandelt und wie Forwardund Viterbi-Algorithmus als Semiring dargestellt werden können. Abschließend betrachten wir einzelne nützliche Eigenschaften Gewichteter Endlicher Automaten: deren Determinisierbarkeit, die ɛ-entfernung und das Produkt zweier Automaten. 1
2 Inhaltsverzeichnis 1 Hidden-Markov-Modelle Einführung Ein Beispiel Definition Forward-Algorithmus Aufgabenstellung Formel Algorithmus Backward-Algorithmus Viterbi-Algorithmus Aufgabenstellung Formel Algorithmus Hidden-Markov-Modelle als Gewichtete Endliche Automaten und Transduktoren Gewichtete Endliche Automaten und Transduktoren Definition Semiring Automat für Forward-Algorithmus Umwandlung Semiring Transduktor für Viterbi-Algorithmus
3 2.3.1 Umwandlung Semiring Rechnen mit Automaten Forward-Algorithmus Viterbi-Algorithmus Eigenschaften Gewichteter Endlicher Automaten und Transduktoren Vorteile gegenüber Hidden-Markov-Modellen Determinisierbarkeit ɛ-entfernung Problemstellung Aufbau Nur ein Startzustand Entfernung der ɛ-schleifen Entfernung der restlichen ɛ-übergänge Schnitt und Komposition Grundlegendes Verfahren Idempotente Semiringe Nicht-idempotente Semiringe Schluss 26 Literatur 26 3
4 1 Hidden-Markov-Modelle 1.1 Einführung Hidden-Markov-Modelle (HMMs) sind statistische Modelle, die eine Wahrscheinlichkeitsverteilung über eine Ereignisabfolge generieren / beschreiben. Das Besondere dabei ist, dass die Ursachen für die Beobachtung der Ereignisabfolgen nicht einzusehen sind, sondern verborgen operieren (daher hidden). 1.2 Ein Beispiel Wir nehmen eine Person an, an dessen Wohnort entweder die Sonne scheint (sunny) oder es regnet (rainy). Von diesen Wetterzuständen abhängig geht die Person ihren Aktivitäten nach, entweder geht sie spazieren (walk), einkaufen (shop) oder sie putzt die Wohnung (clean). So geht sie z.b. bei Sonnenschein mit einer Wahrscheinlichkeit von 0.6 spazieren, bei Regen wird sie mit einer Wahrscheinlichkeit von 0.5 putzen. Auch das Wetter ändert sich in Abhängigkeit zum Wetter des Vortages: Wenn es 4
5 z.b. heute regnet, wird es auch morgen mit einer Wahrscheinlichkeit von 0.7 regnen. Schließlich wissen wir noch wie das Wetter am ersten Tag war: Mit 0.6 Wahrscheinlichkeit hat es geregnet, mit 0.4 schien die Sonne. [2] 1.3 Definition Das HMM unseres Beispiels ist so definiert: HMM = (Q, Σ, I, T, E) Q = {rainy, sunny} Σ = {walk, shop, clean} I = {rainy 0.6, sunny 0.4} T = {(rainy, rainy) 0.7,...} E = {(rainy, walk) 0.1,...} Zustände Ausgabe-Alphabet Anfangs-Wahrscheinlichkeiten Übergangs-Wahrscheinlichkeiten Emissions-Wahrscheinlichkeiten Allgemein lassen sich HMMs so definieren: HMM = (Q, Σ, I, T, E) Q = {q 0, q 1,...} Σ = {a 1, a 2,...} I = Q R + T = Q Q R + E = Q Σ R Forward-Algorithmus Aufgabenstellung Wir haben erfahren, dass die Person vorgestern spazieren und gestern einkaufen war. Wir wollen wissen, wie wahrscheinlich diese Abfolge von Tätigkeiten war. Das berechnet uns der Forward-Algorithmus. 5
6 Unsere Beobachtung O ist also eine Abfolge von Emissionen: O = walk, shop O = o 1,..., o O in unserem Beispiel allgemein Diese Beobachtung kann durch 4 mögliche Wetter-Abfolgen generiert worden sein: entweder es hat an beiden Tagen geregnet oder an beiden die Sonne geschienen, oder jeweils abwechselnd. Es gibt also 4 verschiedene Pfade: θ(walk, shop) = {(rainy walk, rainy shop), (sunny walk, sunny shop), (rainy walk, sunny shop), (sunny walk, rainy shop)} Die Pfade kann man auch als Gitter (Trellis) darstellen: Formel Die Wahrscheinlichkeit unserer Beobachtung ist nun die Summe der Wahrscheinlichkeiten aller Pfade, die diese Beobachtung generiert haben: P (O) = (q 1...q O ) θ(o 1...o O ) O I(q 1 ) E(q 1, o 1 ) T (q i 1, q i ) E(q i, o i ) i= Algorithmus Theoretisch müssten wir also die Wahrscheinlichkeiten aller 4 Pfade berechnen und dann addieren. Wenn wir aber im Gitter die Pfade (rainy 6
7 walk, rainy shop) und (rainy walk, sunny shop) betrachten, dann erkennen wir, dass der erste Teil des Pfades bis rainy walk gleich ist. Genau das nutzt der Forward-Algorithmus aus. Der Forward-Algorithmus geht im Gitter alle Pfade gleichzeitig entlang und merkt sich dabei immer für jede Position im Gitter die Wahrscheinlichkeit in der Variable α. Beim nächsten Schritt greift er dann nur auf die Vorgängerα s zurück. Der Algorithmus besteht aus 3 Teilen: α q (1) = I(q) E(q, o 1 ) q Q Initialisierung α q (i) = q Q α q (i 1) T (q, q) E(q, o i ) q Q Induktion P (O) = q Q α q ( O ) Gesamt In unserem Beispiel berechnen wir also im ersten Schritt die Wahrscheinlichkeiten von rainy walk und sunny walk und speichern sie in α rainy (1) und α sunny (1). Im zweiten Schritt nutzen wir zur Berechnung von rainy shop und sunny shop die zuvor berechneten α s. Schließlich addieren wir alle α s der letzten Beobachtung Backward-Algorithmus Eine Abwandlung des Forward-Algorithmus ist der Backward-Algorithmus. Er unterscheidet sich nur darin, dass er nicht von der ersten zur letzten Beobachtung, sondern von der letzten zur ersten Beobachtung berechnet wird: β q ( O ) = 1 q Q Initialisierung β q (i) = q Q β q (i + 1) T (q, q ) E(q, o i ) q Q Induktion P (O) = q Q β q (1) I(q) Gesamt Der Backward-Algorithmus wird beim Baum-Welch-Verfahren benötigt, einem Trainingsverfahren für Hidden-Markov-Modelle. 7
8 1.5 Viterbi-Algorithmus Aufgabenstellung Wir wissen immer noch, dass die Person vorgestern spazieren und gestern einkaufen war. Nun wollen wissen, was das wahrscheinlichste Wetter an diesen zwei Tagen war. Das berechnet uns der Viterbi-Algorithmus Formel Die wahrscheinlichste Abfolge von Wetter-Zuständen unserer Beobachtung ist nun der Pfad mit der höchsten Wahrscheinlichkeit, der unsere Beobachtung generiert hat: θ best (o 1... o O ) = max I(q 1 ) E(q 1, o 1 ) (q 1...q O ) θ(o 1...o O ) O T (q i 1, q i ) E(q i, o i ) i= Algorithmus Der Viterbi-Algorithmus arbeitet nun sehr ähnlich wie der Forward-Algorithmus: Statt die Summe aller bisherigen Pfade zu speichern, merkt er sich die Wahrscheinlichkeit des wahrscheinlichsten Pfades in δ. Zudem speichert er die Zustände dieses Pfades in ψ, um sie nachher wie in der Aufgabenstellung gewünscht auch ausgeben zu können. δ q (1) = I(q) E(q, o 1 ) δ q (i) = max q Q δ q (i 1) T (q, q) E(q, o i ) ψ q (i) = arg max q Q δ q (i 1) T (q, q) E(q, o i ) P (θ best (o 1... o O )) = max q Q δ q( O ) θ best (o 1... o O ) = arg max q Q ψ q(1)... arg max q Q ψ q( O ) 8 q Q Initialisierung q Q q Q Induktion Gesamt
9 2 Hidden-Markov-Modelle als Gewichtete Endliche Automaten und Transduktoren 2.1 Gewichtete Endliche Automaten und Transduktoren Definition Gewichtete Endliche Automaten (Weighted Finite State Automata, WFSA) beschreiben ähnlich wie Endliche Automaten eine Sprache bestehend aus einer Menge von Wörtern, nur dass sie jedem Wort der Sprache auch ein Gewicht zuordnen. Transduktoren (Weighted Finite State Transducer, WFST) können darüberhinaus jedes Wort (Eingabe) in eines oder mehrere andere Wörter (Ausgabe) umwandeln. [4] WFSA = (Q A, Σ A, δ A, I A, P A, F A ) WFST = (Q A, Σ A, A, δ A, I A, P A, F A ) Wir definieren als Beispiel einen Transduktor, der die Sprache bestehend aus dem Wort ab erkennt, ihm das Gewicht 1 zuordnet und es in ce und de umwandelt. 9
10 Q A = {q 0, q 1, q 2 } Zustände Σ A = {a, b} Eingaben A = {c, d, e} Ausgaben δ A = {(q 0, a, c, q 1 ), (q 0, a, d, q 1 ), (q 1, b, e, q 2 )} Übergänge I A (q 0 ) = 1 I A (q 1 ) = 0 I A (q 2 ) = 0 Anfangsgewichte P A (q 0, a, c, q 1 ) = 0.6 P A (q 0, a, d, q 1 ) = 0.4 P A (q 1, b, e, q 2 ) = 1 Übergangsgewichte F A (q 0 ) = 0 F A (q 1 ) = 0 F A (q 2 ) = 1 Endgewichte Semiring Um das Gewicht Ω zuzuordnen, müssen wir eine Berechnungsvorschrift definieren. Das geschieht mit einem Semiring K: K = (R, +,, 0, 1) K = (W,,, 0, 1) in unserem Beispiel allgemein W ist hierbei die Trägermenge, deren Elemente wir den Eingaben zuordnen. ist die Funktion, die entlang eines Pfades auf die Werte der Trägermenge angewandt wird. ist die Funktion, die bei mehreren möglichen Pfaden auf die jeweiligen Werte eines Pfades angewandt wird. 0 ist das neutrale Element zu, 1 zu. In unserem Beispiel können wir in einem Pfad ab in ce und in einem anderen in de umwandeln. Beide Pfade berechnen sich mit ihren Anfangs-, Übergangs- 10
11 und Endgewichten: Ω 1 (ab) = = 0.6 Ω 2 (ab) = = 0.4 Für das Gesamtgewicht addieren wir nun beide Pfadgewichte: Ω(ab) = = 1 Allgemein beschreibt das diese Formel: Ω(x) = x I A (q 0 ) F A (q x ) P A (q i 1, q i ) (q 0...q x ) θ(x 1...x x ) i=1 2.2 Automat für Forward-Algorithmus Umwandlung Wir können nun das Hidden-Markov-Modell auch als einen Gewichteten Endlichen Automaten bzw. Transduktor repräsentieren. [7] Möchten wir nur den Forward-Algorithmus implementieren, so genügt ein Automat: HMM = (Q, Σ, I, T, E) WFSA = (Q A, Σ A, δ A, I A, P A, F A ) Q A = Q {q 0 } Σ A = Σ δ A = {(q 0, a, q) : I(q) 0 E(q, a) 0} δ A = {(q, a, q) : T (q, q) 0 E(q, a) 0} I A (q 0 ) = 1 I A (q) = 0 P A (q 0, a, q) = I(q) E(q, a) P A (q, a, q) = T (q, q) E(q, a) F A (q 0 ) = 0 F A (q) = 1 q, Q q, q Q q Q q Q q, q Q q Q 11
12 Das HMM emittiert an seinen Zuständen. Wird nur ein Zustand berührt, wird auch genau eine Emission ausgegeben. Unser Automat dagegen ist ein Mealy-Automat und emittiert (bzw. liest Eingaben) nur an Übergängen. Um also eine Eingabe zu lesen, müssen zwei Zustände durchlaufen werden. Deshalb führen wir einen neuen Anfangszustand q 0 ein, der Übergänge zu allen HMM-Zuständen erhält, deren Anfangswahrscheinlichkeit größer 0 ist. Die Übergangswahrscheinlichkeit dieser neuen Übergänge ist gleich der Anfangswahrscheinlichkeit des jeweiligen HMM-Zustandes gesetzt. Bei einem Moore-Automaten wäre die Einführung dieses gesonderten Startzustandes nicht notwendig. WFSA HMM 12
13 So sieht der Gewichtete Endliche Automat für unser Beispiel aus Semiring Der Forward-Algorithmus berechnet die Wahrscheinlichkeit einer Beobachtung. Um dies in einem Gewichteten Endlichen Automaten zu berechnen, benötigen wir den probabilistischen Semiring: K = (R, +,, 0, 1) Um bei der Berechnung zu kleine, mit Computern schwer zu rechnende Zahlenwerte zu vermeiden, kann auch der äquivalente log-semiring verwendet werden: K = (R, log, +,, 0) x log y log e (e x + e y ) 2.3 Transduktor für Viterbi-Algorithmus Umwandlung Für den Viterbi-Algorithmus benötigen wir einen Transduktor, schließlich wollen wir nicht nur einen Zahlenwert, sondern auch den besten Pfad über die durchlaufenen Zustände erhalten. Unser Transduktor gleicht dem Automaten, nur dass er ein Ausgabealphabet A bestehend aus den Zuständen 13
14 Q dazu erhält. HMM = (Q, Σ, I, T, E) WFST = (Q A, Σ A, A, δ A, I A, P A, F A ) Q A = Q {q 0 } Σ A = Σ A = Q I A (q 0 ) = 1 I A (q) = 0 δ A = {(q 0, a, q, q) : I(q) 0 E(q, a) 0} δ A = {(q, a, q, q) : T (q, q) 0 E(q, a) 0} F A (q 0 ) = 0 F A (q) = 1 P A (q 0, a, q, q) = I(q) E(q, a) P A (q, a, q, q) = T (q, q) E(q, a) q Q q, Q q, q Q q Q q Q q, q Q Semiring Der Viterbi-Algorithmus berechnet den wahrscheinlichsten Pfad, der eine Beobachtung generiert hat. Um dies in einem Gewichteten Endlichen Transduktor zu berechnen, benötigen wir eine Abwandlung des tropischen Semirings auch Viterbi-Semiring genannt: K = (R, max,, 0, 1) 3 Rechnen mit Automaten 3.1 Forward-Algorithmus Um nun mit dem erstellten Gewichteten Endlichen Automaten bzw. Transduktor eine der Aufgabenstellungen aus Abschnitt 1 zu berechnen, muss die jeweilige Beobachtung ebenfalls als Automat vorliegen. Das Gewicht dieser 14
15 Eingabe muss gleich dem neutralen Element der -Operation, also 1 sein. Bei unseren Semiringen ist dies ein Gewicht von 1. Nehmen wir wieder unsere Beispiel-Beobachtung aus Abschnitt 1. Unsere Person war gestern spazieren und heute einkaufen: WFSA Eingabe Beim Forward-Algorithmus wollen wir die Wahrscheinlichkeit für diese Beobachtung erhalten. Wir schneiden dazu diesen Eingabeautomaten mit dem zuvor erstellten WFSA unseres Hidden-Markov-Modells und erhalten einen Automaten, der die Wahrscheinlichkeiten für die einzelnen Ereignisse repräsentiert: WFSA Eingabe WFSA HMM Dass die Schnitt-Operation hier angewandt werden kann, verdanken wir der Tatsache, dass WFSA HMM zyklisch ist, vollständig ist, keine Produktionen mit einer Wahrscheinlichkeit von 0 besitzt (falls doch gilt die Produktion als nicht konnex) und alle Zustände bis auf den ersten Zustand Endzustände sind. 15
16 Der Schnitt ist leer, wenn eine Produktion aus WFSA Eingabe nicht in WFSA HMM verfügbar ist, oder deren Wahrscheinlichkeit 0 ist. Dieses Ergebnis ist derart zu deuten, dass das angefragte Ereignis eine Wahrscheinlichkeit von 0 hat. Der Schnitt WFSA Eingabe WFSA HMM ist aber immer noch nicht das, was gesucht ist. Denn statt eines gewichteter endlichen Automaten brauchen wir eine Zahl, nämlich die Wahrscheinlichkeit der Ereignisabfolge. Es gibt mindestens zwei Möglichkeiten, um diese aus dem Automaten W F SA Eingabe W F SA HMM zu errechnen: 1. Wir wenden eine Gewichtsfunktion auf den Automaten an, die das Sprachgewicht des Automaten berechnet, was im Falle des durch Schnitt gewonnenen Automaten der Wahrscheinlichkeit der Ereignisabfolge entspricht, da nur diese Abfolge enthalten ist. Das aber wäre wiederum eine bedingt nicht-automatenalgebraische Lösung, da von außen auf die Datenstruktur des Automaten zugegriffen und gerechnet wird. 2. Näher an dem Dogma, Automaten als Bestandteile einer Algebra aufzufassen, ist die Variante, unseren zuvor gewonnenen Automaten mit einem Transduktor zu komponieren, der Σ auf {ɛ} abbildet, und davon die zweite Projektion zu nehmen. Der resultierende Automat besteht aus genau einem Zustand (er repräsentiert die Sprache) und dem Gewicht des Ursprungsautomaten (dem Sprachgewicht), also der Wahrscheinlichkeit unserer Ereignisabfolge. Auf diesen Automaten muss schlussendlich doch noch die Funktion zur Extraktion des Gewichts angewandt werden, um eine Zahl zu erhalten. Das natürlich nur, sofern man das Gewicht nicht weiterverarbeiten möchte. Die zweite Variante ist zur vorherigen äquivalent, sie stellt jedoch einen algebraischen Weg dar, an das Gesuchte zu gelangen. Man könnte sie als Schönheitsoperation betrachten. Letzten Endes wird in beiden Varianten das Gewicht entlang der Pfade abstrakt multipliziert, anschließend alle identischen Pfade abstrakt addiert und eine Gewichtsfunktion angewandt. Allerdings bedarf es bei Variante 2 keines Eingriffs in die Datenstruktur Automat, sondern nur der Bemühung einer algebraischen Operation. Diese kann höchst performant implementiert sein. Zusammenfassen lässt sich die Berechnung der Wahrscheinlichkeit einer Er- 16
17 eignisabfolge (respektive Variante 2) wie folgt formalisieren: P (O) = Ω ( P roj 2 ( (WFSAHMM WFSA Eingabe ) (Σ {ɛ}) )) Viterbi-Algorithmus Bei der Aufgabenstellung des Viterbi-Algorithmus wollen wir die wahrscheinlichste Abfolge von zugrunde liegenden Ereignissen errechnen. Dazu benötigen wir keinen Eingabe-Automaten, sondern einen -Transduktor, und zwar einen sogenannten Identitätstransduktor, der die Eingabe auf sich selbst abbildet: WFST Eingabe Diesen Eingabe-Transduktor komponieren wir nun mit dem zuvor erstellten WFST des Hidden-Markov-Modells. Komponieren bedeutet, dass wir das Ausgabeband des WFST Eingabe mit dem Eingabeband des WFST HMM schneiden. Im Gegensatz zum Forward-Algorithmus suchen wir nun nicht nur nach einer Zahl, sondern nach einer Folge von Ereignissen, also einem Pfad. Dieser Pfad wird durch den verwendeten Viterbi-Semiring bestimmt: Es ist der mit dem höchsten Gewicht, also dem Ergebnis der max-operation. Diesen Pfad liefert uns die Best-Path-Funktion: WFSA BestPath = BestPath(Proj 2 ( WFSAEingabe WFST HMM ) W F SA BestP ath ist nun ein Automat mit nur einem Pfad, der die gewünschte Folge von wahrscheinlichsten Ereignissen enthält. 1 P roj 2 ist hier die zweite Projektion, also das Ausgabeband des Transduktors. 17
18 4 Eigenschaften Gewichteter Endlicher Automaten und Transduktoren 4.1 Vorteile gegenüber Hidden-Markov-Modellen Gewichtete Endliche Automaten bringen bereits von Hause aus eine Reihe von Algorithmen mit, an deren Optimierung kontinuierlich gearbeitet wird. So können wir auf bestehende Werkzeuge für Automaten zurückgreifen, ohne eigens den Forward- oder Viterbi-Algorithmus implementieren zu müssen. In der Praxis lassen sich Gewichtete Endliche Automaten effizienter verarbeiten als HMMs, auch wenn nicht-determisierte WFSA im schlechtesten Falle NP-vollständig sind. [3] 4.2 Determinisierbarkeit Ein Gewichteter Endlicher Automat, der aus einem Hidden-Markov-Modell erstellt wurde, ist meist nicht deterministisch. Das ist ungünstig für die weitere Verarbeitung, da viele Algorithmen auf Automaten einen determinisierten WFSA/T voraussetzen. Ob dieser Automat determinisierbar ist, hängt davon ab, ob er die Zwillingseigenschaft erfüllt. [6] Dies ist ein Automat mit erfüllter Zwillingseigenschaft: Falls eine Zeichenkette a zu zwei verschiedenen Zuständen q und p führt und von diesen Zuständen 18
19 Schleifen mit dem gleichen Wert b jeweils zu sich selbst zurückführen, so müssen die Pfade dieser Schleifen gleich sein insbesondere deren Gewicht. Die Zwillingseigenschaft lässt sich so formulieren: q 1, q 2 ˆδ(q 0, a) q 1 ˆδ(q 1, b) q 2 ˆδ(q 2, b) θ(q 1, b, q 1 ) = θ(q 2, b, q 2 ) in unserem Beispiel p, q ˆδ(q 0, u) p ˆδ(p, v) q ˆδ(q, v) θ(p, v, p) = θ(q, v, q) u, v Σ Durch die Determinisierung entsteht dann folgender Automat: allgemein Ein Automat ohne Zwillingseigenschaft hätte dagegen Schleifen mit unterschiedlichen Gewichten: Bei dessen Determinisierung käme es bedingt durch den Algorithmus zu einer Endlosschleife: 19
20 Es können also nur Automaten und Transduktoren mit Zwillingseigenschaft determinisiert werden. 4.3 ɛ-entfernung Jeder WFSA bzw. WFST kann zur besseren Weiterverarbeitung ɛ-frei gemacht werden. Zusätzlich zur ɛ-entfernung bei ungewichteten Automaten (FSA/FST) müssen auch Wahrscheinlichkeiten der Epsilon-Übergänge herausgerechnet und auf andere Übergangs- und Endwahrscheinlichkeiten übertragen werden. Denn das Gewicht jedes Wortes soll auch im ɛ-freien Automaten gleich bleiben Problemstellung Beschreiben wir zunächst das Problem an einem Beispiel: Für das Eingabewort ɛ z.b. gibt es nun unendlich viele Pfade. Im einfachsten Fall berühren wir q 1 nur einmal. Das Gewicht dieses Pfades berechnet sich nur aus Anfangs- und Endgewicht von q 1 : Ω(ɛ) (q1 ) = I(q 1 ) F (q 1 ) = = 0.3 Wir können aber auch q 1 zwei- oder dreimal, letztlich unendlich oft durchlaufen: Ω(ɛ) (q1,q 1 ) = I(q 1 ) P (q 1, ɛ, q 1 ) F (q 1 ) = = 0.06 Ω(ɛ) (q1,q 1,q 1 ) = I(q 1 ) P (q 1, ɛ, q 1 ) P (q 1, ɛ, q 1 ) F (q 1 ) = =
21 Das Gewicht des Wortes ɛ in diesem Automaten ist die Summe der Gewichte aller möglichen Pfade: Ω(ɛ) = P (ɛ) (q1 ) + P (ɛ) (q1,q 1 )P (ɛ) (q1,q 1,q 1 ) +... = = 0.2 i 0.3 = i i=0 = i=0 = In dem dem äquivalenten ɛ-freien WFSA muss dieses Gewicht genau als Endgewicht des Zustands q 1 erscheinen, damit das Gewicht des Wortes ɛ auch dort genau beträgt Aufbau In [1] ist ein Algorithmus beschrieben, den wir hier nachfolgend vorstellen. Er lässt sich in 3 Schritte unterteilen: Bei mehreren Startzuständen: Wandle den WFSA in einen mit einem Startzustand um. Entferne alle ɛ-schleifen, also Übergänge der Form (q, ɛ, q). Entferne alle restlichen ɛ-übergänge Nur ein Startzustand Im ersten Schritt stellen wir sicher, dass wir nur einen Zustand mit I > 0 haben, also nur einen Startzustand. Falls nicht, fügen wir einen Zustand q 0 mit I = 1 hinzu, der ɛ-übergänge zu allen bisherigen Startzuständen hat. Die Gewichte dieser ɛ-übergänge sind die jeweiligen Anfangsgewichte des alten Startzustandes, zu dem der Übergang führt. Schließlich setzen wir bei allen alten Zuständen I = 0. Unser Beispiel-Automat ist immer noch der gleiche, da er nur einen Zustand mit I > 0 hat. 21
22 4.3.4 Entfernung der ɛ-schleifen Im zweiten Schritt eliminieren wir alle ɛ-schleifen, also Übergänge der Form (q, ɛ, q). Bei uns betrifft das nur den Übergang (q 1, ɛ, q 1 ). Dazu verändern wir die Wahrscheinlichkeiten von allen Übergängen, die q 1 verlassen: 1 P (q 1, b, q 0 ) = P (q 1, b, q 0 ) P (q 1, ɛ, q 1 ) P (q, x, q ) = P (q, x, q 1 ) P (q, ɛ, q) in unserem Beispiel allgemein Auch das Endgewicht von q 1 müssen wir anfangs angekündigt anpassen: 1 F (q 1 ) = F (q 1 ) P (q 1, ɛ, q 1 ) 1 F (q) = F (q) P (q, ɛ, q) in unserem Beispiel allgemein Betrachten wir kurz einen Zwischenstand unseres WFSA nun ohne ɛ- Schleifen, aber noch mit ɛ-übergängen: Entfernung der restlichen ɛ-übergänge Nun entfernen wir alle restlichen ɛ-übergänge der Form (q, ɛ, q ), in unserem Automaten also (q 0, ɛ, q 1 ). Dazu müssen wir die von q ausgehenden Übergänge betrachten, welche wiederum einen dritten Zustand q erreichen. Wir fügen falls noch nicht vorhanden einen neuen Übergang (q, x, q ) hinzu. q kann dabei auch gleich q sein, wie bei unserem Beispiel. P (q 0, b, q 0 ) = P (q 0, ɛ, q 1 ) P (q 1, b, q 0 ) P (q, x, q ) = P (q, x, q ) + P (q, ɛ, q ) P (q, x, q ) in unserem Beispiel allgemein 22
23 Schließlich müssen wir noch wie zuvor das Endgewicht von q verändern: F (q 0 ) = F (q 0 ) + P (q 0, ɛ, q 1 ) F (q 1 ) F (q) = F (q) + P (q, ɛ, q ) F (q ) in unserem Beispiel allgemein Damit haben wir einen äquivalenten ɛ-freien WFSA erstellt: 4.4 Schnitt und Komposition Der Schnitt zweier WFSA bzw. WFST auch Automatenprodukt genannt ermöglicht mehrere unterschiedliche Wahrscheinlichkeitsverteilungen performant zu kombinieren. In unserem Kontext ist das insofern von Interesse, als dass uns die Äquivalenz zwischen HMM und WFSA ermöglicht, beliebige solcher Wahrscheinlichkeitsverteilungen, wie sie in der Literatur oft zu finden sind, performant zu kombinieren. Die Komposition zweier Transduktoren ist der Schnitt ihrer inneren Bänder also dem Ausgabeband des ersten und dem Eingabeband des zweiten Transduktors. Sie kann daher auch als Generalisierung des Schnitts aufgefasst werden: A B = Proj 2 (ID(A) ID(B)) Grundlegendes Verfahren Betrachten wir als Beispiel diese beiden WFSA: 23
24 Ihr Schnitt ist dieser WFSA: Beim Schnitt werden die Gewichte aller äquivalenten Zustände und Eingaben miteinander multipliziert: WFSA 1 = (Q 1, Σ 1, δ 1, I 1, P 1, F 1 ) WFSA 2 = (Q 2, Σ 2, δ 2, I 2, P 2, F 2 ) WFSA 1 2 = (Q 1 Q 2, Σ 1 Σ 2, δ, I, F, P ) δ = {( q 1, q 2, a, q 1, q 2 ) : (q 1, a, q 1) δ 1 (q 2, a, q 2) δ 2 } I( q 1, q 2 ) = I 1 (q 1 ) I 2 (q 2 ) P ( q 1, q 2, a, q 1, q 2 ) = P (q 1, a, q 1) P (q 2, a, q 2) F ( q 1, q 2 ) = F 1 (q 1 ) F 2 (q 2 ) Das Gewicht eines Wortes im neuen Automaten ist also auch das abstrakte Produkt der Gewichte in den beiden Ursprungs-Automaten: Ω 1 (ab) = = Ω 2 (ab) = = Ω 1 2 (ab) = = = Ω 1 (ab) Ω 2 (ab) Idempotente Semiringe Bei idempotenten Semiringen gilt: x x = x a b = a oder b Das bedeutet: Bei idempotenten Semiringen ergibt die abstrakte Addition zweier Pfadgewichte a b das Gewicht genau eines (möglichen) Pfades. 24
25 Aufgrund dieser Eigenschaft ist die Komposition zweier Automaten mit idempotenten Semiringen problemlos. Als Beispiel dazu wollen wir folgende Automaten komponieren - zunächst mit einem idempotenten Semiring, einer Abwandlung des tropischen: K = (R, min,,, 1) = Bei der Komposition haben sich mehrere Pfade ergeben (graue Box). Um das Gewicht für die Eingabe abcd, welche in dea umgewandelt wird, zu erhalten, müssen wir die Gewichte aller einzelnen Übergänge entlang der Pfade multiplizieren: Ω 1 (θ(q <0,0>, q <1,1>, q <2,2>, q <3,2>, q <4,3> )) = 1 Ω 2 (θ(q <0,0>, q <1,1>, q <2,1>, q <2,2>, q <3,2>, q <4,3> )) = 1 Ω 3 (θ(q <0,0>, q <1,1>, q <2,1>, q <3,1>, q <3,2>, q <4,3> )) = 1 Ω 4 (θ(q <0,0>, q <1,1>, q <1,2>, q <2,2>, q <3,2>, q <4,3> )) = 1 25
26 All diese einzelnen Pfadgewichte müssen nun abstrakt addiert werden, hier, im Falle des tropischen Semirings, also deren Minimum gefunden werden: 4 Ω i = min(1, 1, 1, 1) = 1 i=1 Die in der grauen Box neu eingeführten Pfade haben also keinen verändernden Einfluss auf das Gesamtgewicht Nicht-idempotente Semiringe Nun komponieren wir mit einem nicht-idempotenten Semiring, dem probabilistischen: K = (R, +,, 0, 1) Für das Gesamtgewicht suchen wir nun nicht dass Minimum, sondern addieren, da so die abstrakte Addition im probabilistischen Semiring definiert ist: 4 Ω i = = 4 i=1 Das Gewicht 4 ist nun ein völlig neues. Das liegt daran, das der probablistische Semiring eben nicht idempotent ist und das die ɛ-übergänge im zweiten Transduktor aus einem Pfad mehrere Pfade machen. Die verschiedenen Pfadgewichte werden durch die nicht-idempotenz miteinander verrechnet und ein neuer Wert entsteht. Mohri [5] liefert ein Verfahren, welches dieses Problem behebt. Die zu komponierenden Transduktoren werden dahingehend modifiziert, dass alle relevanten ɛ-übergänge mit einem speziellen silent transition - Symbol ɛ i versehen werden. Dieses wird im Zuge der Komposition mit einem speziellen Filter- Transduktor dazu verwendet, nur den einen gewünschten Pfad zu erlauben (in unserem Falle den rot markierten). 26
27 5 Schluss In dieser Arbeit haben wir zunächst Hidden Markov Modelle mit ihren typischen Aufgabenstellungen und Algorithmen vorgestellt. Danach haben wir Gewichtete Endliche Automaten und Transduktoren mit Semiringen eingeführt und gezeigt, wie man HMMs als Automaten repräsentieren und die Algorithmen mit Automaten-Algebra berechnen kann. Im letzten Teil haben wir bestimmte Eigenschaften von Automaten betrachtet, die im Zusammenhang mit HMMs relevant sind. Damit haben wir die theoretischen Grundlagen für die Lösung typischer HMM-Problemstellungen mittels Endlicher Automaten präsentiert. Literatur [1] Colin de la Higuera. Why ɛ-transitions are not necessary in probabilistic finite automata. Technical report, University of Saint-Etienne, France, [2] Wikipedia Englisch. Hidden Markov model Online, Zugriff am 11. Januar [3] Karin Haenelt. Kursfolien zu Forward- und Viterbi-Algorithmus [4] Thomas Hanneforth. Finite-State Machines Theory and Applications [5] Mehryar Mohri, Fernando C. N. Pereira, and Michael Riley. A rational design for a weighted finite-state transducer library. In WIA 97: Revised Papers from the Second International Workshop on Implementing Automata, pages , London, UK, Springer-Verlag. [6] Ina Mäurer. Zur Minimalisierung und Determinisierung von sequentiellen Transducern [7] Enrique Vidal, Frank Thollard, Colin de la Higuera, Francisco Casacuberta, and Rafael C. Carrasco. Probabilistic finite-state machines part ii. IEEE Transactions on Pattern Analysis and Machine Intelligence, 27(7): ,
Operationen auf endlichen Automaten und Transduktoren
Operationen auf endlichen Automaten und Transduktoren Kursfolien Karin Haenelt 1 Notationskonventionen L reguläre Sprache A endlicher Automat DEA deterministischer endlicher Automat NEA nichtdeterministischer
MehrOperationen auf endlichen Akzeptoren und Transduktoren
Operationen auf endlichen Akzeptoren und Transduktoren Kursfolien Karin Haenelt Karin Haenelt 2006, Operationen auf Akzeptoren und Transduktoren, 08.07.2006 ( 1 05.04.2004) 1 Notationskonventionen L reguläre
MehrHidden Markov Models
Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung
MehrDer Viterbi Algorithmus
M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes
MehrProjektgruppe. Text Labeling mit Sequenzmodellen
Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:
MehrDer Viterbi-Algorithmus im Part-of-Speech Tagging
Der Viterbi-Algorithmus im Part-of-Speech Tagging Kursfolien Karin Haenelt 1 Themen Zweck des Viterbi-Algorithmus Hidden Markov Model Formale Spezifikation Beispiel Arc Emission Model State Emission Model
Mehr1 Eliminieren von ɛ-übergängen
1 Eliminieren von ɛ-übergängen 1.1 Beispiel 1 (a) Ausgangspunkt: Zwei ɛ-übergänge (b) Entfernung eines ɛ-übergangs, Reduktion (c) Entfernen eines ɛ-übergangs, Reduktion Abbildung 1: Elimination von ɛ-übergängen,
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrHidden Markov Models (HMM)
Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion
MehrFormale Sprachen. Reguläre Sprachen. Rudolf FREUND, Marian KOGLER
Formale Sprachen Reguläre Sprachen Rudolf FREUND, Marian KOGLER Endliche Automaten - Kleene STEPHEN KLEENE (99-994) 956: Representation of events in nerve nets and finite automata. In: C.E. Shannon und
MehrOperationen auf endlichen Akzeptoren und Transduktoren
Operationen auf endlichen Akzeptoren und Transduktoren Definitionen, Algorithmen, Erläuterungen und Beispiele - eine Übersicht Karin Haenelt, 28.5.2010 ( 1 25.04.2004) Operationen auf endlichen Akzeptoren
MehrZusammenfassung Tutorien der Woche ALDABI
Zusammenfassung Tutorien der Woche 27.-31. 01. 2014 ALDABI Markov-Ketten: Viele Ereignisse schon in unserem Alltag beeinflussen sich gegenseitig, können also als Ablauf oder Kette von Ereignissen gesehen
MehrEinführung in die Informatik
Universität Innsbruck - Institut für Informatik Datenbanken und Informationssysteme Prof. Günther Specht, Eva Zangerle 24. November 28 Einführung in die Informatik Übung 7 Allgemeines Für die Abgabe der
MehrDeterministische und nichtdeterministische Turing-Maschinen, Typ1- und Typ0-Sprachen
Dr. Sebastian Bab WiSe 12/13 Theoretische Grundlagen der Informatik für TI Termin: VL 15 + 16 vom 17.12.2012 und 20.12.2012 Deterministische und nichtdeterministische Turing-Maschinen, Typ1- und Typ0-Sprachen
MehrVorlesungsmitschrift zur Vorlesung Theoretische Informatik I vom 23. Juni Christian Franz
Vorlesungsmitschrift zur Vorlesung Theoretische Informatik I vom 23. Juni 2 Christian Franz Inhaltsverzeichnis Wiederholung: Vorlesung vom 9.6.2... Beispiele für Äquivalenzklassen... 4.5. Minimierung
Mehr2.6 Verdeutlichung verwendeter Begriffe
2.6 Verdeutlichung verwendeter Begriffe endlich/finit: die Mengen der Zustände und der Ein- bzw. Ausgabezeichen sind endlich synchron: die Ausgabezeichen erscheinen synchron mit dem Einlauf der Eingabezeichen
MehrHidden Markov Models
Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach
MehrTransduktoren für die Sprachverarbeitung: Komposition zweier Transduktoren. Karin Haenelt
Transduktoren für die Sprachverarbeitung: Komposition zweier Transduktoren Karin Haenelt 28.5.2010 1 Themen Einführung Algorithmus für endlich-sequentielle Transduktoren Beispiele Beispiel 1: Erläuterung
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 18. Januar 2018 INSTITUT FÜR THEORETISCHE 0 18.01.2018 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität
MehrFormale Grundlagen der Informatik 1 Kapitel 5 Abschlusseigenschaften
Formale Grundlagen der Informatik 1 Kapitel 5 Frank Heitmann heitmann@informatik.uni-hamburg.de 18. April 2016 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/64 NFAs - Grundlagen DFAs vs. NFAs Der
MehrAutomaten und Coinduktion
Philipps-Univestität Marburg Fachbereich Mathematik und Informatik Seminar: Konzepte von Programmiersprachen Abgabedatum 02.12.03 Betreuer: Prof. Dr. H. P. Gumm Referentin: Olga Andriyenko Automaten und
MehrFinite-State Technology
Finite-State Technology Teil III: Automaten 1 Wiederholung Formale Grammatiken sind entweder axiomatische Systeme mit Ableitungsregeln oder Automaten. Beide beschreiben formale Sprachen. Formale Sprachen
MehrFrank Heitmann 2/47. 1 Ein PDA beginnt im Startzustand z 0 und mit im Keller. 2 Ist der Automat
Formale Grundlagen der Informatik 1 Kapitel 5 Über reguläre Sprachen hinaus und (Teil 2) Frank Heitmann heitmann@informatik.uni-hamburg.de 21. April 2015 Der Kellerautomat - Formal Definition (Kellerautomat
MehrDie Nerode-Relation und der Index einer Sprache L
Die Nerode-Relation und der Index einer Sprache L Eine zweite zentrale Idee: Sei A ein vollständiger DFA für die Sprache L. Repäsentiere einen beliebigen Zustand p von A durch die Worte in Σ, die zu p
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen
MehrEndliche Automaten. Endliche Automaten J. Blömer 1/24
Endliche Automaten Endliche Automaten J. Blömer /24 Endliche Automaten Endliche Automaten sind ein Kalkül zur Spezifikation von realen oder abstrakten Maschinen regieren auf äußere Ereignisse (=Eingaben)
MehrDas Halteproblem für Turingmaschinen
Das Halteproblem für Turingmaschinen Das Halteproblem für Turingmaschinen ist definiert als die Sprache H := { T w : T ist eine TM, die bei Eingabe w {0, 1} hält }. Behauptung: H {0, 1} ist nicht entscheidbar.
Mehr5.2 Endliche Automaten
114 5.2 Endliche Automaten Endliche Automaten sind Turingmaschinen, die nur endlichen Speicher besitzen. Wie wir bereits im Zusammenhang mit Turingmaschinen gesehen haben, kann endlicher Speicher durch
Mehr6 Schaltwerke und endliche Automaten
6 Schaltwerke und endliche Automaten 6.1 Entwicklungsstufen 143 In diesem Abschnitt wird gezeigt, wie das Blockschaltbild aus 1.4 realisiert werden kann. Mithilfe der entwickelten Speicherbausteine und
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrOgden s Lemma: Der Beweis (1/5)
Ogden s Lemma: Der Beweis (1/5) Wir betrachten zuerst die Rahmenbedingungen : Laut dem auf der vorhergehenden Folie zitierten Satz gibt es zur kontextfreien Sprache L eine Grammatik G = (Σ, V, S, P) in
MehrAutomaten und Formale Sprachen
Automaten und Formale Sprachen Einführung Ralf Möller Hamburg Univ. of Technology Übung Fr. 14:30-15:15 Max Berndt, D1025 Literatur Gottfried Vossen, Kurt-Ulrich Witt: Grundkurs Theoretische Informatik,
MehrAutomaten und Formale Sprachen SoSe 2013 in Trier
Automaten und Formale Sprachen SoSe 2013 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 2. Juni 2013 1 Automaten und Formale Sprachen Gesamtübersicht Organisatorisches Einführung Endliche
MehrHidden Markov Modelle
Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten
MehrFORMALE SYSTEME. Wiederholung. Beispiel: NFA. Wiederholung: NFA. 4. Vorlesung: Nichtdeterministische Endliche Automaten. TU Dresden, 20.
Wiederholung FORMALE SYSTEME 4. Vorlesung: Nichtdeterministische Endliche Automaten Markus Krötzsch Lehrstuhl Wissensbasierte Systeme Grammatiken können Sprachen beschreiben und sie grob in Typen unterteilen
MehrDeterminisierung von endlichen Automaten
Thomas Hanneforth Institut für Linguistik Universität Potsdam May 14, 2014 Thomas Hanneforth (Universität Potsdam) May 14, 2014 1 / 21 Outline 1 Einführung 2 Beispiel 3 Ein verbesserter Determinisierungsalgorithmus
Mehr1 Lokale Sprachen. 2 Verallgemeinerung
1 Lokale Sprachen Es soll um Sprachen gehen die nur aufgrund ihrer Teilworte einer festen Länge entschieden werden können. Anschaulich heisst dies man kann ein Fenster der Länge k über das Eingabewort
Mehr1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln,
Theorie der Informatik 9. März 24 7. Reguläre Sprachen I Theorie der Informatik 7. Reguläre Sprachen I Malte Helmert Gabriele Röger Universität Basel 9. März 24 7. Reguläre Grammatiken 7.2 DFAs 7.3 NFAs
Mehr10 Kürzeste Pfade SSSP-Problem
In diesem Kapitel setzen wir uns mit der Berechnung von kürzesten Pfaden in einem Graphen auseinander. Definition 10.1 (Pfadgewichte). i) Das Gewicht eines Pfades p = (v 0, v 1,..., v k ) ist die Summe
MehrHidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014
idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme
MehrEndliche Automaten. Endliche Automaten J. Blömer 1/23
Endliche Automaten Endliche Automaten sind ein Kalkül zur Spezifikation von realen oder abstrakten Maschinen regieren auf äußere Ereignisse (=Eingaben) ändern ihren inneren Zustand produzieren gegebenenfalls
MehrDie mathematische Seite
Kellerautomaten In der ersten Vorlesung haben wir den endlichen Automaten kennengelernt. Mit diesem werden wir uns in der zweiten Vorlesung noch etwas eingängiger beschäftigen und bspw. Ansätze zur Konstruktion
MehrZeitreihenanalyse mit Hidden Markov Modellen
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials VL PLT2
MehrDas Pumping Lemma: Ein Anwendungsbeispiel
Das Pumping Lemma: Ein Anwendungsbeispiel Beispiel: Die Palindromsprache ist nicht regulär. L = { } w {0, 1} w ist ein Palindrom Beweis: Angenommen, L ist doch regulär. Gemäß Pumping Lemma gibt es dann
Mehr1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie
1 Einführung 2 Typ-0- und Typ-1-Sprachen 3 Berechnungsmodelle 4 Unentscheidbarkeit 5 Unentscheidbare Probleme 6 Komplexitätstheorie 15 Ziele vgl. AFS: Berechnungsmodelle für Typ-0- und Typ-1-Sprachen (Nicht-)Abschlußeigenschaften
MehrFragen 1. Muss eine DTM ein Wort zu Ende gelesen haben, um es zu akzeptieren? a) Ja! b) Nein!
4 Turingmaschinen Eingabeband nicht nur lesen, sondern auch schreiben kann und die zudem mit ihrem Lese-Schreib-Kopf (LSK) nach links und rechts gehen kann. Das Eingabeband ist zudem in beide Richtungen
MehrMachine Translation with Inferred Stochastic Finite-State Transducers
Machine Translation with Inferred Stochastic Finite-State Transducers von Klaus Suttner HS: Endliche Automaten Dozentin: Karin Haenelt Seminar für Computerlinguistik Universität Heidelberg 29.06.09 Finite-state
MehrFORMALE SYSTEME. Wiederholung. Beispiel: NFA. Wiederholung: NFA. 4. Vorlesung: Nichtdeterministische Endliche Automaten. TU Dresden, 19.
Wiederholung FORMALE SYSTEME 4. Vorlesung: Nichtdeterministische Endliche Automaten Markus Krötzsch Professur für Wissensbasierte Systeme Grammatiken können Sprachen beschreiben und sie grob in Typen unterteilen
Mehr2. Gegeben sei folgender nichtdeterministischer endlicher Automat mit ɛ-übergängen:
Probeklausur Automatentheorie & Formale Sprachen WiSe 2012/13, Wiebke Petersen Name: Matrikelnummer: Aufgabe A: Typ3-Sprachen 1. Konstruieren Sie einen endlichen Automaten, der die Sprache aller Wörter
MehrDie Probabilistische Methode
Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.
Mehr2. Gegeben sei folgender nichtdeterministischer endlicher Automat mit ɛ-übergängen:
Probeklausur Automatentheorie & Formale Sprachen WiSe 2012/13, Wiebke Petersen Name: Matrikelnummer: Aufgabe A: Typ3-Sprachen 1. Konstruieren Sie einen endlichen Automaten, der die Sprache aller Wörter
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrHMMs und der Viterbi-Algorithmus
July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,
MehrTyp-0-Sprachen und Turingmaschinen
Typ-0-Sprachen und Turingmaschinen Jean Vancoppenolle Universität Potsdam Einführung in formale Sprachen und Automaten Dr. Thomas Hanneforth (Präsentation aus Foliensätzen von Dr. Thomas Hanneforth und
MehrModel Checking mit Büchi Automaten
Ingo Weigelt Softwaretechnik 3 16.05.2007 Übersicht 1 Automaten über unendlichen Wörtern ω-automaten Büchi-Automaten 2 Model Checking mit Büchi Automaten Konstruktion von A Konstruktion von A S Leerheitstest
MehrKapitel 3 Ereignisdiskrete Systeme (III)
Systemmodellierung Teil 1: Ereignisdiskrete Systeme Kapitel 3 Ereignisdiskrete Systeme (III) Modellierung mit E/A-Automaten Modellbildung mit Automaten Verfeinerte Modellbildung Beispiel: Fahrstuhltür
MehrGrundlagen: Algorithmen und Datenstrukturen
Technische Universität München Fakultät für Informatik Lehrstuhl für Effiziente Algorithmen Dr. Hanjo Täubig Tobias Lieber Sommersemester 011 Übungsblatt 30. Mai 011 Grundlagen: Algorithmen und Datenstrukturen
Mehr5.4 Endliche Automaten
5.4 Endliche Automaten Ein endlicher Automat ist ein mathematisches Modell eines Systems mit Ein- und Ausgaben. Ein solches System befindet sich immer in einem internen Zustand. Beispiele Ein Register
MehrDefinition 78 Ein NPDA = PDA (= Nichtdeterministischer Pushdown-Automat) besteht aus:
4.7 Kellerautomaten In der Literatur findet man häufig auch die Bezeichnungen Stack-Automat oder Pushdown-Automat. Kellerautomaten sind, wenn nichts anderes gesagt wird, nichtdeterministisch. Definition
MehrInformatik III. Christian Schindelhauer Wintersemester 2006/07 3. Vorlesung
Informatik III Christian Schindelhauer Wintersemester 2006/07 3. Vorlesung 02.11.2006 schindel@informatik.uni-freiburg.de 1 Kapitel III Reguläre Sprachen Reguläre Sprachen und Ausdrücke Informatik III
MehrAutomaten und Formale Sprachen SoSe 2007 in Trier. Henning Fernau Universität Trier
Automaten und Formale Sprachen SoSe 2007 in Trier Henning Fernau Universität Trier fernau@informatik.uni-trier.de 1 Automaten und Formale Sprachen Gesamtübersicht Organisatorisches Einführung Endliche
MehrTuring Maschine. Thorsten Timmer. SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke. Turing Maschine SS 2005 p.
Thorsten Timmer SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke Turing Maschine SS 2005 p. 1/35 Inhalt Einführung Formale Definition Berechenbare Sprachen und Funktionen Berechnung ganzzahliger
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
MehrReguläre Sprachen. R. Stiebe: Theoretische Informatik für ING-IF und Lehrer,
Reguläre Sprachen Reguläre Sprachen (Typ-3-Sprachen) haben große Bedeutung in Textverarbeitung und Programmierung (z.b. lexikalische Analyse) besitzen für viele Entscheidungsprobleme effiziente Algorithmen
MehrDer VITERBI-Algorithmus
Der VITERBI-Algorithmus Hauptseminar Parsing Sommersemester 2002 Lehrstuhl für Computerlinguistik Universität Heidelberg Thorsten Beinhorn http://janus.cl.uni-heidelberg.de/~beinhorn 2 Inhalt Ziel des
MehrADS-EI 5.2 Struktur einer Turing-Maschine 120/451 ľernst W. Mayr
Bemerkung: Jede NDTM N (die die Sprache L(N) akzeptiert) kann in eine deterministische Turing-Maschine M konvertiert werden, die ebenfalls genau die Sprache L(N) akzeptiert. Beweisidee: Die Berechnungspfade
MehrEinführung in die Theoretische Informatik
Technische Universität München Fakultät für Informatik Prof. Tobias Nipkow, Ph.D. Dr. Werner Meixner, Dr. Alexander Krauss Sommersemester 2010 Lösungsblatt 3 14. Mai 2010 Einführung in die Theoretische
MehrHoffmann (HAW Hamburg) Automatentheorie und formale Sprachen
Hoffmann (HAW Hamburg) Automatentheorie und formale Sprachen 18.4. 2012 176 Automatentheorie und formale Sprachen VL 5 Reguläre und nichtreguläre Sprachen Kathrin Hoffmann 18. Aptil 2012 Hoffmann (HAW
MehrTagging mit Hidden Markov Models und Viterbi-Algorithmus
Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:
MehrEinführung in die Theoretische Informatik
Technische Universität München Fakultät für Informatik Prof. Tobias Nipkow, Ph.D. Sascha Böhme, Lars Noschinski Sommersemester 2011 Lösungsblatt 8 18. Juli 2011 Einführung in die Theoretische Informatik
MehrEndliche Automaten. Im Hauptseminar Neuronale Netze LMU München, WS 2016/17
Endliche Automaten Im Hauptseminar Neuronale Netze LMU München, WS 2016/17 RS- Flipflop RS-Flipflop Ausgangszustand 0 1 0 1 0 1 Set Reset neuer Zustand 0 0 0 0 0 1 1 0 1 1 0 1 0 1 0 0 1 0 Was ist ein endlicher
Mehr11. GRAPHEN 3 FLÜSSE UND SPANNBÄUME
Algorithmen und Datenstrukturen 11. GRAPHEN 3 FLÜSSE UND SPANNBÄUME Algorithmen und Datenstrukturen - Ma5hias Thimm (thimm@uni-koblenz.de) 1 Algorithmen und Datenstrukturen 11.1. BERECHNUNG MAXIMALER FLÜSSE
MehrGrundlagen: Algorithmen und Datenstrukturen
Technische Universität München Fakultät für Informatik Lehrstuhl für Effiziente Algorithmen Dr. Hanjo Täubig Tobias Lieber Sommersemester 2011 Übungsblatt 1 16. September 2011 Grundlagen: Algorithmen und
MehrHauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012 Hier Aufkleber mit Name und Matrikelnr. anbringen
MehrTheoretische Informatik. Berechenbarkeit
Theoretische Informatik Berechenbarkeit 1 Turing Maschine Endlicher Automat mit unendlichem Speicher Ein Modell eines realen Computers Was ein Computer berechnen kann, kann auch eine TM berechnen. Was
MehrALP I Turing-Maschine
ALP I Turing-Maschine Teil I WS 2012/2013 Äquivalenz vieler Berechnungsmodelle Alonzo Church λ-kalkül Kombinatorische Logik Alan Turing Turing-Maschine Mathematische Präzisierung Effektiv Berechenbare
MehrHidden Markov Models Erläuterung der Bestimmung der Wahrscheinlichkeit einer Beobachtung
Hidden Markov Models Erläuterung der estimmung der Wahrscheinlichkeit einer eobachtung Kursfolien Karin Haenelt Karin Haenelt Hidden Markov-Modelle 9.66 2.64 Hidden Markov Model HMM: eschreibung Ein Hidden
MehrOperationen auf endlichen Automaten und Transduktoren
Operationen auf endlichen utomaten und Transduktoren en, lgorithmen, Erläuterungen und e - eine Übersicht Karin Haenelt, 5.4.4 Vorbemerkung... Notationskonventionen... 3 Übersicht der Operationen...3 4
MehrTHIA - Übungsblatt 2.
THIA - Übungsblatt 2. Aufgabe 12 (Eine einfache Sprache). Endliche Ziffernfolgen, die mit einer 0 beginnen, auf die mindestens eine weitere Ziffer folgt, wobei nur die Ziffern 0,..., 7 vorkommen, sollen
Mehr1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie
1 Einführung 2 Typ-0- und Typ-1-Sprachen 3 Berechnungsmodelle 4 Unentscheidbarkeit 5 Unentscheidbare Probleme 6 Komplexitätstheorie 139 Unentscheidbarkeit Überblick Zunächst einmal definieren wir formal
Mehr. Die obige Beschreibung der Laufzeit für ein bestimmtes k können wir also erweitern und erhalten die folgende Gleichung für den mittleren Fall:
Laufzeit von Quicksort im Mittel. Wir wollen die erwartete Effizienz von Quicksort ermitteln. Wir nehmen an, die Wahrscheinlichkeit, dass das gewählte Pivot-Element a j das k-t kleinste Element der Folge
Mehr5. Algorithmen. K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16
5. Algorithmen K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16 Version: 21. Okt. 2015 1. Berechne 2 n. Zu lösende Probleme 2. Berechne die Fakultät einer nat. Zahl: n! = 1 * 2 *... n 3. Entscheide,
MehrSoftware Engineering Ergänzung zur Vorlesung
Ergänzung zur Vorlesung Prof. Dr. Markus Müller-Olm WS 2008 2009 2.6.1 Endliche und reguläre Sprachen Endliche und reguläre Sprache: fundamental in vielen Bereichen der Informatik: theorie Formale Sprachen
MehrNachlieferung Übung 4+7: Minimierung von DFAs, LR-Grammatiken
Nachlieferung Übung 4+7: Minimierung von DFAs, LR-Grammatiken Theoretische Informatik Sommersemester 2015 Markus Schlaffer 3. Juli 2015 1/7 Äquivalenzen Definition (Äquivalente Worte) Jede Sprache L Σ
MehrBerechenbarkeitstheorie 1. Vorlesung
Berechenbarkeitstheorie Dr. Institut für Mathematische Logik und Grundlagenforschung WWU Münster WS 15/16 Alle Folien unter Creative Commons Attribution-NonCommercial 3.0 Unported Lizenz. Zentrale Themen
Mehr9 Minimum Spanning Trees
Im Folgenden wollen wir uns genauer mit dem Minimum Spanning Tree -Problem auseinandersetzen. 9.1 MST-Problem Gegeben ein ungerichteter Graph G = (V,E) und eine Gewichtsfunktion w w : E R Man berechne
MehrZusammenfassung der letzten LVA. Endliche Automaten mit Epsilon-Übergängen. Inhalte der Lehrveranstaltung (cont d)
Zusammenfassung der letzten LVA Ein nichtdeterministischer endlicher Automat (NEA) ist ein 5-Tupel (Q, Σ, δ, S, F), sodass Q eine endliche Menge von Zustände Σ eine endliche Menge, das Eingabealphabet;
MehrTheoretische Informatik 1
heoretische Informatik 1 uringmaschinen David Kappel Institut für Grundlagen der Informationsverarbeitung U Graz SS 2014 Übersicht uring Maschinen Algorithmusbegriff konkretisiert Modelldefinition uring-berechenbarkeit
MehrFORMALE SYSTEME. 8. Vorlesung: Minimale Automaten. TU Dresden, 6. November Markus Krötzsch Lehrstuhl Wissensbasierte Systeme
FORMALE SYSTEME 8. Vorlesung: Minimale Automaten Markus Krötzsch Lehrstuhl Wissensbasierte Systeme TU Dresden, 6. November 2017 Rückblick Markus Krötzsch, 6. November 2017 Formale Systeme Folie 2 von 26
Mehr2 2 Reguläre Sprachen. 2.2 Endliche Automaten. Übersicht
Formale Systeme, Automaten, Prozesse Übersicht 2 2. Reguläre Ausdrücke 2.3 Nichtdeterministische endliche Automaten 2.4 Die Potenzmengenkonstruktion 2.5 NFAs mit ɛ-übergängen 2.6 Minimale DFAs und der
Mehr10 Kellerautomaten. Kellerautomaten
10 Kellerautomaten Bisher hatten wir kontextfreie Sprachen nur mit Hilfe von Grammatiken charakterisiert. Wir haben gesehen, dass endliche Automaten nicht in der Lage sind, alle kontextfreien Sprachen
MehrPart-Of-Speech-Tagging mit Viterbi Algorithmus
Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus
MehrKapitel 2: Formale Sprachen Gliederung
Gliederung. Einleitung und Grundbegriffe. Endliche Automaten 2. Formale Sprachen 3. Berechnungstheorie 4. Komplexitätstheorie 2.. Chomsky-Grammatiken 2.2. Reguläre Sprachen Reguläre Grammatiken, ND-Automaten
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrFormale Methoden 1. Gerhard Jäger 9. Januar Uni Bielefeld, WS 2007/2008 1/23
1/23 Formale Methoden 1 Gerhard Jäger Gerhard.Jaeger@uni-bielefeld.de Uni Bielefeld, WS 2007/2008 9. Januar 2008 2/23 Automaten (informell) gedachte Maschine/abstraktes Modell einer Maschine verhält sich
MehrMathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur
Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Crocker/Demberg/Staudte Sommersemester 2014 17.07.2014 1. Sie haben 90 Minuten Zeit zur Bearbeitung der Aufgaben.
Mehr