Hidden-Markov-Modelle als Gewichtete Endliche Automaten

Größe: px
Ab Seite anzeigen:

Download "Hidden-Markov-Modelle als Gewichtete Endliche Automaten"

Transkript

1 Hidden-Markov-Modelle als Gewichtete Endliche Automaten Alexander Becker Georg Jähnig 19. Mai 2008 Hauptseminar Theorie semiringgewichteter Automaten Thomas Hanneforth, Kay Würzner Institut für Linguistik Universität Potsdam Zusammenfassung Hidden-Markov-Modelle sind verbreitete stochastische Modelle, die Zufallsprozesse beschreiben. Sie verwenden dazu eigene Algorithmen wie den Forward- und den Viterbi-Algorithmus. Wir dokumentieren, wie Hidden-Markov-Modelle in Gewichtete Endliche Automaten und Transduktoren umgewandelt und wie Forwardund Viterbi-Algorithmus als Semiring dargestellt werden können. Abschließend betrachten wir einzelne nützliche Eigenschaften Gewichteter Endlicher Automaten: deren Determinisierbarkeit, die ɛ-entfernung und das Produkt zweier Automaten. 1

2 Inhaltsverzeichnis 1 Hidden-Markov-Modelle Einführung Ein Beispiel Definition Forward-Algorithmus Aufgabenstellung Formel Algorithmus Backward-Algorithmus Viterbi-Algorithmus Aufgabenstellung Formel Algorithmus Hidden-Markov-Modelle als Gewichtete Endliche Automaten und Transduktoren Gewichtete Endliche Automaten und Transduktoren Definition Semiring Automat für Forward-Algorithmus Umwandlung Semiring Transduktor für Viterbi-Algorithmus

3 2.3.1 Umwandlung Semiring Rechnen mit Automaten Forward-Algorithmus Viterbi-Algorithmus Eigenschaften Gewichteter Endlicher Automaten und Transduktoren Vorteile gegenüber Hidden-Markov-Modellen Determinisierbarkeit ɛ-entfernung Problemstellung Aufbau Nur ein Startzustand Entfernung der ɛ-schleifen Entfernung der restlichen ɛ-übergänge Schnitt und Komposition Grundlegendes Verfahren Idempotente Semiringe Nicht-idempotente Semiringe Schluss 26 Literatur 26 3

4 1 Hidden-Markov-Modelle 1.1 Einführung Hidden-Markov-Modelle (HMMs) sind statistische Modelle, die eine Wahrscheinlichkeitsverteilung über eine Ereignisabfolge generieren / beschreiben. Das Besondere dabei ist, dass die Ursachen für die Beobachtung der Ereignisabfolgen nicht einzusehen sind, sondern verborgen operieren (daher hidden). 1.2 Ein Beispiel Wir nehmen eine Person an, an dessen Wohnort entweder die Sonne scheint (sunny) oder es regnet (rainy). Von diesen Wetterzuständen abhängig geht die Person ihren Aktivitäten nach, entweder geht sie spazieren (walk), einkaufen (shop) oder sie putzt die Wohnung (clean). So geht sie z.b. bei Sonnenschein mit einer Wahrscheinlichkeit von 0.6 spazieren, bei Regen wird sie mit einer Wahrscheinlichkeit von 0.5 putzen. Auch das Wetter ändert sich in Abhängigkeit zum Wetter des Vortages: Wenn es 4

5 z.b. heute regnet, wird es auch morgen mit einer Wahrscheinlichkeit von 0.7 regnen. Schließlich wissen wir noch wie das Wetter am ersten Tag war: Mit 0.6 Wahrscheinlichkeit hat es geregnet, mit 0.4 schien die Sonne. [2] 1.3 Definition Das HMM unseres Beispiels ist so definiert: HMM = (Q, Σ, I, T, E) Q = {rainy, sunny} Σ = {walk, shop, clean} I = {rainy 0.6, sunny 0.4} T = {(rainy, rainy) 0.7,...} E = {(rainy, walk) 0.1,...} Zustände Ausgabe-Alphabet Anfangs-Wahrscheinlichkeiten Übergangs-Wahrscheinlichkeiten Emissions-Wahrscheinlichkeiten Allgemein lassen sich HMMs so definieren: HMM = (Q, Σ, I, T, E) Q = {q 0, q 1,...} Σ = {a 1, a 2,...} I = Q R + T = Q Q R + E = Q Σ R Forward-Algorithmus Aufgabenstellung Wir haben erfahren, dass die Person vorgestern spazieren und gestern einkaufen war. Wir wollen wissen, wie wahrscheinlich diese Abfolge von Tätigkeiten war. Das berechnet uns der Forward-Algorithmus. 5

6 Unsere Beobachtung O ist also eine Abfolge von Emissionen: O = walk, shop O = o 1,..., o O in unserem Beispiel allgemein Diese Beobachtung kann durch 4 mögliche Wetter-Abfolgen generiert worden sein: entweder es hat an beiden Tagen geregnet oder an beiden die Sonne geschienen, oder jeweils abwechselnd. Es gibt also 4 verschiedene Pfade: θ(walk, shop) = {(rainy walk, rainy shop), (sunny walk, sunny shop), (rainy walk, sunny shop), (sunny walk, rainy shop)} Die Pfade kann man auch als Gitter (Trellis) darstellen: Formel Die Wahrscheinlichkeit unserer Beobachtung ist nun die Summe der Wahrscheinlichkeiten aller Pfade, die diese Beobachtung generiert haben: P (O) = (q 1...q O ) θ(o 1...o O ) O I(q 1 ) E(q 1, o 1 ) T (q i 1, q i ) E(q i, o i ) i= Algorithmus Theoretisch müssten wir also die Wahrscheinlichkeiten aller 4 Pfade berechnen und dann addieren. Wenn wir aber im Gitter die Pfade (rainy 6

7 walk, rainy shop) und (rainy walk, sunny shop) betrachten, dann erkennen wir, dass der erste Teil des Pfades bis rainy walk gleich ist. Genau das nutzt der Forward-Algorithmus aus. Der Forward-Algorithmus geht im Gitter alle Pfade gleichzeitig entlang und merkt sich dabei immer für jede Position im Gitter die Wahrscheinlichkeit in der Variable α. Beim nächsten Schritt greift er dann nur auf die Vorgängerα s zurück. Der Algorithmus besteht aus 3 Teilen: α q (1) = I(q) E(q, o 1 ) q Q Initialisierung α q (i) = q Q α q (i 1) T (q, q) E(q, o i ) q Q Induktion P (O) = q Q α q ( O ) Gesamt In unserem Beispiel berechnen wir also im ersten Schritt die Wahrscheinlichkeiten von rainy walk und sunny walk und speichern sie in α rainy (1) und α sunny (1). Im zweiten Schritt nutzen wir zur Berechnung von rainy shop und sunny shop die zuvor berechneten α s. Schließlich addieren wir alle α s der letzten Beobachtung Backward-Algorithmus Eine Abwandlung des Forward-Algorithmus ist der Backward-Algorithmus. Er unterscheidet sich nur darin, dass er nicht von der ersten zur letzten Beobachtung, sondern von der letzten zur ersten Beobachtung berechnet wird: β q ( O ) = 1 q Q Initialisierung β q (i) = q Q β q (i + 1) T (q, q ) E(q, o i ) q Q Induktion P (O) = q Q β q (1) I(q) Gesamt Der Backward-Algorithmus wird beim Baum-Welch-Verfahren benötigt, einem Trainingsverfahren für Hidden-Markov-Modelle. 7

8 1.5 Viterbi-Algorithmus Aufgabenstellung Wir wissen immer noch, dass die Person vorgestern spazieren und gestern einkaufen war. Nun wollen wissen, was das wahrscheinlichste Wetter an diesen zwei Tagen war. Das berechnet uns der Viterbi-Algorithmus Formel Die wahrscheinlichste Abfolge von Wetter-Zuständen unserer Beobachtung ist nun der Pfad mit der höchsten Wahrscheinlichkeit, der unsere Beobachtung generiert hat: θ best (o 1... o O ) = max I(q 1 ) E(q 1, o 1 ) (q 1...q O ) θ(o 1...o O ) O T (q i 1, q i ) E(q i, o i ) i= Algorithmus Der Viterbi-Algorithmus arbeitet nun sehr ähnlich wie der Forward-Algorithmus: Statt die Summe aller bisherigen Pfade zu speichern, merkt er sich die Wahrscheinlichkeit des wahrscheinlichsten Pfades in δ. Zudem speichert er die Zustände dieses Pfades in ψ, um sie nachher wie in der Aufgabenstellung gewünscht auch ausgeben zu können. δ q (1) = I(q) E(q, o 1 ) δ q (i) = max q Q δ q (i 1) T (q, q) E(q, o i ) ψ q (i) = arg max q Q δ q (i 1) T (q, q) E(q, o i ) P (θ best (o 1... o O )) = max q Q δ q( O ) θ best (o 1... o O ) = arg max q Q ψ q(1)... arg max q Q ψ q( O ) 8 q Q Initialisierung q Q q Q Induktion Gesamt

9 2 Hidden-Markov-Modelle als Gewichtete Endliche Automaten und Transduktoren 2.1 Gewichtete Endliche Automaten und Transduktoren Definition Gewichtete Endliche Automaten (Weighted Finite State Automata, WFSA) beschreiben ähnlich wie Endliche Automaten eine Sprache bestehend aus einer Menge von Wörtern, nur dass sie jedem Wort der Sprache auch ein Gewicht zuordnen. Transduktoren (Weighted Finite State Transducer, WFST) können darüberhinaus jedes Wort (Eingabe) in eines oder mehrere andere Wörter (Ausgabe) umwandeln. [4] WFSA = (Q A, Σ A, δ A, I A, P A, F A ) WFST = (Q A, Σ A, A, δ A, I A, P A, F A ) Wir definieren als Beispiel einen Transduktor, der die Sprache bestehend aus dem Wort ab erkennt, ihm das Gewicht 1 zuordnet und es in ce und de umwandelt. 9

10 Q A = {q 0, q 1, q 2 } Zustände Σ A = {a, b} Eingaben A = {c, d, e} Ausgaben δ A = {(q 0, a, c, q 1 ), (q 0, a, d, q 1 ), (q 1, b, e, q 2 )} Übergänge I A (q 0 ) = 1 I A (q 1 ) = 0 I A (q 2 ) = 0 Anfangsgewichte P A (q 0, a, c, q 1 ) = 0.6 P A (q 0, a, d, q 1 ) = 0.4 P A (q 1, b, e, q 2 ) = 1 Übergangsgewichte F A (q 0 ) = 0 F A (q 1 ) = 0 F A (q 2 ) = 1 Endgewichte Semiring Um das Gewicht Ω zuzuordnen, müssen wir eine Berechnungsvorschrift definieren. Das geschieht mit einem Semiring K: K = (R, +,, 0, 1) K = (W,,, 0, 1) in unserem Beispiel allgemein W ist hierbei die Trägermenge, deren Elemente wir den Eingaben zuordnen. ist die Funktion, die entlang eines Pfades auf die Werte der Trägermenge angewandt wird. ist die Funktion, die bei mehreren möglichen Pfaden auf die jeweiligen Werte eines Pfades angewandt wird. 0 ist das neutrale Element zu, 1 zu. In unserem Beispiel können wir in einem Pfad ab in ce und in einem anderen in de umwandeln. Beide Pfade berechnen sich mit ihren Anfangs-, Übergangs- 10

11 und Endgewichten: Ω 1 (ab) = = 0.6 Ω 2 (ab) = = 0.4 Für das Gesamtgewicht addieren wir nun beide Pfadgewichte: Ω(ab) = = 1 Allgemein beschreibt das diese Formel: Ω(x) = x I A (q 0 ) F A (q x ) P A (q i 1, q i ) (q 0...q x ) θ(x 1...x x ) i=1 2.2 Automat für Forward-Algorithmus Umwandlung Wir können nun das Hidden-Markov-Modell auch als einen Gewichteten Endlichen Automaten bzw. Transduktor repräsentieren. [7] Möchten wir nur den Forward-Algorithmus implementieren, so genügt ein Automat: HMM = (Q, Σ, I, T, E) WFSA = (Q A, Σ A, δ A, I A, P A, F A ) Q A = Q {q 0 } Σ A = Σ δ A = {(q 0, a, q) : I(q) 0 E(q, a) 0} δ A = {(q, a, q) : T (q, q) 0 E(q, a) 0} I A (q 0 ) = 1 I A (q) = 0 P A (q 0, a, q) = I(q) E(q, a) P A (q, a, q) = T (q, q) E(q, a) F A (q 0 ) = 0 F A (q) = 1 q, Q q, q Q q Q q Q q, q Q q Q 11

12 Das HMM emittiert an seinen Zuständen. Wird nur ein Zustand berührt, wird auch genau eine Emission ausgegeben. Unser Automat dagegen ist ein Mealy-Automat und emittiert (bzw. liest Eingaben) nur an Übergängen. Um also eine Eingabe zu lesen, müssen zwei Zustände durchlaufen werden. Deshalb führen wir einen neuen Anfangszustand q 0 ein, der Übergänge zu allen HMM-Zuständen erhält, deren Anfangswahrscheinlichkeit größer 0 ist. Die Übergangswahrscheinlichkeit dieser neuen Übergänge ist gleich der Anfangswahrscheinlichkeit des jeweiligen HMM-Zustandes gesetzt. Bei einem Moore-Automaten wäre die Einführung dieses gesonderten Startzustandes nicht notwendig. WFSA HMM 12

13 So sieht der Gewichtete Endliche Automat für unser Beispiel aus Semiring Der Forward-Algorithmus berechnet die Wahrscheinlichkeit einer Beobachtung. Um dies in einem Gewichteten Endlichen Automaten zu berechnen, benötigen wir den probabilistischen Semiring: K = (R, +,, 0, 1) Um bei der Berechnung zu kleine, mit Computern schwer zu rechnende Zahlenwerte zu vermeiden, kann auch der äquivalente log-semiring verwendet werden: K = (R, log, +,, 0) x log y log e (e x + e y ) 2.3 Transduktor für Viterbi-Algorithmus Umwandlung Für den Viterbi-Algorithmus benötigen wir einen Transduktor, schließlich wollen wir nicht nur einen Zahlenwert, sondern auch den besten Pfad über die durchlaufenen Zustände erhalten. Unser Transduktor gleicht dem Automaten, nur dass er ein Ausgabealphabet A bestehend aus den Zuständen 13

14 Q dazu erhält. HMM = (Q, Σ, I, T, E) WFST = (Q A, Σ A, A, δ A, I A, P A, F A ) Q A = Q {q 0 } Σ A = Σ A = Q I A (q 0 ) = 1 I A (q) = 0 δ A = {(q 0, a, q, q) : I(q) 0 E(q, a) 0} δ A = {(q, a, q, q) : T (q, q) 0 E(q, a) 0} F A (q 0 ) = 0 F A (q) = 1 P A (q 0, a, q, q) = I(q) E(q, a) P A (q, a, q, q) = T (q, q) E(q, a) q Q q, Q q, q Q q Q q Q q, q Q Semiring Der Viterbi-Algorithmus berechnet den wahrscheinlichsten Pfad, der eine Beobachtung generiert hat. Um dies in einem Gewichteten Endlichen Transduktor zu berechnen, benötigen wir eine Abwandlung des tropischen Semirings auch Viterbi-Semiring genannt: K = (R, max,, 0, 1) 3 Rechnen mit Automaten 3.1 Forward-Algorithmus Um nun mit dem erstellten Gewichteten Endlichen Automaten bzw. Transduktor eine der Aufgabenstellungen aus Abschnitt 1 zu berechnen, muss die jeweilige Beobachtung ebenfalls als Automat vorliegen. Das Gewicht dieser 14

15 Eingabe muss gleich dem neutralen Element der -Operation, also 1 sein. Bei unseren Semiringen ist dies ein Gewicht von 1. Nehmen wir wieder unsere Beispiel-Beobachtung aus Abschnitt 1. Unsere Person war gestern spazieren und heute einkaufen: WFSA Eingabe Beim Forward-Algorithmus wollen wir die Wahrscheinlichkeit für diese Beobachtung erhalten. Wir schneiden dazu diesen Eingabeautomaten mit dem zuvor erstellten WFSA unseres Hidden-Markov-Modells und erhalten einen Automaten, der die Wahrscheinlichkeiten für die einzelnen Ereignisse repräsentiert: WFSA Eingabe WFSA HMM Dass die Schnitt-Operation hier angewandt werden kann, verdanken wir der Tatsache, dass WFSA HMM zyklisch ist, vollständig ist, keine Produktionen mit einer Wahrscheinlichkeit von 0 besitzt (falls doch gilt die Produktion als nicht konnex) und alle Zustände bis auf den ersten Zustand Endzustände sind. 15

16 Der Schnitt ist leer, wenn eine Produktion aus WFSA Eingabe nicht in WFSA HMM verfügbar ist, oder deren Wahrscheinlichkeit 0 ist. Dieses Ergebnis ist derart zu deuten, dass das angefragte Ereignis eine Wahrscheinlichkeit von 0 hat. Der Schnitt WFSA Eingabe WFSA HMM ist aber immer noch nicht das, was gesucht ist. Denn statt eines gewichteter endlichen Automaten brauchen wir eine Zahl, nämlich die Wahrscheinlichkeit der Ereignisabfolge. Es gibt mindestens zwei Möglichkeiten, um diese aus dem Automaten W F SA Eingabe W F SA HMM zu errechnen: 1. Wir wenden eine Gewichtsfunktion auf den Automaten an, die das Sprachgewicht des Automaten berechnet, was im Falle des durch Schnitt gewonnenen Automaten der Wahrscheinlichkeit der Ereignisabfolge entspricht, da nur diese Abfolge enthalten ist. Das aber wäre wiederum eine bedingt nicht-automatenalgebraische Lösung, da von außen auf die Datenstruktur des Automaten zugegriffen und gerechnet wird. 2. Näher an dem Dogma, Automaten als Bestandteile einer Algebra aufzufassen, ist die Variante, unseren zuvor gewonnenen Automaten mit einem Transduktor zu komponieren, der Σ auf {ɛ} abbildet, und davon die zweite Projektion zu nehmen. Der resultierende Automat besteht aus genau einem Zustand (er repräsentiert die Sprache) und dem Gewicht des Ursprungsautomaten (dem Sprachgewicht), also der Wahrscheinlichkeit unserer Ereignisabfolge. Auf diesen Automaten muss schlussendlich doch noch die Funktion zur Extraktion des Gewichts angewandt werden, um eine Zahl zu erhalten. Das natürlich nur, sofern man das Gewicht nicht weiterverarbeiten möchte. Die zweite Variante ist zur vorherigen äquivalent, sie stellt jedoch einen algebraischen Weg dar, an das Gesuchte zu gelangen. Man könnte sie als Schönheitsoperation betrachten. Letzten Endes wird in beiden Varianten das Gewicht entlang der Pfade abstrakt multipliziert, anschließend alle identischen Pfade abstrakt addiert und eine Gewichtsfunktion angewandt. Allerdings bedarf es bei Variante 2 keines Eingriffs in die Datenstruktur Automat, sondern nur der Bemühung einer algebraischen Operation. Diese kann höchst performant implementiert sein. Zusammenfassen lässt sich die Berechnung der Wahrscheinlichkeit einer Er- 16

17 eignisabfolge (respektive Variante 2) wie folgt formalisieren: P (O) = Ω ( P roj 2 ( (WFSAHMM WFSA Eingabe ) (Σ {ɛ}) )) Viterbi-Algorithmus Bei der Aufgabenstellung des Viterbi-Algorithmus wollen wir die wahrscheinlichste Abfolge von zugrunde liegenden Ereignissen errechnen. Dazu benötigen wir keinen Eingabe-Automaten, sondern einen -Transduktor, und zwar einen sogenannten Identitätstransduktor, der die Eingabe auf sich selbst abbildet: WFST Eingabe Diesen Eingabe-Transduktor komponieren wir nun mit dem zuvor erstellten WFST des Hidden-Markov-Modells. Komponieren bedeutet, dass wir das Ausgabeband des WFST Eingabe mit dem Eingabeband des WFST HMM schneiden. Im Gegensatz zum Forward-Algorithmus suchen wir nun nicht nur nach einer Zahl, sondern nach einer Folge von Ereignissen, also einem Pfad. Dieser Pfad wird durch den verwendeten Viterbi-Semiring bestimmt: Es ist der mit dem höchsten Gewicht, also dem Ergebnis der max-operation. Diesen Pfad liefert uns die Best-Path-Funktion: WFSA BestPath = BestPath(Proj 2 ( WFSAEingabe WFST HMM ) W F SA BestP ath ist nun ein Automat mit nur einem Pfad, der die gewünschte Folge von wahrscheinlichsten Ereignissen enthält. 1 P roj 2 ist hier die zweite Projektion, also das Ausgabeband des Transduktors. 17

18 4 Eigenschaften Gewichteter Endlicher Automaten und Transduktoren 4.1 Vorteile gegenüber Hidden-Markov-Modellen Gewichtete Endliche Automaten bringen bereits von Hause aus eine Reihe von Algorithmen mit, an deren Optimierung kontinuierlich gearbeitet wird. So können wir auf bestehende Werkzeuge für Automaten zurückgreifen, ohne eigens den Forward- oder Viterbi-Algorithmus implementieren zu müssen. In der Praxis lassen sich Gewichtete Endliche Automaten effizienter verarbeiten als HMMs, auch wenn nicht-determisierte WFSA im schlechtesten Falle NP-vollständig sind. [3] 4.2 Determinisierbarkeit Ein Gewichteter Endlicher Automat, der aus einem Hidden-Markov-Modell erstellt wurde, ist meist nicht deterministisch. Das ist ungünstig für die weitere Verarbeitung, da viele Algorithmen auf Automaten einen determinisierten WFSA/T voraussetzen. Ob dieser Automat determinisierbar ist, hängt davon ab, ob er die Zwillingseigenschaft erfüllt. [6] Dies ist ein Automat mit erfüllter Zwillingseigenschaft: Falls eine Zeichenkette a zu zwei verschiedenen Zuständen q und p führt und von diesen Zuständen 18

19 Schleifen mit dem gleichen Wert b jeweils zu sich selbst zurückführen, so müssen die Pfade dieser Schleifen gleich sein insbesondere deren Gewicht. Die Zwillingseigenschaft lässt sich so formulieren: q 1, q 2 ˆδ(q 0, a) q 1 ˆδ(q 1, b) q 2 ˆδ(q 2, b) θ(q 1, b, q 1 ) = θ(q 2, b, q 2 ) in unserem Beispiel p, q ˆδ(q 0, u) p ˆδ(p, v) q ˆδ(q, v) θ(p, v, p) = θ(q, v, q) u, v Σ Durch die Determinisierung entsteht dann folgender Automat: allgemein Ein Automat ohne Zwillingseigenschaft hätte dagegen Schleifen mit unterschiedlichen Gewichten: Bei dessen Determinisierung käme es bedingt durch den Algorithmus zu einer Endlosschleife: 19

20 Es können also nur Automaten und Transduktoren mit Zwillingseigenschaft determinisiert werden. 4.3 ɛ-entfernung Jeder WFSA bzw. WFST kann zur besseren Weiterverarbeitung ɛ-frei gemacht werden. Zusätzlich zur ɛ-entfernung bei ungewichteten Automaten (FSA/FST) müssen auch Wahrscheinlichkeiten der Epsilon-Übergänge herausgerechnet und auf andere Übergangs- und Endwahrscheinlichkeiten übertragen werden. Denn das Gewicht jedes Wortes soll auch im ɛ-freien Automaten gleich bleiben Problemstellung Beschreiben wir zunächst das Problem an einem Beispiel: Für das Eingabewort ɛ z.b. gibt es nun unendlich viele Pfade. Im einfachsten Fall berühren wir q 1 nur einmal. Das Gewicht dieses Pfades berechnet sich nur aus Anfangs- und Endgewicht von q 1 : Ω(ɛ) (q1 ) = I(q 1 ) F (q 1 ) = = 0.3 Wir können aber auch q 1 zwei- oder dreimal, letztlich unendlich oft durchlaufen: Ω(ɛ) (q1,q 1 ) = I(q 1 ) P (q 1, ɛ, q 1 ) F (q 1 ) = = 0.06 Ω(ɛ) (q1,q 1,q 1 ) = I(q 1 ) P (q 1, ɛ, q 1 ) P (q 1, ɛ, q 1 ) F (q 1 ) = =

21 Das Gewicht des Wortes ɛ in diesem Automaten ist die Summe der Gewichte aller möglichen Pfade: Ω(ɛ) = P (ɛ) (q1 ) + P (ɛ) (q1,q 1 )P (ɛ) (q1,q 1,q 1 ) +... = = 0.2 i 0.3 = i i=0 = i=0 = In dem dem äquivalenten ɛ-freien WFSA muss dieses Gewicht genau als Endgewicht des Zustands q 1 erscheinen, damit das Gewicht des Wortes ɛ auch dort genau beträgt Aufbau In [1] ist ein Algorithmus beschrieben, den wir hier nachfolgend vorstellen. Er lässt sich in 3 Schritte unterteilen: Bei mehreren Startzuständen: Wandle den WFSA in einen mit einem Startzustand um. Entferne alle ɛ-schleifen, also Übergänge der Form (q, ɛ, q). Entferne alle restlichen ɛ-übergänge Nur ein Startzustand Im ersten Schritt stellen wir sicher, dass wir nur einen Zustand mit I > 0 haben, also nur einen Startzustand. Falls nicht, fügen wir einen Zustand q 0 mit I = 1 hinzu, der ɛ-übergänge zu allen bisherigen Startzuständen hat. Die Gewichte dieser ɛ-übergänge sind die jeweiligen Anfangsgewichte des alten Startzustandes, zu dem der Übergang führt. Schließlich setzen wir bei allen alten Zuständen I = 0. Unser Beispiel-Automat ist immer noch der gleiche, da er nur einen Zustand mit I > 0 hat. 21

22 4.3.4 Entfernung der ɛ-schleifen Im zweiten Schritt eliminieren wir alle ɛ-schleifen, also Übergänge der Form (q, ɛ, q). Bei uns betrifft das nur den Übergang (q 1, ɛ, q 1 ). Dazu verändern wir die Wahrscheinlichkeiten von allen Übergängen, die q 1 verlassen: 1 P (q 1, b, q 0 ) = P (q 1, b, q 0 ) P (q 1, ɛ, q 1 ) P (q, x, q ) = P (q, x, q 1 ) P (q, ɛ, q) in unserem Beispiel allgemein Auch das Endgewicht von q 1 müssen wir anfangs angekündigt anpassen: 1 F (q 1 ) = F (q 1 ) P (q 1, ɛ, q 1 ) 1 F (q) = F (q) P (q, ɛ, q) in unserem Beispiel allgemein Betrachten wir kurz einen Zwischenstand unseres WFSA nun ohne ɛ- Schleifen, aber noch mit ɛ-übergängen: Entfernung der restlichen ɛ-übergänge Nun entfernen wir alle restlichen ɛ-übergänge der Form (q, ɛ, q ), in unserem Automaten also (q 0, ɛ, q 1 ). Dazu müssen wir die von q ausgehenden Übergänge betrachten, welche wiederum einen dritten Zustand q erreichen. Wir fügen falls noch nicht vorhanden einen neuen Übergang (q, x, q ) hinzu. q kann dabei auch gleich q sein, wie bei unserem Beispiel. P (q 0, b, q 0 ) = P (q 0, ɛ, q 1 ) P (q 1, b, q 0 ) P (q, x, q ) = P (q, x, q ) + P (q, ɛ, q ) P (q, x, q ) in unserem Beispiel allgemein 22

23 Schließlich müssen wir noch wie zuvor das Endgewicht von q verändern: F (q 0 ) = F (q 0 ) + P (q 0, ɛ, q 1 ) F (q 1 ) F (q) = F (q) + P (q, ɛ, q ) F (q ) in unserem Beispiel allgemein Damit haben wir einen äquivalenten ɛ-freien WFSA erstellt: 4.4 Schnitt und Komposition Der Schnitt zweier WFSA bzw. WFST auch Automatenprodukt genannt ermöglicht mehrere unterschiedliche Wahrscheinlichkeitsverteilungen performant zu kombinieren. In unserem Kontext ist das insofern von Interesse, als dass uns die Äquivalenz zwischen HMM und WFSA ermöglicht, beliebige solcher Wahrscheinlichkeitsverteilungen, wie sie in der Literatur oft zu finden sind, performant zu kombinieren. Die Komposition zweier Transduktoren ist der Schnitt ihrer inneren Bänder also dem Ausgabeband des ersten und dem Eingabeband des zweiten Transduktors. Sie kann daher auch als Generalisierung des Schnitts aufgefasst werden: A B = Proj 2 (ID(A) ID(B)) Grundlegendes Verfahren Betrachten wir als Beispiel diese beiden WFSA: 23

24 Ihr Schnitt ist dieser WFSA: Beim Schnitt werden die Gewichte aller äquivalenten Zustände und Eingaben miteinander multipliziert: WFSA 1 = (Q 1, Σ 1, δ 1, I 1, P 1, F 1 ) WFSA 2 = (Q 2, Σ 2, δ 2, I 2, P 2, F 2 ) WFSA 1 2 = (Q 1 Q 2, Σ 1 Σ 2, δ, I, F, P ) δ = {( q 1, q 2, a, q 1, q 2 ) : (q 1, a, q 1) δ 1 (q 2, a, q 2) δ 2 } I( q 1, q 2 ) = I 1 (q 1 ) I 2 (q 2 ) P ( q 1, q 2, a, q 1, q 2 ) = P (q 1, a, q 1) P (q 2, a, q 2) F ( q 1, q 2 ) = F 1 (q 1 ) F 2 (q 2 ) Das Gewicht eines Wortes im neuen Automaten ist also auch das abstrakte Produkt der Gewichte in den beiden Ursprungs-Automaten: Ω 1 (ab) = = Ω 2 (ab) = = Ω 1 2 (ab) = = = Ω 1 (ab) Ω 2 (ab) Idempotente Semiringe Bei idempotenten Semiringen gilt: x x = x a b = a oder b Das bedeutet: Bei idempotenten Semiringen ergibt die abstrakte Addition zweier Pfadgewichte a b das Gewicht genau eines (möglichen) Pfades. 24

25 Aufgrund dieser Eigenschaft ist die Komposition zweier Automaten mit idempotenten Semiringen problemlos. Als Beispiel dazu wollen wir folgende Automaten komponieren - zunächst mit einem idempotenten Semiring, einer Abwandlung des tropischen: K = (R, min,,, 1) = Bei der Komposition haben sich mehrere Pfade ergeben (graue Box). Um das Gewicht für die Eingabe abcd, welche in dea umgewandelt wird, zu erhalten, müssen wir die Gewichte aller einzelnen Übergänge entlang der Pfade multiplizieren: Ω 1 (θ(q <0,0>, q <1,1>, q <2,2>, q <3,2>, q <4,3> )) = 1 Ω 2 (θ(q <0,0>, q <1,1>, q <2,1>, q <2,2>, q <3,2>, q <4,3> )) = 1 Ω 3 (θ(q <0,0>, q <1,1>, q <2,1>, q <3,1>, q <3,2>, q <4,3> )) = 1 Ω 4 (θ(q <0,0>, q <1,1>, q <1,2>, q <2,2>, q <3,2>, q <4,3> )) = 1 25

26 All diese einzelnen Pfadgewichte müssen nun abstrakt addiert werden, hier, im Falle des tropischen Semirings, also deren Minimum gefunden werden: 4 Ω i = min(1, 1, 1, 1) = 1 i=1 Die in der grauen Box neu eingeführten Pfade haben also keinen verändernden Einfluss auf das Gesamtgewicht Nicht-idempotente Semiringe Nun komponieren wir mit einem nicht-idempotenten Semiring, dem probabilistischen: K = (R, +,, 0, 1) Für das Gesamtgewicht suchen wir nun nicht dass Minimum, sondern addieren, da so die abstrakte Addition im probabilistischen Semiring definiert ist: 4 Ω i = = 4 i=1 Das Gewicht 4 ist nun ein völlig neues. Das liegt daran, das der probablistische Semiring eben nicht idempotent ist und das die ɛ-übergänge im zweiten Transduktor aus einem Pfad mehrere Pfade machen. Die verschiedenen Pfadgewichte werden durch die nicht-idempotenz miteinander verrechnet und ein neuer Wert entsteht. Mohri [5] liefert ein Verfahren, welches dieses Problem behebt. Die zu komponierenden Transduktoren werden dahingehend modifiziert, dass alle relevanten ɛ-übergänge mit einem speziellen silent transition - Symbol ɛ i versehen werden. Dieses wird im Zuge der Komposition mit einem speziellen Filter- Transduktor dazu verwendet, nur den einen gewünschten Pfad zu erlauben (in unserem Falle den rot markierten). 26

27 5 Schluss In dieser Arbeit haben wir zunächst Hidden Markov Modelle mit ihren typischen Aufgabenstellungen und Algorithmen vorgestellt. Danach haben wir Gewichtete Endliche Automaten und Transduktoren mit Semiringen eingeführt und gezeigt, wie man HMMs als Automaten repräsentieren und die Algorithmen mit Automaten-Algebra berechnen kann. Im letzten Teil haben wir bestimmte Eigenschaften von Automaten betrachtet, die im Zusammenhang mit HMMs relevant sind. Damit haben wir die theoretischen Grundlagen für die Lösung typischer HMM-Problemstellungen mittels Endlicher Automaten präsentiert. Literatur [1] Colin de la Higuera. Why ɛ-transitions are not necessary in probabilistic finite automata. Technical report, University of Saint-Etienne, France, [2] Wikipedia Englisch. Hidden Markov model Online, Zugriff am 11. Januar [3] Karin Haenelt. Kursfolien zu Forward- und Viterbi-Algorithmus [4] Thomas Hanneforth. Finite-State Machines Theory and Applications [5] Mehryar Mohri, Fernando C. N. Pereira, and Michael Riley. A rational design for a weighted finite-state transducer library. In WIA 97: Revised Papers from the Second International Workshop on Implementing Automata, pages , London, UK, Springer-Verlag. [6] Ina Mäurer. Zur Minimalisierung und Determinisierung von sequentiellen Transducern [7] Enrique Vidal, Frank Thollard, Colin de la Higuera, Francisco Casacuberta, and Rafael C. Carrasco. Probabilistic finite-state machines part ii. IEEE Transactions on Pattern Analysis and Machine Intelligence, 27(7): ,

Operationen auf endlichen Automaten und Transduktoren

Operationen auf endlichen Automaten und Transduktoren Operationen auf endlichen Automaten und Transduktoren Kursfolien Karin Haenelt 1 Notationskonventionen L reguläre Sprache A endlicher Automat DEA deterministischer endlicher Automat NEA nichtdeterministischer

Mehr

Operationen auf endlichen Akzeptoren und Transduktoren

Operationen auf endlichen Akzeptoren und Transduktoren Operationen auf endlichen Akzeptoren und Transduktoren Kursfolien Karin Haenelt Karin Haenelt 2006, Operationen auf Akzeptoren und Transduktoren, 08.07.2006 ( 1 05.04.2004) 1 Notationskonventionen L reguläre

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung

Mehr

Der Viterbi Algorithmus

Der Viterbi Algorithmus M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

Der Viterbi-Algorithmus im Part-of-Speech Tagging

Der Viterbi-Algorithmus im Part-of-Speech Tagging Der Viterbi-Algorithmus im Part-of-Speech Tagging Kursfolien Karin Haenelt 1 Themen Zweck des Viterbi-Algorithmus Hidden Markov Model Formale Spezifikation Beispiel Arc Emission Model State Emission Model

Mehr

1 Eliminieren von ɛ-übergängen

1 Eliminieren von ɛ-übergängen 1 Eliminieren von ɛ-übergängen 1.1 Beispiel 1 (a) Ausgangspunkt: Zwei ɛ-übergänge (b) Entfernung eines ɛ-übergangs, Reduktion (c) Entfernen eines ɛ-übergangs, Reduktion Abbildung 1: Elimination von ɛ-übergängen,

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Hidden Markov Models (HMM)

Hidden Markov Models (HMM) Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion

Mehr

Formale Sprachen. Reguläre Sprachen. Rudolf FREUND, Marian KOGLER

Formale Sprachen. Reguläre Sprachen. Rudolf FREUND, Marian KOGLER Formale Sprachen Reguläre Sprachen Rudolf FREUND, Marian KOGLER Endliche Automaten - Kleene STEPHEN KLEENE (99-994) 956: Representation of events in nerve nets and finite automata. In: C.E. Shannon und

Mehr

Operationen auf endlichen Akzeptoren und Transduktoren

Operationen auf endlichen Akzeptoren und Transduktoren Operationen auf endlichen Akzeptoren und Transduktoren Definitionen, Algorithmen, Erläuterungen und Beispiele - eine Übersicht Karin Haenelt, 28.5.2010 ( 1 25.04.2004) Operationen auf endlichen Akzeptoren

Mehr

Zusammenfassung Tutorien der Woche ALDABI

Zusammenfassung Tutorien der Woche ALDABI Zusammenfassung Tutorien der Woche 27.-31. 01. 2014 ALDABI Markov-Ketten: Viele Ereignisse schon in unserem Alltag beeinflussen sich gegenseitig, können also als Ablauf oder Kette von Ereignissen gesehen

Mehr

Einführung in die Informatik

Einführung in die Informatik Universität Innsbruck - Institut für Informatik Datenbanken und Informationssysteme Prof. Günther Specht, Eva Zangerle 24. November 28 Einführung in die Informatik Übung 7 Allgemeines Für die Abgabe der

Mehr

Deterministische und nichtdeterministische Turing-Maschinen, Typ1- und Typ0-Sprachen

Deterministische und nichtdeterministische Turing-Maschinen, Typ1- und Typ0-Sprachen Dr. Sebastian Bab WiSe 12/13 Theoretische Grundlagen der Informatik für TI Termin: VL 15 + 16 vom 17.12.2012 und 20.12.2012 Deterministische und nichtdeterministische Turing-Maschinen, Typ1- und Typ0-Sprachen

Mehr

Vorlesungsmitschrift zur Vorlesung Theoretische Informatik I vom 23. Juni Christian Franz

Vorlesungsmitschrift zur Vorlesung Theoretische Informatik I vom 23. Juni Christian Franz Vorlesungsmitschrift zur Vorlesung Theoretische Informatik I vom 23. Juni 2 Christian Franz Inhaltsverzeichnis Wiederholung: Vorlesung vom 9.6.2... Beispiele für Äquivalenzklassen... 4.5. Minimierung

Mehr

2.6 Verdeutlichung verwendeter Begriffe

2.6 Verdeutlichung verwendeter Begriffe 2.6 Verdeutlichung verwendeter Begriffe endlich/finit: die Mengen der Zustände und der Ein- bzw. Ausgabezeichen sind endlich synchron: die Ausgabezeichen erscheinen synchron mit dem Einlauf der Eingabezeichen

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach

Mehr

Transduktoren für die Sprachverarbeitung: Komposition zweier Transduktoren. Karin Haenelt

Transduktoren für die Sprachverarbeitung: Komposition zweier Transduktoren. Karin Haenelt Transduktoren für die Sprachverarbeitung: Komposition zweier Transduktoren Karin Haenelt 28.5.2010 1 Themen Einführung Algorithmus für endlich-sequentielle Transduktoren Beispiele Beispiel 1: Erläuterung

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 18. Januar 2018 INSTITUT FÜR THEORETISCHE 0 18.01.2018 Dorothea Wagner - Theoretische Grundlagen der Informatik INSTITUT FÜR THEORETISCHE KIT Die Forschungsuniversität

Mehr

Formale Grundlagen der Informatik 1 Kapitel 5 Abschlusseigenschaften

Formale Grundlagen der Informatik 1 Kapitel 5 Abschlusseigenschaften Formale Grundlagen der Informatik 1 Kapitel 5 Frank Heitmann heitmann@informatik.uni-hamburg.de 18. April 2016 Frank Heitmann heitmann@informatik.uni-hamburg.de 1/64 NFAs - Grundlagen DFAs vs. NFAs Der

Mehr

Automaten und Coinduktion

Automaten und Coinduktion Philipps-Univestität Marburg Fachbereich Mathematik und Informatik Seminar: Konzepte von Programmiersprachen Abgabedatum 02.12.03 Betreuer: Prof. Dr. H. P. Gumm Referentin: Olga Andriyenko Automaten und

Mehr

Finite-State Technology

Finite-State Technology Finite-State Technology Teil III: Automaten 1 Wiederholung Formale Grammatiken sind entweder axiomatische Systeme mit Ableitungsregeln oder Automaten. Beide beschreiben formale Sprachen. Formale Sprachen

Mehr

Frank Heitmann 2/47. 1 Ein PDA beginnt im Startzustand z 0 und mit im Keller. 2 Ist der Automat

Frank Heitmann 2/47. 1 Ein PDA beginnt im Startzustand z 0 und mit im Keller. 2 Ist der Automat Formale Grundlagen der Informatik 1 Kapitel 5 Über reguläre Sprachen hinaus und (Teil 2) Frank Heitmann heitmann@informatik.uni-hamburg.de 21. April 2015 Der Kellerautomat - Formal Definition (Kellerautomat

Mehr

Die Nerode-Relation und der Index einer Sprache L

Die Nerode-Relation und der Index einer Sprache L Die Nerode-Relation und der Index einer Sprache L Eine zweite zentrale Idee: Sei A ein vollständiger DFA für die Sprache L. Repäsentiere einen beliebigen Zustand p von A durch die Worte in Σ, die zu p

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen

Mehr

Endliche Automaten. Endliche Automaten J. Blömer 1/24

Endliche Automaten. Endliche Automaten J. Blömer 1/24 Endliche Automaten Endliche Automaten J. Blömer /24 Endliche Automaten Endliche Automaten sind ein Kalkül zur Spezifikation von realen oder abstrakten Maschinen regieren auf äußere Ereignisse (=Eingaben)

Mehr

Das Halteproblem für Turingmaschinen

Das Halteproblem für Turingmaschinen Das Halteproblem für Turingmaschinen Das Halteproblem für Turingmaschinen ist definiert als die Sprache H := { T w : T ist eine TM, die bei Eingabe w {0, 1} hält }. Behauptung: H {0, 1} ist nicht entscheidbar.

Mehr

5.2 Endliche Automaten

5.2 Endliche Automaten 114 5.2 Endliche Automaten Endliche Automaten sind Turingmaschinen, die nur endlichen Speicher besitzen. Wie wir bereits im Zusammenhang mit Turingmaschinen gesehen haben, kann endlicher Speicher durch

Mehr

6 Schaltwerke und endliche Automaten

6 Schaltwerke und endliche Automaten 6 Schaltwerke und endliche Automaten 6.1 Entwicklungsstufen 143 In diesem Abschnitt wird gezeigt, wie das Blockschaltbild aus 1.4 realisiert werden kann. Mithilfe der entwickelten Speicherbausteine und

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Ogden s Lemma: Der Beweis (1/5)

Ogden s Lemma: Der Beweis (1/5) Ogden s Lemma: Der Beweis (1/5) Wir betrachten zuerst die Rahmenbedingungen : Laut dem auf der vorhergehenden Folie zitierten Satz gibt es zur kontextfreien Sprache L eine Grammatik G = (Σ, V, S, P) in

Mehr

Automaten und Formale Sprachen

Automaten und Formale Sprachen Automaten und Formale Sprachen Einführung Ralf Möller Hamburg Univ. of Technology Übung Fr. 14:30-15:15 Max Berndt, D1025 Literatur Gottfried Vossen, Kurt-Ulrich Witt: Grundkurs Theoretische Informatik,

Mehr

Automaten und Formale Sprachen SoSe 2013 in Trier

Automaten und Formale Sprachen SoSe 2013 in Trier Automaten und Formale Sprachen SoSe 2013 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 2. Juni 2013 1 Automaten und Formale Sprachen Gesamtübersicht Organisatorisches Einführung Endliche

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten

Mehr

FORMALE SYSTEME. Wiederholung. Beispiel: NFA. Wiederholung: NFA. 4. Vorlesung: Nichtdeterministische Endliche Automaten. TU Dresden, 20.

FORMALE SYSTEME. Wiederholung. Beispiel: NFA. Wiederholung: NFA. 4. Vorlesung: Nichtdeterministische Endliche Automaten. TU Dresden, 20. Wiederholung FORMALE SYSTEME 4. Vorlesung: Nichtdeterministische Endliche Automaten Markus Krötzsch Lehrstuhl Wissensbasierte Systeme Grammatiken können Sprachen beschreiben und sie grob in Typen unterteilen

Mehr

Determinisierung von endlichen Automaten

Determinisierung von endlichen Automaten Thomas Hanneforth Institut für Linguistik Universität Potsdam May 14, 2014 Thomas Hanneforth (Universität Potsdam) May 14, 2014 1 / 21 Outline 1 Einführung 2 Beispiel 3 Ein verbesserter Determinisierungsalgorithmus

Mehr

1 Lokale Sprachen. 2 Verallgemeinerung

1 Lokale Sprachen. 2 Verallgemeinerung 1 Lokale Sprachen Es soll um Sprachen gehen die nur aufgrund ihrer Teilworte einer festen Länge entschieden werden können. Anschaulich heisst dies man kann ein Fenster der Länge k über das Eingabewort

Mehr

1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln,

1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln, Theorie der Informatik 9. März 24 7. Reguläre Sprachen I Theorie der Informatik 7. Reguläre Sprachen I Malte Helmert Gabriele Röger Universität Basel 9. März 24 7. Reguläre Grammatiken 7.2 DFAs 7.3 NFAs

Mehr

10 Kürzeste Pfade SSSP-Problem

10 Kürzeste Pfade SSSP-Problem In diesem Kapitel setzen wir uns mit der Berechnung von kürzesten Pfaden in einem Graphen auseinander. Definition 10.1 (Pfadgewichte). i) Das Gewicht eines Pfades p = (v 0, v 1,..., v k ) ist die Summe

Mehr

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014 idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme

Mehr

Endliche Automaten. Endliche Automaten J. Blömer 1/23

Endliche Automaten. Endliche Automaten J. Blömer 1/23 Endliche Automaten Endliche Automaten sind ein Kalkül zur Spezifikation von realen oder abstrakten Maschinen regieren auf äußere Ereignisse (=Eingaben) ändern ihren inneren Zustand produzieren gegebenenfalls

Mehr

Die mathematische Seite

Die mathematische Seite Kellerautomaten In der ersten Vorlesung haben wir den endlichen Automaten kennengelernt. Mit diesem werden wir uns in der zweiten Vorlesung noch etwas eingängiger beschäftigen und bspw. Ansätze zur Konstruktion

Mehr

Zeitreihenanalyse mit Hidden Markov Modellen

Zeitreihenanalyse mit Hidden Markov Modellen Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials VL PLT2

Mehr

Das Pumping Lemma: Ein Anwendungsbeispiel

Das Pumping Lemma: Ein Anwendungsbeispiel Das Pumping Lemma: Ein Anwendungsbeispiel Beispiel: Die Palindromsprache ist nicht regulär. L = { } w {0, 1} w ist ein Palindrom Beweis: Angenommen, L ist doch regulär. Gemäß Pumping Lemma gibt es dann

Mehr

1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie

1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie 1 Einführung 2 Typ-0- und Typ-1-Sprachen 3 Berechnungsmodelle 4 Unentscheidbarkeit 5 Unentscheidbare Probleme 6 Komplexitätstheorie 15 Ziele vgl. AFS: Berechnungsmodelle für Typ-0- und Typ-1-Sprachen (Nicht-)Abschlußeigenschaften

Mehr

Fragen 1. Muss eine DTM ein Wort zu Ende gelesen haben, um es zu akzeptieren? a) Ja! b) Nein!

Fragen 1. Muss eine DTM ein Wort zu Ende gelesen haben, um es zu akzeptieren? a) Ja! b) Nein! 4 Turingmaschinen Eingabeband nicht nur lesen, sondern auch schreiben kann und die zudem mit ihrem Lese-Schreib-Kopf (LSK) nach links und rechts gehen kann. Das Eingabeband ist zudem in beide Richtungen

Mehr

Machine Translation with Inferred Stochastic Finite-State Transducers

Machine Translation with Inferred Stochastic Finite-State Transducers Machine Translation with Inferred Stochastic Finite-State Transducers von Klaus Suttner HS: Endliche Automaten Dozentin: Karin Haenelt Seminar für Computerlinguistik Universität Heidelberg 29.06.09 Finite-state

Mehr

FORMALE SYSTEME. Wiederholung. Beispiel: NFA. Wiederholung: NFA. 4. Vorlesung: Nichtdeterministische Endliche Automaten. TU Dresden, 19.

FORMALE SYSTEME. Wiederholung. Beispiel: NFA. Wiederholung: NFA. 4. Vorlesung: Nichtdeterministische Endliche Automaten. TU Dresden, 19. Wiederholung FORMALE SYSTEME 4. Vorlesung: Nichtdeterministische Endliche Automaten Markus Krötzsch Professur für Wissensbasierte Systeme Grammatiken können Sprachen beschreiben und sie grob in Typen unterteilen

Mehr

2. Gegeben sei folgender nichtdeterministischer endlicher Automat mit ɛ-übergängen:

2. Gegeben sei folgender nichtdeterministischer endlicher Automat mit ɛ-übergängen: Probeklausur Automatentheorie & Formale Sprachen WiSe 2012/13, Wiebke Petersen Name: Matrikelnummer: Aufgabe A: Typ3-Sprachen 1. Konstruieren Sie einen endlichen Automaten, der die Sprache aller Wörter

Mehr

Die Probabilistische Methode

Die Probabilistische Methode Die Probabilistische Methode Wladimir Fridman 233827 Hauptseminar im Sommersemester 2004 Extremal Combinatorics Zusammenfassung Die Probabilistische Methode ist ein mächtiges Werkzeug zum Führen von Existenzbeweisen.

Mehr

2. Gegeben sei folgender nichtdeterministischer endlicher Automat mit ɛ-übergängen:

2. Gegeben sei folgender nichtdeterministischer endlicher Automat mit ɛ-übergängen: Probeklausur Automatentheorie & Formale Sprachen WiSe 2012/13, Wiebke Petersen Name: Matrikelnummer: Aufgabe A: Typ3-Sprachen 1. Konstruieren Sie einen endlichen Automaten, der die Sprache aller Wörter

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

HMMs und der Viterbi-Algorithmus

HMMs und der Viterbi-Algorithmus July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,

Mehr

Typ-0-Sprachen und Turingmaschinen

Typ-0-Sprachen und Turingmaschinen Typ-0-Sprachen und Turingmaschinen Jean Vancoppenolle Universität Potsdam Einführung in formale Sprachen und Automaten Dr. Thomas Hanneforth (Präsentation aus Foliensätzen von Dr. Thomas Hanneforth und

Mehr

Model Checking mit Büchi Automaten

Model Checking mit Büchi Automaten Ingo Weigelt Softwaretechnik 3 16.05.2007 Übersicht 1 Automaten über unendlichen Wörtern ω-automaten Büchi-Automaten 2 Model Checking mit Büchi Automaten Konstruktion von A Konstruktion von A S Leerheitstest

Mehr

Kapitel 3 Ereignisdiskrete Systeme (III)

Kapitel 3 Ereignisdiskrete Systeme (III) Systemmodellierung Teil 1: Ereignisdiskrete Systeme Kapitel 3 Ereignisdiskrete Systeme (III) Modellierung mit E/A-Automaten Modellbildung mit Automaten Verfeinerte Modellbildung Beispiel: Fahrstuhltür

Mehr

Grundlagen: Algorithmen und Datenstrukturen

Grundlagen: Algorithmen und Datenstrukturen Technische Universität München Fakultät für Informatik Lehrstuhl für Effiziente Algorithmen Dr. Hanjo Täubig Tobias Lieber Sommersemester 011 Übungsblatt 30. Mai 011 Grundlagen: Algorithmen und Datenstrukturen

Mehr

5.4 Endliche Automaten

5.4 Endliche Automaten 5.4 Endliche Automaten Ein endlicher Automat ist ein mathematisches Modell eines Systems mit Ein- und Ausgaben. Ein solches System befindet sich immer in einem internen Zustand. Beispiele Ein Register

Mehr

Definition 78 Ein NPDA = PDA (= Nichtdeterministischer Pushdown-Automat) besteht aus:

Definition 78 Ein NPDA = PDA (= Nichtdeterministischer Pushdown-Automat) besteht aus: 4.7 Kellerautomaten In der Literatur findet man häufig auch die Bezeichnungen Stack-Automat oder Pushdown-Automat. Kellerautomaten sind, wenn nichts anderes gesagt wird, nichtdeterministisch. Definition

Mehr

Informatik III. Christian Schindelhauer Wintersemester 2006/07 3. Vorlesung

Informatik III. Christian Schindelhauer Wintersemester 2006/07 3. Vorlesung Informatik III Christian Schindelhauer Wintersemester 2006/07 3. Vorlesung 02.11.2006 schindel@informatik.uni-freiburg.de 1 Kapitel III Reguläre Sprachen Reguläre Sprachen und Ausdrücke Informatik III

Mehr

Automaten und Formale Sprachen SoSe 2007 in Trier. Henning Fernau Universität Trier

Automaten und Formale Sprachen SoSe 2007 in Trier. Henning Fernau Universität Trier Automaten und Formale Sprachen SoSe 2007 in Trier Henning Fernau Universität Trier fernau@informatik.uni-trier.de 1 Automaten und Formale Sprachen Gesamtübersicht Organisatorisches Einführung Endliche

Mehr

Turing Maschine. Thorsten Timmer. SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke. Turing Maschine SS 2005 p.

Turing Maschine. Thorsten Timmer. SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke. Turing Maschine SS 2005 p. Thorsten Timmer SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke Turing Maschine SS 2005 p. 1/35 Inhalt Einführung Formale Definition Berechenbare Sprachen und Funktionen Berechnung ganzzahliger

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

Reguläre Sprachen. R. Stiebe: Theoretische Informatik für ING-IF und Lehrer,

Reguläre Sprachen. R. Stiebe: Theoretische Informatik für ING-IF und Lehrer, Reguläre Sprachen Reguläre Sprachen (Typ-3-Sprachen) haben große Bedeutung in Textverarbeitung und Programmierung (z.b. lexikalische Analyse) besitzen für viele Entscheidungsprobleme effiziente Algorithmen

Mehr

Der VITERBI-Algorithmus

Der VITERBI-Algorithmus Der VITERBI-Algorithmus Hauptseminar Parsing Sommersemester 2002 Lehrstuhl für Computerlinguistik Universität Heidelberg Thorsten Beinhorn http://janus.cl.uni-heidelberg.de/~beinhorn 2 Inhalt Ziel des

Mehr

ADS-EI 5.2 Struktur einer Turing-Maschine 120/451 ľernst W. Mayr

ADS-EI 5.2 Struktur einer Turing-Maschine 120/451 ľernst W. Mayr Bemerkung: Jede NDTM N (die die Sprache L(N) akzeptiert) kann in eine deterministische Turing-Maschine M konvertiert werden, die ebenfalls genau die Sprache L(N) akzeptiert. Beweisidee: Die Berechnungspfade

Mehr

Einführung in die Theoretische Informatik

Einführung in die Theoretische Informatik Technische Universität München Fakultät für Informatik Prof. Tobias Nipkow, Ph.D. Dr. Werner Meixner, Dr. Alexander Krauss Sommersemester 2010 Lösungsblatt 3 14. Mai 2010 Einführung in die Theoretische

Mehr

Hoffmann (HAW Hamburg) Automatentheorie und formale Sprachen

Hoffmann (HAW Hamburg) Automatentheorie und formale Sprachen Hoffmann (HAW Hamburg) Automatentheorie und formale Sprachen 18.4. 2012 176 Automatentheorie und formale Sprachen VL 5 Reguläre und nichtreguläre Sprachen Kathrin Hoffmann 18. Aptil 2012 Hoffmann (HAW

Mehr

Tagging mit Hidden Markov Models und Viterbi-Algorithmus

Tagging mit Hidden Markov Models und Viterbi-Algorithmus Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:

Mehr

Einführung in die Theoretische Informatik

Einführung in die Theoretische Informatik Technische Universität München Fakultät für Informatik Prof. Tobias Nipkow, Ph.D. Sascha Böhme, Lars Noschinski Sommersemester 2011 Lösungsblatt 8 18. Juli 2011 Einführung in die Theoretische Informatik

Mehr

Endliche Automaten. Im Hauptseminar Neuronale Netze LMU München, WS 2016/17

Endliche Automaten. Im Hauptseminar Neuronale Netze LMU München, WS 2016/17 Endliche Automaten Im Hauptseminar Neuronale Netze LMU München, WS 2016/17 RS- Flipflop RS-Flipflop Ausgangszustand 0 1 0 1 0 1 Set Reset neuer Zustand 0 0 0 0 0 1 1 0 1 1 0 1 0 1 0 0 1 0 Was ist ein endlicher

Mehr

11. GRAPHEN 3 FLÜSSE UND SPANNBÄUME

11. GRAPHEN 3 FLÜSSE UND SPANNBÄUME Algorithmen und Datenstrukturen 11. GRAPHEN 3 FLÜSSE UND SPANNBÄUME Algorithmen und Datenstrukturen - Ma5hias Thimm (thimm@uni-koblenz.de) 1 Algorithmen und Datenstrukturen 11.1. BERECHNUNG MAXIMALER FLÜSSE

Mehr

Grundlagen: Algorithmen und Datenstrukturen

Grundlagen: Algorithmen und Datenstrukturen Technische Universität München Fakultät für Informatik Lehrstuhl für Effiziente Algorithmen Dr. Hanjo Täubig Tobias Lieber Sommersemester 2011 Übungsblatt 1 16. September 2011 Grundlagen: Algorithmen und

Mehr

Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012

Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012 Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Hauptklausur zur Vorlesung Theoretische Grundlagen der Informatik Wintersemester 2011/2012 Hier Aufkleber mit Name und Matrikelnr. anbringen

Mehr

Theoretische Informatik. Berechenbarkeit

Theoretische Informatik. Berechenbarkeit Theoretische Informatik Berechenbarkeit 1 Turing Maschine Endlicher Automat mit unendlichem Speicher Ein Modell eines realen Computers Was ein Computer berechnen kann, kann auch eine TM berechnen. Was

Mehr

ALP I Turing-Maschine

ALP I Turing-Maschine ALP I Turing-Maschine Teil I WS 2012/2013 Äquivalenz vieler Berechnungsmodelle Alonzo Church λ-kalkül Kombinatorische Logik Alan Turing Turing-Maschine Mathematische Präzisierung Effektiv Berechenbare

Mehr

Hidden Markov Models Erläuterung der Bestimmung der Wahrscheinlichkeit einer Beobachtung

Hidden Markov Models Erläuterung der Bestimmung der Wahrscheinlichkeit einer Beobachtung Hidden Markov Models Erläuterung der estimmung der Wahrscheinlichkeit einer eobachtung Kursfolien Karin Haenelt Karin Haenelt Hidden Markov-Modelle 9.66 2.64 Hidden Markov Model HMM: eschreibung Ein Hidden

Mehr

Operationen auf endlichen Automaten und Transduktoren

Operationen auf endlichen Automaten und Transduktoren Operationen auf endlichen utomaten und Transduktoren en, lgorithmen, Erläuterungen und e - eine Übersicht Karin Haenelt, 5.4.4 Vorbemerkung... Notationskonventionen... 3 Übersicht der Operationen...3 4

Mehr

THIA - Übungsblatt 2.

THIA - Übungsblatt 2. THIA - Übungsblatt 2. Aufgabe 12 (Eine einfache Sprache). Endliche Ziffernfolgen, die mit einer 0 beginnen, auf die mindestens eine weitere Ziffer folgt, wobei nur die Ziffern 0,..., 7 vorkommen, sollen

Mehr

1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie

1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie 1 Einführung 2 Typ-0- und Typ-1-Sprachen 3 Berechnungsmodelle 4 Unentscheidbarkeit 5 Unentscheidbare Probleme 6 Komplexitätstheorie 139 Unentscheidbarkeit Überblick Zunächst einmal definieren wir formal

Mehr

. Die obige Beschreibung der Laufzeit für ein bestimmtes k können wir also erweitern und erhalten die folgende Gleichung für den mittleren Fall:

. Die obige Beschreibung der Laufzeit für ein bestimmtes k können wir also erweitern und erhalten die folgende Gleichung für den mittleren Fall: Laufzeit von Quicksort im Mittel. Wir wollen die erwartete Effizienz von Quicksort ermitteln. Wir nehmen an, die Wahrscheinlichkeit, dass das gewählte Pivot-Element a j das k-t kleinste Element der Folge

Mehr

5. Algorithmen. K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16

5. Algorithmen. K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16 5. Algorithmen K. Bothe, Institut für Informatik, HU Berlin, GdP, WS 2015/16 Version: 21. Okt. 2015 1. Berechne 2 n. Zu lösende Probleme 2. Berechne die Fakultät einer nat. Zahl: n! = 1 * 2 *... n 3. Entscheide,

Mehr

Software Engineering Ergänzung zur Vorlesung

Software Engineering Ergänzung zur Vorlesung Ergänzung zur Vorlesung Prof. Dr. Markus Müller-Olm WS 2008 2009 2.6.1 Endliche und reguläre Sprachen Endliche und reguläre Sprache: fundamental in vielen Bereichen der Informatik: theorie Formale Sprachen

Mehr

Nachlieferung Übung 4+7: Minimierung von DFAs, LR-Grammatiken

Nachlieferung Übung 4+7: Minimierung von DFAs, LR-Grammatiken Nachlieferung Übung 4+7: Minimierung von DFAs, LR-Grammatiken Theoretische Informatik Sommersemester 2015 Markus Schlaffer 3. Juli 2015 1/7 Äquivalenzen Definition (Äquivalente Worte) Jede Sprache L Σ

Mehr

Berechenbarkeitstheorie 1. Vorlesung

Berechenbarkeitstheorie 1. Vorlesung Berechenbarkeitstheorie Dr. Institut für Mathematische Logik und Grundlagenforschung WWU Münster WS 15/16 Alle Folien unter Creative Commons Attribution-NonCommercial 3.0 Unported Lizenz. Zentrale Themen

Mehr

9 Minimum Spanning Trees

9 Minimum Spanning Trees Im Folgenden wollen wir uns genauer mit dem Minimum Spanning Tree -Problem auseinandersetzen. 9.1 MST-Problem Gegeben ein ungerichteter Graph G = (V,E) und eine Gewichtsfunktion w w : E R Man berechne

Mehr

Zusammenfassung der letzten LVA. Endliche Automaten mit Epsilon-Übergängen. Inhalte der Lehrveranstaltung (cont d)

Zusammenfassung der letzten LVA. Endliche Automaten mit Epsilon-Übergängen. Inhalte der Lehrveranstaltung (cont d) Zusammenfassung der letzten LVA Ein nichtdeterministischer endlicher Automat (NEA) ist ein 5-Tupel (Q, Σ, δ, S, F), sodass Q eine endliche Menge von Zustände Σ eine endliche Menge, das Eingabealphabet;

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 heoretische Informatik 1 uringmaschinen David Kappel Institut für Grundlagen der Informationsverarbeitung U Graz SS 2014 Übersicht uring Maschinen Algorithmusbegriff konkretisiert Modelldefinition uring-berechenbarkeit

Mehr

FORMALE SYSTEME. 8. Vorlesung: Minimale Automaten. TU Dresden, 6. November Markus Krötzsch Lehrstuhl Wissensbasierte Systeme

FORMALE SYSTEME. 8. Vorlesung: Minimale Automaten. TU Dresden, 6. November Markus Krötzsch Lehrstuhl Wissensbasierte Systeme FORMALE SYSTEME 8. Vorlesung: Minimale Automaten Markus Krötzsch Lehrstuhl Wissensbasierte Systeme TU Dresden, 6. November 2017 Rückblick Markus Krötzsch, 6. November 2017 Formale Systeme Folie 2 von 26

Mehr

2 2 Reguläre Sprachen. 2.2 Endliche Automaten. Übersicht

2 2 Reguläre Sprachen. 2.2 Endliche Automaten. Übersicht Formale Systeme, Automaten, Prozesse Übersicht 2 2. Reguläre Ausdrücke 2.3 Nichtdeterministische endliche Automaten 2.4 Die Potenzmengenkonstruktion 2.5 NFAs mit ɛ-übergängen 2.6 Minimale DFAs und der

Mehr

10 Kellerautomaten. Kellerautomaten

10 Kellerautomaten. Kellerautomaten 10 Kellerautomaten Bisher hatten wir kontextfreie Sprachen nur mit Hilfe von Grammatiken charakterisiert. Wir haben gesehen, dass endliche Automaten nicht in der Lage sind, alle kontextfreien Sprachen

Mehr

Part-Of-Speech-Tagging mit Viterbi Algorithmus

Part-Of-Speech-Tagging mit Viterbi Algorithmus Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus

Mehr

Kapitel 2: Formale Sprachen Gliederung

Kapitel 2: Formale Sprachen Gliederung Gliederung. Einleitung und Grundbegriffe. Endliche Automaten 2. Formale Sprachen 3. Berechnungstheorie 4. Komplexitätstheorie 2.. Chomsky-Grammatiken 2.2. Reguläre Sprachen Reguläre Grammatiken, ND-Automaten

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 20. November 2014 INSTITUT FÜR THEORETISCHE 0 KIT 20.11.2014 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der

Mehr

Formale Methoden 1. Gerhard Jäger 9. Januar Uni Bielefeld, WS 2007/2008 1/23

Formale Methoden 1. Gerhard Jäger 9. Januar Uni Bielefeld, WS 2007/2008 1/23 1/23 Formale Methoden 1 Gerhard Jäger Gerhard.Jaeger@uni-bielefeld.de Uni Bielefeld, WS 2007/2008 9. Januar 2008 2/23 Automaten (informell) gedachte Maschine/abstraktes Modell einer Maschine verhält sich

Mehr

Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur

Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Crocker/Demberg/Staudte Sommersemester 2014 17.07.2014 1. Sie haben 90 Minuten Zeit zur Bearbeitung der Aufgaben.

Mehr