Der Viterbi-Algorithmus im Part-of-Speech Tagging
|
|
- Friederike Mann
- vor 5 Jahren
- Abrufe
Transkript
1 Der Viterbi-Algorithmus im Part-of-Speech Tagging Kursfolien Karin Haenelt 1
2 Themen Zweck des Viterbi-Algorithmus Hidden Markov Model Formale Spezifikation Beispiel Arc Emission Model State Emission Model Beispiel für diese Folien Aufgabe: Suche der wahrscheinlichsten Interpretation einer Beobachtung Ineffiziente Lösung Viterbi-Algorithmus Prinzip Notation Algorithmus Funktionen δ und ψ Implementierung mit den Arrays SeqScore und BackPtr 2
3 Zweck Finde - für eine gegebene Beobachtung - in einem Hidden Markov Model - die wahrscheinlichste Sequenz verborgener Zustände nomn auxv part.1 punkt nomn kopv ade.1 punkt wir werden geschickt.3 x.3 x.2 x.2 x.3 x.1 x.4 = wir werden geschickt.3 x.3 x.2 x.2 x.5 x.1 x.2 =
4 Beispielanwendungen Sprachverarbeitung Part-of-Speech Tagging Worterkennung Kryptographie 4
5 Themen Zweck des Viterbi-Algorithmus Hidden Markov Model Formale Spezifikation Beispiel Arc Emission Model State Emission Model Beispiel für diese Folien Aufgabe: Suche der wahrscheinlichsten Interpretation einer Beobachtung Ineffiziente Lösung Viterbi-Algorithmus Prinzip Notation Algorithmus Funktionen δ und ψ Implementierung mit den Arrays SeqScore und BackPtr 5
6 Hidden Markov Model Formal spezifiziert durch Fünf-Tupel S = { s1,..., sn} K = { k1,..., km } = {1,..., M} Π = {π i}, i S A = { ai}, i, S B = { bik}, i, S, k K N = 1 M k = 1 ai bik b ik = P(O n = k X n = s i, X n+1 = s ) = 1 = 1 ( S, K, Π, A, B) Menge der Zustände Ausgabe-Alphabet Wahrscheinlichkeiten der Startzustände Wahrscheinlichkeiten der Zustandsübergänge Wahrscheinlichkeiten der Symbolemissionen 6 Manning/Schütze, 2000: 326
7 HMM: Arc Emission Model: Darstellung als Wahrscheinlichkeitsmatrix Übergangsmatrix Start X t X t+1 π Ade AuxV KopV Nomn Part Ω Ade.2 Emissionsmatrix o t Punkt geschickt werden wir AuxV KopV.2 Emissionsmatrix o t Punkt geschickt werden wir Nomn Part Ω
8 Arc Emission Model: Spezialfall: State Emission Model Übergangsmatrix X t X t+1 Ade AuxV Ade.2 Emissionsmatrix o t geschickt werden wir AuxV... Wenn die Emissionsverteilungen für alle Übergänge aus einem Zustand identisch sind, entspricht dies einem State Emission Modell.1 Emissionsmatrix o t geschickt werden wir
9 HMM: Beispiel für diese Folien Übergangsmatrix Emissionsmatrix Startwahrscheinlichkeit X t X t+1 o t π Ade AuxV KopV Nomn Part Ω geschickt werden wir... Ade AuxV KopV Nomn Part Ω Alternative: an Stelle von Startwahrscheinlichkeiten - dem zu analysierenden Text einen Punkt (Kategorie Ω) voranstellen - und nur mit den Übergangs- und Emissionswahrscheinlickeiten arbeiten Karin Haenelt, Hidden Markov-Modelle, ( ) 9
10 Themen Zweck des Viterbi-Algorithmus Hidden Markov Model Formale Spezifikation Beispiel Arc Emission Model State Emission Model Beispiel für diese Folien Aufgabe: Suche der wahrscheinlichsten Interpretation einer Beobachtung Ineffiziente Lösung Viterbi-Algorithmus Prinzip Notation Algorithmus Funktionen δ und ψ Implementierung mit den Arrays SeqScore und BackPtr 10
11 HMM [Aufgabe]: Beste Pfadsequenz finden gegeben eine Sequenz von Beobachtungen O=(wir,werden,geschickt) ein Modell Übergangsmatrix Emissionsmatrix Startwahr- scheinlich- keit X t X t+1 o t π Ade AuxV KopV Nomn Part Ω geschickt werden wir... Ade AuxV KopV Nomn Part Ω O = ( o1,..., ot) µ = ( A, B, Π) gesucht die wahrscheinlichste Pfadsequenz P( wir, werden, geschickt µ ) arg max P( X O, µ ) X 11
12 Themen Zweck des Viterbi-Algorithmus Hidden Markov Model Formale Spezifikation Beispiel Arc Emission Model State Emission Model Beispiel für diese Folien Aufgabe: Suche der wahrscheinlichsten Interpretation einer Beobachtung Ineffiziente Lösung Viterbi-Algorithmus Prinzip Notation Algorithmus Funktionen δ und ψ Implementierung mit den Arrays SeqScore und BackPtr 12
13 Ineffiziente Lösung 1 Ω wir Ade werden Ade geschickt Ade 2 geschickt AuxV 3 geschickt KopV 4 geschickt Nom 5 geschickt Part 6 werden AuxV geschickt Ade 7 geschickt AuxV wir Nomn werden AuxV geschickt Part 86 wir Nomn werden KopV geschickt Ade wir Part werden Part geschickt Part Für 3 Beobachtungen und 5 Kategorien 5 3 Schritte 13
14 Beispiel ineffiziente Suche der besten Lösung P(Ade Ade Ade wir,werden,geschickt, µ) P(Ade Ade AuxV wir,werden,geschickt, µ) P(Nomn AuxV Part wir,werden,geschickt, µ) P(Nomn KopV Ade wir,werden,geschickt, µ) P(Part Part Part wir,werden,geschickt, µ) =0.0.3 x.2 x.4 x.3 x.2 x.4 = x.2 x.3 x.5 x.2 x.2 = =0.0 14
15 Themen Zweck des Viterbi-Algorithmus Hidden Markov Model Formale Spezifikation Beispiel Arc Emission Model State Emission Model Beispiel für diese Folien Aufgabe: Suche der wahrscheinlichsten Interpretation einer Beobachtung Ineffiziente Lösung Viterbi-Algorithmus Prinzip Notation Algorithmus Funktionen δ und ψ Implementierung mit den Arrays SeqScore und BackPtr 15
16 Viterbi-Lösung Kompakte Darstellung der Pfade als Gitter (Trellis) Wiederverwendung partieller Ergebnisse statt Neuberechnung Speichert für eden Zeitpunkt t die Wahrscheinlichkeit des wahrscheinlichsten Pfades, der bis zu einem Knoten führt den Vorgängerknoten auf diesem Pfad wir Ade werden Ade geschickt Ade wir AuxV werden AuxV geschickt AuxV. Ω wir KopV werden KopV geschickt KopV wir Nomn werden Nomn geschickt Nomn wir Part werden Part geschickt Part 16
17 Viterbi-Algorithmus: Prinzip: Funktionen δ und ψ δ: bester Pfad zu Zustand in Zeitpunkt i wir Ade 0 wir AuxV 0. Ω wir KopV 0 wir Nomn0.06 wir Part 0 werden Ade 0 werden AuxV werden KopV werden Nomn0 werden Part 0 geschickt Ade geschickt AuxV 0 geschickt KopV 0 geschickt Nomn0 geschickt Part = Ade = AuxV = KopV = Nomn = Part ψ: Vorgänger auf bestem Pfad zu Zustand in Zeitpunkt i gemäßδ wir Ade 0 wir AuxV 0. Ω wir KopV 0 wir Nomn Ω wir Part 0 werden Ade 0 werden AuxV Nomn werden KopV Nomn werden Nomn0 werden Part 0 geschickt Ade KopV geschickt AuxV 0 geschickt KopV 0 geschickt Nomn0 geschickt Part AuxV i=1 i = 2 i = 3 i = 4 17
18 δ 1 1. Initialisierung Viterbi-Algorithmus: Prinzip: Schritte 2. Induktion: Berechnung von δ und ψ über den Pfad δ 3. Terminierung u. Pfadausgabe i+1 δ i+1 δ i+1. Ω wir Ade 0 wir AuxV 0 wir KopV 0 wir Nomn0.06 wir Part 0 werden Ade 0 werden AuxV werden KopV werden Nomn0 werden Part 0 geschickt Ade geschickt AuxV 0 geschickt KopV 0 geschickt Nomn0 geschickt Part Ω wir Ade 0 wir AuxV 0 wir KopV 0 wir Nomn Ω wir Part 0 werden Ade 0 werden AuxV Nomn werden KopV Nomn werden Nomn0 werden Part 0 geschickt Ade KopV geschickt AuxV 0 geschickt KopV 0 geschickt Nomn0 geschickt Part AuxV 18
19 Viterbi-Algorithmus: Notation Der Algorithmus wird für das Beispiel des part-of-speech-tagging spezifiziert es gelten folgende Entsprechungen: - Zustand: tag - Emission: Wort - Beobachtung: Satz w i t i t T n Wort an Position i tag von Wort i.tes tag in der Menge der tags Anzahl der tags in der Menge der tags Länge des Satzes 19
20 Spezifikation des Algorithmus 1 comment: Given: a sentence of length n 2 comment: Initialization 3 δ 1 ( Ω) = δ 1( t) = 0.0 for t Ω 5 comment: Induction 6 for i := 1 to n step 1 do 7 for all tags t do k k 8 δi + 1( t ) : = max [ δ 1 k T i ( t ) P( wi + 1 t ) P( t t )] k 9 ψi + 1( t ) : = arg max [ δ 1 k T i ( t ) P( wi + 1 t ) P( t t 10 end 11 end 12 comment: Termination and path-readout 13 X n + 1 = arg max1 T δ n+ 1( ) 14 for := n to 1 step -1 do 15 X = ψ +1 ( X + 1) 16 end 17 P ( X1,..., X n ) = max1 T δ n+ 1( t ) )] 20 Manning/Schütze, 2000: 350 k
21 Funktion δ δ i + 1( = δ 1 k T i i+ 1 k t ) : max [ ( t ) P( w t ) P( t t k )] δ: bester Pfad zu Zustand in Zeitpunkt i berechnet für eden Punkt im Gitter (trellis) die Wahrscheinlichkeit des wahrscheinlichsten Pfades, der bis zu diesem Knoten führt 21
22 . Ω wir Ade 0 wir AuxV 0 wir KopV 0 wir Nomn0.06 wir Part 0 δ Funktion δ i + 1( = δ 1 k T i i+ 1 k t ) : max [ ( t ) P( w t ) Wort 2 = wir P( t t k )] (t ) := max k 1 k T [ ( t ) k δ w i t ) P ( t t ) i P ( + 1 Vorgängerknoten aktueller Knoten max. Prob. Emissions-Prob. Transition-Prob. Ade - Ade δ 1( Ade) 0.0 P(wir Ade) 0.0 P(Ade Ade) AuxV δ ( 1 ) P(Ade AuxV) KopV δ 1( KopV ) P(Ade KopV) Nomn δ ( 1 ) P(Ade Nomn) Part δ ( 1 ) P(Ade Part) Ω δ ( 1 ) P(Ade Ω ) P(wir Auxv) 0.0 Nomn - Ade δ 1( Ade) 0.0 P(wir Nomn) 0.2 P(Nomn Ade) AuxV δ ( 1 ) P(Nomn AuxV) KopV δ 1( KopV ) P(Nomn KopV) Nomn δ ( 1 ) P(Nomn Nomn) Part δ ( 1 ) P(Nomn Part) Ω δ ( ) P(Nomn Ω ) Ω
23 Funktion ψ ψ i + 1( = δ 1 k T i i+ 1 k t ) : arg max [ ( t ) P( w t ) P( t t k )] ψ: bester Vorgänger zu Zustand in Zeitpunkt i gemäßδ ermittelt für eden Punkt im Gitter (trellis) den Vorgängerknoten auf dem wahrscheinlichsten Pfad, der bis zu diesem Knoten führt 23
24 . Ω wir Ade 0 wir AuxV 0 wir KopV 0 wir Nomn Ω wir Part 0 δ Funktion ψ i + 1( = δ 1 k T i i+ 1 k t ) : max [ ( t ) P( w t ) Wort 2 = wir P( t t k )] (t ) := max k 1 k T [ ( t ) k δ w i t ) P ( t t ) i P ( + 1 Vorgängerknoten aktueller Knoten max. Prob. Emissions-Prob. Transition-Prob. Ade - Ade δ 1( Ade) 0.0 P(wir Ade) 0.0 P(Ade Ade) AuxV δ ( 1 ) P(Ade AuxV) KopV δ 1( KopV ) P(Ade KopV) Nomn δ ( 1 ) P(Ade Nomn) Part δ ( 1 ) P(Ade Part) Ω δ ( 1 ) P(Ade Ω ) P(wir Auxv) 0.0 Nomn - Ade δ 1( Ade) 0.0 P(wir Nomn) 0.2 P(Nomn Ade) AuxV δ ( 1 ) P(Nomn AuxV) KopV δ 1( KopV ) P(Nomn KopV) Nomn δ ( 1 ) P(Nomn Nomn) Part δ ( 1 ) P(Nomn Part) Ω δ ( ) P(Nomn Ω ) Ω
25 Funktion δ und Datenstruktur SeqScore. Ω wir Ade 0 wir AuxV 0 wir KopV 0 wir Nomn0.06 wir Part 0 werden Ade 0 werden AuxV werden KopV werden Nomn0 werden Part 0 geschickt Ade geschickt AuxV 0 geschickt KopV 0 geschickt Nomn0 geschickt Part SEQSCORE(,i): Speicherung der Ergebnisse von δ Tag Ade AuxV KopV Nomn Part Ω Wort i wir werden geschickt
26 Funktion ψ und Datenstruktur BackPtr. Ω wir Ade 0 wir AuxV 0 wir KopV 0 wir Nomn Ω wir Part 0 werden Ade 0 werden AuxV Nomn werden KopV Nomn werden Nomn0 werden Part 0 geschickt Ade KopV geschickt AuxV 0 geschickt KopV 0 geschickt Nomn0 geschickt Part AuxV BackPtr(,i): Speicherung der Ergebnisse von ψ Tag Ade AuxV KopV Nomn Part Ω Wort i 1. 2 wir 6 3 werden geschickt
27 Terminierung und Pfadausgabe SEQSCORE(,i): Speicherung der Ergebnisse von δ Tag Ade AuxV KopV Nomn Part Ω Wort i wir werden geschickt BackPtr(,i): Speicherung der Ergebnisse von ψ Tag Ade AuxV KopV Nomn Part Ω Wort i 1. 2 wir 6 3 werden geschickt
28 Versionen V 3.0: V 2.0: V 1.0:
29 Literatur Allen, James (1995): Natural Language Understanding. 2nd edition. Addison-Wesley Publishing Co. Haenelt, Karin (2007): Der Viterbi-Algorithmus. Eine Erläuterung der formalen Spezifikation am Beispiel des Part-of-Speech Tagging. Kursskript. ( ) Tutor.doc Tutor.htm Manning, Christopher D.; Schütze, Hinrich (1999): Foundations of Statistical Natural Language Processing. Cambridge, Mass., London: The MIT Press. (vgl.: Viterbi, Andrew J. (1967): Error bounds for convolutional codes and an asymptotically optimum decoding algorithm. In: IEEE Transactions on Information Theory IT-13, S
Hidden Markov Models
Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung
MehrDer Viterbi Algorithmus
M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion
MehrHidden Markov Models (HMM)
Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen
MehrHidden Markov Models Erläuterung der Bestimmung der Wahrscheinlichkeit einer Beobachtung
Hidden Markov Models Erläuterung der estimmung der Wahrscheinlichkeit einer eobachtung Kursfolien Karin Haenelt Karin Haenelt Hidden Markov-Modelle 9.66 2.64 Hidden Markov Model HMM: eschreibung Ein Hidden
MehrDer VITERBI-Algorithmus
Der VITERBI-Algorithmus Hauptseminar Parsing Sommersemester 2002 Lehrstuhl für Computerlinguistik Universität Heidelberg Thorsten Beinhorn http://janus.cl.uni-heidelberg.de/~beinhorn 2 Inhalt Ziel des
MehrDer Viterbi-Algorithmus.
Der Viterbi-Algorithmus. Eine Erläuterung der formalen Spezifikation am Beispiel des Part-of-Speech Tagging. Kursskript Karin Haenelt, 9..7 (.5.) Einleitung In diesem Skript wird der Viterbi-Algorithmus
MehrTagging mit Hidden Markov Models und Viterbi-Algorithmus
Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:
MehrHidden Markov Models (HMM) Karin Haenelt
Hidden Markov Models (HMM) Karin Haenelt 16.5.2009 1 Inhalt Einführung Theoretische Basis Elementares Zufallsereignis Stochastischer Prozess (Folge von elementaren Zufallsereignissen) Markow-Kette (Stochastischer
MehrViterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes
Viterbi Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus von Arndt Faulhaber und Benjamin Schlebes Seminar: Endliche Automaten für die Sprachverarbeitung SS 2005 PD Dr. K. Haenelt 1/28
MehrElementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung
Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln
MehrPart-Of-Speech-Tagging mit Viterbi Algorithmus
Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus
MehrProjektgruppe. Text Labeling mit Sequenzmodellen
Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
MehrPart-of-Speech Tagging. Stephanie Schuldes
Part-of-Speech Tagging Stephanie Schuldes 05.06.2003 PS Erschließen von großen Textmengen Geißler/Holler SoSe 2003 Motivation Ziel: vollständiges Parsing und Verstehen natürlicher Sprache Herantasten durch
MehrZeitreihenanalyse mit Hidden Markov Modellen
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials VL PLT2
MehrHidden Markov Modelle
Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten
MehrHidden Markov Modellen
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials) VL PLT2
MehrOperationen auf endlichen Akzeptoren und Transduktoren
Operationen auf endlichen Akzeptoren und Transduktoren Kursfolien Karin Haenelt Karin Haenelt 2006, Operationen auf Akzeptoren und Transduktoren, 08.07.2006 ( 1 05.04.2004) 1 Notationskonventionen L reguläre
MehrDer Earley-Algorithmus
Der Earley-Algorithmus Kursfolien Karin Haenelt 25.03.02 1 25.03.02 2 Inhalt Funktion des Earley-Algorithmus Begriffe Erkenner/Parser Kontextfreie Grammatik Ein Beispiel Funktionen des Algorithmus Funktionsweise
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen
MehrDer Earley-Algorithmus
Der Earley-Algorithmus Kursfolien Karin Haenelt 25.03.02 1 25.03.02 2 Inhalt Funktion des Earley-Algorithmus Begriffe Erkenner/Parser Kontextfreie Grammatik Ein Beispiel Funktionen des Algorithmus Funktionsweise
MehrLI07: Hidden Markov Modelle und Part-of-Speech Tagging
LI07: Hidden Markov Modelle und Part-of-Speech Tagging sumalvico@informatik.uni-leipzig.de 18. Mai 2017 Wiederholung: Statistisches Sprachmodell Ein statistisches Sprachmodell besteht allgemein aus: einer
MehrHidden Markov Models
Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach
MehrOperationen auf endlichen Automaten und Transduktoren
Operationen auf endlichen Automaten und Transduktoren Kursfolien Karin Haenelt 1 Notationskonventionen L reguläre Sprache A endlicher Automat DEA deterministischer endlicher Automat NEA nichtdeterministischer
MehrHidden Markov Modelle
Hidden Markov Modelle (Vorabversion begleitend zur Vorlesung Spracherkennung und integrierte Dialogsysteme am Lehrstuhl Medieninformatik am Inst. f. Informatik der LMU München, Sommer 2005) Prof. Marcus
MehrFriedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong
Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem
MehrHidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014
idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme
Mehr1 Part-of-Speech Tagging
2. Übung zur Vorlesung NLP Analyse des Wissensrohstoes Text im Sommersemester 2008 mit Musterlösungen Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 28. Mai 2008 1 Part-of-Speech
MehrHidden Markov Model (HMM)
Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Paul Prasse Michael Großhans Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. 6 Leistungspunkte
MehrMachine Translation with Inferred Stochastic Finite-State Transducers
Machine Translation with Inferred Stochastic Finite-State Transducers von Klaus Suttner HS: Endliche Automaten Dozentin: Karin Haenelt Seminar für Computerlinguistik Universität Heidelberg 29.06.09 Finite-state
MehrElementare Grundlagen der Wahrscheinlichkeitstheorie
Kursfolien Karin Haenelt Oktober 2000 Inhalt Ereignisraum Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeiten Theorem von Bayes 2 Ereignisraum W Ergebnismenge (sample space) Menge der möglichen W = {nom,gen,dat,acc}
MehrLernalgorithmen SoSe 2010 in Trier. Henning Fernau Universität Trier
Lernalgorithmen SoSe 2010 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 1 Lernalgorithmen Gesamtübersicht 0. Einführung 1. Identifikation (aus positiven Beispielen) 2. Zur Identifikation
MehrHMMs und der Viterbi-Algorithmus
July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,
MehrTutoriums-Paper zu Hidden Markov Models
Tutoriums-Paper zu Hidden Markov Models Mario Mohr February 1, 2015 Contents 1 Das Modell 1 2 Der Forward-Algorithmus 2 2.1 Wahrscheinlichkeiten von Beobachtungsketten........................ 4 2.2 Filtering.............................................
MehrEndliche Automaten. Grundlagen: Alphabet, Zeichenreihe, Sprache. Karin Haenelt
Endliche Automaten Grundlagen: Alphabet, Zeichenreihe, Sprache Karin Haenelt 1 Alphabet, Zeichenreihe und Sprache Alphabet unzerlegbare Einzelzeichen Verwendung: als Eingabe- und Ausgabezeichen eines endlichen
MehrActive Hidden Markov Models for Information Extraction
HMMs in der IE p.1/28 Active Hidden Markov Models for Information Extraction Seminar Informationsextraktion im WiSe 2002/2003 Madeleine Theile HMMs in der IE p.2/28 Inhaltsübersicht Ziel formalere Aufgabenbeschreibung
MehrAlgorithmische Bioinformatik
Algorithmische Bioinformatik Hidden-Markov-Modelle Viterbi - Algorithmus Ulf Leser Wissensmanagement in der Bioinformatik Inhalt der Vorlesung Hidden Markov Modelle Baum, L. E. and Petrie, T. (1966). "Statistical
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer, Tom Vanck, Paul Prasse Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Termin: Montags,
MehrHidden-Markov-Modelle
Proseminar: Machine-Learning Hidden-Markov-Modelle Benjamin Martin Zusammenfassung 1953 stellten Watson und Crick ihr DNA-Modell vor. Damit öffnete sich für Genforscher ein riesiges Gebiet, das bisher
MehrHidden-Markov-Modelle als Gewichtete Endliche Automaten
Hidden-Markov-Modelle als Gewichtete Endliche Automaten Alexander Becker Georg Jähnig 19. Mai 2008 Hauptseminar Theorie semiringgewichteter Automaten Thomas Hanneforth, Kay Würzner Institut für Linguistik
MehrÜberführung regulärer Ausdrücke in endliche Automaten
Der Algorithmus von Thompson Karin Haenelt 9.5.2010 1 Inhalt Quelle Prinzip des Algorithmus Algorithmus Konstruktion des Automaten Basisausdrücke Vereinigung, Konkatenation, Hülle Beispiel Implementierung
MehrZusammenfassung Tutorien der Woche ALDABI
Zusammenfassung Tutorien der Woche 27.-31. 01. 2014 ALDABI Markov-Ketten: Viele Ereignisse schon in unserem Alltag beeinflussen sich gegenseitig, können also als Ablauf oder Kette von Ereignissen gesehen
MehrEndliche Automaten. Minimierung. Karin Haenelt. Karin Haenelt, 2004, FSA-Minimierung, ( )
Endliche Automaten Minimierung Karin Haenelt 1 Inhalt Vorteile eines Minimalautomaten Fälle für die Minimierung Minimierungsalgorithmus für deterministische endliche Automaten (mit totaler Übergangsfunktion)
MehrÜberführung regulärer Ausdrücke in endliche Automaten
Endliche Automaten Überführung regulärer Ausdrücke in endliche Automaten Karin Haenelt 1 Inhalt Anwendung: Spezifikation linguistischer Regeln Theoretische Basis: Äquivalenz regulärer Ausdrücke und endlicher
MehrHidden Markov Model ein Beispiel
Hidden Markov Model ein Beispiel Gegeben: Folge von Beobachtungen O = o 1,..., o n = nass, nass, trocken, nass, trocken Menge möglicher Systemzustände: Z = {Sonne, Regen} Beobachtungswahrscheinlichkeiten:
MehrElementare Grundlagen der Wahrscheinlichkeitstheorie
Kursfolien Karin Haenelt Oktober 2000 Inhalt Ereignisraum Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeiten Theorem von Bayes 2 Ereignisraum W Ergebnismenge (sample space) Menge der möglichen W = {nom,gen,dat,acc
MehrHMM-Synthese (Grundzüge)
(Grundzüge) Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München reichelu@phonetik.uni-muenchen.de 6. Dezember 2010 Inhalt HMM-Grundlagen HMM und Phonemerkennung HMM-Grundlagen
MehrOperationen auf endlichen Akzeptoren und Transduktoren
Operationen auf endlichen Akzeptoren und Transduktoren Definitionen, Algorithmen, Erläuterungen und Beispiele - eine Übersicht Karin Haenelt, 28.5.2010 ( 1 25.04.2004) Operationen auf endlichen Akzeptoren
MehrCodierung Faltungs-Codes
Übersicht Elektromagnetische Wellen Frequenzen und Regulierungen Antennen Signale Signalausbreitung Multiplex Modulation Bandspreizverfahren Codierung Rauschen und Übertragungsfehler Fehlerdetektion Block-Codes
MehrProbabilistisches Parsing Teil II
Ruprecht-Karls-Universität Heidelberg Computerlinguistisches Seminar SS 2002 HS: Parsing Dozentin: Dr. Karin Haenelt Referentin: Anna Björk Nikulásdóttir 10.06.02 1. Parsingmodelle Probabilistisches Parsing
MehrTransduktoren für die Sprachverarbeitung: Komposition zweier Transduktoren. Karin Haenelt
Transduktoren für die Sprachverarbeitung: Komposition zweier Transduktoren Karin Haenelt 28.5.2010 1 Themen Einführung Algorithmus für endlich-sequentielle Transduktoren Beispiele Beispiel 1: Erläuterung
MehrAufabe 7: Baum-Welch Algorithmus
Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,
MehrEvaluation und Training von HMMs
Evaluation und Training von MMs Vorlesung omputerlinguistische Techniken Alexander Koller. Dezember 04 MMs: Beispiel initial p. a 0 0.8 0.7 0. Eisner 0. transition p. 0. 0.6 a 0.5 0. emission p. b () States
Mehr1
1 CO 2 -Emissionen 2 3 4 5 6 7 8 9 10 2 12,999,976 km 9,136,765 km 1,276,765 km 499,892 km 245,066 km 112,907 km 36,765 km 24,159 km 7899 km 2408 km 76 km 12 14 16 9 10 1 8 12 7 3 1 6 2 5 4 3 11 18 20
MehrTreeTagger. Deborah Watty
TreeTagger Deborah Watty POS-Tagging store Das ist ein Haus. Artikel Verb Artikel Nomen Nom The 1977 PCs could only store two pages Modalverb Adverb of data. Wir wissen: store kann Nomen oder Verb sein.
MehrWortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank
Wortdekodierung Vorlesungsunterlagen Speech Communication 2, SS 2004 Franz Pernkopf/Erhard Rank Institute of Signal Processing and Speech Communication University of Technology Graz Inffeldgasse 16c, 8010
MehrBayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008
Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation
Mehr12. Der Algorithmus von Dijkstra. Informatik II für Verkehrsingenieure
. Der Algorithmus von Dijkstra Informatik II für Verkehrsingenieure Problemstellung Gegeben: Graph G =(V, E, len) mit positiver Kantenfunktion len : E! R 0, Knoten s, t V Mögliche Aufgaben Berechne Distanz
MehrProbabilistische kontextfreie Grammatiken
Mathematische Grundlagen III Probabilistische kontextfreie Grammatiken 14 Juni 2011 1/26 Ambiguität beim Parsing Wörter können verschiedene Bedeutungen haben und mehr als einer Wortkategorien angehören
MehrDisMod-Repetitorium Tag 3
DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 216 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Aufgabe
MehrConstanze Tschöpe und Matthias Wolff Fraunhofer IZFP Dresden, BTU Cottbus
ZUR FORMULIERUNG VON HIDDEN-MARKOV-MODELLEN ALS ENDLICHE TRANSDUKTOREN Constane Tschöpe und Matthias Wolff Fraunhofer IZFP Dresden, BTU Cottbus constane.tschoepe@ifp-d.fraunhofer.de Kurfassung: Hidden-MARKOV-Modelle
MehrA3.9: Viterbi Algorithmus: Grundlegendes
A3.9: Viterbi Algorithmus: Grundlegendes Die Grafik zeigt ein Trellisdiagramm und definiert gleichzeitig die Fehlergrößen Γ i (S 0 ) und Γ i (S 1 ) zu den Zeitpunkten i = 0 bis i = 5. Aus diesem Trellis
MehrHidden Markov Models in Anwendungen
Hidden Markov Models in Anwendungen Prof Dr. Matthew Crocker Universität des Saarlandes 18. Juni 2015 Matthew Crocker (UdS) HMM Anwendungen 18. Juni 2015 1 / 26 Hidden Markov Modelle in der Computerlinguistik
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik HMM POS-Tagging Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 20 POS Tags (1) Jurafsky and Martin (2009) POS = part-of-speech Tags sind morphosyntaktische
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Grundlagen Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 21 Diskrete Wahrscheinlichkeitsräume (1) Carstensen et al. (2010), Abschnitt
MehrAlgorithmen & Komplexität
Algorithmen & Komplexität Angelika Steger Institut für Theoretische Informatik steger@inf.ethz.ch Kürzeste Pfade Problem Gegeben Netzwerk: Graph G = (V, E), Gewichtsfunktion w: E N Zwei Knoten: s, t Kantenzug/Weg
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 S. Constantin (stefan.constantin@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Aufgabe
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 S. Constantin (stefan.constantin@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 4 Maschinelles Lernen und Spracherkennung Abgabe
MehrMaschinelle Sprachverarbeitung: Part-of-Speech-Tagging
HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging Tobias Scheffer Ulf Brefeld POS-Tagging Zuordnung der Wortart von
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte
MehrFakultät für Informatik Universität Magdeburg Jürgen Dassow. Literatur
Literatur J.Berstel/D.Perrin, Theorie of Codes. Academic Press, 1985. J. Duske/H.Jürgensen, Kodierungstheorie. BI-Taschenb., Mannheim, 1977. T. Grams, Codierungsverfahren. BI-Taschenbuch, Mannheim, 1986.
MehrWelf Walter
Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Seminar 2004 Sehen und Hören Hidden Markov Modelle und Künstliche Neuronale Netze Welf Walter ww2@informatik.uni-ulm.de Zusammenfassung
MehrMap Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.
Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.
MehrKap. 6.6: Kürzeste Wege
Kap. 6.6: Kürzeste Wege Professor Dr. Lehrstuhl für Algorithm Engineering, LS11 Fakultät für Informatik, TU Dortmund 1./. VO DAP SS 009./9. Juli 009 1 Nachtest für Ausnahmefälle Di 1. Juli 009, 16:00 Uhr,
MehrAlgebraische Statistik ein junges Forschungsgebiet. Dipl.-Math. Marcus Weber
Algebraische Statistik ein junges Forschungsgebiet Dipl.-Math. Marcus Weber Disputationsvortrag 15. Februar 2006 Gliederung 1. Statistische Modelle 2. Algebraische Interpretation statistischer Probleme
MehrKap. 6.6: Kürzeste Wege
0.0.00 Nachtest für Ausnahmefälle Kap..: Kürzeste Wege Professor Dr. Lehrstuhl für Algorithm Engineering, LS Fakultät für Informatik, TU Dortmund./. VO DAP SS 00./. Juli 00 Di. Juli 00, :00 Uhr, OH, R.
MehrNatürlichsprachliche Systeme I Materialien zur Vorlesung
Natürlichsprachliche Systeme I Materialien zur Vorlesung D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg WS 2010/11, 19. Oktober 2010,
MehrInstitut für Informatik und Angewandte Kognitionswissenschaft
Veranstaltung: Dzent: Wissensrepräsentatin (»Grundlagen der KI«), SS08 Nin Simunic M.A., Cmputerlinguistik, Campus DU Übung (4), 09.06.2008-14.06.2008 Thema: Prbabilistisches Schließen / Statistische Verfahren
MehrEndliche Automaten. Endliche Automaten J. Blömer 1/23
Endliche Automaten Endliche Automaten sind ein Kalkül zur Spezifikation von realen oder abstrakten Maschinen regieren auf äußere Ereignisse (=Eingaben) ändern ihren inneren Zustand produzieren gegebenenfalls
MehrMaschinelle Sprachverarbeitung: N-Gramm-Modelle
HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind
MehrModel Checking mit Büchi Automaten
Ingo Weigelt Softwaretechnik 3 16.05.2007 Übersicht 1 Automaten über unendlichen Wörtern ω-automaten Büchi-Automaten 2 Model Checking mit Büchi Automaten Konstruktion von A Konstruktion von A S Leerheitstest
MehrKapitel 2: Spracherkennung Automatisches Verstehen gesprochener Sprache
Automatisches Verstehen gesprochener Sprache. Spracherkennung Martin Hacker Bernd Ludwig Günther Görz Professur für Künstliche Intelligenz Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
MehrHMM/KNN zur Spracherkennung
HMM/KNN zur Spracherkennung Andreas Hallerbach 18. Januar 2005 Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Hauptseminar Neuroinformatik WS 04/05 Spracherkennung Zusammenfassung Die
MehrMaschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken
HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken Tobias Scheffer Ulf Brefeld Sprachmodelle N-Gramm-Modell:
MehrAlgorithmen und Datenstrukturen 2
Algorithmen und Datenstrukturen 2 Lerneinheit 3: Greedy Algorithmen Prof. Dr. Christoph Karg Studiengang Informatik Hochschule Aalen Sommersemester 2016 10.5.2016 Einleitung Einleitung Diese Lerneinheit
Mehr11. Übung Algorithmen I
Timo Bingmann, Christian Schulz INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS KIT Timo Universität Bingmann, des LandesChristian Baden-Württemberg Schulz und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrEinführung in die Computerlinguistik Statistische Grundlagen
Diskrete Wahrscheinlichkeitsräume (1) Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Wintersemester 2011/2012 In vielen Bereichen der CL kommt
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik HMM POS-Tagging Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2018 1 / 30 Table of contents 1 Hidden Markov Models 2 POS Tags 3 HMM POS Tagging 4 Bigram-HMMs
MehrKryptographie I Symmetrische Kryptographie
Kryptographie I Symmetrische Kryptographie Eike Kiltz 1 Fakultät für Mathematik Ruhr-Universität Bochum Wintersemester 2014/15 1 Basierend auf Folien von Alexander May. Krypto - Vorlesung 01-6.10.2014
MehrAlgorithmen für Geographische Informationssysteme
Algorithmen für Geographische Informationssysteme 3. Vorlesung: 23. April 2014 Thomas van Dijk basiert auf Folien von Jan-Henrik Haunert Map Matching Problemformulierung Gegeben: Das Straßennetz als planar
MehrSiebformel von Sylvester
Siebformel von Sylvester ) A B = A + B A B A B ) A B C = A + B + C A B A C B C + A B C A B C ) A B C D = A + B + C + D A B A C A D B C B D C D + A B C + A B D + A C D + B C D A B C D A B C D 4) A A A...
MehrEndliche Automaten. Endliche Automaten J. Blömer 1/24
Endliche Automaten Endliche Automaten J. Blömer /24 Endliche Automaten Endliche Automaten sind ein Kalkül zur Spezifikation von realen oder abstrakten Maschinen regieren auf äußere Ereignisse (=Eingaben)
Mehr