Tagging mit Hidden Markov Models und Viterbi-Algorithmus

Größe: px
Ab Seite anzeigen:

Download "Tagging mit Hidden Markov Models und Viterbi-Algorithmus"

Transkript

1 Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt

2 Inhalt Ziel des Seminarprojekts Theorie: Aufbau von HMMs, Eignung zum Tagging, Vorstellung des Viterbi-Algorithmus Praxis: Erläuterung der Implementierung Demonstration des Taggers Evaluation des Algorithmus und des Programms

3 Ziel des Seminarprojekts Implementierung eines POS-Taggers mit Hilfe eines Hidden Markov Models und des Viterbi-Algorithmus Test der Theorien in der Praxis: was geht und wie gut?

4 Aufgaben Finden eines geeigneten Korpus Überlegungen zur Implementation in Python Aufbau eines HMM: Datenstrukturen, Berechnung der Wahrscheinlichkeiten Anpassung des Viterbi-Algorithmus an die Datenstrukturen

5 Theorie (1): Hidden Markov Model Revisited

6 Markov Eigenschaften Limited Horizon: P (X P (X i+1 = t j i+1 t j X X 1,..., X 1,..., i ) = P (X i ) P (X i+1 = t j i+1 t j X X i ) i ) Time Invariance: P (X P (X i+1 = t j i+1 = t j X X i ) = P (X i ) = P (X 2 = t j 2 = t j X X 1 ) 1 ) Manning/Schütze 2000

7 Aufbau und Training des Zustandsfolge ist nicht beobachtbar, sondern nur die erzeugte Ausgabe Ergänzung des Visible Markov Models um Emissionswahrscheinlichkeiten Modelltypen: Zustandsemission Übergangsemission HMM

8 Hidden Markov Model Formal: 5-Tupel (S, (S, K, K, Π, Π, A, A, B) B) S = {s 1,..., s N } K = {k 1,..., k M } = {1,..., M} Π = {π i }, i S A = {a ij }, i, j S B = {b ijk }, i, j S, k K Menge der Zustände Ausgabealphabet Wahrscheinlichkeiten der Startzustände Wahrscheinlichkeiten der Zustandsübergänge Wahrscheinlichkeiten der Symbolemissionen Manning/Schütze 2000

9 HMM: Aufgaben und Anwendungen 1. Gegeben: Modell, gesucht: Wahrscheinlichkeit einer Beobachtung µ P (O µ) 2. Gegeben: O,, gesucht: Zustandsfolge, die Beobachtung am besten beschreibt (-> Viterbi-Algorithmus) µ (X 1,..., X T +1 ) 3. Gegeben: O, mögliche Modelle, gesucht: bestes Modell aus Trainingsdaten

10 Tagging mit HMMs Idee: Markovkette von Tags, die Wörter erzeugt Bigramm-Tagger: Zustände sind Tags Trigramm-Tagger: Zustände sind Paare von Tags

11 Hidden Markov Model Übergangsmatrix Emissionsmatrix Anfangswahrscheinlichkeiten Karin Haenelt: Hidden Markov Models. Kursfolien, 2002.

12 Theorie (2): Viterbi-Algorithmus Revisited

13 Best-Path Search Naive Suche: Berechnung aller Pfade (katastrophale Laufzeit) Viterbi-Suche: Beschränkung auf die besten bzw. wahrscheinlichsten Pfade

14 Viterbi-Algorithmus (1) Der Viterbi-Algorithmus sucht die wahrscheinlichste Sequenz der verborgenen Zustände des HMMs zu einer gegebenen Beobachtung. Vgl. Karin Haenelt: Der Viterbi-Algorithmus, 2002.

15 Viterbi-Algorithmus (2) Vorgehensweise des Viterbi-Algorithmus bei der Suche nach dem besten Pfad: Dabei: 0 -> unwahrscheinliche Pfade > 0 -> Wahrscheinlichkeit des wahrscheinlichsten Pfades Vgl. Karin Haenelt: Der Viterbi-Algorithmus, 2002.

16 Viterbi-Algorithmus (3) Manning/Schütze 2000

17 Viterbi-Algorithmus (4) Kernfunktionen des Algorithmus: δ i+1 (t j ) ψ i+1 (t j ) Berechnung von P des wahrscheinlichsten Pfades zu einem Knoten im Trellis Ermittlung des Vorgängerknotens auf dem wahrscheinlichsten Pfad

18 Viterbi-Algorithmus: Anwendungsbereiche In der Sprachverarbeitung: In anderen statistikbasierten Anwendungen: Spracherkennung Bildverarbeitung Sprachgenerierung, TTS Genetik, Molekularbiologie Tagging Kryptographie...

19 Praxis: Unser HMM

20 Übersicht Warum Python? NEGRA-Korpus Programmaufbau Graphische Darstellung Aufbau des HMM Implementierung des Viterbi-Algorithmus

21 Warum Python? sehr gut zur Stringverarbeitung Lehrsprache am LCL Datenstrukturen (dictionaries, tuples etc.) Methoden und Module (string, pickle)

22 NEGRA-Korpus Verwendung des NEGRA-Korpus bereits getaggt, daher kein Lernen der Tags nötig gut strukturierte Darreichung Nachteil: relativ klein (ca Tokens, Sätze, ca. 55 Tags) Aufteilung in Trainingskorpus (9 000 Sätze) und Testkorpus (1 027 Sätze)

23 NEGRA-Korpus Auszug aus negra-corpus.tt Tag $( KON APPR PDAT NN VVFIN Bedeutung Sonstige Satzzeichen; satzintern Nebenordnende Konjunktion Präposition; Zirkumposition links Attribuierendes Demonstrativpronomen Normales Nomen Finites Verb, voll $, Komma NE $. Eigennamen Satzbeendende Interpunktion

24 Programmaufbau NEGRA-Korpus: Trainigsdaten (9 000 Sätze) Eingabe (Satz/Text) HMM Start-, Übergangs- & Emissionswahrscheinlichkeiten Sentence Splitter Viterbi- Algorithmus Ausgabe

25 Erzeugung des HMM Berechnung der Startwahrscheinlichkeiten Übergangswahrscheinlichkeiten Emissionswahrscheinlichkeiten

26 Datenstrukturen (1) build_startprob.py: erzeugt ein Dictionary mit Startwahrscheinlichkeiten {tag1:startprob1, tag2:startprob2,...}

27 Datenstrukturen (2) build_transdict.py: erzeugt ein Dictionary mit Wahrscheinlichkeiten für die Übergänge zwischen den Zuständen/Tags {(tag1, tag2):prob,...}

28 Datenstrukturen (3) build_outputdictsent.py: erzeugt verschachtelte Dictionaries für die Emissionswahrscheinlichkeiten {tag1:{wort1:prob1, wort2:prob2...}, tag2:{...},...}

29 Viterbi- Implementierung (1) Vorbereitungsphase: Sentence Splitter spaltet Eingabetext in Sätze splitsentence.py (allgemein), splitnegra.py (NEGRA-spezifisch)

30 Methoden der Viterbi-Klasse: makebackptrdict initialize: berechnet init: lädt HMM für weitere Verarbeitung Satzanfang Viterbi- Implementierung (2) für den computeprobofpath: gibt argmax(probs) und max(probs) zurück Ω viterbi: der eigentliche Algorithmus

31 Evaluation (1) Da unser Programm auf das NEGRA-Korpus zugeschnitten ist, gab es dort keine großen Schwierigkeiten (z.b. Satzendeproblem). Die Funktionen für den HMM-Aufbau sind allerdings nicht für anders strukturierte Dateien verwendbar, da sie speziell mit dem Format (vgl. Folie 23) einiger NEGRA- Dateien arbeiten. (Eine Anpassung wäre aber nicht schwer.)

32 Evaluation (2) Unknown Word Problem: grundsätzlich Heuristik für unbekannte Wörter nötig naive Lösung: Default-Wahrscheinlichkeit für unbekanntes Wort großgeschrieben: Nomentag kleingeschrieben: Verbtag, Adjektivtag

33 Literatur (1) Manning, Christopher D. & Hinrich Schütze: Foundations of Statistical Natural Language Processing. Cambridge: MIT Press, Haenelt, Karin: Der Viterbi-Algorithmus im Part-of-Speech Tagging. Kursfolien Haenelt, Karin: Der Viterbi-Algorithmus. Eine Erläuterung der formalen Spezifikation am Beispiel des Part-of-Speech Tagging. Kursskript Haenelt, Karin: Hidden Markov Models. Kursfolien

34 Literatur (2) Beinhorn, Thorsten & Suzanne Heiob: Der Viterbi-Algorithmus. Seminarreferat Carlberger, Johan & Viggo Kann: Implementing an Efficient Part-of-Speech Tagger Computerlinguistik und Sprachtechnologie / Kai-Uwe Carstensen; et al. (eds.). Heidelberg; Berlin: Spektrum, 2001.

Part-of-Speech Tagging. Stephanie Schuldes

Part-of-Speech Tagging. Stephanie Schuldes Part-of-Speech Tagging Stephanie Schuldes 05.06.2003 PS Erschließen von großen Textmengen Geißler/Holler SoSe 2003 Motivation Ziel: vollständiges Parsing und Verstehen natürlicher Sprache Herantasten durch

Mehr

Part-Of-Speech-Tagging mit Viterbi Algorithmus

Part-Of-Speech-Tagging mit Viterbi Algorithmus Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus

Mehr

Hidden Markov Models (HMM) Karin Haenelt

Hidden Markov Models (HMM) Karin Haenelt Hidden Markov Models (HMM) Karin Haenelt 16.5.2009 1 Inhalt Einführung Theoretische Basis Elementares Zufallsereignis Stochastischer Prozess (Folge von elementaren Zufallsereignissen) Markow-Kette (Stochastischer

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

Der Viterbi-Algorithmus.

Der Viterbi-Algorithmus. Der Viterbi-Algorithmus. Eine Erläuterung der formalen Spezifikation am Beispiel des Part-of-Speech Tagging. Kursskript Karin Haenelt, 9..7 (.5.) Einleitung In diesem Skript wird der Viterbi-Algorithmus

Mehr

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008 Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München [email protected] 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation

Mehr

1 Part-of-Speech Tagging

1 Part-of-Speech Tagging 2. Übung zur Vorlesung NLP Analyse des Wissensrohstoes Text im Sommersemester 2008 Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 28. Mai 2008 1 Part-of-Speech Tagging 1.1 Grundlagen

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach

Mehr

Sprachsynthese: Part-of-Speech-Tagging

Sprachsynthese: Part-of-Speech-Tagging Sprachsynthese: Part-of-Speech-Tagging Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München [email protected] 29. Oktober 2014 Inhalt POS- Markov- Transformationsbasiertes

Mehr

Part-of-Speech- Tagging

Part-of-Speech- Tagging Part-of-Speech- Tagging In: Einführung in die Computerlinguistik Institut für Computerlinguistik Heinrich-Heine-Universität Düsseldorf WS 2004/05 Dozentin: Wiebke Petersen Tagging Was ist das? Tag (engl.):

Mehr

Korpusvorverarbeitung. Hauptseminar: Einführung in die Korpuslinguistik. Kodierung/Annotationsmaximen. Vorverarbeitung: erste Schritte.

Korpusvorverarbeitung. Hauptseminar: Einführung in die Korpuslinguistik. Kodierung/Annotationsmaximen. Vorverarbeitung: erste Schritte. Hauptseminar: Einführung in die Korpuslinguistik Anke Lüdeling [email protected] Wintersemester 2002/2003 Korpusvorverarbeitung Beispiel: DIE ZEIT aufbereitet für journalistische Zwecke, mitgeliefertes

Mehr

Wiederholung: Korpuslinguistik. Einführung in die Korpuslinguistik. Vorverarbeitung: Themen. Vorverarbeitung. Vorverarbeitung.

Wiederholung: Korpuslinguistik. Einführung in die Korpuslinguistik. Vorverarbeitung: Themen. Vorverarbeitung. Vorverarbeitung. Wiederholung: Korpuslinguistik Einführung in die Korpuslinguistik Anke Lüdeling [email protected] Sommersemester 2007 beschäftigt sich damit, welche linguistischen Fragen anhand (großer) Textmengen

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik WS 2/22 Manfred Pinkal Beispiel: Adjektive im Wahrig-Korpus Frequenzen in einem kleinen Teilkorpus: n groß - -

Mehr

Endliche Automaten. Endliche Automaten J. Blömer 1/23

Endliche Automaten. Endliche Automaten J. Blömer 1/23 Endliche Automaten Endliche Automaten sind ein Kalkül zur Spezifikation von realen oder abstrakten Maschinen regieren auf äußere Ereignisse (=Eingaben) ändern ihren inneren Zustand produzieren gegebenenfalls

Mehr

Blockseminar Einführung in die Korpuslinguistik Seminarleitung: Yvonne Krämer, M.A. Das Korpus. und seine Aufbereitung

Blockseminar Einführung in die Korpuslinguistik Seminarleitung: Yvonne Krämer, M.A. Das Korpus. und seine Aufbereitung Blockseminar Einführung in die Korpuslinguistik Seminarleitung: Yvonne Krämer, M.A. Das Korpus und seine Aufbereitung Bestandteile eines Korpus sind i.d.r.: Primärdaten Metadaten Annotationen Annotationen

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 [email protected] Claudia Hermann, Matr. Nr.0125532 [email protected] Matteo Savio,

Mehr

Einführung in die Computerlinguistik Statistische Grundlagen

Einführung in die Computerlinguistik Statistische Grundlagen Statistik 1 Sommer 2015 Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2015 Statistik 2 Sommer 2015 Überblick 1. Diskrete Wahrscheinlichkeitsräume

Mehr

Domenico Strigari, Byambasuren Terbish, Bilal Erkin

Domenico Strigari, Byambasuren Terbish, Bilal Erkin Hidden Markov Modelle Domenico Strigari, Byambasuren Terbish, Bilal Erkin Hidden Markov Modelle (HMM) i. Geschichte ii. Markovkette iii. Wahrscheinlichkeitsgrundlagen iv. HMM Theorie v. Spracherkennung

Mehr

Programmierkurs Python II

Programmierkurs Python II Programmierkurs Python II Michaela Regneri & tefan Thater FR 4.7 Allgemeine Linguistik (Computerlinguistik) Universität des aarlandes ommersemester 2010 (Charniak, 1997) the dog biscuits N V N V the dog

Mehr

Part of Speech Tagging. Linguistische Sicht. Carolin Deck

Part of Speech Tagging. Linguistische Sicht. Carolin Deck Part of Speech Tagging Linguistische Sicht Carolin Deck Gliederung 1. Begriffsklärung 2. Vorstellung zwei wichtiger Tagsets (STTS & PTTS) 3. Bedeutung des POS-Tagging für die Sprachwissenschaft 4. Tagzuweisung

Mehr

Automatisiertes Annotieren in CATMA

Automatisiertes Annotieren in CATMA Automatisiertes Annotieren in CATMA Thomas Bögel 1, Evelyn Gius 2, Marco Petris 2, Jannik Strötgen 3 1 Universität Heidelberg 2 Universität Hamburg 3 Max-Planck-Institut für Informatik [email protected]

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Modellierung Fragebogenaktion Bachelor-StudentInnen http://www.coli.uni-saarland.de/bsc/page.php?id=fragebogen WS 2013/2014 Andrea Horbach mit Folien von

Mehr

Annotation des Wittgenstein-Korpus mit Wortart-Information

Annotation des Wittgenstein-Korpus mit Wortart-Information Annotation des Wittgenstein-Korpus mit Wortart-Information Institut für Informations- und Sprachverarbeitung Ludwig-Maximilian-Universität München [email protected] Überblick Was ist Wortart-Tagging?

Mehr

Bachelorarbeit im Fach Computerlinguistik Centrum für Informations- und Sprachverarbeitung LMU München Betreuerin: Dr.

Bachelorarbeit im Fach Computerlinguistik Centrum für Informations- und Sprachverarbeitung LMU München Betreuerin: Dr. München, 05.05.2014 Arnold Schlegel Bachelorarbeit im Fach Computerlinguistik Centrum für Informations- und Sprachverarbeitung LMU München Betreuerin: Dr. Desislava Zhekova 1 Inhaltsüberblick Hintergrund

Mehr

Operationen auf endlichen Automaten und Transduktoren

Operationen auf endlichen Automaten und Transduktoren Operationen auf endlichen Automaten und Transduktoren Kursfolien Karin Haenelt 1 Notationskonventionen L reguläre Sprache A endlicher Automat DEA deterministischer endlicher Automat NEA nichtdeterministischer

Mehr

Praktikum Maschinelle Übersetzung Lexikon and Word Alignment

Praktikum Maschinelle Übersetzung Lexikon and Word Alignment Praktikum Maschinelle Übersetzung Lexikon and Word Alignment Um die Aufgaben auszuführen, können Sie ihre Daten in folgendem Verzeichnis speichern: /project/smtstud/ss10/systems/username/ Wir werden zunächst

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik Evaluation Annotation eines Goldstandard : Testkorpus mit der relevanten Zielinformation (z.b. Wortart) Automatische

Mehr

Operationen auf endlichen Akzeptoren und Transduktoren

Operationen auf endlichen Akzeptoren und Transduktoren Operationen auf endlichen Akzeptoren und Transduktoren Definitionen, Algorithmen, Erläuterungen und Beispiele - eine Übersicht Karin Haenelt, 28.5.2010 ( 1 25.04.2004) Operationen auf endlichen Akzeptoren

Mehr

Statistische Verfahren in der Computerlinguistik

Statistische Verfahren in der Computerlinguistik Statistische Verfahren in der Computerlinguistik Zweiter Teil Einführung in die Computerlinguistik Sommersemester 2009 Übersicht Statistische vs. symbolische Verfahren in der CL Statistik beschreibende

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Modellierung I WS 2010/2011 Manfred Pinkal Wortartinformation Wortartinformation ist eine wichtige Voraussetzung für die syntaktische Analyse. Woher kommt

Mehr

Exact Sampling: Der Propp-Wilson-Algorithmus

Exact Sampling: Der Propp-Wilson-Algorithmus Exact Sampling: Der Propp-Wilson-Algorithmus Markus Gerstel Proseminar: Markovketten in der Algorithmik Technische Universität München [email protected] Zusammenfassung Der Propp-Wilson-Algorithmus liefert

Mehr

Language Identification XXL

Language Identification XXL Ruprecht-Karls Universität Heidelberg Seminar für Computerlinguistik Software Projekt WS 2009/10 Language Identification XXL Referenten: Galina Sigwarth, Maria Semenchuk, George Kakish, Ulzhan Kadirbayeva

Mehr

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte

Mehr

Spracherkennung und Sprachsynthese

Spracherkennung und Sprachsynthese Spracherkennung und Sprachsynthese Einführung in die Computerlinguistik Sommersemester 2012 Peter Kolb Spracherkennung / -synthese Spracherkennung (automatic speech recognition, ASR) Sprachsynthese (text-to-speech,

Mehr

Erkennung von Teilsatzgrenzen

Erkennung von Teilsatzgrenzen Erkennung von Teilsatzgrenzen Maryia Fedzechkina Universität zu Köln Institut für Linguistik Sprachliche Informationsverarbeitung SoSe 2007 Hauptseminar Maschinelle Sprachverarbeitung Agenda Definitionen

Mehr

Wortarten-Tagging (auch Part-of-Speech(PoS)-Tagging) Ein erster Schritt zur syntaktischen Annotation

Wortarten-Tagging (auch Part-of-Speech(PoS)-Tagging) Ein erster Schritt zur syntaktischen Annotation Wortarten-Tagging (auch Part-of-Speech(PoS)-Tagging) Ein erster Schritt zur syntaktischen Annotation Übersicht Allgemeines zur Ambiguität Einführung Wortarten-Tagging Tagsets Automatisches Taggen eines

Mehr

Stefan Engelberg (IDS Mannheim), Workshop Corpora in Lexical Research, Bucharest, Nov. 2008 [Folie 1] DWDS-Kernkorpus / DWDS corpus analysis

Stefan Engelberg (IDS Mannheim), Workshop Corpora in Lexical Research, Bucharest, Nov. 2008 [Folie 1] DWDS-Kernkorpus / DWDS corpus analysis Content 1. Empirical linguistics 2. Text corpora and corpus linguistics 3. Concordances 4. Application I: The German progressive 5. Part-of-speech tagging 6. Fequency analysis 7. Application II: Compounds

Mehr

Spracherkennung. Gliederung:

Spracherkennung. Gliederung: Spracherkennung Gliederung: - Einführung - Geschichte - Spracherkennung - Einteilungen - Aufbau und Funktion - Hidden Markov Modelle (HMM) - HMM bei der Spracherkennung - Probleme - Einsatzgebiete und

Mehr

Operationen auf endlichen Automaten und Transduktoren

Operationen auf endlichen Automaten und Transduktoren Operationen auf endlichen utomaten und Transduktoren en, lgorithmen, Erläuterungen und e - eine Übersicht Karin Haenelt, 5.4.4 Vorbemerkung... Notationskonventionen... 3 Übersicht der Operationen...3 4

Mehr

xii Inhaltsverzeichnis Generalisierung Typisierte Merkmalsstrukturen Literaturhinweis

xii Inhaltsverzeichnis Generalisierung Typisierte Merkmalsstrukturen Literaturhinweis Inhaltsverzeichnis 1 Computerlinguistik Was ist das? 1 1.1 Aspekte der Computerlinguistik.................. 1 1.1.1 Computerlinguistik: Die Wissenschaft........... 2 1.1.2 Computerlinguistik und ihre Nachbardisziplinen.....

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Thomas Vanck NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion, Übersetzung,

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation Wintersemester 2007/2008 Klaus Kasper Praktikum Mittwochs: 10:15 13:30 (Y) Start: 24.10.2007 Ort: D15/202 Donnerstags: 14:15 17:30 (X) Start: 25.10.2007 Ort: D15/102 Zulassungsvoraussetzung

Mehr

Einführung in die Signalverarbeitung

Einführung in die Signalverarbeitung Einführung in die Signalverarbeitung Phonetik und Sprachverarbeitung, 2. Fachsemester, Block Sprachtechnologie I Florian Schiel Institut für Phonetik und Sprachverarbeitung, LMU München Signalverarbeitung

Mehr

Textmining Information Extraction (probabilistisch)

Textmining Information Extraction (probabilistisch) Textmining Information Extraction (probabilistisch) Department Informatik / Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg (FAU Dept. CS KI) Information Extraction (probabilistisch)

Mehr

Topic-Klassifizierung für automatisierte Produktbewertungen mittels Hidden Markov Modellen

Topic-Klassifizierung für automatisierte Produktbewertungen mittels Hidden Markov Modellen Cornelia Ferner / Martin Schnöll / Arnold Keller / Werner Pomwenger / Stefan Wegenkittl Topic-Klassifizierung für automatisierte Produktbewertungen mittels Hidden Markov Modellen 109 - Data Science: Erfassung,

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung

Mehr

Information Retrieval and Semantic Technologies

Information Retrieval and Semantic Technologies Information Retrieval and Semantic Technologies Gerhard Wohlgenannt 6. April 2013 Inhaltsverzeichnis 1 Informationen zur Lehrveranstaltung 2 1.1 Inhalt................................... 2 2 Unterlagen

Mehr

Dialogsysteme. Vortrag zum Thema n-gramm-modelle 2. Teil: Lösungsansätze für Ausfall-N-Gramme. 12. Januar 2006, Susanne O'Shaughnessy

Dialogsysteme. Vortrag zum Thema n-gramm-modelle 2. Teil: Lösungsansätze für Ausfall-N-Gramme. 12. Januar 2006, Susanne O'Shaughnessy Dialogsysteme Vortrag zum Thema n-gramm-modelle 2. Teil: Lösungsansätze für Ausfall-N-Gramme 12. Januar 2006, Susanne O'Shaughnessy Smoothing - Glättung Problem bei Standard- n-gramm-modellen: - kein Trainingskorpus

Mehr

NLP Eigenschaften von Text

NLP Eigenschaften von Text NLP Eigenschaften von Text Dr. Andreas Hotho Dominik Benz Beate Krause Sommersemester 2008 Folie: 1 Übersicht Einführung Eigenschaften von Text Words I: Satzgrenzenerkennung, Tokenization, Kollokationen

Mehr

2 2 Reguläre Sprachen. 2.2 Endliche Automaten. Übersicht

2 2 Reguläre Sprachen. 2.2 Endliche Automaten. Übersicht Formale Systeme, Automaten, Prozesse Übersicht 2 2. Reguläre Ausdrücke 2.3 Nichtdeterministische endliche Automaten 2.4 Die Potenzmengenkonstruktion 2.5 NFAs mit ɛ-übergängen 2.6 Minimale DFAs und der

Mehr

Endliche Automaten. Grundlagen: Alphabet, Zeichenreihe, Sprache. Karin Haenelt

Endliche Automaten. Grundlagen: Alphabet, Zeichenreihe, Sprache. Karin Haenelt Endliche Automaten Grundlagen: Alphabet, Zeichenreihe, Sprache Karin Haenelt 1 Alphabet, Zeichenreihe und Sprache Alphabet unzerlegbare Einzelzeichen Verwendung: als Eingabe- und Ausgabezeichen eines endlichen

Mehr

INFORMATIONSEXTRAKTION

INFORMATIONSEXTRAKTION INFORMATIONSEXTRAKTION Referentin: Syriane Kemayou Yamga Universität Heidelberg, Computerlinguistik, Hauptseminar: Information Retrieval PD. Dr. Karin Haenelt 16.01.2006 Informationsextraktion (IE) 1.

Mehr

Maschinelles Lernen in der Bioinformatik

Maschinelles Lernen in der Bioinformatik Maschinelles Lernen in der Bioinformatik Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) VL 2 HMM und (S)CFG Jana Hertel Professur für Bioinformatik Institut für Informatik

Mehr

Tutorial: Einführung in Conditional Random Fields zum Taggen von sequentiellen Daten Tool: Wapiti

Tutorial: Einführung in Conditional Random Fields zum Taggen von sequentiellen Daten Tool: Wapiti Einführung in Conditional Random Fields zum Taggen von sequentiellen Daten Tool: Wapiti Micha Probst Betreuer: Simon Clematide Juli 2013 Zusammenfassung Das Tutorial erklärt die Grundlagen von Conditional

Mehr

Informationsextraktion. Karin Haenelt 1.12.2012

Informationsextraktion. Karin Haenelt 1.12.2012 Informationsextraktion Karin Haenelt 1.12.2012 Informationsextraktion Ziel Identifikation bestimmter Information (Daten) in einem unstrukturierten oder teilstrukturierten textuellen Dokument Transformation

Mehr

DWDS: Hilfe Kurzübersicht

DWDS: Hilfe Kurzübersicht DWDS: Hilfe Kurzübersicht (auch online unter http://www.dwds.de/?corpus=1&opt=hilfe&qu) Voreinstellungen Lemmasuche: Suchwörter werden automatisch zum Lemma expandiert. Vorsicht: befindet sich das Suchwort

Mehr

Token, Types, Häufigkeiten und automatische Wortartenerkennung (Statistik-basiertes Tagging)

Token, Types, Häufigkeiten und automatische Wortartenerkennung (Statistik-basiertes Tagging) Token, Types, Häufigkeiten und automatische Wortartenerkennung (Statistikbasiertes Tagging) Morphologieanalyse und Lexikonaufbau (6. Vorlesung) Dozent: Gerold Schneider Übersicht Was ist ein Token? Was

Mehr

NLP - Analyse des Wissensrohstoffs Text

NLP - Analyse des Wissensrohstoffs Text NLP - Analyse des Wissensrohstoffs Text Vorlesung Beginn: 8. April 2008 Dienstag 10.15 h - 11.45 h, in Raum 1607 oder 0443 Übungen Dr. Andreas Hotho Dominik Benz Beate Krause Sommersemester 2008 Beginn:

Mehr

Überblick. VL: Einführung in die Korpuslinguistik. Annotation. Tokenbasierte Annotation

Überblick. VL: Einführung in die Korpuslinguistik. Annotation. Tokenbasierte Annotation Überblick VL: Einführung in die Korpuslinguistik Anke Lüdeling [email protected] Sommersemester 2004 kurze Wiederholung syntaktische phonetische/phonologische Tokenbasierte pos-tagging & Lemmatisierung

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Markov- Modelle, Ketten und Prozesse

Markov- Modelle, Ketten und Prozesse Universität zu Köln Institut für Linguistik, Abt. Sprachliche Informationsverarbeitung Hauptseminar Selbstlernende Systeme Prof. Dr. Jürgen Rolshoven Markov- Modelle, Ketten und Prozesse in der Linguistik

Mehr

Algorithmen & Komplexität

Algorithmen & Komplexität Algorithmen & Komplexität Angelika Steger Institut für Theoretische Informatik [email protected] Kürzeste Pfade Problem Gegeben Netzwerk: Graph G = (V, E), Gewichtsfunktion w: E N Zwei Knoten: s, t Kantenzug/Weg

Mehr

Gliederung. Natürlichsprachliche Systeme I. Merkmalsbasierte Grammatiken. Merkmalsbasierte Grammatiken. Merkmalsbasierte Grammatiken mit NLTK

Gliederung. Natürlichsprachliche Systeme I. Merkmalsbasierte Grammatiken. Merkmalsbasierte Grammatiken. Merkmalsbasierte Grammatiken mit NLTK Merkmalsbasierte Merkmalsbasierte Gliederung Natürlichsprachliche Systeme I Merkmalsbasierte mit NLTK D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität

Mehr

Sprachverstehen. Vorlesung an der TU Chemnitz Wintersemester 2012/2013 Dr. Johannes Steinmüller

Sprachverstehen. Vorlesung an der TU Chemnitz Wintersemester 2012/2013 Dr. Johannes Steinmüller Sprachverstehen Vorlesung an der TU Chemnitz Wintersemester 2012/2013 Dr. Johannes Steinmüller Johannes Steinmüller 1/B309 Tel.: 531 35198 [email protected] Seite zur Vorlesung: http://www.tu-chemnitz.de/informatik/ki/edu/spraver/

Mehr

Endliche Automaten. Im Hauptseminar Neuronale Netze LMU München, WS 2016/17

Endliche Automaten. Im Hauptseminar Neuronale Netze LMU München, WS 2016/17 Endliche Automaten Im Hauptseminar Neuronale Netze LMU München, WS 2016/17 RS- Flipflop RS-Flipflop Ausgangszustand 0 1 0 1 0 1 Set Reset neuer Zustand 0 0 0 0 0 1 1 0 1 1 0 1 0 1 0 0 1 0 Was ist ein endlicher

Mehr

Ausarbeitung Twitter as a Corpus for Sentiment Analysis and Opinion Mining

Ausarbeitung Twitter as a Corpus for Sentiment Analysis and Opinion Mining Ausarbeitung Twitter as a Corpus for Sentiment Analysis and Opinion Mining Wissenschaftliches Arbeiten (2014) Aufgabe 5 Kai Kühne 798797 Beuth Hochschule für Technik Berlin Fachbereich VI Informatik und

Mehr

Sprachtechnologie als Grundlage für die maschinelle Auswertung von Texten

Sprachtechnologie als Grundlage für die maschinelle Auswertung von Texten Sprachtechnologie als Grundlage für die maschinelle Auswertung von Texten Dr-Ing Michael Piotrowski Leibniz-Institut für Europäische Geschichte @true_mxp Bamberg, 20 November 2015

Mehr

Routing Algorithmen. Begriffe, Definitionen

Routing Algorithmen. Begriffe, Definitionen Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über

Mehr

Teil III. Komplexitätstheorie

Teil III. Komplexitätstheorie Teil III Komplexitätstheorie 125 / 160 Übersicht Die Klassen P und NP Die Klasse P Die Klassen NP NP-Vollständigkeit NP-Vollständige Probleme Weitere NP-vollständige Probleme 127 / 160 Die Klasse P Ein

Mehr

Vorlesung Information Retrieval Wintersemester 04/05

Vorlesung Information Retrieval Wintersemester 04/05 Vorlesung Information Retrieval Wintersemester 04/05 20. Januar 2005 Institut für Informatik III Universität Bonn Tel. 02 28 / 73-45 31 Fax 02 28 / 73-43 82 [email protected] 0 Themenübersicht

Mehr

Korpuslinguistik Annis 3 -Korpussuchtool Suchen in tief annotierten Korpora

Korpuslinguistik Annis 3 -Korpussuchtool Suchen in tief annotierten Korpora Korpuslinguistik Annis 3 -Korpussuchtool Suchen in tief annotierten Korpora Anke Lüdeling, Marc Reznicek, Amir Zeldes, Hagen Hirschmann... und anderen Mitarbeitern der HU-Korpuslinguistik Ziele Wie/Was

Mehr

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 3, Donnerstag 6.

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 3, Donnerstag 6. Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 3, Donnerstag 6. November 2014 (O-Notation, Theta, Omega) Junior-Prof. Dr. Olaf Ronneberger

Mehr

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart Institut für maschinelle Sprachverarbeitung Universität Stuttgart [email protected] Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle

Mehr

Universität Bamberg Angewandte Informatik. Seminar KI: gestern, heute, morgen. Natural Language Processing and Machine Learning

Universität Bamberg Angewandte Informatik. Seminar KI: gestern, heute, morgen. Natural Language Processing and Machine Learning Universität Bamberg Angewandte Informatik Seminar KI: gestern, heute, morgen Natural Language Processing and Machine Learning von Tatjana Schindler [email protected] 25.02.2016

Mehr

Hauptseminar Information Retrieval. Karin Haenelt Vorschläge für Seminarprojekte

Hauptseminar Information Retrieval. Karin Haenelt Vorschläge für Seminarprojekte Hauptseminar Information Retrieval Vorschläge für Seminarprojekte Karin Haenelt 17.10.2010 Projektarten Implementierungsprojekte: Standardalgorithmen Modellierungsexperimente Vorhandene Werkzeuge studieren,

Mehr

HS Information Retrieval

HS Information Retrieval HS Information Retrieval Vergleichende Implementierung der grundlegenden IR-Modelle für eine Desktop-Suche Inhalt 1. Überblick 2. Recap: Modelle 3. Implementierung 4. Demo 5. Evaluation Überblick Ziele:

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Von Sankt Anselm zu Ente Apfelmus: Normalisierung und Tagging frühneuhochdt. Texte

Von Sankt Anselm zu Ente Apfelmus: Normalisierung und Tagging frühneuhochdt. Texte Von Sankt Anselm zu Ente Apfelmus: Normalisierung und Tagging frühneuhochdt. Texte Stefanie Dipper Sprachwissenschaftliches Institut Ruhr-Universität Bochum Historische Textkorpora für die Geistes- und

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr