Probabilistische kontextfreie Grammatiken
|
|
- Teresa Schulz
- vor 5 Jahren
- Abrufe
Transkript
1 Probabilistische kontextfreie Grammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 08. Dezember 2015
2 Let s play a game Ich gebe Ihnen ein Nichtterminalsymbol. S, NP, VP, PP, oder POS-Tag Sie können einen der folgenden Züge machen: S NP VP NNP Hans NT in andere NT expandieren POS-Tag in Wort expandieren
3 Penn Treebank POS tags
4 Ein paar echte Bäume Penn Treebank, #0001 Penn Treebank, #0002 nltk.corpus.treebank.parsed_sents("wsj_0001.mrg")[0].draw()
5 Ambiguitäten Wir wollen disambiguieren, d.h. korrekten Parse für ambigen Satz berechnen. S NP VP S V NP NP VP Det N VP PP N PP V NP P NP P NP Det N PRP$ N PRP$ N I shot an elephant in my pyjamas I shot an elephant in my pyjamas Woran erkennen wir den korrekten Baum? Wie berechnen wir ihn effizient? (NB: exponentiell viele Lesarten)
6 Probabilistische kfgen Eine probabilistische kontextfreie Grammatik (PCFG) ist eine kfg, in der jede Produktionsregel A w hat eine W. P(A w A): wenn wir A expandieren, wie w. ist Regel A w? für jedes Nichtterminal A müssen W. zu eins summieren: X P (A! w A) =1 w wir schreiben abgekürzt P(A w) für P(A w A)
7 Beispiel S NP VP [1.0] VP V NP [0.5] NP Det N [0.8] VP VP PP [0.5] NP i [0.2] V shot [1.0] N N PP [0.4] PP P NP [1.0] N elephant [0.3] P in [1.0] N pyjamas [0.3] Det an [0.5] Det my [0.5] (der Einfachheit halber tun wir so, als ob Det = PRP$)
8 Generativer Prozess PCFG erzeugt zufällige Ableitung der kfg. Ereignis = Expansion von NT durch Produktionsregel alle statistisch unabhängig voneinander S NP VP i VP i VP PP * i shot an elephant in my pyjamas S NP VP i VP * i V Det N i V Det N PP * i shot pyjamas
9 Parsebäume p = p = S NP S VP V I shot VP 0.5 Det an NP 0.8 N elephant P in PP NP Det my 0.8 N pyjamas NP VP V Det I shot an 0.5 NP 0.8 N 0.3 elephant N 0.4 P in PP NP Det my 0.8 N pyjamas korrekt = wahrscheinlichster Parsebaum
10 Sprachmodellierung Wie in anderen generativen Modellen (z.b. HMMs) können wir W. P(w) von String durch Marginalisierung über mögliche Bäume berechnen. P (w) = X t2parses(w) P (t) Kann man effizient mit Inside-W. berechnen; siehe nächstes Mal.
11 Disambiguierung Annahme: korrekter Parsebaum = Baum, der höchste W. hat, vom Zufallsprozess erzeugt zu werden, d.h. argmax t2parses(w) P (t) Wir verwenden Variante des Viterbi-Algorithmus, um diesen Baum auszurechnen. Hier: Viterbi auf Grundlage von CKY; kann man auch mit anderen Parsingalgorithmen machen.
12 Intuition Normale CKY-Parsechart: Ch(i,k) = {A A * w i w k-1 } VP NP N PP in my pyjamas VP NP N V shot shot Det an an elephant elephant in my pyjamas
13 Intuition Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} VP: NP: N: PP: 0.12 in my pyjamas VP: 0.06 NP: 0.12 N: 0.3 V: 1.0 shot shot Det: 0.5 an an elephant elephant in my pyjamas
14 Viterbi + CKY Definiere für jeden Span (i,k) und Nichtterminal A die W. V (A, i, k) = max A d ) w i...w k 1 P (d) Berechne V iterativ von innen nach außen : mit kleinen Spans anfangen und immer größer werden. V (A, i, i + 1) = P (A! w i ) V (A, i, k) = max A!B C i<j<k P (A BC) V (B,i,j) V (C, j, k)
15 Viterbi-CKY: Pseudocode set all V[A,i,j] to 0 for all i from 1 to n: for all A with rule A -> wi: add A to Ch(i,i+1) V[A,i,i+1] = P(A -> wi) for all b from 2 to n: for all i from 1 to n-b+1: for all k from 1 to b-1: for all B in Ch(i,i+k) and C in Ch(i+k,i+b): for all production rules A -> B C: add A to Ch(i,i+b) if P(A -> B C) * V[B,i,i+k] * V[C,i+k,i+b] > V[A,i,i+b]: V[A,i,i+b] = P(A -> B C) * V[B,i,i+k] * V[C,i+k,i+b]
16 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} shot shot in my pyjamas an an elephant elephant in my pyjamas
17 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} PP: 0.12 in my pyjamas V: 1.0 shot shot Det: 0.5 an an N: 0.3 elephant elephant in my pyjamas
18 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} PP: 0.12 in my pyjamas NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot
19 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} N: PP: 0.12 in my pyjamas NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot
20 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} N: PP: 0.12 in my pyjamas VP: 0.06 NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot
21 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} NP: N: PP: 0.12 in my pyjamas VP: 0.06 NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot
22 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} VP: NP: N: PP: 0.12 in my pyjamas VP: 0.06 NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot
23 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} VP: VP: NP: N: PP: 0.12 in my pyjamas VP: 0.06 NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot
24 Bemerkungen Viterbi-CKY hat genau die gleichen Schleifen wie der normale CKY-Parser. Berechnung von V ändert nur den konstanten Faktor. Asymptotische Laufzeit immer noch O(n 3 ) Berechne optimalen Parsebaum mit Backpointers. gleiche Backpointers wie in normalem CKY (siehe 6. Vorlesung) wenn wir nur den besten Parse wollen (und nicht alle Parses), reicht es, den besten Backpointer für jedes (A,i,k) zu speichern; d.h. weniger Speicherverbrauch als normaler CKY
25 Wo kriegt man eine PCFG? Quellen für kontextfreie Grammatiken: von Hand schreiben aus einer Baumbank ablesen Grammatikinduktion aus unannotiertem Text Quellen für Regelw., nachdem wir kfg haben: Maximum-Likelihood-Schätzung aus Baumbank EM-Training auf unannotiertem Text (inside-outside)
26 Die Penn Treebank Große Textmenge (für die 1990er), annotiert mit POS-Tags und syntaktischen Strukturen. Besteht aus mehreren Teilkorpora: Wall Street Journal: 1 Jahr Zeitungstext, 1 Mio Wörter Brown-Korpus: balanciertes Korpus, 1 Mio Wörter ATIS: Flugbuchungs-Dialoge, 5000 words Switchboard: gesprochener Dialog, 3 Mio Wörter WSJ PTB ist Standardkorpus für Training und Evaluation von PCFG-Parsern.
27 Annotationsformat S VP ADJP-PRD PP NP-SBJ NP DT JJ, JJ NN VBZ JJ IN NN CC NN. That cold, empty sky was full of fire and light.
28 NP-SBJ Annotationsformat S VP ((S (NP-SBJ (DT That) (JJ cold) (,,) (JJ empty) (NN sky) ) (VP (VBD was) (ADJP-PRD (JJ full) ADJP-PRD (PP (IN of) (NP PP (NN fire) (CC and) NP (NN light) )))) (..) )) DT JJ, JJ NN VBZ JJ IN NN CC NN. That cold, empty sky was full of fire and light.
29 Grammatik ablesen Kann direkt die Grammatik in den Köpfen der Annotatoren von annotierten Bäumen ablesen. Ergibt sehr große kfg, z.b Regeln für VP: VP VBD PP VP VBD PP PP VP VBD PP PP PP VP VBD PP PP PP PP VP VBD ADVP PP VP VBD PP ADVP VP VBD PP PP PP PP PP ADVP PP
30 Grammatik ablesen Kann direkt die Grammatik in den Köpfen der Annotatoren von annotierten Bäumen ablesen. Ergibt sehr große kfg, z.b Regeln für VP: VP VBD PP VP VBD PP PP VP VBD PP PP PP VP VBD PP PP PP PP VP VBD ADVP PP VP VBD PP ADVP This mostly happens because we go from football in the fall to lifting in the winter to football again in the spring. VP VBD PP PP PP PP PP ADVP PP
31 Evaluation Schritt 1: Aufteilung in Trainings- und Testkorpus. Konventionelle Aufteilung der WSJ-Baumbank: Training Test Devel
32 Evaluation Schritt 2: Maß für Akkuratheit des Parsers? Erste Idee: Messe exact match, d.h. Anteil der Sätze, für die Parser den gleichen Baum wie Annotator baut. Das ist zu streng: Parser trifft beim Parsen eines Satzes viele Entscheidungen eine einzige falsche Entscheidung macht ganzen Baum falsch Wir brauchen ein feinkörnigeres Maß.
33 Vergleich von Parsebäumen Idee 2 (PARSEVAL): Vergleiche Struktur von Parsebaum und Goldstandard-Baum (= Annotation). Labeled: Welche Konstituenten (Span + syntaktische Kategorie) in einem Baum gibt es auch im anderen? Unlabeled: Wie teilen die beiden Bäume den Satz in Teilstrings auf (syntaktische Kategorien egal)? Gold S S Parse VP VP PP NP-SBJ ADJP NP NP-SBJ ADJP CC DT NN VBZ JJ But the concept is workable IN DT NN VBZ JJ But the concept is workable
34 Precision Welcher Anteil von Konstituenten im Parsebaum gibt es auch im Gold-Baum? Gold S VP NP-SBJ ADJP CC DT NN VBZ JJ But the concept is workable S PP ( ) ( ) NP NP-SBJ Parse VP ADJP ( ) IN DT NN VBZ JJ But the concept is workable Labeled Precision = 7 / 11 = 63.6% Unlabeled Precision = 10 / 11 = 90.9%
35 Recall Welchen Anteil von Konstituenten im Gold-Baum gibt es auch im Parsebaum? Gold NP-SBJ S VP ADJP ( ) CC DT NN VBZ JJ But the concept is workable S PP NP NP-SBJ Parse VP ADJP IN DT NN VBZ JJ But the concept is workable Labeled Recall = 7 / 9 = 77.8% Unlabeled Recall = 8 / 9 = 88.9%
36 F-Score Precision und Recall messen gegenläufige Aspekte eines Parsers ( Korrektheit und Vollständigkeit ). Oft will man eine einzige Zahl; dafür f-score: F 1 = 2 P R P + R Im Beispiel: labeled f-score 70.0, unlabeled f-score 89.9.
37 Zusammenfassung PCFGs erweitern kfgen um Regelw. Ereignisse sind Expansionen von Nichtterminalen. Diese sind alle statistisch unabhängig. Viterbi-CKY-Parser berechnet wahrscheinlichsten Parsebaum für Satz in kubischer Zeit. Grammatik aus Baumbank ablesen. nächstes Mal: Schätzung von Regelwahrscheinlichkeiten. Evaluation von PCFG-Parsern.
Probabilistic Context Free Grammars, Part II
Probabilistic Context Free Grammars, Part II Prof Dr. Matthew Crocker Universität des Saarlandes 16. Juli 2015 Matthew Crocker (UdS) PCFG II 16. Juli 2015 1 / 25 Themen heute: 1 Wiederholung: PCFG 2 Formeln
MehrElementare Wahrscheinlichkeitslehre
Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?
MehrProgrammierkurs Python II
Programmierkurs Python II Michaela Regneri & tefan Thater FR 4.7 Allgemeine Linguistik (Computerlinguistik) Universität des aarlandes ommersemester 2010 (Charniak, 1997) the dog biscuits N V N V the dog
MehrHidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014
idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme
MehrKontextfreie Grammatiken
Kontextfreie Grammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 16. Oktober 2015 Übersicht Worum geht es in dieser Vorlesung? Übungen und Abschlussprojekt Kontextfreie Grammatiken Computerlinguistische
MehrProbabilistische kontextfreie Grammatiken
Mathematische Grundlagen III Probabilistische kontextfreie Grammatiken 14 Juni 2011 1/26 Ambiguität beim Parsing Wörter können verschiedene Bedeutungen haben und mehr als einer Wortkategorien angehören
MehrEvaluation und Training von HMMs
Evaluation und Training von MMs Vorlesung omputerlinguistische Techniken Alexander Koller. Dezember 04 MMs: Beispiel initial p. a 0 0.8 0.7 0. Eisner 0. transition p. 0. 0.6 a 0.5 0. emission p. b () States
MehrDas Trainings-Regime Ergebnisse Fehlerdiskussion Zusammenfassung. Baumbank-Training. Mateusz Jozef Dworaczek
04.06.2007 Inhalt 1 Definition Anno 1996 Überwachtes Training 2 Ablesen der Baumbankgrammatik Berechnen der Regelwahrscheinlichkeiten PCFG 3 Parameter zur Messung der Güte des Parsens 4 Fehlerquellen 1.Fehler
MehrMaschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken
HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken Tobias Scheffer Ulf Brefeld Sprachmodelle N-Gramm-Modell:
MehrProbabilistische kontextfreie Grammatiken und Parsing. Sebastian Pado
Probabilistische kontextfreie Grammatiken und Parsing Sebastian Pado 18.01.2005 1 Robustes Parsing Ziel: Syntaktische Analyse von freiem Text Anwendungen: Freier Dialog Große Textmengen (Internet) Herausforderungen
MehrProbabilistisches Parsing Teil II
Ruprecht-Karls-Universität Heidelberg Computerlinguistisches Seminar SS 2002 HS: Parsing Dozentin: Dr. Karin Haenelt Referentin: Anna Björk Nikulásdóttir 10.06.02 1. Parsingmodelle Probabilistisches Parsing
MehrReranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart
Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle
MehrDer CKY-Parser. Vorlesung Computerlinguistische Techniken Alexander Koller. 27. Oktober 2015
Vorlesung omputerlinguistische Techniken Alexander Koller 27. Oktober 2015 Übersicht Komplexität des KY-Algorithmus Implementierung in Python hift-reduce-parsing hift-regel: (a w, s) (w, s a) Reduce-Regel:
MehrAutomatisches Verstehen gesprochener Sprache
Automatisches Verstehen gesprochener Sprache 6. Syntaxanalyse Martin Hacker Bernd Ludwig Günther Görz Professur für Künstliche Intelligenz Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrEarley Parser. Flutura Mestani
Earley Parser Flutura Mestani Informatik Seminar Algorithmen zu kontextfreien Grammatiken Wintersemester 2015/2016 Prof. Martin Hofmann, Dr. Hans Leiß Flutura Mestani 25.11.2015 Seminar Algorithmen zu
MehrEinführung in die Computerlinguistik POS-Tagging
Einführung in die Computerlinguistik POS-Tagging Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2013 POS Tags (1) POS = part-of-speech Tags sind morphosyntaktische Kategorien von Wortformen.
MehrPROBABILISTIC PARSING FOR GERMAN USING SISTER-HEAD DEPENDENCIES
Ausgangsfrage PROBABILISTIC PARSING FOR GERMAN USING SISTER-HEAD DEPENDENCIES Irina Gossmann Carine Dombou 9. Juli 2007 INHALT Ausgangsfrage 1 AUSGANGSFRAGE 2 SYNTAX DES DEUTSCHEN + NEGRA 3 PROBABILISTISCHE
MehrDer Earley-Algorithmus
Der Earley-Algorithmus Kursfolien Karin Haenelt 25.03.02 1 25.03.02 2 Inhalt Funktion des Earley-Algorithmus Begriffe Erkenner/Parser Kontextfreie Grammatik Ein Beispiel Funktionen des Algorithmus Funktionsweise
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Peter Haider Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Peter Haider Paul Prasse NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion,
MehrDer Earley-Algorithmus
Der Earley-Algorithmus Kursfolien Karin Haenelt 25.03.02 1 25.03.02 2 Inhalt Funktion des Earley-Algorithmus Begriffe Erkenner/Parser Kontextfreie Grammatik Ein Beispiel Funktionen des Algorithmus Funktionsweise
MehrInstitut für Informatik Lehrstuhl Maschinelles Lernen
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-PipelinePipeline Tobias Scheffer Peter Haider Uwe Dick Paul Prasse NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion,
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Peter Haider Uwe Dick Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Peter Haider Uwe Dick Paul Prasse NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion,
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik HMM POS-Tagging Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 20 POS Tags (1) Jurafsky and Martin (2009) POS = part-of-speech Tags sind morphosyntaktische
MehrFeaturegrammatiken. Vorlesung Computerlinguistische Techniken Alexander Koller. 21. November 2014
Featuregrammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 21. November 2014 Musterlösung Ü2 A4 Erste 100 Wörter des Brown-Korpus aueben: import nltk words = nltk.corpus.brown.words()
MehrStatistische Sprachmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch
MehrFriedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong
Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem
MehrElementare statistische Methoden
Elementare statistische Methoden Vorlesung Computerlinguistische Techniken Alexander Koller 28. November 2014 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen? Ziel
MehrSyntax und Parsing. OS Einblicke in die Computerlinguistik. Philipp Rabe, 13IN-M
OS Einblicke in die Computerlinguistik basierend auf Computerlinguistik und Sprachtechnologie, 3. Auflage, Spektrum, Heidelberg 2010 22. Mai 2014 Ausgangssituation Tokenisierung und Wortarten-Tagging vollendet
MehrDiskriminatives syntaktisches Reranking für SMT
Diskriminatives syntaktisches Reranking für SMT Fortgeschrittene Themen der statistischen maschinellen Übersetzung Janina Nikolic 2 Agenda Problem: Ranking des SMT Systems Lösung: Reranking-Modell Nutzung
MehrMaschinelles Lernen II
Maschinelles Lernen II! Vorlesung Computerlinguistische Techniken Alexander Koller! 30. Januar 2015 Heute Überwachtes Lernen: Maximum-Entropy-Modelle Unüberwachtes Lernen: Clustering Maximum Entropy: Motivation
MehrEinleitung Kappa F-Score Fazit. Softwarepraktikum. Evaluation. Franz Matthies
Evaluation Lehrstuhl für Computerlinguistik Institut für Germanistische Sprachwissenschaft Friedrich-Schiller-Universität Jena www.julielab.de Sommersemester 2016 Sitzung 2 Überblick 1 Motivation Definition
MehrSchwach kontextsensitive Grammatikformalismen
chwach kontextsensitive Grammatikformalismen! Vorlesung Grammatikformalismen Alexander Koller! 2. Juni 2015 Grammatikformalismen Parsingkomplexität O(n) O(n 3 ) polynomiell exponentiell PPACE-vollst. unentscheidbar
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Paul Prasse Michael Großhans
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Paul Prasse Michael Großhans NLP- (Natural Language Processing-) Pipeline Folge von Verarbeitungsschritten
MehrMathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur
Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Crocker/Demberg/Staudte Sommersemester 2014 17.07.2014 1. Sie haben 90 Minuten Zeit zur Bearbeitung der Aufgaben.
MehrEinführung in die Computerlinguistik Chart-Parsing
Einführung in die Computerlinguistik Chart-Parsing Dozentin: Wiebke sen 21.12.2009 Wiebke sen Einführung CL (Wie 09/10) 1 P = calls calls Wiebke sen Einführung CL (Wie 09/10) 2 P = calls calls Wiebke sen
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Modellierung WS 2011/2012 Manfred Pinkal Wortartinformation Wortartinformation ist eine wichtige Voraussetzung für die syntaktische Analyse. Woher kommt
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrAutomatische Textzusammenfassung
Ruprecht Karls Universität Heidelberg Lehrstuhl für Computerlinguistik HS Information Retrieval Automatische Textzusammenfassung Referat von Elena Loupanova 23.01.2006 Definition Textzusammenfassung The
MehrParsing von unifikationsbasierten Grammatikformalismen
Parsing von unifikationsbasierten Grammatikformalismen Vorlesung Grammatikformalismen Alexander Koller. Juli 016 Parsing Warum kann man kfgen in polynomieller Zeit parsen, wenn doch jeder Substring exponentiell
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Modellierung I WS 2010/2011 Manfred Pinkal Wortartinformation Wortartinformation ist eine wichtige Voraussetzung für die syntaktische Analyse. Woher kommt
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 15.01.2015 INSTITUT FÜR THEORETISCHE 0 KIT 15.01.2015 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik
MehrErkennung der kontextfreien Grammatiken mittels Boolescher Matrixmultiplikation
Erkennung der kontextfreien Grammatiken mittels Boolescher Matrixmultiplikation Valiant-Erkenner Referent: Fedor Uvarov eminar Algorithmen zu kontextfreien Grammatiken Dozenten: Prof Dr. Hofmann, Dr. Leiß
MehrSyntax natürlicher Sprachen
Syntax natürlicher Sprachen 02: Grammatik und Bäume Martin Schmitt Ludwig-Maximilians-Universität München 25.10.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 25.10.2017 1 1 Syntax im NLTK 2 Grammatik
MehrTheoretische Grundlagen der Informatik. Vorlesung am 8. Januar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 0 08.01.2019 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Letzte Vorlesung Eine
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Christoph Sawade
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Christoph Sawade NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion, Übersetzung,
MehrSyntax natürlicher Sprachen
Syntax natürlicher Sprachen Vorlesung WS 2017/2018 Centrum für Informations- und Sprachverarbeitung LMU München Axel Wisiorek Organisatorisches 2 Vorlesung: Di, 10-12 Uhr, Raum 151 (Wisiorek) Email: wisiorek
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Thomas Vanck NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion, Übersetzung,
MehrMaschinelle Sprachverarbeitung: N-Gramm-Modelle
HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind
MehrSemantic Role Labeling
Semantic Role Labeling Am Beispiel von EasySRL und SEMAFOR Max Depenbrock Proseminar "Tools für Computerlinguisten" 5.1.2018 Max Depenbrock SRL 5.1.2018 1 / 36 Was ist Semantic Role Labeling? Was ist Semantic
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Modellierung Fragebogenaktion Bachelor-StudentInnen http://www.coli.uni-saarland.de/bsc/page.php?id=fragebogen WS 2013/2014 Andrea Horbach mit Folien von
MehrProjektgruppe. Text Labeling mit Sequenzmodellen
Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:
MehrNLP Eigenschaften von Text
NLP Eigenschaften von Text Dr. Andreas Hotho Dominik Benz Beate Krause Sommersemester 2008 Folie: 1 Übersicht Einführung Eigenschaften von Text Words I: Satzgrenzenerkennung, Tokenization, Kollokationen
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten
MehrLösungsvorschlag für das Übungsblatt 8. Aufgabe1.
Lösungsvorschlag für das Übungsblatt 8. Aufgabe1. 3 Det A N VP R6 4 Any A N VP L3 5 Any intelligent N VP L4 6 Any intelligent cat VP L2 Nach den Regeln kann der Satz weiter nicht erzeugt warden, deswegen
MehrCharts. Motivation. Grundfrage. Chart als Graph
Charts Motivation Übersicht Chart bzw. Well-Formed Substring Table (WFST) Als azyklischer Graph, Tabelle und Relation Kantenbeschriftungen Kategorien: WFST Regeln: Passive Charts Regelhyposen: Aktive Charts
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
MehrEinführung in die Computerlinguistik Formale Grammatiken rechtslineare und kontextfreie Grammatiken Kellerautomaten
Einführung in die Computerlinguistik Formale Grammatiken rechtslineare und kontextfreie Grammatiken Kellerautomaten Dozentin: Wiebke Petersen 13. Foliensatz Wiebke Petersen Einführung CL 1 Formale Grammatik
MehrEarley Parsing. Parsing - WS 2012 / 2013 Lisa Orszullok & Anika Stallmann
Earley Parsing Parsing - WS 2012 / 2013 Lisa Orszullok & Anika Stallmann 12.12.2012 Agenda Basics Komponenten Earley Parsing - Recognizer Earley Parsing - Parser Vor- und Nachteile Parsing WS 2012/2013
MehrChart-Parsing. bersicht. Ziel. Motivation: Bisher vorgestellte Verfahren sind nicht effizient Grundidee des Chart-Parsing Datenstruktur
Chart-Parsing bersicht Ziel Motivation: Bisher vorgestellte Verfahren sind nicht effizient Grundidee des Chart-Parsing Datenstruktur Knoten passive und aktive Kanten gepunktete Regeln (dotted rules) Fundamentalregel
MehrKlammersprache Definiere
Klammersprache w=w 1...w n {(,)}* heißt korrekt geklammert, falls die Anzahl ( ist gleich der Anzahl ). in jedem Anfangsstück w 1,...,w i (i n) ist die Anzahl ( nicht kleiner als die Anzahl ). Definiere
MehrVorlesung Theoretische Informatik (Info III)
1 Vorlesung Theoretische Informatik (Info III) Prof. Dr. Dorothea Wagner Dipl.-Math. Martin Holzer 22. Januar 2008 Einleitung Motivation 2 Thema heute Kontextfreie Grammatiken: Lemma von Ogden Eigenschaften
MehrCognitive Interaction Technology Center of Excellence
Kanonische Abdeckung Motivation: eine Instanz einer Datenbank muss nun alle funktionalen Abhängigkeiten in F + erfüllen. Das muss natürlich immer überprüft werden (z.b. bei jedem update). Es reicht natürlich
MehrProseminar Linguistische Annotation
Proseminar Linguistische Annotation Ines Rehbein und Josef Ruppenhofer SS 2010 Ines Rehbein und Josef Ruppenhofer (SS10) Linguistische Annotation April 2010 1 / 22 Seminarplan I. Linguistische Annotation
MehrEinführung in die Computerlinguistik
Mehrdeutigkeit der Wortart Einführung in die Computerlinguistik Statistische Modellierung und Evaluation WS 2008/2009 Manfred Pinkal Sie haben in Moskau liebe genossen Sie haben in Moskau liebe Genossen
MehrDer Earley-Algorithmus.
1 Der Earley-Algorithmus. Eine Erläuterung der formalen Spezifikation mit linguistischen Beispielen Kursskript Karin Haenelt, 25.07.2001 1 Einleitung In diesem Skript wird die formale Spezifikation des
MehrGrundlagen der Programmierung 2 (Comp-D)
Grundlagen der Programmierung 2 (Comp-D) Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 31. Mai 2007 Operationen auf Grammatiken Ziel: Normalisierungen, Vereinfachungen
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 13.01.2011 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrOperationen auf Grammatiken
Operationen auf Grammatiken Ziel: Normalisierungen, Vereinfachungen, Elimination bestimmter Konstrukte Erzeugen eines Parsers Transformation G 1 G 2 mit L(G 1 ) = L(G 2 ) I.a. Parsebaum 1 (w) Parsebaum
MehrEinführung in die Computerlinguistik Kontextfreie Grammatiken und. Kellerautomaten. Dozentin: Wiebke Petersen
Einführung in die Computerlinguistik en und Dozentin: Wiebke Petersen 7.1.2010 Wiebke Petersen Einführung CL (WiSe 09/10) 1 kontextfreie Grammatik Denition Eine Grammatik (N, T, S, P) heiÿt kontextfrei,
MehrFormale Sprachen und Automaten: Tutorium Nr. 8
Formale Sprachen und Automaten: Tutorium Nr. 8 15. Juni 2013 Übersicht 1 Nachtrag 2 Besprechung von Übungsblatt 7 Aufgabe 1 Aufgabe 2 Aufgabe 3 3 CFG PDA Definitionen Ein Beispiel! Aufgabe 4 Der PDA als
MehrAlgorithmen und Datenstrukturen
1 Algorithmen und Datenstrukturen Wintersemester 2014/15 7. Vorlesung Zufall! Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I 2 Inhaltsverzeichnis Ein Zufallsexperiment InsertionSort: erwartete bzw.
Mehr1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 -
1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen I.2. I.2. Grundlagen von von Programmiersprachen. - 1 - 1. Der Begriff Informatik "Informatik" = Kunstwort aus Information und Mathematik
Mehr1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 -
1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen I.2. I.2. Grundlagen von von Programmiersprachen. - 1 - 1. Der Begriff Informatik "Informatik" = Kunstwort aus Information und Mathematik
MehrÜbersicht. 11 Statistische Syntaxmodelle
Übersicht 11 Statistische Syntaxmodelle 11.1 Induzierte PCFG-Modelle 11.1.1 grammar induction aus Treebank 11.1.2 Normalisierung und Evaluation 11.1.3 PCFGs mit abgeschwächten Unabhängigkeitsannahmen 11.2
MehrWahrscheinlichkeitsrechnung und Statistik
Babeş-Bolyai Universität Fakultät für Mathematik und Informatik Oktober 2018 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich
MehrTeil 111. Chart-Parsing
Teil 111 Chart-Parsing 102 Die im ersten Teil des Buches behandelten einfachen Parsingalgorithmen sind, anders als die meisten vor allem im Compilerbau verwendeten Algorithmen (z.b. die LLoder LR-Parsingalgorithmen),
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik HMM POS-Tagging Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2018 1 / 30 Table of contents 1 Hidden Markov Models 2 POS Tags 3 HMM POS Tagging 4 Bigram-HMMs
MehrWortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank
Wortdekodierung Vorlesungsunterlagen Speech Communication 2, SS 2004 Franz Pernkopf/Erhard Rank Institute of Signal Processing and Speech Communication University of Technology Graz Inffeldgasse 16c, 8010
MehrAlgorithmen und Datenstrukturen
1 Algorithmen und Datenstrukturen Wintersemester 2014/15 3. Vorlesung Laufzeitanalyse Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I 2 Recap: Diskutieren Sie mit Ihrer NachbarIn! 1. 2. 3. Was sind
MehrLehrstuhl für Computerlinguistik
Ruprecht-Karls -Universität Heidelberg Lehrstuhl für Computerlinguistik Hauptseminar: Parsing Leitung: PD Dr. Karin Haenelt Referent: A. S. M. Abdullah Eusufzai Referat zum Thema: Probabilistisches Parsing
MehrHMMs und der Viterbi-Algorithmus
July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,
MehrTreeTagger. Deborah Watty
TreeTagger Deborah Watty POS-Tagging store Das ist ein Haus. Artikel Verb Artikel Nomen Nom The 1977 PCs could only store two pages Modalverb Adverb of data. Wir wissen: store kann Nomen oder Verb sein.
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik WS 2/22 Manfred Pinkal Beispiel: Adjektive im Wahrig-Korpus Frequenzen in einem kleinen Teilkorpus: n groß - -
MehrAlgorithmen und Datenstrukturen
1 Algorithmen und Datenstrukturen Wintersemester 013/14 7. Vorlesung Zufall! Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Ein Experiment Ein Franke und ein Münchner gehen (unabhängig voneinander)
Mehr4 Probabilistische Analyse und randomisierte Algorithmen
Algorithmen und Datenstrukturen 96 4 Probabilistische Analyse und randomisierte Algorithmen Bei der Algorithmenanalyse ist es sehr hilfreich, Aspekte berücksichtigen zu können, die vom Zufall abhängen.
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik Evaluation Annotation eines Goldstandard : Testkorpus mit der relevanten Zielinformation (z.b. Wortart) Automatische
Mehr4 Syntaktische Relationen: Konstituenz
Übersicht 4 Syntaktische Relationen: Konstituenz 4.1 Konstituentenstruktur 4.1.1 Eigenschaften der Konstituentenstruktur 4.1.2 Konstituentenstruktur des Deutschen 4.2 Modellierung mit kontextfreier Grammatik
MehrSoftware Entwicklung 1. Fallstudie: Arithmetische Ausdrücke. Rekursive Klassen. Überblick. Annette Bieniusa / Arnd Poetzsch-Heffter
Software Entwicklung 1 Annette Bieniusa / Arnd Poetzsch-Heffter Fallstudie: Arithmetische Ausdrücke AG Softech FB Informatik TU Kaiserslautern Bieniusa/Poetzsch-Heffter Software Entwicklung 1 2/ 33 Überblick
MehrEinführung in die Computerlinguistik. Syntax II
Einführung in die Computerlinguistik yntax II Hinrich chütze & Robert Zangenfeind Centrum für Informations- und prachverarbeitung, LMU München 18.12.2015 chütze & Zangenfeind: yntax II 1 / 17 Take-away
MehrÜbersicht. Syntax - Linguistische und formale Grundlagen. 2 Einführung
Übersicht I Syntax - Linguistische und formale Grundlagen 2 Einführung 2.1 Syntax natürlicher Sprachen 2.1.1 Syntaxbegriff 2.1.2 Grammatik 2.1.3 Semiotische Grundlagen 2.1.4 Syntaktische Form 2.2 Syntaktische
MehrTutorium Prolog für Linguisten 12
Tutorium Prolog für Linguisten 12 Sebastian Golly 29. Januar 2013 Sebastian Golly Tutorium Prolog für Linguisten 12 1 / 13 Plan für heute Fürs Langzeitgedächtnis Zusammenfassung des letzten Seminars Übungsblatt
MehrVon der Grammatik zum AST
Von der Grammatik zum AST Welche Eigenschaften soll ein Parser haben? Wann ist eine Grammatik eindeutig? Wie sollte eine Grammatik aussehen? Theoretischer Hin tergrund: FIRST, FOLLOW Einschränkungen von
MehrAutomatisches Lernen von Regeln zur quellseitigen Umordnung
Automatisches Lernen von Regeln zur quellseitigen Umordnung E I N A N S AT Z V O N D M I T R I Y G E N Z E L Duwaraka Murugadas Fortgeschrittene Methoden der statistischen maschinellen Übersetzung (Miriam
MehrSatz 90 Sei A = (Q, Σ, δ, q 0, F ) ein DFA. Der Zeitaufwand des obigen Minimalisierungsalgorithmus ist O( Q 2 Σ ).
Satz 90 Sei A = (Q, Σ, δ, q 0, F ) ein DFA. Der Zeitaufwand des obigen Minimalisierungsalgorithmus ist O( Q 2 Σ ). Beweis: Für jedes a Σ muss jede Position in der Tabelle nur konstant oft besucht werden.
MehrKapitel 5: Dynamisches Programmieren Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrAlgorithmus: // Zähler für jede Regel. // Initialisierung. // Initialisierung von rhs } // 2 N result = ; // Ergebnis-Menge int count[p];
Algorithmus: 2 N result = ; // Ergebnis-Menge int count[p]; // Zähler für jede Regel 2 P rhs[n]; // VorkommeninrechtenSeiten forall (A N) rhs[a] = ; // Initialisierung forall ((A,i) P) { // count[(a,i)]
Mehr