Probabilistische kontextfreie Grammatiken

Größe: px
Ab Seite anzeigen:

Download "Probabilistische kontextfreie Grammatiken"

Transkript

1 Probabilistische kontextfreie Grammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 08. Dezember 2015

2 Let s play a game Ich gebe Ihnen ein Nichtterminalsymbol. S, NP, VP, PP, oder POS-Tag Sie können einen der folgenden Züge machen: S NP VP NNP Hans NT in andere NT expandieren POS-Tag in Wort expandieren

3 Penn Treebank POS tags

4 Ein paar echte Bäume Penn Treebank, #0001 Penn Treebank, #0002 nltk.corpus.treebank.parsed_sents("wsj_0001.mrg")[0].draw()

5 Ambiguitäten Wir wollen disambiguieren, d.h. korrekten Parse für ambigen Satz berechnen. S NP VP S V NP NP VP Det N VP PP N PP V NP P NP P NP Det N PRP$ N PRP$ N I shot an elephant in my pyjamas I shot an elephant in my pyjamas Woran erkennen wir den korrekten Baum? Wie berechnen wir ihn effizient? (NB: exponentiell viele Lesarten)

6 Probabilistische kfgen Eine probabilistische kontextfreie Grammatik (PCFG) ist eine kfg, in der jede Produktionsregel A w hat eine W. P(A w A): wenn wir A expandieren, wie w. ist Regel A w? für jedes Nichtterminal A müssen W. zu eins summieren: X P (A! w A) =1 w wir schreiben abgekürzt P(A w) für P(A w A)

7 Beispiel S NP VP [1.0] VP V NP [0.5] NP Det N [0.8] VP VP PP [0.5] NP i [0.2] V shot [1.0] N N PP [0.4] PP P NP [1.0] N elephant [0.3] P in [1.0] N pyjamas [0.3] Det an [0.5] Det my [0.5] (der Einfachheit halber tun wir so, als ob Det = PRP$)

8 Generativer Prozess PCFG erzeugt zufällige Ableitung der kfg. Ereignis = Expansion von NT durch Produktionsregel alle statistisch unabhängig voneinander S NP VP i VP i VP PP * i shot an elephant in my pyjamas S NP VP i VP * i V Det N i V Det N PP * i shot pyjamas

9 Parsebäume p = p = S NP S VP V I shot VP 0.5 Det an NP 0.8 N elephant P in PP NP Det my 0.8 N pyjamas NP VP V Det I shot an 0.5 NP 0.8 N 0.3 elephant N 0.4 P in PP NP Det my 0.8 N pyjamas korrekt = wahrscheinlichster Parsebaum

10 Sprachmodellierung Wie in anderen generativen Modellen (z.b. HMMs) können wir W. P(w) von String durch Marginalisierung über mögliche Bäume berechnen. P (w) = X t2parses(w) P (t) Kann man effizient mit Inside-W. berechnen; siehe nächstes Mal.

11 Disambiguierung Annahme: korrekter Parsebaum = Baum, der höchste W. hat, vom Zufallsprozess erzeugt zu werden, d.h. argmax t2parses(w) P (t) Wir verwenden Variante des Viterbi-Algorithmus, um diesen Baum auszurechnen. Hier: Viterbi auf Grundlage von CKY; kann man auch mit anderen Parsingalgorithmen machen.

12 Intuition Normale CKY-Parsechart: Ch(i,k) = {A A * w i w k-1 } VP NP N PP in my pyjamas VP NP N V shot shot Det an an elephant elephant in my pyjamas

13 Intuition Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} VP: NP: N: PP: 0.12 in my pyjamas VP: 0.06 NP: 0.12 N: 0.3 V: 1.0 shot shot Det: 0.5 an an elephant elephant in my pyjamas

14 Viterbi + CKY Definiere für jeden Span (i,k) und Nichtterminal A die W. V (A, i, k) = max A d ) w i...w k 1 P (d) Berechne V iterativ von innen nach außen : mit kleinen Spans anfangen und immer größer werden. V (A, i, i + 1) = P (A! w i ) V (A, i, k) = max A!B C i<j<k P (A BC) V (B,i,j) V (C, j, k)

15 Viterbi-CKY: Pseudocode set all V[A,i,j] to 0 for all i from 1 to n: for all A with rule A -> wi: add A to Ch(i,i+1) V[A,i,i+1] = P(A -> wi) for all b from 2 to n: for all i from 1 to n-b+1: for all k from 1 to b-1: for all B in Ch(i,i+k) and C in Ch(i+k,i+b): for all production rules A -> B C: add A to Ch(i,i+b) if P(A -> B C) * V[B,i,i+k] * V[C,i+k,i+b] > V[A,i,i+b]: V[A,i,i+b] = P(A -> B C) * V[B,i,i+k] * V[C,i+k,i+b]

16 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} shot shot in my pyjamas an an elephant elephant in my pyjamas

17 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} PP: 0.12 in my pyjamas V: 1.0 shot shot Det: 0.5 an an N: 0.3 elephant elephant in my pyjamas

18 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} PP: 0.12 in my pyjamas NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot

19 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} N: PP: 0.12 in my pyjamas NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot

20 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} N: PP: 0.12 in my pyjamas VP: 0.06 NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot

21 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} NP: N: PP: 0.12 in my pyjamas VP: 0.06 NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot

22 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} VP: NP: N: PP: 0.12 in my pyjamas VP: 0.06 NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot

23 Viterbi-CKY am Beispiel Viterbi-CKY-Parsechart: Ch(i,k) ={(A, p) p = max d:a) w i...w k 1 P (d)} VP: VP: NP: N: PP: 0.12 in my pyjamas VP: 0.06 NP: 0.12 N: 0.3 elephant in my pyjamas Det: 0.5 an elephant V: 1.0 shot an shot

24 Bemerkungen Viterbi-CKY hat genau die gleichen Schleifen wie der normale CKY-Parser. Berechnung von V ändert nur den konstanten Faktor. Asymptotische Laufzeit immer noch O(n 3 ) Berechne optimalen Parsebaum mit Backpointers. gleiche Backpointers wie in normalem CKY (siehe 6. Vorlesung) wenn wir nur den besten Parse wollen (und nicht alle Parses), reicht es, den besten Backpointer für jedes (A,i,k) zu speichern; d.h. weniger Speicherverbrauch als normaler CKY

25 Wo kriegt man eine PCFG? Quellen für kontextfreie Grammatiken: von Hand schreiben aus einer Baumbank ablesen Grammatikinduktion aus unannotiertem Text Quellen für Regelw., nachdem wir kfg haben: Maximum-Likelihood-Schätzung aus Baumbank EM-Training auf unannotiertem Text (inside-outside)

26 Die Penn Treebank Große Textmenge (für die 1990er), annotiert mit POS-Tags und syntaktischen Strukturen. Besteht aus mehreren Teilkorpora: Wall Street Journal: 1 Jahr Zeitungstext, 1 Mio Wörter Brown-Korpus: balanciertes Korpus, 1 Mio Wörter ATIS: Flugbuchungs-Dialoge, 5000 words Switchboard: gesprochener Dialog, 3 Mio Wörter WSJ PTB ist Standardkorpus für Training und Evaluation von PCFG-Parsern.

27 Annotationsformat S VP ADJP-PRD PP NP-SBJ NP DT JJ, JJ NN VBZ JJ IN NN CC NN. That cold, empty sky was full of fire and light.

28 NP-SBJ Annotationsformat S VP ((S (NP-SBJ (DT That) (JJ cold) (,,) (JJ empty) (NN sky) ) (VP (VBD was) (ADJP-PRD (JJ full) ADJP-PRD (PP (IN of) (NP PP (NN fire) (CC and) NP (NN light) )))) (..) )) DT JJ, JJ NN VBZ JJ IN NN CC NN. That cold, empty sky was full of fire and light.

29 Grammatik ablesen Kann direkt die Grammatik in den Köpfen der Annotatoren von annotierten Bäumen ablesen. Ergibt sehr große kfg, z.b Regeln für VP: VP VBD PP VP VBD PP PP VP VBD PP PP PP VP VBD PP PP PP PP VP VBD ADVP PP VP VBD PP ADVP VP VBD PP PP PP PP PP ADVP PP

30 Grammatik ablesen Kann direkt die Grammatik in den Köpfen der Annotatoren von annotierten Bäumen ablesen. Ergibt sehr große kfg, z.b Regeln für VP: VP VBD PP VP VBD PP PP VP VBD PP PP PP VP VBD PP PP PP PP VP VBD ADVP PP VP VBD PP ADVP This mostly happens because we go from football in the fall to lifting in the winter to football again in the spring. VP VBD PP PP PP PP PP ADVP PP

31 Evaluation Schritt 1: Aufteilung in Trainings- und Testkorpus. Konventionelle Aufteilung der WSJ-Baumbank: Training Test Devel

32 Evaluation Schritt 2: Maß für Akkuratheit des Parsers? Erste Idee: Messe exact match, d.h. Anteil der Sätze, für die Parser den gleichen Baum wie Annotator baut. Das ist zu streng: Parser trifft beim Parsen eines Satzes viele Entscheidungen eine einzige falsche Entscheidung macht ganzen Baum falsch Wir brauchen ein feinkörnigeres Maß.

33 Vergleich von Parsebäumen Idee 2 (PARSEVAL): Vergleiche Struktur von Parsebaum und Goldstandard-Baum (= Annotation). Labeled: Welche Konstituenten (Span + syntaktische Kategorie) in einem Baum gibt es auch im anderen? Unlabeled: Wie teilen die beiden Bäume den Satz in Teilstrings auf (syntaktische Kategorien egal)? Gold S S Parse VP VP PP NP-SBJ ADJP NP NP-SBJ ADJP CC DT NN VBZ JJ But the concept is workable IN DT NN VBZ JJ But the concept is workable

34 Precision Welcher Anteil von Konstituenten im Parsebaum gibt es auch im Gold-Baum? Gold S VP NP-SBJ ADJP CC DT NN VBZ JJ But the concept is workable S PP ( ) ( ) NP NP-SBJ Parse VP ADJP ( ) IN DT NN VBZ JJ But the concept is workable Labeled Precision = 7 / 11 = 63.6% Unlabeled Precision = 10 / 11 = 90.9%

35 Recall Welchen Anteil von Konstituenten im Gold-Baum gibt es auch im Parsebaum? Gold NP-SBJ S VP ADJP ( ) CC DT NN VBZ JJ But the concept is workable S PP NP NP-SBJ Parse VP ADJP IN DT NN VBZ JJ But the concept is workable Labeled Recall = 7 / 9 = 77.8% Unlabeled Recall = 8 / 9 = 88.9%

36 F-Score Precision und Recall messen gegenläufige Aspekte eines Parsers ( Korrektheit und Vollständigkeit ). Oft will man eine einzige Zahl; dafür f-score: F 1 = 2 P R P + R Im Beispiel: labeled f-score 70.0, unlabeled f-score 89.9.

37 Zusammenfassung PCFGs erweitern kfgen um Regelw. Ereignisse sind Expansionen von Nichtterminalen. Diese sind alle statistisch unabhängig. Viterbi-CKY-Parser berechnet wahrscheinlichsten Parsebaum für Satz in kubischer Zeit. Grammatik aus Baumbank ablesen. nächstes Mal: Schätzung von Regelwahrscheinlichkeiten. Evaluation von PCFG-Parsern.

Probabilistic Context Free Grammars, Part II

Probabilistic Context Free Grammars, Part II Probabilistic Context Free Grammars, Part II Prof Dr. Matthew Crocker Universität des Saarlandes 16. Juli 2015 Matthew Crocker (UdS) PCFG II 16. Juli 2015 1 / 25 Themen heute: 1 Wiederholung: PCFG 2 Formeln

Mehr

Elementare Wahrscheinlichkeitslehre

Elementare Wahrscheinlichkeitslehre Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?

Mehr

Programmierkurs Python II

Programmierkurs Python II Programmierkurs Python II Michaela Regneri & tefan Thater FR 4.7 Allgemeine Linguistik (Computerlinguistik) Universität des aarlandes ommersemester 2010 (Charniak, 1997) the dog biscuits N V N V the dog

Mehr

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014 idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme

Mehr

Kontextfreie Grammatiken

Kontextfreie Grammatiken Kontextfreie Grammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 16. Oktober 2015 Übersicht Worum geht es in dieser Vorlesung? Übungen und Abschlussprojekt Kontextfreie Grammatiken Computerlinguistische

Mehr

Probabilistische kontextfreie Grammatiken

Probabilistische kontextfreie Grammatiken Mathematische Grundlagen III Probabilistische kontextfreie Grammatiken 14 Juni 2011 1/26 Ambiguität beim Parsing Wörter können verschiedene Bedeutungen haben und mehr als einer Wortkategorien angehören

Mehr

Evaluation und Training von HMMs

Evaluation und Training von HMMs Evaluation und Training von MMs Vorlesung omputerlinguistische Techniken Alexander Koller. Dezember 04 MMs: Beispiel initial p. a 0 0.8 0.7 0. Eisner 0. transition p. 0. 0.6 a 0.5 0. emission p. b () States

Mehr

Das Trainings-Regime Ergebnisse Fehlerdiskussion Zusammenfassung. Baumbank-Training. Mateusz Jozef Dworaczek

Das Trainings-Regime Ergebnisse Fehlerdiskussion Zusammenfassung. Baumbank-Training. Mateusz Jozef Dworaczek 04.06.2007 Inhalt 1 Definition Anno 1996 Überwachtes Training 2 Ablesen der Baumbankgrammatik Berechnen der Regelwahrscheinlichkeiten PCFG 3 Parameter zur Messung der Güte des Parsens 4 Fehlerquellen 1.Fehler

Mehr

Maschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken

Maschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken Tobias Scheffer Ulf Brefeld Sprachmodelle N-Gramm-Modell:

Mehr

Probabilistische kontextfreie Grammatiken und Parsing. Sebastian Pado

Probabilistische kontextfreie Grammatiken und Parsing. Sebastian Pado Probabilistische kontextfreie Grammatiken und Parsing Sebastian Pado 18.01.2005 1 Robustes Parsing Ziel: Syntaktische Analyse von freiem Text Anwendungen: Freier Dialog Große Textmengen (Internet) Herausforderungen

Mehr

Probabilistisches Parsing Teil II

Probabilistisches Parsing Teil II Ruprecht-Karls-Universität Heidelberg Computerlinguistisches Seminar SS 2002 HS: Parsing Dozentin: Dr. Karin Haenelt Referentin: Anna Björk Nikulásdóttir 10.06.02 1. Parsingmodelle Probabilistisches Parsing

Mehr

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle

Mehr

Der CKY-Parser. Vorlesung Computerlinguistische Techniken Alexander Koller. 27. Oktober 2015

Der CKY-Parser. Vorlesung Computerlinguistische Techniken Alexander Koller. 27. Oktober 2015 Vorlesung omputerlinguistische Techniken Alexander Koller 27. Oktober 2015 Übersicht Komplexität des KY-Algorithmus Implementierung in Python hift-reduce-parsing hift-regel: (a w, s) (w, s a) Reduce-Regel:

Mehr

Automatisches Verstehen gesprochener Sprache

Automatisches Verstehen gesprochener Sprache Automatisches Verstehen gesprochener Sprache 6. Syntaxanalyse Martin Hacker Bernd Ludwig Günther Görz Professur für Künstliche Intelligenz Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

Earley Parser. Flutura Mestani

Earley Parser. Flutura Mestani Earley Parser Flutura Mestani Informatik Seminar Algorithmen zu kontextfreien Grammatiken Wintersemester 2015/2016 Prof. Martin Hofmann, Dr. Hans Leiß Flutura Mestani 25.11.2015 Seminar Algorithmen zu

Mehr

Einführung in die Computerlinguistik POS-Tagging

Einführung in die Computerlinguistik POS-Tagging Einführung in die Computerlinguistik POS-Tagging Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2013 POS Tags (1) POS = part-of-speech Tags sind morphosyntaktische Kategorien von Wortformen.

Mehr

PROBABILISTIC PARSING FOR GERMAN USING SISTER-HEAD DEPENDENCIES

PROBABILISTIC PARSING FOR GERMAN USING SISTER-HEAD DEPENDENCIES Ausgangsfrage PROBABILISTIC PARSING FOR GERMAN USING SISTER-HEAD DEPENDENCIES Irina Gossmann Carine Dombou 9. Juli 2007 INHALT Ausgangsfrage 1 AUSGANGSFRAGE 2 SYNTAX DES DEUTSCHEN + NEGRA 3 PROBABILISTISCHE

Mehr

Der Earley-Algorithmus

Der Earley-Algorithmus Der Earley-Algorithmus Kursfolien Karin Haenelt 25.03.02 1 25.03.02 2 Inhalt Funktion des Earley-Algorithmus Begriffe Erkenner/Parser Kontextfreie Grammatik Ein Beispiel Funktionen des Algorithmus Funktionsweise

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Peter Haider Paul Prasse

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Peter Haider Paul Prasse Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Peter Haider Paul Prasse NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion,

Mehr

Der Earley-Algorithmus

Der Earley-Algorithmus Der Earley-Algorithmus Kursfolien Karin Haenelt 25.03.02 1 25.03.02 2 Inhalt Funktion des Earley-Algorithmus Begriffe Erkenner/Parser Kontextfreie Grammatik Ein Beispiel Funktionen des Algorithmus Funktionsweise

Mehr

Institut für Informatik Lehrstuhl Maschinelles Lernen

Institut für Informatik Lehrstuhl Maschinelles Lernen Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-PipelinePipeline Tobias Scheffer Peter Haider Uwe Dick Paul Prasse NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Peter Haider Uwe Dick Paul Prasse

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Peter Haider Uwe Dick Paul Prasse Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Peter Haider Uwe Dick Paul Prasse NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion,

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik HMM POS-Tagging Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 20 POS Tags (1) Jurafsky and Martin (2009) POS = part-of-speech Tags sind morphosyntaktische

Mehr

Featuregrammatiken. Vorlesung Computerlinguistische Techniken Alexander Koller. 21. November 2014

Featuregrammatiken. Vorlesung Computerlinguistische Techniken Alexander Koller. 21. November 2014 Featuregrammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 21. November 2014 Musterlösung Ü2 A4 Erste 100 Wörter des Brown-Korpus aueben: import nltk words = nltk.corpus.brown.words()

Mehr

Statistische Sprachmodelle

Statistische Sprachmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

Elementare statistische Methoden

Elementare statistische Methoden Elementare statistische Methoden Vorlesung Computerlinguistische Techniken Alexander Koller 28. November 2014 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen? Ziel

Mehr

Syntax und Parsing. OS Einblicke in die Computerlinguistik. Philipp Rabe, 13IN-M

Syntax und Parsing. OS Einblicke in die Computerlinguistik. Philipp Rabe, 13IN-M OS Einblicke in die Computerlinguistik basierend auf Computerlinguistik und Sprachtechnologie, 3. Auflage, Spektrum, Heidelberg 2010 22. Mai 2014 Ausgangssituation Tokenisierung und Wortarten-Tagging vollendet

Mehr

Diskriminatives syntaktisches Reranking für SMT

Diskriminatives syntaktisches Reranking für SMT Diskriminatives syntaktisches Reranking für SMT Fortgeschrittene Themen der statistischen maschinellen Übersetzung Janina Nikolic 2 Agenda Problem: Ranking des SMT Systems Lösung: Reranking-Modell Nutzung

Mehr

Maschinelles Lernen II

Maschinelles Lernen II Maschinelles Lernen II! Vorlesung Computerlinguistische Techniken Alexander Koller! 30. Januar 2015 Heute Überwachtes Lernen: Maximum-Entropy-Modelle Unüberwachtes Lernen: Clustering Maximum Entropy: Motivation

Mehr

Einleitung Kappa F-Score Fazit. Softwarepraktikum. Evaluation. Franz Matthies

Einleitung Kappa F-Score Fazit. Softwarepraktikum. Evaluation. Franz Matthies Evaluation Lehrstuhl für Computerlinguistik Institut für Germanistische Sprachwissenschaft Friedrich-Schiller-Universität Jena www.julielab.de Sommersemester 2016 Sitzung 2 Überblick 1 Motivation Definition

Mehr

Schwach kontextsensitive Grammatikformalismen

Schwach kontextsensitive Grammatikformalismen chwach kontextsensitive Grammatikformalismen! Vorlesung Grammatikformalismen Alexander Koller! 2. Juni 2015 Grammatikformalismen Parsingkomplexität O(n) O(n 3 ) polynomiell exponentiell PPACE-vollst. unentscheidbar

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Paul Prasse Michael Großhans

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Paul Prasse Michael Großhans Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Paul Prasse Michael Großhans NLP- (Natural Language Processing-) Pipeline Folge von Verarbeitungsschritten

Mehr

Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur

Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Crocker/Demberg/Staudte Sommersemester 2014 17.07.2014 1. Sie haben 90 Minuten Zeit zur Bearbeitung der Aufgaben.

Mehr

Einführung in die Computerlinguistik Chart-Parsing

Einführung in die Computerlinguistik Chart-Parsing Einführung in die Computerlinguistik Chart-Parsing Dozentin: Wiebke sen 21.12.2009 Wiebke sen Einführung CL (Wie 09/10) 1 P = calls calls Wiebke sen Einführung CL (Wie 09/10) 2 P = calls calls Wiebke sen

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Modellierung WS 2011/2012 Manfred Pinkal Wortartinformation Wortartinformation ist eine wichtige Voraussetzung für die syntaktische Analyse. Woher kommt

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Automatische Textzusammenfassung

Automatische Textzusammenfassung Ruprecht Karls Universität Heidelberg Lehrstuhl für Computerlinguistik HS Information Retrieval Automatische Textzusammenfassung Referat von Elena Loupanova 23.01.2006 Definition Textzusammenfassung The

Mehr

Parsing von unifikationsbasierten Grammatikformalismen

Parsing von unifikationsbasierten Grammatikformalismen Parsing von unifikationsbasierten Grammatikformalismen Vorlesung Grammatikformalismen Alexander Koller. Juli 016 Parsing Warum kann man kfgen in polynomieller Zeit parsen, wenn doch jeder Substring exponentiell

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Modellierung I WS 2010/2011 Manfred Pinkal Wortartinformation Wortartinformation ist eine wichtige Voraussetzung für die syntaktische Analyse. Woher kommt

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 15.01.2015 INSTITUT FÜR THEORETISCHE 0 KIT 15.01.2015 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik

Mehr

Erkennung der kontextfreien Grammatiken mittels Boolescher Matrixmultiplikation

Erkennung der kontextfreien Grammatiken mittels Boolescher Matrixmultiplikation Erkennung der kontextfreien Grammatiken mittels Boolescher Matrixmultiplikation Valiant-Erkenner Referent: Fedor Uvarov eminar Algorithmen zu kontextfreien Grammatiken Dozenten: Prof Dr. Hofmann, Dr. Leiß

Mehr

Syntax natürlicher Sprachen

Syntax natürlicher Sprachen Syntax natürlicher Sprachen 02: Grammatik und Bäume Martin Schmitt Ludwig-Maximilians-Universität München 25.10.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 25.10.2017 1 1 Syntax im NLTK 2 Grammatik

Mehr

Theoretische Grundlagen der Informatik. Vorlesung am 8. Januar INSTITUT FÜR THEORETISCHE INFORMATIK

Theoretische Grundlagen der Informatik. Vorlesung am 8. Januar INSTITUT FÜR THEORETISCHE INFORMATIK Theoretische Grundlagen der Informatik 0 08.01.2019 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Letzte Vorlesung Eine

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Christoph Sawade

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Christoph Sawade Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Christoph Sawade NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion, Übersetzung,

Mehr

Syntax natürlicher Sprachen

Syntax natürlicher Sprachen Syntax natürlicher Sprachen Vorlesung WS 2017/2018 Centrum für Informations- und Sprachverarbeitung LMU München Axel Wisiorek Organisatorisches 2 Vorlesung: Di, 10-12 Uhr, Raum 151 (Wisiorek) Email: wisiorek

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Thomas Vanck NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion, Übersetzung,

Mehr

Maschinelle Sprachverarbeitung: N-Gramm-Modelle

Maschinelle Sprachverarbeitung: N-Gramm-Modelle HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind

Mehr

Semantic Role Labeling

Semantic Role Labeling Semantic Role Labeling Am Beispiel von EasySRL und SEMAFOR Max Depenbrock Proseminar "Tools für Computerlinguisten" 5.1.2018 Max Depenbrock SRL 5.1.2018 1 / 36 Was ist Semantic Role Labeling? Was ist Semantic

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Modellierung Fragebogenaktion Bachelor-StudentInnen http://www.coli.uni-saarland.de/bsc/page.php?id=fragebogen WS 2013/2014 Andrea Horbach mit Folien von

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

NLP Eigenschaften von Text

NLP Eigenschaften von Text NLP Eigenschaften von Text Dr. Andreas Hotho Dominik Benz Beate Krause Sommersemester 2008 Folie: 1 Übersicht Einführung Eigenschaften von Text Words I: Satzgrenzenerkennung, Tokenization, Kollokationen

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Lösungsvorschlag für das Übungsblatt 8. Aufgabe1.

Lösungsvorschlag für das Übungsblatt 8. Aufgabe1. Lösungsvorschlag für das Übungsblatt 8. Aufgabe1. 3 Det A N VP R6 4 Any A N VP L3 5 Any intelligent N VP L4 6 Any intelligent cat VP L2 Nach den Regeln kann der Satz weiter nicht erzeugt warden, deswegen

Mehr

Charts. Motivation. Grundfrage. Chart als Graph

Charts. Motivation. Grundfrage. Chart als Graph Charts Motivation Übersicht Chart bzw. Well-Formed Substring Table (WFST) Als azyklischer Graph, Tabelle und Relation Kantenbeschriftungen Kategorien: WFST Regeln: Passive Charts Regelhyposen: Aktive Charts

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Einführung in die Computerlinguistik Formale Grammatiken rechtslineare und kontextfreie Grammatiken Kellerautomaten

Einführung in die Computerlinguistik Formale Grammatiken rechtslineare und kontextfreie Grammatiken Kellerautomaten Einführung in die Computerlinguistik Formale Grammatiken rechtslineare und kontextfreie Grammatiken Kellerautomaten Dozentin: Wiebke Petersen 13. Foliensatz Wiebke Petersen Einführung CL 1 Formale Grammatik

Mehr

Earley Parsing. Parsing - WS 2012 / 2013 Lisa Orszullok & Anika Stallmann

Earley Parsing. Parsing - WS 2012 / 2013 Lisa Orszullok & Anika Stallmann Earley Parsing Parsing - WS 2012 / 2013 Lisa Orszullok & Anika Stallmann 12.12.2012 Agenda Basics Komponenten Earley Parsing - Recognizer Earley Parsing - Parser Vor- und Nachteile Parsing WS 2012/2013

Mehr

Chart-Parsing. bersicht. Ziel. Motivation: Bisher vorgestellte Verfahren sind nicht effizient Grundidee des Chart-Parsing Datenstruktur

Chart-Parsing. bersicht. Ziel. Motivation: Bisher vorgestellte Verfahren sind nicht effizient Grundidee des Chart-Parsing Datenstruktur Chart-Parsing bersicht Ziel Motivation: Bisher vorgestellte Verfahren sind nicht effizient Grundidee des Chart-Parsing Datenstruktur Knoten passive und aktive Kanten gepunktete Regeln (dotted rules) Fundamentalregel

Mehr

Klammersprache Definiere

Klammersprache Definiere Klammersprache w=w 1...w n {(,)}* heißt korrekt geklammert, falls die Anzahl ( ist gleich der Anzahl ). in jedem Anfangsstück w 1,...,w i (i n) ist die Anzahl ( nicht kleiner als die Anzahl ). Definiere

Mehr

Vorlesung Theoretische Informatik (Info III)

Vorlesung Theoretische Informatik (Info III) 1 Vorlesung Theoretische Informatik (Info III) Prof. Dr. Dorothea Wagner Dipl.-Math. Martin Holzer 22. Januar 2008 Einleitung Motivation 2 Thema heute Kontextfreie Grammatiken: Lemma von Ogden Eigenschaften

Mehr

Cognitive Interaction Technology Center of Excellence

Cognitive Interaction Technology Center of Excellence Kanonische Abdeckung Motivation: eine Instanz einer Datenbank muss nun alle funktionalen Abhängigkeiten in F + erfüllen. Das muss natürlich immer überprüft werden (z.b. bei jedem update). Es reicht natürlich

Mehr

Proseminar Linguistische Annotation

Proseminar Linguistische Annotation Proseminar Linguistische Annotation Ines Rehbein und Josef Ruppenhofer SS 2010 Ines Rehbein und Josef Ruppenhofer (SS10) Linguistische Annotation April 2010 1 / 22 Seminarplan I. Linguistische Annotation

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Mehrdeutigkeit der Wortart Einführung in die Computerlinguistik Statistische Modellierung und Evaluation WS 2008/2009 Manfred Pinkal Sie haben in Moskau liebe genossen Sie haben in Moskau liebe Genossen

Mehr

Der Earley-Algorithmus.

Der Earley-Algorithmus. 1 Der Earley-Algorithmus. Eine Erläuterung der formalen Spezifikation mit linguistischen Beispielen Kursskript Karin Haenelt, 25.07.2001 1 Einleitung In diesem Skript wird die formale Spezifikation des

Mehr

Grundlagen der Programmierung 2 (Comp-D)

Grundlagen der Programmierung 2 (Comp-D) Grundlagen der Programmierung 2 (Comp-D) Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 31. Mai 2007 Operationen auf Grammatiken Ziel: Normalisierungen, Vereinfachungen

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 13.01.2011 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft

Mehr

Operationen auf Grammatiken

Operationen auf Grammatiken Operationen auf Grammatiken Ziel: Normalisierungen, Vereinfachungen, Elimination bestimmter Konstrukte Erzeugen eines Parsers Transformation G 1 G 2 mit L(G 1 ) = L(G 2 ) I.a. Parsebaum 1 (w) Parsebaum

Mehr

Einführung in die Computerlinguistik Kontextfreie Grammatiken und. Kellerautomaten. Dozentin: Wiebke Petersen

Einführung in die Computerlinguistik Kontextfreie Grammatiken und. Kellerautomaten. Dozentin: Wiebke Petersen Einführung in die Computerlinguistik en und Dozentin: Wiebke Petersen 7.1.2010 Wiebke Petersen Einführung CL (WiSe 09/10) 1 kontextfreie Grammatik Denition Eine Grammatik (N, T, S, P) heiÿt kontextfrei,

Mehr

Formale Sprachen und Automaten: Tutorium Nr. 8

Formale Sprachen und Automaten: Tutorium Nr. 8 Formale Sprachen und Automaten: Tutorium Nr. 8 15. Juni 2013 Übersicht 1 Nachtrag 2 Besprechung von Übungsblatt 7 Aufgabe 1 Aufgabe 2 Aufgabe 3 3 CFG PDA Definitionen Ein Beispiel! Aufgabe 4 Der PDA als

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen 1 Algorithmen und Datenstrukturen Wintersemester 2014/15 7. Vorlesung Zufall! Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I 2 Inhaltsverzeichnis Ein Zufallsexperiment InsertionSort: erwartete bzw.

Mehr

1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 -

1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 - 1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen I.2. I.2. Grundlagen von von Programmiersprachen. - 1 - 1. Der Begriff Informatik "Informatik" = Kunstwort aus Information und Mathematik

Mehr

1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 -

1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 - 1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen I.2. I.2. Grundlagen von von Programmiersprachen. - 1 - 1. Der Begriff Informatik "Informatik" = Kunstwort aus Information und Mathematik

Mehr

Übersicht. 11 Statistische Syntaxmodelle

Übersicht. 11 Statistische Syntaxmodelle Übersicht 11 Statistische Syntaxmodelle 11.1 Induzierte PCFG-Modelle 11.1.1 grammar induction aus Treebank 11.1.2 Normalisierung und Evaluation 11.1.3 PCFGs mit abgeschwächten Unabhängigkeitsannahmen 11.2

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik Babeş-Bolyai Universität Fakultät für Mathematik und Informatik Oktober 2018 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich

Mehr

Teil 111. Chart-Parsing

Teil 111. Chart-Parsing Teil 111 Chart-Parsing 102 Die im ersten Teil des Buches behandelten einfachen Parsingalgorithmen sind, anders als die meisten vor allem im Compilerbau verwendeten Algorithmen (z.b. die LLoder LR-Parsingalgorithmen),

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik HMM POS-Tagging Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2018 1 / 30 Table of contents 1 Hidden Markov Models 2 POS Tags 3 HMM POS Tagging 4 Bigram-HMMs

Mehr

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank Wortdekodierung Vorlesungsunterlagen Speech Communication 2, SS 2004 Franz Pernkopf/Erhard Rank Institute of Signal Processing and Speech Communication University of Technology Graz Inffeldgasse 16c, 8010

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen 1 Algorithmen und Datenstrukturen Wintersemester 2014/15 3. Vorlesung Laufzeitanalyse Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I 2 Recap: Diskutieren Sie mit Ihrer NachbarIn! 1. 2. 3. Was sind

Mehr

Lehrstuhl für Computerlinguistik

Lehrstuhl für Computerlinguistik Ruprecht-Karls -Universität Heidelberg Lehrstuhl für Computerlinguistik Hauptseminar: Parsing Leitung: PD Dr. Karin Haenelt Referent: A. S. M. Abdullah Eusufzai Referat zum Thema: Probabilistisches Parsing

Mehr

HMMs und der Viterbi-Algorithmus

HMMs und der Viterbi-Algorithmus July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,

Mehr

TreeTagger. Deborah Watty

TreeTagger. Deborah Watty TreeTagger Deborah Watty POS-Tagging store Das ist ein Haus. Artikel Verb Artikel Nomen Nom The 1977 PCs could only store two pages Modalverb Adverb of data. Wir wissen: store kann Nomen oder Verb sein.

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik WS 2/22 Manfred Pinkal Beispiel: Adjektive im Wahrig-Korpus Frequenzen in einem kleinen Teilkorpus: n groß - -

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen 1 Algorithmen und Datenstrukturen Wintersemester 013/14 7. Vorlesung Zufall! Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Ein Experiment Ein Franke und ein Münchner gehen (unabhängig voneinander)

Mehr

4 Probabilistische Analyse und randomisierte Algorithmen

4 Probabilistische Analyse und randomisierte Algorithmen Algorithmen und Datenstrukturen 96 4 Probabilistische Analyse und randomisierte Algorithmen Bei der Algorithmenanalyse ist es sehr hilfreich, Aspekte berücksichtigen zu können, die vom Zufall abhängen.

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik Evaluation Annotation eines Goldstandard : Testkorpus mit der relevanten Zielinformation (z.b. Wortart) Automatische

Mehr

4 Syntaktische Relationen: Konstituenz

4 Syntaktische Relationen: Konstituenz Übersicht 4 Syntaktische Relationen: Konstituenz 4.1 Konstituentenstruktur 4.1.1 Eigenschaften der Konstituentenstruktur 4.1.2 Konstituentenstruktur des Deutschen 4.2 Modellierung mit kontextfreier Grammatik

Mehr

Software Entwicklung 1. Fallstudie: Arithmetische Ausdrücke. Rekursive Klassen. Überblick. Annette Bieniusa / Arnd Poetzsch-Heffter

Software Entwicklung 1. Fallstudie: Arithmetische Ausdrücke. Rekursive Klassen. Überblick. Annette Bieniusa / Arnd Poetzsch-Heffter Software Entwicklung 1 Annette Bieniusa / Arnd Poetzsch-Heffter Fallstudie: Arithmetische Ausdrücke AG Softech FB Informatik TU Kaiserslautern Bieniusa/Poetzsch-Heffter Software Entwicklung 1 2/ 33 Überblick

Mehr

Einführung in die Computerlinguistik. Syntax II

Einführung in die Computerlinguistik. Syntax II Einführung in die Computerlinguistik yntax II Hinrich chütze & Robert Zangenfeind Centrum für Informations- und prachverarbeitung, LMU München 18.12.2015 chütze & Zangenfeind: yntax II 1 / 17 Take-away

Mehr

Übersicht. Syntax - Linguistische und formale Grundlagen. 2 Einführung

Übersicht. Syntax - Linguistische und formale Grundlagen. 2 Einführung Übersicht I Syntax - Linguistische und formale Grundlagen 2 Einführung 2.1 Syntax natürlicher Sprachen 2.1.1 Syntaxbegriff 2.1.2 Grammatik 2.1.3 Semiotische Grundlagen 2.1.4 Syntaktische Form 2.2 Syntaktische

Mehr

Tutorium Prolog für Linguisten 12

Tutorium Prolog für Linguisten 12 Tutorium Prolog für Linguisten 12 Sebastian Golly 29. Januar 2013 Sebastian Golly Tutorium Prolog für Linguisten 12 1 / 13 Plan für heute Fürs Langzeitgedächtnis Zusammenfassung des letzten Seminars Übungsblatt

Mehr

Von der Grammatik zum AST

Von der Grammatik zum AST Von der Grammatik zum AST Welche Eigenschaften soll ein Parser haben? Wann ist eine Grammatik eindeutig? Wie sollte eine Grammatik aussehen? Theoretischer Hin tergrund: FIRST, FOLLOW Einschränkungen von

Mehr

Automatisches Lernen von Regeln zur quellseitigen Umordnung

Automatisches Lernen von Regeln zur quellseitigen Umordnung Automatisches Lernen von Regeln zur quellseitigen Umordnung E I N A N S AT Z V O N D M I T R I Y G E N Z E L Duwaraka Murugadas Fortgeschrittene Methoden der statistischen maschinellen Übersetzung (Miriam

Mehr

Satz 90 Sei A = (Q, Σ, δ, q 0, F ) ein DFA. Der Zeitaufwand des obigen Minimalisierungsalgorithmus ist O( Q 2 Σ ).

Satz 90 Sei A = (Q, Σ, δ, q 0, F ) ein DFA. Der Zeitaufwand des obigen Minimalisierungsalgorithmus ist O( Q 2 Σ ). Satz 90 Sei A = (Q, Σ, δ, q 0, F ) ein DFA. Der Zeitaufwand des obigen Minimalisierungsalgorithmus ist O( Q 2 Σ ). Beweis: Für jedes a Σ muss jede Position in der Tabelle nur konstant oft besucht werden.

Mehr

Kapitel 5: Dynamisches Programmieren Gliederung

Kapitel 5: Dynamisches Programmieren Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

Algorithmus: // Zähler für jede Regel. // Initialisierung. // Initialisierung von rhs } // 2 N result = ; // Ergebnis-Menge int count[p];

Algorithmus: // Zähler für jede Regel. // Initialisierung. // Initialisierung von rhs } // 2 N result = ; // Ergebnis-Menge int count[p]; Algorithmus: 2 N result = ; // Ergebnis-Menge int count[p]; // Zähler für jede Regel 2 P rhs[n]; // VorkommeninrechtenSeiten forall (A N) rhs[a] = ; // Initialisierung forall ((A,i) P) { // count[(a,i)]

Mehr