Parsing mit NLTK. Parsing mit NLTK. Parsing mit NLTK. Parsing mit NLTK. Beispiel: eine kleine kontextfreie Grammatik (cf. [BKL09], Ch. 8.

Größe: px
Ab Seite anzeigen:

Download "Parsing mit NLTK. Parsing mit NLTK. Parsing mit NLTK. Parsing mit NLTK. Beispiel: eine kleine kontextfreie Grammatik (cf. [BKL09], Ch. 8."

Transkript

1 Gliederung Natürlichsprachliche Systeme I D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg 1 WS 2011/12, 26. Oktober 2011, c D.Rösner D. Rösner NSS I 2011/ D. Rösner NSS I 2011/ Herausforderungen bei Formalisierung natürlicher Sprachen (cf. [BKL09], Ch. 8.1): rekursive Strukturen Beispiel: Sätze können ineinander eingebettet werden 1 Usain Bolt broke the 100m record 2 The Jamaica Observer reported that Usain Bolt broke the 100m record 3 Andre said the Jamaica Observer reported that Usain Bolt broke the 100m record 4 I think Andre said the Jamaica Observer reported that Usain Bolt broke the 100m record abgeleitete Template: Andre said S. I think S. D. Rösner NSS I 2011/ Grammatiken (cf. [BKL09], Ch. 8.1): sollen explizite Beschreibung einer Sprache liefern Sicht der generativen Grammatik eine Sprache ist die Sammlung (Menge) aller grammatischen Sätze eine Grammatik ist eine formale Notation, mit der die Elemente dieser Menge erzeugt werden können D. Rösner NSS I 2011/

2 Beispiel: eine kleine kontextfreie Grammatik (cf. [BKL09], Ch. 8.1): Mehrdeutigkeit (cf. [BKL09], Ch. 8.1): While hunting in Africa, I shot an elephant in my pajamas. How an elephant got into my pajamas I ll never know. >>> groucho_grammar = nltk.parse_cfg(""" PP -> P NP... NP -> Det N Det N PP I... VP -> V NP VP PP... Det -> an my... N -> elephant pajamas... V -> shot... P -> in... """) D. Rösner NSS I 2011/ D. Rösner NSS I 2011/ Beispiel: kontextfreie Grammatik (cf. [BKL09], Ch. 8.1): >>> groucho_grammar <Grammar with 13 productions> >>> sent = [ I, shot, an, elephant, in, my, pajamas ] >>> len(sent) 7 >>> parser = nltk.chartparser(groucho_grammar) >>> parser <nltk.parse.chart.chartparser object at 0x03578F70> >>> trees = parser.nbest_parse(sent) >>> len(trees) 2 Beispiel: kontextfreie Grammatik (cf. [BKL09], Ch. 8.1): >>> for tree in trees: print tree (S (NP I) (VP (V shot) (NP (Det an) (N elephant) (PP (P in) (NP (Det my) (N pajamas)))))) (S (NP I) (VP (VP (V shot) (NP (Det an) (N elephant))) (PP (P in) (NP (Det my) (N pajamas))))) >>> D. Rösner NSS I 2011/ D. Rösner NSS I 2011/

3 natürlicher Sprachen (cf. [BKL09], Ch. 8.2): elementare Einsicht: Wörter bilden mit anderen Wörtern zusammengehörende Einheiten, sog. Konstituenten Test auf Konstituenten-Eigenschaft durch Substituierbarkeit Substituierbarkeit liegt vor, wenn in einem wohlgeformten Satz eine Sequenz von Wörtern durch eine kürzere Sequenz ersetzt werden kann, ohne dass der Satz die Wohlgeformtheit verliert Beispiel: The little bear saw the fine fat trout in the brook. He saw the fine fat trout in the brook. aber: little bear saw keine Konstituente *The he the fine fat trout in the brook. D. Rösner NSS I 2011/ Beispiel einer CFG (cf. [BKL09], Ch. 8.3): import nltk grammar1 = nltk.parse_cfg(""" VP -> V NP V NP PP PP -> P NP V -> "saw" "ate" "walked" NP -> "John" "Mary" "Bob" Det N Det N PP Det -> "a" "an" "the" "my" N -> "man" "dog" "cat" "telescope" "park" P -> "in" "on" "by" "with" """) D. Rösner NSS I 2011/ Beispiel einer CFG (cf. [BKL09], Ch. 8.3): >>> sent = "Mary saw Bob".split() >>> sent [ Mary, saw, Bob ] >>> rd_parser = nltk.recursivedescentparser(grammar1) >>> rd_parser <nltk.parse.rd.recursivedescentparser object at 0x035FA130> Beispiel einer CFG (cf. [BKL09], Ch. 8.3): >>> trees = rd_parser.nbest_parse(sent) >>> trees [Tree( S, [Tree( NP, [ Mary ]), Tree( VP, [Tree( V, [ saw ]), Tree( NP, [ Bob ])])])] >>> len(trees) 1 >>> for tree in trees: print tree (S (NP Mary) (VP (V saw) (NP Bob))) D. Rösner NSS I 2011/ D. Rösner NSS I 2011/

4 Beispiel einer CFG (cf. [BKL09], Ch. 8.3): >>> sent2 = "The dog saw a man in the park".split() >>> sent2 [ The, dog, saw, a, man, in, the, park ] >>> trees2 = rd_parser.nbest_parse(sent2) Traceback (most recent call last):... ValueError: Grammar does not cover some of the input words: " The ". D. Rösner NSS I 2011/ Beispiel: strukturelle Ambiguität (cf. [BKL09], Ch. 8.3): >>> sent2 = "the dog saw a man in the park".split() >>> sent2 [ the, dog, saw, a, man, in, the, park ] >>> trees2 = rd_parser.nbest_parse(sent2) >>> for tree in trees2: print tree (S (NP (Det the) (N dog)) (VP (V saw) (NP (Det a) (N man) (PP (P in) (NP (Det the) (N park)))))) (S (NP (Det the) (N dog)) (VP (V saw) (NP (Det a) (N man)) (PP (P in) (NP (Det the) (N park))))) D. Rösner NSS I 2011/ Beispiel: Grammatik in Datei grammar2.cfg (cf. [BKL09], Ch. 8.3): NP -> Det Nom PropN Nom -> Adj Nom N VP -> V Adj V NP V S V NP PP PP -> P NP PropN -> Buster Chatterer Joe Det -> the a N -> bear squirrel tree fish log Adj -> angry frightened little tall V -> chased saw said thought was put P -> on Beispiel: Grammatik in Datei grammar2.cfg (cf. [BKL09], Ch. 8.3): >>> grammar2 = nltk.data.load( file:grammar2.cfg ) >>> grammar2 <Grammar with 31 productions> >>> for p in grammar2.productions(): print p NP -> Det Nom NP -> PropN Nom -> Adj Nom Nom -> N VP -> V Adj VP -> V NP VP -> V S VP -> V NP PP PP -> P NP PropN -> Buster PropN -> Chatterer PropN -> Joe... D. Rösner NSS I 2011/ D. Rösner NSS I 2011/

5 Beispiel: Grammatik in Datei grammar2.cfg (cf. [BKL09], Ch. 8.3):... Det -> the Det -> a N -> bear N -> squirrel N -> tree N -> fish N -> log Adj -> angry Adj -> frightened Adj -> little Adj -> tall V -> chased V -> saw V -> said V -> thought V -> was V -> put P -> on >>> Limitierungen für in NLTK (cf. [BKL09], Ch. 8.3): auf der rechten Seite von Produktionen können lexikalische Elemente (Strings) nicht mit Nonterminalen gemischt werden m.a.w. nicht zulässig sind Produktionen wie PP -> of NP auf der rechten Seite von Produktionen sind keine Mehrwort-Strings zulässig m.a.w. statt NP -> New York muss z.b. geschrieben werden NP -> New_York D. Rösner NSS I 2011/ D. Rösner NSS I 2011/ Rekursion in (cf. [BKL09], Ch. 8.3): >>> grammar2 = nltk.parse_cfg(""" NP -> Det Nom PropN Nom -> Adj Nom N VP -> V Adj V NP V S V NP PP PP -> P NP PropN -> Buster Chatterer Joe Det -> the a N -> bear squirrel tree fish log Adj -> angry frightened little tall V -> chased saw said thought was put P -> on """) Rekursion in (cf. [BKL09], Ch. 8.3): direkte Rekursion: Nom -> Adj Nom indirekte Rekursion: VP -> V S Problem: RecursiveDescentParser können keine linksrekursiven Produktionen verarbeiten von der Form X -> X Y1... Yn D. Rösner NSS I 2011/ D. Rösner NSS I 2011/

6 Interaktive Parser-Demos in NLTK (cf. [BKL09], Ch. 8.3, 8.4): nltk.app.rdparser() nltk.app.srparser() nltk.app.chartparser() Alternativer Ansatz: grammatik (cf. [BKL09], Ch. 8.5): Phrasenstrukturgrammatik: Wie lassen sich Wörter und Sequenzen von Wörtern kombinieren, um Konstituenten zu bilden? grammatik: In welchen Beziehungen stehen Wörter zueinander? : binäre, asymmetrische Relation zwischen einem Kopfelement (engl. head) und seinen abhängigen Elementen (engl. dependents) Beispiel: in Sätzen ist der Head meist das flektierte Verb D. Rösner NSS I 2011/ D. Rösner NSS I 2011/ grammatik (cf. [BKL09], Ch. 8.5): Repräsentation von -Beziehungen: gerichteter Graph, bei dem die Knoten die lexikalischen Elemente und die Kanten markiert mit den -Relationen zwischen Köpfen und ihren abhängigen Elementen Beispiel: cf. [BKL09], Ch. 8.5, Fig grammatik (cf. [BKL09], Ch. 8.5): ein graph heisst projektiv, wenn sich, wenn alle Wörter in linearer Ordnung geschrieben sind, die Kanten ohne Überschneidungen zeichnen lassen gleichwertig: ein Wort und alle seine (direkt oder indirekt) abhängigen Elemente lassen sich als Sequenz benachbarter Wörter im Satz schreiben D. Rösner NSS I 2011/ D. Rösner NSS I 2011/

7 grammatik (cf. [BKL09], Ch. 8.5): >>> groucho_dep_grammar = nltk.parse_dependency_grammar(""" shot -> I elephant in elephant -> an in in -> pajamas pajamas -> my """) grammatik (cf. [BKL09], Ch. 8.5): >>> print groucho_dep_grammar Dependency grammar with 7 productions shot -> I shot -> elephant shot -> in elephant -> an elephant -> in in -> pajamas pajamas -> my D. Rösner NSS I 2011/ D. Rösner NSS I 2011/ grammatik (cf. [BKL09], Ch. 8.5): >>> pdp = nltk.projectivedependencyparser(groucho_dep_grammar) >>> sent = I shot an elephant in my pajamas.split() >>> trees = pdp.parse(sent) >>> for tree in trees: print tree (shot I (elephant an (in (pajamas my)))) (shot I (elephant an) (in (pajamas my))) grammatik (cf. [BKL09], Ch. 8.5): Kriterien für die Bestimmung von Head (H) und Dependents (D) in Konstruktion C H bestimmt die Distributionsklasse von C H bestimmt den semantischen Typ von C H ist obligatorisch, D aber optional H wählt D aus und bestimmt, ob D obligatorisch oder optional die morphologische Form von D ist durch H bestimmt (z.b. Kongruenz oder Kasusbestimmung) D. Rösner NSS I 2011/ D. Rösner NSS I 2011/

8 (cf. [BKL09], Ch. 8.5): Verben unterscheiden sich danach, welche Komplemente sie verlangen (subkategorisieren) Beispiele: The squirrel was frightened. Chatterer saw the bear. Chatterer thought Buster was angry. Joe put the fish on the log. (cf. [BKL09], Ch. 8.5): unzulässige oder fehlende Komplemente führen zu ungrammatischen Sätzen Beispiele: *The squirrel was Buster was angry. *Chatterer saw frightened. *Chatterer thought the bear. *Joe put on the log. D. Rösner NSS I 2011/ D. Rösner NSS I 2011/ (cf. [BKL09], Ch. 8.5): in lassen sich restriktionen für Verben dadurch einbringen, dass bei Regeln, die VPs expandieren, unterschiedliche Subkategorien von Verben verwendet werden Beispiel: transitive Verben erfordern eine NP als direktes Objekt mögliche Regeln: VP -> TV NP TV -> chased saw : Subkategorien von Verb (cf. [BKL09], Ch. 8.5, Table 8.4): Symbol Bedeutung Beispiel IV intransitives Verb barked TV transitives Verb saw a man DatV ditransitives Verb gave a dog to a man SV Verb mit Satzkomplement said that a dog barked D. Rösner NSS I 2011/ D. Rösner NSS I 2011/

9 Literatur: I Modifikatoren oder Adjunkte (cf. [BKL09], Ch. 8.5): im Unterschied zu Komplementen sind Modifikatoren optional und können iteriert verwendet werden auch werden sie nicht wie die Komplemente durch den Kopf selektiert Beispiel: really kann bei allen folgenden Sätzen verwendet werden The squirrel really was frightened. Chatterer really saw the bear. Chatterer really thought Buster was angry. Joe really put the fish on the log. Steven Bird, Ewan Klein, and Edward Loper. Natural Language Processing with Python Analyzing Text with the Natural Language Toolkit. O Reilly Media, Daniel Jurafsky and James H. Martin. Speech and Language Processing: An introduction to natural language processing, computational linguistics, and speech recognition. Prentice Hall, 2nd (May 26, 2008) edition, D. Rösner NSS I 2011/ D. Rösner NSS I 2011/ Literatur: II Christopher D. Manning and Hinrich Schütze. Foundations of Statistical Natural Language Processing. MIT Press, fifth printing edition, D. Rösner NSS I 2011/

Gliederung. Natürlichsprachliche Systeme I. Merkmalsbasierte Grammatiken. Merkmalsbasierte Grammatiken. Merkmalsbasierte Grammatiken mit NLTK

Gliederung. Natürlichsprachliche Systeme I. Merkmalsbasierte Grammatiken. Merkmalsbasierte Grammatiken. Merkmalsbasierte Grammatiken mit NLTK Merkmalsbasierte Merkmalsbasierte Gliederung Natürlichsprachliche Systeme I Merkmalsbasierte mit NLTK D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität

Mehr

Natürlichsprachliche Systeme I Materialien zur Vorlesung

Natürlichsprachliche Systeme I Materialien zur Vorlesung Natürlichsprachliche Systeme I Materialien zur Vorlesung D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg WS 2010/11, 19. Oktober 2010,

Mehr

Syntax natürlicher Sprachen

Syntax natürlicher Sprachen Syntax natürlicher Sprachen 02: Grammatik und Bäume Martin Schmitt Ludwig-Maximilians-Universität München 25.10.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 25.10.2017 1 1 Syntax im NLTK 2 Grammatik

Mehr

Syntax natürlicher Sprachen

Syntax natürlicher Sprachen Syntax natürlicher Sprachen Vorlesung WS 2017/2018 Centrum für Informations- und Sprachverarbeitung LMU München Axel Wisiorek Organisatorisches 2 Vorlesung: Di, 10-12 Uhr, Raum 151 (Wisiorek) Email: wisiorek

Mehr

Informationsextraktion Materialien zur Vorlesung

Informationsextraktion Materialien zur Vorlesung Informationsextraktion Materialien zur Vorlesung Beispiel: reguläre Ausdrücke für Firmennamen D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität

Mehr

Kontextfreie Grammatiken

Kontextfreie Grammatiken Kontextfreie Grammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 16. Oktober 2015 Übersicht Worum geht es in dieser Vorlesung? Übungen und Abschlussprojekt Kontextfreie Grammatiken Computerlinguistische

Mehr

Einführung Computerlinguistik. Konstituentensyntax II

Einführung Computerlinguistik. Konstituentensyntax II Einführung Computerlinguistik Konstituentensyntax II Hinrich Schütze & Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 2013-11-18 1 / 31 Take-away Phrasenstrukturgrammatik:

Mehr

Gliederung. Informationsextraktion Materialien zur Vorlesung. Entwicklung eines regex für Firmennamen. Entwicklung eines regex für Firmennamen

Gliederung. Informationsextraktion Materialien zur Vorlesung. Entwicklung eines regex für Firmennamen. Entwicklung eines regex für Firmennamen Gliederung Informationsextraktion Materialien zur Vorlesung Beispiel: reguläre Ausdrücke für Firmennamen 1 D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke

Mehr

Einführung in das Natural Language Toolkit

Einführung in das Natural Language Toolkit Einführung in das Natural Language Toolkit Markus Ackermann Abteilung für Automatische Sprachverarbeitung (Universität Leipzig) 11. Mai 2011 Kurzeinführung nützliche

Mehr

Konstituentenstruktur

Konstituentenstruktur Konstituentenstruktur Die Grundeinheiten der Satzstruktur (basierend auf Lehrmaterial von Andrew Carnie) Bedeutung eines Satzes ist mehr als die Summe seiner Wörter The puppy hit the rock The rock hit

Mehr

Der Earley-Algorithmus

Der Earley-Algorithmus Der Earley-Algorithmus Kursfolien Karin Haenelt 25.03.02 1 25.03.02 2 Inhalt Funktion des Earley-Algorithmus Begriffe Erkenner/Parser Kontextfreie Grammatik Ein Beispiel Funktionen des Algorithmus Funktionsweise

Mehr

Der Earley-Algorithmus

Der Earley-Algorithmus Der Earley-Algorithmus Kursfolien Karin Haenelt 25.03.02 1 25.03.02 2 Inhalt Funktion des Earley-Algorithmus Begriffe Erkenner/Parser Kontextfreie Grammatik Ein Beispiel Funktionen des Algorithmus Funktionsweise

Mehr

Earley Parser. Flutura Mestani

Earley Parser. Flutura Mestani Earley Parser Flutura Mestani Informatik Seminar Algorithmen zu kontextfreien Grammatiken Wintersemester 2015/2016 Prof. Martin Hofmann, Dr. Hans Leiß Flutura Mestani 25.11.2015 Seminar Algorithmen zu

Mehr

Lösungsvorschlag für das Übungsblatt 8. Aufgabe1.

Lösungsvorschlag für das Übungsblatt 8. Aufgabe1. Lösungsvorschlag für das Übungsblatt 8. Aufgabe1. 3 Det A N VP R6 4 Any A N VP L3 5 Any intelligent N VP L4 6 Any intelligent cat VP L2 Nach den Regeln kann der Satz weiter nicht erzeugt warden, deswegen

Mehr

Gliederung. Algorithmen und Datenstrukturen II. Problem: Längste gemeinsame Teilsequenz. Problem: Längste gemeinsame Teilsequenz

Gliederung. Algorithmen und Datenstrukturen II. Problem: Längste gemeinsame Teilsequenz. Problem: Längste gemeinsame Teilsequenz Gliederung Algorithmen und Datenstrukturen II Algorithmen zur Textverarbeitung II D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Grundlagen Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 21 Diskrete Wahrscheinlichkeitsräume (1) Carstensen et al. (2010), Abschnitt

Mehr

Charts. Motivation. Grundfrage. Chart als Graph

Charts. Motivation. Grundfrage. Chart als Graph Charts Motivation Übersicht Chart bzw. Well-Formed Substring Table (WFST) Als azyklischer Graph, Tabelle und Relation Kantenbeschriftungen Kategorien: WFST Regeln: Passive Charts Regelhyposen: Aktive Charts

Mehr

Slot Grammar Eine Einführung

Slot Grammar Eine Einführung Slot Grammar Eine Einführung München, 4. Dez. 2002 Gerhard Rolletschek gerhard@cis.uni-muenchen.de 1 ! Entstehungskontext Übersicht! Elemente der Slot Grammar (Was ist ein Slot?)! Complement Slots vs.

Mehr

Baumadjunktionsgrammatiken

Baumadjunktionsgrammatiken Baumadjunktionsgrammatiken Vorlesung Grammatikformalismen Alexander Koller 22. April 2016 Grammatikformalismen Grammatik- formalismus Grammatik- theorie abstrakt Grammatik prache konkret formal linguistisch

Mehr

Lösungen zum Aufgabenblatt 3 Syntax natürlicher Sprachen

Lösungen zum Aufgabenblatt 3 Syntax natürlicher Sprachen Lösungen zum Aufgabenblatt 3 Syntax natürlicher Sprachen Universität München, CIS, WS 2013/14 H.Leiß, D.Kaumanns Abgabetermin: Mi, 6.11.2013 Aufgabe 3.1 Gegeben sei die kontextfreie Grammatik G mit den

Mehr

Grammatikanalyse. Prof. Dr. John Peterson. Sprechstunde: Montags, 14:30-15:30h Raum LS10/Raum 425. Sommersemester 2015 Donnerstags, 14:15h-15:45h

Grammatikanalyse. Prof. Dr. John Peterson. Sprechstunde: Montags, 14:30-15:30h Raum LS10/Raum 425. Sommersemester 2015 Donnerstags, 14:15h-15:45h Grammatikanalyse Sommersemester 2015 Donnerstags, 14:15h-15:45h Prof. Dr. John Peterson Sprechstunde: Montags, 14:30-15:30h Raum LS10/Raum 425 1 Termin Thema 16.4. Einführung Zerlegung des Satzes in seine

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung

Mehr

Automatisches Verstehen gesprochener Sprache

Automatisches Verstehen gesprochener Sprache Automatisches Verstehen gesprochener Sprache 6. Syntaxanalyse Martin Hacker Bernd Ludwig Günther Görz Professur für Künstliche Intelligenz Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Mehr

Konstituenten, Phrasenstruktur und Feldermodell

Konstituenten, Phrasenstruktur und Feldermodell Konstituenten, Phrasenstruktur und Feldermodell Falk Spellerberg Stellvertretend für Ivana Daskalovska Was ist Konstituentengrammatik? Was ist Konstituentengrammatik? Ein Satz ist aus Konstituenten gebaut,

Mehr

Natürlichsprachliche Systeme I

Natürlichsprachliche Systeme I Natürlichsprachliche Systeme I in NLTK D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg WS 2012/13, 27. November 2012, c 2010-2013

Mehr

Inkrementelle Syntax

Inkrementelle Syntax Inkrementelle Syntax CFG und inkrementelles Parsing Timm Lichte HHU Düsseldorf, Germany 30.10.2013 SFB 991 1 / 24 Aus der letzten Sitzung inkrementelle Syntax Mechanismen bzw. Komponenten eines Grammatikformalismus,

Mehr

4 Syntaktische Relationen: Konstituenz

4 Syntaktische Relationen: Konstituenz Übersicht 4 Syntaktische Relationen: Konstituenz 4.1 Konstituentenstruktur 4.1.1 Eigenschaften der Konstituentenstruktur 4.1.2 Konstituentenstruktur des Deutschen 4.2 Modellierung mit kontextfreier Grammatik

Mehr

Probabilistisches Parsing Teil II

Probabilistisches Parsing Teil II Ruprecht-Karls-Universität Heidelberg Computerlinguistisches Seminar SS 2002 HS: Parsing Dozentin: Dr. Karin Haenelt Referentin: Anna Björk Nikulásdóttir 10.06.02 1. Parsingmodelle Probabilistisches Parsing

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Einführung Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2018 1 / 14 Anwendungen der Computerlinguistik Carstensen et al. (2010); Jurafsky and Martin

Mehr

Einführung in unifikationsbasierte Grammatikformalismen

Einführung in unifikationsbasierte Grammatikformalismen Universität Potsdam Institut für Linguistik Computerlinguistik Einführung in unifikationsbasierte Grammatikformalismen Thomas Hanneforth head: VP form: finite subj: pers: 3 num: pl Merkmalsstrukturen:

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Merkmalstrukturen und Unifikation Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Formale Komplexität natürlicher Sprachen WS 03/04 Universität Potsdam Institut

Mehr

a) Erklären Sie, was eine SOV Sprache ist und was eine V2 Sprache ist. b) Welche Wortstellungsmuster sind eher selten in Sprachen der Welt?

a) Erklären Sie, was eine SOV Sprache ist und was eine V2 Sprache ist. b) Welche Wortstellungsmuster sind eher selten in Sprachen der Welt? Syntax 1) Wortstellung a) Erklären Sie, was eine SOV Sprache ist und was eine V2 Sprache ist. Unter SOV Sprachen verstehen wir all jene Sprachen, die als Grundwortstellung die Reihenfolge Subjekt (S) Objekt

Mehr

Einführung in die Programmiertechnik

Einführung in die Programmiertechnik Einführung in die Programmiertechnik Formale Beschreibung von Programmiersprachen Lexikalische Regeln Definition von Wörtern (Lexem, Token) Gruppierung von Zeichen Lexikalische Kategorien: Klassen ähnlicher

Mehr

Vorlesung 7: LFG I. Einführung, c- und f-strukturen

Vorlesung 7: LFG I. Einführung, c- und f-strukturen Vorlesung 7: LFG I. Einführung, c- und f-strukturen Dozent: Gerold Schneider Übersicht Die Behandlung überkreuzender Abhängigkeiten Transformationen Diskontinuierliche Grammatiken Argumentskomposition

Mehr

Einführung Computerlinguistik. Konstituentensyntax II

Einführung Computerlinguistik. Konstituentensyntax II Einführung Computerlinguistik Konstituentensyntax II Hinrich Schütze & Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 2013-11-18 Schütze & Zangenfeind: Konstituentensyntax

Mehr

Einführung in die Computerlinguistik. Syntax II

Einführung in die Computerlinguistik. Syntax II Einführung in die Computerlinguistik yntax II Hinrich chütze & Robert Zangenfeind Centrum für Informations- und prachverarbeitung, LMU München 18.12.2015 chütze & Zangenfeind: yntax II 1 / 17 Take-away

Mehr

Einführung in die Computerlinguistik Statistische Grundlagen

Einführung in die Computerlinguistik Statistische Grundlagen Diskrete Wahrscheinlichkeitsräume (1) Einführung in die Computerlinguistik Statistische Grundlagen Laura Heinrich-Heine-Universität Düsseldorf Wintersemester 2011/2012 In vielen Bereichen der CL kommt

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Paul Prasse Michael Großhans Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. 6 Leistungspunkte

Mehr

Programmierkurs Python II

Programmierkurs Python II Programmierkurs Python II Michaela Regneri & Stefan Thater FR 4.7 Allgemeine Linguistik (Computerlinguistik) Universität des Saarlandes Sommersemester 2011 Prüfungsleistungen Klausur am Semesterende -

Mehr

Reguläre Ausdrücke. Karin Haenelt

Reguläre Ausdrücke. Karin Haenelt Reguläre Ausdrücke Karin Haenelt 25.04.2010 1 Inhalt Einführung Definitionen Kleene-Theorem Schreibweisen regulärer Ausdrücke Eigenschaften regulärer Sprachen 2 Was sind reguläre Ausdrücke? Reguläre Ausdrücke

Mehr

Syntax natürlicher Sprachen

Syntax natürlicher Sprachen Syntax natürlicher Sprachen 06: Merkmalstrukturen Martin Schmitt Ludwig-Maximilians-Universität München 29.11.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 29.11.2017 1 Themen der heutigen Übung

Mehr

NLP Eigenschaften von Text

NLP Eigenschaften von Text NLP Eigenschaften von Text Dr. Andreas Hotho Dominik Benz Beate Krause Sommersemester 2008 Folie: 1 Übersicht Einführung Eigenschaften von Text Words I: Satzgrenzenerkennung, Tokenization, Kollokationen

Mehr

Computerlexikographie-Tutorium

Computerlexikographie-Tutorium Computerlexikographie-Tutorium 18.04.2008 Thema für heute: lexikalische Regeln nach Daniel Flickinger Computerlexikographie PS, Ruprecht-Karls-Universität Heidelberg, SS08 Dozentin: Claudia Kunze ~*~ Tutorin:

Mehr

Einführung in die Linguistik, Teil 4

Einführung in die Linguistik, Teil 4 Einführung in die Linguistik, Teil 4 Syntax - Die Auflösung syntaktischer Ambiguitäten beim menschlichen Sprachverstehen Markus Bader, Frans Plank, Henning Reetz, Björn Wiemer Einführung in die Linguistik,

Mehr

Übungszettel XI *gelöst*

Übungszettel XI *gelöst* Übungszettel XI *gelöst* 1. Aufgabe Sei folgende Grammatik G = < A, N, S, R > gegeben, wobei: A = { der, die, das, Auto, Banane, fährt, schnell, schmeckt, gut } N = {, , , , , } S

Mehr

Featuregrammatiken. Vorlesung Computerlinguistische Techniken Alexander Koller. 21. November 2014

Featuregrammatiken. Vorlesung Computerlinguistische Techniken Alexander Koller. 21. November 2014 Featuregrammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 21. November 2014 Musterlösung Ü2 A4 Erste 100 Wörter des Brown-Korpus aueben: import nltk words = nltk.corpus.brown.words()

Mehr

Grammatik Prüfung möglich, ob eine Zeichenfolge zur Sprache gehört oder nicht

Grammatik Prüfung möglich, ob eine Zeichenfolge zur Sprache gehört oder nicht Zusammenhang: Formale Sprache Grammatik Formale Sprache kann durch Grammatik beschrieben werden. Zur Sprache L = L(G) gehören nur diejenigen Kombinationen der Zeichen des Eingabealphabets, die durch die

Mehr

Teil II: Phrasen und Phrasenstruktur

Teil II: Phrasen und Phrasenstruktur Teil II: Phrasen und Phrasenstruktur Übersicht: Grammatische Funktionen Kategorien Konstituenten & Strukturbäume Konstituententest Endozentrizität 1 Einfacher Satzbau Drei allgemeine Grundfragen der Syntax:

Mehr

Lehrstuhl für Computerlinguistik

Lehrstuhl für Computerlinguistik Ruprecht-Karls -Universität Heidelberg Lehrstuhl für Computerlinguistik Hauptseminar: Parsing Leitung: PD Dr. Karin Haenelt Referent: A. S. M. Abdullah Eusufzai Referat zum Thema: Probabilistisches Parsing

Mehr

2. Überlegen Sie, ob folgende Sprache vom gleichen Typ sind (m, n 1): Ordnen Sie die Sprachen jeweils auf der Chomsky-Hierarchie ein.

2. Überlegen Sie, ob folgende Sprache vom gleichen Typ sind (m, n 1): Ordnen Sie die Sprachen jeweils auf der Chomsky-Hierarchie ein. Musterlösung Übung 1 Formale Grammatiken 1. Schreiben Sie eine Grammatik für die Sprache a m b c n d m (m, n 1). Ordnen Sie die Sprache auf der Chomsky-Hierarchie ein und begründen Sie, warum (a) eine

Mehr

Formale Methoden 1. Gerhard Jäger 12. Dezember Uni Bielefeld, WS 2007/2008 1/22

Formale Methoden 1. Gerhard Jäger 12. Dezember Uni Bielefeld, WS 2007/2008 1/22 1/22 Formale Methoden 1 Gerhard Jäger Gerhard.Jaeger@uni-bielefeld.de Uni Bielefeld, WS 2007/2008 12. Dezember 2007 2/22 Bäume Baumdiagramme Ein Baumdiagramm eines Satzes stellt drei Arten von Information

Mehr

Automatentheorie und formale Sprachen reguläre Ausdrücke

Automatentheorie und formale Sprachen reguläre Ausdrücke Automatentheorie und formale Sprachen reguläre Ausdrücke Dozentin: Wiebke Petersen 6.5.2009 Wiebke Petersen Automatentheorie und formale Sprachen - SoSe09 1 Formal language Denition A formal language L

Mehr

1 Formale Sprachen, reguläre und kontextfreie Grammatiken

1 Formale Sprachen, reguläre und kontextfreie Grammatiken Praktische Informatik 1, WS 2001/02, reguläre Ausdrücke und kontextfreie Grammatiken 1 1 Formale Sprachen, reguläre und kontextfreie Grammatiken Ein Alphabet A ist eine endliche Menge von Zeichen. Die

Mehr

Künstliche Intelligenz Sprachverarbeitung mit Prolog

Künstliche Intelligenz Sprachverarbeitung mit Prolog Künstliche Intelligenz Sprachverarbeitung mit Prolog Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Parsing mit Prolog Grammatik Wortartenklassifikation,

Mehr

Funktionale-Grammatik

Funktionale-Grammatik Lexikalisch-Funktionale Funktionale-Grammatik Formaler Aufbau der F-Strukturen Funktionale Beschreibungen Funktionale Annotationen Von der K-Struktur zur F-Struktur Architektur der LFG Grammatik Erweiterte

Mehr

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank Wortdekodierung Vorlesungsunterlagen Speech Communication 2, SS 2004 Franz Pernkopf/Erhard Rank Institute of Signal Processing and Speech Communication University of Technology Graz Inffeldgasse 16c, 8010

Mehr

Kapitel 5: Syntaxdiagramme und Grammatikregeln

Kapitel 5: Syntaxdiagramme und Grammatikregeln 5. Syntaxdiagramme und Grammatikregeln 5-1 Objektorientierte Programmierung (Winter 2010/2011) Kapitel 5: Syntaxdiagramme und Grammatikregeln Syntaxdiagramme Grammatikregeln (kontextfrei) Beispiele: Lexikalische

Mehr

Earley Parsing. Parsing - WS 2012 / 2013 Lisa Orszullok & Anika Stallmann

Earley Parsing. Parsing - WS 2012 / 2013 Lisa Orszullok & Anika Stallmann Earley Parsing Parsing - WS 2012 / 2013 Lisa Orszullok & Anika Stallmann 12.12.2012 Agenda Basics Komponenten Earley Parsing - Recognizer Earley Parsing - Parser Vor- und Nachteile Parsing WS 2012/2013

Mehr

Transition Network Parser

Transition Network Parser Transition Grammatik als endlicher Automat oder Übergangsnetzwerk. Jedes Netzwerk repräsentiert ein Nichtterminal. Kanten repräsentieren Terminale oder Nichtterminale. Pfad durch das Netzwerk korrespondiert

Mehr

Syntax III. Joost Kremers WS

Syntax III. Joost Kremers WS Syntax III WS 2009 27.11.2009 Kapitel 6: Phrasenstruktur X -Theorie X -Theorie wurde entwickelt, um eine Redundanz in der Phrasenstrukturgrammatik zu beheben. Das ursprüngliche X -Schema sah wie folgt

Mehr

Der Viterbi Algorithmus

Der Viterbi Algorithmus M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes

Mehr

Maschinelle Sprachverarbeitung: KollokaKonen (Teil 2: Modelle von Wortsequenzen)

Maschinelle Sprachverarbeitung: KollokaKonen (Teil 2: Modelle von Wortsequenzen) basierend auf H Schmid snlp 4 KollokaKonen Maschinelle Sprachverarbeitung: KollokaKonen (Teil 2: Modelle von Wortsequenzen) Basierend auf Kap 3 McEnery & Wilson (2001) & H Schmid snlp Vorlesungsskript

Mehr

Automatentheorie und formale Sprachen

Automatentheorie und formale Sprachen Automatentheorie und formale Sprachen Wiebke Petersen Wiebke Petersen Automatentheorie und formale Sprachen - WiSe12/13 1 Seminarplan Lektüre: Theoretische Grundlagen der Informatik, Rolf Socher, 2008

Mehr

Chart-Parsing. bersicht. Ziel. Motivation: Bisher vorgestellte Verfahren sind nicht effizient Grundidee des Chart-Parsing Datenstruktur

Chart-Parsing. bersicht. Ziel. Motivation: Bisher vorgestellte Verfahren sind nicht effizient Grundidee des Chart-Parsing Datenstruktur Chart-Parsing bersicht Ziel Motivation: Bisher vorgestellte Verfahren sind nicht effizient Grundidee des Chart-Parsing Datenstruktur Knoten passive und aktive Kanten gepunktete Regeln (dotted rules) Fundamentalregel

Mehr

Compiler. Kapitel. Syntaktische Analyse. Kapitel 4. Folie: 1. Syntaktische Analyse. Autor: Aho et al.

Compiler. Kapitel. Syntaktische Analyse. Kapitel 4. Folie: 1. Syntaktische Analyse. Autor: Aho et al. Folie: 1 Kapitel 4 Übersicht Übersicht Syntax: Definition 4 syn-tax: the way in which words are put together to form phrases, clauses, or sentences. Webster's Dictionary Die Syntax (griechisch σύνταξις

Mehr

Automaten und formale Sprachen. Lösungen zu den Übungsblättern

Automaten und formale Sprachen. Lösungen zu den Übungsblättern Automaten und formale Sprachen zu den Übungsblättern Übungsblatt Aufgabe. (Sipser, exercise.3) M = ({q, q2, q3, q4, q5}, {u, d}, δ, q3, {q3}) δ: u d q q q 2 q 2 q q 3 q 3 q 2 q 4 q 4 q 3 q 5 q 5 q 4 q

Mehr

Übungsaufgaben. Eine kontextfreie Grammatik lässt sich formal als Quadrupel darstellen: D : der, das N : Hund, Kaninchen V : sieht, beißt

Übungsaufgaben. Eine kontextfreie Grammatik lässt sich formal als Quadrupel darstellen: D : der, das N : Hund, Kaninchen V : sieht, beißt Universität Bielefeld 25. Juni 2006 Fakultät für Linguistik und Literaturwissenschaft Formale Methoden der Linguistik III Veranstalter: Dieter Metzing Sommersemester 2006 Übungsaufgaben 1. (a) Welche Bestandteile

Mehr

Grundlagen der Theoretischen Informatik

Grundlagen der Theoretischen Informatik Grundlagen der Theoretischen Informatik 4. Kellerautomaten und kontextfreie Sprachen (I) 3.06.2015 Viorica Sofronie-Stokkermans e-mail: sofronie@uni-koblenz.de 1 Organisatorisches 1. Teilklausur: Mittwoch,

Mehr

Spezielle Themen der KI. NLP Natural Language Processing Parsing

Spezielle Themen der KI. NLP Natural Language Processing Parsing Spezielle Themen der KI NLP Natural Language Processing Parsing Parsing Strategien top-down: Ausgehend von S Hypothesenbildung und Verifikation anhand der Grammatikregeln Ersetzung nicht-terminaler Symbole

Mehr

Formale Grammatiken und Syntaxanalyse

Formale Grammatiken und Syntaxanalyse Formale Grammatiken und Syntaxanalyse Vorlesung II: Satzstrukturen und Grammatische Funktionen Die Unterlagen zu dieser Veranstaltung online: http://www.ifi.unizh.ch/cl/gschneid/syntaxvorlesung/ - 1 -

Mehr

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten Dozentin: Wiebke Petersen May 3, 2010 Wiebke Petersen Einführung CL (SoSe2010) 1 Operationen auf Sprachen Seien L Σ und K Σ

Mehr

Logik und modelltheoretische Semantik. Montague-Grammatik

Logik und modelltheoretische Semantik. Montague-Grammatik Logik und modelltheoretische Montague-Grammatik Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 23.5.2017 Zangenfeind: Montague-Grammatik 1 / 23 Vorgeschichte Ursprung

Mehr

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten Dozentin: Wiebke Petersen May 3, 2010 Wiebke Petersen Einführung CL (SoSe2010) 1 Operationen auf Sprachen Seien L Σ und K Σ

Mehr

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten Dozentin: Wiebke Petersen 03.11.2009 Wiebke Petersen Einführung CL (WiSe 09/10) 1 Formal language Denition Eine formale Sprache

Mehr

Produktion von Relativsätzen III Elizitierte Produktion

Produktion von Relativsätzen III Elizitierte Produktion Produktion von Relativsätzen III Elizitierte Produktion Referat von Isa-Marie Trussina Seminar: Relativsätze im Spracherwerb Dozentin: Prof. Dr. Petra Schulz Wintersemester 2011/2012 Gliederung 1. Allgemeines

Mehr

Syntax III. Joost Kremers WS

Syntax III. Joost Kremers WS Syntax III WS 2009 29.10.2009 Kapitel 3: Das Thetasystem Eins der Großen Fakten über Sprache ist die Tatsache, dass Sätze aus hierarchisch geordneten Phrasen bestehen. In G&B wurde dieses Faktum durch

Mehr

QUALIA STRUKTUR NACH PUSTEJOVSKY

QUALIA STRUKTUR NACH PUSTEJOVSKY QUALIA STRUKTUR NACH PUSTEJOVSKY Angewandte Linguistische Datenverarbeitung Sprachliche Informationsverarbeitung Universität zu Köln Dozent: Prof. Dr. Jürgen Rolshoven Referentin: Corinna Asselborn 20.01.2014

Mehr

Syntax natürlicher Sprachen

Syntax natürlicher Sprachen Syntax natürlicher Sprachen 05: Dependenz und Valenz Martin Schmitt Ludwig-Maximilians-Universität München 22.11.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 22.11.2017 1 Themen der heutigen Übung

Mehr

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten Dozentin: Wiebke Petersen Foliensatz 3 Wiebke Petersen Einführung CL 1 Describing formal languages by enumerating all words

Mehr

Zahl ist hyphenation value an dieser Position (nur bei Zeilenumbruch verwendet)

Zahl ist hyphenation value an dieser Position (nur bei Zeilenumbruch verwendet) Werkzeuge & Bibliotheken Lucene und Natural Language Toolkit Martin Finke, OS Computerlinguistik, SS 2014 Gliederung Lucene Überblick Tokenisierung Filterung Zusammengesetzte Wörter Stemming Natural Language

Mehr

Einführung in die Linguistik. Syntax: Lösung

Einführung in die Linguistik. Syntax: Lösung Einführung in die Linguistik WS05 Syntax: Lösung Aufgabe 1 Erklären Sie, was eine SOV Sprache von einer VSO Sprache unterscheidet. In einer SOV Sprache ist die Grundwortstellung Subjekt-Objekt-Verb, in

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Syntax II WS 2011/2012 Manfred Pinkal Geschachtelte Strukturen in natürlicher Sprache [ der an computerlinguistischen Fragestellungen interessierte Student im ersten

Mehr

Von Subjekten, Sätzen und Subjektsätzen

Von Subjekten, Sätzen und Subjektsätzen Wilhelm Oppenrieder Von Subjekten, Sätzen und Subjektsätzen Untersuchungen zur Syntax des Deutschen Max Niemeyer Verlag Tübingen 1991 V 0. EINLEITUNG 1 1. SUBJEKTE 3 1.1 Generelle Oberlegungen zu grammatischen

Mehr

Algorithmen und Datenstrukturen II

Algorithmen und Datenstrukturen II Algorithmen und Datenstrukturen II D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg Sommer 2009, 9. April 2009, c 2009 D.Rösner D.

Mehr

Einführung in die Computerlinguistik Vorbesprechung

Einführung in die Computerlinguistik Vorbesprechung Einführung in die Computerlinguistik Vorbesprechung Dozentin: Wiebke Petersen Wiebke Petersen Einführung CL (Vorbesprechung) 1 Willkommen in Ihrer vermutlich ersten CL-Veranstaltung Titel: Einführung in

Mehr

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln

Mehr

Syntax und Phonologie: Prosodische Phrasen

Syntax und Phonologie: Prosodische Phrasen Morphologie und Syntax (BA) Syntax und Phonologie: Prosodische Phrasen PD Dr. Ralf Vogel Fakultät für Linguistik und Literaturwissenschaft Universität Bielefeld, SoSe 2007 Ralf.Vogel@Uni-Bielefeld.de 28.6.2007

Mehr

Vertiefung der Grundlagen der Computerlinguistik. Semesterüberblick und Einführung zur Dependenz. Robert Zangenfeind

Vertiefung der Grundlagen der Computerlinguistik. Semesterüberblick und Einführung zur Dependenz. Robert Zangenfeind Vertiefung der Grundlagen der Computerlinguistik Semesterüberblick und Einführung zur Dependenz Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 17.10.2017 Zangenfeind:

Mehr

Klausur zur Vorlesung Grundbegriffe der Informatik 14. September 2015

Klausur zur Vorlesung Grundbegriffe der Informatik 14. September 2015 Klausur zur Vorlesung Grundbegriffe der Informatik 14. September 2015 Klausurnummer Nachname: Vorname: Matr.-Nr.: Diese Klausur ist mein 1. Versuch 2. Versuch in GBI Email-Adr.: nur falls 2. Versuch Aufgabe

Mehr

Einführung in PERL 2 Reguläre Ausdrücke

Einführung in PERL 2 Reguläre Ausdrücke Einführung in PERL 2 Reguläre Ausdrücke BASIEREND AUF FOLIEN VON DR. H. ZINSMEISTER und dem Buch `Einführung in Perl (Lama Buch) von RL Schwartz&T Phoenix sowie hwp://de.sel[tml.org/perl/sprache/regexpr.htm

Mehr

Kontrastive Linguistik und Übersetzung

Kontrastive Linguistik und Übersetzung Kontrastive Linguistik und Übersetzung WS 2014/15 29.04.2015 EINFÜHRUNG IN DIE SYNTAX Syntax Die syntaktische Analyse (von gr. syntaxis Zusammenstellung ) befasst sich mit den Regeln und Verfahren, mit

Mehr

Kontextfreie Sprachen

Kontextfreie Sprachen Kontextfreie Sprachen Bei regulären (=Typ 3-) Grammatikregeln stehen maximal ein Terminal- und ein Nichtterminalsymbol auf der rechten Seite. Dadurch läßt sich lediglich die Abfolge der Terminalzeichen

Mehr

Inhalt. Einführung Formale Sprachen und Grammatiken Übergangsnetze Merkmalsstrukturen Unifikationsgrammatiken

Inhalt. Einführung Formale Sprachen und Grammatiken Übergangsnetze Merkmalsstrukturen Unifikationsgrammatiken 4 Syntax Inhalt Einführung Formale Sprachen und Grammatiken Übergangsnetze Merkmalsstrukturen Unifikationsgrammatiken 4.1 Einführung Einführung Oberflächenstruktur (OF) äußere Erscheinungsform eines Satzes

Mehr

Zweitspracherwerb und Sprachverarbeitung bei Erwachsenen. Kathleen Neubauer

Zweitspracherwerb und Sprachverarbeitung bei Erwachsenen. Kathleen Neubauer Zweitspracherwerb und Sprachverarbeitung bei Erwachsenen Kathleen Neubauer 13. Sitzung am 27.01.2010 Sentence Processing III Processing of syntactic dependencies in a L2 Überblick L2-Verarbeitung syntaktischer

Mehr

Der Viterbi-Algorithmus im Part-of-Speech Tagging

Der Viterbi-Algorithmus im Part-of-Speech Tagging Der Viterbi-Algorithmus im Part-of-Speech Tagging Kursfolien Karin Haenelt 1 Themen Zweck des Viterbi-Algorithmus Hidden Markov Model Formale Spezifikation Beispiel Arc Emission Model State Emission Model

Mehr

1. Stellen Sie die Konstituentenstruktur der folgenden Sätze als Baumdiagramme dar:

1. Stellen Sie die Konstituentenstruktur der folgenden Sätze als Baumdiagramme dar: 1. Stellen Sie die Konstituentenstruktur der folgenden Sätze als Baumdiagramme dar: 1. Die Überschwemmungen hinterließen ernorme Schäden. 2. Der amtierende Bundeskanzler verzichtet auf eine erneute Kandidatur.

Mehr

Konstituenten sind hierarchisch organisiert. Phrasenstruktur. Phrasenstruktur-Regeln. Phrasenstruktur-Regeln. Phrasenstruktur-Regeln

Konstituenten sind hierarchisch organisiert. Phrasenstruktur. Phrasenstruktur-Regeln. Phrasenstruktur-Regeln. Phrasenstruktur-Regeln Phrasenstruktur Konstituenten sind hierarchisch organisiert The man eats at fancy restaurants. Die formale Darstellung der Konstituenten 1 V PP man eats P at dj N fancy restaurants 2 [ [ [ D ] [ N man]]

Mehr

MODIFIKATIONEN DES TOMITA-PARSERS FÜR ID/LP UND FEATURE GRAMMARS Jens Woch

MODIFIKATIONEN DES TOMITA-PARSERS FÜR ID/LP UND FEATURE GRAMMARS Jens Woch Fachbeiträge MODIFIKATIONEN DES TOMITA-PARSERS FÜR ID/LP UND FEATURE GRAMMARS Jens Woch Abstract: Die Verwendung von ID/LP-Grammatiken und komplexen Symbolen ist bei Flektionsreichen und in der Wortstellung

Mehr

Practical Grammar Engineering Using HPSG 2.Tag. Frederik Fouvry, Petter Haugereid, Valia Kordoni, Melanie Siegel

Practical Grammar Engineering Using HPSG 2.Tag. Frederik Fouvry, Petter Haugereid, Valia Kordoni, Melanie Siegel Practical Grammar Engineering Using HPSG 2.Tag Frederik Fouvry, Petter Haugereid, Valia Kordoni, Melanie Siegel Inhalt Matrix Differenzlisten Debugging (Demo, Frederik) Die LinGO Grammar Matrix Ein Nachteil

Mehr