Baumadjunktionsgrammatiken

Ähnliche Dokumente
Schwach kontextsensitive Grammatikformalismen

Programmierkurs Python II

Ein Satz der deutschen Sprache besitzt ein Subjekt, ein Prädikat und ein Objekt (SPO).

7. Formale Sprachen und Grammatiken

Theoretische Informatik 2 (WS 2006/07) Automatentheorie und Formale Sprachen 19

Schwach kontextsensitive Grammatik-Formalismen. Petra Schmidt

Theoretische Informatik I

1. Stellen Sie die Konstituentenstruktur der folgenden Sätze als Baumdiagramme dar:

Parsing mit NLTK. Parsing mit NLTK. Parsing mit NLTK. Parsing mit NLTK. Beispiel: eine kleine kontextfreie Grammatik (cf. [BKL09], Ch. 8.

Kontextsensitive Sprachen

Compiler. Kapitel. Syntaktische Analyse. Kapitel 4. Folie: 1. Syntaktische Analyse. Autor: Aho et al.

Einführung in die Computerlinguistik

Pumping-Lemma. Beispiel. Betrachte die kontextsensitive Grammatik G mit den Produktionen. S asbc abc CB HB HB HC HC BC ab ab bb bb bc bc cc cc.

Parsing-EinfŸhrung Ð 1

Berechenbarkeit und Komplexität

Einführung Computerlinguistik. Konstituentensyntax II

Sprachen/Grammatiken eine Wiederholung

Mathematische Grundlagen der Informatik 2

2.11 Kontextfreie Grammatiken und Parsebäume

11.1 Kontextsensitive und allgemeine Grammatiken

Grundbegriffe der Informatik

Kapitel 2: Formale Sprachen Gliederung. 0. Grundbegriffe 1. Endliche Automaten 2. Formale Sprachen 3. Berechnungstheorie 4. Komplexitätstheorie

Formale Sprachen. Formale Grundlagen (WIN) 2008S, F. Binder. Vorlesung im 2008S

Theoretische Informatik Testvorbereitung Moritz Resl

Grammatiken und ANTLR

8. Turingmaschinen und kontextsensitive Sprachen

Spezielle Themen der KI. NLP Natural Language Processing. Sprachverstehen

Künstliche Intelligenz Sprachverarbeitung mit Prolog

1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen. I.2. I.2. Grundlagen von von Programmiersprachen.

Informatik IV Theoretische Informatik: Formale Sprachen und Automaten, Berechenbarkeit und NP-Vollständigkeit

Programmiersprachen und Übersetzer

Einführung in die Computerlinguistik

Aufgabentypen die in der Klausur vorkommen

Rekursiv aufzählbare Sprachen

Vorlesung Theoretische Informatik

FORMALE SYSTEME. Sprachen beschreiben. Wiederholung. Wie kann man Sprachen beschreiben? 2. Vorlesung: Grammatiken und die Chomsky-Hierarchie

Theoretische Informatik für Wirtschaftsinformatik und Lehramt

Theoretische Informatik 2 (WS 2006/07) Automatentheorie und Formale Sprachen / Kontextfreie Sprachen und Kellerautomaten

1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie

Theoretische Informatik 2

Zusammenfassung. 1 Wir betrachten die folgende Signatur F = {+,,, 0, 1} sodass. 3 Wir betrachten die Gleichungen E. 4 Dann gilt E 1 + x 1

liefern eine nicht maschinenbasierte Charakterisierung der regulären

Syntax - Das Berechnen syntaktischer Strukturen beim menschlichen Sprachverstehen (Fortsetzung)

Zusammenfassung Grundzüge der Informatik 4

Was bisher geschah Wissensrepräsentation und -verarbeitung in Zustandsübergangssystemen Constraint-Systemen Logiken Repräsentation von Mengen

Compiler, Übersetzer. Allgemeine Erklärung / Definition

Kapitel 2: Formale Sprachen Kontextfreie Sprachen. reguläre Grammatiken/Sprachen. kontextfreie Grammatiken/Sprachen

Formale Sprachen. Spezialgebiet für Komplexe Systeme. Yimin Ge. 5ahdvn. 1 Grundlagen 1. 2 Formale Grammatiken 4. 3 Endliche Automaten 5.

Theoretische Grundlagen der Informatik

EVIDENCE AND IMPLICATIONS OF A DOMAIN-SPECIFIC GRAMMATICAL DEFICIT. Heather H.J. van der Lely

Einführung in die Computerlinguistik

Übung zur Vorlesung Algorithmische Geometrie

Formale Methoden 1. Gerhard Jäger 16. Januar Uni Bielefeld, WS 2007/2008 1/19

(10) x 1[FRAU(x 1) RENNT(x 1)] Keine Frau rennt.

Notation um Grammatik G hervorzuheben: Eine kontextfreie Grammatik erzeugt eine kontextfreie Sprache. Informatik I -1- WS 2005/2006

Teil II: Phrasen und Phrasenstruktur

Was ist ein Compiler?

DGA 33 Themen der Deutschen Syntax Universität Athen, WiSe Winfried Lechner Skriptum, Teil 3 K-KOMMANDO

Syntax Verb-Zweit. Modul Syntax und Semantik. Universität Leipzig heck. Institut für Linguistik

1. Definiter und indefiniter Artikel

Lehrstuhl für Computerlinguistik

Formale Sprachen und Grammatiken

2.4 Kontextsensitive und Typ 0-Sprachen

Objektorientierte Programmierung. Kapitel 3: Syntaxdiagramme und Grammatikregeln

Formale Sprachen, reguläre und kontextfreie Grammatiken

4. Grammatiken Grundlegende Definitionen. Wie lassen sich formale Sprachen beschreiben?

1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln,

Teil V. Weiterführende Themen, Teil 1: Kontextsensitive Sprachen und die Chomsky-Hierarchie

abgeschlossen unter,,,, R,

Formale Sprachen und deren Grammatiken. Zusammenhang mit der Automatentheorie.

14. Rot-Schwarz-Bäume

Earley Parsing. Parsing - WS 2012 / 2013 Lisa Orszullok & Anika Stallmann

6 Kontextfreie Grammatiken

Grammatiken. Einführung

Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen

Mathematische Grundlagen der Computerlinguistik Bäume

Einführung in die Linguistik, Teil 4

Wieviel Computerlinguistik braucht der Word-Anwender?

Turing-Maschinen. Definition 1. Eine deterministische Turing-Maschine (kurz DTM) ist ein 6- Dem endlichen Alphabet Σ von Eingabesymbolen.

WS 2009/10. Diskrete Strukturen

Automaten und Formale Sprachen alias Theoretische Informatik. Sommersemester 2013

Practical Grammar Engineering Using HPSG. Frederik Fouvry, Petter Haugereid, Valia Kordoni, Melanie Siegel

2. Schriftliche Leistungskontrolle (EK)

Formale Methoden III - Tutorium

Logik für Informatiker

LOKALE UND DIREKTIONALE PPS

Einführung in die Theoretische Informatik

Komplexitätsklassen. (Lauf-)Zeit-Klassen. (Lauf-)Zeit-Klassen. Charakteristische Problemgrößen beim Parsing

Sprachen und Automaten. Tino Hempel

Graphen: Einführung. Vorlesung Mathematische Strukturen. Sommersemester 2011

Klausurvorbereitende Übungen 1: Kommentierte Lösungen

Tutorium zur theoretischen Informatik Übungsblatt 4 ( )

Reguläre Ausdrücke. Karin Haenelt

Induktive Definitionen

Wortproblem für kontextfreie Grammatiken

Vorlesung I: Einführung in die Syntaxtheorie

Linguistik für Kognitionswissenschaften

Generative Syntax. PD Dr. Ralf Vogel. Fakultät für Linguistik und Literaturwissenschaft Universität Bielefeld, SoSe 2007

Attempto Englisch als (formale) Spezifikationssprache

Transkript:

Baumadjunktionsgrammatiken Vorlesung Grammatikformalismen Alexander Koller 22. April 2016

Grammatikformalismen Grammatik- formalismus Grammatik- theorie abstrakt Grammatik prache konkret formal linguistisch

atürliche prachen in der Chomsky-Hierarchie Parsingkomplexität polynomiell exponentiell O(n) O(n 3 ) O(n k ) PPACE-vollst. unentscheidbar reguläre Ausdrücke kontextfreie Grammatiken schwach kontextsensitive Grammatiken kontextsensitive Grammatiken Turing- maschinen Expressivität

Letztes Mal IV TV a DV d a IV schläft TV isst DV gibt a den masc d dem masc a die fem d der fem a das neut d dem neut Die Katze jagt den Vogel. nom 1 TV acc 2 Der Vogel wird gejagt. nom 2 wird TVpart

Letztes Mal n a d V n d a V a n d V d n a V a d n V d a n V

Lexikalisierung Lexikalisierte Grammatikformalismen: jedes tück grammatische Information ist mit einem konkreten Wort verknüpft für jedes Wort gibt es endlich viele Lexikoneinträge, die grammatische Informationen vollständig darstellen Vorteile: Grammatikentwicklung: grammatischer Beitrag jedes Wortes an einer telle gesammelt Parsing: Parser muss für gegebenen Eingabestring nur endliche Menge von Objekten manipulieren Problem von kfg: i.a. nicht lexikalisiert

Lexikalisierung Greibach-F: ist lexikalisiert (genau ein Terminalsymbol pro Regel) ist schwach äquivalent (gleiche tringsprache) ist nicht stark äquivalent (Parsebäume evtl. verschieden) Det A der Hund rennt der Hund rennt Kann man kfgen stark lexikalisieren?

Ein Versuch Det der Hund rennt

Ein Versuch Det der Hund rennt

Ein Versuch Det der Hund rennt

Ein Versuch Det der Hund rennt

Ein Versuch Det der Hund rennt Baum kann man wie folgt zusammenbauen:

Ein Versuch Det der Hund rennt Baum kann man wie folgt zusammenbauen: rennt

Ein Versuch Det der Hund rennt Baum kann man wie folgt zusammenbauen: Det Hund rennt

Ein Versuch Det der Hund rennt Baum kann man wie folgt zusammenbauen: Det Hund rennt

Ein Versuch Det der Hund rennt Baum kann man wie folgt zusammenbauen: Det der Det Hund rennt

Baumsubstitutionsgrammatiken Baumsubstitutionsgrammatik (tree substitution grammar, TG): endliche Menge von Elementarbäumen. Knoten von Elementarbäumen: innere Knoten, mit T-ymbolen markiert lexikalische Anker, mit Terminalsymbolen markierte Blätter (manchmal mit Raute markiert: A ) ubstitutionsknoten, mit T-ymbolen markierte Blätter (normalerweise mit Pfeil markiert: A )

Lexikalisierte Elementarbäume unlexikalisiert lexikalisiert V V liebt V hasst α 1 α 1 (liebt) α 1 (hasst) Hans Maria α 2 α 2 (Hans) α 2 (Maria)

TGs: Ableitungen Ableitungsschritt, t t : t ein Baum, der einen ubst.knoten u mit Label A hat e ein Elementarbaum in TG mit Wurzel-Label A t entsteht aus t durch Ersetzen von u durch e Baum t heißt ein abgeleiteter Baum der TG G, wenn t keine ubstitutionsknoten enthält und * t. Baumsprache T(G) von G: Menge aller abgeleiteten Bäume.

TGs: Ein Beispiel V Hans Maria liebt TG G

TGs: Ein Beispiel V Hans Maria liebt TG G

TGs: Ein Beispiel V Hans Maria liebt TG G V liebt

TGs: Ein Beispiel V Hans Maria liebt TG G V Hans V liebt liebt

TGs: Ein Beispiel V Hans Maria liebt TG G V Hans V Hans V liebt liebt liebt Maria

TGs: Ein Beispiel V Hans Maria liebt TG G V Hans V Hans V liebt liebt liebt Maria keine ubst.knoten mehr, daher fertiger abgeleiteter Baum

TGs: tringsprachen Zu jedem Baum kann man den Ertrag als den tring definieren, den man von links nach rechts von den Blättern abliest. Hans V Hans liebt Maria liebt Maria tringsprache: L(G) ={ertrag(t) t 2 T (G)}

Ableitungsbaum Ableitungsbaum: Darstellung der truktur einer TG-Ableitung. Knoten: Elementarbäume Kanten: ubstitution V Hans V Hans V liebt liebt liebt Maria α 1 (liebt) α 2 (Hans) α 2 (Maria)

Lexikalisierte TG Elementarbaum heißt lexikalisiert, wenn er einen lexikalischen Anker enthält. TG heißt lexikalisiert, wenn alle Elementarbäume lexikalisiert sind. Genügt TG, um kfgs stark zu lexikalisieren? d.h.: Gibt es zu jeder kfg eine lexikalisierte TG, so dass abgeleitete Bäume der TG = Parsebäume der kfg?

ein! Gegenbeispiel (chabes):!! a Pfad zum minimal tiefen Blatt wird beliebig lang, aber ist in lexikalisierter TG beschränkt lang. a a a a a a a etc.

Adjunktion Man kann Beispiel-kfG lexikalisieren, wenn man eine zweite Operation zulässt: Adjunktion.

Adjunktion Man kann Beispiel-kfG lexikalisieren, wenn man eine zweite Operation zulässt: Adjunktion. A

Adjunktion Man kann Beispiel-kfG lexikalisieren, wenn man eine zweite Operation zulässt: Adjunktion. A A A* Fußknoten

Adjunktion Man kann Beispiel-kfG lexikalisieren, wenn man eine zweite Operation zulässt: Adjunktion. A A A* Fußknoten

Adjunktion Man kann Beispiel-kfG lexikalisieren, wenn man eine zweite Operation zulässt: Adjunktion. A A A A* A Fußknoten

Adjunktion Man kann Beispiel-kfG lexikalisieren, wenn man eine zweite Operation zulässt: Adjunktion. A A A A* A Det der Hund rennt Fußknoten * Adv schnell Det Adv der Hund rennt schnell

Lexikalisierung mit Adjunktion ehmen wir folgende Bäume: a * * a a Jetzt beliebige Parsebäume der kfg bauen: a

Lexikalisierung mit Adjunktion ehmen wir folgende Bäume: a * * a a Jetzt beliebige Parsebäume der kfg bauen: a

Lexikalisierung mit Adjunktion ehmen wir folgende Bäume: a * * a a Jetzt beliebige Parsebäume der kfg bauen: a a a

Lexikalisierung mit Adjunktion ehmen wir folgende Bäume: a * * a a Jetzt beliebige Parsebäume der kfg bauen: a a a

Lexikalisierung mit Adjunktion ehmen wir folgende Bäume: a * * a a Jetzt beliebige Parsebäume der kfg bauen: a a a a a a

Lexikalisierung mit Adjunktion ehmen wir folgende Bäume: a * * a a Jetzt beliebige Parsebäume der kfg bauen: a a a a a a

Lexikalisierung mit Adjunktion ehmen wir folgende Bäume: Jetzt beliebige Parsebäume der kfg bauen: * a a * a a a a a a a a a a a

Baumadjunktionsgrammatiken Baumadjunktionsgrammatik (tree adjoining grammar, TAG): endliche Menge von Elementarbäumen, und zwar Initialbäumen: Elementarbäume wie in TG Auxiliarbäume: Elementarbäume, in denen genau ein Blatt ein Fußknoten ist TAG-Ableitungen: in jedem chritt ubstitution eines Initialbaums, oder Adjunktion eines Auxiliarbaums

Ein Beispiel V schläft Hase Adj * weiße Det * der TAG G * Adv manchmal

Ein Beispiel V schläft Hase Adj * weiße Det * der TAG G * Adv manchmal V schläft

Ein Beispiel V schläft Hase Adj * weiße Det * der TAG G * Adv manchmal V schläft Hase

Ein Beispiel V schläft Hase Adj * weiße Det * der TAG G * Adv manchmal Det der * V schläft Hase

Ein Beispiel V schläft Hase Adj * weiße Det * der TAG G * Adv manchmal Det * der Adj * Hase V schläft weiße

Ein Beispiel V schläft Hase Adj * weiße Det * der TAG G * Adv manchmal Det * der Adj * Hase V schläft * Adv manchmal weiße

Ein Beispiel V schläft Hase Adj * weiße Det * der TAG G * Adv manchmal Det * der Adj * weiße Hase V schläft * Adv manchmal Det Adv der V manchmal Adj schläft weiße Hase abgeleiteter Baum

Det * der Adj * weiße V schläft Hase Hase V schläft Ein Beispiel TAG G Adj * Det * weiße der * Adv manchmal α 1 (schläft) α 2 (Hase) β 3 (manchmal) * Adv manchmal Det Adv der V manchmal Adj schläft weiße Hase abgeleiteter Baum β 1 (der) β 2 (weiße) Ableitungsbaum

Einige Punkte Ableitungsbaum: wie in TG aber jetzt Adjunktions- und ubstitutionskanten unterscheiden Adjunktionsconstraints: kann Knoten in Elementarbaum mit no adjunction (A) markieren: hier darf man nicht adjungieren Markierung obligatory adjunction (OA): hier muss man etwas adjungieren An Fußknoten darf man nie adjungieren.

TAG: Linguistische Prinzipien ubstitution verbindet ein Prädikat mit den Komplementen, für die es subkategorisiert. Adjunktion verbindet einen Ausdruck mit seinen Adjunkten (Modifikation). ubstantive mit Adjektiven, Artikeln, Relativsätzen usw. Verben und ätze mit Adverbien Ein Großteil von Rekursion kann durch Adjunktion erfasst werden.

Fernabhängigkeiten Fernabhängigkeiten (z.b. wh-bewegung): Bewegung innerhalb eines Elementarbaums bewegtes wh-wort wird durch Adjunktion immer weiter vom Verb weggedrückt B: Bewegung ist nur Motivation für konkreten Elementarbaum; in TAG-Ableitungen wird nichts bewegt! Who does Peter say Mary thinks John likes

Fernabhängigkeiten Fernabhängigkeiten (z.b. wh-bewegung): A Bewegung innerhalb eines Elementarbaums bewegtes wh-wort wird durch Adjunktion immer weiter vom Verb weggedrückt B: Bewegung ist nur Motivation für konkreten Elementarbaum; in TAG-Ableitungen wird nichts bewegt! A does likes ε A Who does Peter say Mary thinks John likes

Fernabhängigkeiten Fernabhängigkeiten (z.b. wh-bewegung): A Bewegung innerhalb eines Elementarbaums bewegtes wh-wort wird durch Adjunktion immer weiter vom Verb weggedrückt B: Bewegung ist nur Motivation für konkreten Elementarbaum; in TAG-Ableitungen wird nichts bewegt! A who does likes ε A Who does Peter say Mary thinks John likes

Fernabhängigkeiten Fernabhängigkeiten (z.b. wh-bewegung): A Bewegung innerhalb eines Elementarbaums bewegtes wh-wort wird durch Adjunktion immer weiter vom Verb weggedrückt B: Bewegung ist nur Motivation für konkreten Elementarbaum; in TAG-Ableitungen wird nichts bewegt! A who does likes John ε A Who does Peter say Mary thinks John likes

Fernabhängigkeiten who Fernabhängigkeiten (z.b. wh-bewegung): does John A Bewegung innerhalb eines Elementarbaums bewegtes wh-wort wird durch Adjunktion immer weiter vom Verb weggedrückt B: Bewegung ist nur Motivation für konkreten Elementarbaum; in TAG-Ableitungen wird nichts bewegt! A likes ε A thinks * Who does Peter say Mary thinks John likes

Fernabhängigkeiten who Fernabhängigkeiten (z.b. wh-bewegung): does John A Bewegung innerhalb eines Elementarbaums bewegtes wh-wort wird durch Adjunktion immer weiter vom Verb weggedrückt B: Bewegung ist nur Motivation für konkreten Elementarbaum; in TAG-Ableitungen wird nichts bewegt! A likes ε A Mary thinks * Who does Peter say Mary thinks John likes

Fernabhängigkeiten who Fernabhängigkeiten (z.b. wh-bewegung): does John A Bewegung innerhalb eines Elementarbaums bewegtes wh-wort wird durch Adjunktion immer weiter vom Verb weggedrückt B: Bewegung ist nur Motivation für konkreten Elementarbaum; in TAG-Ableitungen wird nichts bewegt! A likes ε A Mary thinks * say Who does Peter say Mary thinks John likes *

Fernabhängigkeiten who Fernabhängigkeiten (z.b. wh-bewegung): does John A Bewegung innerhalb eines Elementarbaums bewegtes wh-wort wird durch Adjunktion immer weiter vom Verb weggedrückt B: Bewegung ist nur Motivation für konkreten Elementarbaum; in TAG-Ableitungen wird nichts bewegt! A likes ε A Mary thinks * Peter say Who does Peter say Mary thinks John likes *

Extended domain of locality Lokalität: Informationen, die in einem einzigen Grammatikeintrag vorliegen. vom Grammatikentwickler als Einheit gedacht vom Parser als Einheit verarbeitet KfG: einzelne Produktionsregel. TAG: Elementarbaum, d.h. viel größere Einheit.

Extended domain of locality Einheit Elementarbaum: enthält ubstitutionsknoten für alle Komplemente des lexikalischen Ankers d.h. alles, was für semantische Interpretation des Wortes nötig ist Bewegungen innerhalb des Elementarbaums können vorausberechnet und lexikalisiert werden; Parser muss deshalb nicht mehr drüber nachdenken. Das erleichtert Grammatikentwicklung und Parsing.

Grammatik-Organisation Elementarbäume können zu Baumfamilien zusammengefasst werden. Zweck: verschiedene syntaktische Konfigurationen fürs gleiche Wort kommen immer wieder vor. Ein Wort kann allem Bäumen der gleichen Familie zugleich zugeordnet werden. A A Transitive Verben (z.b. V = like/likes/liked): is does A V V ε A by PP V ε A

Features Merkmale (Features): zusätzliche Werte an ichtterminale anheften und per Unifikation abgleichen. ermöglicht kompakte Darstellung von Kongruenz usw. Letzte Woche: kfgen mit Features. geht es auch mit TAG?

Erster Ansatz Erste Idee: Knoten von Elementarbäumen mit Feature-trukturen dekorieren. case: nom case: nom Det case: nom der Hase V frisst case: acc case: acc case: acc Det den alat case: nom V argcase: X case: X Im Lexikon spezifizieren: frisst: V, argcase=acc hilft: V, argcase=dat usw.

Ein Problem Was passiert mit der Featurestruktur an einem Knoten, wenn man dort adjungiert? X mit F bei Wurzel unifizieren? Oder mit F bei Fußknoten? oder mit beiden? (Konsequenz: F(Wurzel) = F(Fußknoten)) A f: X A A f: X A* A f: X Bessere Intuition: Adjunktion bricht einen Knoten in zwei Hälften auf.

Zweiter Ansatz (FTAG) In Feature-TAG trägt jeder Knoten zwei Featurestrukturen: für obere und untere Hälfte des Knotens. Wurzeln haben nur eine untere F Blätter haben nur eine obere F innere Knoten haben obere & untere F Am Ende der Ableitung werden obere und untere F jedes Knotens unifiziert. wen das nicht geht, schlägt Ableitung fehl zwischendurch dürfen Fen nicht-unifizierbar sein

Operationen von FTAG ubstitution von t in u: kombiniere obere F von u mit F der Wurzel von t Adjunktion von t in u: kombiniere obere F von u mit F der Wurzel von t kombiniere untere F von u mit F des Fußknotens von t t: F 1 A A t: F 1 A b: F 2 b: F2 A t: F 1 A b: F 2 A* t: F 3 b: F 4 A t: F 1 b: F 4 A t: F 3 b: F 2

Beispiel Det der b: [case: nom] * t: [case: nom] t: [case: nom] V b: [case: nom] Hase schläft

Kontrolle von Fernabhängigkeiten Problem in unserer Analyse vorhin: who does John likes wird als grammatisch akzeptiert. who does John A Wie erzwingen wir, dass ein einbettendes Verb adjungiert werden muss? A likes ε A

Kontrolle von Fernabhängigkeiten Lösung: inkompatible Features werden durch Adjunktion aufgelöst. A does A t: inv:+ b: inv: b: inv:+ think * t: inv: likes ε A

Zusammenfassung TAG: Elementarbäume durch ubstitution und Adjunktion kombinieren. Motivation 1: starke Lexikalisierung von kfgen Motivation 2: Elementarbaum = linguistisch angenehme Lokalitätsdomäne Features in TAG: an obere und untere Hälften von Knoten anhängen Koindizierung innerhalb des gleichen Elementarbaums elegante Kontrolle von Fernabhängigkeiten