Komplexität und natürliche Sprache

Ähnliche Dokumente
Inkrementelle Syntax

Formale Sprachen und Automaten

Complexity in grammar

Automatentheorie und formale Sprachen reguläre Ausdrücke

Automatentheorie und formale Sprachen rechtslineare Grammatiken

Einführung in die Computerlinguistik

Der Earley-Algorithmus

Der Earley-Algorithmus

Automatentheorie und formale Sprachen Pumping-Lemma für reguläre Sprachen

Earley Parser. Flutura Mestani

Complexity in grammar

Computational Models

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten

Grundlegende Parsingalgorithmen

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten

Informatik-Grundlagen

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten

Einführung in die Computerlinguistik reguläre Sprachen und endliche Automaten

Einführung in die Computerlinguistik Chomskyhierarchie

Einführung in die Computerlinguistik Chomskyhierarchie

3.1 Kontextfreie Sprachen und Grammatiken 3.2 Ableitungsbäume 3.3 Die pre -Operation

Einführung in die Computerlinguistik

Definition der Greibach-Normalform

Endliche Automaten. Grundlagen: Alphabet, Zeichenreihe, Sprache. Karin Haenelt

Automatentheorie und formale Sprachen

Dyck-Sprachen & Syntax-Analyse

Unit 4. The Extension Principle. Fuzzy Logic I 123

Einführung in die Informatik IV

Parsing regulärer Ausdrücke. Karin Haenelt

Complexity in grammar

Automaten und formale Sprachen. Lösungen zu den Übungsblättern

Definition 4 (Operationen auf Sprachen) Beispiel 5. Seien A, B Σ zwei (formale) Sprachen. Konkatenation: AB = {uv ; u A, v B} A + = n 1 An

Phrasenstruktur. Gereon Müller. Institut für Linguistik. 1. November 2005 Universität Leipzig muellerg

Die DP-Hypothese: Abney (1987), Kap. 1 Ein Rätsel und seine Lösung

Introduction FEM, 1D-Example

Endliche Automaten. Minimierung. Karin Haenelt. Karin Haenelt, 2004, FSA-Minimierung, ( )

Grundlagen der Theoretischen Informatik

Automatentheorie und formale Sprachen Entscheidbarkeitsprobleme endliche Transduktoren Komplexität natürlicher Sprachen

Einführung in die Computerlinguistik. Chomskyhierarchie. Dozentin: Wiebke Petersen Wiebke Petersen Einführung CL (SoSe 2010) 1

Sprachanalyse. Fachseminar WS 08/09 Dozent: Prof. Dr. Helmut Weber Referentin: Nadia Douiri

Automatentheorie und formale Sprachen endliche Automaten

Phrasenstruktur. Gereon Müller. 9. November 2005 Universität Leipzig muellerg

Formale Methoden 1. Gerhard Jäger 12. Dezember Uni Bielefeld, WS 2007/2008 1/22

Komplexität und natürliche Sprache

Übersicht. 3 3 Kontextfreie Sprachen

Automatentheorie und formale Sprachen

Theoretische Grundlagen der Informatik

Introduction FEM, 1D-Example

Number of Maximal Partial Clones

Wolfgang Sternefeld Comparing Reference Sets

Teil V. Weiterführende Themen, Teil 1: Kontextsensitive Sprachen und die Chomsky-Hierarchie

Überführung regulärer Ausdrücke in endliche Automaten

F2 Zusammenfassung Letzte Tips zur Klausur

Teil 2.2: Lernen formaler Sprachen: Hypothesenräume

Theoretische Grundlagen der Informatik. Vorlesung am 8. Januar INSTITUT FÜR THEORETISCHE INFORMATIK

Formale Sprachen. Script, Kapitel 4. Grammatiken

Zariski-Van Kampen Method

Earley Parsing. Parsing - WS 2012 / 2013 Lisa Orszullok & Anika Stallmann

Unterspezifikation in der Semantik Hole Semantics

5. Phrasenstruktur. Gereon Müller. Institut für Linguistik Universität Leipzig. muellerg

2.1 Grundlagen: Kontextfreie Grammatiken

12. LA- und PS-Hierarchien im Vergleich

Linguistik für Kognitionswissenschaften 1:[1em] Formale Komplexität 21. Oktober natürlicher 2010 Sprachen 1 / 33

Grundlagen der Theoretischen Informatik

Einführung in die Computerlinguistik

Grundlagen der Theoretischen Informatik

VU Software Paradigmen / SS 2012

2 German sentence: write your English translation before looking at p. 3

Komplexität und natürliche Sprache

Inkrementelle Syntax

Wortstellung. Rule 1. The verb is the second unit of language in a sentence. The first unit of language in a sentence can be:

Komplexität und natürliche Sprache

Einführung in die theoretische Informatik Sommersemester 2017 Übungsblatt Lösungsskizze 7

Grundlagen der Theoretischen Informatik / Einführung in die Theoretische Informatik I

Kontextfreie Sprachen. Automaten und Formale Sprachen alias Theoretische Informatik. Sommersemester Kontextfreie Sprachen

Zentralübung zur Vorlesung Theoretische Informatik

Formale Sprachen und Automaten: Tutorium Nr. 8

Lemma Für jede monotone Grammatik G gibt es eine kontextsensitive

Proseminar TI: Kellerautomaten. 1 Motivation. 2 Einführung. Vortrag: Von Sebastian Oltmanns und Dorian Wachsmann. Dozent: Wolfgang Mulzer.

Chomsky-Grammatiken 16. Chomsky-Grammatiken

Einführung in die Computerlinguistik Satz von Kleene

GERMAN LANGUAGE Tania Hinderberger-Burton, Ph.D American University

Willkommen zur Vorlesung Komplexitätstheorie

Einführung in die Computerlinguistik Chart-Parsing

Kapitel: Die Chomsky Hierarchie. Die Chomsky Hierarchie 1 / 14

Grundlagen der Theoretischen Informatik / Einführung in die Theoretische Informatik I

VU Software Paradigmen / SS 2014

Informatik IV Theoretische Informatik: Formale Sprachen und Automaten, Berechenbarkeit und NP-Vollständigkeit. Zugangsnummer: 9201

Vorlesung im Sommersemester Informatik IV. Probeklausurtermin: 21. Juni 2016

Grammatik der Genome

Linguistische Informatik

Willkommen zur Vorlesung Komplexitätstheorie

Mehrworteinheiten. Zusammenfassung & Seminarkritik. Timm Lichte. Letzte Sitzung, HHU Düsseldorf SFB 991

Syntax natürlicher Sprachen

Formale Semantik. Anke Assmann Heim & Kratzer 1998, Kap. 3. Universität Leipzig, Institut für Linguistik

PONS DIE DREI??? FRAGEZEICHEN, ARCTIC ADVENTURE: ENGLISCH LERNEN MIT JUSTUS, PETER UND BOB

Grundlagen der Theoretischen Informatik / Einführung in die Theoretische Informatik I

Theoretische Informatik 2 bzw. Formale Sprachen und Berechenbarkeit. Sommersemester Herzlich willkommen!

Grundkurs Linguistik Zur formalen Komplexität natürlicher Sprachen

Transkript:

Komplexität und natürliche Sprache Kompetenz versus Performanz Timm Lichte & Christian Wurm Heinrich-Heine-Universität Düsseldorf Sommersemester 2017, 24.05.2017 SFB 991 Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 1

Outline 1 Kompetenz versus Performanz 2 Äquivalenz und Normalformen 3 X-bar-Schema 4 Derivational Theory of Complexity Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 2

Outline 1 Kompetenz versus Performanz 2 Äquivalenz und Normalformen 3 X-bar-Schema 4 Derivational Theory of Complexity Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 3

Kompetenz versus Performanz Kompetenz Was wird charakterisiert Wissensinhalt Sprachklassen Performanz Wie wird charakterisiert Wissensanwendung Regelmengen von Grammatiken (Kompetenz?) Regelanwendungen für ein konkretes Wort Sprachklassen-Komplexität ˆL 1 ist komplexer als ˆL 2, falls ˆL 1 ˆL 2. Grammatik-Komplexität (Regelanzahl) Sei L(G 1 ) = L(G 2 ), G 1 ist komplexer als G 2, falls P 1 > P 2. Grammatik-Komplexität (Ambiguität) G 1 ist komplexer als G 2 bezüglich w, falls PTR 1 (w) > PTR 2 (w). Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 4

Kompetenz versus Performanz (cont.) Grammatik/Wort-Komplexität (Ableitungslänge) w 1 ist komplexer als w 2 bezüglich G, falls S... w 1 > S... w 2 Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 5

Outline 1 Kompetenz versus Performanz 2 Äquivalenz und Normalformen 3 X-bar-Schema 4 Derivational Theory of Complexity Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 6

Schwache und starke Äquivalenz von Grammatiken Gegeben zwei kontextfreie Grammatiken G 1 = N 1, Σ 1, P 1, S 1 und G 2 = N 2, Σ 2, P 2, S 2. Schwache Äquivalenz G 1 und G 2 sind schwach äquivalent gdw. G 1 und G 2 erzeugen dieselbe Sprache. G 1 w G 2 L(G 1 ) = L(G 2 ) Starke Äquivalenz G 1 und G 2 sind stark äquivalent gdw. G 1 und G 2 erzeugen dieselbe Sprache mit denselben Ableitungen. G 1 s G 2 P 1 = P 2 S 1 = S 2 Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 7

Schwache und starke Äquivalenz von Grammatiken (cont.) Strukturelle Äquivalenz G 1 und G 2 sind strukturell äquivalent gdw. G 1 und G 2 erzeugen dieselbe Sprache mit den gleichen Ableitungen. G 1 P G 2 Es gibt eine Bijektion f : N 1 N 2, wobei f (S 1 ) = S 2, und eine Bijektion g : P 1 P 2, so dass gilt: Wenn α β 1...β n P 1 mit α N 1 und β i Σ 1 N 1, dann gibt es g(α β 1...β n ) = f (α) γ 1...γ n mit γ i = β i, falls γ i Σ 2, oder γ i = f (β i ), falls γ i N 2. Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 8

Schwache und starke Äquivalenz von Grammatikklassen Gegeben zwei Grammatikklassen Ĝ 1 und Ĝ 2. Schwache Äquivalenz Ĝ 1 und Ĝ 2 sind schwach äquivalent gdw. es gibt eine Bijektion f : Ĝ 1 Ĝ 2, so dass für jedes G Ĝ 1 gilt: Starke Äquivalenz G w f (G) Ĝ 1 und Ĝ 2 sind stark äquivalent gdw. es gibt eine Bijektion f : Ĝ 1 Ĝ 2, so dass für jedes G Ĝ 1 gilt: G s f (G) Äquivalenz von Grammatiken aus verschiedenen Grammatikformalismen? Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 9

Normalformen für kontextfreie Grammatiken Normalform heißt: Die Regeln haben eine bestimmte Form. Chomsky-Normalform (CNF) A B C a (mit A, B, C N, a Σ) Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 10

Normalformen für kontextfreie Grammatiken Normalform heißt: Die Regeln haben eine bestimmte Form. Chomsky-Normalform (CNF) A B C a (mit A, B, C N, a Σ) Greibach-Normalform (GNF) A a β (mit A N, a Σ, β N ) Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 10

Normalformen für kontextfreie Grammatiken Normalform heißt: Die Regeln haben eine bestimmte Form. Chomsky-Normalform (CNF) A B C a (mit A, B, C N, a Σ) Greibach-Normalform (GNF) A a β (mit A N, a Σ, β N ) Lexikalisierung A α a β (mit A N, a Σ, α, β N ) Kontextfreie Grammatiken in CNF und GNF und lexikalisierte kontextfreie Grammmatiken sind schwach äquivalent zu kontextfreien Grammatiken. Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 10

Normalformen für kontextfreie Grammatiken (cont.) Nicht schwach äquivalent zu kontextfreien Grammatiken: lineare CFG A a B B a a (mit A, B N, a Σ) oder A a B b a (mit A, B N, a, b Σ) Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 11

Normalformen für kontextfreie Grammatiken (cont.) Nicht schwach äquivalent zu kontextfreien Grammatiken: lineare CFG A a B B a a (mit A, B N, a Σ) oder A a B b a (mit A, B N, a, b Σ) Lineare CFGs können nicht die Dyck-Sprachen erzeugen. S ϵ SS (S) Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 11

Ordentliche ( proper ) CFGs [8] Eine kontextfreie Grammatik G = N, Σ, P, S ist ordentlich gdw.: keine unerreichbare Nichtterminale A N: α, β (Σ N) : S G αaβ keine unproduktive Nichtterminale A N: w Σ : A G w keine ϵ-produktionen A N: A G ϵ oder P N (Σ N \ {S, ϵ}) + {S ϵ} keine Zyklen A N: A + G A Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 12

Ordentliche ( proper ) CFGs Die Klasse der ordentlichen kontextfreien Grammatiken ist schwach äquivalent zur Klasse der kontextfreien Grammatiken. Unerreichbare und unproduktive Nichtterminale können eliminiert werden. [5: 7.1.1] ϵ-produktionen können eliminiert werden. [5: 7.1.3] Zyklen (allgemeiner unit pairs ) können eliminiert werden. [5: 7.1.4] Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 13

Ordentliche ( proper ) CFGs Die Klasse der ordentlichen kontextfreien Grammatiken ist schwach äquivalent zur Klasse der kontextfreien Grammatiken. Unerreichbare und unproduktive Nichtterminale können eliminiert werden. [5: 7.1.1] ϵ-produktionen können eliminiert werden. [5: 7.1.3] Zyklen (allgemeiner unit pairs ) können eliminiert werden. [5: 7.1.4] Aber Durch die Eliminierung der ϵ-produktionen und der Zyklen (bzw. unit pairs ) kann P erheblich größer werden. Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 13

Outline 1 Kompetenz versus Performanz 2 Äquivalenz und Normalformen 3 X-bar-Schema 4 Derivational Theory of Complexity Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 14

X-bar-Schema Chomsky (1970) To introduce a more uniform notation, let us use the symbol X for a phrase containing X as its head. Then the base rules introducing N, A, and V will be replaced by a schema (48), where in place of... there appears the full range of structures that serve as complements and X can be any one of N, A, or V: [Spec,X] X X (48) X X... Continuing with the same notation, the phrases immediately dominating N, A and V will be designated N, A, V respectively. X Y Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 15

Anwendungsbeispiel ϵ-freie Regeln für NPs NP Alpakas die Alpakas freche Alpakas die frechen Alpakas die hungrigen frechen Alpakas... Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 16

Anwendungsbeispiel ϵ-freie Regeln für NPs NP Alpakas die Alpakas freche Alpakas die frechen Alpakas die hungrigen frechen Alpakas... x-bar-regeln für NPs? Weiterentwicklung in Jackendoff (1977) und Stowell (1981). Kritische und formal adequate Besprechung in Kornai & Pullum (1990). Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 16

X-bar-Schema nach Kornai & Pullum (1990) Lexicality A CFG observes Lexicality iff every nonterminal is X i, where X V T and i > 0. Succession A Lexicality observing CFG observes Succession iff every rule rewriting some nonterminal X n has a daughter labeled X n 1. Weak Succession A Lexicality observing CFG observes Weak Succession iff every rule rewriting some nonterminal X n has a daughter labeled X n 1 or X n. Uniformity A Lexicality-observing CFG observes Uniformity iff m N[V N = {X i 1 i m, X V T }] Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 17

X-bar-Schema nach Kornai & Pullum (1990) (cont.) Maximality A CFG observing Lexicality and Succession observes Maximality iff for every rule X n YX n 1 Z, the strings Y and Z are in V M, where V M = {X m X V T }. Centrality A Lexicality-observing CFG observes Centrality iff the start symbol is the maximal projection of a distinguished preterminal. Peripherality A Lexicality-observing CFG observes Peripherality iff in any rule rewriting X 1 as YX 0 Z, either Y = ϵ or Z = ϵ. Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 18

X-bar-Schema nach Kornai & Pullum (1990) (cont.) Optionality A CFG G = V N, V T, P, S observes Optionality iff for every rule in P of the form α W there exist β, W 1, W 2 such that 1 β (V N V T ); 2 W 1, W 2 (V N V T ) ; 3 W = W 1 βw 2 ; and 4 the rule α W 1 βw 2 in P for all strings W 1 and W 2 constructible by deleting some elements from W 1 and W 2, respectively. In such rules, β will be called the CORE. Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 19

Weniger Komplexität? (Kornai & Pullum 1990) Standard X-bar Grammar (SXBG) A Standard X-bar Grammar (SXBG) is a Lexicality-observing CFG in which the rules have the form X n YX n 1 Z, where Y, Z V M. Falls ϵ-frei: Ja! (wenige endliche Sprachen) Beispiel: SXBG mit genau einem Präterminal σ: Sei G = {σ 1 }, {σ }, {σ 1 σ }, σ 1, dann L(G) = {σ }. Sei G = {σ 1 }, {σ }, {σ 1 σ 1 σ, σ 1 σ }, σ 1, dann L(G) = {σ n n > 0}. Standard X-bar Grammar mit ϵ-produktionen (SXBG ϵ ) A Standard X-bar Grammar (SXBG) is a Lexicality-observing CFG in which the rules have the form X n YX n 1 Z, where Y, Z V M, or X 0 ϵ. Falls nicht ϵ-frei: Nein! (schwach äquivalent zu CFG) Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 20

Weniger Komplexität? (Kornai & Pullum 1990) (cont.) CAVEAT X-bar-Schema wird sehr unterschiedlich eingesetzt. Optionalität senkt die Ausdrucksstärke, wird aber kaum verwendet. Implizite Grundannahme scheint zu sein: X n mit n > 0 sind derivationell nicht ambig, Nur Kompetenz, d.h. Sprachklassen-Komplexität, wird betrachtet. Was die Regelanzahl und die Ableitungslänge betrifft, sind SXBGs sicherlich nicht optimal. Anliegen ist, die Ableitungsambiguität (auch grammatikübergreifend) zu minimieren. Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 21

Outline 1 Kompetenz versus Performanz 2 Äquivalenz und Normalformen 3 X-bar-Schema 4 Derivational Theory of Complexity Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 22

Derivational Theory of Complexity (DTC) Vermutung bezogen auf die Transformationsgrammatik Verarbeitungskomplexität korreliert mit der Anzahl der nötigen Transformationen. Grammatik/Wort-Komplexität (Ableitungslänge) w 1 ist komplexer als w 2 bezüglich G, falls S... w 1 > S... w 2 Hoffnung auf explizite Performanzmodelle Adäquatheitstests für linguistische Theorien Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 23

Transformationsgrammatik Chomsky (1957; 1965) CFG Lexikon Deep Structure kernel sentences Conceptual Structure Transformationen Surface Structure Phonological Structure Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 24

Transformationsgrammatik Chomsky (1957; 1965) kernel sentences NP Peter S V loves VP NP Susan = NP Susan S AUX is VP V loved P by PP NP Peter NP 1 V NP 2 NP 2 AUX V by NP 1 Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 25

Transformationsgrammatik Chomsky (1957; 1965) kernel sentences NP Peter S V loves VP NP Susan = NP Susan S AUX is VP V loved P by PP NP Peter NP 1 V NP 2 NP 2 AUX V by NP 1 Komplexitätstheoretisch sehr problematisch: Das Wortproblem für TG ist unentscheidbar (Peters & Ritchie 1973). Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 25

Kontra DTC Gegenevidenz (Fodor, Bever & Garrett 1974): Passiv (1) a. The first shot the tired soldier the mosquito bit fired missed. b. The first shot fired by the tired soldier bitten by the mosquito missed. Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 26

Kontra DTC Gegenevidenz (Fodor, Bever & Garrett 1974): Passiv (1) a. The first shot the tired soldier the mosquito bit fired missed. b. The first shot fired by the tired soldier bitten by the mosquito missed. Ellipse (2) a. John swims faster than Bob swims. b. John swims faster than Bob. c. John swims faster than Bob does. Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 26

Kontra DTC Gegenevidenz (Fodor, Bever & Garrett 1974): Passiv (1) a. The first shot the tired soldier the mosquito bit fired missed. b. The first shot fired by the tired soldier bitten by the mosquito missed. Ellipse (2) a. John swims faster than Bob swims. b. John swims faster than Bob. c. John swims faster than Bob does. Hängt stark von der Analyse ab! [10] Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 26

Zusammenfassung Unterscheidung von Kompetenz und Performanz Performanz bezieht sich auf Regeln. Äquivalenz und Normalformen regelbezogenen Komplexitätsbegriffe (Regelanzahl, Ambiguität, Ableitungslänge) Beispiele aus der formalen Linguistik: X-bar-Syntax und DTC Nächste Sitzung: andere wichtige performanzbezogene Komplexitätsbegriffe (Automatentheorie, Raum- und Zeitkomplexität) Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 27

Literaturverzeichnis [1] Chomsky, Noam. 1957. Syntactic structures. Den Haag: Mouton. [2] Chomsky, Noam. 1965. Aspects of the theory of syntax. Cambridge, MA: The MIT Press. [3] Chomsky, Noam. 1970. Remarks on nominalization. In Roderick Jacobs & Peter Rosenbaum (eds.), Readings in English transformational grammar, 184 221. Waltham, MA: Ginn. [4] Fodor, Jerry A., Thomas G. Bever & Merrill F. Garrett. 1974. The psychology of language: an introduction to psycholinguistics and generative grammar. McGraw-Hill. [5] Hopcroft, John E., Rajeev Motwani & Jeffrey D. Ullman. 2001. Introduction to automata theory, languages and computation. Addison-Wesley. [6] Jackendoff, Ray. 1977. X syntax: A case study of phrase structure. Cambridge, MA: MIT Press. [7] Kornai, András & Geoffrey K. Pullum. 1990. The x-bar theory of phrase structure. English. Language 66(1). 24 50. http://www.jstor.org/stable/415278. [8] Nijholt, Anton. 1980. Context-free grammars: Covers, normal forms, and parsing. (Lecture Notes in Computer Science 93). Berlin: Springer. [9] Peters, Stanley P. & Robert W. Ritchie. 1973. On the generative power of transformational grammar. Information Sciences 6. 49 83. [10] Phillips, Colin. 1996. Order and structure. Cambridge, MA: MIT Doctoral dissertation. http://dspace.mit.edu/handle/1721.1/10666. [11] Stowell, Timothy A. 1981. Origins of phrase structure. Cambridge, MA: MIT MIT dissertation. Timm Lichte & Christian Wurm (HHU Düsseldorf) Komplexität und natürliche Sprache 28