Kapitel 2 Eine Einführung in die HPSG

Größe: px
Ab Seite anzeigen:

Download "Kapitel 2 Eine Einführung in die HPSG"

Transkript

1 Kapitel 2 Eine Einführung in die HPSG Im vorliegenden Kapitel werden wir die Begriffe und Prinzipien der HPSG sowie ihre Funktionsweise vorstellen. Wie schon in Kapitel 1 erwähnt, ist die HPSG eine integrierte Theorie von Syntax und Semantik. Sie ist eine generative Grammatiktheorie aus der Familie der Unifikationsgrammatiken. Sie verbindet Elemente aus der GPSG (Generalized Phrase Structure Grammar), der FUG (Functional Unification Grammar) und dem PATR (Parsing and Translating) Formalismus. Wie in jeder Unifikationsgrammatik sind in der HPSG alle linguistischen Einheiten durch Merkmalstrukturen repräsentiert. Sie enthalten Merkmale für die Kodierung von phonologischer, syntaktischer und semantischer Information. Die Grammatik selbst ist ebenfalls in Form von Merkmalstrukturen dargestellt, die als Beschränkungen (Constraints) für die Wohlgeformtheit von sprachlichen Zeichen aufgefaßt werden. Wie in Kapitel 1 angedeutet, ist die Grammatik der HPSG stark lexikalisiert, d.h. die Lexikoneinträge sind Merkmalstrukturen und enthalten schon einen großen Teil der strukturellen Information. Auch die allgemeinen redundanzfreien Prinzipien sind als Merkmalstrukturen kodiert. Die HPSG verwendet die Merkmalsunifikation für die Steuerung des Informationsflusses bei der Ableitung. Die beiden grundlegenden Begriffe sind Merkmalstruktur und Unifikation, die wir hier kurz wiederholen: _ Merkmalstruktur: Jede linguistische Einheit, sei es Wort, Phrase oder Satz, ist in der HPSG durch eine Merkmalstruktur gekennzeichnet. Eine Merkmalstruktur ist eine Menge von Attribut-Wert Paaren, wobei der Wert ein atomares Symbol oder wieder eine Struktur ist. Eine wichtige Wert-Möglichkeit ist die Koreferenz, d.h. zwei Werte einer Merkmalstruktur können koreferenziell sein und ihre Attribute haben dann denselben Wert. Man spricht hier von Strukturteilung (structure sharing). Diese Eigenschaft ermöglicht die Darstellung von Dependenzbeziehungen zwischen Konstituenten wie Kongruenz, Rektion, Kontrolle und Fernabhängigkeiten, was wir später z.b. beim SPEC-Prinzip, QSTORE-Perkolationsprinzip deutlich sehen werden. Merkmalstrukturen für syntaktische Einheiten werden oft als komplexe Kategorien bezeichnet. Sie werden meist als Merkmalmatrizen (bzw. Attribut- Value-Matrix, Abkürzung: AVM) oder als gerichtete Merkmalsgraphen (DAGs) repräsentiert. _ Struktur D ist eine Unifikation von D" und D"" (notiert als: D = D" D""), wenn folgende Subsumptionen (ó) gelten: a) D" ó D und D"" ó D. b) Für alle D""" gilt, wenn D" ó D""" und D"" ó D""", dann D ó D""". _ Die Unifikation von Merkmalstrukturen folgt dem Prinzip: Wenn sich

2 19 die Inhalte von Merkmalen nicht widersprechen (d.h. wenigstens einem Merkmal unverträgliche Werte zuweisen), dann ergibt sich das Ergebnis der Unifikation aus der Vereinigungsmenge der Information in den beiden unifizierten Merkmalstrukturen. Wenn es einen inhaltlichen Widerspruch gibt, dann schlägt die Unifikation fehl. Die HPSG verwendet ein reiches Inventar an unifikationsgrammatischen Beschreibungsmitteln, z.b. mengenwertige Merkmale, listenwertige Merkmale, Disjunktion, Negation und Implikation, wie wir später sehen werden. Wir wenden uns zunächst den Fragen zu, wie in der HPSG sprachliche Ausdrücke formal repräsentiert werden, und wie Merkmalstrukturen in der HPSG aussehen. 2.0 Merkmalstruktur und Attribute-Value Matrix Alle sprachlichen Ausdrücke (Wörter, Phrasen oder Satz) werden in der HPSG durch Merkmalstrukturen als lexikalisches oder phrasales SIGN repräsentiert. SIGN ist eine Abkürzung für sprachliches Zeichen bzw. sprachlicher Ausdruck, und läßt sich als AVM darstellen. Ein SIGN ist in der HPSG eine Merkmalstruktur, die zumindest aus den Merkmalen: PHONOLOGY (PHON) und SYNTAX-SEMANTICS (SYNSEM) besteht: PHON<... > SYNSEM... (1) [] PHON ist ein listenwertiges Merkmal. Beispiel: PHON = <Kim, saw, the, women> Der Wert von SYNSEM ist wiederum eine Merkmalstruktur. Beispiel: CAT []... LOC SYNSEM CONTENT []... NON LOC[...] (2) Diese Darstellung liest sich wie folgt: Der Wert von SYNSEM ist das Merkmal LOC (local) und NON-LOC (non local). Der Wert von LOC ist wiederum CAT (category) und CONTENT (content). Wir zeigen zuerst drei vereinfachte AVMs (zwei lexikalische SIGNs und ein phrasales SIGN). Komplexe AVMs und ausführliche Erklärungen der Merkmale und der damit verbundenen Prinzipien werden erst in den nachstehenden Abschnitten eingeführt. Was wir in der ersten AVM ausdrücken wollen, sind folgende Informationen: _ phonologisch: das Zeichen "Kim" _ morphosyntaktisch: Es ist ein Nomen. Als Eigenname braucht es keinen Artikel: *"the Kim". Sein Kasus ist nicht bestimmt. _ Semantisch: Kim ist ein Name und ist als eine Relation Naming zu sehen,

3 20 in der jemand als etwas benannt wird: naming(x, kim). 10 Es handelt sich um die dritte Person, Singular. Diese lassen sich in (3) darstellen. An der AVM läßt sich ersehen, daß hier linguistische Informationen sortiert und hierarchisch geordnet sind: Unter dem LOC Merkmal werden lokal relevante Informationen gespeichert. Sie deutet darauf hin, daß die Information unter dem Pfad LOC das SIGN selbst betrifft. 11 Morphosyntaktische Informationen wie Kategorie "cat" und Kasus "case" sind unter dem Merkmal "head" gespeichert, weil solche sogenannten Kopf- Informationen in der syntaktischen Ableitung konstant bleiben (vgl. Abschnitt 2.2). "subcat" ist ein verallgemeinerter Begriff der Subkategorisierung. subcat=< det > z.b. bedeutet: Das fragliche Nomen fordert syntaktisch einen Artikel (Determinator). subcat=< > bedeutet: Das fragliche Nomen verlangt syntaktisch nichts, um eine vollständige Nominalphrase zu bilden (z.b. Eigennamen). PHON <Kim > HEAD [ CAT noun] CAT SUBCAT <> PERS 3rd PARA : [1] SYNSEM LOC NUM sg CONT REL NAMING RESTPAR BEARER [1] NAME KIM (3) Die semantische Information "Relation Naming" steht unter dem Merkmal "content". Dies besteht aus einem Parameter "para" und seiner Restriktion "rest". In der Restriktion wird der extensionale "bearer" (identisch mit "para"), also derjenige, der den Namen trägt, mit dem Namen als Bezeichnung verbunden. Inhaltlich heißt dies nichts anderes als naming([1], kim). 12 Betrachten wir das Verb "walks" als ein weiteres Beispiel: _ phonologisch: das Zeichen walks _ morphosyntaktisch: Es ist ein finites Verb. Um einen Satz zu bilden, fordert es als intransitives Verb ein nominales Subjekt. In bezug auf die Kongruenz zwischen Subjekt und Prädikat muß das Subjekt hier in der dritten Person und im Singular sein. 10 D.h.: Der Ausdruck "Kim" verweist auf den Namenträger x. 11 Die Information über eine Fernabhängigkeitsbeziehung z.b. durch eine Topikalisierung wird unter einem anderen Pfad gespeichert (nämlich NONLOCAL, vgl. dazu Abschnitt 2.7). 12 Die Semantik von Eigennamen ist sicherlich komplizierter als hier dargestellt. Man vergleiche dazu Stechow (1991)

4 21 _ semantisch: "walk" ist im Sinne der Referenzsemantik eine einstellige Relation "walk". Das Argument dieser Relation ist das Agens der Handlung: walk(x). Die Informationen lassen sich dann in einem lexikalischen SIGN in (4) repräsentieren. Analog zum ersten Beispiel ist die Subkategorisierungsinformation in das Merkmal SUBCAT eingetragen. Die semantische Repräsentation des Verbs "walk" besteht in der Angabe der einstelligen Relation WALK, deren Argument die Agensrolle zugeordnet ist (siehe (5)). PHON < walks > CAT HEAD verb SYNSEM LOC CAT VFORM fin SUBCAT <NP[nom][1][ 3, sg]> REL WALK SYNSEM LOC CONT AGENT [1] (4) (5) CONTENT RELN=WALK, CONTENT AGENT=[1] Der formelle Unterschied zwischen einem phrasalen und einem lexikalischen SIGN ist, daß ersteres neben PHON und SYNSEM noch das Merkmal DTRS hat. "Kim walks" als ein phrasales SIGN hat zwei Töchter (DTRS), d.h. zwei lexikalische SIGN "Kim" und "walks" (vgl. (6)). In der HPSG wird zwischen Komplement-Töchtern (COMP-DTRS) und Kopftöchtern (HEAD-DTR) unterschieden. Die übliche Annahme in der generativen Syntax, daß eine Phrase aus einem Kopf, Komplementen und gegebenfalls Adjunkten besteht, kommt in der HPSG dadurch zum Ausdruck, daß ein phrasales SIGN die Merkmalstruktur DTRS mit HEAD-DTR, COMP-DTRS und eventuell ADJ- DTRS enthält. Wie ein phrasales SIGN zustandekommt, wie das phrasale SIGN für "Kim walks" aus den lexikalischen SIGNs "Kim" und "walks" durch HPSG- Prinzipien konstruiert wird, diese Frage werden wir in den anschließenden Abschnitten beantworten.

5 22 (6) PHON < Kim walks > CAT verb HEAD SYNSEM LOC CAT VFORM fin SUBCAT <> REL WALK SYNSEM LOC CONT AGENT [1] CAT verb HEAD CAT VFORM fin HEAD - DTR SYNSEM LOC SUBCAT < NP[nom][1][3, sg] > REL WALK CONT AGENT [1] HEAD [ CAT noun ] DTRS CAT SUBCAT <> PERS 3rd PARA : [1] COMP DTRS SYNSEM LOC NUM sg CONT REL NAMING RESTPAR BEARER [1] NAME KIM 2.1 Die Oblique-Liste Die Subkategorisierungsliste wird in der HPSG auch die Oblique-Liste (Abhängigkeitsliste) genannt. In dieser Liste liegt u.a. eine Valenzinformation vor. Sie hat einen bestimmten Aufbau bzw. eine feste Reihenfolge. Mit dieser Reihenfolge kann die Oblique-Liste den Ablauf einer syntaktischen Ableitung steuern, die Kongruenz zwischen syntaktischem Subjekt und Prädikat überprüfen, und die Kontroll-Beziehung und Bindungsbeziehung angeben (vgl. Beispiele unten). Wir zeigen zuerst den Aufbau der Oblique-Liste (vgl. Pollard & Sag, 1994:2f. 24ff.) und erläutern dann ihre Anwendung. Die SUBCAT-Liste des Verbs "geben" enthält drei NPs: ein Subjekt, ein direktes und ein indirektes Objekt. Die Reihenfolge der drei NPs legt folgendes Aufbau-Prinzip fest: (a) Das Subjekt eines Satzes steht als die erste NP in der Oblique-Liste des Kopfverbs. Oder allgemein ausgedrückt: Das mit dem Kopf kongruierende (agreeable) Element steht als erstes in der Liste. (b) Ein direktes Objekt ist die letzte NP in der Oblique-Liste. Um auszudrücken, daß das regierende Verb mit der Subjekt-NP aber nicht mit irgendeiner anderen NP kongruent ist, muß man die Subjekt-NP durch eine feste Position in der Oblique-Liste festlegen. Das ist der Sinn der Bedingung (a). Ein Beispiel: (1) gibt: [NP [nom,sg,3.pers],np [dat],np [acc] ] Die zweite Bedingung legt die Reihenfolge vom indirekten und direkten Objekt fest. Das ist u.a. für die lexikalische Regel zur Passivbildung wichtig, weil dann nur das letzte Element der Oblique-Liste nach vorne umgelegt werden muß. (2) gibt: [NP1, NP2,NP3] à wird gegeben : [NP3, von(np1), NP2]

6 23 Die SUBCAT-Liste eines Kontrollverbs wie "versprechen" oder "überreden" enthält zwei NPs und eine VP: eine Subjekt-NP, eine Objekt-NP und eine infinite VP. Die Beziehung zwischen der NP und der VP in bezug auf die Position wird durch ein weiteres Aufbau-Prinzip festgelegt: (c) Eine infinitive Verbalphrase (VP[INF]) als Komplement steht direkt rechts von seiner Kontroll-NP. Bedingung (c) gibt die Kontroll-Beziehung für ein VP- Komplement an. Wie diese Information zu kodieren ist, zeigen wir in einem Beispiel. In den folgenden beiden Sätzen sind zwei verschiedene Kontrollbeziehungen vorhanden: in dem ersten Satz eine Subjekt-Kontrolle, in dem zweiten eine Objekt-Kontrolle. (3) Kim hat mir versprochen, zu Hause zu bleiben. Kim hat mich überredet, ins Kino zu gehen. In dem ersten Satz ist das logische Subjekt für die Komplement-VP "zu Hause zu bleiben" das Subjekt "Kim", etwa: versprechen(kim i, ich, zu_hause_bleiben(kim i )). In dem zweiten Satz ist das logische Subjekt für die Komplement-VP "zu Hause zu bleiben" das Objekt des Hauptsatzes, etwa: überreden(kim, ich i, ins_kino_gehen(ich i )). Die Kontrollbeziehung ist hier keine strukturelle Erscheinung, sondern eine intrinsisch lexikalische Eigenschaft des Verbs. Bei einem Verb wie "versprechen" ist in der Regel Subjekt-Kontrolle voraussagbar, bei einem Verb wie "überreden" die Objekt-Kontrolle. Deshalb kann man die Oblique-Liste der beiden Verben unterschiedlich aufbauen nach dem Prinzip: Ein kontrolliertes Element steht direkt rechts von einem kontrollierenden Element: (4) versprechen: [NP(Subjekt), VP(INF), NP(Obj)] überreden: [NP(Subjekt), NP(Obj), VP(INF)] Wir kommen nun zur Bindungsbeziehung. Ein weiteres Prinzip, nämlich das Bedingungsprinzip (d) behandelt die Bindungsbeziehung zwischen einer Anapher und ihrem Antezedens: (d) Das bindende Element (Antezedens) muß links vor der Phrase XP stehen, welche das anaphorische Element (z.b. Pronomen, Reflexivpronomen, Spuren) dominiert. Dies entspricht etwa der strukturellen Beziehung des C-Kommandos, in einer Klammernotation: [...Antezedens [ XP...Anapher...]...] oder in einer Baumnotation: (5)... Antezedens XP Anapher... Beispiel: (6) Hans hat Klaus überredet, sich zu waschen.

7 24... Hans... Klaus VP sich zu waschen Die Oblique-Liste in (7) bringt aufgrund von Bedingung (d) die Bindungsmöglichkeit zum Ausdruck, daß "sich" an "Hans" oder "Klaus" gebunden werden kann, weil das mögliche bindende Element "Klaus" und "Hans" vor der VP steht, die das anaphorische Element dominiert: (7) überreden:[np, NP, VP[sich/ihn, PRO] ] Dafür, daß jeweils "sich" nur lokal an "Klaus" und "ihn" nicht lokal an "Hans" gebunden werden muß, sorgt die HPSG-Bindungstheorie (vgl. Pollard & Sag, 1994:238, 254), die mit der ABC-Bindungstheorie (Chomsky, 1986) direkt vergleichbar ist. 2.2 Das HEAD Merkmal und das Kopfmerkmalprinzip Wir haben in Abschnitt 2.0 an dem Beispiel mit dem Eigennamen "Kim" gesehen, daß morphosyntaktische Informationen wie "cat" (Kategorie) und "case" (Kasus) unter dem Merkmal "head" gespeichert werden, weil eine solche Kopf-Information in der syntaktischen Ableitung konstant bleibt. Wir betrachten nun ein weiteres Beispiel. Die VP "heute Kim besuchen" aus dem Satz "er soll heute Kim besuchen" läßt sich wie folgt darstellen: (1) VP[inf] ADV VP[inf] heute NP V [inf] Kim besuchen Daran ist deutlich zu sehen, daß die Information über die syntaktische Kategorie (Verb) und Flexionsform (Inf) in der Projektionslinie (V à VP à VP) von V unverändert bleibt. Ähnlich ändert sich beim Aufbau einer Nominalphrase die Information über Kasus, Genus und syntaktische Kategorie (Nomen) in der Projektionslinie (N à N' à N" NP) nicht: (2)

8 25 NP[nom, mask] DET N'[nom, mask] der ADJ runde N'[nom, mask] N [nom, mask] Tisch Die beim Aufbau einer Phrase konstant bleibende syntaktische Information eines Kopfs wird in der HPSG im Merkmal HEAD eingetragen. Der Wert des Merkmals HEAD ist wiederum eine Merkmalstruktur. Ihre Form ist u.a. abhängig von ihrer Wortklasse. Hier sind zwei Beispiele jeweils für ein Nomen und ein Verb: CAT noun HEAD PRD - CASE gen (3) Ein Beispiel für den HEAD-Wert von "Mädchens": Der Inhalt dieser Darstellung ist einsichtig: "Mädchens" ist ein Nomen im Genitiv und nicht prädikativ verwendbar (PRD hat den negativen Wert). Das Kopfmerkmal steht in dem gesamten SIGN unter dem Merkmal CAT: CAT noun SYNSEM LOC CAT HEAD PRD - CASE gen (4) Diese Matrix kann man platzsparend abkürzen als: SYNSEM LOC CAT HEAD noun[<prd - >, <CASE gen>] Der HEAD-Wert von "lächelt" ist: CAT : verb SYNSEM LOC CAT HEAD AUX - VFORM fin (5) Das bedeutet nichts anderes als: "lächelt" ist ein finites Verb und kein Hilfsverb (Aux -). Das kann man ebenso abkürzen als: 13 (6) SYNSEM LOC CAT HEAD verb[<vform fin>, <AUX - >] Ein HEAD-Wert ist für Determinatoren oder Komplementierer komplexer als der für Nomen und Verben. Die Erhaltung bestimmter syntaktischer 13 Die Subskripte ënouní, ëverbí sind dabei Wert-Typen von HEAD. Da die HEAD- Merkmalstruktur u.a. wortklassen-abhängig ist, kann man das zusätzliche Merkmal für die Wortklasse (das zweite CAT-Merkmal in der obigen AVM) eigentlich sparen (vgl. Pollard & Sag, 1994:17). Aus Gründen der Übersichtlichkeit haben wir es trotzdem stehen gelassen.

9 26 Eigenschaften in einer Projektionsslinie ( X à X' à XP) wird in der HPSG durch das Kopfmerkmalprinzip (Head Feature Principle) gesteuert: Das Kopfmerkmalprinzip: The HEAD value of any headed phrase is structure-shared with the HEAD value of the head daughter. (vgl. Pollard & Sag 1994:34) Wie allgemein in der X-bar-Theorie, werden in der HPSG zwischen einer HEAD-Tochter, einer Komplement-Tochter und einer Adjunkt-Tochter unterschieden. Das Kopfmerkmalprinzip fordert damit eine strukturelle Übereinstimmung im HEAD-Merkmal zwischen Mutter und Kopftochter, nämlich zwischen SYNSEM LOC CAT HEAD und DTRS HEAD- DTR SYNSEM LOC CAT HEAD. Das heißt, HEAD enthält Informationen, die in der Projektionslinie unverändert bleiben. Aus Sicht des Kopfmerkmalprinzips ist z.b. folgende Phrase wohlgeformt, weil der HEAD-Wert unter LOC und der unter HEAD-DTR struktur-identisch (token-identical) sind: SYNSEM LOC CAT[ HEAD [1] [ [ ] DTRS HEAD DTR SYNSEM LOC CAT HEAD [1] (7) [ ] Die AVM für den Satz "Kim walks" (Beispiel (6), Abschnitt 2.0) ist beispielsweise u.a. hinsichtlich des Kopfmerkmalprinzips wohlgeformt. 2.3 Das SUBCAT Merkmal, das Saturationsprinzip, das MOD- Merkmal und ID-Schemata Unter Abschnitt 1.2 haben wir schon das Saturationsprinzip eingeführt. Nun werden wir das Prinzip im Zusammenhang mit dem X-bar-Schema näher erläutern. Wir haben bisher an verschiedenen Stellen des vorliegenden Kapitels eine SUBCAT-Liste benutzt. Die Valenzinformation bzw. die Angabe über die Fähigkeit eines sprachlichen Zeichens, seine syntaktischen Umgebungen vorzustrukturieren, wird in der HPSG in das Merkmal SUBCAT eingetragen. Wie die übliche Valenztheorie betrachtet die HPSG auch das syntaktische Subjekt eines Satzes als eine obligatorische Ergänzung zum finiten Verb, nämlich NP[nom]. Das Wort "geben" fordert beispielsweise ein Nominativ-Subjekt, ein Dativund ein Akkusativ-Objekt, um einen Satz zu bilden. Diese syntaktische Information wird in der HPSG wie folgt ausgedrückt: (1) geben: SUBCAT=[ NP[nom], NP[dat], NP[akk] ] Die SUBCAT-Liste von "helfen" sieht erwartungsgemäß wie folgt aus: (2) helfen: SUBCAT=[ NP[nom], NP[dat] ] Die SUBCAT-Liste dient in der HPSG, wie auch in anderen Unifikationsgrammatiken, nicht nur als Valenzinformation, sondern steuert auch den Prozeß der syntaktischen Analyse. Diese Liste muß gemäß dem sogenannten Saturationsprinzip (siehe unten) während einer syntaktischen

10 27 Analyse gesättigt werden: (3) V[ ] NP[nom] V[NP[nom]] Kim NP[dat] NP[akk] V[NP[nom],NP[dat],NP[akk]] mir ein Buch Das Saturationsprinzip (auch das Subkategorisierungsprinzip genannt) beschreibt die Wohlgeformtheit-Bedingung einer Phrase in bezug auf die syntaktische Wertigkeit bzw. Valenz. Das Saturationsprinzip: In a headed phrase, the SUBCAT value of the head daughter is the concatenation of the phrase's SUBCAT list with the list (in order of increasing obliqueness) of SYNSEM values of the complement daughters. (Pollard & Sag 1994:34) Folgende Merkmalstruktur ist in Hinsicht auf das Saturationsprinzip (gleichzeitig auch auf das Kopfmerkmalprinzip) wohlgeformt, weil die SUBCAT-Liste der Kopftochter <[1]...[m],[n]> gleich der Konkatenation aus der SUBCAT-Liste der Mutter <[1]...[m]> und der der Komplement-Tochter [n] ist: CAT HEAD [h] SYNSEM LOC [ ] SUBCAT < [1]...[m]> HEAD [h] HEAD DTR SYNSEM LOC CAT DTRS SUBCAT < [1]...[m], [n]> COMP-DTRS <[n]> (4) Das Saturationsprinzip ist allgemein bzw. nicht konfigurational. Es schränkt lediglich die Struktur ein auf eine Konkatenation von SUBCAT-Listen von der Mutter, der Kopftochter und den Komplement-Töchtern: Die SUBCAT-Liste der Mutter ist immer identisch mit der ihrer Tochter minus denen der Komplement-Töchter. Den syntaktischen Aufbau einer Phrase kann man daher als einen Saturationsprozeß der SUBCAT-Liste des lexikalischen Kopfs sehen. Aber über den konkreten Aufbau wird durch das Saturationsprinzip nichts gesagt. Beispielsweise sind alle nachstehenden Strukturen wohlgeformt, weil die Konkatenation der SUBCAT-Listen dem Prinzip entspricht: (5) gibt

11 28 V[ ] NP[nom] V[NP[nom]] (6) Kim NP[dat] NP[akk] V[ ] V[NP[nom],NP[dat],NP[akk]] NP[nom] (7) V[ ] NP[dat] NP[akk] V[NP[nom],NP[dat],NP[akk]] NP[nom] V[NP[nom]] NP[dat] V[NP[nom],NP[dat]] (8) V[ ] NP[akk] V[NP[nom],NP[dat],NP[akk]] NP[nom] NP[dat] V[NP[nom],NP[dat]] NP[akk] V[NP[nom],NP[dat],NP[akk]] Das Saturationsprinzip ist also konfigurations-unabhängig. Diese Darstellungsweise beinhaltet, daß die HPSG die Strukturiertheit einer Phrase offen läßt. Nun vergleichen wir folgende HPSG-Darstellung mit einem X-bar- Schema. An den beiden Schemata in (9) ist ersichtlich, daß die Struktur des X- bar-schemas in der obigen Darstellung durch die Anzahl von Saturations- Schritten ausgedrückt wird: Ein lexikalischer Kopf darf nicht auf einmal gesättigt sein, sonst wäre es eine flache Struktur. Eine maximale Projektion darf nur eine Konstituente anbinden. Sonst wäre der Spezifikator nicht strukturell definiert. (9) X-bar-Schema: HPSG-Schema: V max V[] SPEC V" COMPL V[NP[nom]] Kim Kim

12 29 COMPLs V COMPLs V[NP[nom],NP[dat],NP[akk]] mir ein Buch gibt mir ein Buch gibt Eine derartige konfigurationale Einschränkung wird in der HPSG durch ID (Immediate Dominance)-Schemata ausgedrückt. Ein ID-Schema ist ein eingeschränktes Saturationsprinzip. Es beschreibt die Dominanz-Beziehung innnerhalb einer Phrase. Wir zeigen die ID-Schemata der HPSG, welche dem gängigen X-bar-Schema entsprechen. Es handelt sich um vier ID-Schemata: (a) A saturated ([SUBCAT<>]) phrase with DTRS value of sort headcomp-struc in which the HEAD-DTR value is a phrasal sign and the COMP- DTRS value is a list of length one. (Pollard & Sag 1994:38) Das ID-Schema (a) läßt sich formulieren als (C steht für COMPlement.): X[SUBCAT<>] à C, X[SUBCAT<C>] bzw. X max à C, X max-1 (b) An almost-saturated (SUBCAT list of length one) phrase with DTRS value of sort head-comp-struc in which the HEAD-DTR value is a lexical sign. (Pollard & Sag, 1994:38) Das ID-Schema (b) läßt sich so kodieren: X[SUBCAT<C>] à C1, C2, X [SUBCAT<C, C1, C2>] bzw. X max-1 à C1, C2, X 0 Mit Schema (a) und (b) läßt sich folgende Struktur ausdrücken: (10) HPSG-Schema: V[ ] C V[C] C1, C2 V [C, C1, C2] Das steht im Einklang mit folgendem X-bar-Schema: (11) X-bar-Schema: V max SPEC V" COMPLs V Um hingegen eine flache Struktur darzustellen, kann das ID-Schema folgendermaßen formuliert werden: (c) A saturated ([SUBCAT<>]) phrase with DTRS value of sort headcomp-struc in which the HEAD-DTR value is a lexical sign. (Pollard & Sag 1994:40) Dies läßt sich so darstellen: X[SUBCAT<>] à C, C1, C2, X [SUBCAT<C, C1,C2>] bzw. X max à C, C1, C2, X 0

13 30 Das wäre eine Struktur folgender Art: (12) V[ ] C1, C2, C3 V [C1,C2,C3] Um ein Adjunkt anzubinden, verwendet die HPSG das MOD-Merkmal: HEAD SYNSEM LOC CAT SUBCAT MOD (1 3) Im MOD-Merkmal eines Modifikators (eines Adjunkts) steht die Information über den Modifikanden, genauer gesagt, über die SYNSEM- Struktur des Modifikanden: (14) X[<C1,C2>] Y[MOD[1] ] [1]X[<C1,C2>] Im Vergleich zur Komplement- oder zur Kopftochter wird ein Modifikator Adjunkt-Tochter genannt. Folgendes ID-Schema sorgt für die Verträglichkeit zwischen einem Modifikator und seinem Modifikanden. Der MOD-Wert einer Adjunkt-Tochter muß mit dem SYNSEM-Wert der Kopf-Tochter identisch sein: (d) A phrase with DTRS value of sort head-adj-structure, such that the MOD value of the adjunct daughter is token-identical to the SYNSEM value of the head daughter. (Pollard & Sag, 1994:56) Zusammenfassend kann mit den ID-Schemata (a), (b), (c) und (d) das komplexe X-bar-Schema ausgedrückt werden:

14 31 (15) X-bar-Schema: ID-Schema der HPSG: XP X[SUBCAT<>] SPEC X' [3] X[SUBCAT<[3]>] ADJU X' Y[MOD[2]] [2]X[SUBCAT<[3]>] COMPLS X [1] X [SUBCAT<[3],[1]>] 2.4 Das Merkmal CONTENT, MOD und das Kontributionsprinzip Das Merkmal CONTENT ist für die semantische Darstellung eines SIGNs bzw. eines sprachlichen Ausdrucks zuständig. Da z.b. die semantischen Formen von Verb und Nomen unterschiedlich sind, sind auch ihre CONTENT-Werte strukturell verschieden. Deshalb wird der CONTENT-Wert in der HPSG klassifiziert bzw. typisiert. Dazu zeigen wir einige Beispiele jeweils für Nomen, Pronomen, Eigennamen und Verb mit unterschiedlichen Typen. 14 Die Bedeutung des Ausdrucks "Mann" ist im Sinne der Referenzsemantik die Eigenschaft, "Mann zu sein", die durch eine einstellige Relation: MANN(x) dargestellt wird. Technisch wird in der HPSG die Variable x durch einen Parameter ausgedrückt und die Relation MANN als eine Restriktion des Parameters gesehen. Der Index [1] stellt eine Variable mit einer Koreferenz dar: Parameter: [1] Relation: mann Restriktion Instanz: [1] (1) Neben der Darstellung von "Mann" als Relation werden in der HPSG auch 14 Die Standard-HPSG geht von typisierten Merkmalstrukturen aus. Diese haben vor allem die Möglichkeit, Strukturen selbst zu spezifizieren. Z.B. läßt sich durch die Typ-Definition, daß eine SIGN-Strukutr nur aus PHON, SYNSEM besteht, eine allgemeine Aussage über alle sprachlichen Ausdrücke machen, daß sie immer eine phonetische, syntaktische-undsemantische Komponente beinhalten. Diese Einschränkung ist auch vorteilhaft für die Konsistenz eines in der HPSG geschriebenen grammatischen Systems. In Kapitel 7 werden wir sehen, daß sich die Typisierung einer Merkmalstruktur durch Makros (auch Template genannt) implementieren läßt (Mehr zu Typsystem und die Implementierung vgl. u.a. Copestake, 1992)

15 32 die Angaben über dessen Numerus, Person und Genus als eine semantische Information unter dem Merkmal CONTENT eingetragen. Der CONTENT des Ausdrucks "Mann" sieht dann insgesamt wie folgt aus: 15 PERS 3rd PARA : [1] NUM sg SYNSEM LOC CONT GEND mask REL MANN RESTPAR { } INST [1] (2) RESTR ist ein mengenwertiges Merkmal, weil in der syntaktischen Ableitung weitere Restriktionen hinzukommen können. Beispielsweise läßt sich der RESTR-Wert für die NP: "ein Mann, der raucht" wie folgt darstellen: (3) RESTR { REL MANN REL RAUCH } INST [1], AGENS [1] Nun kommen wir zur Deutung vom Pronomen. Die Bedeutung des Ausdrucks "sie" ist keine Eigenschaft, sondern drückt eine direkte Referenz aus. Die CONTENT-Matrix dafür sieht wie folgt aus: PERS 3rd SYNSEM LOC CONT PARA : NUM sg GEND fem RESTPAR { } (4) Die Bedeutung eines Eigennamens wird in der HPSG als eine zweistellige Relation gesehen: x wird nach y benannt: NAME(x, y). Deshalb wird der CONTENT für den Eigennamen "Kim" folgendermaßen dargestellt: PERS 3rd PARA : [1] NUM sg GEND... SYNSEM LOC CONT REL naming RESTPAR { BEARER [1] } NAME kim (5) Die Bedeutung eines transitiven Verbs wird als eine zweistellige Relation interpretiert. Das konjungierte Verb "sah" wird durch die Relation SEE(x, y) repräsentiert: REL SEE PERS 3rd SYNSEM LOC CONT EXPER [1] NUM sg THEME [2] (6) 15 ërelí steht für Relation. ërestrí steht für Restriction und ëinstí für Instanz.

16 33 Index [1] bezieht sich dabei auf das syntaktische Subjekt und Index [2] auf das syntaktische Objekt. Hier und auch an folgendem Beispiel ist deutlich zu sehen, daß in der HPSG die Zuweisung semantischer Rollen an syntaktische Argumente durch eine Strukturteilung vorgenommen wird. Die Strukturteilung erfolgt mit einem Index in der SUBCAT-Liste und einem entsprechenden Index im CONTENT-Merkmal: PHON < sah > CAT HEAD verb SYNSEM LOC CAT VFORM fin SUBCAT <NP[nom][1][ 3, sg],np[acc][2]> REL SEE SYNSEM LOC CONT EXPER [1] THEME [2] (7) Die Parallelität zwischen syntaktischen Argumenten und semantischen Rollen ist lexikalisch festgelegt. Beim syntaktischen Aufbau soll der CONTENT-Wert von HEAD-DTR lediglich hochgereicht zu werden. Für das Hochreichen sorgt ein semantisches Prinzip, das sogenannte Kontributionsprinzip: Das Kontributionsprinzip (Vorversion) The CONTENT value of a phrase is token identical to that of the head daughter.( Pollard & Sag, 1994:48) Das Prinzip drückt aus, daß die Mutter den CONTENT-Wert von der Kopftochter übernehmen muß. Folgendes Schema macht dies durch Index [1] deutlich: PHON < > SYNSEM LOC CAT : SYNSEM LOC CONT : [1] CAT : HEAD -DTR SYNSEM LOC DTRS CONT : [1] HEAD COMP: (8) Wenn wir den Bedeutungsaufbau einer NP aus Adjektiv und Nomen (wie rote Blumen ) betrachten, müssen wir feststellen, daß das Kontributionsprinzip oben nicht ausreicht, weil die Bedeutung des Gesamtausdrucks nicht allein aus dem nominalen Kopf "FLOWER(x)", sondern bekannterweise aus den beiden Teilausdrücken kommt, und demzufolge etwa in der Form "RED(x) &

17 34 FLOWER(x)" dargestellt wird. 16 Dabei ist "rot" einerseits eine abhängige syntaktische Konstruktion und andererseits ein paralleles semantisches Prädikat zu "FLOWER". Dieser Bedeutungsaufbau fordert, daß der CONTENT-Wert eines Gesamtausdrucks sowohl die vom Modifikanden gegebenen Relation (z.b. FLOWER) als auch die des Modifikators (d.h. RED) repräsentiert. Dies wird in der HPSG durch das modifizierte semantische Prinzip im Zusammenhang mit dem HEAD-ADJU-Schema realisiert: Das Kontributionsprinzip (Zweite Version) In a headed phrase, the CONTENT value is token-identical to that of the adjunct daughter if the DTRS value is of sort head-adj-struc, and with that of the head daughter otherwise. (vgl. Pollard & Sag, 1994:56) Daraus ist zu ersehen, daß die Gesamtbedeutung einer Phrase (hier: rote Blumen) schon vorher unter dem CONTENT-Wert eines Adjunkts voreingestellt wird, z.b.: RED(x) & REL(x). Dabei ist RED(x) die eigentliche Bedeutung des Adjunkts (rot) und REL(x) eine unspezifische Relation des anzubindenden Nomens. Sobald die Adjunkt-Anbindung zwischen Nomen und Adjunkt vorliegt, wird REL(x) aufgrund des MOD-Merkmal-Prinzips spezifiziert bzw. instanziiert (REL(x) à FLOWER(x)) (zum MOD-Merkmal- Prinzip vgl. (d) in Abschnitt 2.3). Deshalb braucht sich das Kontributionsprinzip nur um den CONTENT-Wert des Adjunkts (also "RED(x) & FLOWER(x)") zu kümmern. In Abschnitt werden wir das Beispiel wiederaufnehmen und ausführlich behandeln. 2.5 Das SPEC Merkmal und das SPEC-Prinzip In den Abschnitten 2.5 und 2.6 wenden wir uns dem Problem der quantifizierten NP zu. In einer quantifizierten Nominalphrase weist einerseits das Nomen die Eigenschaft eines syntaktischen Kopfs (z.b. nominal und mit Kasusinformation) auf (vgl. (1)). Andererseits bindet der Determinator das Nomen (oder genauer, der Determinator als Quantor bindet die Deutung des Nomens als Variable) (vgl. (2)). Das heißt: Einerseits wollen wir das Nomen weiterhin als syntaktischen Kopf behandeln, andererseits wollen wir in der semantischen Darstellung die Bindung durch Quantoren zum Ausdruck bringen, die im HPSG-Format wie folgt aussehen kann (vgl. (3)). Es ist klar, daß die bisherigen Merkmale und Prinzipien nicht ausreichen, um dies auszudrücken. Dafür werden zwei Merkmale SPEC und QSTORE und zwei entsprechende Prinzipien eingeführt. Das Merkmal SPEC bietet einem Determinator schon im Lexikon den Zugang zum nominalen Kopf. Das Merkmal QSTORE zusammen mit einem 16 Es handelt sich um das FREGEsche Prinzip der Bedeutung, daß die Bedeutung eines Ausdrucks sich aus der Bedeutung seiner Teile und der Art ihrer Kombination ergibt (vgl. Frege, 1962).

18 35 QSTORE-Perkolationsprinzip ermöglicht die Perkolation einer Bindung durch den Determinator an den Mutter-Knoten. Das Zusammenwirken von SPEC- Prinzip, QSTORE-Perkolationsprinzip und Kontributionsprinzip ermöglicht dann den syntaktischen und semantischen Aufbau einer quantifizierten Nominalphrase. (1) (2) ForAll x Book(x) NP[nom] DET every N'[nom] N [nom] book DET forall PARA X RESTPAR REL book RESTPAR INST X ( 3) Wir beginnen mit der Einführung des SPEC-Prinzips. Um auszudrücken, daß ein Determinator ein Nomen binden kann, wird das Merkmal SPEC eingeführt. Ein Determinator trägt das Merkmal SPEC unter dem HEAD-Pfad. Der Wert von SPEC ist die ganze SYNSEM-Struktur (eines Nomens). Sei Struktur [1] die SYNSEM-Struktur von every und Struktur [2] die SYNSEM-Struktur von "book". Dann zeigt sich der Zusammenhang zwischen einem Determinator und einem Nomen wie folgt: PHON <every > HEAD: DET[SPEC : [2][Nbar]] [1] SYNSEM LOC CAT SUBCAT < > (4) Struktur [2] ist hier abgekürzt. Sie ist eigentlich die ganze SYNSEM- Struktur eines Nomens: PHON <book > HEAD : noun[nform] [2] SYNSEM LOC CAT SUBCAT <[1]Det > (5) SPEC ist ein Merkmal eines lexikalischen SIGNs. Damit wird die Beziehung zwischen einem Determinator und seinem nominalen Kopf schon lexikalisch vorher festgelegt. Die Konsequenz der Einführung des SPEC-Merkmals kann erst im Zusammenhang mit dem Merkmal QSTORE (s. nächsten Abschnitt) deutlich gemacht werden. An der obigen Merkmalstruktur ist genau zu sehen, daß die Verbindung zwischen einem Determinator und einem Nomen durch das SPEC-Merkmal und das folgende SPEC-Prinzip hergestellt wird: Das SPEC-Prinzip: If a non-head daughter in a headed structure bears a SPEC value, it is token-identical to the SYNSEM of the head daughter. (Pollard

19 36 & Sag, 1994:51) Das SPEC-Prinzip fordert eine Übereinstimmung zwischen dem SPEC- Merkmal der Komplement-Tochter und dem SYNSEM-Merkmal der Kopftochter. Im folgenden konkreten Beispiel heißt es: Der SPEC-Wert von "every" muß identisch mit dem SYNSEM-Wert von "book" sein. Wir zeigen das SPEC-Prinzip durch ein Beispiel mit komplexer Merkmal-Unifikation. Der Lexikoneintrag von "every" und "book" sieht jeweils wie folgt aus: (6) PHON <every > [4] SYNSEM LOC CAT HEAD : DET[SPEC : [6][Nbar:[2]]] SUBCAT < > SYNSEM LOC CONT : [5] DET : forall RESTPAR : [2] PHON <book> [6] SYNSEM LOC CAT HEAD : [3]noun[NFORM] SUBCAT <[4]Det > SYNSEM LOC CONT : [2] PARA [1] RESTPAR RELN book INST [1] Bei einer Unifikation mit den beiden ergibt sich: (7) PHON <every book> [6] SYNSEM LOC CAT HEAD: [3] SUBCAT < > SYNSEM LOC CONT : [2] DTRS HEAD -DTR : [6] SYNSEM LOC CAT : HEAD : [3]noun[NFORM...] SUBCAT <[4]Det> SYNSEM LOC CONT :[2] PARA [1] RESTPAR RELN book INST [1] HEAD -COMP: [4] SYNSEM LOC CAT: HEAD : [4]Det[SPEC: [6][Nbar :[2]]] SUBCAT <> SYNSEM LOC CONT :[5] Det forall RESTPAR [2] An der Unifikation sind vier HPSG-Prinzipien beteiligt: Das Kopfmerkmal- Prinzip und das Kontributionsprinzip haben dafür gesorgt, daß der HEAD-Wert und der CONTENT-Wert der Mutter gleich denen der Tochter sind: die Strukturteilung [3] für das HEAD-Merkmal und die Strukturteilung [2] für das CONTENT-Merkmal. Durch das Saturationsprinzip ist die SUBCAT-Liste der Mutter um ein Element reduziert. Das SPEC-Prinzip überprüft die Identität zwischen SPEC

20 37 von "every" und SYNSEM von "book". Durch die Strukturteilung [2] zwischen dem SPEC der Komplementtochter SPEC:[6] und dem CONTENT der Kopftochter [6]SYNSEM ist die Skopusbindung eines nominalen Kopfs durch einen Quantor ersichtlich. Die Information über die Bindung muß zur phrasalen Ebene hochgereicht werden und die Bindung muß auch dort erfolgen. Wie das in der HPSG realisiert ist, diese Frage soll im nächsten Abschnitt beantwortet werden. 2.6 Das Merkmal QSTORE und das QSTORE-Perkolationsprinzip Das Merkmal QSTORE und das QSTORE-Perkolationsprinzip sorgen für die Perkolation einer Bindung eines Nomens durch einen Determinator. Die Realisierung ist problemlos: Man baut das Merkmal QSTORE in die Merkmalstruktur ein. Für einen Determinator ist der Wert von QSTORE identisch mit dem von CONTENT. Man legt durch ein Prinzip fest, daß der QSTORE-Wert in der syntaktischen Ableitung immer hochgereicht wird. Das QSTORE-Perkolationsprinzip muß man zusätzlich einbauen, weil ein Determinator in einer NP keine Kopftochter ist. Strukturell ist das Merkmal QSTORE den Merkmalen PHON und SYNSEM nebengeordnet. Für "every" sind CONTENT und QSTORE z.b. wie folgt belegt: PHON < every > HEAD : DET[SPEC : [6][Nbar:[2]]] SYNSEM LOC CAT SUBCAT < > [4] DET : forall SYNSEM LOC CONT : [5] RESTPAR : [2] (1) QSTORE : { [5] } Da der CONTENT-Wert des Determinators nicht durch das Kontributions- Prinzip hochgereicht werden kann, weil der Determinator keine Kopftochter ist, bietet sich das Merkmal QSTORE als eine "Umweg"-Möglichkeit. Das QSTORE-Perkolationsprinzip sorgt dafür, daß der CONTENT-Wert durch den Umweg am Ende doch an den Mutterknoten hochgereicht wird: QSTORE-Perkolationsprinzip (QIP, QSTORE Inheritance Principle) The QSTORE value of a phrasal node is the union of the QSTORE values of the daughters, less those quantifiers that are retrieved at that node. (Pollard & Sag 1994:48) Das QSTORE-Perkolationsprinzip besagt: Ein in QSTORE gespeicherter Quantor muß hochgereicht werden, sofern der Skopus des Quantors (also das zu bindende Nomen) nicht erreicht bzw. gefunden (retrieved) wird. Die QSTORE-Perkolation läßt sich nun schematisch wie folgt darstellen:

21 38 (2) PHON < > SYNSEM LOC CAT :... SYNSEM LOC CONT :... QSTORE : {[1] } DTRS HEAD -DTR : SYNSEM LOC CAT :... SYNSEM LOC CONT :... QSTORE : { } HEAD -COMP: SYNSEM LOC CAT :... SYNSEM LOC CONT : [1] QSTORE : {[1]} Hier ist deutlich zu sehen, wie der CONTENT-Wert [1] vom Determinator durch einen Umweg über QSTORE und das QSTORE-Prinzip an den Mutterknoten weitergereicht wird. Das folgende Beispiel soll zusammenfassend zeigen, wie das SPEC-Prinzip, das Kontributionsprinzip und das QSTORE-Perkolationsprinzip zur Skopusbindung einer quantifizierten NP zusammenspielen. Das folgende Beispiel ist das gleiche wie (6) und (7) im vorherigen Abschnitt, außer daß hier das Merkmal QSTORE neu hinzugefügt worden ist und das Perkolationsprinzip interagiert: Zu unifizieren seien zwei SIGNs "every" und "book" aus dem Lexikon: (3) PHON < every > [4] SYNSEM LOC CAT HEAD : DET[SPEC : [6][Nbar:[2]]] SUBCAT < > SYNSEM LOC CONT : [5] DET : forall RESTPAR : [2] QSTORE : { [5] } PHON <book > [6] SYNSEM LOC CAT HEAD : [3]noun[NFORM] SUBCAT <[4]Det > SYNSEM LOC CONT : [2] PARA [1] RESTPAR RELN book INST [1] QSTORE : { } Aus der Unifikation ergibt sich:

22 39 (4) PHON < every book> [6] SYNSEM LOC CAT HEAD: [3] SUBCAT< > SYNSEM LOC CONT: [2] QSTORE : {[5] } DTRS HEAD-DTR : [6] SYNSEM LOC CAT : HEAD: [3]noun[NFORM...] SUBCAT <[4]Det> SYNSEM LOC CONT: [2] PARA [1] RESTPAR RELN book INST [1] QSTORE : { } HEAD- COMP: [4] SYNSEM LOC CAT : HEAD: [4]Det[SPEC: [6][Nbar : [2]]] SUBCAT <> SYNSEM LOC CONT: [5] Det forall RESTPAR [2] QSTORE : {[5] } An der Merkmalstruktur sind die beteiligten Prinzipien abzulesen: Der Wert von SYNSEM LOC CONT [2] in der Phrase kommt aus der HEAD-DTR durch das Kontributionsprinzip; der Wert von QSTORE [5] kommt aus dem HEAD-COMP (oder genauer HEAD-SPR) durch das QSTORE- Perkolationsprinzip; das SPEC-Prinzip sorgt für die richtige strukturelle Beziehung zwischen dem Determinator und dem nominalen Kopf (siehe SPEC [6]). Nun schreiben wir die Struktur SYNSEM LOC CONT von "every book" in die übliche logische Form um. Der Mutterknoten besteht aus folgender Merkmalstruktur (vgl. die AVM oben): (5) PHON: <every book> SYNSEM LOC CAT HEAD: [3] SYNSEM LOC CONT: [2] QSTORE:{ [5] } Wir lösen die Strukturteilung auf: Ersetze Index [2] durch headdtr SYNSEM LOC CONT, (6) book SYNSEM LOC CONT: [2 ] PARA [1] RESTPAR RELN book INST [1] dann ergibt sich:

23 40 PHON <every book > HEAD: [3] SYNSEM LOC CAT SUBCAT< > [6] PARA [1] SYNSEM LOC CONT: [2] RELN book RESTPAR INST [1] Det forall PARA [1] QSTORE: {[5] RESTPAR [2] RELN book } RESTPAR INST [1] (7) DTRS... Die Struktur SYNSEM LOC CONT beinhaltet: Es gibt eine Variable [1] und eine Relation BOOK mit [1] als ihre Instanz. Die Struktur QSTORE beschreibt die Bindung der Variable durch den Quantor FORALL; er bindet die Variable [1] mit einem Skopus innerhalb der Relation BOOK([1]). Das läßt sich direkt umformulieren: forall ([1], book([1])), oder einfach: forall (x, (BOOK- (x))). Das ist das erwünschte Ergebnis Das NONLOCAL Merkmal und das Lückenbindungsschema Wir haben im Abschnitt 2.0 angedeutet, daß die Information über eine Fernabhängigkeitsbeziehung (z.b. durch eine Topikalisierung) nicht unter dem Pfad LOC, sondern unter einem anderen Pfad NONLOC eingetragen werden soll. Was man unter einer Fernabhängigkeit im Gegensatz zur lokalen Abhängigkeit verstehen soll, zeigt uns folgende Strukturdarstellung: (1) 17 Bei einer quantifizierten NP geht es nicht nur um die Quantor-Bindung, sondern auch um die eingebettete logische Wenn-Dann-Struktur (vgl. u.a. Dowty, 1981). Für den Satz "Alle Studenten rauchen" gilt z.b. die übliche logische Darstellung: x(student(x) Rauchen(x)). Für diesen Fall könnte man den Lexikoneintrag erweitern, so daß die "Wenn-dann-Struktur" in den Skopus von ëforallí eingebaut wird.

24 41 (a) S (b)... S NP VP NP[1] S/NP[1] we V NP[1] Kim NP VP/NP[1] know Kim we V NP[1]/NP[1] know - Im ersten Satz "We know Kim" ist die Information über NP[1], u.a. daß NP[1] das syntaktische und semantische Objekt von V ist, lokal. Denn NP[1] wird direkt unter dem Knoten VP an V angebunden und wird nicht weiter hochgereicht. In dem topikalisierten zweiten Satz "Kim we know..." ist die Information über NP[1] unter dem Knoten VP nicht mehr lokal, weil eine phonologisch realisierte NP[1] nicht direkt unter dem Knoten VP an V angebunden werden kann. Die phonologisch leere Stelle von NP[1] nennt man "Lücke". Die Information über NP[1] muß so weit hochgereicht werden, bis die phonologisch realisierte NP[1] gefunden wird. Der Unterschied, daß eine Information einmal lokal relevant ist, und zum anderen nicht lokal, sondern über einen lokalen Baum hinaus relevant ist, wird durch zwei unterschiedliche Merkmale erfaßt: das LOC- und das NONLOC- Merkmal. Die lokal interessante Information wird unter LOC eingetragen, die nicht lokale Information unter NONLOC. Die Angabe darüber, daß eine phonologisch realisierte XP gefunden werden muß, wird in der Darstellung durch "Slash /XP" gekennzeichnet. VP/NP[1] bedeutet nichts anderes als eine VP, für die eine obligatorische NP[1] noch fehlt. S/NP[1] bedeutet erwartungsgemäß ein Satz ohne eine obligatorische NP[1]. An der obigen Strukturdarstelllung ist auch deutlich zu sehen, daß die HPSG für die Fernabhängigkeitsbeziehung mit einer einzigen Repräsentationsebene (d.h. ohne Transformation bzw. Bewegung) auskommt. Fernabhängigkeiten, wie sie bei Konstituentenfragen und Topikalisierungen vorliegen, werden in der HPSG durch das Zusammenwirken einer Merkmalsweitergabe und eines NONLOCAL-Merkmal-Prinzips behandelt. Wir übernehmen an dieser Stelle ein Beispiel für die sogenannte "long distance"- Abhängigkeit von Pollard und Sag. Die Fernabhängigkeit zwischen "Kim" und der Lücke " 1" in dem Satz: "Kim 1, we know Sandy claims Dana hates 1 " läßt sich in der Unifikationsgrammatik wie in (2) darstellen (vgl. Pollard & Sag, 1994:160). Um die Fernabhängigkeitsbeziehung formal behandeln zu können, stellen sich folgende Probleme: Wo wird die Angabe über eine Lücke im SIGN eingetragen? Wie wird die Lücke erzeugt? Welches Prinzip steuert die Weitergabe einer Lücke-Information und wann und wie wird die Lücke gebunden?

25 42 Wie schon erwähnt, ist das Merkmal NONLOC für die Angabe über eine Lücke zuständig. In der HPSG besteht NONLOC aus einer Merkmalstruktur mit den Merkmalen INHERITED und TO-BIND. Das Merkmal INHERITED enthält eine Angabe über eine Lücke, die von unten hochgereicht wird. TO- BIND gibt an, womit die Lücke gebunden wird. Wir zeigen zuerst in (3) eine vereinfachte Struktur von NONLOC. Unter INHERITED werden die hochgereichten bzw. vererbten Lücken gesammelt. Unter TO-BIND werden die an der fraglichen Stelle zu bindenden Lücken eingetragen. In der Baumdarstellung soll unter dem Knoten NP[1]/NP[1] und unter dem Knoten S/NP[1] z.b. jeweils die NONLOC-Merkmalstruktur (4) und (5) stehen. S NP[1] S/NP[1] Kim NP we VP/NP[1] V know... S/NP[1] NP VP/NP[1] Sandy V S/NP[1] claims NP Dana VP/NP[1] V NP[1]/NP[1] hates - [ ] INHERITED SLASH { } NONLOC TO BIND [ SLASH { }] (3) Die NONLOC-Merkmalstruktur Eine vollständige NONLOC-Merkmalstruktur in der HPSG sind mit QUE, REL und SLASH versehen. Die Merkmale QUE und REL sind jeweils für WH-Frage und Relativ- Konstruktion zuständig, welche auch eine Fernabhängigkeits-beziehung aufweisen (vgl. Pollard & Sag, 1994:208 ff.). Im Chinesischen gibt es keine Voranstellung für WH-Fragen und Relativsätze. Typologisch nennt man eine derartige Fragebildung "In-Situ-WH-Fragen". Demzufolge sind die Merkmale unter NONLOC hier nicht relevant.

26 43 (4) unter NP[1]/NP[1]: (5) unter S]/NP[1]: NONLOC INHERITEDSLASH{NP[1]} [ ] NONLOC INHERITEDSLASH{NP[1]} [ ] TO BINDSLASH [ {}] TO BIND SLASH {NP[1]} [ ] Wir haben eben gezeigt, daß die Lücke-Information in NONLOC - INHERITED eingetragen wird. Daraufhin stellt sich die weitere Frage, wie und wo eine Lücke erzeugt wird. Eine Lücke wird erzeugt, wenn ein bestimmtes Komplement in seiner Grundposition nicht gefunden werden kann: (6) VP [INHER SLASH {[1]} ] V [INHER SLASH {[1]} ] know - Die Grundposition von "Kim" ist die Stelle hinter "know". In unserem Beispiel ist das Objekt nicht vorhanden. An dieser Stelle muß dann eine Lücke erzeugt werden. Das Erzeugen einer Lücke bedeutet in der HPSG die Suche nach einem bestimmten Eintrag, nämlich nach dem Lücke-Eintrag. Denn in der HPSG ist die Lücke auch ein Lexikoneintrag. Sie ist ein Eintrag ohne phonologischen, syntaktischen und semantischen Inhalt aber mit einer Koreferenz zwischen dem Merkmal LOC und dem Merkmal SLASH (vgl. Pollard & Sag 1994:164): PHON < > LOC: [1] SYNSEM INHERTED[ SLASH {[1]}] NONLOC TO BIND [ SLASH { }] (7) Die Aufgabe des Eintrags ist, die Forderung des Kopfelements (hier: hates) an das Lücke-Element zu speichern, um das mit dem später gefundenen topikalisierten Element (hier: Kim) zu vergleichen bzw. zu unifizieren. Diesen Vorgang zeigen wir mit dem einfachen Beispiel (1b). Die Forderung des Kopfelements "know" an das Lücke-Element ist: Das Element muß ein Nomen im Akkusatuiv sein: NP[akk]. Diese Information steht unter LOC durch eine Unifikation mit dem Kopfverb und dem Lückeneintrag (7): (8)

27 44 VP V [ LOC [1]NP[acc] ] know - Durch die Koreferenz mit dem Lücken-Eintrag, bekommt das Merkmal NONLOC dieselbe Information NP[akk] wie in (9). Genauer sieht die Lücke nun wie in (10) aus. Durch ein bestimmtes Vererbungsprinzip (siehe (11)) wird die Information NP[acc] so weit vererbt, bis das bindende, topikalisierte Element (der sogenannte Filler) gefunden wird. In diesem Moment werden dann der Filler und die Gap verglichen bzw. unifiziert (siehe (12)). (9) VP V [ LOC [1]NP[acc] ] [ INHER SLASH { [1]NP[acc]} ] know - (10) (11) PHON < > LOC: [1]NP[acc] SYNSEM INHERTED[ SLASH {[1]NP[acc]}] NONLOC TO BIND [ SLASH { }]... VP[ INHER SLASH {[1]NP[acc]} ] (12) V [ LOC [1]NP[acc] ] [ INHER SLASH { [1]NP[acc]} ] know -

28 45 S NP [LOC:[1]] VP [INHER SLASH {[1]NP[acc]}] [TO-BIND SLASH{[1]} ] Kim NP we VP[ INHER SLASH {[1]NP[acc]} ] V [ LOC [1]NP[acc] ] know [ INHER SLASH { [1]NP[acc]} ]... Das Vererbungsprinzip wird das NONLOC-Merkmal-Prinzip genannt: Das NONLOCAL-Merkmal-Prinzip: For each nonlocal feature, the INHERITED value on the mother is the union of the INHERITED value on the daughters minus the TO-BIND value on the head daughter. (Pollard & Sag 1994:164) Das Prinzip verlangt nichts anderes, als die Lücke-Informationen so weit hochzureichen, bis der Filler gefunden wird. Beim Aufbau einer Phrase, wenn der TO-BIND-Wert der Kopftochter leer ist, wird die Lücke-Information hochgereicht: Der INHERITED-Wert der Mutter ist eine Vereinigungsmenge von INHERITED der Kopftochter und der Komplement-Töchter. Wenn der TO-BIND-Wert der Kopftochter aber nicht leer ist, dann wird die INHERITED-Information der Kopftochter nicht mehr hochgereicht. Damit findet eine sogenannte Lückenbindung statt. 19 (13) 19 Das Merkmal TO-BIND dient eigentlich dazu, ein SLASH-Merkmal durch die Schnittmenge mit TO-BIND zu reduzieren, wenn ein Filler gebunden wird. Aber die Frage, wann das TO-BIND-Merkmal eingeführt wird, ist in der HPSG-Theorie nicht konsequent geklärt. Es ist nicht vorstellbar, das Merkmal im Lexikoneintrag einzuführen, weil dann das NONLOC-Merkmal-Prinzip wegen der Schnittmenge von NON-LOC und TO-BIND nicht konsistent funktioniert. Man muß davon ausgehen, daß das TO-BIND-Merkmal in einer bestimmten syntaktischen Regel (X à Filler X/Filler) explizit eingeführt wird, wo der Filler gerade gebunden werden soll.

29 46 S NP [LOC:[1]] VP [INHER SLASH {[1]NP[acc]}] [TO-BIND SLASH{[1]} ] Kim NP we VP[ INHER SLASH {[1]NP[acc]} ] V [ INHER SLASH { [1]NP[acc]} ] know Eine Lückenbindung erfolgt durch eine konkrete Regel, die sich in folgendem Schema repräsentieren läßt: Die Filler-Head-Regel (Pollard & Sag 1994:164) a) X à [LOCAL [1] ], S[fin, INHER SLASH {[1],...}, TO-BIND SLASH {[1],...}] FILLER HEAD FILLER DTR SYNSEM LOC :[1] COMP DTR : <> DTRS HEAD : verb[vform fin] LOC SUBCAT <> HEAD DTR SYNSEM INHERTED [ SLASH {[1]}] NONLOC TO BIND [ SLASH {[1]}] b) Um die Information über eine Lücken-Bindung zu speichern, wird der Filler, welcher mit einer Lücke gebunden ist, unter dem Merkmal FILLER-DTR gespeichert (siehe Schema oben). Die Fernabhängigkeit in Beispiel (2) läßt sich dann formal wie folgt erfassen: (14)...

30 47 S [INHER SLASH { } ] [TO-BIND SLAS H{ }] NP [LOC:[1]] VP [INHER SLASH {[1]NP[acc]}] [TO-B IND SLASH{[1]} ] Kim NP we VP [ INHER SLASH {[1]NP[acc]} ] V S [ INHER SLASH { [1]NP[acc]} ] k now NP VP [ INHER SLASH { [1]NP[acc]} ] Sandy V claims S [ INHE R SLAS H { [1]NP[acc]} ] NP Dana VP [ INHER SLASH { [1]NP[acc]} ] V hates [ LOC [1]NP[acc] ] [ INHER SLASH { [1]NP[acc]} ] Als Antwort auf die oben gestellte Frage fassen wir die Darstellung kurz zusammen: Die Angabe über Lücken ist unter dem Merkmal INHER SLASH gespeichert. Eine Lücke wird als ein Lexikoneintrag aufgefaßt. Das NONLOC- Merkmal-Prinzip sorgt für die Weitergabe von Lücken und die Lückenbindung. -

Gliederung. Kongruenz Kasus Der Verbalkomplex Kohärenz, Inkohärenz, Anhebung und Kontrolle Passiv Partikelverben Morphologie

Gliederung. Kongruenz Kasus Der Verbalkomplex Kohärenz, Inkohärenz, Anhebung und Kontrolle Passiv Partikelverben Morphologie Nichtlokale Abhängigkeiten Gliederung Wiederholung Wozu Syntax? / Phrasenstrukturgrammatiken Formalismus Valenz und Grammatikregeln Komplementation Topologie des deutschen Satzes Konstituentenreihenfolge

Mehr

Einführung in unifikationsbasierte Grammatikformalismen

Einführung in unifikationsbasierte Grammatikformalismen Universität Potsdam Institut für Linguistik Computerlinguistik Einführung in unifikationsbasierte Grammatikformalismen Thomas Hanneforth head: VP form: finite subj: pers: 3 num: pl Merkmalsstrukturen:

Mehr

Quantoren und Quantifikation

Quantoren und Quantifikation Quantoren und Quantifikation Anna Hackenholt Anna.Hackenholt@uni-duesseldorf.de Head-driven Phrase Structure Grammar Heinrich Heine Universität Dozent: Frank M. Richter Heutige Ziele Verwendung von Quantoren

Mehr

Eine Erweiterung der kontextfreien Grammatiken: PATR-II

Eine Erweiterung der kontextfreien Grammatiken: PATR-II Eine Erweiterung der kontextfreien Grammatiken: PATR-II Das ursprüngliche Problem war: Wie kann man strukturelle Information (Phrasenstruktur) von anderen grammatischen Informationen (wie Kongruenz, Rektion

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Merkmalstrukturen und Unifikation Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Formale Komplexität natürlicher Sprachen WS 03/04 Universität Potsdam Institut

Mehr

Head-Driven Phrase Structure Grammar für das Deutsche Der Formalismus. Gliederung

Head-Driven Phrase Structure Grammar für das Deutsche Der Formalismus. Gliederung Der Formalismus Gliederung Ziele Wozu Syntax? / Phrasenstrukturgrammatiken Formalismus Valenz und Grammatikregeln Komplementation Semantik Adjunktion und Spezifikation Das Lexikon: Typen und Lexikonregeln

Mehr

Ausgewählte Techniken der Maschinellen Übersetzung. Susanne J. Jekat ZHW Subject: MTZH

Ausgewählte Techniken der Maschinellen Übersetzung. Susanne J. Jekat ZHW   Subject: MTZH Ausgewählte Techniken der Maschinellen Übersetzung Susanne J. Jekat ZHW E-mail: jes@zhwin.ch, Subject: MTZH Übersicht Themenbereiche: 1. Erstellung und Standardisierung von Ressourcen für die Maschinelle

Mehr

Die Signatur von (Pollard & Sag 1994)

Die Signatur von (Pollard & Sag 1994) WS 08/09 30. Oktober 2008 Frank Richter: Algorithmische Syntax Die Signatur von (Pollard & Sag 1994) An dieser Stelle fassen wir die Signatur zusammen, die wir unserer Diskussion im Seminar zugrundegelegt

Mehr

Eine unifikations-basierte Grammatik für das moderne Chinesisch, dargestellt in der HPSG

Eine unifikations-basierte Grammatik für das moderne Chinesisch, dargestellt in der HPSG Eine unifikations-basierte Grammatik für das moderne Chinesisch, dargestellt in der HPSG Dissertation Zur Erlangung des akademischen Grades des Doktors der Philosophie an der Universität Konstanz, Philosophische

Mehr

Grammatiktheorie: Merkmale, Merkmalstrukturen, Unifikation, Unifikationsgrammatiken

Grammatiktheorie: Merkmale, Merkmalstrukturen, Unifikation, Unifikationsgrammatiken Grammatiktheorie: Merkmale, Merkmalstrukturen, Unifikation, Unifikationsgrammatiken Einführungskurs Syntax und Morphologie 11. Vorlesung Merkmale Das Wort 'Merkmal' bedeutet im Prinzip soviel wie 'Eigenschaft'

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Syntax: Merkmalsstrukturen WS 2014/2015 Vera Demberg Eigenschaften der syntaktischen Struktur [1] Er hat die Übungen gemacht. Der Student hat die Übungen gemacht. Der

Mehr

LFG-basierter Transfer

LFG-basierter Transfer Inhaltsverzeichnis 1 2 2 Ein Beispiel 4 3 Strukturaufbau 7 4 Alternative Übersetzungen 8 5 Adjunkte 9 6 Kodeskription 10 http://www.ims.uni-stuttgart.de/ gojunaa/mue_tut.html 1 1 Um einen quellsprachlichen

Mehr

Karl Heinz Wagner

Karl Heinz Wagner PATR II Funktionale Beschreibungen Der PATR II Formalismus Auch für PATR II gilt Sprachliche Ausdrücke werden durch funktionale Beschreibungen oder Deskriptionen (engl. functional descriptions,, FD beschrieben

Mehr

Sprachproduktion: grammatische Enkodierung nach Levelt 1989 bzw. Kempen & Hoenkamp 1987

Sprachproduktion: grammatische Enkodierung nach Levelt 1989 bzw. Kempen & Hoenkamp 1987 Sprachproduktion: grammatische Enkodierung nach Levelt 989 bzw. Kempen & Hoenkamp 987 dargestellt nach Schade & Eikmeyer 2003: Produktion von Syntagmen. In: Rickheit, G., Herrmann, T. & Deutsch, W.: (eds)

Mehr

Probeklausur: Einführung in die formale Grammatiktheorie

Probeklausur: Einführung in die formale Grammatiktheorie Probeklausur: Einführung in die formale Grammatiktheorie Prof. Dr. Stefan Müller Deutsche Grammatik Freie Universität Berlin Stefan.Mueller@fu-berlin.de 16. Juli 2016 Name und Vorname: Matrikelnummer:

Mehr

Stefan Müllers HPSG-Grammatik für das Deutsche:

Stefan Müllers HPSG-Grammatik für das Deutsche: Seminararbeit Stefan Müllers HPSG-Grammatik für das Deutsche: Grundbegriffe, Dominanzstrukturen, Konstituentenreihenfolge Thema und Zeitpunkt des Seminars: Syntaxtheorien und computerlinguistische Praxis

Mehr

Grammatikformalismen SS 2007 Ausgewählte Musterlösungen Schreiben Sie eine LFG-Grammatik, die Sätze der folgenden Form erkennt:

Grammatikformalismen SS 2007 Ausgewählte Musterlösungen Schreiben Sie eine LFG-Grammatik, die Sätze der folgenden Form erkennt: Grammatikformalismen SS 2007 Ausgewählte usterlösungen 1 LFG Übungsblatt LFG 1 1. Schreiben Sie eine LFG-Grammatik, die Sätze der folgenden Form erkennt: (1) Der Lehrer schläft. (2) Sie schenkt dem Lehrer

Mehr

HPSG. Referat zu dem Thema Kongruenz im Englischen Von Anja Nerstheimer

HPSG. Referat zu dem Thema Kongruenz im Englischen Von Anja Nerstheimer HPSG Referat zu dem Thema Kongruenz im Englischen Von Anja Nerstheimer Gliederung Einleitung Kongruenz Allgemein Zwei Theorien der Kongruenz Probleme bei ableitungsbasierenden Kongruenztheorien Wie syntaktisch

Mehr

Übungsaufgaben. Eine kontextfreie Grammatik lässt sich formal als Quadrupel darstellen: D : der, das N : Hund, Kaninchen V : sieht, beißt

Übungsaufgaben. Eine kontextfreie Grammatik lässt sich formal als Quadrupel darstellen: D : der, das N : Hund, Kaninchen V : sieht, beißt Universität Bielefeld 25. Juni 2006 Fakultät für Linguistik und Literaturwissenschaft Formale Methoden der Linguistik III Veranstalter: Dieter Metzing Sommersemester 2006 Übungsaufgaben 1. (a) Welche Bestandteile

Mehr

Grammatikanalyse. Prof. Dr. John Peterson. Sprechstunde: Montags, 14:30-15:30h Raum LS10/Raum 425. Sommersemester 2015 Donnerstags, 14:15h-15:45h

Grammatikanalyse. Prof. Dr. John Peterson. Sprechstunde: Montags, 14:30-15:30h Raum LS10/Raum 425. Sommersemester 2015 Donnerstags, 14:15h-15:45h Grammatikanalyse Sommersemester 2015 Donnerstags, 14:15h-15:45h Prof. Dr. John Peterson Sprechstunde: Montags, 14:30-15:30h Raum LS10/Raum 425 1 Termin Thema 16.4. Einführung Zerlegung des Satzes in seine

Mehr

Zur Struktur der Verbalphrase

Zur Struktur der Verbalphrase Zur Struktur der Verbalphrase Ein formales Kriterium zur Verbklassifikation: V ist ein intransitives Verb (ohne Objekte) schlafen, arbeiten, tanzen,... (1) Klaus-Jürgen schläft. V ist ein transitives Verb

Mehr

Funktionale-Grammatik

Funktionale-Grammatik Lexikalisch-Funktionale Funktionale-Grammatik Formaler Aufbau der F-Strukturen Funktionale Beschreibungen Funktionale Annotationen Von der K-Struktur zur F-Struktur Architektur der LFG Grammatik Erweiterte

Mehr

Merkmalsstrukturen. Merkmalsstrukturen. Merkmalsstrukturen (MS):

Merkmalsstrukturen. Merkmalsstrukturen. Merkmalsstrukturen (MS): (MS): Verbreiteter Formalismus in der Computerlinguistik. Ausführlich untersucht und beschrieben, (zumindest im Kern) auf MS basierende Ansätze: Categorical Unification Grammar [Uszkoreit, 1986] Functional

Mehr

Für die Produktion dieser Äußerung müssen unter anderen folgende syntaktische Schemata bzw. Schemastrukturen instanziert werden:

Für die Produktion dieser Äußerung müssen unter anderen folgende syntaktische Schemata bzw. Schemastrukturen instanziert werden: 8.2 Operationen zur Produktion eines einfachen Satzes Im Folgenden soll die Instanzierung einiger wichtiger syntaktischer Schemata beschrieben werden, die häufig an der Produktion eines einfachen spanischen

Mehr

Computerlexikographie-Tutorium

Computerlexikographie-Tutorium Computerlexikographie-Tutorium 18.04.2008 Thema für heute: lexikalische Regeln nach Daniel Flickinger Computerlexikographie PS, Ruprecht-Karls-Universität Heidelberg, SS08 Dozentin: Claudia Kunze ~*~ Tutorin:

Mehr

Eine formale Beschreibung der Gebärdensprache mit HPSG

Eine formale Beschreibung der Gebärdensprache mit HPSG Eine formale Beschreibung der Gebärdensprache mit HPSG Jan Bungeroth Lehrstuhl für Informatik VI RWTH Aachen J. Bungeroth Eine formale Beschreibung der Gebärdensprache mit HPSG 31.10.2003 1 Überblick Einleitung

Mehr

Sie gab das Buch ihrer Schwester.

Sie gab das Buch ihrer Schwester. Linguistische Kriterien für kontextfreie Grammatiken Zerlegung eines Satzes in Konstituenten gemäß Austausch-, Verschiebe- und Weglaßprobe Dies ist ein Beispiel. Beschreibungsmöglichkeiten: 1. S Pron V

Mehr

Bindungs-Theorie. Bindungs-Theorie. R-Ausdrücke. Anapher. Pronomen. Antezedens

Bindungs-Theorie. Bindungs-Theorie. R-Ausdrücke. Anapher. Pronomen. Antezedens Bindungs-Theorie Bindungs-Theorie Die Relationen zwischen Pn Beschreibt die Beschränkungen über die strukturellen Relationen zwischen omen. Unterscheidung von drei Typen von omen: R-Ausdrücke (Eigennamen,

Mehr

Syntax natürlicher Sprachen

Syntax natürlicher Sprachen Syntax natürlicher Sprachen 06: Merkmalstrukturen Martin Schmitt Ludwig-Maximilians-Universität München 29.11.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 29.11.2017 1 Themen der heutigen Übung

Mehr

Semantik: Semantik von Merkmalsstrukturen

Semantik: Semantik von Merkmalsstrukturen Spezielle Themen der KI : von Subsumption Notation: t 1 t 2 Definition: Eine Merkmalsstruktur t 1 subsumiert eine Merkmalsstruktur t 2 gdw. die Menge der von t 2 beschriebenen Elemente eine Teilmenge der

Mehr

vowel Ausschluss unbeabsichtigter Unifikationsresultate gen neutr Effektivierung

vowel Ausschluss unbeabsichtigter Unifikationsresultate gen neutr Effektivierung Sprachorientierte KI: Syntax und Parsing Syntax als Untersuchungsgegenstand Wortartendisambiguierung Phrasenstrukturgrammatiken Parsing mit Phrasenstrukturgrammatiken Restringierte Phrasenstrukturgrammatiken

Mehr

2. Überlegen Sie, ob folgende Sprache vom gleichen Typ sind (m, n 1): Ordnen Sie die Sprachen jeweils auf der Chomsky-Hierarchie ein.

2. Überlegen Sie, ob folgende Sprache vom gleichen Typ sind (m, n 1): Ordnen Sie die Sprachen jeweils auf der Chomsky-Hierarchie ein. Musterlösung Übung 1 Formale Grammatiken 1. Schreiben Sie eine Grammatik für die Sprache a m b c n d m (m, n 1). Ordnen Sie die Sprache auf der Chomsky-Hierarchie ein und begründen Sie, warum (a) eine

Mehr

Syntax III. Joost Kremers WS

Syntax III. Joost Kremers WS Syntax WS 2009 12.11.2009 Aufgaben Kapitel 3 Aufgabe 3.1 n Standard-G&B-Analysen enthält die das erb und das interne Argument, während das externe Argument im Grunde ein Argument des Satzes (P) ist und

Mehr

Funktionale-Grammatik

Funktionale-Grammatik Lexikalisch-Funktionale Funktionale-Grammatik Architektur der LFG K-Strukturen F-Strukturen Grammatische Funktionen Lexikon Prädikat-Argument-Strukturen Lexikonregeln Basiskomponente PS Regeln Lexikon

Mehr

VP vs.?p. N V P N? N P N V Peter kommt nach Hause...dass Peter nach Hause kommt. Syntax V 2

VP vs.?p. N V P N? N P N V Peter kommt nach Hause...dass Peter nach Hause kommt. Syntax V 2 Syntax V Rechts- vs. Links-Köpfigkeit VL-Sätze als grundlegende Muster funktionale Kategorien IP/CP zum Nachlesen: Grewendorf/Hamm/Sternefeld: Sprachliches Wissen, S. 213-223, Kap. 7.1., 7.2 Syntax V 1

Mehr

Einführung in die Sprachwissenschaft des Deutschen Syntax IV. PD Dr. Alexandra Zepter

Einführung in die Sprachwissenschaft des Deutschen Syntax IV. PD Dr. Alexandra Zepter Einführung in die Sprachwissenschaft des Deutschen Syntax IV PD Dr. Alexandra Zepter Überblick Syntax 1. Fokus auf linearer Ordnung: Sprachtypen, Topologisches Feldermodell 2. Fokus auf hierarchischer

Mehr

Teil II: Phrasen und Phrasenstruktur

Teil II: Phrasen und Phrasenstruktur Teil II: Phrasen und Phrasenstruktur Übersicht: Grammatische Funktionen Kategorien Konstituenten & Strukturbäume Konstituententest Endozentrizität 1 Einfacher Satzbau Drei allgemeine Grundfragen der Syntax:

Mehr

Head-driven Phrase Structure Grammar

Head-driven Phrase Structure Grammar Institut für Informatik Sommersemester 2000 der Universität Zürich Computerlinguistik Head-driven Phrase Structure Grammar Eine Einführung in Seminararbeit im Rahmen des Seminars bei Prof. Dr. M. Hess,

Mehr

Sprachorientierte KI: Syntax und Parsing. Constraint-basierte Grammatiken. Getypte Merkmalstrukturen. Getypte Merkmalstrukturen

Sprachorientierte KI: Syntax und Parsing. Constraint-basierte Grammatiken. Getypte Merkmalstrukturen. Getypte Merkmalstrukturen Sprachorientierte KI: Syntax und Parsing Syntax als Untersuchungsgegenstand Wortartendisambiguierung Phrasenstrukturgrammatiken Parsing mit Phrasenstrukturgrammatiken Restringierte Phrasenstrukturgrammatiken

Mehr

Syntax und Morphologie

Syntax und Morphologie Syntax und Morphologie Einführungskurs 8. Vorlesung Strukturanalyse Aufgabe der syntaktisch-funktionalen Analyse ist es, alle Informationen bereitzustellen, die es der semantischen Analyse ermöglichen,

Mehr

Syntax III. Joost Kremers WS

Syntax III. Joost Kremers WS Syntax III WS 2009 27.11.2009 Kapitel 6: Phrasenstruktur X -Theorie X -Theorie wurde entwickelt, um eine Redundanz in der Phrasenstrukturgrammatik zu beheben. Das ursprüngliche X -Schema sah wie folgt

Mehr

Einführung in die Sprachwissenschaft des Deutschen. Syntax IV. PD Dr. Alexandra Zepter

Einführung in die Sprachwissenschaft des Deutschen. Syntax IV. PD Dr. Alexandra Zepter Einführung in die Sprachwissenschaft des Deutschen Syntax IV PD Dr. Alexandra Zepter Überblick Syntax Fokus auf linearer Ordnung: Sprachtypen, Topologisches Feldermodell Fokus auf hierarchischer Ordnung:

Mehr

Stefan Lotze Seminar: Grundlagen der deutschen Grammatik (Satz I, Teil II) Winter 2017/18

Stefan Lotze Seminar: Grundlagen der deutschen Grammatik (Satz I, Teil II) Winter 2017/18 1 Stefan Lotze Seminar: Grundlagen der deutschen Grammatik (Satz, Teil ) Winter 2017/18 Y nfinitive : PRO Theorie (Fragenkatalog) A Warum nimmt man in manchen nfinitivkonstruktionen ein leeres Subjekt

Mehr

Vorlesung 7: LFG I. Einführung, c- und f-strukturen

Vorlesung 7: LFG I. Einführung, c- und f-strukturen Vorlesung 7: LFG I. Einführung, c- und f-strukturen Dozent: Gerold Schneider Übersicht Die Behandlung überkreuzender Abhängigkeiten Transformationen Diskontinuierliche Grammatiken Argumentskomposition

Mehr

Teil 111. Chart-Parsing

Teil 111. Chart-Parsing Teil 111 Chart-Parsing 102 Die im ersten Teil des Buches behandelten einfachen Parsingalgorithmen sind, anders als die meisten vor allem im Compilerbau verwendeten Algorithmen (z.b. die LLoder LR-Parsingalgorithmen),

Mehr

Syntax natürlicher Sprachen

Syntax natürlicher Sprachen Syntax natürlicher Sprachen 05: Dependenz und Valenz Martin Schmitt Ludwig-Maximilians-Universität München 22.11.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 22.11.2017 1 Themen der heutigen Übung

Mehr

Syntax 6: Rektion und Bindung Zwischen dem Kopf und seinen Argumenten besteht ein Abhängigkeitsverhältnis:

Syntax 6: Rektion und Bindung Zwischen dem Kopf und seinen Argumenten besteht ein Abhängigkeitsverhältnis: Einführung in die Sprachwissenschaft Jan Eden Syntax 6: Rektion und Bindung Zwischen dem Kopf und seinen Argumenten besteht ein Abhängigkeitsverhältnis: (1) a. Er bezichtigt seinen Kompagnon des Mordes.

Mehr

Was machen wir in diesem Kurs? Einführung in die Grammatikentwicklung. Head-Driven Phrase Structure Grammar (Hintergrund)

Was machen wir in diesem Kurs? Einführung in die Grammatikentwicklung. Head-Driven Phrase Structure Grammar (Hintergrund) Einführung in die Grammatikentwicklung Stefan Müller Was machen wir in diesem Kurs? Kennelernen eines Grammatikentwicklungssystems Lernen, wie man Grammatiken mit getypten Merkmalsbeschreibungen formalisiert

Mehr

Organisatorisches. c Stefan Müller 2016, FU Berlin, Philosophie und Geisteswissenschaften, Deutsche Grammatik 3/267. Organisatorisches.

Organisatorisches. c Stefan Müller 2016, FU Berlin, Philosophie und Geisteswissenschaften, Deutsche Grammatik 3/267. Organisatorisches. Organisatorisches Organisatorisches: Maillisten und Sprechzeiten Stefan Müller Deutsche Grammatik Institut für Deutsche und Niederländische Philologie Fachbereich Philosophie und Geisteswissenschaften

Mehr

16. BEGLEITBLATT. 13 Kapitel : The Structure of the Lexicon Introduction Lexemes

16. BEGLEITBLATT. 13 Kapitel : The Structure of the Lexicon Introduction Lexemes Dr. Daniel Schnorbusch PSV Syntax- Begleitblätter WiSe 2012/2013 104 16. BEGLEITBLATT 13 Kapitel : The Structure of the Lexicon 13.1 Introduction HPSG-Strategie: relativ viel syntaktische und semantische

Mehr

Ivana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Syntax. Sarah Bosch,

Ivana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Syntax. Sarah Bosch, Ivana Daskalovska Willkommen zur Übung Einführung in die Computerlinguistik Syntax Wiederholung Aufgabe 1 Was ist Syntax und womit beschäftigt sie sich? 3 Aufgabe 1 Was ist Syntax und womit beschäftigt

Mehr

a) Erklären Sie, was eine SOV Sprache ist und was eine V2 Sprache ist. b) Welche Wortstellungsmuster sind eher selten in Sprachen der Welt?

a) Erklären Sie, was eine SOV Sprache ist und was eine V2 Sprache ist. b) Welche Wortstellungsmuster sind eher selten in Sprachen der Welt? Syntax 1) Wortstellung a) Erklären Sie, was eine SOV Sprache ist und was eine V2 Sprache ist. Unter SOV Sprachen verstehen wir all jene Sprachen, die als Grundwortstellung die Reihenfolge Subjekt (S) Objekt

Mehr

Hubert Haider Die Struktur der deutschen Nominalphrase

Hubert Haider Die Struktur der deutschen Nominalphrase Hubert Haider Die Struktur der deutschen Nominalphrase 1. Grundlegende Bemerkungen zur deutschen Nominalphrase 1.1 Rechtsverzweigung: Wie im Englischen ist die Struktur der deutschen Nominalphrase rechtsverzweigend

Mehr

11. BEGLEITBLATT. 9 Complex Feature Values. 9.1 Introduction. 9.2 Complements

11. BEGLEITBLATT. 9 Complex Feature Values. 9.1 Introduction. 9.2 Complements Dr. Daniel Schnorbusch PSV Syntax- Begleitblätter WiSe 2012/2013 67 11. BEGLEITBLATT 9 Complex Feature Values 9.1 Introduction Themen des 4. Kapitel sind: (i) (ii) (iii) (iv) (v) die Komplementierungseigenschaften

Mehr

Parsing von unifikationsbasierten Grammatikformalismen

Parsing von unifikationsbasierten Grammatikformalismen Parsing von unifikationsbasierten Grammatikformalismen Vorlesung Grammatikformalismen Alexander Koller. Juli 016 Parsing Warum kann man kfgen in polynomieller Zeit parsen, wenn doch jeder Substring exponentiell

Mehr

Linguistische Grundlagen 6. Semantik

Linguistische Grundlagen 6. Semantik Linguistische Grundlagen 6. Semantik Gereon Müller Institut für Linguistik Universität Leipzig www.uni-leipzig.de/ muellerg Gereon Müller (Institut für Linguistik) 04-006-1001: Linguistische Grundlagen

Mehr

Algorithmen und Formale Sprachen

Algorithmen und Formale Sprachen Algorithmen und Formale Sprachen Algorithmen und formale Sprachen Formale Sprachen und Algorithmen Formale Sprachen und formale Algorithmen (formale (Sprachen und Algorithmen)) ((formale Sprachen) und

Mehr

Nissenbaum (2000): Parasitäre Lücken und leere Operatoren (Teil I)

Nissenbaum (2000): Parasitäre Lücken und leere Operatoren (Teil I) Universität Leipzig 13.12.11 Institut für Linguistik Lok. Modellierung nicht-lok. Abhängigkeiten Katja Barnickel Müller/Heck WS 11/12 Nissenbaum (2000): Parasitäre Lücken und leere Operatoren (Teil I)

Mehr

Head-Driven Phrase Structure Grammar (HPSG), Teil 2

Head-Driven Phrase Structure Grammar (HPSG), Teil 2 Head-rven Prase Structure Grammar (HPSG), Tel Vorlesung Grammatkformalsmen Alexander Koller 8. Jul 0 Grundlegende Typen sgn lst strng local category ead ead valence...... content... context... non-local...

Mehr

Diskursrepräsentationstheorie. Th H

Diskursrepräsentationstheorie. Th H Diskursrepräsentationstheorie Th H Einführung in die Diskursrepräsentationstheorie Zentraler Gegenstand der Diskursrepräsentationstheorie (DRT) sind sog. Diskurse Abfolgen von Deklarativsätzen. Die DRT

Mehr

Karl Heinz Wagner

Karl Heinz Wagner Architektur der LFG Lexikalisch-Funktionale Funktionale-Grammatik Grammatik Erweiterte PG Grammatik Lexikon Lexikonregeln Formaler Aufbau der F Funktionale Beschreibungen Funktionale zur F-trukturF K-trukturen

Mehr

Slot Grammar Eine Einführung

Slot Grammar Eine Einführung Slot Grammar Eine Einführung München, 4. Dez. 2002 Gerhard Rolletschek gerhard@cis.uni-muenchen.de 1 ! Entstehungskontext Übersicht! Elemente der Slot Grammar (Was ist ein Slot?)! Complement Slots vs.

Mehr

Semantik und Pragmatik

Semantik und Pragmatik Semantik und Pragmatik SS 2005 Universität Bielefeld Teil 6, 20. Mai 2005 Gerhard Jäger Semantik und Pragmatik p.1/16 Typentheorie: Motivation Viele syntaktische Konstruktionen der natürlichen Sprachen

Mehr

Einfache Syntax, komplexe Semantik Zur Interaktion von Modalen, starken Quantoren und Negation

Einfache Syntax, komplexe Semantik Zur Interaktion von Modalen, starken Quantoren und Negation Einfache Syntax, komplexe Semantik Zur Interaktion von Modalen, starken Quantoren und Negation Frank Richter und Manfred Sailer Manfred Sailer Seminar für Englische Philologie Universität Göttingen manfred.sailer@phil.uni-goettingen.de

Mehr

Lösungsvorschlag für das Übungsblatt 8. Aufgabe1.

Lösungsvorschlag für das Übungsblatt 8. Aufgabe1. Lösungsvorschlag für das Übungsblatt 8. Aufgabe1. 3 Det A N VP R6 4 Any A N VP L3 5 Any intelligent N VP L4 6 Any intelligent cat VP L2 Nach den Regeln kann der Satz weiter nicht erzeugt warden, deswegen

Mehr

Einführung in die Semantik, 8. Sitzung Typentheorie, F deutsch

Einführung in die Semantik, 8. Sitzung Typentheorie, F deutsch Einführung in die Semantik, 8. Sitzung, F deutsch Göttingen 1. Dezember 2006 Einführung in die Semantik, 8. Sitzung, F deutsch Semantik von F deutsch Satzoperatoren Negation Konjunktion und Disjunktion

Mehr

EINFÜHRUNG IN DIE GERMANISTISCHE LINGUISTIK KAPITEL 4: SYNTAX LÖSUNGEN

EINFÜHRUNG IN DIE GERMANISTISCHE LINGUISTIK KAPITEL 4: SYNTAX LÖSUNGEN Bitte beachten Sie, dass an verschiedenen Stellen auch andere Lösungen denkbar sind. Ich habe versucht, die Lösungen ausführlicher zu formulieren; das soll aber nicht bedeuten, dass auch Ihre Lösungen

Mehr

Einführung in die Sprachwissenschaft des Deutschen. Syntax II. PD Dr. Alexandra Zepter

Einführung in die Sprachwissenschaft des Deutschen. Syntax II. PD Dr. Alexandra Zepter Einführung in die Sprachwissenschaft des Deutschen Syntax II PD Dr. Alexandra Zepter Überblick Syntax Fokus auf linearer Ordnung: Sprachtypen, Topologisches Feldermodell Fokus auf hierarchischer Ordnung:

Mehr

Grundkurs Semantik. Sitzung 6: Prädikation, Modifikation, Referenz. Andrew Murphy

Grundkurs Semantik. Sitzung 6: Prädikation, Modifikation, Referenz. Andrew Murphy Grundkurs Semantik Sitzung 6: Prädikation, Modifikation, Referenz Andrew Murphy andrew.murphy@uni-leizpig.de Grundkurs Semantik HU Berlin, Sommersemester 2015 http://www.uni-leipzig.de/ murphy/semantik15

Mehr

Morphologische Merkmale. Merkmale Merkmale in der Linguistik Merkmale in der Morpholgie Morphologische Typologie Morphologische Modelle

Morphologische Merkmale. Merkmale Merkmale in der Linguistik Merkmale in der Morpholgie Morphologische Typologie Morphologische Modelle Morphologische Merkmale Merkmale Merkmale in der Linguistik Merkmale in der Morpholgie Morphologische Typologie Morphologische Modelle Merkmale Das Wort 'Merkmal' ' bedeutet im Prinzip soviel wie 'Eigenschaft'

Mehr

Semantik und Pragmatik

Semantik und Pragmatik Semantik und Pragmatik SS 2005 Universität Bielefeld Teil 4, 6. Mai 2005 Gerhard Jäger Semantik und Pragmatik p.1/35 Prädikatenlogik: atomare Formeln Syntax JO, BERTIE, ETHEL, THE-CAKE... sind Individuenkonstanten

Mehr

Koordination in LFG und XLE

Koordination in LFG und XLE Koordination in LFG und XLE Grammatikentwicklung, SS 010 1 /1 Worum es heute geht: Koordinierte Strukturen Koordinierte NPs (sind speziell) /1 Einstieg: Vorschlag C-Struktur Beispiel: in the room and under

Mehr

Einführung Computerlinguistik. Konstituentensyntax II

Einführung Computerlinguistik. Konstituentensyntax II Einführung Computerlinguistik Konstituentensyntax II Hinrich Schütze & Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 2013-11-18 1 / 31 Take-away Phrasenstrukturgrammatik:

Mehr

Einführung in die Sprachwissenschaft des Deutschen Syntax II. PD Dr. Alexandra Zepter

Einführung in die Sprachwissenschaft des Deutschen Syntax II. PD Dr. Alexandra Zepter Einführung in die Sprachwissenschaft des Deutschen Syntax II PD Dr. Alexandra Zepter Systemorientierte theoretische Linguistik Pragmatik: Textlinguistik (Semiotik) Semantik Syntax Morphologie Phonetik/Phonologie

Mehr

Kapitel 11: E-Typ Anaphern

Kapitel 11: E-Typ Anaphern Seminar für Formale Semantik Kapitel 10 & 11 02.07.2013 Marlen Becker, Luise Hakenbeck, Julia Hercher, Katharina Schneider, Lisa Ziggel Kapitel 11: E-Typ Anaphern 1. Wiederholung: Annahmen aus Kapitel

Mehr

LFG- Einführung. Grammatiktheorien. LFG- Einführung (2) Theorie-Architektur. Aufbau der Grammatik. Lexikon

LFG- Einführung. Grammatiktheorien. LFG- Einführung (2) Theorie-Architektur. Aufbau der Grammatik. Lexikon Grammatiktheorien Teil 8 Lexical Functional Grammar Einführung LFG- Einführung Bresnan (1982) Unterschiede zu GB etc. Nur eine syntaktische Ebene Keine Konstituentenbewegung Keine Änderung grammatischer

Mehr

Syntax. Ending Khoerudin Deutschabteilung FPBS UPI

Syntax. Ending Khoerudin Deutschabteilung FPBS UPI Syntax Ending Khoerudin Deutschabteilung FPBS UPI Traditionale Syntaxanalyse Was ist ein Satz? Syntax: ein System von Regeln, nach denen aus einem Grundinventar kleinerer Einheiten (Wörter und Wortgruppen)

Mehr

Merkmale und Vererbung in unifikationsbasierten Lexika

Merkmale und Vererbung in unifikationsbasierten Lexika Gerold Schneider: Lexikonaufbau und Morphologieanalyseverfahren Seite 1 Merkmale und Vererbung in unifikationsbasierten Lexika Morphologieanalyse und Lexikonaufbau (14. Vorlesung) Dozent: Gerold Schneider

Mehr

Lösungen zum Aufgabenblatt 4 Computerlinguistische Anwendungen

Lösungen zum Aufgabenblatt 4 Computerlinguistische Anwendungen Lösungen zum Aufgabenblatt 4 Computerlinguistische Anwendungen Universität München, CIS, SS 2013 Hans Leiß Abgabetermin: Do, 31.5.2013 Aufgabe 4.1 Die Grammatik in Beispiele/programmierer.pl berücksichtigt

Mehr

Tutorium Prolog für Linguisten 12

Tutorium Prolog für Linguisten 12 Tutorium Prolog für Linguisten 12 Sebastian Golly 29. Januar 2013 Sebastian Golly Tutorium Prolog für Linguisten 12 1 / 13 Plan für heute Fürs Langzeitgedächtnis Zusammenfassung des letzten Seminars Übungsblatt

Mehr

Subjekt und Subjektpositionen

Subjekt und Subjektpositionen Prof. Dr. Peter Gallmann Sommer 2017 U Subjekt und Subjektpositionen U 1 Subjekt: Kasus und semantische Rolle Wie in den vorangehenden Skripts ausgeführt, wird in der wissenschaftlichen Grammatik postuliert,

Mehr

Typengetriebene Interpretation. Arnim von Stechow Einführung in die Semantik

Typengetriebene Interpretation. Arnim von Stechow Einführung in die Semantik Typengetriebene Interpretation Arnim von Stechow Einführung in die Semantik arnim.stechow@uni-tuebingen.de Programm Logische Typen Typengesteuerte Interpretation λ-schreibweise Prädikatsmodifikation (PM)

Mehr

MODIFIKATIONEN DES TOMITA-PARSERS FÜR ID/LP UND FEATURE GRAMMARS Jens Woch

MODIFIKATIONEN DES TOMITA-PARSERS FÜR ID/LP UND FEATURE GRAMMARS Jens Woch Fachbeiträge MODIFIKATIONEN DES TOMITA-PARSERS FÜR ID/LP UND FEATURE GRAMMARS Jens Woch Abstract: Die Verwendung von ID/LP-Grammatiken und komplexen Symbolen ist bei Flektionsreichen und in der Wortstellung

Mehr

Syntax und Morphologie: Transformationsgrammatik II

Syntax und Morphologie: Transformationsgrammatik II Syntax und Morphologie: Transformationsgrammatik II PD Dr. Ralf Vogel Institut für Linguistik und Literaturwissenschaft Universität Bielefeld, WiSe 2006/07 Ralf.Vogel@Uni-Bielefeld.de 23.11.2006 1 / 38

Mehr

Morphologie und Lexikon in der deutschen Grammatik

Morphologie und Lexikon in der deutschen Grammatik Morphologie und Lexikon in der deutschen Grammatik Stefan Müller Friedrich-Schiller-Universität Jena E-Mail: Stefan.Mueller@dfki.de http://www.dfki.de/ stefan/ Organisatorisches alle Teilnehmer bitte E-Mail

Mehr

(2) Die für Schüler schwer nachvollziehbare Aufgabenstellung des vergangenen Schuljahres aus dem Schulbuch, die die Lehrer damals ausgewählt hatten,

(2) Die für Schüler schwer nachvollziehbare Aufgabenstellung des vergangenen Schuljahres aus dem Schulbuch, die die Lehrer damals ausgewählt hatten, Die im Deutschen (Hauptseminar). Sommersemester 2018. PD Dr. Wolfgang Schindler Analyse- und Beschreibungsmöglichkeiten. V. 19.4.18 Seite 1 1. Eine hat stets einen Kopf aus der Menge der Substantive oder

Mehr

8. BEGLEITBLATT. 6.5 Trees revisited. 6.6 CFG as a Theory of Natural Language Grammar. 6.7 Problems with CFG

8. BEGLEITBLATT. 6.5 Trees revisited. 6.6 CFG as a Theory of Natural Language Grammar. 6.7 Problems with CFG Dr. Daniel Schnorbusch PSV Syntax- Begleitblätter WiSe 2012/2013 45 8. BEGLEITBLATT 6.5 Trees revisited Terminologie: Baumgraphen, Knoten, Mutterknoten, Tochterknoten, Geschwisterknoten, terminale Knoten,

Mehr

Einführung in die Computerlinguistik. Morphologie II

Einführung in die Computerlinguistik. Morphologie II Einführung in die Computerlinguistik Morphologie II Hinrich Schütze & Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 30.11.2015 Schütze & Zangenfeind: Morphologie II 1

Mehr

2 Theorie der semantischen Typen

2 Theorie der semantischen Typen 2 Theorie der semantischen Typen 2 Theorie der semantischen Typen [ Dowty 83-97, Gamut 75-9, Partee 338-34] 2. Typen Eine mögliche Erweiterung von PL ist die Prädikatenlogik der 2. Stufe (PL2). In PL2

Mehr

3. Phrasenstruktur und Merkmale 2

3. Phrasenstruktur und Merkmale 2 .1. WIEDERHOLUNG. Phrasenstruktur und Merkmale An welchen Eigenschaften erkennt man den Kopf einer Phrase? Was besagt das Thetakriterium? Was sind interpretierbare und uninterpretierbare Merkmale? Was

Mehr

Einführung in die Grundlagen der Generativen Grammatik

Einführung in die Grundlagen der Generativen Grammatik Einführung in die Grundlagen der Generativen Grammatik Noam Chomsky, Begründer der Generativen Grammatik Noam Chomsky (*1928) Mit der Publikation von Syntactic Structures im Jahre 1957 leitete Chomsky

Mehr

Das Aktantenpotenzial beschreibt die Möglichkeit eines Verbs andere Wörter an

Das Aktantenpotenzial beschreibt die Möglichkeit eines Verbs andere Wörter an 1 2 Das Aktantenpotenzial beschreibt die Möglichkeit eines Verbs andere Wörter an sich zu binden, nämlich die Aktanten. Aktant ist demzufolge ein Begriff, der für die Valenzpartner eines Verbs auf der

Mehr

Formale Grammatiken und Syntaxanalyse

Formale Grammatiken und Syntaxanalyse Formale Grammatiken und Syntaxanalyse Vorlesung II: Satzstrukturen und Grammatische Funktionen Die Unterlagen zu dieser Veranstaltung online: http://www.ifi.unizh.ch/cl/gschneid/syntaxvorlesung/ - 1 -

Mehr

Syntaktische Kategorien: Phrasenkategorien

Syntaktische Kategorien: Phrasenkategorien Syntaktische Kategorien: Phrasenkategorien FLM0410 - Introdução à Linguística Alemã I Profa. Dra. Ma. Helena Voorsluys Battaglia Eugenio Braga 8974165 Márcio Ap. de Deus 7000382 Wörter Phrasen Satz Satz

Mehr

Konstruktionsgrammatik

Konstruktionsgrammatik Konstruktionsgrammatik Allgemein: - Auch Construction Grammar (CxG) genannt - Gehört wie LFG und HPSG zur West-Coast Linguistik - Sprache besteht zu großen Teilen aus komplexen Einheiten Lassen sich mit

Mehr

Einführung in die Semantik, 10. Sitzung Generalisierte Quanto

Einführung in die Semantik, 10. Sitzung Generalisierte Quanto Einführung in die Semantik, 10. Sitzung Generalisierte Quantoren, NPIs und Negation Göttingen 3. Januar 2007 Generalisierte Quantoren Prädikatenlogik Typentheorie Bedeutung von GQs Monotonizität GQs und

Mehr

Kapitel 4. Eine Kerngrammatik für das moderne Chinesisch

Kapitel 4. Eine Kerngrammatik für das moderne Chinesisch Kapitel 4 Eine Kerngrammatik für das moderne Chinesisch Im folgenden Kapitel werden wir uns mit der Kerngrammatik des modernen Chinesisch beschäftigen. Dabei betrachten wir den Strukturaufbau im nominalen

Mehr

Deutsche Syntax deklarativ

Deutsche Syntax deklarativ Deutsche Syntax deklarativ Head-Driven Phrase Structure Grammar für das Deutsche Stefan Müller 1999 c Stefan Müller überarbeitete Ausgabe vom 2. Februar 1999 DFKI GmbH Fachbereich Sprachtechnologie Stuhlsatzenhausweg

Mehr

Einführung in die Linguistik Butt / Eulitz / Wiemer. Syntax IV. Funktionale Projektionen. DP-Hypothese. Funktionale Projektionen. AdvP. direkt.

Einführung in die Linguistik Butt / Eulitz / Wiemer. Syntax IV. Funktionale Projektionen. DP-Hypothese. Funktionale Projektionen. AdvP. direkt. Einführung in Linguistik Butt / Eulitz / Wiemer Syntax Zur Erinnerung: es wird angenommen, dass alle Wortarten nach dem X -Schema projizieren. Hier noch ein Beispiel zu s: Spezifikator AdvP P P direkt

Mehr

Grundkurs Linguistik Wintersemester 2014/15. Syntax. Anja Latrouite

Grundkurs Linguistik Wintersemester 2014/15. Syntax. Anja Latrouite Grundkurs Linguistik Wintersemester 2014/15 Syntax Anja Latrouite Von der Morphologie zur Syntax Morpheme sind das Baumaterial für Wörter sind das Baumaterial für Phrasen sind das Baumaterial für Teilsätze

Mehr