Schwach kontextsensitive Grammatik-Formalismen. Petra Schmidt
|
|
- Kora Albrecht
- vor 7 Jahren
- Abrufe
Transkript
1 chwach kontextsensitive Grammatik-Formalismen Petra chmidt
2 Inhalt Linguistische Motivation Grammatikformalismen TAG: Beschreibung, Beispielgrammatik und Analyse CCG: Beschreibung, Beispielgrammatik und Analyse LIG: Beschreibung, Beispielgrammatik und Analyse Beweis Äquivalenz von TAG, CCG und LIG chluss Literatur Anhang (formale Definitionen) 2
3 Linguistische Motivation Natürliche prachen sind nicht kontextfrei Beispielsatz aus dem Holländischen: ik haar hem de nijlpaarden zag helpen voeren (dass) ich sie ihm die Nilpferde sah helfen füttern Idee: Charakterisierung einer Klasse formaler Grammatikformalismen die auch prachen wie Holländisch vollständig abdecken, deren nicht kontextfreie, überkreuzende syntaktische Abhängigkeiten beschreiben kann dabei aber immer noch effizient verarbeitbar sind (polynomielle Parsingalgorithmen) 3
4 Grammatikformalismen Typische Vertreter der schwach-kontextsensitiven Grammatikformalismen, die auf unterschiedlichen Paradigmen beruhen: TAG: Baumersetzungssystem CCG: CG, die eingeschränkte Komposition von Kategorien hinzufügt LIG: CFG, die die Möglichkeit bietet, die Nichtterminale mit einem tack zu versehen TAG und CCG sind die beiden Formalismen, die in der Computerlinguistik wirklich genutzt werden LIG ist eher theoretischer Natur, wird für Beweise und Parsingalgorithmen eingesetzt 4
5 TAG: Beschreibung TAG wurde hauptsächlich von Aravind Joshi entwickelt (Joshi et al und Joshi and Vijay-hanker 1985) besteht aus Initialbäumen und Auxiliarbäumen anwendbare Operationen: Adjunktion von Auxiliarbäumen in Auxiliarbäume ubstitution eines Blattes A durch Initialbäume mit Root A (durch Adjunktion modellierbar) 5
6 TAG: Beispielgrammatik Beispielsatz (aus Folie 3): ik haar hem de nijlpaarden zag helpen voeren Beispielgrammatik G = <V N, V T, T ini,t aux,> V N = {, NP, V 1, V 2, V 3 } V T = {ik, haar, hem, de nilpaarden, zag, helpen, voeren} T ini = { 1 } T aux = { 1, 2 } 6
7 TAG: Beispielgrammatik ( 1 ) NP V 3 voeren de nijlpaarden ( 1 ) ( 2 ) NP V 2 ik NP NP * helpen haar * V 1 hem zag 7
8 TAG: Analyse ( 1 ) ( 1 ) NP de nijlpaarden V 3 voeren V 2 V 3 voeren ( 2 ) V 2 NP hem helpen NP de nijlpaarden NP * helpen hem 8
9 ( 1 ) TAG: Analyse ( 2 ) V 2 V 3 voeren V 3 NP hem NP de nijlpaarden helpen NP ik NP V 2 voeren helpen ( 1 ) haar V 1 NP ik NP haar * V 1 NP hem zag NP de nijlpaarden zag 9
10 CCG: Beschreibung CCG wurde von teedman entwickelt (erste Papiere 80er Jahre, The syntactic process 2000) besteht aus: einer endl. Menge von atomaren Kategorien (z.b. s für atz, n für Namen ) Konnektoren (/, \) mittels denen aus atomaren Kategorien rekursiv komplexe Kategorien gebildet werden können (z.b. s\n für fliegt) einem Lexikon, das Wörter auf Kategorien abbildet z.b. Hans := n, fliegt := s\n 10
11 CCG:Beschreibung syntaktische Regeln (Kombinationsregeln), die die Kombination von Kategorien definieren Applikation Rückwärtsapplikation (<): y x\y x (Bsp: Hans fliegt: n s\n s) Vorwärtsapplikation (>): x/y y x Komposition Rückwärtskomposition (B < ): x\y y\z x\z Vorwärtskomposition (B > ): x/y y/z x/z Rückwärtskreuzkomposition (B < *): x\y y/z Vorwärtskreuzkomposition (B > *): x/y y\z x/z x\z 11
12 CCG: Beschreibung syntaktische Regeln (Kombinationsregeln), die die Kombination von Kategorien definieren Applikation Rückwärtsapplikation (<): y x\y x (Bsp: Hans fliegt: n s\n s) Vorwärtsapplikation (>): x/y y x Komposition Rückwärtskomposition (B < ): x\y y\z x\z Vorwärtskomposition (B > ): x/y y/z x/z Rückwärtskreuzkomposition (B < *): x\y y/z Vorwärtskreuzkomposition (B > *): x/y y\z x/z x\z 12
13 CCG: Beispielgrammatik Beispielsatz (aus Folie 3): ik haar hem de nijlpaarden zag helpen voeren Lexikon ik, haar, hem, de nilpaarden := np zag := s\np\np/vp helpen := vp\np/vp voeren := vp\np 13
14 CCG: Analyse helpen vp\np/vp voeren vp\np 14
15 CCG: Analyse helpen voeren vp\np/vp vp\np B> * B>*: x/y y\z x\z 15
16 CCG: Analyse helpen voeren vp\np/vp vp\np\np vp\np B > * B>*: x/y y\z x\z 16
17 CCG: Analyse zag helpen voeren s\np\np/vp vp\np/vp vp\np vp\np\np B > * 17
18 CCG: Analyse zag helpen voeren s\np\np/vp vp\np/vp vp\np vp\np\np B > * B > * B>*: x/y y\z x\z 18
19 CCG: Analyse zag helpen voeren s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np B > * B > * B>*: x/y y\z x\z 19
20 CCG: Analyse de nijlpaarden zag helpen voeren np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np B > * B > * 20
21 CCG: Analyse de nijlpaarden zag helpen voeren np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np B > * B > * < <: y x\y x 21
22 CCG: Analyse de nijlpaarden zag helpen voeren np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np s\np\np\np B > * B > * < <: y x\y x 22
23 CCG: Analyse hem de nijlpaarden zag helpen voeren np np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np s\np\np\np B > * B > * < 23
24 CCG: Analyse hem de nijlpaarden zag helpen voeren np np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np s\np\np\np B > * B > * < < <: y x\y x 24
25 CCG: Analyse hem de nijlpaarden zag helpen voeren np np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np s\np\np\np s\np\np B > * B > * < < <: y x\y x 25
26 CCG: Analyse haar hem de nijlpaarden zag helpen voeren np np np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np s\np\np\np s\np\np B > * B > * < < 26
27 CCG: Analyse haar hem de nijlpaarden zag helpen voeren np np np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np s\np\np\np s\np\np B > * B > * < < < <: y x\y x 27
28 CCG: Analyse haar hem de nijlpaarden zag helpen voeren np np np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np s\np\np\np s\np\np s\np B > * B > * < < < <: y x\y x 28
29 CCG: Analyse ik haar hem de nijlpaarden zag helpen voeren np np np np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np s\np\np\np s\np\np s\np B > * B > * < < < 29
30 CCG: Analyse ik haar hem de nijlpaarden zag helpen voeren np np np np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np s\np\np\np s\np\np s\np B > * B > * < < < < <: y x\y x 30
31 CCG: Analyse ik haar hem de nijlpaarden zag helpen voeren np np np np s\np\np/vp vp\np/vp vp\np vp\np\np s\np\np\np\np s\np\np\np s\np\np s\np s B > * B > * < < < < <: y x\y x 31
32 LIG: Beschreibung (Aho 1968) (Gazdar 1988) wie kontextfreie Grammatik plus Indizes an Nonterminalen Indizes beschreiben den tack im Unterschied zur IG nach Aho werden Indizes nur an ein Nonterminal weitergegeben 32
33 LIG: Beispielgrammatik Regeln: [..] ik haar A[..z] A[..] hem B[..h] B[..] de nijlpaarden C[..v] C[..v] C[..] voeren C[..h] C[..] helpen C[..z] C[ ] zag C[ ] 33
34 LIG: Analyse [] ik haar A[z] hem B[zh] de nijlpaarden C[zhv] C[zh] voeren C[z] helpen C[] zag 34
35 Äquivalenzbeweis CCG, LIG, TAG zeige die Äquivalenz in Bezug auf die tringsprachen der Grammatikformalismen CCG, LIG und TAG durch zyklische Inklusion (Vijay-hanker und Weir 1994): zeige CCG LIG zu einer CCG gibt es eine LIG, die die gleiche prache erzeugt zeige LIG TAG zu einer LIG gibt es eine TAG, die die gleiche prache erzeugt zeige TAG CCG zu einer TAG gibt es eine CCG, die die gleiche prache erzeugt CCG LIG TAG 35
36 Beweis: CCG LIG Ideen zur Überführung einer CCG in eine LIG CCG-Kategorien können interpretiert werden als Nonterminal +tack (z.b. [], /a [/a]) Applikation entspricht push Komposition entspricht pop 36
37 Beweis: CCG LIG Konstruktion der LIG zur bestehenden CCG alle Kategorien des Lexikons werden als entsprechende LIG- Produktion angelegt zum Beispiel zag := s\np\np/vp Produktionen aus den Instanzen der Rückwärtsapplikation np x\np np [..] np [..\np] Produktionen aus den Instanzen der Vorwärtskreuzkomposition x/vp vp\(np/vp) x\(np/vp) [..\np/vp] [../vp] vp[\np/vp] 37
38 Beweis: LIG TAG Idee für den Beweis: zunächst LIG normalisieren jede Regel pusht und poppt maximal ein Item auf den/vom tack alle tacks sind zu Anfang und am Ende einer Ableitung leer Konstruktion der TAG TAG-Nichtterminale kodieren die tackoperationen Adjunktionsknoten werden mit elementaren tackoperationen markiert Eingabe-Nonterminal Transitionstyp (keine Transition, pushen oder poppen) Ausgabe-Nonterminal 38
39 Beweis: LIG TAG Konstruktion der TAG Initialbäume A für alle Nonterminale A, B [A,, B]/OA B A für Regeln der Form A[ ] x x Beispiel für A[ ] B [ ] c D[ ] B A c D 39
40 Konstruktion der TAG Beweis: LIG TAG Auxiliarbäume: für alle Nonterminale A, B, C, D und alle tacksymbole a: [A,, A]/NA [A,, B]/NA [A,, B]/NA [A,, C]/OA [A, +a, C]/OA [C,, B]/OA [C,, D]/OA [A,, B]/NA [D, -a, B]/OA [A,, B]/NA 40
41 Konstruktion der TAG Beweis: LIG TAG weitere Auxiliarbäume für LIG-Regeln keine tack-op: push: pop: A[..] x B[..] y A[..] x B[..a] y A[..a] x B[..] y [A,, B]/NA [A, +a, B]/NA [A, -a, B]/NA X [A,, B]/NA y x [A, +a, B]/NA y x [A, -a, B]/NA y 41
42 Beweis: LIG TAG Beispiel LIG-Regel (a n b n c n d n ) [..] a [..i] d TAG-Regel [, +i, ]/NA a [, +i, ]/NA d [..] T[..] [,, T]/NA [,, T]/NA T[..i] b T[..] c [T, -i, T]/NA b [T, -i, T]/NA c T[ ] T 42
43 Beweis: LIG TAG Beispiel Initialbäume für Nonterminale und T T T [,, ]/OA [,, T]/OA [T,, ]/OA [T,, T]/OA T T Die Auxiliarbäume werden nicht angegeben, da durch die Konstruktion zu viele entstehen. Für zwei Nonterminale und ein tacksymbol werden bereits 2 4 = 16 tack-auxiliarbäume erzeugt. 43
44 Beweis: LIG TAG Beispiel Ableitung für das Wort aabbccdd [,, T]/OA T [,, T]/NA [, +i, ]/OA [,, T]/OA [T, -i, T]/OA [,, T]/NA T [,, T]/NA [, +i, ]/NA a [, +i, ]/NA d [,, T]/OA [T, -i, T]/OA [,, T]/NA T 44
45 Beweis: LIG TAG Beispiel [,, T]/NA [, +i, ]/NA a [, +i, ]/NA d [,, T]/OA [T, -i, T]/NA b [T, -i, T]/NA c [,, T]/NA T [,, T]/NA [, +i, ]/NA a [, +i, ]/NA d [,, T]/NA [, +i, ]/OA [,, T]/OA [T, -i, T]/OA [,, T]/NA [T, -i, T]/NA b [T, -i, T]/NA c [,, T]/NA T 45
46 Beweis: LIG TAG Beispiel [,, T]/NA [, +i, ]/NA a [, +i, ]/NA d [,, T]/NA [, +i, ]/NA a [, +i, ]/NA d [,, T]/OA [T, -i, T]/OA [,, T]/NA [T, -i, T]/NA b [T, -i, T]/NA c [,, T]/NA T [,, T]/NA [, +i, ]/NA a [, +i, ]/NA d [,, T]/NA [, +i, ]/NA a [, +i, ]/NA d [,, T]/OA [T, -i, T]/NA b [T, -i, T]/NA c [,, T]/NA [T, -i, T]/NA b [T, -i, T]/NA c [,, T]/NA T 46
47 Beweis: LIG TAG Beispiel [,, T]/NA [, +i, ]/NA a [, +i, ]/NA d [,, T]/NA [, +i, ]/NA a [, +i, ]/NA d [,, T]/NA [,, T]/NA [T, -i, T]/NA b [T, -i, T]/NA c [,, T]/NA [T, -i, T]/NA b [T, -i, T]/NA c [,, T]/NA T [,, T]/NA [, +i, ]/NA a [, +i, ]/NA d [,, T]/NA [, +i, ]/NA a [, +i, ]/NA d [,, T]/NA [,, T]/NA [T, -i, T]/NA b [T, -i, T]/NA c [,, T]/NA [T, -i, T]/NA b [T, -i, T]/NA c [,, T]/NA T 47
48 Beweis: TAG CCG Idee zur Überführung: Adjunktion entspricht Komposition TAG muss in Normalform vorliegen, d.h. höchstens binär verzweigend alle inneren Knoten sind entweder NA oder OA alle OA-Knoten liegen auf dem spine oder sind chwesterknoten vom spine alle chwesterknoten vom pine haben eine einzige Tochter: das leere Wort A alle TAGs können in Normalform überführt werden A 48
49 Beweis: TAG CCG Algorithmus zur Überführung TAG nach CCG (überführt nur einzelne Auxiliarbäume nach CCG) Initialisierung: pos = root (t) = A c = A oder c = Â bis das Blatt des Baumes t erreicht ist: wenn die Non-spine-Tochter von pos linke Tochter mit Marke B/OA ist, ergänze c um /B wenn die Non-spine-Tochter von pos rechte Tochter mit Marke B/OA ist, ergänze c um \B wenn die spine-tochter von pos Marke C/OA hat, ergänze c um C pos = spine-tochter von pos ^ 49
50 Beweis: TAG CCG Algorithmus zur Überführung TAG nach CCG Beispiel: A:OA :OA D:OA B:OA C:OA ^ 50
51 Beweis: TAG CCG Algorithmus zur Überführung TAG nach CCG Beispiel: A:OA :OA D:OA B:OA \A C:OA ^ \A 51
52 Beweis: TAG CCG Algorithmus zur Überführung TAG nach CCG Beispiel: A:OA :OA D:OA B:OA \A C:OA ^ \A 52
53 Beweis: TAG CCG Algorithmus zur Überführung TAG nach CCG Beispiel: A:OA :OA D:OA B:OA \A/D C:OA ^ \A/D 53
54 Beweis: TAG CCG Algorithmus zur Überführung TAG nach CCG Beispiel: A:OA :OA D:OA B:OA \A/D/ C:OA ^ ^ ^ \A/D/ 54
55 Beweis: TAG CCG Algorithmus zur Überführung TAG nach CCG Beispiel: A:OA :OA D:OA B:OA \A/D/\B C:OA ^ ^ ^ \A/D/\B 55
56 Beweis: TAG CCG Algorithmus zur Überführung TAG nach CCG Beispiel: A:OA :OA D:OA B:OA \A/D/\B C:OA ^ ^ ^ \A/D/\B 56
57 Beweis: TAG CCG Algorithmus zur Überführung TAG nach CCG Beispiel: A:OA :OA D:OA B:OA \A/D/\B/C C:OA ^ ^ ^ \A/D/\B/C 57
58 Beweis: TAG CCG Algorithmus zur Überführung TAG nach CCG Beispiel: A:OA :OA D:OA B:OA \A/D/\B/C C:OA ^ ^ ^ \A/D/\B/C 58
59 Beweis: TAG CCG Algorithmus zur Überführung TAG nach CCG Beispiel: A:OA :OA D:OA B:OA \A/D/\B/C C:OA ^ ^ ^ \A/D/\B/C 59
60 Beweis: TAG CCG Konstruktion einer CCG aus einer TAG in Normalform: Lexikon: für jeden lexikalischen Auxiliarbaum der Form A/NA w A/NA konstruiere einen Lexikoneintrag der Form w := A für jede aus einem nicht-lexikalischen Auxiliarbaum gewonnene Kategorie c (Algorithmus) konstruiere ein Lexikoneintrag := c 60
61 Beweis: TAG CCG Konstruktion einer CCG aus einer TAG in Normalform Regeln Vorwärts- und Rückwärtsapplikation modellieren Adjunktion von Auxiliarbäumen in pine-chwestern: x/a A x A x\a x für jedes Nonterminal A Komposition modelliert die Adjunktion von nicht-lexikalischen Bäumen in das pine: für jedes Nonterminal A und i n, wobei n die Länge des längsten pine eines Auxiliarbaums der TAG ist: x/â Â 1 z 1 2. i z i x 1 z 1 2 i z i ( {/, \}) Dachkategorien stellen sicher, dass nur nicht-lexikalische Auxiliarbäume in den pine von anderen nicht-lexikalischen Auxiliarbäumen adjungiert werden dürfen 61
62 chluss schwach kontextsensitive Grammatikformalismen sind eine leichte Erweiterung der kontextfreien Grammatiken mit dem Ziel, nicht kontextfreie Phänomene (z.b. kreuzende Abhängigkeiten im Holländischen) beschreiben zu können, aber dennoch effizient sind vorgestellt wurden TAG, CCG und LIG die drei Grammatikformalismen beruhen auf völlig unterschiedlichen Paradigmen: TAG: Baumersetzungssystem CCG: Kategorialgrammatik LIG: CFG mit tack der Beweis von Vijay-hanker und Weir (1994) zeigt, dass alle drei äquivalent bzgl. Ihrer tringsprachen sind hier nicht gezeigt: Alle drei können in n 6 geparst werden (Vijay-hanker und Weir 1993) 62
63 Literatur Gerhard Jäger & Jens Michaelis (ommerschule ELLI 2004 Nancy) An Intoduction to mildly context sensitive grammar formalisms Klaus von Heusinger: Kategoriale Unifikationsgrammatik 2005 Volker Kaatz: Linear indizierte Grammatiken und prachen 2005 K. Vijay-hanker, David J. Weir 1994: The Equivalence of Four Extensions of Context-free Grammars. Mathematical ystems Theory 27(6):
64 weitere Literaturreferenzen Alfred V. Aho, Indexd Grammars and extension of context-free grammars. Journal of the Accociation for Computing Machinery 15, Bar-Hillel, Yehoshua 1953: A Quasi-Artithmetical Notation for yntactic Description Language, 29, 4758 Gerald Gazdar, Applicability of indexed grammars to natural languages. In U. Reyle and C. Rohrer, editors, Natural Language Parsing and Linguistic Theories, pages Doredrecht: Reidel. Aravind K. Joshi, Leon. Levy, Masako Takahashi, 1975: Tree Adjunct Grammars. Journal of Computer and ystem cience. 10(1): Aravind K. Joshi, K. Vijay-hanker, 1985: ome Computional Properties of Tree Adjoining Grammars. ACL 1985: Mark teedman 2000: The yntactic Process. Cambridge, MA, MIT Press. K. Vijay-hanker, David J. Weir 1993: Parsing ome Constrained Grammar Formalisms. Computional Linguistics 19(4):
65 Anhang I: Definition TAG I G = <V N, V T, T ini,t aux,> mit V N eine endl. Menge von Nonterminalen V T eine endl. Menge von Terminalen T ini eine endl. Menge von Initialbäumen T aux eine endl. Menge von Auxiliarbäumen V N ein unterscheidbares Nonterminalsymbol (tart- ymbol) 65
66 Anhang II: Definition TAG II Initialbäume: t ist ein endl. markierter Baum < N t, * t, t, Marke t > mit A A V N w trings (V N { } V T ) w Auxiliarbäume: t ist ein endl. markierter Baum < N t, * t, t, Marke t > mit A A V N w 1,w 2 trings (V N { } V T ) w 1 A* w 2 66
67 Anhang III:Definition CCG I CCG G = <V T, V N,, f, R> V T endl. Menge von Terminalen (lexikalische Items) V N endl. Menge von Nonterminalen (atomare Kategorien) V N und V T disjunkt V N f Funktion, die Elemente aus V T { } auf endl. ubmengen von C(V N ) mapped mit C(V N ): Menge der Kategorien mit V N C(V N ) c 1, c 2 C(V N ) (c 1 /c 2 ) C(V N ) und (c 1 \c 2 ) C(V N ) R endl. Menge von Kombinationsregeln 67
68 Anhang IV:Definition CCG II vier Typen von Kombinationsregeln X, y, z 1, Variablen über C(V N ), i {/,\} Vorwärtsapplikation (x/y)y x Rückwärtsapplikation y(x\y) x generalisierte Vorwärtskomposition für n 1: (x/y) ( (y 1 z 1 ) 2 n z n ) ( (x 1 1 z 1 ) 2 n z n ) generalisierte Rückwärtskomposition für n 1: ( (y 1 z 1 ) 2 n z n ) (x\y) ( (x 1 1 z 1 ) 2 n z n ) 68
69 Anhang V: Definition LIG IG G = (V N,V T,V,,P) V N endl. Menge von Nonterminalen V T endl. Menge von Terminalen V endl. Menge von tacksymbolen V N,V T,V disjunkt V N tartsymbol P endl. Menge von Produktionen der Form A[..x] 1 n X V * für alle 1 i n, i = A[..y], i = A[z] oder i = mit A V N, V T * und y,z V * Nur ein Nonterminal auf der rechten eite darf den tack von der rechten eite betreten 69
70 Anhang VI: Definition MCFG G = < V N, V O,F, R, > mit G ist generalisierte CFG V O = i 1m trings (V T ) i, V T Menge von Terminalen Für jedes f F gibt es Zahlen n und d 1,,d n, r mit f: trings (V T ) d 1 x x trings (V T ) d n trings (V T ) r f ist total und regulär 70
71 Anhang VII: Definition LCFR G = < V N, V O,F, R, > mit V N Menge von Nonterminalen V O Menge von (linguistischen Objekten) F n 0 F n, Menge von Funktionen mit F n Menge nichtleerer part. Funktionen von V On nach V O F 0 Menge aller Konstanten in V O R n 0 (F F n ) x V N n+1, endl. Menge von (beschreibenden) Regeln V N ein unterscheidbares Nonterminal (tartsymbol) 71
Schwach kontextsensitive Grammatikformalismen
chwach kontextsensitive Grammatikformalismen! Vorlesung Grammatikformalismen Alexander Koller! 2. Juni 2015 Grammatikformalismen Parsingkomplexität O(n) O(n 3 ) polynomiell exponentiell PPACE-vollst. unentscheidbar
MehrEine einfache Grammatik mit zahlenmäßiger Übereinstimmung zwischen Subjekt und Verb:
PG mit Agreement Eine einfache Grammatik mit zahlenmäßiger Übereinstimmung zwischen ubjekt und Verb: satz --> substantiv_phrase(num), verb_phrase(num) substantiv_phrase(num) --> passendes_substantiv(num)
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 15.01.2015 INSTITUT FÜR THEORETISCHE 0 KIT 15.01.2015 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik
MehrBaumadjunktionsgrammatiken
Baumadjunktionsgrammatiken Vorlesung Grammatikformalismen Alexander Koller 22. April 2016 Grammatikformalismen Grammatik- formalismus Grammatik- theorie abstrakt Grammatik prache konkret formal linguistisch
MehrAutomatentheorie und formale Sprachen
Automatentheorie und formale Sprachen VL 8 Chomsky-Grammatiken Kathrin Hoffmann 23. Mai 2012 Hoffmann (HAW Hamburg) Automatentheorie und formale Sprachen 23.5. 2012 250 Wortproblem Wortproblem ist das
MehrÜbungsblatt 7. Vorlesung Theoretische Grundlagen der Informatik im WS 16/17
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 7 Vorlesung Theoretische Grundlagen der Informatik im W 16/17 Ausgabe 17. Januar 2017 Abgabe 31. Januar 2017, 11:00 Uhr (im
MehrÜbungsblatt 7. Vorlesung Theoretische Grundlagen der Informatik im WS 16/17
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 7 Vorlesung Theoretische Grundlagen der Informatik im W 16/17 Ausgabe 17. Januar 2017 Abgabe 31. Januar 2017, 11:00 Uhr (im
MehrTheoretische Grundlagen der Informatik. Vorlesung am 8. Januar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 0 08.01.2019 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Letzte Vorlesung Eine
MehrErkennung der kontextfreien Grammatiken mittels Boolescher Matrixmultiplikation
Erkennung der kontextfreien Grammatiken mittels Boolescher Matrixmultiplikation Valiant-Erkenner Referent: Fedor Uvarov eminar Algorithmen zu kontextfreien Grammatiken Dozenten: Prof Dr. Hofmann, Dr. Leiß
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 13.01.2011 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrBeschreibungskomplexität von Grammatiken Definitionen
Beschreibungskomplexität von Grammatiken Definitionen Für eine Grammatik G = (N, T, P, S) führen wir die folgenden drei Komplexitätsmaße ein: Var(G) = #(N), Prod(G) = #(P ), Symb(G) = ( α + β + 1). α β
MehrDer CKY-Parser. Vorlesung Computerlinguistische Techniken Alexander Koller. 27. Oktober 2015
Vorlesung omputerlinguistische Techniken Alexander Koller 27. Oktober 2015 Übersicht Komplexität des KY-Algorithmus Implementierung in Python hift-reduce-parsing hift-regel: (a w, s) (w, s a) Reduce-Regel:
MehrGrundlagen der Theoretischen Informatik
Grundlagen der Theoretischen Informatik 4. Kellerautomaten und kontextfreie prachen (VI) 25.06.2015 Viorica ofronie-tokkermans e-mail: sofronie@uni-koblenz.de 1 Übersicht 1. Motivation 2. Terminologie
MehrAlphabet, formale Sprache
n Alphabet Alphabet, formale Sprache l nichtleere endliche Menge von Zeichen ( Buchstaben, Symbole) n Wort über einem Alphabet l endliche Folge von Buchstaben, die auch leer sein kann ( ε leere Wort) l
MehrKontextfreie Sprachen Kontextfreie Sprachen und Grammatiken. Satzformen sind die Wörter aus (N T ). Notation: Wir verwenden oft
und Grammatiken (Folie 119, eite 202 im kript) atzformen sind die Wörter aus (N T ). Notation: Wir verwenden oft a, b, c,... für Terminalsymbole A, B, C,... für Nonterminale u, v, w,... für Terminalwörter
MehrKlammersprache Definiere
Klammersprache w=w 1...w n {(,)}* heißt korrekt geklammert, falls die Anzahl ( ist gleich der Anzahl ). in jedem Anfangsstück w 1,...,w i (i n) ist die Anzahl ( nicht kleiner als die Anzahl ). Definiere
MehrKapitel: Die Chomsky Hierarchie. Die Chomsky Hierarchie 1 / 14
Kapitel: Die Chomsky Hierarchie Die Chomsky Hierarchie 1 / 14 Allgemeine Grammatiken Definition Eine Grammatik G = (Σ, V, S, P) besteht aus: einem endlichen Alphabet Σ, einer endlichen Menge V von Variablen
MehrInhalt. Einführung Formale Sprachen und Grammatiken Übergangsnetze Merkmalsstrukturen Unifikationsgrammatiken
4 Syntax Inhalt Einführung Formale Sprachen und Grammatiken Übergangsnetze Merkmalsstrukturen Unifikationsgrammatiken 4.1 Einführung Einführung Oberflächenstruktur (OF) äußere Erscheinungsform eines Satzes
MehrInformatik III. Christian Schindelhauer Wintersemester 2006/07 5. Vorlesung
Informatik III Christian Schindelhauer Wintersemester 2006/07 5. Vorlesung 09.11.2006 schindel@informatik.uni-freiburg.de 1 Äquivalenzklassen Definition und Beispiel Definition Für eine Sprache L Σ* bezeichnen
MehrEinführung. Vorlesung Grammatikformalismen Alexander Koller. 15. April 2016
Einführung Vorlesung Grammatikformalismen Alexander Koller 15. April 2016 Übersicht Was sind Grammatikformalismen, und warum reichen uns kfgs nicht? Was machen wir in dieser Vorlesung? Prüfungsmodalitäten
MehrFormale Sprachen. Grammatiken und die Chomsky-Hierarchie. Rudolf FREUND, Marian KOGLER
Formale Sprachen Grammatiken und die Chomsky-Hierarchie Rudolf FREUND, Marian KOGLER Grammatiken Das fundamentale Modell zur Beschreibung von formalen Sprachen durch Erzeugungsmechanismen sind Grammatiken.
MehrEINFÜHRUNG IN DIE THEORETISCHE INFORMATIK
EINFÜHRUNG IN DIE THEORETISCHE INFORMATIK Prof. Dr. Klaus Ambos-Spies Sommersemester 2011 17. DIE CHOMSKY-HIERARCHIE Theoretische Informatik (SoSe 2011) 17. Die Chomsky-Hierarchie 1 / 15 Einleitung Die
MehrTheoretische Informatik Mitschrift
Theoretische Informatik Mitschrift 2. Grammatiken und die Chomsky-Hierarchie Beispiel: Syntaxdefinition in BNF :=
MehrFormale Methoden 1. Gerhard Jäger 12. Dezember Uni Bielefeld, WS 2007/2008 1/22
1/22 Formale Methoden 1 Gerhard Jäger Gerhard.Jaeger@uni-bielefeld.de Uni Bielefeld, WS 2007/2008 12. Dezember 2007 2/22 Bäume Baumdiagramme Ein Baumdiagramm eines Satzes stellt drei Arten von Information
MehrBeweisidee: 1 Verwende den Keller zur Simulation der Grammatik. Leite ein Wort. 2 Problem: der Keller darf nicht beliebig verwendet werden, man kann
Automaten und Formale prachen alias Theoretische Informatik ommersemester 2011 Dr. ander Bruggink Übungsleitung: Jan tückrath Wir beschäftigen uns ab jetzt einige Wochen mit kontextfreien prachen: Kontextfreie
MehrEinführung in die Computerlinguistik
Einführung in Computerlinguistik Parsing Dozentin: Wiebke Petersen W 2004/2005 1 Nachtrag zu den Abschlußeigenschaften kontextfreier prachen Kontextfreie prachen sind abgeschlossen bezüglich der Vereinigung
MehrI.5. Kontextfreie Sprachen
I.5. Kontextfreie prachen Zieht man in Betracht, dass BNF-yteme gerade so beschaffen sind, dass auf der linken eite immer genau ein Nichtterminal steht, so sind das also gerade die Ableitungsregeln einer
MehrEarley Parser. Flutura Mestani
Earley Parser Flutura Mestani Informatik Seminar Algorithmen zu kontextfreien Grammatiken Wintersemester 2015/2016 Prof. Martin Hofmann, Dr. Hans Leiß Flutura Mestani 25.11.2015 Seminar Algorithmen zu
MehrAutomaten und formale Sprachen Notizen zu den Folien
Automaten und formale prachen Notizen zu den Folien 10 Kontextfreie Grammatiken Beispiele für kontextfreien Grammatiken ei Σ = {a, b}. Beispiel 1 (Folie 211, oben) Geben ie eine kontextfreie Grammatik
MehrVU Software Paradigmen / SS 2012
VU Software Paradigmen 716.060 / SS 2012 Sandra Fruhmann sandra.fruhmann@student.tugraz.at Inhalt Grammatiken Chomsky Sprachhierarchie Parse Trees Recursive Descent Parser First-, Follow-Mengen 2 Compiler
MehrFormale Sprachen. Grammatiken. Grammatiken und die Chomsky-Hierarchie. Rudolf FREUND, Marion OSWALD. Grammatiken: Ableitung
Formale Sprachen rammatiken und die Chomsky-Hierarchie Rudolf FREUND, Marion OSWALD rammatiken Das fundamentale Modell zur Beschreibung von formalen Sprachen durch Erzeugungsmechanismen sind rammatiken.
MehrGrammatik Prüfung möglich, ob eine Zeichenfolge zur Sprache gehört oder nicht
Zusammenhang: Formale Sprache Grammatik Formale Sprache kann durch Grammatik beschrieben werden. Zur Sprache L = L(G) gehören nur diejenigen Kombinationen der Zeichen des Eingabealphabets, die durch die
MehrDer Earley-Algorithmus
Der Earley-Algorithmus Kursfolien Karin Haenelt 25.03.02 1 25.03.02 2 Inhalt Funktion des Earley-Algorithmus Begriffe Erkenner/Parser Kontextfreie Grammatik Ein Beispiel Funktionen des Algorithmus Funktionsweise
MehrDer Earley-Algorithmus
Der Earley-Algorithmus Kursfolien Karin Haenelt 25.03.02 1 25.03.02 2 Inhalt Funktion des Earley-Algorithmus Begriffe Erkenner/Parser Kontextfreie Grammatik Ein Beispiel Funktionen des Algorithmus Funktionsweise
MehrGrundlagen der Theoretischen Informatik
Grundlagen der Theoretischen Informatik 4. Kellerautomaten und kontextfreie Sprachen (II) 11.06.2015 Viorica Sofronie-Stokkermans e-mail: sofronie@uni-koblenz.de 1 Übersicht 1. Motivation 2. Terminologie
Mehr1 Die Chomsky-Hirachie
Hans U. imon Bochum, den 7.10.2008 Annette Ilgen Beispiele zur Vorlesung Theoretische Informatik W 09/10 Vorbemerkung: Hier findet sich eine ammlung von Beispielen und Motivationen zur Vorlesung Theoretische
MehrGrundlagen der Theoretischen Informatik
Grundlagen der Theoretischen Informatik 4. Kellerautomaten und kontextfreie Sprachen (I) 3.06.2015 Viorica Sofronie-Stokkermans e-mail: sofronie@uni-koblenz.de 1 Organisatorisches 1. Teilklausur: Mittwoch,
MehrDas Halteproblem für Turingmaschinen
Das Halteproblem für Turingmaschinen Das Halteproblem für Turingmaschinen ist definiert als die Sprache H := { T w : T ist eine TM, die bei Eingabe w {0, 1} hält }. Behauptung: H {0, 1} ist nicht entscheidbar.
MehrNormalformen für kontextfreie Grammatiken. Noam CHOMSKY, Sheila GREIBACH. Bäume. Ableitungen in kontextfreien Grammatiken. Grammatik G = (N,T,P,S)
Noam CHOMSKY, Sheila GREIBACH Normalformen für kontextfreie Grammatiken Noam CHOMSKY (*1928 ) Sheila GREIBACH (*1939) Grammatik G = (N,T,P,S) GREIBACH Normalform: A aw, w N* Erweiterte GREIBACH Normalform:
MehrNoam CHOMSKY, Sheila GREIBACH
Noam CHOMSKY, Sheila GREIBACH Noam CHOMSKY (*1928 ) Sheila GREIBACH (*1939) Normalformen für kontextfreie Grammatiken Grammatik G = (N,T,P,S) GREIBACH Normalform: A aw, w N* Erweiterte GREIBACH Normalform:
MehrGrammatiken. Grammatiken sind regelbasierte Kalküle zur Konstruktion von Systemen und Sprachen Überprüfung von Systemen und Sprachen
Grammatiken Grammatiken sind regelbasierte Kalküle zur Konstruktion von Systemen und Sprachen Überprüfung von Systemen und Sprachen Grammatiken eignen sich besonders zur Modellierung beliebig tief geschachtelter,
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 18.01.2011 INSTITUT FÜR THEORETISCHE INFORMATIK 0 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
MehrÜbungsblatt 6. Vorlesung Theoretische Grundlagen der Informatik im WS 18/19
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Vorlesung Theoretische Grundlagen der Informatik im WS 18/19 Ausgabe 8. Januar 2019 Abgabe 22. Januar 2019, 11:00 Uhr (im
MehrKontextfreie Sprachen. Automaten und Formale Sprachen alias Theoretische Informatik. Sommersemester Kontextfreie Sprachen
Automaten und Formale Sprachen alias Theoretische Informatik Sommersemester 2012 Dr. Sander Bruggink Übungsleitung: Jan Stückrath Wortproblem: der CYK-Algorithmus Pumping Lemma für kontextfreie Sprachen
MehrFormale Grundlagen der Wirtschaftsinformatik
Formale Grundlagen der Wirtschaftsinformatik Nikolaj Popov Research Institute for Symbolic Computation popov@risc.uni-linz.ac.at Sprachen und Grammatiken Teil II Sprache Definition: Ein Alphabet Σ ist
MehrAlgorithmen und Datenstrukturen (EI)
Algorithmen und Datenstrukturen (EI) ADS Zentralübung Stefan Schmid 4. Februar 2009 Einturnen... Ein heutiger Computer aus dem Saturn ist im Prinzip eine Turing Maschine? Nein. Zum Beispiel Sprache L =
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Kontextfreie Sprachen und Pushdown-Automaten Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Formale Komplexität natürlicher Sprachen WS 03/04 Wiederholung c
MehrGrundlagen der Theoretischen Informatik
Grundlagen der Theoretischen Informatik 4. Kellerautomaten und kontextfreie Sprachen (III) 17.06.2015 Viorica Sofronie-Stokkermans e-mail: sofronie@uni-koblenz.de 1 Übersicht 1. Motivation 2. Terminologie
MehrÜbungsblatt 6. Vorlesung Theoretische Grundlagen der Informatik im WS 17/18
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 6 Vorlesung Theoretische Grundlagen der Informatik im WS 17/18 Ausgabe 10. Januar 2018 Abgabe 23. Januar 2018, 11:00 Uhr (im
MehrAutomaten und formale Sprachen Notizen zu den Folien
Automaten und formale prachen Notizen zu den Folien 10 Kontextfreie Grammatiken Beispiele für kontextfreien Grammatiken ei Σ = {a, b}. Beispiel 1 (Folie 233, oben) Geben ie eine kontextfreie Grammatik
MehrAutomatentheorie und formale Sprachen
Automatentheorie und formale Sprachen Wiebke Petersen Wiebke Petersen Automatentheorie und formale Sprachen - WiSe12/13 1 Seminarplan Lektüre: Theoretische Grundlagen der Informatik, Rolf Socher, 2008
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 12.01.2012 INSTITUT FÜR THEORETISCHE 0 KIT 12.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik
Mehr16. Die Chomsky-Hierarchie
16. Die Chomsky-Hierarchie Die Chomsky-Sprachen sind gerade die rekursiv aufzählbaren Sprachen: CH = RA Da es nicht rekursive (d.h. unentscheidbare) r.a. Sprachen gibt, ist das Wortproblem für Chomsky-Grammatiken,
MehrUmformung NTM DTM. Charakterisierung rek. aufz. Spr. Chomsky-3-Grammatiken (T5.3) Chomsky-0-Grammatik Rek. Aufz.
Chomsky-0-Grammatik Rek. Aufz. Satz T5.2.2: Wenn L durch eine Chomsky-0- Grammatik G beschrieben wird, gibt es eine NTM M, die L akzeptiert. Beweis: Algo von M: Schreibe S auf freie Spur. Iteriere: Führe
MehrInkrementelle Syntax
Inkrementelle Syntax CFG und inkrementelles Parsing Timm Lichte HHU Düsseldorf, Germany 30.10.2013 SFB 991 1 / 24 Aus der letzten Sitzung inkrementelle Syntax Mechanismen bzw. Komponenten eines Grammatikformalismus,
MehrTheoretische Grundlagen der Informatik. Vorlesung am 17. Januar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 0 17.01.2019 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Evaluation Ergebnisse
MehrBerechenbarkeitstheorie 7. Vorlesung
1 Berechenbarkeitstheorie Dr. Institut für Mathematische Logik und Grundlagenforschung WWU Münster W 15/16 Alle Folien unter Creative Commons Attribution-NonCommercial 3.0 Unported Lizenz. Das Pumpinglemma
MehrGrundlagen der Theoretischen Informatik
Grundlagen der Theoretischen Informatik Sommersemester 2015 23.04.2015 Viorica Sofronie-Stokkermans e-mail: sofronie@uni-koblenz.de 1 Bis jetzt 1. Terminologie 2. Endliche Automaten und reguläre Sprachen
MehrInformatik III - WS07/08
Informatik III - WS07/08 Kapitel 5 1 Informatik III - WS07/08 Prof. Dr. Dorothea Wagner dwagner@ira.uka.de Kapitel 5 : Grammatiken und die Chomsky-Hierarchie Informatik III - WS07/08 Kapitel 5 2 Definition
MehrKontextfreie Grammatiken. Kontextfreie Grammatiken 1 / 45
Kontextfreie Grammatiken Kontextfreie Grammatiken 1 / 45 Was kann man mit kontextfreien Grammatiken anfangen? Kontextfreie Grammatiken, kurz: werden zur Modellierung von KFGs beliebig tief geschachtelten
MehrComplexity in grammar
Complexity in grammar Formale Komplexitätsbegriffe Timm Lichte HHU Düsseldorf WS 2015/2016, 28.10.2015 SFB 991 Komplexität? Vielschichtigkeit, Schwierigkeit Effizienz, Ökonomie, Sparsamkeit Komplexitäten!
MehrFORMALE SYSTEME. Sprachen beschreiben. Wiederholung. Wie kann man Sprachen beschreiben? 2. Vorlesung: Grammatiken und die Chomsky-Hierarchie
Wiederholung FORMALE SYSTEME 2. Vorlesung: Grammatiken und die Chomsky-Hierarchie Markus Krötzsch Formale Sprachen sind in Praxis und Theorie sehr wichtig Ein Alphabet ist eine nichtleere, endliche Menge
MehrDyck-Sprachen & Syntax-Analyse
Dyck-Sprachen & Syntax-Analyse Volker Diekert Universität Stuttgart Dyck-Sprachen & Syntax-Analyse, TUM, 25. Juni 2003 1/?? Bäume sind überall............ Trees are everywhere ) ( [ [ ( [ [ ) [ [ ) ( [
MehrKapitel 2: Formale Sprachen Gliederung. 0. Grundbegriffe 1. Endliche Automaten 2. Formale Sprachen 3. Berechnungstheorie 4. Komplexitätstheorie
Gliederung 0. Grundbegriffe 1. Endliche Automaten 2. Formale Sprachen 3. Berechnungstheorie 4. Komplexitätstheorie 2.1. 2.2. Reguläre Sprachen 2.3. Kontextfreie Sprachen 2/1, Folie 1 2015 Prof. Steffen
MehrTheoretische Grundlagen des Software Engineering
Theoretische Grundlagen des Software Engineering 5: Reguläre Ausdrücke und Grammatiken schulz@eprover.org Software Systems Engineering Reguläre Sprachen Bisher: Charakterisierung von Sprachen über Automaten
MehrFragenkatalog 2. Abgabegespräch Formale Modellierung 3 Reguläre Sprachen
Fragenkatalog 2. Abgabegespräch Formale Modellierung 3 Reguläre Sprachen 1. Was ist eine formale Sprache? Menge von Zeichenketten, die aus den Symbolen eines beliebigen Alphabets aufgebaut sind. Zeichenkette:
MehrWortproblem für kontextfreie Grammatiken
Wortproblem für kontextfreie Grammatiken G kontextfreie Grammatik. w Σ w L(G)? Wortproblem ist primitiv rekursiv entscheidbar. (schlechte obere Schranke!) Kellerautomat der L(G) akzeptiert Ist dieser effizient?
MehrDefinition der Greibach-Normalform
Definition der Greibach-Normalform Ähnlich wie die CNF wollen wir noch eine zweite Normalform einführen, nämlich die Greibach-Normalform (GNF), benannt nach Sheila Greibach: Definition: Eine Typ-2 Grammatik
MehrLemma Für jede monotone Grammatik G gibt es eine kontextsensitive
Lemma Für jede monotone Grammatik G gibt es eine kontextsensitive Grammatik G mit L(G) = L(G ). Beweis im Beispiel (2.): G = (V,Σ, P, S) : P = {S asbc, S abc, CB BC, ab ab, bb bb, bc bc, cc cc}. (i) G
MehrKapitel 2: Formale Sprachen Gliederung
Gliederung 0. Motivation und Einordnung 1. Endliche Automaten 2. Formale Sprachen 3. Berechnungstheorie 4. Komplexitätstheorie 2.1. Chomsky-Grammatiken 2.2. Reguläre Sprachen 2.3. 2/5, Folie 1 2017 Prof.
MehrGrundlagen der Theoretischen Informatik
Grundlagen der Theoretischen Informatik Sommersemester 2015 29.04.2015 Viorica Sofronie-Stokkermans e-mail: sofronie@uni-koblenz.de 1 Bis jetzt 1. Motivation 2. Terminologie 3. Endliche Automaten und reguläre
MehrEinführung in die theoretische Informatik Sommersemester 2017 Übungsblatt Lösungsskizze 7
Prof. J. Esparza Technische Universität München S. Sickert, J. Krämer KEINE ABGABE Einführung in die theoretische Informatik Sommersemester 2017 Übungsblatt 7 Übungsblatt Wir unterscheiden zwischen Übungs-
MehrTheoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 17. Januar 2012 INSTITUT FÜR THEORETISCHE 0 KIT 18.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
MehrSprachanalyse. Fachseminar WS 08/09 Dozent: Prof. Dr. Helmut Weber Referentin: Nadia Douiri
Sprachanalyse WS 08/09 Dozent: Prof. Dr. Helmut Weber Referentin: Inhalt 1. Formale Sprachen 2. Chomsky-Hierarchie 2 FORMALE SPRACHE 1. WAS IST EINE SPRACHE? 2. WIE BESCHREIBT MAN EINE SPRACHE? 3. WAS
MehrOgden s Lemma: Der Beweis (1/5)
Ogden s Lemma: Der Beweis (1/5) Wir betrachten zuerst die Rahmenbedingungen : Laut dem auf der vorhergehenden Folie zitierten Satz gibt es zur kontextfreien Sprache L eine Grammatik G = (Σ, V, S, P) in
MehrF2 Zusammenfassung Letzte Tips zur Klausur
F2 Zusammenfassung Letzte Tips zur Klausur Berndt Farwer FB Informatik, Uni HH F2-ommersemester 2001-(10.6.) p.1/15 Funktionen vs. Relationen Funktionen sind eindeutig, Relationen brauchen nicht eindeutig
MehrTheoretische Informatik und Logik Übungsblatt 2 (2017S) Lösung
Theoretische Informatik und Logik Übungsblatt 2 (2017) en Aufgabe 2.1 Geben ie jeweils eine kontextfreie Grammatik an, welche die folgenden prachen erzeugt, sowie eine Linksableitung und einen Ableitungsbaum
MehrAutomaten und formale Sprachen. Lösungen zu den Übungsblättern
Automaten und formale Sprachen zu den Übungsblättern Übungsblatt Aufgabe. (Sipser, exercise.3) M = ({q, q2, q3, q4, q5}, {u, d}, δ, q3, {q3}) δ: u d q q q 2 q 2 q q 3 q 3 q 2 q 4 q 4 q 3 q 5 q 5 q 4 q
MehrMerkmalsstrukturen. Merkmalsstrukturen. Merkmalsstrukturen (MS):
(MS): Verbreiteter Formalismus in der Computerlinguistik. Ausführlich untersucht und beschrieben, (zumindest im Kern) auf MS basierende Ansätze: Categorical Unification Grammar [Uszkoreit, 1986] Functional
MehrKontextfreie Grammatiken. Kontextfreie Grammatiken 1 / 48
Kontextfreie Grammatiken Kontextfreie Grammatiken 1 / 48 Was kann man mit kontextfreien Grammatiken anfangen? Kontextfreie Grammatiken, kurz: werden zur Modellierung von KFGs rekursiv definierten baumartigen
MehrVU Software Paradigmen / SS 2014
VU Software Paradigmen 716.060 / SS 2014 Ralph Ankele ralph.ankele@tugraz.at Termine Ausgabe: 19. März (heute) Fragestunde: 24. März Abgabe: 09. April(bis 16:00 Uhr) Einsichtsnahme: xx. April (16:00 Uhr)
MehrEinführung in die Theoretische Informatik
Einführung in die Theoretische Informatik Woche 7 Harald Zankl Institut für Informatik @ UIBK Wintersemester 2014/2015 Zusammenfassung Zusammenfassung der letzten LV 1 Wir betrachten die folgende Signatur
Mehr(Prüfungs-)Aufgaben zu formale Sprachen
(Prüfungs-)Aufgaben zu formale Sprachen (siehe auch bei den Aufgaben zu endlichen Automaten) 1) Eine Grammatik G sei gegeben durch: N = {S, A}, T = {a, b, c, d}, P = { (S, Sa), (S, ba), (A, ba), (A, c),
MehrAlgorithmen und Formale Sprachen
Algorithmen und Formale Sprachen Algorithmen und formale Sprachen Formale Sprachen und Algorithmen Formale Sprachen und formale Algorithmen (formale (Sprachen und Algorithmen)) ((formale Sprachen) und
MehrChomsky-Grammatiken 16. Chomsky-Grammatiken
Chomsky-Grammatiken 16 Chomsky-Grammatiken Ursprünglich von Chomsky in den 1950er Jahren eingeführt zur Beschreibung natürlicher Sprachen. Enge Verwandschaft zu Automaten Grundlage wichtiger Softwarekomponenten
MehrTheorie der Informatik Übersicht. Theorie der Informatik SAT Graphenprobleme Routing-Probleme. 21.
Theorie der Informatik 19. Mai 2014 21. einige NP-vollständige Probleme Theorie der Informatik 21. einige NP-vollständige Probleme 21.1 Übersicht 21.2 Malte Helmert Gabriele Röger 21.3 Graphenprobleme
MehrVorlesung Theoretische Informatik (Info III)
1 Vorlesung Theoretische Informatik (Info III) Prof. Dr. Dorothea Wagner Dipl.-Math. Martin Holzer 22. Januar 2008 Einleitung Motivation 2 Thema heute Kontextfreie Grammatiken: Lemma von Ogden Eigenschaften
MehrLR Parsing. Prinzip: Entwicklung des Parsebaums bottom up, von links nach rechts (Abb. 2.52)
LR Parsing Prinzip: Entwicklung des Parsebaums bottom up, von links nach rechts (Abb. 2.52) Parserkonfiguration: s 0 X 1 s 1... X m s m, t i t i 1... t n 1.Stack: enthält abwechselnd Zustand sk und Grammatiksymbol
MehrAufgabe Mögliche Punkte Erreichte Punkte a b c d Σ a b c d Σ x1 13
Universität Karlsruhe Theoretische Informatik Fakultät für Informatik WS 2003/04 ILKD Prof. Dr. D. Wagner 14. April 2004 2. Klausur zur Vorlesung Informatik III Wintersemester 2003/2004 Hier Aufkleber
MehrReguläre Sprachen. R. Stiebe: Theoretische Informatik für ING-IF und Lehrer,
Reguläre Sprachen Reguläre Sprachen (Typ-3-Sprachen) haben große Bedeutung in Textverarbeitung und Programmierung (z.b. lexikalische Analyse) besitzen für viele Entscheidungsprobleme effiziente Algorithmen
MehrStrukturelle Rekursion und Induktion
Kapitel 2 Strukturelle Rekursion und Induktion Rekursion ist eine konstruktive Technik für die Beschreibung unendlicher Mengen (und damit insbesondere für die Beschreibung unendliche Funktionen). Induktion
MehrLösungen zur 1. Klausur. Einführung in Berechenbarkeit, formale Sprachen und Komplexitätstheorie
Hochschuldozent Dr. Christian Schindelhauer Paderborn, den 21. 2. 2006 Lösungen zur 1. Klausur in Einführung in Berechenbarkeit, formale Sprachen und Komplexitätstheorie Name :................................
MehrTheorie der Informatik. Theorie der Informatik. 6.1 Einführung. 6.2 Alphabete und formale Sprachen. 6.3 Grammatiken. 6.4 Chomsky-Hierarchie
Theorie der Informatik 17. März 2014 6. Formale Sprachen und Grammatiken Theorie der Informatik 6. Formale Sprachen und Grammatiken Malte Helmert Gabriele Röger Universität Basel 17. März 2014 6.1 Einführung
MehrTheoretische Informatik: Berechenbarkeit und Formale Sprachen
Prof. Dr. F. Otto 24.03.2011 Fachbereich Elektrotechnik/Informatik Universität Kassel Klausur zur Vorlesung Theoretische Informatik: Berechenbarkeit und Formale Sprachen WS 2010/2011 Name:................................
MehrFeaturegrammatiken. Vorlesung Computerlinguistische Techniken Alexander Koller. 21. November 2014
Featuregrammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 21. November 2014 Musterlösung Ü2 A4 Erste 100 Wörter des Brown-Korpus aueben: import nltk words = nltk.corpus.brown.words()
MehrKontextfreie Grammatiken
Kontextfreie Grammatiken Bisher haben wir verschiedene Automatenmodelle kennengelernt. Diesen Automaten können Wörter vorgelegt werden, die von den Automaten gelesen und dann akzeptiert oder abgelehnt
MehrAutomaten und Formale Sprachen SoSe 2013 in Trier
Automaten und Formale Sprachen SoSe 2013 in Trier Henning Fernau Universität Trier fernau@uni-trier.de 2. Juni 2013 1 Automaten und Formale Sprachen Gesamtübersicht Organisatorisches Einführung Endliche
Mehr