Programmierkurs Python II
|
|
|
- Rosa Beckenbauer
- vor 9 Jahren
- Abrufe
Transkript
1 Programmierkurs Python II Michaela Regneri & tefan Thater FR 4.7 Allgemeine Linguistik (Computerlinguistik) Universität des aarlandes ommersemester 2010 (Charniak, 1997) the dog biscuits N V N V the dog biscuits the dog biscuits N V the dog biscuits!!!!!! V!! N!! V!!!! DET N 2 Ambiguität & Disambiguierung Probabilistische Disambiguierung wenn mehrere Ableitungsbäume für eine gegebene Eingabe möglich sind wähle den wahrscheinlichsten Wir brauchen: - Probabilistisches Grammatikmodell - Methoden zur Ermittlung von Wahrscheinlichkeiten 3
2 (Weitere) Motivation Natürliche prache ist hochgradig ambig Desambiguierung Grammatikentwicklung Automatische Induktion von Grammatiken Effiziente uche wahrscheinlichste Hypothese(n) zuerst Robustheit 4 Probabilistische kontextfreie Grammatiken (PCFG) Probabilistische kontextfreie Grammatik (PCFG) - eine kontextfreie Grammatik V, Σ, R, - zusammen mit einer Funktion P, die jeder Regel einen Wert w [0, 1] zuweist, so dass Σβ V* P(A β) = 1 P(A β) is die bedingte Wahrscheinlichkeit, dass in einer Ableitung das ymbol A zu β expandiert wird. - Alternative Notationen: P(β A), P(A β A), A β [p] 5 Ableitungsbaum (Wdh.) Ableitungsbäume einer kontextfreien Grammatik G repräsentieren Ableitungen * w: - Die Wurzel ist mit dem tartsymbol beschriftet - Blattknoten sind mit Terminalsymbolen oder ε beschriftet - Innere Knoten repräsentieren zusammen mit ihren Töchterknoten die bei der Ableitung verwendeten Regeln Parsing: Ermittlung eines oder mehrerer Ableitungsbäme Probabilistisches Parsing: Ermittlung des wahrscheinlichsten Ableitungsbaum 6
3 Probabilistische kontextfreie Grammatiken (PCFG) Eine PCFG G weist einem atz w einen Ableitungsbaum T mit einer bestimmten Wahrscheinlichkeit zu. Die Wahrscheinlichkeit eines Ableitungsbaums T ist das Produkt der Wahrscheinlichkeit aller Regeln, die zum Aufbau des Ableitungsbaums T verwendet wurden: - P(T, w) = P(T) = n T P(R(n)) - R(n) ist die Regel, mit der Knoten n expandiert wurde - Beachte: P(T, w) = P(T) P(w T) = P(T), da P(w T) = 1 Die Wahrscheinlichkeit eines Wortes (atz) ist die umme der Wahrscheinlichkeiten seiner Ableitungen: - Für w L(G) ist P(w) = ΣT P(w, T) 7 (Charniak, 1997) the dog biscuits!!! [1.0]!! V! [0.8]!! V! [0.2]!! DET N! [0.5]!! N! [0.3]!!! [0.15]!!! [0.05]! P(t) =! DET! the! [1.0]! N! alespeople! [0.55]! N! dog! [0.25]! N! biscuits! [0.2]! V! sold! [1.0] N 1.0 V the dog biscuits! =! (Charniak, 1997) the dog biscuits!!! [1.0]!! V! [0.8]!! V! [0.2]!! DET N! [0.5]!! N! [0.3]!!! [0.15]!!! [0.05]! P(t) =! ! =! DET! the! [1.0]! N! alespeople! [0.55]! N! dog! [0.25]! N! biscuits! [0.2]! V! sold! [1.0] N 1.0 V the dog biscuits 9
4 (Charniak, 1997) the dog biscuits!!! [1.0]!! V! [0.8]!! V! [0.2]!! DET N! [0.5]!! N! [0.3]!!! [0.15]!!! [0.05]! P(t) =! ! =! DET! the! [1.0]! N! alespeople! [0.55]! N! dog! [0.25]! N! biscuits! [0.2]! V! sold! [1.0] N V the dog biscuits 10 Probabilistische kontextfreie Grammatiken (PCFG) Die Wahrscheinlichkeit eines Wortes (atz) ist die umme der Wahrscheinlichkeiten seiner Ableitungen: - Für w L(G) ist P(w) = ΣT P(w, T) Eine PCFG ist konsistent, wenn Σw L(G) P(w) = 1 Rekursion kann zu inkonsistenten Grammatiken führen: - [0.6] - a [0.4] 11 Eine Inkonsistente PCFG! [0.6] bzw.! [0.4] a! [0.4] bzw.! [0.6] P(a i ) = #Bäume(a i ) 0.6 i i = P(a) = 0.4, P(aa) = 0.096, P(aaa) = , P(a i ) = #Bäume(a i ) 0.4 i i = P(a) = 0.6, P(aa) = 0.144, P(aaa) = , Anzahl Ableitungsbäme für a i+1 = i-te Catalanzahl 12
5 Eine Inkonsistente PCFG 1,00 0,75 0,50 0,25 "[0.6] bzw." [0.4] a" [0.4] bzw." [0.6] 0 Eingabelänge Probabilistisches Parsing prachmodelle ( inside probabilities ) ermittle zu einer gegebenen Eingabekette w L(G) die Wahrscheinlichkeit, dass * w - P(w) = ΣT P(w, T) Probabilistisches Parsing ( viterbi scores ) ermittle zu einer gegebenen Eingabekette w L(G) den wahrscheinlichsten Ableitungsbaums T(w). - T(w)! = arg maxt P(T w) P(T, w)! = arg maxt P(w)! = arg maxt P(T) 14 Eigenschaften von PCFGen Die Wahrscheinlichkeit eines Teilbaums ist unabhängig vom Kontext in dem er vorkommt Die Wahrscheinlichkeit eines Teilbaums ist unabhängig von den Knoten, die ihn dominieren 15
6 Probabilistisches CYK-Parsing Bringe die Grammatik in Chomsky-Normalform Erweitere den CYK-Algorithmus: - peichere zusätzlich Wahrscheinlichkeiten T[i, j, A] [0, 1] Wahrscheinlichkeite einer Kette - T[i, j, A] = umme der Wahrscheinlichkeiten aller Ableitungen A * wi+1 wj Wahrscheinlichkeit eines Ableitungsbaums - T[i, j, A] = die Wahrscheinlichkeit der wahrscheinlichsten Ableitung A * wi+1 wj - B[i, j, A] repräsentiert den Ableitungsbaum ( Backpointer ) 16 CYK (ohne Wahrscheinlichkeiten) CYK(w = w1... wn): initialisiere T[i, j] = für alle 0 i < j n for i in 1... n:! T[i-1, i] = { A A wi } for j in 2... k:! for i in j - 2 0:!! for k in i j - 1:!!! for all A B C:!!!! if B T[i, k] und C T[k, j] then!!!!! T[i, j] = T[i, j] {A} return T[0, n] 17 CYK mit Wahrscheinlichkeiten (Erkenner) PCYK(w = w1... wn): initialisiere π[i, j, A] = 0 für alle 0 i < j n, A N for i in 1... n:! π[i-1, i, A] = P(A wi) for j in 2... k:! for i in j - 2 0:!! for k in i j - 1:!!! for all A B C:!!!! if π[i, k, B] > 0 und π[k, j, C] > 0 then!!!!! π[i, j, A] = π[i, j, A] +!!!!!! P(A B C) * π[i, k, B] * π[k, j, C] return π[0, n, ] Beachte: Wahrscheinlichkeit eines Wortes = umme der Wahrscheinlichkeiten seiner Ableitungen 18
7 CYK mit Wahrscheinlichkeiten (Parser) PCYK(w = w1... wn):... for j in 2... k:! for i in j - 2 0:!! for k in i j - 1:!!! for all A B C:!!! pr = π[i, k, B] * π[k, j, C] * P(A B C)!!!! if pr > π[i, j, A] then!!!! π[i, j, A] = pr!!!! B[i, j, A] = Backpointer aktualisieren return besten Baum + Wahrscheinlickeit π[0, n, ] 19 Regelwahrscheinlichkeiten Möglichkeiten zur Ermittlung ( Abschätzung ) der Regelwahrscheinlichkeiten: - über relative Häufigkeiten aus mit syntaktisch annotierten Korpora ( Baumbanken ) - ohne annotierte Daten durch Anwendung des Inside-Outside- Algorithmus 20 Regelwahrscheinlichkeiten Ausgangspunkt: syntaktisch annotiertes Korpus = Menge von Bäumen Extraktion einer Grammatik: Regeln = Menge der Teilbäume der Tiefe 1 Abschätzung der Regelahrscheinlichkeiten: - P(A α) = count(a α) Σβ count(a β) - count(a α) gibt an, wie Häufig eine Regel in allen Bäumen verwendet wurde. 21
8 (Beispiel: Webber/Keller) Regelwahrscheinlichkeiten Eine einfache Baumbank: - 1: [ [ grass] [ grows]] - 2: [ [ grass] [ grows] [AP fast]] - 3: [ [ grass] [ grows] [AP slowly]] - 4: [ [ bananas] [ grow]] Regeln & Regelwahrscheinlichkeiten: -! 2/4 - AP! 2/4 - grass! 3/ (Beispiel: Webber/Keller) Regelwahrscheinlichkeiten Nr. Regel P(A α) r1!! 2/4 r2!! AP 2/4 r3!! grass 3/4 r4!! bananas 1/4 r5!! grows 3/4 r6!! grow 1/4 r7!ap! fast 1/2 r8!ap! slowly 1/2 23 (Beispiel: Webber/Keller) Regelwahrscheinlichkeiten Wahrscheinlichkeiten der Beispielsätze: - P(1) = P(r1) P(r3) P(r5) = 2/4 3/4 3/4 = P(2) = P(r2) P(r3) P(r5) P(r7) = P(3) = P(r2) P(r3) P(r5) P(r7) = P(4) = P(r1) P(r4) P(r6) =
9 Evaluation Coverage: Wieviele ätze aus dem Testkorpus werden von der Grammatik als wohlgeformt erkannt? - Annahme: die ätze des Korpus sind wohlgeformt Akkuratheit: Wieviele der laut Grammatik wahrscheinlichsten Bäume sind laut Testkorpus korrekt? - wird als relative Korrektheit bzgl. Kategorie, Anfangs- und Endposition aller Konstituenten gemessen - Labelled precision: Anzahl korrekter Konstituenten im Ableitungsbaum relativ zu allen Konstituenten des Baums - Labelled recall: Anzahl korrekter Konstituenten im Ableitungsbaum relativ zu Referenzkorpus 25 Evaluation Labelled Precision: # korrekte Konstituenten im Ableitungsbaum für Eingabe # Konstituenten im Ableitungsbaum für Eingabe Labelled Recall: # korrekte Konstituenten im Ableitungsbaum für Eingabe # Konstituenten im Referenzkorpus für EIngabe Korrekt: die Konstituente hat die richtige Kategorie und überspannt den richtigen Teil der Eingabe. - atzzeichen etc. werden üblicherweise ignoriert 26 Chomsky-Normalform Wenn bereits eine Grammatik vorliegt: - ersetze Regel A A1 A2 A3 Ak [p] durch - A1,,Ak-1 A1 Ak-1 [1.0] - A A1,,Ak-1 Ak [p] Wenn die Grammatik aus einer Baumbank extrahiert wird, kann man alternativ zuerst die Bäume der Baumbank binarisieren. 27
10 Literatur Jurafsky & Martin (2009) peech and Language Processing Kapitel 14. Manning & chütze (1999). Foundations of tatistical Natural Language Processing. Kapitel 11 & 12. Eugene Charniak (1993). tatistical Language Learning. Kapitel 5. 28
Probabilistische kontextfreie Grammatiken
Mathematische Grundlagen III Probabilistische kontextfreie Grammatiken 14 Juni 2011 1/26 Ambiguität beim Parsing Wörter können verschiedene Bedeutungen haben und mehr als einer Wortkategorien angehören
Der Earley-Algorithmus
Der Earley-Algorithmus Kursfolien Karin Haenelt 25.03.02 1 25.03.02 2 Inhalt Funktion des Earley-Algorithmus Begriffe Erkenner/Parser Kontextfreie Grammatik Ein Beispiel Funktionen des Algorithmus Funktionsweise
Programmierkurs Python II
Programmierkurs Python II Michaela Regneri & Stefan Thater FR 4.7 Allgemeine Linguistik (Computerlinguistik) Universität des Saarlandes Sommersemester 2011 Prüfungsleistungen Klausur am Semesterende -
Übungsblatt 7. Vorlesung Theoretische Grundlagen der Informatik im WS 16/17
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 7 Vorlesung Theoretische Grundlagen der Informatik im W 16/17 Ausgabe 17. Januar 2017 Abgabe 31. Januar 2017, 11:00 Uhr (im
Kontextfreie Sprachen. Automaten und Formale Sprachen alias Theoretische Informatik. Sommersemester Kontextfreie Sprachen
Automaten und Formale Sprachen alias Theoretische Informatik Sommersemester 2012 Dr. Sander Bruggink Übungsleitung: Jan Stückrath Wortproblem: der CYK-Algorithmus Pumping Lemma für kontextfreie Sprachen
Formale Methoden 1. Gerhard Jäger 12. Dezember Uni Bielefeld, WS 2007/2008 1/22
1/22 Formale Methoden 1 Gerhard Jäger [email protected] Uni Bielefeld, WS 2007/2008 12. Dezember 2007 2/22 Bäume Baumdiagramme Ein Baumdiagramm eines Satzes stellt drei Arten von Information
Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart
Institut für maschinelle Sprachverarbeitung Universität Stuttgart [email protected] Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle
Der Earley-Algorithmus.
1 Der Earley-Algorithmus. Eine Erläuterung der formalen Spezifikation mit linguistischen Beispielen Kursskript Karin Haenelt, 25.07.2001 1 Einleitung In diesem Skript wird die formale Spezifikation des
Ein Fragment von Pascal
Ein Fragment von Pascal Wir beschreiben einen (allerdings sehr kleinen) Ausschnitt von Pascal durch eine kontextfreie Grammatik. Wir benutzen das Alphabet Σ = {a,..., z, ;, :=, begin, end, while, do} und
Übungsblatt 7. Vorlesung Theoretische Grundlagen der Informatik im WS 16/17
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Übungsblatt 7 Vorlesung Theoretische Grundlagen der Informatik im W 16/17 Ausgabe 17. Januar 2017 Abgabe 31. Januar 2017, 11:00 Uhr (im
Lehrstuhl für Computerlinguistik
Ruprecht-Karls -Universität Heidelberg Lehrstuhl für Computerlinguistik Hauptseminar: Parsing Leitung: PD Dr. Karin Haenelt Referent: A. S. M. Abdullah Eusufzai Referat zum Thema: Probabilistisches Parsing
Klammersprache Definiere
Klammersprache w=w 1...w n {(,)}* heißt korrekt geklammert, falls die Anzahl ( ist gleich der Anzahl ). in jedem Anfangsstück w 1,...,w i (i n) ist die Anzahl ( nicht kleiner als die Anzahl ). Definiere
Übersicht. (A) Kontextfreie Sprachen (B) Syntaxanalyse (Parsing) (C) Grenzen der Kontextfreiheit
Übersicht (A) Kontextfreie Sprachen (B) Syntaxanalyse (Parsing) (C) Grenzen der Kontextfreiheit (B) Syntaxanalyse 1. Definition Parsing 2. Einfache Parsestrategien: Top-down Bottom-Up Probleme beim Parsen
Ein Satz der deutschen Sprache besitzt ein Subjekt, ein Prädikat und ein Objekt (SPO).
1 Grammatiken Autor: Tilman Blumenbach Letzte Änderung: 28. Juni 2012 18:15 Ziel von Grammatiken Wollen die Struktur von Sprachen modellieren und charakterisieren. Beispiel Ein Satz der deutschen Sprache
Theoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 17. Januar 2012 INSTITUT FÜR THEORETISCHE 0 KIT 18.01.2012 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der
Kontextfreie Grammatiken
Kontextfreie Grammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 16. Oktober 2015 Übersicht Worum geht es in dieser Vorlesung? Übungen und Abschlussprojekt Kontextfreie Grammatiken Computerlinguistische
Beweisidee: 1 Verwende den Keller zur Simulation der Grammatik. Leite ein Wort. 2 Problem: der Keller darf nicht beliebig verwendet werden, man kann
Automaten und Formale prachen alias Theoretische Informatik ommersemester 2011 Dr. ander Bruggink Übungsleitung: Jan tückrath Wir beschäftigen uns ab jetzt einige Wochen mit kontextfreien prachen: Kontextfreie
4. Lernen von Entscheidungsbäumen
4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
Baumadjunktionsgrammatiken
Baumadjunktionsgrammatiken Vorlesung Grammatikformalismen Alexander Koller 22. April 2016 Grammatikformalismen Grammatik- formalismus Grammatik- theorie abstrakt Grammatik prache konkret formal linguistisch
Kontextfreie (Typ-2) Sprachen
Kontextfreie (Typ-2) prachen Bsp.: L 1 = { n 1 n n>} с {,1}* 1 1 L 2 = {w wє{,1}* und w=w rev } с {,1}* 11 1 ε L 3 = {w w hat genausoviele Nullen wie Einsen} с {,1}* B 1 ε 1 B 1 1 BB 1 11 11 11 11B 111
...imbeispiel: Die Konkatenation der Blätter des Ableitungsbaums t bezeichnen wir auch mit yield(t). liefert die Konkatenation: name int + int.
Die Konkatenation der Blätter des Ableitungsbaums t bezeichnen wir auch mit yield(t)....imbeispiel: E 0 E 1 + T 1 T 0 F 2 T 1 F 2 int F 1 int name liefert die Konkatenation: name int + int. 273 Die Grammatik
Schwach kontextsensitive Grammatikformalismen
chwach kontextsensitive Grammatikformalismen! Vorlesung Grammatikformalismen Alexander Koller! 2. Juni 2015 Grammatikformalismen Parsingkomplexität O(n) O(n 3 ) polynomiell exponentiell PPACE-vollst. unentscheidbar
Teil IV. Kontextfreie Sprachen, Teil 4: Kellerautomaten
Teil IV Kontextfreie prachen, Teil 4: Kellerautomaten Kellerautomaten (Idee) Ziel Automatenmodell für CFL Kontextfreie prachen Kellerautomaten 1 / 13 Kellerautomaten (Idee) Ziel Automatenmodell für CFL
Ogden s Lemma: Der Beweis (1/5)
Ogden s Lemma: Der Beweis (1/5) Wir betrachten zuerst die Rahmenbedingungen : Laut dem auf der vorhergehenden Folie zitierten Satz gibt es zur kontextfreien Sprache L eine Grammatik G = (Σ, V, S, P) in
Musterableitung Relativsätze als Hilfestellung zur Lösung von Aufgaben in den Übungen und der Klausur
eminar: Formale emantik Modul 04-006-1006: Grammatikorie eminarleiter: Anke Assmann Institut für Linguistik Universität Leipzig Musterableitung Relativsätze als Hilfestellung zur Lösung von Aufgaben in
Theoretische Grundlagen der Informatik
Theoretische Grundlagen der Informatik Vorlesung am 15.01.2015 INSTITUT FÜR THEORETISCHE 0 KIT 15.01.2015 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik
Einführung in die Computerlinguistik Formale Grammatiken rechtslineare und kontextfreie Grammatiken Kellerautomaten
Einführung in die Computerlinguistik Formale Grammatiken rechtslineare und kontextfreie Grammatiken Kellerautomaten Dozentin: Wiebke Petersen 13. Foliensatz Wiebke Petersen Einführung CL 1 Formale Grammatik
Theoretische Grundlagen der Informatik. Vorlesung am 8. Januar INSTITUT FÜR THEORETISCHE INFORMATIK
Theoretische Grundlagen der Informatik 0 08.01.2019 Torsten Ueckerdt - Theoretische Grundlagen der Informatik KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft www.kit.edu Letzte Vorlesung Eine
Der VITERBI-Algorithmus
Der VITERBI-Algorithmus Hauptseminar Parsing Sommersemester 2002 Lehrstuhl für Computerlinguistik Universität Heidelberg Thorsten Beinhorn http://janus.cl.uni-heidelberg.de/~beinhorn 2 Inhalt Ziel des
Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong
Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem
kontextfreie Grammatiken Theoretische Informatik kontextfreie Grammatiken kontextfreie Grammatiken Rainer Schrader 14. Juli 2009 Gliederung
Theoretische Informatik Rainer Schrader Zentrum für Angewandte Informatik Köln 14. Juli 2009 1 / 40 2 / 40 Beispiele: Aus den bisher gemachten Überlegungen ergibt sich: aus der Chomsky-Hierarchie bleiben
Hidden Markov Models
Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung
Kontextfreie Grammatiken. Kontextfreie Grammatiken 1 / 48
Kontextfreie Grammatiken Kontextfreie Grammatiken 1 / 48 Was kann man mit kontextfreien Grammatiken anfangen? Kontextfreie Grammatiken, kurz: werden zur Modellierung von KFGs rekursiv definierten baumartigen
Der Viterbi Algorithmus
M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes
Umformung NTM DTM. Charakterisierung rek. aufz. Spr. Chomsky-3-Grammatiken (T5.3) Chomsky-0-Grammatik Rek. Aufz.
Chomsky-0-Grammatik Rek. Aufz. Satz T5.2.2: Wenn L durch eine Chomsky-0- Grammatik G beschrieben wird, gibt es eine NTM M, die L akzeptiert. Beweis: Algo von M: Schreibe S auf freie Spur. Iteriere: Führe
Syntax natürlicher Sprachen
Syntax natürlicher Sprachen 02: Grammatik und Bäume Martin Schmitt Ludwig-Maximilians-Universität München 25.10.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 25.10.2017 1 1 Syntax im NLTK 2 Grammatik
Hidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
Automaten und formale Sprachen Notizen zu den Folien
Automaten und formale prachen Notizen zu den Folien 10 Kontextfreie Grammatiken Beispiele für kontextfreien Grammatiken ei Σ = {a, b}. Beispiel 1 (Folie 211, oben) Geben ie eine kontextfreie Grammatik
I.5. Kontextfreie Sprachen
I.5. Kontextfreie prachen Zieht man in Betracht, dass BNF-yteme gerade so beschaffen sind, dass auf der linken eite immer genau ein Nichtterminal steht, so sind das also gerade die Ableitungsregeln einer
Kapitel 2: Formale Sprachen Kontextfreie Sprachen. reguläre Grammatiken/Sprachen. kontextfreie Grammatiken/Sprachen
reguläre Grammatiken/prachen Beschreibung für Bezeichner in Programmiersprachen Beschreibung für wild cards in kriptsprachen (/* reguläre Ausdrücke */)?; [a-z]; * kontextfreie Grammatiken/prachen Beschreibung
Automaten und Formale Sprachen alias Theoretische Informatik. Sommersemester 2011
Automaten und Formale Sprachen alias Theoretische Informatik Sommersemester 2011 Dr. Sander Bruggink Übungsleitung: Jan Stückrath Sander Bruggink Automaten und Formale Sprachen 1 Wir beschäftigen uns ab
Ogden s Lemma (T6.4.2)
Weiteres Beispiel L={a r b s c t d u r=0 s=t=u} Nahe liegende Vermutung: L nicht kontextfrei. Kann man mit dem Pumping-Lemma nicht zeigen. r=0: Pumpen erzeugt Wort aus L. r>0: Pumpen der a s erzeugt Wort
Grundlagen der Theoretischen Informatik
Grundlagen der Theoretischen Informatik 4. Kellerautomaten und kontextfreie Sprachen (I) 3.06.2015 Viorica Sofronie-Stokkermans e-mail: [email protected] 1 Organisatorisches 1. Teilklausur: Mittwoch,
Erkennung der kontextfreien Grammatiken mittels Boolescher Matrixmultiplikation
Erkennung der kontextfreien Grammatiken mittels Boolescher Matrixmultiplikation Valiant-Erkenner Referent: Fedor Uvarov eminar Algorithmen zu kontextfreien Grammatiken Dozenten: Prof Dr. Hofmann, Dr. Leiß
2.6 Deterministisches Top-Down-Parsen
48 2.6 Deterministisches Top-Down-Parsen Als nächstes wollen wir uns mit Methoden zur syntaktischen Analyse befassen. Der lexikale canner eines Compilers liest die Eingabe Zeichen für Zeichen und erzeugt
Programmierkurs Python II
Programmierkurs Python II Stefan Thater & Michaela Regneri Universität des Saarlandes FR 4.7 Allgemeine Linguistik (Computerlinguistik) Übersicht Topologische Sortierung (einfach) Kürzeste Wege finden
Einführung in die Computerlinguistik
Einführung in die Computerlinguistik Kontextfreie Sprachen und Pushdown-Automaten Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Formale Komplexität natürlicher Sprachen WS 03/04 Wiederholung c
Kapitel 2: Formale Sprachen Gliederung
Gliederung 0. Motivation und Einordnung 1. Endliche Automaten 2. Formale Sprachen 3. Berechnungstheorie 4. Komplexitätstheorie 2.1. Chomsky-Grammatiken 2.2. Reguläre Sprachen 2.3. 2/5, Folie 1 2017 Prof.
Lemma Für jede monotone Grammatik G gibt es eine kontextsensitive
Lemma Für jede monotone Grammatik G gibt es eine kontextsensitive Grammatik G mit L(G) = L(G ). Beweis im Beispiel (2.): G = (V,Σ, P, S) : P = {S asbc, S abc, CB BC, ab ab, bb bb, bc bc, cc cc}. (i) G
Mathematische Grundlagen der Computerlinguistik Bäume
Mathematische Grundlagen der Computerlinguistik Dozentin: Wiebke Petersen 6. Foliensatz (basierend auf Folien von Gerhard Jäger) Wiebke Petersen math. Grundlagen 1 Baumdiagramme Ein Baumdiagramm eines
Fachseminar Compilerbau
Fachseminar Compilerbau WS 08/09 Matthias Schiller Syntaktische Analyse 1. Prinzip der Top-Down-Analyse 2. LL(1)-Grammatiken Modell-Vorstellung Der Scanner liefert als Ergebnis der lexikalischen Analyse,
Teil VI. Anwendungen, Teil 1: XML und deterministische reguläre Ausdrücke
Teil VI Anwendungen, Teil 1: XML und deterministische reguläre Ausdrücke XML anhand von Beispielen... Anwendungen XML 1 / 10 XML-Schema In vielen Anwendungen sollen nur bestimmte XML-Dokumente zugelassen
Einführung Computerlinguistik. Konstituentensyntax II
Einführung Computerlinguistik Konstituentensyntax II Hinrich Schütze & Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 2013-11-18 1 / 31 Take-away Phrasenstrukturgrammatik:
Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur
Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Crocker/Demberg/Staudte Sommersemester 2014 17.07.2014 1. Sie haben 90 Minuten Zeit zur Bearbeitung der Aufgaben.
Kontextfreie Grammatiken. Kontextfreie Grammatiken 1 / 45
Kontextfreie Grammatiken Kontextfreie Grammatiken 1 / 45 Was kann man mit kontextfreien Grammatiken anfangen? Kontextfreie Grammatiken, kurz: werden zur Modellierung von KFGs beliebig tief geschachtelten
F2 Zusammenfassung Letzte Tips zur Klausur
F2 Zusammenfassung Letzte Tips zur Klausur Berndt Farwer FB Informatik, Uni HH F2-ommersemester 2001-(10.6.) p.1/15 Funktionen vs. Relationen Funktionen sind eindeutig, Relationen brauchen nicht eindeutig
