Semantische Technologien (M-TANI)

Größe: px
Ab Seite anzeigen:

Download "Semantische Technologien (M-TANI)"

Transkript

1 Aktuelle Themen der Angewandten Informatik Semantische Technologien (M-TANI) Christian Chiarcos Angewandte Computerlinguistik 16. Mai 2013

2 Wortsemantik grammatische Klassifikation von Worten Parts of Speech lexikalisch-semantische Klassifikation von Worten WordNet Word Sense Disambiguation wissensbasiert

3 Wortarten (Parts of Speech [POS]) Klassifikation von Einzelworten nach grammatischen Merkmalen (i.d.r.) Morphosyntax kontextabhängig es existieren mehrere Klassifikationen Standardisierung nur auf Ebene von Einzelsprachen phosyntacticcategory

4 Parts-of-Speech (English) Open class (lexical) words Nouns Verbs Adjectives yellow Proper Common Main Adverbs slowly IBM cat / cats see Italy snow registered Numbers more 122,312 Closed class (functional) Modals one Determiners the some can Prepositions to with Conjunctions and or had Particles off up Pronouns he its more

5 POS, Annotationsschemata für das Deutsche Stuttgart-Tübingen Tag-Set (STTS) pdf Protégé: für das Englische Penn Treebank Tagset (PTB) penn_treebank_pos.html Protégé:

6 POS Tagging Input: the lead paint is unsafe POS: determiner noun noun verb adjective Output: the/dt lead/nn paint/nn is/vb unsafe/jj Anwendungen: text-to-speech (Aussprache von lead) kategorielle Suche mit regexps: (Det) Adj* N+ Vorverarbeitung für Syntax grob-semantische Klassifikation (einige) grammatische Kategorien zeigen semantische Prototypen an; dazu später mehr

7 POS Tagging überwachte Klassifikation das Korpus ist manuell annotiert, wir nutzen die POS Tags als Zielklassifikation unüberwacht das Korpus ist nicht annotiert, wir klassifizieren Einzelworte nach ihrem Kontext und fassen sie zusammen schwach überwacht das Korpus ist nicht annotiert, aber wir haben ein Wörterbuch mit allen möglichen Tags für jedes Wort

8 Performance Input: the lead paint is unsafe Output: the/dt lead/nn paint/nn is/vb unsafe/jj Evaluation: Accuracy (# correct tags) approx. 97% für Englisch und Deutsch Aber: Baseline ~ 90% Tagge jedes Wort mit dem für es häufigsten Tag Tagge unbekannte Worte als Substantive

9 Ambiguität VBD VB VBN VBZ VBP VBZ NNP NNS NN NNS CD NN Fed raises interest rates 0.5 percent Primäre Entscheidungshilfen Kontext Wortidentität

10 Faktorensuche correct tags PN Verb Det Noun Prep Noun Prep Det Noun Bill directed a cortege of autos through the dunes PN Adj Det Noun Prep Noun Prep Det Noun Verb Verb Noun Verb Adj some possible tags for Prep each word (maybe more)? Tags hängen ab vom (a) Wort, (b) vorangehenden/nachfolgenden Tag => kennen wir nicht!

11 Faktorensuche correct tags PN Verb Det Noun Prep Noun Prep Det Noun Bill directed a cortege of autos through the dunes PN Adj Det Noun Prep Noun Prep Det Noun Verb Verb Noun Verb Adj some possible tags for Prep each word (maybe more)? Tags hängen ab vom (a) Wort, (b) vorangehenden/nachfolgenden Tag => kennen wir nicht!

12 Faktorensuche correct tags PN Verb Det Noun Prep Noun Prep Det Noun Bill directed a cortege of autos through the dunes PN Adj Det Noun Prep Noun Prep Det Noun Verb Verb Noun Verb Adj some possible tags for Prep each word (maybe more)? Tags hängen ab vom (a) Wort, (b) vorangehenden/nachfolgenden Tag => kennen wir nicht!

13 Hidden Markov Models (HMM) einfacher Formalismus zur Prozessmodellierung sequence classification wir behandeln nur den einfachsten möglichen Fall Bigrams jedes Wort wird aufgrund des vorangehenden Wortes klassifiziert mehr gibt es in Texttechnologie

14 POS-Tagging Gesucht Folge von POS tags t für eine Folge von Worten w t = argmax t P t w) über alle möglichen Sequenzen t und die beobachtete Wortfolge w

15 POS-Tagging Gesucht Folge von POS tags t für eine Folge von Worten w t = argmax t P t w) Bayes P t w) = P w t) P(t) P(w)

16 POS-Tagging Gesucht t = argmax t P w t) P(t) P(w) = argmax t P w t) P(t)

17 POS-Tagging Gesucht t = argmax t P w t) P(t) P(w) = argmax t P w t) P(t)

18 POS-Tagging Gesucht likelihood prior t = argmax t P w t) P(t) Hidden-Markov-Modellierung Jeder Tag t i hängt nur vom vorangehenden Tag t i 1 ab Jedes Wort w i hängt nur vom Tag t i ab

19 Markov-Modelle Zustände und (wahrscheinlichkeitsbedingte) Zustandsübergänge gewichteter endlicher Automat Prozesse werden als Pfade (Trajektorien) im Möglichkeitsraum modelliert s b s a s c sd Modell

20 Markov-Modelle Zustände s 1,, s N wahrscheinlichkeitsinitialisierter Anfangszustand t 1 *s 1,, s N + Sequenz von Zustandsübergängen t = (t 1,, t M ) mit t i s 1,, s N Übergangswahrscheinlichkeiten P t j t i P s k s l für t j s k und t i s l s b s b s a s c t 1 s c sd sd Modell Zustandsfolge t 1

21 Markov-Modelle Zustände s 1,, s N wahrscheinlichkeitsinitialisierter Anfangszustand t 1 *s 1,, s N + Sequenz von Zustandsübergängen t = (t 1,, t M ) mit t i s 1,, s N Übergangswahrscheinlichkeiten P t j t i P s k s l für t j s k und t i s l s b t 2 s a s c t 1 s c sd sd Modell Zustandsfolge t 1, t 2

22 Markov-Modelle Zustände s 1,, s N wahrscheinlichkeitsinitialisierter Anfangszustand t 1 *s 1,, s N + Sequenz von Zustandsübergängen t = (t 1,, t M ) mit t i s 1,, s N Übergangswahrscheinlichkeiten P t j t i P s k s l für t j s k und t i s l s b t 2 t 3 s a s c t 1 sd sd Modell Zustandsfolge t 1, t 2, t 3

23 Markov-Modelle Zustände s 1,, s N wahrscheinlichkeitsinitialisierter Anfangszustand t 1 *s 1,, s N + Sequenz von Zustandsübergängen t = (t 1,, t M ) mit t i s 1,, s N Übergangswahrscheinlichkeiten P t j t i P s k s l für t j s k und t i s l s b t 2 t 3 s a s c t 4 sd sd Modell Zustandsfolge t 1, t 2, t 3, t 4

24 Hidden-Markov-Modelle (HMMs) versteckte Zustände s 1,, s N sind nicht direkt beobachtbar Sequenz von Zustandsübergängen t = (t 1,, t M ) mit t i s 1,, s N Übergangswahrscheinlichkeiten P t j t i P s k s l für t j s k und t i s l Menge von möglichen Beobachtungen w 1,, w M haben keinen Einfluss auf Zustandsübergänge hängen nur vom aktuellen Zustand ab Emissionswahrscheinlichkeiten P w k t i = P(w k s l ) für t i s l

25 HMMs Zustände sind POS Tags, Beobachtungen sind Worte t 1 t 2 t 3 t n w 1 w 2 w n likelihood prior t = argmax t P w t) P(t) P w t ~ P(w i t i ) i P t ~ P(t i t i 1 ) i

26 HMMs: Beispiel Brown corpus ages/corpora/brown.zip Maximum Likelihood Estimation P NN DT ~ #(DT,NN) #(DT) = 0,49 #(DT) (determiner): #(DT,NN) (determiner-common noun): P is VBZ ~ #(VBZ,is) #(VBZ) = 0,47 #(VBZ) (3 rd person finite indicative verb): #(VBZ,is): 10073

27 HMM-Inferenz Decoding Optimierungsproblem gesucht ist die optimale Sequenz, aber deren Zahl wächst exponential zur Länge

28 HMM-Inferenz, exakt Standard-Lösung: Dynamische Programmierung Viterbi-Algorithmus Jurafsky & Martin, 5.5.3

29 HMM-Inferenz, approximativ Too many trajectories (state sequences) to list Option 2: Beam Search <> Fed:NNP Fed:VBN Fed:VBD Fed:NNP raises:nns Fed:NNP raises:vbz Fed:VBN raises:nns Fed:VBN raises:vbz Beam: Menge von Teilhypothesen (Trajektorien, Zustandsfolgen) Starte mit leerer Hypothesenmenge In jedem Ableitungsschritt: Betrachte alle möglichen Fortsetzungen aktuellen Hypothesen Behalte die k besten, verwirf den Rest Iteration

30 POS Tagging: State of the Art POS Tagging ist ein im wesentlichen gelöstes Problem Ausbaupotential bei morphologisch reichen Sprachen Reiche Morphologie begrenzt die Wiederholungsrate Ausbaupotential bei der Entwicklung von POS Tagsets für Sprachen jenseits des Standard Average European Englisch oder Lateinisch geprägte Kategorien passen nicht notwendigerweise

31 POS Tags und Semantik POS Tags beinhalten teilweise semantische Aspekte Proper Name vs. Common Name Numerals Quantifiers

32 POS Tags und Semantik Einige (ältere) Tagsets beinhalten reiche semantische Subtaxonomien Susanne (Sampson 1996, Die Performanz von klassischen POS-Taggern für diese war unzureichend, so dass sie aus den Schemata gestrichen wurden, um die Evaluationsergebnisse zu verbessern.

33 POS Tags und Semantik Grammatik ist frozen semantics (Dixon 1993) grammatische Kategorien entstammen semantischen Prototypen diese Beziehung ist nicht immer offenkundig, kann aber als allgemeine Faustregel gelten

34 POS Tags und Semantik Substantiv / Name ~ Entitäten Personalpronomen ~ Variablen Artikel / Indefinitpronomen ~ Quantoren Adjektive / intransitive Verben ~ unäre Prädikate Präpositionen / transitive Verben ~ binäre Prädikate, Relationen Adverbien ~ Prädikate zweiter Ordnung

35 POS Tags und Semantik Numerus, Genus und Klassifikatoren formalisieren bestimmte semantische Klassifikationen Women, fire and dangerous things (Lakoff 1987) Aspekt, Tempus und Modus definieren zeitliche und konditionale Gültigkeitsräume der Satzaussagen diese Information ist teilweise schon von POS- Tagsets erfasst

36 POS Tags und Semantik Grammatik ist frozen semantics (Dixon 1993) grammatische Kategorien entstammen semantischen Prototypen diese Beziehung ist nicht immer offenkundig, kann aber als allgemeine Faustregel gelten Daher sind Wortnetze nach POS-Klassen strukturiert

37 WordNet Umfangreiche lexikalische Datenbank, elektronisches Wörterbuch Enthält die meisten englischen Nomen, Verben, Adjective, und Adverbien In diversen NLP-Anwendungen genutzt (information retrieval, text mining, question answering, machine translation, AI/reasoning,...) WordNets für mehrere Sprachen:

38 What s special about WordNet? WordNet ist nach Bedeutungsrelationen strukturiert nicht alphabetisch, wie Wörterbücher menschen- und maschinenlesbar, browseable somewhat like in a hyperdimensional thesaurus geeignet zu Bestimmung von Bedeutungsähnlichkeit sowie der Art der Beziehung zwischen zwei Worten

39 Vorgeschichte: KI Frage der Künstliche Intelligenz (der 1980er): Wie speichern und ermitteln Menschen konzentionelles Wissen? Hypothese: Bedeutungsrelationen verknüpfen Konzepte miteinander Frames, Schemas, Scripts Wissen über Konzepte ist umfangreich muss effizient und ökonomisch strukturiert sein

40 Vorgeschichte: KI Konzeptuelles Wissen wird on the fly generiert durch Rückgriff auf allgemeinere Konzepte z.b. canaries fly <= birds fly und canaries are a kind of bird

41 Vorgeschichte: KI Vererbung animal (animate, breathes, has heart,...) bird (has feathers, flies,..) canary (yellow, sings nicely,..)

42 Psycholinguistischer Hintergrund Hypothese: Wissen wird am höchsten Knoten gespeichert und durch abhängige (spezifischere) Konzepte vererbt nicht mehrfach gespeichert Collins & Quillian (1969): Reaktionszeitexperimente zur Verteilung von Wissen über unterschiedliche Spezifizitätsebenen

43 Psycholinguistischer Hintergrund Do birds fly? --kurze Reaktionszeit Do canaries fly? --lange Reaktionszeit Do canaries have a heart? --sehr lange Reaktionszeit

44 Psycholinguistischer Hintergrund Evidenz für Bedeutungsrelationen zwischen Konzepten: Zugriff auf ein Konzept aktiviert benachbarte Konzepte ( Spreading activation ) Bridging Priming

45 Psycholinguistischer Hintergrund Hierarchische und relationale Bedeutungsrelationen Forschungsfrage (1986): Kann das menschliche Lexikon als semantisches Netz (Graph mit getypten Kanten) repräsentiert werden, in dem Worte durch Bedeutungsrelationen verknüpft sind? WordNet ist der Versuch, ein solches semantisches Netz zu implementieren

46 Psycholinguistischer Hintergrund Hierarchische und relationale Bedeutungsrelationen Forschungsfrage (1986): Kann das menschliche Lexikon als semantisches Netz (Graph mit getypten Kanten) repräsentiert werden, in dem Worte durch Bedeutungsrelationen verknüpft sind? Welche Relationen?

47 Welche Relationen? Assoziationstests Stimulus: hand Antwort: finger, arm Aristotelische Ontologie IS-A (maple-tree) HAS-A (maple-leaves) Kollokationen in Texten meaningfully related words are used together)

48 Relationen: Synonymie Ein Koncept kann durch unterschiedliche Worte ausgedrückt werden: {beat, hit, strike} {car, motorcar, auto, automobile} { big, large} Synonymy = 1:n-Mapping von Bedeutung und Form

49 Synonymy in WordNet Synset ungeordnete Menge von Synonymen, d.h., Worten die in ihrer Denotation (grob) äquivalent sind {hit, beat, strike} {big, large} {queue, line} Jedes Synset repräsentiert eine gesonderte Bedeutung/ein Konzept

50 Polysemie Wortformen haben mehrere Bedeutungen Polysemie = 1:m-Mapping von Form und Bedeutung {table, tabular_array} {table, piece_of_furniture} {table, mesa} {table, postpone} Das gilt vor allem für häufige Worte

51 Polysemie in WordNet Beispiel: 4-fache Polysemie {table, tabular_array} {table, piece_of_furniture} {table, mesa} {table, postpone} table hat 4 mögliche Sinne

52 Netzwerk Synsets elementare Grundbestandteile (Knoten) Relationen verbinden Synsets Kanten entsprechen semantischen Beziehungen Für jede Relation ist auch deren Inverse in WordNet Gerichteter gelabelter Graph

53 Nouns: Hyponymy Relates more/less general concepts Creates hierarchies, or trees {vehicle} / \ {car, automobile} {bicycle, bike} / \ \ {convertible} {SUV} {mountain bike} A car is is a kind of vehicle <=> The class of vehicles includes cars, bikes Hierarchies can have up to 16 levels

54 Nouns: Hyponymy Transitiver Abschluss A car is a kind of vehicle An SUV is a kind of car => An SUV is a kind of vehicle

55 Nouns: Meronymy/holonymy ( relation (part-whole {car, automobile} {engine} / \ {spark plug} {cylinder} An engine has spark plugs Spark plus and cylinders are parts of an engine Werden bei Hyponymie vererbt: chair has legs => armchair has legs

56 Nouns: WordNet-Relationen {conveyance; transport} hyperonym {vehicle} hyperonym {motor vehicle; automotive vehicle} meronym hyperonym {car window} {car; auto; automobile; machine; motorcar} meronym hyperonym hyperonym {cruiser; squad car; patrol car; police car; prowl car} {cab; taxi; hack; taxicab; } {bumper} {car door} {car mirror} meronym meronym {hinge; flexible joint} {doorlock} {armrest}

57 Weitere WordNet-Relationen troponym (Verb -> Verb) zunehmende Spezialisierung communicate -> talk -> whisper (Dimension: Lautstärke) move -> jog -> run (Dimension: Geschwindigkeit) entailment (Verb -> Verb) ein Event impliziert zwangsläufig ein anderes buy -> pay, succeed -> try

58 Weitere WordNet-Relationen pertainym (Adjektiv -> Nomen) bezieht sich auf, relationale Adjektive beziehen sich auf dasjenige, von dem sie morphologisch abgeleitet sind criminal -> crime antonymy (Adjektiv <-> Adjektiv) Gegenteil wet <-> dry

59 Weitere WordNet-Relationen morphosemantische Links zwischen unterschiedlichen POS-Kategorien semantisch ähnliche Worte, die vom selben Stamm abgeleitet sind observe, observant, observation, observatory semantische Rollen (Noun -> Verb) Subklasse von morphosemantischen Links, sind nach der Art der Beziehung (semantischer Rolle) gelabelt paint ->[AGENT] painter, paint ->[RESULT] painting

60 WordNet im WWW Datenbankinterface s=word&sub=search+wordnet&o2=&o0=1&o8= 1&o1=1&o7=&o5=&o9=&o6=&o3=&o4=&h= SPARQL version SELECT * WHERE {?s rdfs:label?o FILTER regex(str(?s),"synset"). } LIMIT 10

61 WordNet und Linked Open Data WordNet wurde früh von der Semantic-Web- Gemeinde adaptiert und nach RDF/OWL konvertiert multilinguale WordNets wurden und werden laufend nach RDF konvertiert und können dadurch miteinander und anderen Wissensquellen verknüpft werden

62 WordNet und Linked Open Data Dient z.b. als Grundlage von YAGO dort mit Wikipedia-Information verbunden GeoWordNet mit GeoNames verknüpft Cornetto niederländisches WordNet, mit einem englischen WordNet verlinkt OpenCyc enthält Links auf das englische WordNet

63

64 Linking und Propagation Durch die Verknüpfung mit WordNet kann die WordNet-Struktur auf andere Wissensbasen projiziert werden Wenn diese auf einfacheren Strukturen (z.b. Info Boxes) beruhen, ist es prinzipiell möglich, Regeln abzuleiten, um WordNet-Strukturen vorauszusagen Wenn diese andere Sprachen beinhalten (z.b. Wiktionary), kann die WordNet-Struktur auf die Zielsprache projiziert werden Sukzessive Anreicherung von Wissen in der LOD Cloud

65 Laufende RDF-Konvertierungen Uby verknüpft WordNet mit GermaNet (dt. WordNet), Wiktionary, FrameNet, VerbNet u.a.m. Konvertierung läuft gerade Linguistic LOD cloud

66 WordNet for Natural Language Processing Challenge: get a computer to understand language Information retrieval Text mining Document sorting Machine translation

67 Natural Language Processing Stemming, parsing currently at >90% accuracy level Word sense discrimination (lexical disambiguation) still a major hurdle for successful NLP Which sense is intended by the writer (relative to a dictionary)? Best systems: ~60% precision, ~60% recall (but human inter-annotator agreement isn t perfect, either!)

68 Word Sense Disambiguation wissensbasierte WSD Lesk-Algorithmus

69 Simplified Lesk Algorithmus function SENSES(word) returns all senses of word function WORDS(sense) returns all non-stopword words in gloss and examples of sense function SIMPLIFIED LESK(word,sentence) returns best sense of word result = most frequent sense for word max-overlap = 0 context = all words in sentence (no stop words)* for each sense in SENSES(word) do overlap = WORDS(sense) context if overlap > max-overlap then max-overlap = overlap result = sense end return result * das ist die Vereinfachung (wie auch die folgenden Beispiele nach Jurafsky & Martin, 2009, S. 646f)

70 Simplified Lesk, Beispiel The bank can guarantee deposits will eventually cover future tuition costs because it invests in adjustable-rate mortage securities. bank_1 a financial institution that accepts deposits and channels the money into lending activities e.g., he cashed a check at the bank, that bank holds the mortage on my home

71 Simplified Lesk, Beispiel The bank can guarantee deposits will eventually cover future tuition costs because it invests in adjustable-rate mortage securities. bank_2 sloping land (especially the slope beside a body of water) e.g., they pulled the canoe up on the bank, he sat in the bank of the river and watched the currents

72 Corpus Lesk bei SENSEVAL/SEMEVAL als baseline genutzt Kilgarriff & Rosenzweig (2000) modifizierte overlap-berechnung Worte im overlap zusätzlich gewichtet nach inverse document frequency (IDF) #doc idf i = log #doc i #doc Zahl der Dokumente, #doc i Dokumente mit Wort i IDF von Stopwords ist gering, daher ist keine Stopwortfilterung notwendig

73 Extended Lesk erweiterte overlap-berechnung Banerjee and Pedersen (2003) berechne overlap nicht nur zwischen Sense- Definitionen, sondern berücksichtige deren Kontext, z.b. similarity(a,b)= overlap(gloss(a), gloss(b)) + overlap(gloss(hypo(a)), gloss(hypo(b))) + overlap(gloss(hypo(a), gloss(b)) + overlap(gloss(a), gloss(hypo(b))

74 Extended Lesk erweiterte overlap-berechnung Banerjee and Pedersen (2003) berechne overlap nicht nur zwischen Sense- Definitionen, sondern berücksichtige deren Kontext sim elesk c 1, c 2 = overlap(gloss(r r,q RELS c 1 ), gloss(q c 2 )) wobei RELS die Relationen der lexikalischsemantischen Ressource sind

75 Weitere Modifikationen Selektionspräferenzen die Definition des Kontextes kann um syntaktische Information erweitert/besschränkt werden für ein Nomen z.b. um das Verb, mit dem es auftritt und die (grammatische) Rolle ihrer Beziehung

76 Weitere Modifikationen Ähnlichkeit zweiter Ordnung bislang haben wir nur ein Wort in seinem beobachteten Kontext mit Worten eines möglichen Wortsinnes verglichen alternativ kann der Kontext eines Wortes auch durch eine Kombination aller möglichen Worte aus seinem (beobachteten) Kontext definiert werden (Ähnlichkeit zweiter Ordnung)

77 Nächste Woche beide Erweiterungen wurden im Zsg. mit distributionellen Modellen der Wortsemantik weiter entwickelt und werden nächste Woche diskutiert des weiteren: Hausaufgabe wird ausgegeben manuell Annotation von Word Senses

78 Referenzen Zum Nachlesen Jurafsky & Martin (2009), 5.3, 5.5, 19.1, 20.4, 20.6 Folien POS-Tagging-Folien basieren teilweise auf Präsentationen von Roger Levy, Dan Klein, Chris Manning, Jason Eisner WordNet-Folien basieren teilweise auf einer Präsentation von Christiane Fellbaum

Einführung Konzepte und Begriffe Ähnliche Projekte Arbeiten mit WordNet

Einführung Konzepte und Begriffe Ähnliche Projekte Arbeiten mit WordNet Randy Witte http://wordnet.princeton.edu/ http://www.linguistik.uni-erlangen.de SemNet.pdf http://en.wikipedia.org/wiki/wordnet http://www.globalwordnet.org/ Einführung Konzepte und Begriffe Ähnliche Projekte

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik HMM POS-Tagging Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 20 POS Tags (1) Jurafsky and Martin (2009) POS = part-of-speech Tags sind morphosyntaktische

Mehr

Einführung in die Computerlinguistik POS-Tagging

Einführung in die Computerlinguistik POS-Tagging Einführung in die Computerlinguistik POS-Tagging Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2013 POS Tags (1) POS = part-of-speech Tags sind morphosyntaktische Kategorien von Wortformen.

Mehr

TreeTagger. Deborah Watty

TreeTagger. Deborah Watty TreeTagger Deborah Watty POS-Tagging store Das ist ein Haus. Artikel Verb Artikel Nomen Nom The 1977 PCs could only store two pages Modalverb Adverb of data. Wir wissen: store kann Nomen oder Verb sein.

Mehr

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014 idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme

Mehr

Lexikalisch-semantische Disambiguierung mit WordNet

Lexikalisch-semantische Disambiguierung mit WordNet Lexikalische Semantik Lexikalisch-semantische Disambiguierung mit WordNet Conrad Steffens Paper: Rada Mihalcea & Dan I. Moldovan: A Method for Word Sense Disambiguation of Unrestricted Text Lexikalisch-semantische

Mehr

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank Wortdekodierung Vorlesungsunterlagen Speech Communication 2, SS 2004 Franz Pernkopf/Erhard Rank Institute of Signal Processing and Speech Communication University of Technology Graz Inffeldgasse 16c, 8010

Mehr

Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging

Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging Tobias Scheffer Ulf Brefeld POS-Tagging Zuordnung der Wortart von

Mehr

Viterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes

Viterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes Viterbi Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus von Arndt Faulhaber und Benjamin Schlebes Seminar: Endliche Automaten für die Sprachverarbeitung SS 2005 PD Dr. K. Haenelt 1/28

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik HMM POS-Tagging Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2018 1 / 30 Table of contents 1 Hidden Markov Models 2 POS Tags 3 HMM POS Tagging 4 Bigram-HMMs

Mehr

WordNet Eine elektronische lexikalische Datenbank

WordNet Eine elektronische lexikalische Datenbank WordNet Eine elektronische lexikalische Datenbank Michael Zilske WordNet enthält 95600 Wortformen, davon 51500 einfache Wörter und 44100 Kollokationen) in 70100 Bedeutungen mit kurzen Umschreibungen, manchmal

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik Evaluation Annotation eines Goldstandard : Testkorpus mit der relevanten Zielinformation (z.b. Wortart) Automatische

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik WS 2/22 Manfred Pinkal Beispiel: Adjektive im Wahrig-Korpus Frequenzen in einem kleinen Teilkorpus: n groß - -

Mehr

WordNet. Referat von Johannes Braunias im Proseminar Word Sense Disambiguation bei Stefan Thater im Wintersemester

WordNet. Referat von Johannes Braunias im Proseminar Word Sense Disambiguation bei Stefan Thater im Wintersemester WordNet Referat von Johannes Braunias im Proseminar Word Sense Disambiguation bei Stefan Thater im Wintersemester 2010 15. November 2010 Synonymie Eine bestimmte Wortform in einem Satz, die durch eine

Mehr

Ivana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Semantik. Sarah Bosch,

Ivana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Semantik. Sarah Bosch, Ivana Daskalovska Willkommen zur Übung Einführung in die Computerlinguistik Semantik Wiederholung Was ist die Semantik und womit beschäftigt sie sich? 3 Was ist die Semantik und womit beschäftigt sie sich?

Mehr

Using Lexical Semantic Resources to Extract Product Profiles from Text Catalogues. DGFS 06, Bielefeld, 23. Februar, 12:00 Uhr

Using Lexical Semantic Resources to Extract Product Profiles from Text Catalogues. DGFS 06, Bielefeld, 23. Februar, 12:00 Uhr Willkommen Using Lexical Semantic Resources to Extract Product Profiles from Text Catalogues DGFS 06, Bielefeld, 23. Februar, 12:00 Uhr Jan Burse XLOG Technologies GmbH janburse@xlog.ch Text, janburse@xlog.ch

Mehr

Transformation-Based Error-Driven Learning: Eine Fallstudie in Part of Speech Tagging

Transformation-Based Error-Driven Learning: Eine Fallstudie in Part of Speech Tagging Transformation-Based Error-Driven Learning: Eine Fallstudie in Part of Speech Tagging Malte Helmert 23. Februar 2000 Seminar Autonome Mobile Systeme/Machine Learning Übersicht 1. Part of Speech Tagging

Mehr

Der Viterbi Algorithmus

Der Viterbi Algorithmus M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes

Mehr

Vortrag im Rahmen der Vorlesung Data Warehouse Dozentin: Prof. Dr. Frey-Luxemburger WS 2011/2012. Referent: Florian Kalisch (GR09)

Vortrag im Rahmen der Vorlesung Data Warehouse Dozentin: Prof. Dr. Frey-Luxemburger WS 2011/2012. Referent: Florian Kalisch (GR09) Vortrag im Rahmen der Vorlesung Data Warehouse Dozentin: Prof. Dr. Frey-Luxemburger WS 2011/2012 Referent: Florian Kalisch (GR09) Rückblick Aktueller Status Einführung in Text-Mining Der Text-Mining Prozess

Mehr

KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR VORLESUNG COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM

KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR VORLESUNG COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR VORLESUNG COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM VOR NACH MATRIKELNUMMER: STUDIENGANG: B.Sc. Computerlinguistik, B.Sc. Informatik,

Mehr

Where are we now? The administration building M 3. Voransicht

Where are we now? The administration building M 3. Voransicht Let me show you around 9 von 26 Where are we now? The administration building M 3 12 von 26 Let me show you around Presenting your company 2 I M 5 Prepositions of place and movement There are many prepositions

Mehr

Number of Maximal Partial Clones

Number of Maximal Partial Clones Number of Maximal Partial Clones KARSTEN SCHÖLZEL Universität Rostoc, Institut für Mathemati 26th May 2010 c 2010 UNIVERSITÄT ROSTOCK MATHEMATISCH-NATURWISSENSCHAFTLICHE FAKULTÄT, INSTITUT FÜR MATHEMATIK

Mehr

English grammar BLOCK F:

English grammar BLOCK F: Grammatik der englischen Sprache UNIT 24 2. Klasse Seite 1 von 13 English grammar BLOCK F: UNIT 21 Say it more politely Kennzeichen der Modalverben May and can Adverbs of manner Irregular adverbs Synonyms

Mehr

Materialien zu unseren Lehrwerken

Materialien zu unseren Lehrwerken Word order Word order is important in English. The word order for subjects, verbs and objects is normally fixed. The word order for adverbial and prepositional phrases is more flexible, but their position

Mehr

Seminar Sicherheit und Softwareengineering WS 2013 / Isabell Kullack FEHLERANALYSE VON REQUIREMENTS DOCUMENTS

Seminar Sicherheit und Softwareengineering WS 2013 / Isabell Kullack FEHLERANALYSE VON REQUIREMENTS DOCUMENTS Isabell Kullack FEHLERANALYSE VON REQUIREMENTS DOCUMENTS Requirements Documents Was sind Requirements Documents? Anforderungsdokumente in industriellen Software-Projekten Häufig in natürlicher Sprache

Mehr

NLP Eigenschaften von Text

NLP Eigenschaften von Text NLP Eigenschaften von Text Dr. Andreas Hotho Dominik Benz Beate Krause Sommersemester 2008 Folie: 1 Übersicht Einführung Eigenschaften von Text Words I: Satzgrenzenerkennung, Tokenization, Kollokationen

Mehr

H o c h s c h u l e D e g g e n d o r f H o c h s c h u l e f ü r a n g e w a n d t e W i s s e n s c h a f t e n

H o c h s c h u l e D e g g e n d o r f H o c h s c h u l e f ü r a n g e w a n d t e W i s s e n s c h a f t e n Time Aware Shaper Christian Boiger christian.boiger@hdu-deggendorf.de IEEE 802 Plenary September 2012 Santa Cruz, California D E G G E N D O R F U N I V E R S I T Y O F A P P L I E D S C I E N C E S Time

Mehr

Lösungsvorschlag für das Übungsblatt 8. Aufgabe1.

Lösungsvorschlag für das Übungsblatt 8. Aufgabe1. Lösungsvorschlag für das Übungsblatt 8. Aufgabe1. 3 Det A N VP R6 4 Any A N VP L3 5 Any intelligent N VP L4 6 Any intelligent cat VP L2 Nach den Regeln kann der Satz weiter nicht erzeugt warden, deswegen

Mehr

Stefan Engelberg (IDS Mannheim), Workshop Corpora in Lexical Research, Bucharest, Nov. 2008 [Folie 1] DWDS-Kernkorpus / DWDS corpus analysis

Stefan Engelberg (IDS Mannheim), Workshop Corpora in Lexical Research, Bucharest, Nov. 2008 [Folie 1] DWDS-Kernkorpus / DWDS corpus analysis Content 1. Empirical linguistics 2. Text corpora and corpus linguistics 3. Concordances 4. Application I: The German progressive 5. Part-of-speech tagging 6. Fequency analysis 7. Application II: Compounds

Mehr

Studienprojekt TaxoSearch Spezifikation

Studienprojekt TaxoSearch Spezifikation Studienprojekt TaxoSearch Spezifikation Semantisch gestützte Suche im Internet Lehrstuhl für Computerlinguistik Ruprecht-Karls-Universität Heidelberg WS 2002-2003 vorgestellt von Thorsten Beinhorn, Vesna

Mehr

Finite-State-Morphologie in XLE. Grammatikentwicklung, SS 2010

Finite-State-Morphologie in XLE. Grammatikentwicklung, SS 2010 Finite-State-Morphologie in XLE Grammatikentwicklung, SS 2010 1 / 20 Worum es heute geht: Nutzen von Finite-State-Morphologien... und wie man sie in XLE einbaut 2 / 20 Lexikon in XLE Bis jetzt: so genanntes

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

1 Part-of-Speech Tagging

1 Part-of-Speech Tagging 2. Übung zur Vorlesung NLP Analyse des Wissensrohstoes Text im Sommersemester 2008 mit Musterlösungen Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 28. Mai 2008 1 Part-of-Speech

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

Englisch-Grundwortschatz

Englisch-Grundwortschatz Englisch-Grundwortschatz Die 100 am häufigsten verwendeten Wörter also auch so so in in even sogar on an / bei / in like wie / mögen their with but first only and time find you get more its those because

Mehr

Part of Speech Tagging. Linguistische Sicht. Carolin Deck

Part of Speech Tagging. Linguistische Sicht. Carolin Deck Part of Speech Tagging Linguistische Sicht Carolin Deck Gliederung 1. Begriffsklärung 2. Vorstellung zwei wichtiger Tagsets (STTS & PTTS) 3. Bedeutung des POS-Tagging für die Sprachwissenschaft 4. Tagzuweisung

Mehr

XML-Technologien Tutorium 6

XML-Technologien Tutorium 6 XML-Technologien Tutorium 6 Thema: Semantic Web Linked Data RDF SPARQL von: Kain Kordian Gontarska kainkordian@gmail.com Semantic Web Das Internet soll nicht nur aus "dummen" Inhalten bestehen. (Ansammlung

Mehr

ÜBERBLICK ÜBER DAS KURS-ANGEBOT

ÜBERBLICK ÜBER DAS KURS-ANGEBOT ÜBERBLICK ÜBER DAS KURS-ANGEBOT Alle aufgeführten Kurse sind 100 % kostenfrei und können unter http://www.unterricht.de abgerufen werden. SATZBAU & WORTSTELLUNG - WORD ORDER Aussagesätze / Affirmative

Mehr

Kapitel 16. Begriffe. HHU Düsseldorf, WS 2008/09 Information Retrieval 250

Kapitel 16. Begriffe. HHU Düsseldorf, WS 2008/09 Information Retrieval 250 Kapitel 16 Begriffe HHU Düsseldorf, WS 2008/09 Information Retrieval 250 Semantisches Umfeld "Find what I mean, not what I say" (Susan Feldman) natürlichsprachiges Umfeld Werkzeug: natürlichsprachiger

Mehr

Evaluation und Training von HMMs

Evaluation und Training von HMMs Evaluation und Training von MMs Vorlesung omputerlinguistische Techniken Alexander Koller. Dezember 04 MMs: Beispiel initial p. a 0 0.8 0.7 0. Eisner 0. transition p. 0. 0.6 a 0.5 0. emission p. b () States

Mehr

Ivana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Morphologie. Sarah Bosch,

Ivana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Morphologie. Sarah Bosch, Ivana Daskalovska Willkommen zur Übung Einführung in die Computerlinguistik Morphologie Wiederholung Aufgabe 1 Was ist Morphologie, Morphem? 3 Aufgabe 1 Was ist Morphologie, Morphem? Teildisziplin der

Mehr

German translation: technology

German translation: technology A. Starter Write the gender and the English translation for each word, using a dictionary if needed. Gender (der/die/das) German English Handy Computer Internet WLAN-Verbindung Nachricht Drucker Medien

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Vertretungsstunde Englisch 5. Klasse: Grammatik

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Vertretungsstunde Englisch 5. Klasse: Grammatik Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Vertretungsstunde Englisch 5. Klasse: Grammatik Das komplette Material finden Sie hier: School-Scout.de Pronouns I Let s talk about

Mehr

Question words revision

Question words revision A. Translate each German word into English. 1. Wer... 2. Wo... 3. Was... 4. Warum... 5. Wann... 6. Wie... 7. Welche/welcher/welchen... 8. Wie viel... 9. Wie viele... 10. Woher... 11. Wohin... 12. Wieso...

Mehr

PONS DIE DREI??? FRAGEZEICHEN, ARCTIC ADVENTURE: ENGLISCH LERNEN MIT JUSTUS, PETER UND BOB

PONS DIE DREI??? FRAGEZEICHEN, ARCTIC ADVENTURE: ENGLISCH LERNEN MIT JUSTUS, PETER UND BOB Read Online and Download Ebook PONS DIE DREI??? FRAGEZEICHEN, ARCTIC ADVENTURE: ENGLISCH LERNEN MIT JUSTUS, PETER UND BOB DOWNLOAD EBOOK : PONS DIE DREI??? FRAGEZEICHEN, ARCTIC ADVENTURE: Click link bellow

Mehr

Computerlinguistische Grundlagen. Jürgen Hermes Sommersemester 17 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln

Computerlinguistische Grundlagen. Jürgen Hermes Sommersemester 17 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Computerlinguistische Grundlagen Jürgen Hermes Sommersemester 17 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Computerlinguistik: Schnittstellen Computerlinguistik aus

Mehr

Introduction to Python. Introduction. First Steps in Python. pseudo random numbers. May 2016

Introduction to Python. Introduction. First Steps in Python. pseudo random numbers. May 2016 to to May 2016 to What is Programming? All computers are stupid. All computers are deterministic. You have to tell the computer what to do. You can tell the computer in any (programming) language) you

Mehr

Probabilistische kontextfreie Grammatiken

Probabilistische kontextfreie Grammatiken Probabilistische kontextfreie Grammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 08. Dezember 2015 Let s play a game Ich gebe Ihnen ein Nichtterminalsymbol. S, NP, VP, PP, oder POS-Tag

Mehr

Tagging mit Hidden Markov Models und Viterbi-Algorithmus

Tagging mit Hidden Markov Models und Viterbi-Algorithmus Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:

Mehr

Relationen zwischen Nomen und ihren Assoziationen. Michael Roth

Relationen zwischen Nomen und ihren Assoziationen. Michael Roth Relationen zwischen Nomen und ihren Assoziationen Michael Roth 2 Assoziationen sind psychologisch interessant. Wie erfolgt der Zugriff auf sie? Welche Bedeutung haben sie? erfüllen einen linguistischen

Mehr

Deutsch 1 Kapitel 6: Meine Sachen items in a house, pronouns, adjectives, prepositions. Name: Seite

Deutsch 1 Kapitel 6: Meine Sachen items in a house, pronouns, adjectives, prepositions. Name: Seite 1. Label 10 things in the room with the correct gender (die, der, das) 2. Find the nine words related to household furnishing in the puzzle below. 3. Find the missing pieces of furniture. 4. The movers

Mehr

English grammar BLOCK F:

English grammar BLOCK F: Grammatik der englischen Sprache UNIT 23 2. Klasse Seite 1 von 13 English grammar BLOCK F: UNIT 21 Say it more politely Kennzeichen der Modalverben May and can Adverbs of manner Irregular adverbs Synonyms

Mehr

Zu + Infinitiv Constructions

Zu + Infinitiv Constructions Zu + Infinitiv Constructions You have probably noticed that in many German sentences, infinitives appear with a "zu" before them. These "zu + infinitive" structures are called infinitive clauses, and they're

Mehr

Hidden Markov Models (HMM)

Hidden Markov Models (HMM) Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen

Mehr

Information Retrieval und Question Answering

Information Retrieval und Question Answering und Question Answering Kai Kugler 19. November 2009 Auffinden von relevantem Wissen Die Relevanz der aufzufindenden Information ist abhängig vom... aktuellen Wissen des Benutzers dem aktuellen Problem

Mehr

Linguistische Grundlagen. Warum Tagging? Klassische Wortartenlehre Tagsets Annotation höherer Ebenen Design von Tagsets

Linguistische Grundlagen. Warum Tagging? Klassische Wortartenlehre Tagsets Annotation höherer Ebenen Design von Tagsets Linguistische Grundlagen Warum Tagging? Klassische Wortartenlehre Tagsets Annotation höherer Ebenen Design von Tagsets Warum Tagging? Abfragbarkeit linguistischer Information Generalisierbarkeit von Abfragen

Mehr

Der VITERBI-Algorithmus

Der VITERBI-Algorithmus Der VITERBI-Algorithmus Hauptseminar Parsing Sommersemester 2002 Lehrstuhl für Computerlinguistik Universität Heidelberg Thorsten Beinhorn http://janus.cl.uni-heidelberg.de/~beinhorn 2 Inhalt Ziel des

Mehr

Hidden Markov Models in Anwendungen

Hidden Markov Models in Anwendungen Hidden Markov Models in Anwendungen Prof Dr. Matthew Crocker Universität des Saarlandes 18. Juni 2015 Matthew Crocker (UdS) HMM Anwendungen 18. Juni 2015 1 / 26 Hidden Markov Modelle in der Computerlinguistik

Mehr

Dialogue: Herr Kruse talks to Herr Meyer about his regular trips to Berlin: Das geht sehr schnell! Es dauert nur etwa 3 Stunden.

Dialogue: Herr Kruse talks to Herr Meyer about his regular trips to Berlin: Das geht sehr schnell! Es dauert nur etwa 3 Stunden. Dialogue: Herr Kruse talks to Herr Meyer about his regular trips to Berlin: H.M: H.K: H.M: H.K: H.M: H.K: Fahren Sie regelmäßig nach Berlin? Oh ja, circa 2 bis 3 Mal im Monat. Und wie fahren Sie? Ich nehme

Mehr

Dependency-Based Construction of Semantic Space Models ( Padó, Lapata 2007) Distributionelle Semantik WS 11/

Dependency-Based Construction of Semantic Space Models ( Padó, Lapata 2007) Distributionelle Semantik WS 11/ Dependency-Based Construction of Semantic Space Models ( Padó, Lapata 2007) Distributionelle Semantik WS 11/12 21.11.2011 Lena Enzweiler 1 Was ist das Problem? Wortbasierte Vektormodelle betrachten nur

Mehr

Lexikalische Semantik und semantische Lexika. Manfred Pinkal PJS Word Sense Disambiguation SS 2004

Lexikalische Semantik und semantische Lexika. Manfred Pinkal PJS Word Sense Disambiguation SS 2004 Lexikalische Semantik und semantische Lexika Manfred Pinkal PJS Word Sense Disambiguation SS 2004 Wortbedeutung Wortbedeutungen sind vielschichtig Wortbedeutungen sind offen Unterschiedliche Aspekte von

Mehr

Inhalt. Topics and Worksheets Vorwort Hinweise zum ActiveBook

Inhalt. Topics and Worksheets Vorwort Hinweise zum ActiveBook Inhalt Vorwort Hinweise zum ActiveBook Topics and Worksheets... 1 Topic 1: Reading: Chasing the cheese... 2 Grammar: Simple past and present perfect revision... 4 Vocabulary: Naming parts of a picture...

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Einführung Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2018 1 / 14 Anwendungen der Computerlinguistik Carstensen et al. (2010); Jurafsky and Martin

Mehr

VIRGINIA CODE 159. Interkulturelle und landeskundliche Aspekte. Schreibmaterial

VIRGINIA CODE 159. Interkulturelle und landeskundliche Aspekte. Schreibmaterial VIRGINIA Fertigkeit Hören Relevante(r) Deskriptor(en) Deskriptor 1: Kann Gesprächen über vertraute Themen die Hauptpunkte entnehmen, wenn Standardsprache verwendet und auch deutlich gesprochen wird. (B1)

Mehr

Einführung in unifikationsbasierte Grammatikformalismen

Einführung in unifikationsbasierte Grammatikformalismen Universität Potsdam Institut für Linguistik Computerlinguistik Einführung in unifikationsbasierte Grammatikformalismen Thomas Hanneforth head: VP form: finite subj: pers: 3 num: pl Merkmalsstrukturen:

Mehr

DIBELS TM. German Translations of Administration Directions

DIBELS TM. German Translations of Administration Directions DIBELS TM German Translations of Administration Directions Note: These translations can be used with students having limited English proficiency and who would be able to understand the DIBELS tasks better

Mehr

Proseminar Linguistische Annotation

Proseminar Linguistische Annotation Proseminar Linguistische Annotation Ines Rehbein und Josef Ruppenhofer SS 2010 Ines Rehbein und Josef Ruppenhofer (SS10) Linguistische Annotation April 2010 1 / 22 Seminarplan I. Linguistische Annotation

Mehr

Entity Search. Michel Manthey Arne Binder 2013

Entity Search. Michel Manthey Arne Binder 2013 Entity Search Michel Manthey Arne Binder 2013 Gliederung Idee Herausforderungen Allgemeine Herangehensweise Möglichkeiten und angewandte Verfahren Ausblick Quellen Idee Bisher: Suche nach Dokumenten, die

Mehr

Semantik und Pragmatik

Semantik und Pragmatik Semantik und Pragmatik SS 2005 Universität Bielefeld Teil 4, 6. Mai 2005 Gerhard Jäger Semantik und Pragmatik p.1/35 Prädikatenlogik: atomare Formeln Syntax JO, BERTIE, ETHEL, THE-CAKE... sind Individuenkonstanten

Mehr

Killy Literaturlexikon: Autoren Und Werke Des Deutschsprachigen Kulturraumes 2., Vollstandig Uberarbeitete Auflage (German Edition)

Killy Literaturlexikon: Autoren Und Werke Des Deutschsprachigen Kulturraumes 2., Vollstandig Uberarbeitete Auflage (German Edition) Killy Literaturlexikon: Autoren Und Werke Des Deutschsprachigen Kulturraumes 2., Vollstandig Uberarbeitete Auflage (German Edition) Walther Killy Click here if your download doesn"t start automatically

Mehr

Schule mit Erfolg. Englisch Simple present adverbs time Unit Blatt What time is it? 7.50 Uhr Uhr Uhr Uhr 20.

Schule mit Erfolg. Englisch Simple present adverbs time Unit Blatt What time is it? 7.50 Uhr Uhr Uhr Uhr 20. Englisch Simple present adverbs time Unit 3 2.1 Blatt 1 1. Vocabulary. a) Write down the opposites! big always after first late rude b) Put in the right prepositions. Luke gets up at 7 am the morning.

Mehr

Logik und modelltheoretische Semantik. Montague-Grammatik

Logik und modelltheoretische Semantik. Montague-Grammatik Logik und modelltheoretische Montague-Grammatik Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 23.5.2017 Zangenfeind: Montague-Grammatik 1 / 23 Vorgeschichte Ursprung

Mehr

Elementare Wahrscheinlichkeitslehre

Elementare Wahrscheinlichkeitslehre Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?

Mehr

Context-adaptation based on Ontologies and Spreading Activation

Context-adaptation based on Ontologies and Spreading Activation -1- Context-adaptation based on Ontologies and Spreading Activation ABIS 2007, Halle, 24.09.07 {hussein,westheide,ziegler}@interactivesystems.info -2- Context Adaptation in Spreadr Pubs near my location

Mehr

Exercise (Part II) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1

Exercise (Part II) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1 Exercise (Part II) Notes: The exercise is based on Microsoft Dynamics CRM Online. For all screenshots: Copyright Microsoft Corporation. The sign ## is you personal number to be used in all exercises. All

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung

Mehr

Kapitel 4: Syntaxdiagramme und Grammatikregeln

Kapitel 4: Syntaxdiagramme und Grammatikregeln 4. Syntaxdiagramme und Grammatikregeln 4-1 Objektorientierte Programmierung (Winter 2006/2007) Kapitel 4: Syntaxdiagramme und Grammatikregeln Syntaxdiagramme Grammatikregeln (kontextfrei) Beispiele: Lexikalische

Mehr

Automatische Textzusammenfassung

Automatische Textzusammenfassung Ruprecht Karls Universität Heidelberg Lehrstuhl für Computerlinguistik HS Information Retrieval Automatische Textzusammenfassung Referat von Elena Loupanova 23.01.2006 Definition Textzusammenfassung The

Mehr

Lexikalische Semantik: Strukturen und Ressourcen. Manfred Pinkal PS Lexikalische Semantik WS 2005/2006

Lexikalische Semantik: Strukturen und Ressourcen. Manfred Pinkal PS Lexikalische Semantik WS 2005/2006 Lexikalische Semantik: Strukturen und Ressourcen Manfred Pinkal PS Lexikalische Semantik WS 2005/2006 Über Delphine PJS Word Sense Disambiguation SS 2004 2 Über Delphine Dolphins are mammals, not fish.

Mehr

Im Original veränderbare Word-Dateien

Im Original veränderbare Word-Dateien Schulaufgabe aus dem Englischen Klasse:... Name:... gehalten am:... 1. Dictation 2. Compare these things! Take the given adjectives in brackets and use the comparative once and the superlative once. (1)

Mehr

Semantic Relations and User Interests

Semantic Relations and User Interests Semantic Relations and User Interests WordNet Lexical Database und mögliche Anwendungen bei der Benutzerinteraktion Sebastian Blohm Sorry... Wie kann eine Maschine beim Suchen helfen? Was Maschinen schon

Mehr

Level 2 German, 2015

Level 2 German, 2015 91126 911260 2SUPERVISOR S Level 2 German, 2015 91126 Demonstrate understanding of a variety of written and / or visual German text(s) on familiar matters 2.00 p.m. Friday 4 December 2015 Credits: Five

Mehr

Natürlichsprachliche Systeme I

Natürlichsprachliche Systeme I Natürlichsprachliche Systeme I WordNet in NLTK D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg WS 2013/14, 17. Dezember 2013, c 2011

Mehr

Semantic Role Labeling

Semantic Role Labeling Semantic Role Labeling Am Beispiel von EasySRL und SEMAFOR Max Depenbrock Proseminar "Tools für Computerlinguisten" 5.1.2018 Max Depenbrock SRL 5.1.2018 1 / 36 Was ist Semantic Role Labeling? Was ist Semantic

Mehr

Kontextfreie Grammatiken

Kontextfreie Grammatiken Kontextfreie Grammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 16. Oktober 2015 Übersicht Worum geht es in dieser Vorlesung? Übungen und Abschlussprojekt Kontextfreie Grammatiken Computerlinguistische

Mehr

Modern Foreign Languages

Modern Foreign Languages MFL1: To understand the verb werden and to be able to talk about future plans A) Match the English answers to the German. German Correct Answer English Ich werde spielen Du wirst spielen You will play

Mehr

Harry gefangen in der Zeit Begleitmaterialien

Harry gefangen in der Zeit Begleitmaterialien Episode 011 Grammar 1. Plural forms of nouns Most nouns can be either singular or plural. The plural indicates that you're talking about several units of the same thing. Ist das Bett zu hart? Sind die

Mehr

Syntax natürlicher Sprachen

Syntax natürlicher Sprachen Syntax natürlicher Sprachen 03: Phrasen und Konstituenten Martin Schmitt Ludwig-Maximilians-Universität München 08.11.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 08.11.2017 1 Themen der heutigen

Mehr

Die UN-Kinderrechtskonvention. Darstellung der Bedeutung (German Edition)

Die UN-Kinderrechtskonvention. Darstellung der Bedeutung (German Edition) Die UN-Kinderrechtskonvention. Darstellung der Bedeutung (German Edition) Daniela Friedrich Click here if your download doesn"t start automatically Die UN-Kinderrechtskonvention. Darstellung der Bedeutung

Mehr

DOWNLOAD. Me and my body. Erste Schritte in Englisch. Anne Scheller. Downloadauszug aus dem Originaltitel: Klasse 3 4

DOWNLOAD. Me and my body. Erste Schritte in Englisch. Anne Scheller. Downloadauszug aus dem Originaltitel: Klasse 3 4 DOWNLOAD Anne Scheller Me and my body Erste Schritte in Englisch Klasse 3 4 auszug aus dem Originaltitel: Mit Geschichten, vielfältigen Übungen und Materialien zur Portfolio-Arbeit THE TERRIBLE TOM Luke

Mehr

"What's in the news? - or: why Angela Merkel is not significant

What's in the news? - or: why Angela Merkel is not significant "What's in the news? - or: why Angela Merkel is not significant Andrej Rosenheinrich, Dr. Bernd Eickmann Forschung und Entwicklung, Unister GmbH, Leipzig UNISTER Seite 1 Unister Holding UNISTER Seite 2

Mehr

Hidden Markov Models in Anwendungen

Hidden Markov Models in Anwendungen Hidden Markov Models in Anwendungen Dr. Vera Demberg Universität des Saarlandes 31. Mai 2012 Vera Demberg (UdS) HMM Anwendungen 31. Mai 2012 1 / 26 Hidden Markov Modelle in der Computerlinguistik Table

Mehr

Bayesian Networks. Syntax Semantics Parametrized Distributions Inference in Bayesian Networks. Exact Inference. Approximate Inference

Bayesian Networks. Syntax Semantics Parametrized Distributions Inference in Bayesian Networks. Exact Inference. Approximate Inference Syntax Semantics Parametrized Distributions Inference in Exact Inference Approximate Inference enumeration variable elimination stochastic simulation Markov Chain Monte Carlo (MCMC) 1 Includes many slides

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Vertretungsstunde Englisch 6. Klasse: Grammatik

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Vertretungsstunde Englisch 6. Klasse: Grammatik Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Vertretungsstunde Englisch 6. Klasse: Grammatik Das komplette Material finden Sie hier: Download bei School-Scout.de a few a little

Mehr

Level 1 German, 2016

Level 1 German, 2016 90886 908860 1SUPERVISOR S Level 1 German, 2016 90886 Demonstrate understanding of a variety of German texts on areas of most immediate relevance 2.00 p.m. Wednesday 23 November 2016 Credits: Five Achievement

Mehr

Einführung in die Computerlinguistik. Morphologie III

Einführung in die Computerlinguistik. Morphologie III Einführung in die Computerlinguistik Morphologie III Hinrich Schütze & Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 7.12.2015 Schütze & Zangenfeind: Morphologie III

Mehr