Semantische Technologien (M-TANI)
|
|
- Paula Becke
- vor 6 Jahren
- Abrufe
Transkript
1 Aktuelle Themen der Angewandten Informatik Semantische Technologien (M-TANI) Christian Chiarcos Angewandte Computerlinguistik 16. Mai 2013
2 Wortsemantik grammatische Klassifikation von Worten Parts of Speech lexikalisch-semantische Klassifikation von Worten WordNet Word Sense Disambiguation wissensbasiert
3 Wortarten (Parts of Speech [POS]) Klassifikation von Einzelworten nach grammatischen Merkmalen (i.d.r.) Morphosyntax kontextabhängig es existieren mehrere Klassifikationen Standardisierung nur auf Ebene von Einzelsprachen phosyntacticcategory
4 Parts-of-Speech (English) Open class (lexical) words Nouns Verbs Adjectives yellow Proper Common Main Adverbs slowly IBM cat / cats see Italy snow registered Numbers more 122,312 Closed class (functional) Modals one Determiners the some can Prepositions to with Conjunctions and or had Particles off up Pronouns he its more
5 POS, Annotationsschemata für das Deutsche Stuttgart-Tübingen Tag-Set (STTS) pdf Protégé: für das Englische Penn Treebank Tagset (PTB) penn_treebank_pos.html Protégé:
6 POS Tagging Input: the lead paint is unsafe POS: determiner noun noun verb adjective Output: the/dt lead/nn paint/nn is/vb unsafe/jj Anwendungen: text-to-speech (Aussprache von lead) kategorielle Suche mit regexps: (Det) Adj* N+ Vorverarbeitung für Syntax grob-semantische Klassifikation (einige) grammatische Kategorien zeigen semantische Prototypen an; dazu später mehr
7 POS Tagging überwachte Klassifikation das Korpus ist manuell annotiert, wir nutzen die POS Tags als Zielklassifikation unüberwacht das Korpus ist nicht annotiert, wir klassifizieren Einzelworte nach ihrem Kontext und fassen sie zusammen schwach überwacht das Korpus ist nicht annotiert, aber wir haben ein Wörterbuch mit allen möglichen Tags für jedes Wort
8 Performance Input: the lead paint is unsafe Output: the/dt lead/nn paint/nn is/vb unsafe/jj Evaluation: Accuracy (# correct tags) approx. 97% für Englisch und Deutsch Aber: Baseline ~ 90% Tagge jedes Wort mit dem für es häufigsten Tag Tagge unbekannte Worte als Substantive
9 Ambiguität VBD VB VBN VBZ VBP VBZ NNP NNS NN NNS CD NN Fed raises interest rates 0.5 percent Primäre Entscheidungshilfen Kontext Wortidentität
10 Faktorensuche correct tags PN Verb Det Noun Prep Noun Prep Det Noun Bill directed a cortege of autos through the dunes PN Adj Det Noun Prep Noun Prep Det Noun Verb Verb Noun Verb Adj some possible tags for Prep each word (maybe more)? Tags hängen ab vom (a) Wort, (b) vorangehenden/nachfolgenden Tag => kennen wir nicht!
11 Faktorensuche correct tags PN Verb Det Noun Prep Noun Prep Det Noun Bill directed a cortege of autos through the dunes PN Adj Det Noun Prep Noun Prep Det Noun Verb Verb Noun Verb Adj some possible tags for Prep each word (maybe more)? Tags hängen ab vom (a) Wort, (b) vorangehenden/nachfolgenden Tag => kennen wir nicht!
12 Faktorensuche correct tags PN Verb Det Noun Prep Noun Prep Det Noun Bill directed a cortege of autos through the dunes PN Adj Det Noun Prep Noun Prep Det Noun Verb Verb Noun Verb Adj some possible tags for Prep each word (maybe more)? Tags hängen ab vom (a) Wort, (b) vorangehenden/nachfolgenden Tag => kennen wir nicht!
13 Hidden Markov Models (HMM) einfacher Formalismus zur Prozessmodellierung sequence classification wir behandeln nur den einfachsten möglichen Fall Bigrams jedes Wort wird aufgrund des vorangehenden Wortes klassifiziert mehr gibt es in Texttechnologie
14 POS-Tagging Gesucht Folge von POS tags t für eine Folge von Worten w t = argmax t P t w) über alle möglichen Sequenzen t und die beobachtete Wortfolge w
15 POS-Tagging Gesucht Folge von POS tags t für eine Folge von Worten w t = argmax t P t w) Bayes P t w) = P w t) P(t) P(w)
16 POS-Tagging Gesucht t = argmax t P w t) P(t) P(w) = argmax t P w t) P(t)
17 POS-Tagging Gesucht t = argmax t P w t) P(t) P(w) = argmax t P w t) P(t)
18 POS-Tagging Gesucht likelihood prior t = argmax t P w t) P(t) Hidden-Markov-Modellierung Jeder Tag t i hängt nur vom vorangehenden Tag t i 1 ab Jedes Wort w i hängt nur vom Tag t i ab
19 Markov-Modelle Zustände und (wahrscheinlichkeitsbedingte) Zustandsübergänge gewichteter endlicher Automat Prozesse werden als Pfade (Trajektorien) im Möglichkeitsraum modelliert s b s a s c sd Modell
20 Markov-Modelle Zustände s 1,, s N wahrscheinlichkeitsinitialisierter Anfangszustand t 1 *s 1,, s N + Sequenz von Zustandsübergängen t = (t 1,, t M ) mit t i s 1,, s N Übergangswahrscheinlichkeiten P t j t i P s k s l für t j s k und t i s l s b s b s a s c t 1 s c sd sd Modell Zustandsfolge t 1
21 Markov-Modelle Zustände s 1,, s N wahrscheinlichkeitsinitialisierter Anfangszustand t 1 *s 1,, s N + Sequenz von Zustandsübergängen t = (t 1,, t M ) mit t i s 1,, s N Übergangswahrscheinlichkeiten P t j t i P s k s l für t j s k und t i s l s b t 2 s a s c t 1 s c sd sd Modell Zustandsfolge t 1, t 2
22 Markov-Modelle Zustände s 1,, s N wahrscheinlichkeitsinitialisierter Anfangszustand t 1 *s 1,, s N + Sequenz von Zustandsübergängen t = (t 1,, t M ) mit t i s 1,, s N Übergangswahrscheinlichkeiten P t j t i P s k s l für t j s k und t i s l s b t 2 t 3 s a s c t 1 sd sd Modell Zustandsfolge t 1, t 2, t 3
23 Markov-Modelle Zustände s 1,, s N wahrscheinlichkeitsinitialisierter Anfangszustand t 1 *s 1,, s N + Sequenz von Zustandsübergängen t = (t 1,, t M ) mit t i s 1,, s N Übergangswahrscheinlichkeiten P t j t i P s k s l für t j s k und t i s l s b t 2 t 3 s a s c t 4 sd sd Modell Zustandsfolge t 1, t 2, t 3, t 4
24 Hidden-Markov-Modelle (HMMs) versteckte Zustände s 1,, s N sind nicht direkt beobachtbar Sequenz von Zustandsübergängen t = (t 1,, t M ) mit t i s 1,, s N Übergangswahrscheinlichkeiten P t j t i P s k s l für t j s k und t i s l Menge von möglichen Beobachtungen w 1,, w M haben keinen Einfluss auf Zustandsübergänge hängen nur vom aktuellen Zustand ab Emissionswahrscheinlichkeiten P w k t i = P(w k s l ) für t i s l
25 HMMs Zustände sind POS Tags, Beobachtungen sind Worte t 1 t 2 t 3 t n w 1 w 2 w n likelihood prior t = argmax t P w t) P(t) P w t ~ P(w i t i ) i P t ~ P(t i t i 1 ) i
26 HMMs: Beispiel Brown corpus ages/corpora/brown.zip Maximum Likelihood Estimation P NN DT ~ #(DT,NN) #(DT) = 0,49 #(DT) (determiner): #(DT,NN) (determiner-common noun): P is VBZ ~ #(VBZ,is) #(VBZ) = 0,47 #(VBZ) (3 rd person finite indicative verb): #(VBZ,is): 10073
27 HMM-Inferenz Decoding Optimierungsproblem gesucht ist die optimale Sequenz, aber deren Zahl wächst exponential zur Länge
28 HMM-Inferenz, exakt Standard-Lösung: Dynamische Programmierung Viterbi-Algorithmus Jurafsky & Martin, 5.5.3
29 HMM-Inferenz, approximativ Too many trajectories (state sequences) to list Option 2: Beam Search <> Fed:NNP Fed:VBN Fed:VBD Fed:NNP raises:nns Fed:NNP raises:vbz Fed:VBN raises:nns Fed:VBN raises:vbz Beam: Menge von Teilhypothesen (Trajektorien, Zustandsfolgen) Starte mit leerer Hypothesenmenge In jedem Ableitungsschritt: Betrachte alle möglichen Fortsetzungen aktuellen Hypothesen Behalte die k besten, verwirf den Rest Iteration
30 POS Tagging: State of the Art POS Tagging ist ein im wesentlichen gelöstes Problem Ausbaupotential bei morphologisch reichen Sprachen Reiche Morphologie begrenzt die Wiederholungsrate Ausbaupotential bei der Entwicklung von POS Tagsets für Sprachen jenseits des Standard Average European Englisch oder Lateinisch geprägte Kategorien passen nicht notwendigerweise
31 POS Tags und Semantik POS Tags beinhalten teilweise semantische Aspekte Proper Name vs. Common Name Numerals Quantifiers
32 POS Tags und Semantik Einige (ältere) Tagsets beinhalten reiche semantische Subtaxonomien Susanne (Sampson 1996, Die Performanz von klassischen POS-Taggern für diese war unzureichend, so dass sie aus den Schemata gestrichen wurden, um die Evaluationsergebnisse zu verbessern.
33 POS Tags und Semantik Grammatik ist frozen semantics (Dixon 1993) grammatische Kategorien entstammen semantischen Prototypen diese Beziehung ist nicht immer offenkundig, kann aber als allgemeine Faustregel gelten
34 POS Tags und Semantik Substantiv / Name ~ Entitäten Personalpronomen ~ Variablen Artikel / Indefinitpronomen ~ Quantoren Adjektive / intransitive Verben ~ unäre Prädikate Präpositionen / transitive Verben ~ binäre Prädikate, Relationen Adverbien ~ Prädikate zweiter Ordnung
35 POS Tags und Semantik Numerus, Genus und Klassifikatoren formalisieren bestimmte semantische Klassifikationen Women, fire and dangerous things (Lakoff 1987) Aspekt, Tempus und Modus definieren zeitliche und konditionale Gültigkeitsräume der Satzaussagen diese Information ist teilweise schon von POS- Tagsets erfasst
36 POS Tags und Semantik Grammatik ist frozen semantics (Dixon 1993) grammatische Kategorien entstammen semantischen Prototypen diese Beziehung ist nicht immer offenkundig, kann aber als allgemeine Faustregel gelten Daher sind Wortnetze nach POS-Klassen strukturiert
37 WordNet Umfangreiche lexikalische Datenbank, elektronisches Wörterbuch Enthält die meisten englischen Nomen, Verben, Adjective, und Adverbien In diversen NLP-Anwendungen genutzt (information retrieval, text mining, question answering, machine translation, AI/reasoning,...) WordNets für mehrere Sprachen:
38 What s special about WordNet? WordNet ist nach Bedeutungsrelationen strukturiert nicht alphabetisch, wie Wörterbücher menschen- und maschinenlesbar, browseable somewhat like in a hyperdimensional thesaurus geeignet zu Bestimmung von Bedeutungsähnlichkeit sowie der Art der Beziehung zwischen zwei Worten
39 Vorgeschichte: KI Frage der Künstliche Intelligenz (der 1980er): Wie speichern und ermitteln Menschen konzentionelles Wissen? Hypothese: Bedeutungsrelationen verknüpfen Konzepte miteinander Frames, Schemas, Scripts Wissen über Konzepte ist umfangreich muss effizient und ökonomisch strukturiert sein
40 Vorgeschichte: KI Konzeptuelles Wissen wird on the fly generiert durch Rückgriff auf allgemeinere Konzepte z.b. canaries fly <= birds fly und canaries are a kind of bird
41 Vorgeschichte: KI Vererbung animal (animate, breathes, has heart,...) bird (has feathers, flies,..) canary (yellow, sings nicely,..)
42 Psycholinguistischer Hintergrund Hypothese: Wissen wird am höchsten Knoten gespeichert und durch abhängige (spezifischere) Konzepte vererbt nicht mehrfach gespeichert Collins & Quillian (1969): Reaktionszeitexperimente zur Verteilung von Wissen über unterschiedliche Spezifizitätsebenen
43 Psycholinguistischer Hintergrund Do birds fly? --kurze Reaktionszeit Do canaries fly? --lange Reaktionszeit Do canaries have a heart? --sehr lange Reaktionszeit
44 Psycholinguistischer Hintergrund Evidenz für Bedeutungsrelationen zwischen Konzepten: Zugriff auf ein Konzept aktiviert benachbarte Konzepte ( Spreading activation ) Bridging Priming
45 Psycholinguistischer Hintergrund Hierarchische und relationale Bedeutungsrelationen Forschungsfrage (1986): Kann das menschliche Lexikon als semantisches Netz (Graph mit getypten Kanten) repräsentiert werden, in dem Worte durch Bedeutungsrelationen verknüpft sind? WordNet ist der Versuch, ein solches semantisches Netz zu implementieren
46 Psycholinguistischer Hintergrund Hierarchische und relationale Bedeutungsrelationen Forschungsfrage (1986): Kann das menschliche Lexikon als semantisches Netz (Graph mit getypten Kanten) repräsentiert werden, in dem Worte durch Bedeutungsrelationen verknüpft sind? Welche Relationen?
47 Welche Relationen? Assoziationstests Stimulus: hand Antwort: finger, arm Aristotelische Ontologie IS-A (maple-tree) HAS-A (maple-leaves) Kollokationen in Texten meaningfully related words are used together)
48 Relationen: Synonymie Ein Koncept kann durch unterschiedliche Worte ausgedrückt werden: {beat, hit, strike} {car, motorcar, auto, automobile} { big, large} Synonymy = 1:n-Mapping von Bedeutung und Form
49 Synonymy in WordNet Synset ungeordnete Menge von Synonymen, d.h., Worten die in ihrer Denotation (grob) äquivalent sind {hit, beat, strike} {big, large} {queue, line} Jedes Synset repräsentiert eine gesonderte Bedeutung/ein Konzept
50 Polysemie Wortformen haben mehrere Bedeutungen Polysemie = 1:m-Mapping von Form und Bedeutung {table, tabular_array} {table, piece_of_furniture} {table, mesa} {table, postpone} Das gilt vor allem für häufige Worte
51 Polysemie in WordNet Beispiel: 4-fache Polysemie {table, tabular_array} {table, piece_of_furniture} {table, mesa} {table, postpone} table hat 4 mögliche Sinne
52 Netzwerk Synsets elementare Grundbestandteile (Knoten) Relationen verbinden Synsets Kanten entsprechen semantischen Beziehungen Für jede Relation ist auch deren Inverse in WordNet Gerichteter gelabelter Graph
53 Nouns: Hyponymy Relates more/less general concepts Creates hierarchies, or trees {vehicle} / \ {car, automobile} {bicycle, bike} / \ \ {convertible} {SUV} {mountain bike} A car is is a kind of vehicle <=> The class of vehicles includes cars, bikes Hierarchies can have up to 16 levels
54 Nouns: Hyponymy Transitiver Abschluss A car is a kind of vehicle An SUV is a kind of car => An SUV is a kind of vehicle
55 Nouns: Meronymy/holonymy ( relation (part-whole {car, automobile} {engine} / \ {spark plug} {cylinder} An engine has spark plugs Spark plus and cylinders are parts of an engine Werden bei Hyponymie vererbt: chair has legs => armchair has legs
56 Nouns: WordNet-Relationen {conveyance; transport} hyperonym {vehicle} hyperonym {motor vehicle; automotive vehicle} meronym hyperonym {car window} {car; auto; automobile; machine; motorcar} meronym hyperonym hyperonym {cruiser; squad car; patrol car; police car; prowl car} {cab; taxi; hack; taxicab; } {bumper} {car door} {car mirror} meronym meronym {hinge; flexible joint} {doorlock} {armrest}
57 Weitere WordNet-Relationen troponym (Verb -> Verb) zunehmende Spezialisierung communicate -> talk -> whisper (Dimension: Lautstärke) move -> jog -> run (Dimension: Geschwindigkeit) entailment (Verb -> Verb) ein Event impliziert zwangsläufig ein anderes buy -> pay, succeed -> try
58 Weitere WordNet-Relationen pertainym (Adjektiv -> Nomen) bezieht sich auf, relationale Adjektive beziehen sich auf dasjenige, von dem sie morphologisch abgeleitet sind criminal -> crime antonymy (Adjektiv <-> Adjektiv) Gegenteil wet <-> dry
59 Weitere WordNet-Relationen morphosemantische Links zwischen unterschiedlichen POS-Kategorien semantisch ähnliche Worte, die vom selben Stamm abgeleitet sind observe, observant, observation, observatory semantische Rollen (Noun -> Verb) Subklasse von morphosemantischen Links, sind nach der Art der Beziehung (semantischer Rolle) gelabelt paint ->[AGENT] painter, paint ->[RESULT] painting
60 WordNet im WWW Datenbankinterface s=word&sub=search+wordnet&o2=&o0=1&o8= 1&o1=1&o7=&o5=&o9=&o6=&o3=&o4=&h= SPARQL version SELECT * WHERE {?s rdfs:label?o FILTER regex(str(?s),"synset"). } LIMIT 10
61 WordNet und Linked Open Data WordNet wurde früh von der Semantic-Web- Gemeinde adaptiert und nach RDF/OWL konvertiert multilinguale WordNets wurden und werden laufend nach RDF konvertiert und können dadurch miteinander und anderen Wissensquellen verknüpft werden
62 WordNet und Linked Open Data Dient z.b. als Grundlage von YAGO dort mit Wikipedia-Information verbunden GeoWordNet mit GeoNames verknüpft Cornetto niederländisches WordNet, mit einem englischen WordNet verlinkt OpenCyc enthält Links auf das englische WordNet
63
64 Linking und Propagation Durch die Verknüpfung mit WordNet kann die WordNet-Struktur auf andere Wissensbasen projiziert werden Wenn diese auf einfacheren Strukturen (z.b. Info Boxes) beruhen, ist es prinzipiell möglich, Regeln abzuleiten, um WordNet-Strukturen vorauszusagen Wenn diese andere Sprachen beinhalten (z.b. Wiktionary), kann die WordNet-Struktur auf die Zielsprache projiziert werden Sukzessive Anreicherung von Wissen in der LOD Cloud
65 Laufende RDF-Konvertierungen Uby verknüpft WordNet mit GermaNet (dt. WordNet), Wiktionary, FrameNet, VerbNet u.a.m. Konvertierung läuft gerade Linguistic LOD cloud
66 WordNet for Natural Language Processing Challenge: get a computer to understand language Information retrieval Text mining Document sorting Machine translation
67 Natural Language Processing Stemming, parsing currently at >90% accuracy level Word sense discrimination (lexical disambiguation) still a major hurdle for successful NLP Which sense is intended by the writer (relative to a dictionary)? Best systems: ~60% precision, ~60% recall (but human inter-annotator agreement isn t perfect, either!)
68 Word Sense Disambiguation wissensbasierte WSD Lesk-Algorithmus
69 Simplified Lesk Algorithmus function SENSES(word) returns all senses of word function WORDS(sense) returns all non-stopword words in gloss and examples of sense function SIMPLIFIED LESK(word,sentence) returns best sense of word result = most frequent sense for word max-overlap = 0 context = all words in sentence (no stop words)* for each sense in SENSES(word) do overlap = WORDS(sense) context if overlap > max-overlap then max-overlap = overlap result = sense end return result * das ist die Vereinfachung (wie auch die folgenden Beispiele nach Jurafsky & Martin, 2009, S. 646f)
70 Simplified Lesk, Beispiel The bank can guarantee deposits will eventually cover future tuition costs because it invests in adjustable-rate mortage securities. bank_1 a financial institution that accepts deposits and channels the money into lending activities e.g., he cashed a check at the bank, that bank holds the mortage on my home
71 Simplified Lesk, Beispiel The bank can guarantee deposits will eventually cover future tuition costs because it invests in adjustable-rate mortage securities. bank_2 sloping land (especially the slope beside a body of water) e.g., they pulled the canoe up on the bank, he sat in the bank of the river and watched the currents
72 Corpus Lesk bei SENSEVAL/SEMEVAL als baseline genutzt Kilgarriff & Rosenzweig (2000) modifizierte overlap-berechnung Worte im overlap zusätzlich gewichtet nach inverse document frequency (IDF) #doc idf i = log #doc i #doc Zahl der Dokumente, #doc i Dokumente mit Wort i IDF von Stopwords ist gering, daher ist keine Stopwortfilterung notwendig
73 Extended Lesk erweiterte overlap-berechnung Banerjee and Pedersen (2003) berechne overlap nicht nur zwischen Sense- Definitionen, sondern berücksichtige deren Kontext, z.b. similarity(a,b)= overlap(gloss(a), gloss(b)) + overlap(gloss(hypo(a)), gloss(hypo(b))) + overlap(gloss(hypo(a), gloss(b)) + overlap(gloss(a), gloss(hypo(b))
74 Extended Lesk erweiterte overlap-berechnung Banerjee and Pedersen (2003) berechne overlap nicht nur zwischen Sense- Definitionen, sondern berücksichtige deren Kontext sim elesk c 1, c 2 = overlap(gloss(r r,q RELS c 1 ), gloss(q c 2 )) wobei RELS die Relationen der lexikalischsemantischen Ressource sind
75 Weitere Modifikationen Selektionspräferenzen die Definition des Kontextes kann um syntaktische Information erweitert/besschränkt werden für ein Nomen z.b. um das Verb, mit dem es auftritt und die (grammatische) Rolle ihrer Beziehung
76 Weitere Modifikationen Ähnlichkeit zweiter Ordnung bislang haben wir nur ein Wort in seinem beobachteten Kontext mit Worten eines möglichen Wortsinnes verglichen alternativ kann der Kontext eines Wortes auch durch eine Kombination aller möglichen Worte aus seinem (beobachteten) Kontext definiert werden (Ähnlichkeit zweiter Ordnung)
77 Nächste Woche beide Erweiterungen wurden im Zsg. mit distributionellen Modellen der Wortsemantik weiter entwickelt und werden nächste Woche diskutiert des weiteren: Hausaufgabe wird ausgegeben manuell Annotation von Word Senses
78 Referenzen Zum Nachlesen Jurafsky & Martin (2009), 5.3, 5.5, 19.1, 20.4, 20.6 Folien POS-Tagging-Folien basieren teilweise auf Präsentationen von Roger Levy, Dan Klein, Chris Manning, Jason Eisner WordNet-Folien basieren teilweise auf einer Präsentation von Christiane Fellbaum
Einführung Konzepte und Begriffe Ähnliche Projekte Arbeiten mit WordNet
Randy Witte http://wordnet.princeton.edu/ http://www.linguistik.uni-erlangen.de SemNet.pdf http://en.wikipedia.org/wiki/wordnet http://www.globalwordnet.org/ Einführung Konzepte und Begriffe Ähnliche Projekte
MehrFriedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong
Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik HMM POS-Tagging Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2016 1 / 20 POS Tags (1) Jurafsky and Martin (2009) POS = part-of-speech Tags sind morphosyntaktische
MehrEinführung in die Computerlinguistik POS-Tagging
Einführung in die Computerlinguistik POS-Tagging Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2013 POS Tags (1) POS = part-of-speech Tags sind morphosyntaktische Kategorien von Wortformen.
MehrTreeTagger. Deborah Watty
TreeTagger Deborah Watty POS-Tagging store Das ist ein Haus. Artikel Verb Artikel Nomen Nom The 1977 PCs could only store two pages Modalverb Adverb of data. Wir wissen: store kann Nomen oder Verb sein.
MehrHidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014
idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme
MehrLexikalisch-semantische Disambiguierung mit WordNet
Lexikalische Semantik Lexikalisch-semantische Disambiguierung mit WordNet Conrad Steffens Paper: Rada Mihalcea & Dan I. Moldovan: A Method for Word Sense Disambiguation of Unrestricted Text Lexikalisch-semantische
MehrWortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank
Wortdekodierung Vorlesungsunterlagen Speech Communication 2, SS 2004 Franz Pernkopf/Erhard Rank Institute of Signal Processing and Speech Communication University of Technology Graz Inffeldgasse 16c, 8010
MehrMaschinelle Sprachverarbeitung: Part-of-Speech-Tagging
HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging Tobias Scheffer Ulf Brefeld POS-Tagging Zuordnung der Wortart von
MehrViterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes
Viterbi Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus von Arndt Faulhaber und Benjamin Schlebes Seminar: Endliche Automaten für die Sprachverarbeitung SS 2005 PD Dr. K. Haenelt 1/28
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik HMM POS-Tagging Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2018 1 / 30 Table of contents 1 Hidden Markov Models 2 POS Tags 3 HMM POS Tagging 4 Bigram-HMMs
MehrWordNet Eine elektronische lexikalische Datenbank
WordNet Eine elektronische lexikalische Datenbank Michael Zilske WordNet enthält 95600 Wortformen, davon 51500 einfache Wörter und 44100 Kollokationen) in 70100 Bedeutungen mit kurzen Umschreibungen, manchmal
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik Evaluation Annotation eines Goldstandard : Testkorpus mit der relevanten Zielinformation (z.b. Wortart) Automatische
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik WS 2/22 Manfred Pinkal Beispiel: Adjektive im Wahrig-Korpus Frequenzen in einem kleinen Teilkorpus: n groß - -
MehrWordNet. Referat von Johannes Braunias im Proseminar Word Sense Disambiguation bei Stefan Thater im Wintersemester
WordNet Referat von Johannes Braunias im Proseminar Word Sense Disambiguation bei Stefan Thater im Wintersemester 2010 15. November 2010 Synonymie Eine bestimmte Wortform in einem Satz, die durch eine
MehrIvana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Semantik. Sarah Bosch,
Ivana Daskalovska Willkommen zur Übung Einführung in die Computerlinguistik Semantik Wiederholung Was ist die Semantik und womit beschäftigt sie sich? 3 Was ist die Semantik und womit beschäftigt sie sich?
MehrUsing Lexical Semantic Resources to Extract Product Profiles from Text Catalogues. DGFS 06, Bielefeld, 23. Februar, 12:00 Uhr
Willkommen Using Lexical Semantic Resources to Extract Product Profiles from Text Catalogues DGFS 06, Bielefeld, 23. Februar, 12:00 Uhr Jan Burse XLOG Technologies GmbH janburse@xlog.ch Text, janburse@xlog.ch
MehrTransformation-Based Error-Driven Learning: Eine Fallstudie in Part of Speech Tagging
Transformation-Based Error-Driven Learning: Eine Fallstudie in Part of Speech Tagging Malte Helmert 23. Februar 2000 Seminar Autonome Mobile Systeme/Machine Learning Übersicht 1. Part of Speech Tagging
MehrDer Viterbi Algorithmus
M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes
MehrVortrag im Rahmen der Vorlesung Data Warehouse Dozentin: Prof. Dr. Frey-Luxemburger WS 2011/2012. Referent: Florian Kalisch (GR09)
Vortrag im Rahmen der Vorlesung Data Warehouse Dozentin: Prof. Dr. Frey-Luxemburger WS 2011/2012 Referent: Florian Kalisch (GR09) Rückblick Aktueller Status Einführung in Text-Mining Der Text-Mining Prozess
MehrKLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR VORLESUNG COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM
KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR VORLESUNG COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM VOR NACH MATRIKELNUMMER: STUDIENGANG: B.Sc. Computerlinguistik, B.Sc. Informatik,
MehrWhere are we now? The administration building M 3. Voransicht
Let me show you around 9 von 26 Where are we now? The administration building M 3 12 von 26 Let me show you around Presenting your company 2 I M 5 Prepositions of place and movement There are many prepositions
MehrNumber of Maximal Partial Clones
Number of Maximal Partial Clones KARSTEN SCHÖLZEL Universität Rostoc, Institut für Mathemati 26th May 2010 c 2010 UNIVERSITÄT ROSTOCK MATHEMATISCH-NATURWISSENSCHAFTLICHE FAKULTÄT, INSTITUT FÜR MATHEMATIK
MehrEnglish grammar BLOCK F:
Grammatik der englischen Sprache UNIT 24 2. Klasse Seite 1 von 13 English grammar BLOCK F: UNIT 21 Say it more politely Kennzeichen der Modalverben May and can Adverbs of manner Irregular adverbs Synonyms
MehrMaterialien zu unseren Lehrwerken
Word order Word order is important in English. The word order for subjects, verbs and objects is normally fixed. The word order for adverbial and prepositional phrases is more flexible, but their position
MehrSeminar Sicherheit und Softwareengineering WS 2013 / Isabell Kullack FEHLERANALYSE VON REQUIREMENTS DOCUMENTS
Isabell Kullack FEHLERANALYSE VON REQUIREMENTS DOCUMENTS Requirements Documents Was sind Requirements Documents? Anforderungsdokumente in industriellen Software-Projekten Häufig in natürlicher Sprache
MehrNLP Eigenschaften von Text
NLP Eigenschaften von Text Dr. Andreas Hotho Dominik Benz Beate Krause Sommersemester 2008 Folie: 1 Übersicht Einführung Eigenschaften von Text Words I: Satzgrenzenerkennung, Tokenization, Kollokationen
MehrH o c h s c h u l e D e g g e n d o r f H o c h s c h u l e f ü r a n g e w a n d t e W i s s e n s c h a f t e n
Time Aware Shaper Christian Boiger christian.boiger@hdu-deggendorf.de IEEE 802 Plenary September 2012 Santa Cruz, California D E G G E N D O R F U N I V E R S I T Y O F A P P L I E D S C I E N C E S Time
MehrLösungsvorschlag für das Übungsblatt 8. Aufgabe1.
Lösungsvorschlag für das Übungsblatt 8. Aufgabe1. 3 Det A N VP R6 4 Any A N VP L3 5 Any intelligent N VP L4 6 Any intelligent cat VP L2 Nach den Regeln kann der Satz weiter nicht erzeugt warden, deswegen
MehrStefan Engelberg (IDS Mannheim), Workshop Corpora in Lexical Research, Bucharest, Nov. 2008 [Folie 1] DWDS-Kernkorpus / DWDS corpus analysis
Content 1. Empirical linguistics 2. Text corpora and corpus linguistics 3. Concordances 4. Application I: The German progressive 5. Part-of-speech tagging 6. Fequency analysis 7. Application II: Compounds
MehrStudienprojekt TaxoSearch Spezifikation
Studienprojekt TaxoSearch Spezifikation Semantisch gestützte Suche im Internet Lehrstuhl für Computerlinguistik Ruprecht-Karls-Universität Heidelberg WS 2002-2003 vorgestellt von Thorsten Beinhorn, Vesna
MehrFinite-State-Morphologie in XLE. Grammatikentwicklung, SS 2010
Finite-State-Morphologie in XLE Grammatikentwicklung, SS 2010 1 / 20 Worum es heute geht: Nutzen von Finite-State-Morphologien... und wie man sie in XLE einbaut 2 / 20 Lexikon in XLE Bis jetzt: so genanntes
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
Mehr1 Part-of-Speech Tagging
2. Übung zur Vorlesung NLP Analyse des Wissensrohstoes Text im Sommersemester 2008 mit Musterlösungen Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 28. Mai 2008 1 Part-of-Speech
MehrProjektgruppe. Text Labeling mit Sequenzmodellen
Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:
MehrEnglisch-Grundwortschatz
Englisch-Grundwortschatz Die 100 am häufigsten verwendeten Wörter also auch so so in in even sogar on an / bei / in like wie / mögen their with but first only and time find you get more its those because
MehrPart of Speech Tagging. Linguistische Sicht. Carolin Deck
Part of Speech Tagging Linguistische Sicht Carolin Deck Gliederung 1. Begriffsklärung 2. Vorstellung zwei wichtiger Tagsets (STTS & PTTS) 3. Bedeutung des POS-Tagging für die Sprachwissenschaft 4. Tagzuweisung
MehrXML-Technologien Tutorium 6
XML-Technologien Tutorium 6 Thema: Semantic Web Linked Data RDF SPARQL von: Kain Kordian Gontarska kainkordian@gmail.com Semantic Web Das Internet soll nicht nur aus "dummen" Inhalten bestehen. (Ansammlung
MehrÜBERBLICK ÜBER DAS KURS-ANGEBOT
ÜBERBLICK ÜBER DAS KURS-ANGEBOT Alle aufgeführten Kurse sind 100 % kostenfrei und können unter http://www.unterricht.de abgerufen werden. SATZBAU & WORTSTELLUNG - WORD ORDER Aussagesätze / Affirmative
MehrKapitel 16. Begriffe. HHU Düsseldorf, WS 2008/09 Information Retrieval 250
Kapitel 16 Begriffe HHU Düsseldorf, WS 2008/09 Information Retrieval 250 Semantisches Umfeld "Find what I mean, not what I say" (Susan Feldman) natürlichsprachiges Umfeld Werkzeug: natürlichsprachiger
MehrEvaluation und Training von HMMs
Evaluation und Training von MMs Vorlesung omputerlinguistische Techniken Alexander Koller. Dezember 04 MMs: Beispiel initial p. a 0 0.8 0.7 0. Eisner 0. transition p. 0. 0.6 a 0.5 0. emission p. b () States
MehrIvana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Morphologie. Sarah Bosch,
Ivana Daskalovska Willkommen zur Übung Einführung in die Computerlinguistik Morphologie Wiederholung Aufgabe 1 Was ist Morphologie, Morphem? 3 Aufgabe 1 Was ist Morphologie, Morphem? Teildisziplin der
MehrGerman translation: technology
A. Starter Write the gender and the English translation for each word, using a dictionary if needed. Gender (der/die/das) German English Handy Computer Internet WLAN-Verbindung Nachricht Drucker Medien
MehrUnterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Vertretungsstunde Englisch 5. Klasse: Grammatik
Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Vertretungsstunde Englisch 5. Klasse: Grammatik Das komplette Material finden Sie hier: School-Scout.de Pronouns I Let s talk about
MehrQuestion words revision
A. Translate each German word into English. 1. Wer... 2. Wo... 3. Was... 4. Warum... 5. Wann... 6. Wie... 7. Welche/welcher/welchen... 8. Wie viel... 9. Wie viele... 10. Woher... 11. Wohin... 12. Wieso...
MehrPONS DIE DREI??? FRAGEZEICHEN, ARCTIC ADVENTURE: ENGLISCH LERNEN MIT JUSTUS, PETER UND BOB
Read Online and Download Ebook PONS DIE DREI??? FRAGEZEICHEN, ARCTIC ADVENTURE: ENGLISCH LERNEN MIT JUSTUS, PETER UND BOB DOWNLOAD EBOOK : PONS DIE DREI??? FRAGEZEICHEN, ARCTIC ADVENTURE: Click link bellow
MehrComputerlinguistische Grundlagen. Jürgen Hermes Sommersemester 17 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln
Computerlinguistische Grundlagen Jürgen Hermes Sommersemester 17 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Computerlinguistik: Schnittstellen Computerlinguistik aus
MehrIntroduction to Python. Introduction. First Steps in Python. pseudo random numbers. May 2016
to to May 2016 to What is Programming? All computers are stupid. All computers are deterministic. You have to tell the computer what to do. You can tell the computer in any (programming) language) you
MehrProbabilistische kontextfreie Grammatiken
Probabilistische kontextfreie Grammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 08. Dezember 2015 Let s play a game Ich gebe Ihnen ein Nichtterminalsymbol. S, NP, VP, PP, oder POS-Tag
MehrTagging mit Hidden Markov Models und Viterbi-Algorithmus
Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:
MehrRelationen zwischen Nomen und ihren Assoziationen. Michael Roth
Relationen zwischen Nomen und ihren Assoziationen Michael Roth 2 Assoziationen sind psychologisch interessant. Wie erfolgt der Zugriff auf sie? Welche Bedeutung haben sie? erfüllen einen linguistischen
MehrDeutsch 1 Kapitel 6: Meine Sachen items in a house, pronouns, adjectives, prepositions. Name: Seite
1. Label 10 things in the room with the correct gender (die, der, das) 2. Find the nine words related to household furnishing in the puzzle below. 3. Find the missing pieces of furniture. 4. The movers
MehrEnglish grammar BLOCK F:
Grammatik der englischen Sprache UNIT 23 2. Klasse Seite 1 von 13 English grammar BLOCK F: UNIT 21 Say it more politely Kennzeichen der Modalverben May and can Adverbs of manner Irregular adverbs Synonyms
MehrZu + Infinitiv Constructions
Zu + Infinitiv Constructions You have probably noticed that in many German sentences, infinitives appear with a "zu" before them. These "zu + infinitive" structures are called infinitive clauses, and they're
MehrHidden Markov Models (HMM)
Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen
MehrInformation Retrieval und Question Answering
und Question Answering Kai Kugler 19. November 2009 Auffinden von relevantem Wissen Die Relevanz der aufzufindenden Information ist abhängig vom... aktuellen Wissen des Benutzers dem aktuellen Problem
MehrLinguistische Grundlagen. Warum Tagging? Klassische Wortartenlehre Tagsets Annotation höherer Ebenen Design von Tagsets
Linguistische Grundlagen Warum Tagging? Klassische Wortartenlehre Tagsets Annotation höherer Ebenen Design von Tagsets Warum Tagging? Abfragbarkeit linguistischer Information Generalisierbarkeit von Abfragen
MehrDer VITERBI-Algorithmus
Der VITERBI-Algorithmus Hauptseminar Parsing Sommersemester 2002 Lehrstuhl für Computerlinguistik Universität Heidelberg Thorsten Beinhorn http://janus.cl.uni-heidelberg.de/~beinhorn 2 Inhalt Ziel des
MehrHidden Markov Models in Anwendungen
Hidden Markov Models in Anwendungen Prof Dr. Matthew Crocker Universität des Saarlandes 18. Juni 2015 Matthew Crocker (UdS) HMM Anwendungen 18. Juni 2015 1 / 26 Hidden Markov Modelle in der Computerlinguistik
MehrDialogue: Herr Kruse talks to Herr Meyer about his regular trips to Berlin: Das geht sehr schnell! Es dauert nur etwa 3 Stunden.
Dialogue: Herr Kruse talks to Herr Meyer about his regular trips to Berlin: H.M: H.K: H.M: H.K: H.M: H.K: Fahren Sie regelmäßig nach Berlin? Oh ja, circa 2 bis 3 Mal im Monat. Und wie fahren Sie? Ich nehme
MehrDependency-Based Construction of Semantic Space Models ( Padó, Lapata 2007) Distributionelle Semantik WS 11/
Dependency-Based Construction of Semantic Space Models ( Padó, Lapata 2007) Distributionelle Semantik WS 11/12 21.11.2011 Lena Enzweiler 1 Was ist das Problem? Wortbasierte Vektormodelle betrachten nur
MehrLexikalische Semantik und semantische Lexika. Manfred Pinkal PJS Word Sense Disambiguation SS 2004
Lexikalische Semantik und semantische Lexika Manfred Pinkal PJS Word Sense Disambiguation SS 2004 Wortbedeutung Wortbedeutungen sind vielschichtig Wortbedeutungen sind offen Unterschiedliche Aspekte von
MehrInhalt. Topics and Worksheets Vorwort Hinweise zum ActiveBook
Inhalt Vorwort Hinweise zum ActiveBook Topics and Worksheets... 1 Topic 1: Reading: Chasing the cheese... 2 Grammar: Simple past and present perfect revision... 4 Vocabulary: Naming parts of a picture...
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Einführung Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2018 1 / 14 Anwendungen der Computerlinguistik Carstensen et al. (2010); Jurafsky and Martin
MehrVIRGINIA CODE 159. Interkulturelle und landeskundliche Aspekte. Schreibmaterial
VIRGINIA Fertigkeit Hören Relevante(r) Deskriptor(en) Deskriptor 1: Kann Gesprächen über vertraute Themen die Hauptpunkte entnehmen, wenn Standardsprache verwendet und auch deutlich gesprochen wird. (B1)
MehrEinführung in unifikationsbasierte Grammatikformalismen
Universität Potsdam Institut für Linguistik Computerlinguistik Einführung in unifikationsbasierte Grammatikformalismen Thomas Hanneforth head: VP form: finite subj: pers: 3 num: pl Merkmalsstrukturen:
MehrDIBELS TM. German Translations of Administration Directions
DIBELS TM German Translations of Administration Directions Note: These translations can be used with students having limited English proficiency and who would be able to understand the DIBELS tasks better
MehrProseminar Linguistische Annotation
Proseminar Linguistische Annotation Ines Rehbein und Josef Ruppenhofer SS 2010 Ines Rehbein und Josef Ruppenhofer (SS10) Linguistische Annotation April 2010 1 / 22 Seminarplan I. Linguistische Annotation
MehrEntity Search. Michel Manthey Arne Binder 2013
Entity Search Michel Manthey Arne Binder 2013 Gliederung Idee Herausforderungen Allgemeine Herangehensweise Möglichkeiten und angewandte Verfahren Ausblick Quellen Idee Bisher: Suche nach Dokumenten, die
MehrSemantik und Pragmatik
Semantik und Pragmatik SS 2005 Universität Bielefeld Teil 4, 6. Mai 2005 Gerhard Jäger Semantik und Pragmatik p.1/35 Prädikatenlogik: atomare Formeln Syntax JO, BERTIE, ETHEL, THE-CAKE... sind Individuenkonstanten
MehrKilly Literaturlexikon: Autoren Und Werke Des Deutschsprachigen Kulturraumes 2., Vollstandig Uberarbeitete Auflage (German Edition)
Killy Literaturlexikon: Autoren Und Werke Des Deutschsprachigen Kulturraumes 2., Vollstandig Uberarbeitete Auflage (German Edition) Walther Killy Click here if your download doesn"t start automatically
MehrSchule mit Erfolg. Englisch Simple present adverbs time Unit Blatt What time is it? 7.50 Uhr Uhr Uhr Uhr 20.
Englisch Simple present adverbs time Unit 3 2.1 Blatt 1 1. Vocabulary. a) Write down the opposites! big always after first late rude b) Put in the right prepositions. Luke gets up at 7 am the morning.
MehrLogik und modelltheoretische Semantik. Montague-Grammatik
Logik und modelltheoretische Montague-Grammatik Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 23.5.2017 Zangenfeind: Montague-Grammatik 1 / 23 Vorgeschichte Ursprung
MehrElementare Wahrscheinlichkeitslehre
Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?
MehrContext-adaptation based on Ontologies and Spreading Activation
-1- Context-adaptation based on Ontologies and Spreading Activation ABIS 2007, Halle, 24.09.07 {hussein,westheide,ziegler}@interactivesystems.info -2- Context Adaptation in Spreadr Pubs near my location
MehrExercise (Part II) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1
Exercise (Part II) Notes: The exercise is based on Microsoft Dynamics CRM Online. For all screenshots: Copyright Microsoft Corporation. The sign ## is you personal number to be used in all exercises. All
MehrHidden Markov Models
Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung
MehrKapitel 4: Syntaxdiagramme und Grammatikregeln
4. Syntaxdiagramme und Grammatikregeln 4-1 Objektorientierte Programmierung (Winter 2006/2007) Kapitel 4: Syntaxdiagramme und Grammatikregeln Syntaxdiagramme Grammatikregeln (kontextfrei) Beispiele: Lexikalische
MehrAutomatische Textzusammenfassung
Ruprecht Karls Universität Heidelberg Lehrstuhl für Computerlinguistik HS Information Retrieval Automatische Textzusammenfassung Referat von Elena Loupanova 23.01.2006 Definition Textzusammenfassung The
MehrLexikalische Semantik: Strukturen und Ressourcen. Manfred Pinkal PS Lexikalische Semantik WS 2005/2006
Lexikalische Semantik: Strukturen und Ressourcen Manfred Pinkal PS Lexikalische Semantik WS 2005/2006 Über Delphine PJS Word Sense Disambiguation SS 2004 2 Über Delphine Dolphins are mammals, not fish.
MehrIm Original veränderbare Word-Dateien
Schulaufgabe aus dem Englischen Klasse:... Name:... gehalten am:... 1. Dictation 2. Compare these things! Take the given adjectives in brackets and use the comparative once and the superlative once. (1)
MehrSemantic Relations and User Interests
Semantic Relations and User Interests WordNet Lexical Database und mögliche Anwendungen bei der Benutzerinteraktion Sebastian Blohm Sorry... Wie kann eine Maschine beim Suchen helfen? Was Maschinen schon
MehrLevel 2 German, 2015
91126 911260 2SUPERVISOR S Level 2 German, 2015 91126 Demonstrate understanding of a variety of written and / or visual German text(s) on familiar matters 2.00 p.m. Friday 4 December 2015 Credits: Five
MehrNatürlichsprachliche Systeme I
Natürlichsprachliche Systeme I WordNet in NLTK D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg WS 2013/14, 17. Dezember 2013, c 2011
MehrSemantic Role Labeling
Semantic Role Labeling Am Beispiel von EasySRL und SEMAFOR Max Depenbrock Proseminar "Tools für Computerlinguisten" 5.1.2018 Max Depenbrock SRL 5.1.2018 1 / 36 Was ist Semantic Role Labeling? Was ist Semantic
MehrKontextfreie Grammatiken
Kontextfreie Grammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 16. Oktober 2015 Übersicht Worum geht es in dieser Vorlesung? Übungen und Abschlussprojekt Kontextfreie Grammatiken Computerlinguistische
MehrModern Foreign Languages
MFL1: To understand the verb werden and to be able to talk about future plans A) Match the English answers to the German. German Correct Answer English Ich werde spielen Du wirst spielen You will play
MehrHarry gefangen in der Zeit Begleitmaterialien
Episode 011 Grammar 1. Plural forms of nouns Most nouns can be either singular or plural. The plural indicates that you're talking about several units of the same thing. Ist das Bett zu hart? Sind die
MehrSyntax natürlicher Sprachen
Syntax natürlicher Sprachen 03: Phrasen und Konstituenten Martin Schmitt Ludwig-Maximilians-Universität München 08.11.2017 Martin Schmitt (LMU) Syntax natürlicher Sprachen 08.11.2017 1 Themen der heutigen
MehrDie UN-Kinderrechtskonvention. Darstellung der Bedeutung (German Edition)
Die UN-Kinderrechtskonvention. Darstellung der Bedeutung (German Edition) Daniela Friedrich Click here if your download doesn"t start automatically Die UN-Kinderrechtskonvention. Darstellung der Bedeutung
MehrDOWNLOAD. Me and my body. Erste Schritte in Englisch. Anne Scheller. Downloadauszug aus dem Originaltitel: Klasse 3 4
DOWNLOAD Anne Scheller Me and my body Erste Schritte in Englisch Klasse 3 4 auszug aus dem Originaltitel: Mit Geschichten, vielfältigen Übungen und Materialien zur Portfolio-Arbeit THE TERRIBLE TOM Luke
Mehr"What's in the news? - or: why Angela Merkel is not significant
"What's in the news? - or: why Angela Merkel is not significant Andrej Rosenheinrich, Dr. Bernd Eickmann Forschung und Entwicklung, Unister GmbH, Leipzig UNISTER Seite 1 Unister Holding UNISTER Seite 2
MehrHidden Markov Models in Anwendungen
Hidden Markov Models in Anwendungen Dr. Vera Demberg Universität des Saarlandes 31. Mai 2012 Vera Demberg (UdS) HMM Anwendungen 31. Mai 2012 1 / 26 Hidden Markov Modelle in der Computerlinguistik Table
MehrBayesian Networks. Syntax Semantics Parametrized Distributions Inference in Bayesian Networks. Exact Inference. Approximate Inference
Syntax Semantics Parametrized Distributions Inference in Exact Inference Approximate Inference enumeration variable elimination stochastic simulation Markov Chain Monte Carlo (MCMC) 1 Includes many slides
MehrUnterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Vertretungsstunde Englisch 6. Klasse: Grammatik
Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Vertretungsstunde Englisch 6. Klasse: Grammatik Das komplette Material finden Sie hier: Download bei School-Scout.de a few a little
MehrLevel 1 German, 2016
90886 908860 1SUPERVISOR S Level 1 German, 2016 90886 Demonstrate understanding of a variety of German texts on areas of most immediate relevance 2.00 p.m. Wednesday 23 November 2016 Credits: Five Achievement
MehrEinführung in die Computerlinguistik. Morphologie III
Einführung in die Computerlinguistik Morphologie III Hinrich Schütze & Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 7.12.2015 Schütze & Zangenfeind: Morphologie III
Mehr