Phonetische Lexika Part-of-Speech Tagging. Uwe D. Reichel IPSK, LMU München

Größe: px
Ab Seite anzeigen:

Download "Phonetische Lexika Part-of-Speech Tagging. Uwe D. Reichel IPSK, LMU München"

Transkript

1 Phonetische Lexika Part-of-Speech Tagging Uwe D. Reichel IPSK, LMU München

2 Inhalt Parts of Speech POS-Tagging-Probleme: OOV, Ambiguitäten Regelbasierte Tagger Markov-Tagger Transformationsbasiertes Tagging Evaluierung 1

3 Parts of Speech Deutsch: STTS (Stuttgart-Tübingen Tagset; Schiller et al., 1995) Label Wortart Beispiel Nomen NN Substantiv Tisch NE Eigennamen Hans, Hamburg TRUNC Kompositions-Erstglied An- und Abreise Verben VVFIN Finites Verb, voll du gehst VVIMP Imperativ, voll komm! VVINF Infinitiv, voll gehen VVIZU Infinitiv mit zu, voll anzukommen VVPP Partizip Perfekt, voll gegangen VAFIN Finites Verb, aux wir werden VAIMP Imperativ, aux sei ruhig! VAINF Infinitiv, aux sein, werden VAPP Partizip Perfekt, aux gewesen VMFIN Finites Verb, modal wollte VMINF Infinitiv, modal wollen VMPP Partizip Perfekt, modal er hat gekonnt 2

4 Label Wortart Beispiel Adjektive ADJA Attributives Adjektiv das große Haus ADJD Adverbiales oder prädikatives Adjektiv er fährt/ist schnell Pronomen PDS Substituierendes Demonstrativpronomen dieser, jener PDAT Attribuierendes Demonstrativpronomen dieser Mensch PIS Substituierendes Indefinitpronomen keine, viele PIAT Attribuierendes Indefinitpronomen irgendein Glas PIDAT Attribuierendes Indefinitpronomen mit ein wenig Wasser Determiner PPER Irreflexives Personalpronomen er, dich, ihr PPOSS Substituierendes Possessivpronomen deiner PPOSAT Attribuierendes Possessivpronomen mein Buch PRELS Substituierendes Relativpronomen der Hund, der PRELAT Attribuierendes Relativpronomen der Mann, dessen Hund PRF Reflexives Personalpronomen sich, einander PWS Substituierendes Interrogativpronomen wer, was PWAT Attribuierendes Interrogativpronomen welcher Hut PWAV Adverbiales Interrogativ- oder warum, wo Relativpronomen Adpositionen APPR Präposition; Zirkumposition links in der Stadt APPRART Präposition mit Artikel im Haus APPO Postposition ihm zufolge APZR Zirkumposition rechts von jetzt an 3

5 Label Wortart Beispiel Adverbien ADV Adverb heute nicht PAV Pronominaladverb dafür, deswegen Konjunktionen KOUI Unterordnende Konjunktion mit zu um zu leben und Infinitiv KOUS Unterordnende Konjunktion mit Satz weil, daß KON Nebenordnende Konjunktion und, oder Partikeln PTKZU zu vor Infinitiv zu gehen PTKNEG Negationspartikel nicht PTKVZ Abgetrennter Verbzusatz er kommt an PTKANT Antwortpartikel ja, danke PTKA Partikel bei Adjektiv oder Adverb am schönsten KOKOM Vergleichspartikel, ohne Satz als, wie Sonstige ART Bestimmter oder unbestimmter Artikel der, eine CARD Kardinalzahl zwei, 1984 FM Fremdsprachliches Material big ITJ Interjektion ach XY Nichtwort, Sonderzeichen D2XW3 $, Komma, $. Satzbeendende Interpunktion.?!;: $( Sonstige Satzzeichen; satzintern (- 4

6 Englische Tagsets Penn Tagset (Marcus et al., 1993): 45 tags... C7 Tagset (Leech et al., 1994): 146 tags 5

7 Probleme Probleme beim reinen Lexikon-Lookup Out of Vocabulary-Fälle (OOV): POS für Wörter, die nicht im Lexikon stehen, unbekannt Ambiguitäten: Wort kann verschiedene POS-Labels tragen Sucht: NN vs. VVFIN ab: ADP vs. PTKVZ als: KOKOM vs. KOUS am: APPRART vs. PTKA Anfangs: NN vs. ADV Lösungen Einbeziehen des Wortkontexts Einbeziehen POS-relevanter Worteigenschaften (z.b. String-Suffixe) 6

8 Tagger-Überblick Regelbasierte Verfahren: ENGTWOL (Voutilainen, 1995) Statistische Verfahren: Jelinek (1985), Tree Tagger (Schmidt, 1995), Reichel (2005) Transformationsbasierte Verfahren: Brill (1995) 7

9 Regelbasierte Verfahren ENGTWOL (Voutilainen, 1995) 2 Schritte: 1. Lexikon-Lookup POS-Kandidaten 2. falls mehrere: Auswahl des richtigen Labels (Disambiguierung) anhand von Regeln Lexikon-Einträge: Wortform, POS, morpholog.+syntakt. Features (Subkategorisierungsrahmen usw.) show::v::imperative VFIN SVO SVOO show::v::present SG3 VFIN SVO SVOO show::n::nominative SG 8

10 Disambiguierung von that in it isn t that odd that::adv that::pron DEM SG that::det DEM SG that::cs Adverbial-That Regel: Given Input that if (+1 A ADV QUANT); %if next word is adj, adv or quantifier (+2 SENT-LIM); %and following which is a sentence boundary (NOT -1 SVOC/A); %and previous word is not verb allowing adjs as object complements then eliminate non-adv tags else eliminate ADV tag Nachteile: zeitaufwendiges Adjustieren der Regeln mangelnde Generaliserungsfähigkeit keine Übertragbarkeit auf andere Sprachen 9

11 Statistische Verfahren Statistische Sprachmodelle: N-Gramme Statistisches Modell: Vorhersage von Ereigniswahrscheinlichkeiten Wahrscheinlichkeit (Likelihood) einer Wortfolge w 1... w n (gemäß Kettenregel): P (w 1... w n ) = P (w 1 )P (w 2 w 1 )P (w 3 w 1 w 2 )... P (w n w 1... w n 1 ) = n P (w 1 ) P (w k w 1... w k 1 ) k=2 Anzahl von langen Wortvorgeschichten zu gering, als daß man daraus verläßliche Wahrscheinlichkeiten ableiten könnte vereinfachende Markov-Annahme: Länge der Wortvorgeschichte begrenzt auf m (z.b. =2: Trigramme) P (w 1... w n ) = P (w 1 )P (w 2 w 1 ) n k=3 P (w k w k m... w k 1 ) 10

12 Trigrammwahrscheinlichkeit: P (w k w k 2 w k 1 ) = #(w k 2w k 1 w k ) #(w k 2 w k 1 ) Smoothing: Anpassung der beobachteten Häufigkeiten, damit auch ungesehene n-gramme eine Wahrscheinlichkeit größer 0 erhalten; Discounting, Good-Turing-Verfahren usw. 11

13 lineare Interpolation: gewichtete Kombination verschiedener statistischer Modelle P (w 1... w n ) = n k=1 P hybrid (w k ) = n k=1 λ i P i (w k ) P (w 1... w n ) ist die Likelihood der Wortfolge w 1 bis w n, die sich zusammensetzt aus dem Produkt der Wahrscheinlichkeiten der betrachteten Einzelereignisse (Auftreten von Wort w k ). Zur Ermittlung der Wahrscheinlichkeiten für w k kann man verschiedene Modelle heranziehen (beispielsweise mit variierender Länge der Wortvorgeschichte) und die durch sie vorhergesagten Wahrscheinlichkeiten zu P hybrid kombinieren. P i (w k ) ist hierbei die Wahrscheinlichkeit von w k im Modell M i. Sei M 1 ein Unigramm-, M 2 ein Bigramm- und M 3 ein Trigramm-Modell zur Vorhersage der Wahrscheinlichkeit von w k, dann ergibt sich oben eingesetzt: P hybrid (w k ) = λ 1 P 1 (w k ) + λ 2 P 2 (w k w k 1 ) + λ 3 P 3 (w k w k 2 w k 1 ) Die Gewichte λ i werden mit Hilfe des EM-Algorithmus (expectation+maximization) ermittelt, ihre Summe ergibt 1. i 12

14 Satz von Bayes P (X Y ) = P (Y X)P (X) P (Y ) Wird eingesetzt, wenn P (X Y ) nicht geschätzt werden kann, beispielsweise wegen zu geringer Häufigkeit von Y. Einfache Form eines Markov-Taggers (Jelinek, 1985) Schätzung der wahrscheinlichsten Tag-Sequenz Ĝ, gegeben die Wort-Sequenz word W [ ] Ĝ = arg max P (G W ) G [ ] P (G)P (W G) = arg max (Bayes) G P (W ) [ ] = arg max P (G)P (W G) (P(W) konstant) G T P (G)P (W G) = P (w t w 1 g 1... w t 1 g t 1 g t )P (g t w 1 g 1... w t 1 g t 1 ) (Kettenr.) t=1 13

15 Vereinfachende Annahmen Die Wahrscheinlichkeit des Worts w t hängt nur von seinem tag g t ab. Die Wahrscheinlichkeit des tags g t hängt von einer begrenzten tag-vorgeschichte ab (Markov-Annahme) [ T Ĝ = arg max g 1...g T t=1 ] P (g t g-history t )P (w t g t ) Tagging-Problem als Hidden-Markov-Modell (HMM) formalisiert (siehe Tafelbild) Bestandteile eines HMM (mit konkreten Entsprechungen): Menge von Zuständen Q = {q i }; an jedem Zustand wird ein POS-Label angetragen Übergangswahrscheinlichkeiten A = {a ij }: von Zustand i zu Zustand j; entspricht P (POS j POS-history), Übergangswahrscheinlichkeiten abhängig von den POS-Labels der n vorangehenden Zustände (bei einer history der Länge n). Emissionswahrscheinlichkeiten (observation likelihoods) B = {b jot }: für Beobachtung o t ; entspricht P (w t POS t ) für alle POS j 14

16 Ermittlung von ˆT mit Hilfe des Viterbi-Algorithmus: Aufbau einer Trellis: Zustand-Zeitpunkt-Gitter; ein Knoten entspricht einem POS-tag zu einem bestimmten Zeitpunkt, also zum Index des jeweiligen Worts im zu taggenden Text 1 Ziel: finde für beobachtete Wortfolge denjenigen Pfad durch die Trellis, in dem das Produkt aus Emissions- [ und Übergangswahrscheinlichkeiten ] [ ] maximiert wird max P (G)P (W G) max P (G W ). Die damit verbundene Tag-Sequenz g 1... g T ist der Output des Taggers. in jedem Knoten k j (t) der Trellis für tag j und Zeitpunkt t wird folgendes notiert: a) die Wahrscheinlichkeit δ j (t) des bis hierhin wahrscheinlichsten Pfads, und b) der Vorgängerknoten auf diesem Pfad 1 Indizes: über Zustände (tags): 1 i, j N; über Zeitpunkte: 1 t T bei einem POS-Inventar der Größe N und einem zu taggenden Text der Länge T 15

17 Ermittlung der δ j (t) s: Initialisierung: δ j (1) = b jo1 Induktion 2 δ j (t) = max i [ δi (t 1)a ij b jot ] 2 Induktion (informell): Fortführung eines für n gültigen Sachverhalts mit n

18 Bei der Initialisierung zum Zeitpunkt t = 1 werden die δ s für jeden POS j gleich den bedingten Wahrscheinlichkeiten P(erstes Wort im zu taggenden Text POS j) gesetzt. Im Zuge der Induktion wird für jeden Knoten k jt der Trellis für POS j zum Zeitpunkt t die Wahrscheinlichkeit δ j (t) des wahrscheinlichsten Pfads hin zu diesem Knoten ermittelt. Diese ergibt sich durch Multiplikation von (Emissionswahrscheinlichkeit des t-ten Worts im zu taggenden Text, gegeben POS j) mit dem Maximum unter den Produkten (Wahrscheinlichkeiten der Pfade zu den Knoten zum Zeitpunkt t 1) x (Übergangswahrscheinlichkeiten zwischen den Knoten der Ebene t 1 und k jt ). Der Vorgänger von k jt im wahrscheinlichsten Pfad wird ebenfalls am Knoten vermerkt, damit der Pfad dann nach Zeitpunkt T, also nach dem letzten Wort, ausgelesen werden kann. 17

19 Tree Tagger (Schmidt, 1995) P (w t g t ) mittels Lexikon, das Vollformen und Suffixe enthält P (g t g-history t ) mittels Entscheidungsbaum, der für g-history einen Vektor mit den Wahrscheinlichkeiten der POS-tags ausgibt; g-history ist als Pfad im Baum repräsentiert Reduzierung des OOV-Problems, aber sprachabhängig 18

20 Reichel (2005) Vergleiche auch: TnT-Tagger (Brants, 2000) Generalisierung des Grundmodells mittels linearer Interpolation ersetze P (g t g-history t ) durch j u jp (g t g-history tj ) ersetze P (w t g t ) durch P (w t) P (g t ) k v kp (g t w-representation tk ) [ T ˆT = arg max g 1...g T t=1 1 P (g t ) u j P (g t g-history tj ) j k ] v k P (g t w-representation tk ) 19

21 Word-Repräsentation: String-Suffixe Motivation in vielen Sprachen ist POS-Information Suffix-Morphemen, Flektionsendungen, und finalen Kompositumgliedern kodiert (Gelegenheit/NN, Umgehungsstraße/NN, partly/adv) Nutzung dieser Einheiten reduziert das OOV-Problem Desideratum: ermittle linguistisch sinntragende String-Suffixe ohne linguistisches Wissen Sprachunabhängigkeit Ermittlung der String-Suffixe mittels Weighted Backward Successor Variety (SV) SV eines Strings: Anzahl verschiedener Characters, die ihm in einem Lexikon folgen können Backward SV: SV s werden von gespiegelten Strings ermittelt (Suffixe) Weighting: SV s werden gewichtet in Abhängigkeit der mittleren SV an der entsprechenden String-Position, um Positions-Effekte zu eliminieren 20

22 Lexikon gespiegelter Wörter als Trie repräsentiert SV an einem Zustand: Anzahl der abgehenden Transitionen lokale SV-Gipfel werden als Morphemgrenzen betrachtet (vgl. Peak and Plateau Algorithmus von Nascimento et al., 1998) Beispiel: Lexikon-Trie mit den gespiegelten Einträgen Einigung, Kreuzigung and Eignung Die SV-Maxima an den Zuständen 3 und 5 entsprechen den Grenzen der Morpheme ung and ig 21

23 Brill Tagger (Brill, 1995) regelbasierter Tagger Transformationsbasiertes Tagging Regeln werden automatisch anhand der Trainingsdaten gewonnen (überwachtes Lernen) Lernalgorithmus: 1. weise jedem Wort den wahrscheinlichsten POS-tag zu 2. iterate until Verbesserung < Schwelle wähle aus einer Menge von Transformationenregeln diejenige aus, die zum besten Tagging-Ergebnis führt füge diese Regel hinten an die Liste bisher ausgewählter Regeln trl an tagge das Corpus unter Anwendung dieser Regel neu Beispiel für Transformationsregel: NN VB if (vorangehender tag gleich TO) expected to/to race/nn expected to race/vb 22

24 Transformationsregeln ergeben sich durch Einsetzen aller möglichen POS-tags in folgende Templates: tag a tag b, if vorangehendes (folgendes) Wort ist mit tag z gelabelt. das zweite vorangehende (folgende) Wort ist mit tag z gelabelt. eines der zwei (drei) vorangehenden (folgenden) Wörter ist mit tag z gelabelt. vorangehendes Wort ist mit tag z gelabelt, und das folgende mit tag w. das vorangehende (folgende) Wort ist mit tag z gelabelt, und das zweite vorangehende (folgende) Wort mit tag w. Lernalgorithmus sehr zeitaufwendig, wenn für jedes Template zur Belegung von a, b, z, w alle POS-Kombinationen zugelassen werden Tagging: 1. weise jedem Wort den wahrscheinlichsten POS-tag zu 2. foreach Regel tr in trl: tagge den Text unter Anwendung von tr neu 23

25 Evaluierung anhand eines Testcorpus Gold-Standard: Vergleich des Tagger-Outputs mit manuell gesetzten tags; Relativierung durch Inter-Tagger-Agreement < 100 % Baseline: Vergleich des Outputs mit Output eines Baseline-Taggers, beispielsweise einem Unigramm-Tagger (ohne POS-History) Vergleichbarkeit von Taggern bei beliebiger Tagset-Größe: 3 Kappa-Statistik κ = P t (C) P z(c) 1 Pz(C) C: Wort korrekt getaggt, P t (C): Anteil der vom Tagger korrekt klassifizierten Wörter, Pz(C): zu erwartender Anteil zufällig korrekt klassifizierter Wörter = 1 Tagset 3 Bei einem Tagset der Größe 1 ist die Performanz des Taggers, der nur diesen einen Tag vorhersagt, 100 %. 24

VorlaugeGuidelinesfurdasTaggingdeutscherTextcorpora AnneSchiller,SimoneTeufel,ChristineStockert mitstts InstitutfurmaschinelleSprachverarbeitung UniversitatStuttgart SeminarfurSprachwissenschaft UniversitatTubingen

Mehr

Stefan Engelberg (IDS Mannheim), Workshop Corpora in Lexical Research, Bucharest, Nov. 2008 [Folie 1] DWDS-Kernkorpus / DWDS corpus analysis

Stefan Engelberg (IDS Mannheim), Workshop Corpora in Lexical Research, Bucharest, Nov. 2008 [Folie 1] DWDS-Kernkorpus / DWDS corpus analysis Content 1. Empirical linguistics 2. Text corpora and corpus linguistics 3. Concordances 4. Application I: The German progressive 5. Part-of-speech tagging 6. Fequency analysis 7. Application II: Compounds

Mehr

Part-of-Speech- Tagging

Part-of-Speech- Tagging Part-of-Speech- Tagging In: Einführung in die Computerlinguistik Institut für Computerlinguistik Heinrich-Heine-Universität Düsseldorf WS 2004/05 Dozentin: Wiebke Petersen Tagging Was ist das? Tag (engl.):

Mehr

1 Part-of-Speech Tagging

1 Part-of-Speech Tagging 2. Übung zur Vorlesung NLP Analyse des Wissensrohstoes Text im Sommersemester 2008 Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 28. Mai 2008 1 Part-of-Speech Tagging 1.1 Grundlagen

Mehr

Morphologie (5) Wortarten (2) Part-of-Speech Tagging Stemming

Morphologie (5) Wortarten (2) Part-of-Speech Tagging Stemming Morphologie (5) Wortarten (2) Part-of-Speech Tagging Stemming Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 24.11.2014, 9 c.t. Zangenfeind: Morphologie 1 / 18 Wdh.: Klassifizierung

Mehr

STTS-Konfusionsklassen beim Tagging von Fremdsprachlernertexten

STTS-Konfusionsklassen beim Tagging von Fremdsprachlernertexten Marc Reznicek, Heike Zinsmeister STTS-Konfusionsklassen beim Tagging von Fremdsprachlernertexten 1 Motivation Für viele aktuelle Fragestellungen der Zweit- und Fremdspracherwerbsforschung ( L2- Erwerbsforschung

Mehr

Part-Of-Speech-Tagging mit Viterbi Algorithmus

Part-Of-Speech-Tagging mit Viterbi Algorithmus Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus

Mehr

ÜBERBLICK ÜBER DAS KURS-ANGEBOT

ÜBERBLICK ÜBER DAS KURS-ANGEBOT ÜBERBLICK ÜBER DAS KURS-ANGEBOT Alle aufgeführten Kurse sind 100 % kostenfrei und können unter http://www.unterricht.de abgerufen werden. SATZBAU & WORTSTELLUNG - WORD ORDER Aussagesätze / Affirmative

Mehr

Korpusvorverarbeitung. Hauptseminar: Einführung in die Korpuslinguistik. Kodierung/Annotationsmaximen. Vorverarbeitung: erste Schritte.

Korpusvorverarbeitung. Hauptseminar: Einführung in die Korpuslinguistik. Kodierung/Annotationsmaximen. Vorverarbeitung: erste Schritte. Hauptseminar: Einführung in die Korpuslinguistik Anke Lüdeling anke.luedeling@rz.hu-berlin.de Wintersemester 2002/2003 Korpusvorverarbeitung Beispiel: DIE ZEIT aufbereitet für journalistische Zwecke, mitgeliefertes

Mehr

Sprachen 2., 3. und 4. Lehrjahr

Sprachen 2., 3. und 4. Lehrjahr Schweizerische Vereinigung der Lehrkräfte grafischer Berufe (LGB) Unterricht für die Polygrafin und den Polygrafen gemäss dem Lehrplan für den beruflichen Unterricht vom 29. Januar 2002 Reglement über

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Thomas Vanck NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion, Übersetzung,

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Grammatik einfach praktisch - Englisch (Niveau: A1 - B2)

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Grammatik einfach praktisch - Englisch (Niveau: A1 - B2) Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Grammatik einfach praktisch - Englisch (Niveau: A1 - B2) Das komplette Material finden Sie hier: School-Scout.de Eine moderne und

Mehr

Der Viterbi-Algorithmus.

Der Viterbi-Algorithmus. Der Viterbi-Algorithmus. Eine Erläuterung der formalen Spezifikation am Beispiel des Part-of-Speech Tagging. Kursskript Karin Haenelt, 9..7 (.5.) Einleitung In diesem Skript wird der Viterbi-Algorithmus

Mehr

Wortartenbestimmung nach Peter Eisenberg

Wortartenbestimmung nach Peter Eisenberg Seminar: Wortarten Dozent: Prof. Dr. Öhlschläger Referent: Erik Heinig Literatur: Wortartenbestimmung nach Peter Eisenberg Eisenberg, Peter: Das Wort, Grundriß der deutschen Grammatik. Metzler.2004 Eisenberg,

Mehr

Bochumer Linguistische Arbeitsberichte (Bla 2) Kategorisierungsprobleme bei der Wortarten- Annotation von Textkorpora

Bochumer Linguistische Arbeitsberichte (Bla 2) Kategorisierungsprobleme bei der Wortarten- Annotation von Textkorpora Bochumer Linguistische Arbeitsberichte (Bla 2) Kategorisierungsprobleme bei der Wortarten- Annotation von Textkorpora Katja Keßelmeier Anneli von Könemann 2 Bochumer Linguistische Arbeitsberichte Herausgeber:

Mehr

Sprachen. l b. Deutsch Französisch Englisch. 1. Lehrjahr 2. Lehrjahr 3. Lehrjahr 4. Lehrjahr. Stoffplan-Sitzung vom 24. April 2007

Sprachen. l b. Deutsch Französisch Englisch. 1. Lehrjahr 2. Lehrjahr 3. Lehrjahr 4. Lehrjahr. Stoffplan-Sitzung vom 24. April 2007 Schweizerische Vereinigung der Lehrpersonen grafischer Berufe l b Stoffplan Polygraf EFZ Polygrafin EFZ Fachrichtung Gestaltung + Produktion Groupement suisse des enseignants des professions graphiques

Mehr

Why learner texts are easy to tag A comparative evaluation of part-of-speech tagging of Kobalt

Why learner texts are easy to tag A comparative evaluation of part-of-speech tagging of Kobalt Why learner texts are easy to tag A comparative evaluation of part-of-speech tagging of Kobalt Marc Reznicek and Heike Zinsmeister Workshop: Modeling non-standardized writing DGfS Jahrestagung, Potsdam

Mehr

Lösung für Lehrerinnen und Lehrer Grammatik-Lapbook Teil 1: Wortarten

Lösung für Lehrerinnen und Lehrer Grammatik-Lapbook Teil 1: Wortarten Lösung für Lehrerinnen und Lehrer Grammatik-Lapbook Teil 1: Wortarten Es wird zunächst eine Grundform für das Lapbook erstellt. Dabei bietet es sich an, aus Tonkarton ein Buch zu falten (siehe auch Arbeitsblatt

Mehr

Lerninhalte ALFONS Lernwelt Deutsch 5. Klasse

Lerninhalte ALFONS Lernwelt Deutsch 5. Klasse Seite 1 Turmzimmer 1: Lesen und Raten 1. Rückwärts lesen, vorwärts schreiben 7. Ohrentraining 2. Rückwärts hören, vorwärts schreiben 8. Europäerinnen und Europäer 3. Fremdwortgalgen 9. Europäische Leckereien

Mehr

Lerninhalte ALFONS Lernwelt Deutsch 6. Klasse

Lerninhalte ALFONS Lernwelt Deutsch 6. Klasse Seite 1 Turmzimmer 1: Beliebte Stolpersteine 1 1. Ableitung von b, d, g 7. -ig oder -lich im Auslaut 2. ai oder ei 8. end- oder ent- 1 3. f oder v oder w 9. end- oder ent- 2 4. W oder V, w oder v 10. seid

Mehr

Über den Einfluss von Part-of-Speech-Tags auf Parsing-Ergebnisse

Über den Einfluss von Part-of-Speech-Tags auf Parsing-Ergebnisse Sandra Kübler, Wolfgang Maier Über den Einfluss von Part-of-Speech-Tags auf Parsing-Ergebnisse 1 Einleitung Lange Zeit konzentrierte sich die Forschung im datengetriebenen statistischen Konstituenzparsing

Mehr

Langenscheidt Englisch-Comics Grammatik

Langenscheidt Englisch-Comics Grammatik Langenscheidt Comics Grammatik Langenscheidt Englisch-Comics Grammatik von Anke Williamson 1. Auflage Langenscheidt Englisch-Comics Grammatik Williamson schnell und portofrei erhältlich bei beck-shop.de

Mehr

KURZÜBERSICHT SONDERTEIL

KURZÜBERSICHT SONDERTEIL 402 BERUFSKOLLEG / FACHOBERSCHULEN - Englisch - Inhalt - Kurzübersicht KURZÜBERSICHT SONDERTEIL 402 410 Inhaltsverzeichnis 411-439 Notizen 440 476 Language-Aufgaben (Vocabulary) 477-489 Notizen 490 506

Mehr

Wozu Kasusrektion auszeichnen bei Präpositionen?

Wozu Kasusrektion auszeichnen bei Präpositionen? Simon Clematide Wozu Kasusrektion auszeichnen bei Präpositionen? 1 Einleitung Die Identifizierung von Kasus bei kasustragenden, deklinierbaren Wörtern (Pronomen, Artikel, Nomen, Adjektive) ist eine entscheidende

Mehr

GRA Annotierschema Thorsten Brants, Roland Hendriks, abine Kramp, Brigitte Krenn Cordula Preis, Wojciech kut, Hans Uszkoreit fthorsten,roland,kramp,krenn,preis,skut,hansug@coli.uni-sb.de. Juni 999 DRAFT

Mehr

Syntax und Morphologie

Syntax und Morphologie Syntax und Morphologie Einführungskurs 7. Vorlesung Redeteile (lat( lat. partes orationis, engl. parts of speech) Die Lexeme einer Sprache können im Hinblick auf bestimmte semantische und formale Eigenschaften

Mehr

OrthoGramm. Ein Nachschlagewerk. Monika Wyss Werner Kolb Heinz Hafner. Wortlehre Satzlehre Sätze Rechtschreibung Zeichensetzung

OrthoGramm. Ein Nachschlagewerk. Monika Wyss Werner Kolb Heinz Hafner. Wortlehre Satzlehre Sätze Rechtschreibung Zeichensetzung OrthoGramm Ein Nachschlagewerk Monika Wyss Werner Kolb Heinz Hafner Wortlehre Satzlehre Sätze Rechtschreibung Zeichensetzung Vorwort 5 Vorwort Der bewusste Umgang mit Sprache und die Sicherheit in der

Mehr

Basismethoden Sprachverarbeitung: Part-of-Speech Tagging

Basismethoden Sprachverarbeitung: Part-of-Speech Tagging Basismethoden der Sprachver- und -bearbeitung Vorverarbeitung PoS Tagging, Namenserkennung, Shallow Parsing Informationsgewinnung Kategorisierung, Informationsextraktion Analyse gesprochener Sprache Spracherkennung,

Mehr

2 Lösungen "Peptide de novo Sequencing"

2 Lösungen Peptide de novo Sequencing Lösungen "Peptide de novo Sequencing". Algorithm : PeptideSequencingOnlySux Input: a spectrum M with array of masses M = {m, m,, m n }, Σ, µ : Σ R >0 Output: the peptide string of the spectrum begin peptide

Mehr

Linkliste Englische Grammatik

Linkliste Englische Grammatik Linkliste Englische Grammatik So geht s: Suche in den angegebenen Themenübersichten der unten aufgeführten Webseiten (deutsche und englische) nach dem grammatischen Problem deiner Wahl, öffne den Link

Mehr

Grundwissen Grammatik

Grundwissen Grammatik Fit für das Bachelorstudium Grundwissen Grammatik Downloads zum Buch Lösungen und Übungsaufgaben Übungsaufgaben zum Kapitel 1 Das Wort (S. 48-50) Übung 1: Wortarten Ü-1a Bestimmen Sie im folgenden Analysebeispiel

Mehr

GRUNDWISSEN Englisch E 1 1. bis 3. Lernjahr GRAMMATIK MÜNDLICHE AUSDRUCKSFÄHIGKEIT

GRUNDWISSEN Englisch E 1 1. bis 3. Lernjahr GRAMMATIK MÜNDLICHE AUSDRUCKSFÄHIGKEIT GRUNDWISSEN Englisch E 1 1. bis 3. Lernjahr GRAMMATIK MÜNDLICHE AUSDRUCKSFÄHIGKEIT present tense (simple, progressive), simple past; going to-future (rezeptiv) Vollverben, Hilfsverben (be, have, do, can,

Mehr

Fachschaft Englisch Unterrichtsinhalte Klasse Lehrwerk/Zusatzmaterialien: Lehrbuch Green Line 1 Voraussetzungen: Inhaltliche Schwerpunkte

Fachschaft Englisch Unterrichtsinhalte Klasse Lehrwerk/Zusatzmaterialien: Lehrbuch Green Line 1 Voraussetzungen: Inhaltliche Schwerpunkte Klasse 5 Generell orientiert sich der Englischunterricht in Klasse 5 am Lehrbuch Green Line 1 (Klett). Hierzu gibt es zahlreiche Zusatzmaterialien vom Klett-Verlag, u.a. für die Vorbereitung von Klassenarbeiten,

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

Praktikum Maschinelle Übersetzung Language Model

Praktikum Maschinelle Übersetzung Language Model Praktikum Maschinelle Übersetzung Language Model Um die Aufgaben auszuführen, können Sie ihre Daten in folgendem Verzeichnis speichern: /project/smtstud/ss10/systems/username/ Wir werden verschiedene Sprachmodelle

Mehr

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 Wahrscheinlichkeit und Sprache Ausgangsfrage: Nächstes Wort vorhersagen. Sprache als Zufallsprozess: Für jede

Mehr

"What's in the news? - or: why Angela Merkel is not significant

What's in the news? - or: why Angela Merkel is not significant "What's in the news? - or: why Angela Merkel is not significant Andrej Rosenheinrich, Dr. Bernd Eickmann Forschung und Entwicklung, Unister GmbH, Leipzig UNISTER Seite 1 Unister Holding UNISTER Seite 2

Mehr

Englisch-deutsch-polnisches Wörterbuch. Benutzeranleitung

Englisch-deutsch-polnisches Wörterbuch. Benutzeranleitung Der EGP230D wird mit zwei CR2032 Batterien und einer CR1220 Reservebatterie betrieben. Um einen Datenverlust zu vermeiden, tauschen Sie die Batterien so schnell wie möglich aus. Dabei dürfen die alten

Mehr

Folie 1 Aber und aber Aber aber Und Aber Aufgaben: Partnerdiktat

Folie 1 Aber und aber Aber aber Und Aber Aufgaben: Partnerdiktat Folie 1 1. An meinem Arbeitsplatz muss ich immer korrekt gekleidet sein. Ich arbeite in einer Bank, am Schalter. Meistens trage ich einen Anzug, weißes Hemd und Krawatte. Aber in meiner Freizeit ziehe

Mehr

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 17.04.2015 Entscheidungsprobleme beim Textmining

Mehr

215 Grammatik. 5.-7. Klasse

215 Grammatik. 5.-7. Klasse 215 Grammatik 5.-7. Klasse Inhaltsverzeichnis Wortarten Verb und Konjugation............................. 1 Person und Numerus........................................ 1 Tempora........................................................................

Mehr

Das Briefträgerproblem

Das Briefträgerproblem Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:

Mehr

Diktat. Deutsch. 7. Klasse. Diktat. in 15 Minuten

Diktat. Deutsch. 7. Klasse. Diktat. in 15 Minuten Diktat 7. Klasse Deutsch Diktat in 15 Minuten Klasse So übst du mit diesem Buch Im Inhaltsverzeichnis findest du alle für deine Klassenstufe wichtigen Themengebiete. Du hast zwei Möglichkeiten: 1. Du suchst

Mehr

3. Ontologien und Wissensbasen

3. Ontologien und Wissensbasen Ontologien Ontologien stellen mittlerweile die Basis für viele innovative wissensbasierte Systeme dar: 3. Ontologien und Wissensbasen ecommerce/elearning Knowledge Management Informationsextraktion/Data-mining

Mehr

Übersetzen Spanisch Deutsch

Übersetzen Spanisch Deutsch Holger Siever Übersetzen Spanisch Deutsch Ein Arbeitsbuch 3. Auflage Grammatikalische Bezeichnungen 19 1.4 Grammatikalische Bezeichnungen Die meisten, die Übersetzen studieren, werden Fachübersetzer. Von

Mehr

Anfrage Erweiterung 03.11.2011 Jan Schrader

Anfrage Erweiterung 03.11.2011 Jan Schrader Anfrage Erweiterung 03.11.2011 Jan Schrader Vocabulary Mismatch Problem Anfrage und Dokument passen nicht zusammen obwohl Dokument zur Anfrage relevant Grund: Synonymproblem verschiedene Menschen benennen

Mehr

Deutsche Grammatik. einfach, kompakt und übersichtlich. Heike Pahlow. Übungen zum Buch kostenlos im Internet

Deutsche Grammatik. einfach, kompakt und übersichtlich. Heike Pahlow. Übungen zum Buch kostenlos im Internet Heike Pahlow Deutsche Grammatik einfach, kompakt und übersichtlich Übungen zum Buch kostenlos im Internet Das ideale Nachschlagewerk für die Schule und Deutsch als Fremdsprache Heike Pahlow Deutsche Grammatik

Mehr

Christian Zietzsch / Norman Zänker. Text Mining. und dessen Implementierung. Diplomica Verlag

Christian Zietzsch / Norman Zänker. Text Mining. und dessen Implementierung. Diplomica Verlag Christian Zietzsch / Norman Zänker Text Mining und dessen Implementierung Diplomica Verlag Christian Zietzsch, Norman Zänker Text Mining und dessen Implementierung ISBN: 978-3-8428-0970-3 Herstellung:

Mehr

Fachbereich Informatik Institut für Computervisualistik DIPLOMARBEIT. Evaluation von Syntaxanalysemethoden angewendet auf

Fachbereich Informatik Institut für Computervisualistik DIPLOMARBEIT. Evaluation von Syntaxanalysemethoden angewendet auf Fachbereich Informatik Institut für Computervisualistik DIPLOMARBEIT Evaluation von Syntaxanalysemethoden angewendet auf Datenmaterial aus transliterierten Schulaufsätzen Eingereicht von: Fränkel, Caroline

Mehr

Prüfungsstoff. 1. Klasse. Maturitätsschule und Fachmittelschule

Prüfungsstoff. 1. Klasse. Maturitätsschule und Fachmittelschule Prüfungsstoff 1. Klasse Maturitätsschule und Fachmittelschule Stand September 2010 Hinweise für den Benutzer Sie finden in dieser Broschüre alle Informationen über die für die Aufnahme in die Kantons-

Mehr

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann

SLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann SLAM Simultaneous Localization and Mapping KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann Simultaneous Localization And Mapping SLAM Problematik SLAM Arten SLAM Methoden: (E)KF SLAM GraphSLAM Fast

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Abschnitt: Algorithmendesign und Laufzeitanalyse

Abschnitt: Algorithmendesign und Laufzeitanalyse Abschnitt: Algorithmendesign und Laufzeitanalyse Definition Divide-and-Conquer Paradigma Divide-and-Conquer Algorithmen verwenden die Strategien 1 Divide: Teile das Problem rekursiv in Subproblem gleicher

Mehr

Linguistic Annotation of Computer-Mediated Communication (not only) an Explorative Analysis

Linguistic Annotation of Computer-Mediated Communication (not only) an Explorative Analysis Linguistic Annotation of Computer-Mediated Communication (not only) an Explorative Analysis Kay-Michael Würzner Alexander Geyken Lothar Lemnitzer Bryan Jurish University of Potsdam Berlin-Brandenburgische

Mehr

Spezielle Themen der KI. NLP Natural Language Processing. Sprachverstehen

Spezielle Themen der KI. NLP Natural Language Processing. Sprachverstehen Spezielle Themen der KI NLP Natural Language Processing Sprachverstehen NLP - Verarbeitungsstufen des Sprachverstehen 47 Phonologie und Phonetik Phonologie Lautlehre oder Sprachgebilde-Lautlehre untersucht

Mehr

HEALTH Institut für Biomedizin und Gesundheitswissenschaften

HEALTH Institut für Biomedizin und Gesundheitswissenschaften HEALTH Institut für Biomedizin und Gesundheitswissenschaften Konzept zur Verbesserung eines klinischen Information Retrieval Systems unter Verwendung von Apache UIMA und medizinischen Ontologien Georg

Mehr

Übungen aller Typen, die sich besonders für die Bearbeitung im Team eignen (auch arbeitsteilig), haben als Kennzeichnung ein Sechseck.

Übungen aller Typen, die sich besonders für die Bearbeitung im Team eignen (auch arbeitsteilig), haben als Kennzeichnung ein Sechseck. Liebe Schülerinnen und Schüler, liebe Kolleginnen und Kollegen! Mit diesem Latein Grundkurs haben wir für euch, haben wir für Sie ein kompaktes Lehrwerk verfasst, mit dem wir vor allem zwei Wünsche verbinden:

Mehr

Vorlesung Information Retrieval Wintersemester 04/05

Vorlesung Information Retrieval Wintersemester 04/05 Vorlesung Information Retrieval Wintersemester 04/05 20. Januar 2005 Institut für Informatik III Universität Bonn Tel. 02 28 / 73-45 31 Fax 02 28 / 73-43 82 jw@informatik.uni-bonn.de 0 Themenübersicht

Mehr

ONLINE - GRAMMATIK. Satzbau

ONLINE - GRAMMATIK. Satzbau Satzbau 1) Was man über den Satzbau wissen sollte. Ein Satz kann aus vielen einzelnen Wörtern bestehen. Diese Wörter können aber nicht beliebig irgendwo im Satz stehen. Sie werden geordnet und in Satzgliedern

Mehr

Fersentalerisch: SVO SOV?

Fersentalerisch: SVO SOV? Linguistica tedesca- LS 44S - A.A. 07/08 - Das Fersentalerische, eine deutsche Sprachinsel in Norditalien 1 Birgit Alber, 7.4. 2008 Fersentalerisch: SVO SOV? SVO - Sprachen: Subjekt Verb Objekt SOV Sprachen:

Mehr

Fortgeschrittene Statistik Logistische Regression

Fortgeschrittene Statistik Logistische Regression Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E

Mehr

Algorithmische Bioinformatik

Algorithmische Bioinformatik Algorithmische Bioinformatik Hidden-Markov-Modelle Viterbi - Algorithmus Ulf Leser Wissensmanagement in der Bioinformatik Inhalt der Vorlesung Hidden Markov Modelle Baum, L. E. and Petrie, T. (1966). "Statistical

Mehr

Opinion Spam Detection

Opinion Spam Detection Emotion Mining in Images and Text Opinion Spam Detection Tobias Goldbach S. 1 Motivation S. 2 Motivation Problem Keine Qualitätskontrolle vorhanden Folge: Opinion Spam Aufdeckung durch Menschen kaum möglich

Mehr

Morphologie & Syntax

Morphologie & Syntax Morphologie & Syntax SS 2010 Wiederholungsklausur ame, Vorname Matrikelnummer 1. Morphologische Struktur (3 P.) Geben Sie die morphologische Struktur des Stamms Bundesausbildungsförderungsgesetz durch

Mehr

Deutsche Schule Washington - Schulcurriculum Spanisch Klasse 6 (G8)

Deutsche Schule Washington - Schulcurriculum Spanisch Klasse 6 (G8) 1 Deutsche Schule Washington - Schulcurriculum Spanisch Klasse 6 (G8) Grundsätzliche Vorentscheidungen und allgemeine Hinweise: bei den unten genannten Fertigkeiten und werden lediglich die Schwerpunkte

Mehr

LOKALE UND DIREKTIONALE PPS

LOKALE UND DIREKTIONALE PPS DGA Themen der Deutschen Syntax Universität Athen, WS 2014-15 Winfried Lechner Handout #4 LOKALE UND DIREKTIONALE PPS Elena Vlachou (Cand. phil, Universität Athen) 1. DIE KATEGORIE P Präpositionen bilden

Mehr

Liste der wählbaren Module der unterstützenden Förderung Stand 12.8.2015

Liste der wählbaren Module der unterstützenden Förderung Stand 12.8.2015 Chemie Ch 701 Chemische Reaktionen Klasse 7 Ch 801 Atombau und Periodentafel Klasse 8 Deutsch D 701 Sachtexte erschließen Texte gliedern und zusammenfassen Klasse 7 D 702 Zeichensetzung: Satzreihe, Satzgefüge

Mehr

Statistische Verfahren:

Statistische Verfahren: Statistische Verfahren: Hidden-Markov-Modelle für Multiples Alignment Stochastic Context-Free Grammars (SCFGs) für RNA-Multiples Alignment Übersicht 1 1. Hidden-Markov-Models (HMM) für Multiples Alignment

Mehr

Acornym Decomposer Spezifikationsvortrag

Acornym Decomposer Spezifikationsvortrag Acornym Decomposer Spezifikationsvortrag Programmier-Gesellstück von Seminar für Computrelinguistik Ruprecht-Karls-Universität Heidelberg SS 2006 Motivation Wieso Akronyme auflösen? sehr verbreitetes Phenomen

Mehr

Berufsmaturitätsschulen des Kantons Aargau. Aufnahmeprüfung Juni 2015 / Korrekturexemplar. Deutsch. Note: Kandidaten-Nr.

Berufsmaturitätsschulen des Kantons Aargau. Aufnahmeprüfung Juni 2015 / Korrekturexemplar. Deutsch. Note: Kandidaten-Nr. Berufsmaturitätsschulen des Kantons Aargau Aufnahmeprüfung Juni 2015 / Korrekturexemplar Deutsch Kandidaten-Nr.: Name: Vorname: Zeit: Hilfsmittel: 90 Minuten (Empfehlung für Teil 1: 30 Minuten) keine Bitte

Mehr

Gliederung. Das TIGER-Korpus: Annotation und Exploration. TIGER-Korpus. 1. TIGER-Korpus. entstanden im Projekt TIGER (1999 heute) beteiligte Institute

Gliederung. Das TIGER-Korpus: Annotation und Exploration. TIGER-Korpus. 1. TIGER-Korpus. entstanden im Projekt TIGER (1999 heute) beteiligte Institute Das TIGER-Korpus: Annotation und Exploration Stefanie Dipper Forschungskolloquium Korpuslinguistik, 11.11.03 Gliederung 1. TIGER-Korpus 2. Annotation 3. Visualisierung 4. Suche, Retrieval 5. Demo 6. Repräsentation

Mehr

5. Maschinelle Verarbeitung natürlicher Sprache (Computerlinguistik) (1)

5. Maschinelle Verarbeitung natürlicher Sprache (Computerlinguistik) (1) 5. Maschinelle Verarbeitung natürlicher Sprache (Computerlinguistik) (1) 5.1 Vorbemerkungen Wissen, das als Ergebnis menschlichen Denkens vorliegt, wird durch Sprache mitgeteilt. Unterscheidung von Sprachen:

Mehr

fsq Ein Abfragesystem für syntaktisch annotierte Baumbanken

fsq Ein Abfragesystem für syntaktisch annotierte Baumbanken fsq Ein Abfragesystem für syntaktisch annotierte Baumbanken SFB 441, Universität Tübingen Syntaktisch annotierte Baumbanken Ursprünglich: Morphosyntaktische Tags (POS) Anreicherung mit syntaktischen Informationen

Mehr

WMS Block: Management von Wissen in Dokumentenform PART: Text Mining. Myra Spiliopoulou

WMS Block: Management von Wissen in Dokumentenform PART: Text Mining. Myra Spiliopoulou WMS Block: Management von Wissen in nform PART: Text Mining Myra Spiliopoulou WIE ERFASSEN UND VERWALTEN WIR EXPLIZITES WISSEN? 1. Wie strukturieren wir Wissen in nform? 2. Wie verwalten wir nsammlungen?

Mehr

Seminar Text- und Datamining Textmining-Grundlagen Erste Schritte mit NLTK

Seminar Text- und Datamining Textmining-Grundlagen Erste Schritte mit NLTK Seminar Text- und Datamining Textmining-Grundlagen Erste Schritte mit NLTK Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 16.05.2013 Gliederung 1 Vorverarbeitung

Mehr

3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel

3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel 3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel EADS 3.1 Konstruktion von minimalen Spannbäumen 16/36

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

Deutsch-Italienisch Lehrbuch

Deutsch-Italienisch Lehrbuch Deutsch-Italienisch Lehrbuch Dieses Handbuch ist ein Projekt der infos24 GmbH. www.infos24.de Das Team der infos24 GmbH bedankt sich für die Drucklegung, Korrektur, Design bei: Josephine Schubert, Andrés

Mehr

Fach : Englisch Klasse 5. Kerncurriculum Schulcurriculum Hinweise

Fach : Englisch Klasse 5. Kerncurriculum Schulcurriculum Hinweise Fach : Englisch Klasse 5 Personalpronomen - Singular, Plural Das Verb to be - long forms/short forms - questions and short answers - negation Bestimmter / unbestimmter Artikel Nomen im Plural / regelmäßige

Mehr

Gliederung. Definition Wichtige Aussagen und Sätze Algorithmen zum Finden von Starken Zusammenhangskomponenten

Gliederung. Definition Wichtige Aussagen und Sätze Algorithmen zum Finden von Starken Zusammenhangskomponenten Gliederung Zusammenhang von Graphen Stark Zusammenhängend K-fach Zusammenhängend Brücken Definition Algorithmus zum Finden von Brücken Anwendung Zusammenhangskomponente Definition Wichtige Aussagen und

Mehr

Deutsch-Französisch Lehrbuch

Deutsch-Französisch Lehrbuch Lehrbuch Dieses Handbuch ist ein Projekt der infos24 GmbH. www.infos24.de Das Team der infos24 GmbH bedankt sich für die Drucklegung, Korrektur, Design bei: Josephine Schubert, Andrés Ehmann, Manuel Wree,

Mehr

Vorlesung Algorithmische Geometrie. Streckenschnitte. Martin Nöllenburg 19.04.2011

Vorlesung Algorithmische Geometrie. Streckenschnitte. Martin Nöllenburg 19.04.2011 Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 19.04.2011 Überlagern von Kartenebenen Beispiel: Gegeben zwei

Mehr

Einführung Computerlinguistik. Konstituentensyntax II

Einführung Computerlinguistik. Konstituentensyntax II Einführung Computerlinguistik Konstituentensyntax II Hinrich Schütze & Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 2013-11-18 Schütze & Zangenfeind: Konstituentensyntax

Mehr

Datenstrukturen und Algorithmen

Datenstrukturen und Algorithmen Datenstrukturen und Algorithmen VO 708.031 Bäume robert.legenstein@igi.tugraz.at 1 Inhalt der Vorlesung 1. Motivation, Einführung, Grundlagen 2. Algorithmische Grundprinzipien 3. Sortierverfahren 4. Halden

Mehr

Jahresprogramm 2015/2016. Fach: Deutsch als Zweitsprache. 2. Klasse: neusprachliche Fachrichtung. Fachlehrerin: Renate Kaute

Jahresprogramm 2015/2016. Fach: Deutsch als Zweitsprache. 2. Klasse: neusprachliche Fachrichtung. Fachlehrerin: Renate Kaute Jahresprogramm 2015/2016 Fach: Deutsch als Zweitsprache 2. Klasse: neusprachliche Fachrichtung Fachlehrerin: Renate Kaute Ausgehend von den Rahmenrichtlinien (D. L. R. 2041, 13.12.10) und den damit verbundenen

Mehr

16. All Pairs Shortest Path (ASPS)

16. All Pairs Shortest Path (ASPS) . All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e

Mehr

WS 2009/10 18.11.2009

WS 2009/10 18.11.2009 Übung 5 Vorbereitung Öffnen Sie einen Texteditor, z.b. Word, Emacs, Textedit etc. und legen Sie Ihre Antwortdatei an. Der Name der Antwortdatei sollte nach folgendem Schema aufgebaut sein: KL_ueb5_

Mehr

Julia Hancke julia hancke@yahoo.com

Julia Hancke julia hancke@yahoo.com Universität Tübingen Master s Thesis in Computational Linguistics Automatic Prediction of CEFR Proficiency Levels Based on Linguistic Features of Learner Language Julia Hancke julia hancke@yahoo.com Supervisor:

Mehr

Informationsextraktion

Informationsextraktion Informationsextraktion Bestimmte Anwendungen bei der semantischen Verarbeitung erfordern keine tiefe linguistische Analyse mit exakter Disambiguierung (= eine einzige und korrekte Lesart). Hierzu gehört

Mehr

Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering

Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering 11.12.2012 Vortrag zum Paper Results of the Active Learning Challenge von Isabelle

Mehr

Nr. Item Punkte 1. Warum gibt es auf den deutschen Autobahnen das Verkehrschaos?

Nr. Item Punkte 1. Warum gibt es auf den deutschen Autobahnen das Verkehrschaos? a) esen Sie den Text Die Deutschen und ihr Urlaub Kein anderes Volk auf der Welt fährt so oft und so gerne in den Urlaub, wie die Deutschen. Mehr als drei Viertel aller Bundesbürger verlassen mindestens

Mehr

Schulinternes Curriculum Stützkurs Französisch in Jahrgangsstufe 7

Schulinternes Curriculum Stützkurs Französisch in Jahrgangsstufe 7 Schulinternes Curriculum Stützkurs Französisch in Jahrgangsstufe 7 Grundsätzliche Vereinbarungen: Der individuelle Förderbedarf wird in enger Absprache mit der unterrichtenden Lehrkraft und der Schülerin

Mehr

Adjektiv und Adjektivgruppe

Adjektiv und Adjektivgruppe Sprachbeschreibung 1 11 Adjektiv & Adjektivgruppe Uwe Helm Petersen Adjektiv und Adjektivgruppe 1 Eigenschaften des prototypischen Adjektivs Prototypische Adjektive haben folgende Eigenschaften: (i) Semantisch

Mehr