Phonetische Lexika Part-of-Speech Tagging. Uwe D. Reichel IPSK, LMU München
|
|
- Victor Engel
- vor 6 Jahren
- Abrufe
Transkript
1 Phonetische Lexika Part-of-Speech Tagging Uwe D. Reichel IPSK, LMU München
2 Inhalt Parts of Speech POS-Tagging-Probleme: OOV, Ambiguitäten Regelbasierte Tagger Markov-Tagger Transformationsbasiertes Tagging Evaluierung 1
3 Parts of Speech Deutsch: STTS (Stuttgart-Tübingen Tagset; Schiller et al., 1995) Label Wortart Beispiel Nomen NN Substantiv Tisch NE Eigennamen Hans, Hamburg TRUNC Kompositions-Erstglied An- und Abreise Verben VVFIN Finites Verb, voll du gehst VVIMP Imperativ, voll komm! VVINF Infinitiv, voll gehen VVIZU Infinitiv mit zu, voll anzukommen VVPP Partizip Perfekt, voll gegangen VAFIN Finites Verb, aux wir werden VAIMP Imperativ, aux sei ruhig! VAINF Infinitiv, aux sein, werden VAPP Partizip Perfekt, aux gewesen VMFIN Finites Verb, modal wollte VMINF Infinitiv, modal wollen VMPP Partizip Perfekt, modal er hat gekonnt 2
4 Label Wortart Beispiel Adjektive ADJA Attributives Adjektiv das große Haus ADJD Adverbiales oder prädikatives Adjektiv er fährt/ist schnell Pronomen PDS Substituierendes Demonstrativpronomen dieser, jener PDAT Attribuierendes Demonstrativpronomen dieser Mensch PIS Substituierendes Indefinitpronomen keine, viele PIAT Attribuierendes Indefinitpronomen irgendein Glas PIDAT Attribuierendes Indefinitpronomen mit ein wenig Wasser Determiner PPER Irreflexives Personalpronomen er, dich, ihr PPOSS Substituierendes Possessivpronomen deiner PPOSAT Attribuierendes Possessivpronomen mein Buch PRELS Substituierendes Relativpronomen der Hund, der PRELAT Attribuierendes Relativpronomen der Mann, dessen Hund PRF Reflexives Personalpronomen sich, einander PWS Substituierendes Interrogativpronomen wer, was PWAT Attribuierendes Interrogativpronomen welcher Hut PWAV Adverbiales Interrogativ- oder warum, wo Relativpronomen Adpositionen APPR Präposition; Zirkumposition links in der Stadt APPRART Präposition mit Artikel im Haus APPO Postposition ihm zufolge APZR Zirkumposition rechts von jetzt an 3
5 Label Wortart Beispiel Adverbien ADV Adverb heute nicht PAV Pronominaladverb dafür, deswegen Konjunktionen KOUI Unterordnende Konjunktion mit zu um zu leben und Infinitiv KOUS Unterordnende Konjunktion mit Satz weil, daß KON Nebenordnende Konjunktion und, oder Partikeln PTKZU zu vor Infinitiv zu gehen PTKNEG Negationspartikel nicht PTKVZ Abgetrennter Verbzusatz er kommt an PTKANT Antwortpartikel ja, danke PTKA Partikel bei Adjektiv oder Adverb am schönsten KOKOM Vergleichspartikel, ohne Satz als, wie Sonstige ART Bestimmter oder unbestimmter Artikel der, eine CARD Kardinalzahl zwei, 1984 FM Fremdsprachliches Material big ITJ Interjektion ach XY Nichtwort, Sonderzeichen D2XW3 $, Komma, $. Satzbeendende Interpunktion.?!;: $( Sonstige Satzzeichen; satzintern (- 4
6 Englische Tagsets Penn Tagset (Marcus et al., 1993): 45 tags... C7 Tagset (Leech et al., 1994): 146 tags 5
7 Probleme Probleme beim reinen Lexikon-Lookup Out of Vocabulary-Fälle (OOV): POS für Wörter, die nicht im Lexikon stehen, unbekannt Ambiguitäten: Wort kann verschiedene POS-Labels tragen Sucht: NN vs. VVFIN ab: ADP vs. PTKVZ als: KOKOM vs. KOUS am: APPRART vs. PTKA Anfangs: NN vs. ADV Lösungen Einbeziehen des Wortkontexts Einbeziehen POS-relevanter Worteigenschaften (z.b. String-Suffixe) 6
8 Tagger-Überblick Regelbasierte Verfahren: ENGTWOL (Voutilainen, 1995) Statistische Verfahren: Jelinek (1985), Tree Tagger (Schmidt, 1995), Reichel (2005) Transformationsbasierte Verfahren: Brill (1995) 7
9 Regelbasierte Verfahren ENGTWOL (Voutilainen, 1995) 2 Schritte: 1. Lexikon-Lookup POS-Kandidaten 2. falls mehrere: Auswahl des richtigen Labels (Disambiguierung) anhand von Regeln Lexikon-Einträge: Wortform, POS, morpholog.+syntakt. Features (Subkategorisierungsrahmen usw.) show::v::imperative VFIN SVO SVOO show::v::present SG3 VFIN SVO SVOO show::n::nominative SG 8
10 Disambiguierung von that in it isn t that odd that::adv that::pron DEM SG that::det DEM SG that::cs Adverbial-That Regel: Given Input that if (+1 A ADV QUANT); %if next word is adj, adv or quantifier (+2 SENT-LIM); %and following which is a sentence boundary (NOT -1 SVOC/A); %and previous word is not verb allowing adjs as object complements then eliminate non-adv tags else eliminate ADV tag Nachteile: zeitaufwendiges Adjustieren der Regeln mangelnde Generaliserungsfähigkeit keine Übertragbarkeit auf andere Sprachen 9
11 Statistische Verfahren Statistische Sprachmodelle: N-Gramme Statistisches Modell: Vorhersage von Ereigniswahrscheinlichkeiten Wahrscheinlichkeit (Likelihood) einer Wortfolge w 1... w n (gemäß Kettenregel): P (w 1... w n ) = P (w 1 )P (w 2 w 1 )P (w 3 w 1 w 2 )... P (w n w 1... w n 1 ) = n P (w 1 ) P (w k w 1... w k 1 ) k=2 Anzahl von langen Wortvorgeschichten zu gering, als daß man daraus verläßliche Wahrscheinlichkeiten ableiten könnte vereinfachende Markov-Annahme: Länge der Wortvorgeschichte begrenzt auf m (z.b. =2: Trigramme) P (w 1... w n ) = P (w 1 )P (w 2 w 1 ) n k=3 P (w k w k m... w k 1 ) 10
12 Trigrammwahrscheinlichkeit: P (w k w k 2 w k 1 ) = #(w k 2w k 1 w k ) #(w k 2 w k 1 ) Smoothing: Anpassung der beobachteten Häufigkeiten, damit auch ungesehene n-gramme eine Wahrscheinlichkeit größer 0 erhalten; Discounting, Good-Turing-Verfahren usw. 11
13 lineare Interpolation: gewichtete Kombination verschiedener statistischer Modelle P (w 1... w n ) = n k=1 P hybrid (w k ) = n k=1 λ i P i (w k ) P (w 1... w n ) ist die Likelihood der Wortfolge w 1 bis w n, die sich zusammensetzt aus dem Produkt der Wahrscheinlichkeiten der betrachteten Einzelereignisse (Auftreten von Wort w k ). Zur Ermittlung der Wahrscheinlichkeiten für w k kann man verschiedene Modelle heranziehen (beispielsweise mit variierender Länge der Wortvorgeschichte) und die durch sie vorhergesagten Wahrscheinlichkeiten zu P hybrid kombinieren. P i (w k ) ist hierbei die Wahrscheinlichkeit von w k im Modell M i. Sei M 1 ein Unigramm-, M 2 ein Bigramm- und M 3 ein Trigramm-Modell zur Vorhersage der Wahrscheinlichkeit von w k, dann ergibt sich oben eingesetzt: P hybrid (w k ) = λ 1 P 1 (w k ) + λ 2 P 2 (w k w k 1 ) + λ 3 P 3 (w k w k 2 w k 1 ) Die Gewichte λ i werden mit Hilfe des EM-Algorithmus (expectation+maximization) ermittelt, ihre Summe ergibt 1. i 12
14 Satz von Bayes P (X Y ) = P (Y X)P (X) P (Y ) Wird eingesetzt, wenn P (X Y ) nicht geschätzt werden kann, beispielsweise wegen zu geringer Häufigkeit von Y. Einfache Form eines Markov-Taggers (Jelinek, 1985) Schätzung der wahrscheinlichsten Tag-Sequenz Ĝ, gegeben die Wort-Sequenz word W [ ] Ĝ = arg max P (G W ) G [ ] P (G)P (W G) = arg max (Bayes) G P (W ) [ ] = arg max P (G)P (W G) (P(W) konstant) G T P (G)P (W G) = P (w t w 1 g 1... w t 1 g t 1 g t )P (g t w 1 g 1... w t 1 g t 1 ) (Kettenr.) t=1 13
15 Vereinfachende Annahmen Die Wahrscheinlichkeit des Worts w t hängt nur von seinem tag g t ab. Die Wahrscheinlichkeit des tags g t hängt von einer begrenzten tag-vorgeschichte ab (Markov-Annahme) [ T Ĝ = arg max g 1...g T t=1 ] P (g t g-history t )P (w t g t ) Tagging-Problem als Hidden-Markov-Modell (HMM) formalisiert (siehe Tafelbild) Bestandteile eines HMM (mit konkreten Entsprechungen): Menge von Zuständen Q = {q i }; an jedem Zustand wird ein POS-Label angetragen Übergangswahrscheinlichkeiten A = {a ij }: von Zustand i zu Zustand j; entspricht P (POS j POS-history), Übergangswahrscheinlichkeiten abhängig von den POS-Labels der n vorangehenden Zustände (bei einer history der Länge n). Emissionswahrscheinlichkeiten (observation likelihoods) B = {b jot }: für Beobachtung o t ; entspricht P (w t POS t ) für alle POS j 14
16 Ermittlung von ˆT mit Hilfe des Viterbi-Algorithmus: Aufbau einer Trellis: Zustand-Zeitpunkt-Gitter; ein Knoten entspricht einem POS-tag zu einem bestimmten Zeitpunkt, also zum Index des jeweiligen Worts im zu taggenden Text 1 Ziel: finde für beobachtete Wortfolge denjenigen Pfad durch die Trellis, in dem das Produkt aus Emissions- [ und Übergangswahrscheinlichkeiten ] [ ] maximiert wird max P (G)P (W G) max P (G W ). Die damit verbundene Tag-Sequenz g 1... g T ist der Output des Taggers. in jedem Knoten k j (t) der Trellis für tag j und Zeitpunkt t wird folgendes notiert: a) die Wahrscheinlichkeit δ j (t) des bis hierhin wahrscheinlichsten Pfads, und b) der Vorgängerknoten auf diesem Pfad 1 Indizes: über Zustände (tags): 1 i, j N; über Zeitpunkte: 1 t T bei einem POS-Inventar der Größe N und einem zu taggenden Text der Länge T 15
17 Ermittlung der δ j (t) s: Initialisierung: δ j (1) = b jo1 Induktion 2 δ j (t) = max i [ δi (t 1)a ij b jot ] 2 Induktion (informell): Fortführung eines für n gültigen Sachverhalts mit n
18 Bei der Initialisierung zum Zeitpunkt t = 1 werden die δ s für jeden POS j gleich den bedingten Wahrscheinlichkeiten P(erstes Wort im zu taggenden Text POS j) gesetzt. Im Zuge der Induktion wird für jeden Knoten k jt der Trellis für POS j zum Zeitpunkt t die Wahrscheinlichkeit δ j (t) des wahrscheinlichsten Pfads hin zu diesem Knoten ermittelt. Diese ergibt sich durch Multiplikation von (Emissionswahrscheinlichkeit des t-ten Worts im zu taggenden Text, gegeben POS j) mit dem Maximum unter den Produkten (Wahrscheinlichkeiten der Pfade zu den Knoten zum Zeitpunkt t 1) x (Übergangswahrscheinlichkeiten zwischen den Knoten der Ebene t 1 und k jt ). Der Vorgänger von k jt im wahrscheinlichsten Pfad wird ebenfalls am Knoten vermerkt, damit der Pfad dann nach Zeitpunkt T, also nach dem letzten Wort, ausgelesen werden kann. 17
19 Tree Tagger (Schmidt, 1995) P (w t g t ) mittels Lexikon, das Vollformen und Suffixe enthält P (g t g-history t ) mittels Entscheidungsbaum, der für g-history einen Vektor mit den Wahrscheinlichkeiten der POS-tags ausgibt; g-history ist als Pfad im Baum repräsentiert Reduzierung des OOV-Problems, aber sprachabhängig 18
20 Reichel (2005) Vergleiche auch: TnT-Tagger (Brants, 2000) Generalisierung des Grundmodells mittels linearer Interpolation ersetze P (g t g-history t ) durch j u jp (g t g-history tj ) ersetze P (w t g t ) durch P (w t) P (g t ) k v kp (g t w-representation tk ) [ T ˆT = arg max g 1...g T t=1 1 P (g t ) u j P (g t g-history tj ) j k ] v k P (g t w-representation tk ) 19
21 Word-Repräsentation: String-Suffixe Motivation in vielen Sprachen ist POS-Information Suffix-Morphemen, Flektionsendungen, und finalen Kompositumgliedern kodiert (Gelegenheit/NN, Umgehungsstraße/NN, partly/adv) Nutzung dieser Einheiten reduziert das OOV-Problem Desideratum: ermittle linguistisch sinntragende String-Suffixe ohne linguistisches Wissen Sprachunabhängigkeit Ermittlung der String-Suffixe mittels Weighted Backward Successor Variety (SV) SV eines Strings: Anzahl verschiedener Characters, die ihm in einem Lexikon folgen können Backward SV: SV s werden von gespiegelten Strings ermittelt (Suffixe) Weighting: SV s werden gewichtet in Abhängigkeit der mittleren SV an der entsprechenden String-Position, um Positions-Effekte zu eliminieren 20
22 Lexikon gespiegelter Wörter als Trie repräsentiert SV an einem Zustand: Anzahl der abgehenden Transitionen lokale SV-Gipfel werden als Morphemgrenzen betrachtet (vgl. Peak and Plateau Algorithmus von Nascimento et al., 1998) Beispiel: Lexikon-Trie mit den gespiegelten Einträgen Einigung, Kreuzigung and Eignung Die SV-Maxima an den Zuständen 3 und 5 entsprechen den Grenzen der Morpheme ung and ig 21
23 Brill Tagger (Brill, 1995) regelbasierter Tagger Transformationsbasiertes Tagging Regeln werden automatisch anhand der Trainingsdaten gewonnen (überwachtes Lernen) Lernalgorithmus: 1. weise jedem Wort den wahrscheinlichsten POS-tag zu 2. iterate until Verbesserung < Schwelle wähle aus einer Menge von Transformationenregeln diejenige aus, die zum besten Tagging-Ergebnis führt füge diese Regel hinten an die Liste bisher ausgewählter Regeln trl an tagge das Corpus unter Anwendung dieser Regel neu Beispiel für Transformationsregel: NN VB if (vorangehender tag gleich TO) expected to/to race/nn expected to race/vb 22
24 Transformationsregeln ergeben sich durch Einsetzen aller möglichen POS-tags in folgende Templates: tag a tag b, if vorangehendes (folgendes) Wort ist mit tag z gelabelt. das zweite vorangehende (folgende) Wort ist mit tag z gelabelt. eines der zwei (drei) vorangehenden (folgenden) Wörter ist mit tag z gelabelt. vorangehendes Wort ist mit tag z gelabelt, und das folgende mit tag w. das vorangehende (folgende) Wort ist mit tag z gelabelt, und das zweite vorangehende (folgende) Wort mit tag w. Lernalgorithmus sehr zeitaufwendig, wenn für jedes Template zur Belegung von a, b, z, w alle POS-Kombinationen zugelassen werden Tagging: 1. weise jedem Wort den wahrscheinlichsten POS-tag zu 2. foreach Regel tr in trl: tagge den Text unter Anwendung von tr neu 23
25 Evaluierung anhand eines Testcorpus Gold-Standard: Vergleich des Tagger-Outputs mit manuell gesetzten tags; Relativierung durch Inter-Tagger-Agreement < 100 % Baseline: Vergleich des Outputs mit Output eines Baseline-Taggers, beispielsweise einem Unigramm-Tagger (ohne POS-History) Vergleichbarkeit von Taggern bei beliebiger Tagset-Größe: 3 Kappa-Statistik κ = P t (C) P z(c) 1 Pz(C) C: Wort korrekt getaggt, P t (C): Anteil der vom Tagger korrekt klassifizierten Wörter, Pz(C): zu erwartender Anteil zufällig korrekt klassifizierter Wörter = 1 Tagset 3 Bei einem Tagset der Größe 1 ist die Performanz des Taggers, der nur diesen einen Tag vorhersagt, 100 %. 24
VorlaugeGuidelinesfurdasTaggingdeutscherTextcorpora AnneSchiller,SimoneTeufel,ChristineStockert mitstts InstitutfurmaschinelleSprachverarbeitung UniversitatStuttgart SeminarfurSprachwissenschaft UniversitatTubingen
MehrStefan Engelberg (IDS Mannheim), Workshop Corpora in Lexical Research, Bucharest, Nov. 2008 [Folie 1] DWDS-Kernkorpus / DWDS corpus analysis
Content 1. Empirical linguistics 2. Text corpora and corpus linguistics 3. Concordances 4. Application I: The German progressive 5. Part-of-speech tagging 6. Fequency analysis 7. Application II: Compounds
MehrPart-of-Speech- Tagging
Part-of-Speech- Tagging In: Einführung in die Computerlinguistik Institut für Computerlinguistik Heinrich-Heine-Universität Düsseldorf WS 2004/05 Dozentin: Wiebke Petersen Tagging Was ist das? Tag (engl.):
Mehr1 Part-of-Speech Tagging
2. Übung zur Vorlesung NLP Analyse des Wissensrohstoes Text im Sommersemester 2008 Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 28. Mai 2008 1 Part-of-Speech Tagging 1.1 Grundlagen
MehrMorphologie (5) Wortarten (2) Part-of-Speech Tagging Stemming
Morphologie (5) Wortarten (2) Part-of-Speech Tagging Stemming Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 24.11.2014, 9 c.t. Zangenfeind: Morphologie 1 / 18 Wdh.: Klassifizierung
MehrSTTS-Konfusionsklassen beim Tagging von Fremdsprachlernertexten
Marc Reznicek, Heike Zinsmeister STTS-Konfusionsklassen beim Tagging von Fremdsprachlernertexten 1 Motivation Für viele aktuelle Fragestellungen der Zweit- und Fremdspracherwerbsforschung ( L2- Erwerbsforschung
MehrPart-Of-Speech-Tagging mit Viterbi Algorithmus
Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus
MehrÜBERBLICK ÜBER DAS KURS-ANGEBOT
ÜBERBLICK ÜBER DAS KURS-ANGEBOT Alle aufgeführten Kurse sind 100 % kostenfrei und können unter http://www.unterricht.de abgerufen werden. SATZBAU & WORTSTELLUNG - WORD ORDER Aussagesätze / Affirmative
MehrKorpusvorverarbeitung. Hauptseminar: Einführung in die Korpuslinguistik. Kodierung/Annotationsmaximen. Vorverarbeitung: erste Schritte.
Hauptseminar: Einführung in die Korpuslinguistik Anke Lüdeling anke.luedeling@rz.hu-berlin.de Wintersemester 2002/2003 Korpusvorverarbeitung Beispiel: DIE ZEIT aufbereitet für journalistische Zwecke, mitgeliefertes
MehrSprachen 2., 3. und 4. Lehrjahr
Schweizerische Vereinigung der Lehrkräfte grafischer Berufe (LGB) Unterricht für die Polygrafin und den Polygrafen gemäss dem Lehrplan für den beruflichen Unterricht vom 29. Januar 2002 Reglement über
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Thomas Vanck NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion, Übersetzung,
MehrUnterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Grammatik einfach praktisch - Englisch (Niveau: A1 - B2)
Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Grammatik einfach praktisch - Englisch (Niveau: A1 - B2) Das komplette Material finden Sie hier: School-Scout.de Eine moderne und
MehrDer Viterbi-Algorithmus.
Der Viterbi-Algorithmus. Eine Erläuterung der formalen Spezifikation am Beispiel des Part-of-Speech Tagging. Kursskript Karin Haenelt, 9..7 (.5.) Einleitung In diesem Skript wird der Viterbi-Algorithmus
MehrWortartenbestimmung nach Peter Eisenberg
Seminar: Wortarten Dozent: Prof. Dr. Öhlschläger Referent: Erik Heinig Literatur: Wortartenbestimmung nach Peter Eisenberg Eisenberg, Peter: Das Wort, Grundriß der deutschen Grammatik. Metzler.2004 Eisenberg,
MehrBochumer Linguistische Arbeitsberichte (Bla 2) Kategorisierungsprobleme bei der Wortarten- Annotation von Textkorpora
Bochumer Linguistische Arbeitsberichte (Bla 2) Kategorisierungsprobleme bei der Wortarten- Annotation von Textkorpora Katja Keßelmeier Anneli von Könemann 2 Bochumer Linguistische Arbeitsberichte Herausgeber:
MehrSprachen. l b. Deutsch Französisch Englisch. 1. Lehrjahr 2. Lehrjahr 3. Lehrjahr 4. Lehrjahr. Stoffplan-Sitzung vom 24. April 2007
Schweizerische Vereinigung der Lehrpersonen grafischer Berufe l b Stoffplan Polygraf EFZ Polygrafin EFZ Fachrichtung Gestaltung + Produktion Groupement suisse des enseignants des professions graphiques
MehrWhy learner texts are easy to tag A comparative evaluation of part-of-speech tagging of Kobalt
Why learner texts are easy to tag A comparative evaluation of part-of-speech tagging of Kobalt Marc Reznicek and Heike Zinsmeister Workshop: Modeling non-standardized writing DGfS Jahrestagung, Potsdam
MehrLösung für Lehrerinnen und Lehrer Grammatik-Lapbook Teil 1: Wortarten
Lösung für Lehrerinnen und Lehrer Grammatik-Lapbook Teil 1: Wortarten Es wird zunächst eine Grundform für das Lapbook erstellt. Dabei bietet es sich an, aus Tonkarton ein Buch zu falten (siehe auch Arbeitsblatt
MehrLerninhalte ALFONS Lernwelt Deutsch 5. Klasse
Seite 1 Turmzimmer 1: Lesen und Raten 1. Rückwärts lesen, vorwärts schreiben 7. Ohrentraining 2. Rückwärts hören, vorwärts schreiben 8. Europäerinnen und Europäer 3. Fremdwortgalgen 9. Europäische Leckereien
MehrLerninhalte ALFONS Lernwelt Deutsch 6. Klasse
Seite 1 Turmzimmer 1: Beliebte Stolpersteine 1 1. Ableitung von b, d, g 7. -ig oder -lich im Auslaut 2. ai oder ei 8. end- oder ent- 1 3. f oder v oder w 9. end- oder ent- 2 4. W oder V, w oder v 10. seid
MehrÜber den Einfluss von Part-of-Speech-Tags auf Parsing-Ergebnisse
Sandra Kübler, Wolfgang Maier Über den Einfluss von Part-of-Speech-Tags auf Parsing-Ergebnisse 1 Einleitung Lange Zeit konzentrierte sich die Forschung im datengetriebenen statistischen Konstituenzparsing
MehrLangenscheidt Englisch-Comics Grammatik
Langenscheidt Comics Grammatik Langenscheidt Englisch-Comics Grammatik von Anke Williamson 1. Auflage Langenscheidt Englisch-Comics Grammatik Williamson schnell und portofrei erhältlich bei beck-shop.de
MehrKURZÜBERSICHT SONDERTEIL
402 BERUFSKOLLEG / FACHOBERSCHULEN - Englisch - Inhalt - Kurzübersicht KURZÜBERSICHT SONDERTEIL 402 410 Inhaltsverzeichnis 411-439 Notizen 440 476 Language-Aufgaben (Vocabulary) 477-489 Notizen 490 506
MehrWozu Kasusrektion auszeichnen bei Präpositionen?
Simon Clematide Wozu Kasusrektion auszeichnen bei Präpositionen? 1 Einleitung Die Identifizierung von Kasus bei kasustragenden, deklinierbaren Wörtern (Pronomen, Artikel, Nomen, Adjektive) ist eine entscheidende
MehrGRA Annotierschema Thorsten Brants, Roland Hendriks, abine Kramp, Brigitte Krenn Cordula Preis, Wojciech kut, Hans Uszkoreit fthorsten,roland,kramp,krenn,preis,skut,hansug@coli.uni-sb.de. Juni 999 DRAFT
MehrSyntax und Morphologie
Syntax und Morphologie Einführungskurs 7. Vorlesung Redeteile (lat( lat. partes orationis, engl. parts of speech) Die Lexeme einer Sprache können im Hinblick auf bestimmte semantische und formale Eigenschaften
MehrOrthoGramm. Ein Nachschlagewerk. Monika Wyss Werner Kolb Heinz Hafner. Wortlehre Satzlehre Sätze Rechtschreibung Zeichensetzung
OrthoGramm Ein Nachschlagewerk Monika Wyss Werner Kolb Heinz Hafner Wortlehre Satzlehre Sätze Rechtschreibung Zeichensetzung Vorwort 5 Vorwort Der bewusste Umgang mit Sprache und die Sicherheit in der
MehrBasismethoden Sprachverarbeitung: Part-of-Speech Tagging
Basismethoden der Sprachver- und -bearbeitung Vorverarbeitung PoS Tagging, Namenserkennung, Shallow Parsing Informationsgewinnung Kategorisierung, Informationsextraktion Analyse gesprochener Sprache Spracherkennung,
Mehr2 Lösungen "Peptide de novo Sequencing"
Lösungen "Peptide de novo Sequencing". Algorithm : PeptideSequencingOnlySux Input: a spectrum M with array of masses M = {m, m,, m n }, Σ, µ : Σ R >0 Output: the peptide string of the spectrum begin peptide
MehrLinkliste Englische Grammatik
Linkliste Englische Grammatik So geht s: Suche in den angegebenen Themenübersichten der unten aufgeführten Webseiten (deutsche und englische) nach dem grammatischen Problem deiner Wahl, öffne den Link
MehrGrundwissen Grammatik
Fit für das Bachelorstudium Grundwissen Grammatik Downloads zum Buch Lösungen und Übungsaufgaben Übungsaufgaben zum Kapitel 1 Das Wort (S. 48-50) Übung 1: Wortarten Ü-1a Bestimmen Sie im folgenden Analysebeispiel
MehrGRUNDWISSEN Englisch E 1 1. bis 3. Lernjahr GRAMMATIK MÜNDLICHE AUSDRUCKSFÄHIGKEIT
GRUNDWISSEN Englisch E 1 1. bis 3. Lernjahr GRAMMATIK MÜNDLICHE AUSDRUCKSFÄHIGKEIT present tense (simple, progressive), simple past; going to-future (rezeptiv) Vollverben, Hilfsverben (be, have, do, can,
MehrFachschaft Englisch Unterrichtsinhalte Klasse Lehrwerk/Zusatzmaterialien: Lehrbuch Green Line 1 Voraussetzungen: Inhaltliche Schwerpunkte
Klasse 5 Generell orientiert sich der Englischunterricht in Klasse 5 am Lehrbuch Green Line 1 (Klett). Hierzu gibt es zahlreiche Zusatzmaterialien vom Klett-Verlag, u.a. für die Vorbereitung von Klassenarbeiten,
MehrAufabe 7: Baum-Welch Algorithmus
Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,
MehrPraktikum Maschinelle Übersetzung Language Model
Praktikum Maschinelle Übersetzung Language Model Um die Aufgaben auszuführen, können Sie ihre Daten in folgendem Verzeichnis speichern: /project/smtstud/ss10/systems/username/ Wir werden verschiedene Sprachmodelle
Mehrn-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014
n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 Wahrscheinlichkeit und Sprache Ausgangsfrage: Nächstes Wort vorhersagen. Sprache als Zufallsprozess: Für jede
Mehr"What's in the news? - or: why Angela Merkel is not significant
"What's in the news? - or: why Angela Merkel is not significant Andrej Rosenheinrich, Dr. Bernd Eickmann Forschung und Entwicklung, Unister GmbH, Leipzig UNISTER Seite 1 Unister Holding UNISTER Seite 2
MehrEnglisch-deutsch-polnisches Wörterbuch. Benutzeranleitung
Der EGP230D wird mit zwei CR2032 Batterien und einer CR1220 Reservebatterie betrieben. Um einen Datenverlust zu vermeiden, tauschen Sie die Batterien so schnell wie möglich aus. Dabei dürfen die alten
MehrFolie 1 Aber und aber Aber aber Und Aber Aufgaben: Partnerdiktat
Folie 1 1. An meinem Arbeitsplatz muss ich immer korrekt gekleidet sein. Ich arbeite in einer Bank, am Schalter. Meistens trage ich einen Anzug, weißes Hemd und Krawatte. Aber in meiner Freizeit ziehe
MehrSeminar Textmining SS 2015 Grundlagen des Maschinellen Lernens
Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 17.04.2015 Entscheidungsprobleme beim Textmining
Mehr215 Grammatik. 5.-7. Klasse
215 Grammatik 5.-7. Klasse Inhaltsverzeichnis Wortarten Verb und Konjugation............................. 1 Person und Numerus........................................ 1 Tempora........................................................................
MehrDas Briefträgerproblem
Das Briefträgerproblem Paul Tabatabai 30. Dezember 2011 Inhaltsverzeichnis 1 Problemstellung und Modellierung 2 1.1 Problem................................ 2 1.2 Modellierung.............................
MehrVorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrKapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete
Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:
MehrDiktat. Deutsch. 7. Klasse. Diktat. in 15 Minuten
Diktat 7. Klasse Deutsch Diktat in 15 Minuten Klasse So übst du mit diesem Buch Im Inhaltsverzeichnis findest du alle für deine Klassenstufe wichtigen Themengebiete. Du hast zwei Möglichkeiten: 1. Du suchst
Mehr3. Ontologien und Wissensbasen
Ontologien Ontologien stellen mittlerweile die Basis für viele innovative wissensbasierte Systeme dar: 3. Ontologien und Wissensbasen ecommerce/elearning Knowledge Management Informationsextraktion/Data-mining
MehrÜbersetzen Spanisch Deutsch
Holger Siever Übersetzen Spanisch Deutsch Ein Arbeitsbuch 3. Auflage Grammatikalische Bezeichnungen 19 1.4 Grammatikalische Bezeichnungen Die meisten, die Übersetzen studieren, werden Fachübersetzer. Von
MehrAnfrage Erweiterung 03.11.2011 Jan Schrader
Anfrage Erweiterung 03.11.2011 Jan Schrader Vocabulary Mismatch Problem Anfrage und Dokument passen nicht zusammen obwohl Dokument zur Anfrage relevant Grund: Synonymproblem verschiedene Menschen benennen
MehrDeutsche Grammatik. einfach, kompakt und übersichtlich. Heike Pahlow. Übungen zum Buch kostenlos im Internet
Heike Pahlow Deutsche Grammatik einfach, kompakt und übersichtlich Übungen zum Buch kostenlos im Internet Das ideale Nachschlagewerk für die Schule und Deutsch als Fremdsprache Heike Pahlow Deutsche Grammatik
MehrChristian Zietzsch / Norman Zänker. Text Mining. und dessen Implementierung. Diplomica Verlag
Christian Zietzsch / Norman Zänker Text Mining und dessen Implementierung Diplomica Verlag Christian Zietzsch, Norman Zänker Text Mining und dessen Implementierung ISBN: 978-3-8428-0970-3 Herstellung:
MehrFachbereich Informatik Institut für Computervisualistik DIPLOMARBEIT. Evaluation von Syntaxanalysemethoden angewendet auf
Fachbereich Informatik Institut für Computervisualistik DIPLOMARBEIT Evaluation von Syntaxanalysemethoden angewendet auf Datenmaterial aus transliterierten Schulaufsätzen Eingereicht von: Fränkel, Caroline
MehrPrüfungsstoff. 1. Klasse. Maturitätsschule und Fachmittelschule
Prüfungsstoff 1. Klasse Maturitätsschule und Fachmittelschule Stand September 2010 Hinweise für den Benutzer Sie finden in dieser Broschüre alle Informationen über die für die Aufnahme in die Kantons-
MehrSLAM. Simultaneous Localization and Mapping. KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann
SLAM Simultaneous Localization and Mapping KogSys-Sem-M2: Reading Club - SLAM - Andreas Habermann Simultaneous Localization And Mapping SLAM Problematik SLAM Arten SLAM Methoden: (E)KF SLAM GraphSLAM Fast
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
Mehr6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)
6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden
MehrAbschnitt: Algorithmendesign und Laufzeitanalyse
Abschnitt: Algorithmendesign und Laufzeitanalyse Definition Divide-and-Conquer Paradigma Divide-and-Conquer Algorithmen verwenden die Strategien 1 Divide: Teile das Problem rekursiv in Subproblem gleicher
MehrLinguistic Annotation of Computer-Mediated Communication (not only) an Explorative Analysis
Linguistic Annotation of Computer-Mediated Communication (not only) an Explorative Analysis Kay-Michael Würzner Alexander Geyken Lothar Lemnitzer Bryan Jurish University of Potsdam Berlin-Brandenburgische
MehrSpezielle Themen der KI. NLP Natural Language Processing. Sprachverstehen
Spezielle Themen der KI NLP Natural Language Processing Sprachverstehen NLP - Verarbeitungsstufen des Sprachverstehen 47 Phonologie und Phonetik Phonologie Lautlehre oder Sprachgebilde-Lautlehre untersucht
MehrHEALTH Institut für Biomedizin und Gesundheitswissenschaften
HEALTH Institut für Biomedizin und Gesundheitswissenschaften Konzept zur Verbesserung eines klinischen Information Retrieval Systems unter Verwendung von Apache UIMA und medizinischen Ontologien Georg
MehrÜbungen aller Typen, die sich besonders für die Bearbeitung im Team eignen (auch arbeitsteilig), haben als Kennzeichnung ein Sechseck.
Liebe Schülerinnen und Schüler, liebe Kolleginnen und Kollegen! Mit diesem Latein Grundkurs haben wir für euch, haben wir für Sie ein kompaktes Lehrwerk verfasst, mit dem wir vor allem zwei Wünsche verbinden:
MehrVorlesung Information Retrieval Wintersemester 04/05
Vorlesung Information Retrieval Wintersemester 04/05 20. Januar 2005 Institut für Informatik III Universität Bonn Tel. 02 28 / 73-45 31 Fax 02 28 / 73-43 82 jw@informatik.uni-bonn.de 0 Themenübersicht
MehrONLINE - GRAMMATIK. Satzbau
Satzbau 1) Was man über den Satzbau wissen sollte. Ein Satz kann aus vielen einzelnen Wörtern bestehen. Diese Wörter können aber nicht beliebig irgendwo im Satz stehen. Sie werden geordnet und in Satzgliedern
MehrFersentalerisch: SVO SOV?
Linguistica tedesca- LS 44S - A.A. 07/08 - Das Fersentalerische, eine deutsche Sprachinsel in Norditalien 1 Birgit Alber, 7.4. 2008 Fersentalerisch: SVO SOV? SVO - Sprachen: Subjekt Verb Objekt SOV Sprachen:
MehrFortgeschrittene Statistik Logistische Regression
Fortgeschrittene Statistik Logistische Regression O D D S, O D D S - R A T I O, L O G I T T R A N S F O R M A T I O N, I N T E R P R E T A T I O N V O N K O E F F I Z I E N T E N, L O G I S T I S C H E
MehrAlgorithmische Bioinformatik
Algorithmische Bioinformatik Hidden-Markov-Modelle Viterbi - Algorithmus Ulf Leser Wissensmanagement in der Bioinformatik Inhalt der Vorlesung Hidden Markov Modelle Baum, L. E. and Petrie, T. (1966). "Statistical
MehrOpinion Spam Detection
Emotion Mining in Images and Text Opinion Spam Detection Tobias Goldbach S. 1 Motivation S. 2 Motivation Problem Keine Qualitätskontrolle vorhanden Folge: Opinion Spam Aufdeckung durch Menschen kaum möglich
MehrMorphologie & Syntax
Morphologie & Syntax SS 2010 Wiederholungsklausur ame, Vorname Matrikelnummer 1. Morphologische Struktur (3 P.) Geben Sie die morphologische Struktur des Stamms Bundesausbildungsförderungsgesetz durch
MehrDeutsche Schule Washington - Schulcurriculum Spanisch Klasse 6 (G8)
1 Deutsche Schule Washington - Schulcurriculum Spanisch Klasse 6 (G8) Grundsätzliche Vorentscheidungen und allgemeine Hinweise: bei den unten genannten Fertigkeiten und werden lediglich die Schwerpunkte
MehrLOKALE UND DIREKTIONALE PPS
DGA Themen der Deutschen Syntax Universität Athen, WS 2014-15 Winfried Lechner Handout #4 LOKALE UND DIREKTIONALE PPS Elena Vlachou (Cand. phil, Universität Athen) 1. DIE KATEGORIE P Präpositionen bilden
MehrListe der wählbaren Module der unterstützenden Förderung Stand 12.8.2015
Chemie Ch 701 Chemische Reaktionen Klasse 7 Ch 801 Atombau und Periodentafel Klasse 8 Deutsch D 701 Sachtexte erschließen Texte gliedern und zusammenfassen Klasse 7 D 702 Zeichensetzung: Satzreihe, Satzgefüge
MehrStatistische Verfahren:
Statistische Verfahren: Hidden-Markov-Modelle für Multiples Alignment Stochastic Context-Free Grammars (SCFGs) für RNA-Multiples Alignment Übersicht 1 1. Hidden-Markov-Models (HMM) für Multiples Alignment
MehrAcornym Decomposer Spezifikationsvortrag
Acornym Decomposer Spezifikationsvortrag Programmier-Gesellstück von Seminar für Computrelinguistik Ruprecht-Karls-Universität Heidelberg SS 2006 Motivation Wieso Akronyme auflösen? sehr verbreitetes Phenomen
MehrBerufsmaturitätsschulen des Kantons Aargau. Aufnahmeprüfung Juni 2015 / Korrekturexemplar. Deutsch. Note: Kandidaten-Nr.
Berufsmaturitätsschulen des Kantons Aargau Aufnahmeprüfung Juni 2015 / Korrekturexemplar Deutsch Kandidaten-Nr.: Name: Vorname: Zeit: Hilfsmittel: 90 Minuten (Empfehlung für Teil 1: 30 Minuten) keine Bitte
MehrGliederung. Das TIGER-Korpus: Annotation und Exploration. TIGER-Korpus. 1. TIGER-Korpus. entstanden im Projekt TIGER (1999 heute) beteiligte Institute
Das TIGER-Korpus: Annotation und Exploration Stefanie Dipper Forschungskolloquium Korpuslinguistik, 11.11.03 Gliederung 1. TIGER-Korpus 2. Annotation 3. Visualisierung 4. Suche, Retrieval 5. Demo 6. Repräsentation
Mehr5. Maschinelle Verarbeitung natürlicher Sprache (Computerlinguistik) (1)
5. Maschinelle Verarbeitung natürlicher Sprache (Computerlinguistik) (1) 5.1 Vorbemerkungen Wissen, das als Ergebnis menschlichen Denkens vorliegt, wird durch Sprache mitgeteilt. Unterscheidung von Sprachen:
Mehrfsq Ein Abfragesystem für syntaktisch annotierte Baumbanken
fsq Ein Abfragesystem für syntaktisch annotierte Baumbanken SFB 441, Universität Tübingen Syntaktisch annotierte Baumbanken Ursprünglich: Morphosyntaktische Tags (POS) Anreicherung mit syntaktischen Informationen
MehrWMS Block: Management von Wissen in Dokumentenform PART: Text Mining. Myra Spiliopoulou
WMS Block: Management von Wissen in nform PART: Text Mining Myra Spiliopoulou WIE ERFASSEN UND VERWALTEN WIR EXPLIZITES WISSEN? 1. Wie strukturieren wir Wissen in nform? 2. Wie verwalten wir nsammlungen?
MehrSeminar Text- und Datamining Textmining-Grundlagen Erste Schritte mit NLTK
Seminar Text- und Datamining Textmining-Grundlagen Erste Schritte mit NLTK Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 16.05.2013 Gliederung 1 Vorverarbeitung
Mehr3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel
3.1 Konstruktion von minimalen Spannbäumen Es gibt zwei Prinzipien für die Konstruktion von minimalen Spannbäumen (Tarjan): blaue Regel rote Regel EADS 3.1 Konstruktion von minimalen Spannbäumen 16/36
MehrMaschinelles Lernen Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten
MehrDeutsch-Italienisch Lehrbuch
Deutsch-Italienisch Lehrbuch Dieses Handbuch ist ein Projekt der infos24 GmbH. www.infos24.de Das Team der infos24 GmbH bedankt sich für die Drucklegung, Korrektur, Design bei: Josephine Schubert, Andrés
MehrFach : Englisch Klasse 5. Kerncurriculum Schulcurriculum Hinweise
Fach : Englisch Klasse 5 Personalpronomen - Singular, Plural Das Verb to be - long forms/short forms - questions and short answers - negation Bestimmter / unbestimmter Artikel Nomen im Plural / regelmäßige
MehrGliederung. Definition Wichtige Aussagen und Sätze Algorithmen zum Finden von Starken Zusammenhangskomponenten
Gliederung Zusammenhang von Graphen Stark Zusammenhängend K-fach Zusammenhängend Brücken Definition Algorithmus zum Finden von Brücken Anwendung Zusammenhangskomponente Definition Wichtige Aussagen und
MehrDeutsch-Französisch Lehrbuch
Lehrbuch Dieses Handbuch ist ein Projekt der infos24 GmbH. www.infos24.de Das Team der infos24 GmbH bedankt sich für die Drucklegung, Korrektur, Design bei: Josephine Schubert, Andrés Ehmann, Manuel Wree,
MehrVorlesung Algorithmische Geometrie. Streckenschnitte. Martin Nöllenburg 19.04.2011
Vorlesung Algorithmische Geometrie LEHRSTUHL FÜR ALGORITHMIK I INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Martin Nöllenburg 19.04.2011 Überlagern von Kartenebenen Beispiel: Gegeben zwei
MehrEinführung Computerlinguistik. Konstituentensyntax II
Einführung Computerlinguistik Konstituentensyntax II Hinrich Schütze & Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 2013-11-18 Schütze & Zangenfeind: Konstituentensyntax
MehrDatenstrukturen und Algorithmen
Datenstrukturen und Algorithmen VO 708.031 Bäume robert.legenstein@igi.tugraz.at 1 Inhalt der Vorlesung 1. Motivation, Einführung, Grundlagen 2. Algorithmische Grundprinzipien 3. Sortierverfahren 4. Halden
MehrJahresprogramm 2015/2016. Fach: Deutsch als Zweitsprache. 2. Klasse: neusprachliche Fachrichtung. Fachlehrerin: Renate Kaute
Jahresprogramm 2015/2016 Fach: Deutsch als Zweitsprache 2. Klasse: neusprachliche Fachrichtung Fachlehrerin: Renate Kaute Ausgehend von den Rahmenrichtlinien (D. L. R. 2041, 13.12.10) und den damit verbundenen
Mehr16. All Pairs Shortest Path (ASPS)
. All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e
MehrWS 2009/10 18.11.2009
Übung 5 Vorbereitung Öffnen Sie einen Texteditor, z.b. Word, Emacs, Textedit etc. und legen Sie Ihre Antwortdatei an. Der Name der Antwortdatei sollte nach folgendem Schema aufgebaut sein: KL_ueb5_
MehrJulia Hancke julia hancke@yahoo.com
Universität Tübingen Master s Thesis in Computational Linguistics Automatic Prediction of CEFR Proficiency Levels Based on Linguistic Features of Learner Language Julia Hancke julia hancke@yahoo.com Supervisor:
MehrInformationsextraktion
Informationsextraktion Bestimmte Anwendungen bei der semantischen Verarbeitung erfordern keine tiefe linguistische Analyse mit exakter Disambiguierung (= eine einzige und korrekte Lesart). Hierzu gehört
MehrVortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering
Vortrag zum Paper Results of the Active Learning Challenge von Guyon, et. al. Sören Schmidt Fachgebiet Knowledge Engineering 11.12.2012 Vortrag zum Paper Results of the Active Learning Challenge von Isabelle
MehrNr. Item Punkte 1. Warum gibt es auf den deutschen Autobahnen das Verkehrschaos?
a) esen Sie den Text Die Deutschen und ihr Urlaub Kein anderes Volk auf der Welt fährt so oft und so gerne in den Urlaub, wie die Deutschen. Mehr als drei Viertel aller Bundesbürger verlassen mindestens
MehrSchulinternes Curriculum Stützkurs Französisch in Jahrgangsstufe 7
Schulinternes Curriculum Stützkurs Französisch in Jahrgangsstufe 7 Grundsätzliche Vereinbarungen: Der individuelle Förderbedarf wird in enger Absprache mit der unterrichtenden Lehrkraft und der Schülerin
MehrAdjektiv und Adjektivgruppe
Sprachbeschreibung 1 11 Adjektiv & Adjektivgruppe Uwe Helm Petersen Adjektiv und Adjektivgruppe 1 Eigenschaften des prototypischen Adjektivs Prototypische Adjektive haben folgende Eigenschaften: (i) Semantisch
Mehr