Maschinelle Sprachverarbeitung: Modelle zu Wortsequenzen Teil 1
|
|
- Kajetan Heintze
- vor 6 Jahren
- Abrufe
Transkript
1 Maschinelle Sprachverarbeitung: Modelle zu Wortsequenzen Teil 1 Basierend auf Kapitel 4 P.M. Nugues (2006) Gertrud Faaβ Universität StuVgart, InsXtut für maschinelle Sprachverarbeitung Azenbergstr. 12, StuVgart faaszgd@ims.uni stuvgart.de 1
2 Einleitung Wörter und Wortsequenzen zählen N gramme Wahrscheinlichkeitsmodelle von Wortsequenzen Smoothing KollokaXonen (nächstes Mal) 2
3 Wörter und Wortsequenzen zählen Wörter und Wortsequenzen zählen Basisidee: In einem Sprach(en)modell (language model) wird die Wahrscheinlichkeit einer Wortsequenz mit staxsxschen Methoden geschätzt Spracherkennungssysteme Lexikographie (KollokaXonen) Parsing (strukturelle AnnotaXon) SemanXsche InterpretaXon Maschinelle Übersetzung 3
4 N-Gramme N Gramme Extrahieren von Wörtern ((word) types) aus einem Korpus, zusammen mit ihren Häufigkeiten (frequency of occurence) George Orwell s Nineteen Eighty Four War is peace Freedom is slavery Ignorance is strength 4
5 N-Gramme George Orwell s Nineteen Eighty Four 1 1 War1 2 1 is peace Freedom4 2 2 is slavery Ignorance7 2 3 is strength 9 9 tokens, 7 types Bi Gramme und ihre Häufigkeit z.b. wie om kommt starker Tee versus kräciger Tee im Text vor? Siehe KollokaXonen (nächstes Mal!) 5
6 N-Gramme Tri Gramme z.b. wie om kommt erfrischender grüner Tee versus kräciger schwarzer Tee im Text vor? Beispiel (Jelinek 1990): We need to resolve all the important issues 6
7 N-Gramme Word Rank More likely alterna0ves We 9 The This One Two A Three Please In need 7 are will the would also do to 1 resolve 85 have know do all 9 the this these problems of 2 the the 1 important 657 document quesxon first issues 14 thing point to 7
8 N-Gramme Ranking, berechnet aus einer KombinaXon aus Uni,Bi und Tri Grammen Wahrscheinlichkeit vorkommender Wortsequenzen: We ist nur an 9. Rang einen Satz zu eröffnen (Wahrscheinlicher wären The, This, etc.) We, need ist nur im 7. Rang (We are, We will, We would, etc. sind alle wahrscheinlicher) to folgt We need am wahrscheinlichsten... genauso ist the am wahrscheinlichsten nach all of 8
9 N-Gramme Zeichenebene: mit/ohne BerücksichXgung von Satzgrenzen/Groß / Kleinschreibung Uni Gramm Modell Lexikographie: Sprachspezifische DistribuXon von Uni Grammen fürwörterbuchaumeilungen (z.b. Mehr Einträge von Wörtern, die mit A beginnen als von Wörtern, die mit E beginnen). 9
10 N-Gramme Nutzung von DistribuXonsinformaXon zur Spracherkennung Tri Gramm: Deutsch: sch im Verhältnis zu allen vorkommenden Tri Grammen wahrscheinlicher als in Englisch. Reicht es nicht, dass folgende Unigramme vorkommen? Ö, ö, Ä, ä, Ü, ü, β RelaXve Frequenz (Anteil am Gesamten, n:n): Englische DissertaXon zu Goethe mit Beispielen 10
11 Wörter und Wortsequenzen zählen Uni Gramme mit Perl zählen: Tokenisierung (wie oben) Wörter in einer Hash Tabelle zählen Wörter alphabexsch sorxeren eventuell: nach Häufigkeit absteigend ausgeben 11
12 Wörter und Wortsequenzen = split (/\s/, $text); # erstes Wort in $words[0], zweites in $word[1], etc. for ($i = 0; $i <= $#words; $i++) { if (!exists($frequency{$words[$i]})) { $frequency{$words[$i]} = 1; } else { $frequency{$words}[$i] }++; } } 12
13 Wörter und Wortsequenzen zählen # Ausgabe der Liste foreach $word ( sort keys %frequency ) { print $frequency{$word} $word\n ; } 13
14 Wörter und Wortsequenzen zählen Bi Gramme? Tokenisieren Array erzeugen (Nachbarwörter konkatenieren) 14
15 Wörter und Wortsequenzen zählen $text = <>; while ( $line = <>) { $text.= $line; } $text =~ tr /a zäöüβa ZÄÖÜ ()\.,?!:;/\n/sc; $text =~ s/([,.?:;() \ ])/\n$1\n/g; $text =~ = split (/\n/, $text); 15
16 Wörter und Wortsequenzen = split (/\s/, $text); # erstes und zweites Wort in $words[0], zweites und drives in $word[1], etc. for ($i = 0; $i < $#words; $i++) { $bigrams[$i] = $words[$i].. $words[$i+1]; } 16
17 Wörter und Wortsequenzen zählen for ($i = 0, $i < $#words; $i++) { if (!exists ($frequency_bigrams{$bigrams[$i]} )) { $frequency_bigrams($bigrams[$i] = 1; } else { $frequency_bigrams($bigrams[$i]}++; } } 17
18 Wörter und Wortsequenzen zählen foreach $bigram ( sort keys %frequency_bigrams) { print $frequency_bigrams{$bigram} \t $bigram \n ; 18
19 Wahrscheinlichkeitsmodelle Wahrscheinlichkeitsmodelle von Wortsequenzen Maximum Likelihood (es gibt noch andere!) QuanXfizierung der Wahrscheinlichkeit, nach der besxmmte Wortsequenzen vorkommen Wortsequenz S = w 1, w 2,..., w i,..., w n IntuiXve Wahrscheinlichkeitsschätzung dieser Sequenz P(S): in einem gegebenen Trainingskorpus ist dessen relaxve Häufigkeit. Diese ergibt sich aus Zahl der Vorkommen der Sequenz C(w 1,.., w n ) dividiert durch Alle Sequenzen der Länge n 19
20 Wahrscheinlichkeitsmodelle Problem der IntuiXon: Sparse Data Selbst bei großen Korpora kann es om vorkommen, dass die gesuchte Wortsequenz nicht enthalten ist Versuch einer Vereinfachung P(S) = P(w 1,.., w n ), = P(w 1 ) P(w 2 w 1 ) P(w 3 w 1,w 2 ) P(w n w 1,...,w n 1 ), n = P(w i w 1,..., w n 1 ) i=1 20
21 Wahrscheinlichkeitsmodelle Versuch einer Vereinfachung: Wahrscheinlichkeit, das w 1 das erste Wort des Satzes ist mulxpliziert mit der Wahrscheinlichkeit von w 2 als zweitem Wort unter der Bedingung das w 1 davor steht, mulxpliziert mit der Wahrscheinlichkeit, dass w 3 an driver Stelle im Satz steht, unter der Bedingung, dass w 1 und w 2 davor stehen, etc. bis w n Fenstergröβe festlegen: manchmal Tri Gramm, om eher Bi Gramm 21
22 Wahrscheinlichkeitsmodelle P(S) = P(w 1,.., w n ), = P(w 1 ) P(w 2 w 1 ) P(w 3 w 1,w 2 ) P(w n w 1,...,w n 1 ), n = P(w i w 1,..., w n 1 ) i=1 Bi Gramm Fenster P(w i w 1, w 2,..., w i 1 ) P(w i w i 1 ) Tri Gramm Fenster P(w i w 1, w 2,..., w i 1 ) P(w i w i 2, w i 1 ) 22
23 Sprachmodell Berechne für jedes Uni Gramm in einem gegebenem Trainingskorpus die Uni Gramm Wahrscheinlichkeit n/n. Beispiel: <s> Das ist ein fauler Hund. </s> <s> Dem ist nicht zu trauen. </s> <s> Das habe ich auch schon immer gesagt. </s> Type wtokens. Um Satzende/Satzanfang berücksichxgen zu können, werden die entsprechenden SGML tags als Zeichen miteinberechnet. 23
24 Sprachmodell Uni Gramm: 1 1 <s> Das ist ein fauler Hund </s> <s> 8 8 Dem ist nicht zu trauen </s> <s> Das habe ich auch schon immer gesagt </s> 23 Wahrscheinlichkeit 7 <s> = 3/23 = 0,13 Wahrscheinlichkeit 2 Das = 2/23 = 8,7 2 Wahrscheinlichkeit 3 ist = 2/23 = 8,7 2 Wahrscheinlichkeit 4 ein = 1/23 = 3,3 2 24
25 Sprachmodell Bi Gramm: ( 1 1 <s> 1 ( 2 1 Das 2 ) 1 1 ( 3 1 ist 3 ) 2 1 ( 4 1 ein 4 ) 3 1 ( 5 1 fauler 5 ) 4 1 ( 6 1 Hund 6 ) 5 1. ( 7 1 </s> 7 ) 6 1 ( 1 2 <s> 8 ) 7 1 ( 8 Dem 9 ) 8 1 ( 3 2 ist 10 ) 9 1 ( 9 1 nicht 11 ) 10 1 ( 10 1 zu 12 ) 11 1 ( 11 1 trauen 13 ) ( 7 2 </s> 14 ) 13 1 ( 1 3 <s> 15 ) 7 2 ( 2 2 Das 16 ) 1 2 ( 12 1 habe 17 ) 14 1 ( 13 1 ich 18 ) 14 1 ( 14 1 auch 19 ) 15 1 ( 15 1 schon 20 ) 16 1 ( 16 1 immer 21 ) 17 1 ( 17 1 gesagt 22 ) </ s> 23 ) 19 1 Wahrscheinlichkeit 7 <s> 2 Das = 2/23 = 8,7 2 Wahrscheinlichkeit 2 Das 3 ist = 1/23 = 3,3 2 Wahrscheinlichkeit 3 ist 4 ein= 1/23 =
26 Sprachmodell Wahrscheinlichkeit von <s> Das ist der Hammer! </s> = passt das ins Sprachmodell? Bi Gramm: P(<s> Das ist der Hammer! </s>)= (<s>) 0.13 * (<s> Das) 8,7 2 * (Das ist) 3,3 2 * (ist der) 0 = 0! Wie mit Wahrscheinlichkeit Null umgehen? 26
27 Smoothing Smoothing oder GläVung Kein Korpus ist jemals groβ genug, selbst für Bi Gramme: Sparse Data Problem Lösung: Wahrscheinlichkeit bisher unbekannter n Gramme berechnen Achtung Summe aller Wahrscheinlichkeiten aller bekannten N Gramme ist immer 1, daher GläVung der Werte über Null ( discounts ) 27
28 Smoothing Laplace s Rule 1 zu allen berechneten Wahrscheinlichkeiten addieren ( add one method ). Achtung: Dem Denominator muss die Zahl aller Types (Card(V)) im Korpus addiert werden. Formel für Bi Gramm Fenster: P laplace (w i+1 w i ) = C(w i, w i+1 ) + 1 = C(w i, w i+1 ) +1 (C(w i,w) + 1) C(w i ) + Card(V) w 28
29 Smoothing Problem bei Laplace: Zu hohe Wahrscheinlichkeit für bisher ungesehene Wortsequenzen (und: Gieβkannenprinzip). Besser Good Turing: Berechne den discount nach der Anzahl der vorhandenen N Gramme: N c = Anzahl der Bigramme mit Häufigkeit c, N 0 also die Anzahl der nicht vorkommenden N Gramme N 0 = Card(V) 2 abzgl. der exisxerenden Bi Gramme 29
30 Smoothing Wir gehen Angeln: Im See gibt es unseres Wissens nach 8 Fischarten, sechs davon haben wir gesehen: 10 Karpfen, 3 Fluβbarsche, 2 Weiβfische, 1 Forelle, 1 Lachs und 1 Aal = 18 Fische (es soll noch Katzenfische und Seebarsche geben) Wie groβ ist die Wahrscheinlichkeit, dass der nächste geangelte Fisch ein noch nicht gesehener ist? Die grundsätzliche Wahrscheinlichkeit wäre ist 0 (mit Laplace = 1), mit Good Turing ist P(N 0 ) jedoch 3/18, da N 1 =3 und N =
31 Smoothing Good Turing Methode formal: Häufigkeit von N Grammen die c mal vorkommen c* = (c+1) N c+1 N c Good Turing c* für unbekannte Bi Gramme = N 1 /N 0 für einmal vorkommende = 2N 2 /N 1 31
32 Smoothing <s> Das ist der Hammer! </s> <s> Das, Das ist, ist der, der Hammer, Hammer </s> Berechnung N 0: card(v) 2 = 17 2 (Anzahl Types im Korpus im Quadrat = Mögliche Bi Gramme) = 270 abzgl. Anzahl bekannte Bi Gramme (19) = 251 = N 0 19 Bi gramme: 2 kommen 2mal, 17 1mal vor 32
33 Smoothing c* für unbekannte Bi Gramme = N 1 /N 0 = 17/251 c* für bekannte Bi Gramme, einmal vorkommend: 2N 2 /N 1 = 2*2/17 Allgemein: P GT (w n w 1,..., w n 1 ) = c*(w 1,..., w n ) C(w 1,..., w n 1 ) 33
34 Smoothing Zum Schluss: In der Praxis sind nur hohe Werte von N c verlässlich Diese entsprechen niedrigen Werten von c Ab einer gewissen Höhe ergeben sich fakxsch Nullwerte Daher wird Good Turing nur für besxmmte c Werte einer Konstante (k) angewandt, also c < k, wobei k = 5, 6,..., oder auch 10, abhängig von den vorhandenen Trainingsdaten. Lineare InterpolaXon / Back off : Die Wahrscheinlichkeit für unbekannte N Gramme (N>1) wird abhängig davon berechnet, mit welcher Wahrscheinlichkeit in den Trainingsdaten enthaltene N 1 Gramme vorkommen 34
35 Referenzen Nugues, P.M. (2006). An IntroducXon to Language Processing with Perl and Prolog. CogniXve Technologies. Springer Berlin Heidelberg, New York, Kapitel 4.1 9, referiert u.a. auf Jelinek (1990). Self organized language modelling for speech recognixon. In Waibel, A. and Lee, K. F., editors, Readings in Speech RecogniXon. MIT Press, Cambridge, MassachuseVs. Weiterlesen (Referenzen Dr. Zinsmeister): Jurafsky and MarXn (2008). Speech and Language Processing. 2 nd EdiXon. Upper Saddle River: PrenXce Hall, Kapitel Helmut Schmid. StaXsXsche Methoden in der Maschinellen Sprachverarbeitung. Unveröffentlichtes Manuskript zur Lehrveranstaltung. hvp:// stuvgart.de/ ~schmid/parsingii/current/snlp folien 4.ps 35
Dialogsysteme. Vortrag zum Thema n-gramm-modelle 2. Teil: Lösungsansätze für Ausfall-N-Gramme. 12. Januar 2006, Susanne O'Shaughnessy
Dialogsysteme Vortrag zum Thema n-gramm-modelle 2. Teil: Lösungsansätze für Ausfall-N-Gramme 12. Januar 2006, Susanne O'Shaughnessy Smoothing - Glättung Problem bei Standard- n-gramm-modellen: - kein Trainingskorpus
MehrMaschinelle Sprachverarbeitung: KollokaKonen (Teil 2: Modelle von Wortsequenzen)
basierend auf H Schmid snlp 4 KollokaKonen Maschinelle Sprachverarbeitung: KollokaKonen (Teil 2: Modelle von Wortsequenzen) Basierend auf Kap 3 McEnery & Wilson (2001) & H Schmid snlp Vorlesungsskript
MehrEinführung in PERL 2 Reguläre Ausdrücke
Einführung in PERL 2 Reguläre Ausdrücke BASIEREND AUF FOLIEN VON DR. H. ZINSMEISTER und dem Buch `Einführung in Perl (Lama Buch) von RL Schwartz&T Phoenix sowie hwp://de.sel[tml.org/perl/sprache/regexpr.htm
MehrFriedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong
Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem
Mehrn-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014
n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 Wahrscheinlichkeit und Sprache Ausgangsfrage: Nächstes Wort vorhersagen. Sprache als Zufallsprozess: Für jede
MehrBayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008
Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation
MehrProgrammierkurs Python II
Programmierkurs Python II Stefan Thater & Michaela Regneri Universität des Saarlandes FR 4.7 Allgemeine Linguistik (Computerlinguistik) Übersicht Einführung zu maschinellem Lernen Sprachmodelle Textklassifizierung
MehrModerne IR / Language Models / Page Ranking
Moderne IR / Language Models / Page Ranking Paul Raab 10.11.2011 Paul Raab () Moderne IR / Language Models / Page Ranking 10.11.2011 1 / 14 Überblick Statistische Methoden auf Sprachmodelle angewandt sind
MehrWahrscheinlichkeitstheorie und Naive Bayes
Wahrscheinlichkeitstheorie und Naive Bayes Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 12.05.2011 Caroline Sporleder Naive Bayes (1) Elementare Wahrscheinlichkeitstheorie
MehrLanguage Identification XXL
Ruprecht-Karls Universität Heidelberg Seminar für Computerlinguistik Software Projekt WS 2009/10 Language Identification XXL Referenten: Galina Sigwarth, Maria Semenchuk, George Kakish, Ulzhan Kadirbayeva
MehrStatistische Verfahren in der Computerlinguistik
Statistische Verfahren in der Computerlinguistik Zweiter Teil Einführung in die Computerlinguistik Sommersemester 2009 Übersicht Statistische vs. symbolische Verfahren in der CL Statistik beschreibende
MehrExkurs: Unix Programme
Exkurs: Unix Programme BASIEREND AUF FOLIEN VON Dr. Stefan Rapp (inspiriert von Ken Church s Vorlesung: Unix for poets ) Gertrud Faaβ Universität StuUgart, InsWtut für maschinelle Sprachverarbeitung Azenbergstr.
MehrLevel 1 German, 2012
90886 908860 1SUPERVISOR S Level 1 German, 2012 90886 Demonstrate understanding of a variety of German texts on areas of most immediate relevance 9.30 am Tuesday 13 November 2012 Credits: Five Achievement
Mehrn-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 17. November 2015
n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 17. November 2015 Statistische Modelle Wir möchten W.theorie verwenden, um ein Modell eines generativen Prozesses aus Beobachtungen
Mehr3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen
3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 14. Mai 2008 1 Kollokationen
MehrPraktikum Maschinelle Übersetzung Language Model
Praktikum Maschinelle Übersetzung Language Model Um die Aufgaben auszuführen, können Sie ihre Daten in folgendem Verzeichnis speichern: /project/smtstud/ss10/systems/username/ Wir werden verschiedene Sprachmodelle
Mehr"What's in the news? - or: why Angela Merkel is not significant
"What's in the news? - or: why Angela Merkel is not significant Andrej Rosenheinrich, Dr. Bernd Eickmann Forschung und Entwicklung, Unister GmbH, Leipzig UNISTER Seite 1 Unister Holding UNISTER Seite 2
MehrÜbersicht. Einführung in Perl Datenstrukturen I. Datentypen Übersicht (1) Kernbegriffe. Kernbegriffe. Einführung der Datentypen.
Übersicht Kernbegriffe Einführung der Datentypen Skalare im Detail Vergleichsoperatoren Standardeingabe chomp-operator while-schleife Perl, 24.10.03 Datentypen I 1 Datentypen Übersicht (1) Datentyp Erklärung
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Statistische Modellierung I WS 2010/2011 Manfred Pinkal Wortartinformation Wortartinformation ist eine wichtige Voraussetzung für die syntaktische Analyse. Woher kommt
MehrErkennung fremdsprachiger Ausdrücke im Text
Erkennung fremdsprachiger Ausdrücke im Text Jekaterina Siilivask Betreuer: Dr. Helmut Schmid Centrum für Informations- und Sprachbearbeiting Ludwig- Maximilians- Universität München 19.05.2014 Jekaterina
MehrLevel 2 German, 2013
91126 911260 2SUPERVISOR S Level 2 German, 2013 91126 Demonstrate understanding of a variety of written and / or visual German text(s) on familiar matters 9.30 am Monday 11 November 2013 Credits: Five
MehrPart-of-Speech- Tagging
Part-of-Speech- Tagging In: Einführung in die Computerlinguistik Institut für Computerlinguistik Heinrich-Heine-Universität Düsseldorf WS 2004/05 Dozentin: Wiebke Petersen Tagging Was ist das? Tag (engl.):
MehrNLP Eigenschaften von Text
NLP Eigenschaften von Text Dr. Andreas Hotho Dominik Benz Beate Krause Sommersemester 2008 Folie: 1 Übersicht Einführung Eigenschaften von Text Words I: Satzgrenzenerkennung, Tokenization, Kollokationen
MehrKomplexe Datenstrukturen
Perl-Praxis Komplexe Datenstrukturen Jörn Clausen, Jan Krüger Jens Reeder, Alex Sczyrba AG Praktische Informatik Technische Fakultät Universität Bielefeld {asczyrba,jkrueger@techfak.uni-bielefeld.de 1
MehrThere are 10 weeks this summer vacation the weeks beginning: June 23, June 30, July 7, July 14, July 21, Jul 28, Aug 4, Aug 11, Aug 18, Aug 25
Name: AP Deutsch Sommerpaket 2014 The AP German exam is designed to test your language proficiency your ability to use the German language to speak, listen, read and write. All the grammar concepts and
Mehrp^db=`oj===pìééçêíáåñçêã~íáçå=
p^db=`oj===pìééçêíáåñçêã~íáçå= Error: "Could not connect to the SQL Server Instance" or "Failed to open a connection to the database." When you attempt to launch ACT! by Sage or ACT by Sage Premium for
MehrPart-of-Speech Tagging. Stephanie Schuldes
Part-of-Speech Tagging Stephanie Schuldes 05.06.2003 PS Erschließen von großen Textmengen Geißler/Holler SoSe 2003 Motivation Ziel: vollständiges Parsing und Verstehen natürlicher Sprache Herantasten durch
MehrExtended Ordered Paired Comparison Models An Application to the Data from Bundesliga Season 2013/14
Etended Ordered Paired Comparison Models An Application to the Data from Bundesliga Season 2013/14 Gerhard Tutz & Gunther Schauberger Ludwig-Maimilians-Universität München Akademiestraße 1, 80799 München
Mehr❶ Hier siehst du Beispiele für die Pluralbildung im Englischen. Schreibe unter jedes Beispiel zwei weitere Nomen, die ihren Plural genauso bilden.
4 Singular und Plural ❶ Hier siehst du Beispiele für die Pluralbildung im Englischen. Schreibe unter jedes Beispiel zwei weitere Nomen, die ihren Plural genauso bilden. Tipp: Wenn dir keine Nomen einfallen,
MehrKernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung
Kernel, Perceptron, Regression Erich Schubert, Arthur Zimek Ludwig-Maximilians-Universität München 2014-07-20 KDD Übung Kernel-Fukctionen Kernel kann mehrdeutig sein! Unterscheidet zwischen: Kernel function
Mehr1.5 Berechnung von Rangzahlen
1.5 Berechnung von Rangzahlen Bei vielen nichtparametrischen Verfahren spielen die so genannten Rangzahlen eine wesentliche Rolle, denn über diese werden hier die Prüfgrößen berechnet. Dies steht im Gegensatz
MehrDO NOT PRINT THIS PAGE
1 2 3 4 6 5 7 9 8 10 12 11 DO NOT PRINT THIS PAGE 2 3 4 5 6 7 8 9 11 13 A B A B 15 16 17 18 19 20 21 22 23 [Nm] 370 350 330 310 290 270 250 230 210 190 170 150 130 110 90 140 PS 115 PS 85 PS 70 1000 1500
MehrVGM. VGM information. HAMBURG SÜD VGM WEB PORTAL - USER GUIDE June 2016
Overview The Hamburg Süd VGM-Portal is an application which enables to submit VGM information directly to Hamburg Süd via our e-portal web page. You can choose to insert VGM information directly, or download
MehrEinführung in die Signalverarbeitung
Einführung in die Signalverarbeitung Phonetik und Sprachverarbeitung, 2. Fachsemester, Block Sprachtechnologie I Florian Schiel Institut für Phonetik und Sprachverarbeitung, LMU München Signalverarbeitung
MehrKOBIL SecOVID Token III Manual
KOBIL SecOVID Token III Manual Einführung Vielen Dank, dass Sie sich für das KOBIL SecOVID Token entschieden haben. Mit dem SecOVID Token haben Sie ein handliches, einfach zu bedienendes Gerät zur universellen
MehrPart of Speech Tagging. Linguistische Sicht. Carolin Deck
Part of Speech Tagging Linguistische Sicht Carolin Deck Gliederung 1. Begriffsklärung 2. Vorstellung zwei wichtiger Tagsets (STTS & PTTS) 3. Bedeutung des POS-Tagging für die Sprachwissenschaft 4. Tagzuweisung
MehrKV 1. Klasse: Datum: Name: Zeige, was du schon auf Englisch kannst! Male die für dich zutreffenden Sprechblasen an! Das kann ich sonst noch:
KV 1 Zeige, was du schon auf Englisch kannst! Male die für dich zutreffenden Sprechblasen an! Das kann ich sonst noch: 97 KV 2 Zeige, was du schon auf Englisch kannst! Male die für dich zutreffenden Sprechblasen
MehrExercise (Part XI) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1
Exercise (Part XI) Notes: The exercise is based on Microsoft Dynamics CRM Online. For all screenshots: Copyright Microsoft Corporation. The sign ## is you personal number to be used in all exercises. All
MehrRätsel 1: Buchstabensalat klassisch, 5 5, A C (10 Punkte) Puzzle 1: Standard As Easy As, 5 5, A C (10 points)
Rätsel 1: uchstabensalat klassisch, 5 5, (10 Punkte) Puzzle 1: Standard s Easy s, 5 5, (10 points) Rätsel 2: uchstabensalat klassisch, 5 5, (5 Punkte) Puzzle 2: Standard s Easy s, 5 5, (5 points) Rätsel
MehrHUMANGENETIK IN DER WELT VON HEUTE: 12 SALZBURGER VORLESUNGEN (GERMAN EDITION) BY FRIEDRICH VOGEL
FRIEDRICH VOGEL READ ONLINE AND DOWNLOAD EBOOK : HUMANGENETIK IN DER WELT VON HEUTE: 12 SALZBURGER VORLESUNGEN (GERMAN EDITION) BY Click button to download this ebook READ ONLINE AND DOWNLOAD HUMANGENETIK
MehrUnit 4: Informationsblatt für Mini-Teachers (schwierige Laute sind unterstrichen)
Unit 4: Informationsblatt für Mini-Teachers (schwierige Laute sind unterstrichen) Was ist euer Ziel? Das Ziel eurer Stunde ist es, die Zahlen zu wiederholen. Dafür habt ihr 20 Minuten Zeit. Wie könnt ihr
MehrWAS IST DER KOMPARATIV: = The comparative
DER KOMPATATIV VON ADJEKTIVEN UND ADVERBEN WAS IST DER KOMPARATIV: = The comparative Der Komparativ vergleicht zwei Sachen (durch ein Adjektiv oder ein Adverb) The comparative is exactly what it sounds
MehrAuswertungsbericht Lehrveranstaltungsevaluation an die Lehrenden
J. W. Goethe-Universität Robert-Mayer-Str. 10 / HPF 30 60054 Frankfurt a.m. Johann Wolfgang Goethe-Universität Sehr geehrte Frau Prof'in Dr. Heike Holbig (PERSÖNLICH) Auswertungsbericht Lehrveranstaltungsevaluation
MehrÜbungen zum Kurs Quadratische Gleichungen
1. Kapitel (Aufgaben) Wandle die Gleichungen in die Normalform um: 1A) 1B) 1C) + 8+ 6 0 4 + 8+ 16 0 5 + 5+ 5 0 Wandle die Gleichungen in die Normalform bzw. Allgemeine Form um: 1D) ( + )( 5) 0 1E) ( +
MehrSprachstatistik: Das Zipf sche Gesetz
Sprachstatistik: Das Zipf sche Gesetz Korpus-Workshop Thema Korpus-Statistik Thomas Wittig Universität Leipzig Institut für Informatik wittig@uni-leipzig.de Principle of Least Effort 2 George K. Zipf:
MehrKapitel 5: Einfaktorielle Varianzanalyse
Rasch, Friese, Hofmann & Naumann (010). Quantitative Methoden. Band (3. Auflage). Heidelberg: Springer. Kapitel 5: Einfaktorielle Varianzanalyse Berechnen der Teststärke a priori bzw. Stichprobenumfangsplanung
MehrTIn 1: Feedback Laboratories. Lecture 4 Data transfer. Question: What is the IP? Institut für Embedded Systems. Institut für Embedded Systems
Mitglied der Zürcher Fachhochschule TIn 1: Lecture 4 Data transfer Feedback Laboratories Question: What is the IP? Why do we NEED an IP? Lecture 3: Lernziele Moving data, the why s and wherefores Moving
MehrEnglisch Klasse 8 - Name:
Englisch Klasse 8 Name: Kompetenzen: Unit 1 talk about New York City Englisch G 21 A4 p. 1421 Fit für Tests und Klassenarbeiten 4, p. 89, p. 14 ex. 2, p. 15 ex. 3 use the present perfect progressive and
MehrCNC ZUR STEUERUNG VON WERKZEUGMASCHINEN (GERMAN EDITION) BY TIM ROHR
(GERMAN EDITION) BY TIM ROHR READ ONLINE AND DOWNLOAD EBOOK : CNC ZUR STEUERUNG VON WERKZEUGMASCHINEN (GERMAN EDITION) BY TIM ROHR PDF Click button to download this ebook READ ONLINE AND DOWNLOAD CNC ZUR
MehrProbe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013
Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte
MehrKorpuslinguistik Grundlagen Korpusrecherchemethoden
Methoden der Korpusanalyse Erstellung von Konkordanzen Erzeugung von Wortlisten mit Frequenzangaben Ermittlung von hochfrequenten Wortgruppen (Clusteranalyse) Berechnung von Kookkurrenzen Ermittlung von
MehrEinführung in die Wahrscheinlichkeitsrechnung
Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung
MehrMul$media im Netz (Online Mul$media) Wintersemester 2014/15. Übung 02 (Nebenfach)
Mul$media im Netz (Online Mul$media) Wintersemester 2014/15 Übung 02 (Nebenfach) Mul=media im Netz WS 2014/15 - Übung 2-1 Organiza$on: Language Mul=ple requests for English Slides Tutorial s=ll held in
MehrInwiefern zeigen die Monophthong Vokalverschiebungen in Neuseeland Englisch Evidenzen von 'chain shifting'?
Inwiefern zeigen die Monophthong Vokalverschiebungen in Neuseeland Englisch Evidenzen von 'chain shifting'? Jonathan Harrington: "Die phonetischen Grundlagen des Lautwandels Referent: Matthias Mahrhofer
MehrWave-Datei-Analyse via FFT
Wave-Datei-Analyse via FFT Wave-Dateien enthalten gesampelte Daten, die in bestimmten Zeitabständen gespeichert wurden. Eine Fourier-Transformation über diesen Daten verrät das Frequenz-Spektrum der zugrunde
MehrLevel 2 German, 2011
90401 904010 2SUPERVISOR S Level 2 German, 2011 90401 Listen to and understand spoken language in German in less familiar contexts 2.00 pm uesday Tuesday 1 November 2011 Credits: Six Check that the National
MehrKurzanleitung um Transponder mit einem scemtec TT Reader und der Software UniDemo zu lesen
Kurzanleitung um Transponder mit einem scemtec TT Reader und der Software UniDemo zu lesen QuickStart Guide to read a transponder with a scemtec TT reader and software UniDemo Voraussetzung: - PC mit der
MehrKomplexe Datenstrukturen
Perl-Praxis Komplexe Datenstrukturen Michael Beckstette Martin Mann, Steffen Heyne {mbeckste,mmann,sheyne@informatik.uni-freiburg.de 1 Übersicht Hashes Referenzen komplexe Datenstrukturen 2 Hashes dritter
MehrMusterlösung zur Abschlussklausur
Einführung in die Computerlinguistik Sommersemester 2012 Department Linguistik Peter Kolb 9.9.2012 Musterlösung zur Abschlussklausur 1. Aufgabe Ein Programm zum maschinellen Übersetzen verfügt über ein
MehrUNIVERSITY OF CAMBRIDGE INTERNATIONAL EXAMINATIONS International General Certificate of Secondary Education
*6407704618* UNIVERSITY OF CAMBRIDGE INTERNATIONAL EXAMINATIONS International General Certificate of Secondary Education FOREIGN LANGUAGE GERMAN 0677/03 Paper 3 Speaking Role Play Card One 1 March 30 April
MehrKapitel 12: Schnelles Bestimmen der Frequent Itemsets
Einleitung In welchen Situationen ist Apriori teuer, und warum? Kapitel 12: Schnelles Bestimmen der Frequent Itemsets Data Warehousing und Mining 1 Data Warehousing und Mining 2 Schnelles Identifizieren
Mehrhttps://portal.microsoftonline.com
Sie haben nun Office über Office365 bezogen. Ihr Account wird in Kürze in dem Office365 Portal angelegt. Anschließend können Sie, wie unten beschrieben, die Software beziehen. Congratulations, you have
Mehrwww.infoplc.net AC500 Application Example Scalable PLC for Individual Automation AC500-eCo Modbus TCP/IP Data Exchange between two AC500-eCo CPUs
Application Example AC500 Scalable PLC for Individual Automation AC500-eCo Modbus TCP/IP Data Exchange between two AC500-eCo CPUs Content 1 Disclaimer...2 1.1 For customers domiciled outside Germany /
MehrEinführung in die Signalverarbeitung
Einführung in die Signalverarbeitung Phonetik und Sprachverarbeitung, 2. Fachsemester, Block Sprachtechnologie I Florian Schiel Institut für Phonetik und Sprachverarbeitung, LMU München Signalverarbeitung
MehrSelbstlernmodul bearbeitet von: begonnen: Inhaltsverzeichnis:
bearbeitet von: begonnen: Fach: Englisch Thema: The Future Deckblatt des Moduls 1 ''You will have to pay some money soon. That makes 4, please.'' ''Oh!'' Inhaltsverzeichnis: Inhalt bearbeitet am 2 Lerntagebuch
MehrVariablen - %Hashes Was ist ein Hash? 'Assoziative Arrays'
Was ist ein Hash? 'Assoziative Arrays' Hashes sind array-ähnliche Datenstrukturen, die aus Schlüssel-Wert Paaren bestehen. Artikel + Preis Apfel 0,45 Banane 0,75 Ananas 1,49 Birne 0,59 %Artikel = Apfel
MehrHiOPC Hirschmann Netzmanagement. Anforderungsformular für eine Lizenz. Order form for a license
HiOPC Hirschmann Netzmanagement Anforderungsformular für eine Lizenz Order form for a license Anforderungsformular für eine Lizenz Vielen Dank für Ihr Interesse an HiOPC, dem SNMP/OPC Gateway von Hirschmann
MehrStandardstufe 6: Interkulturelle kommunikative Kompetenz
Lernaufgabe Let s make our school nicer Your task: Let s make our school nicer Imagine the SMV wants to make our school nicer and has asked YOU for your help, because you have learnt a lot about British
Mehr12. Vorlesung. Statistische Sprachmodelle für Information Retrieval
12. Vorlesung Statistische Sprachmodelle für Information Retrieval Allgemeiner Ansatz Unigram Modell Beziehung zum Vektorraummodell mit TF-IDF Gewichten Statistische Spachmodelle zur Glättung Idee von
MehrProgrammierkurs Python II
Programmierkurs Python II Michaela Regneri & tefan Thater FR 4.7 Allgemeine Linguistik (Computerlinguistik) Universität des aarlandes ommersemester 2010 (Charniak, 1997) the dog biscuits N V N V the dog
MehrLiving Agile! Velocity made good. @Thomas_van_Aken
Living Agile! Velocity made good @Thomas_van_Aken Sybit GmbH Agile Consulting seit 2010 Coaching von Kunden-Teams Schulungen Darüber hinaus 1. & 2. Oktober 2014 Etwas über mich Aktuelle Titel: - Scrum
MehrElementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung
Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln
MehrEinführung in die Informatik 2
Einführung in die Informatik 2 Suchen in Texten Sven Kosub AG Algorithmik/Theorie komplexer Systeme Universität Konstanz E 202 Sven.Kosub@uni-konstanz.de Sprechstunde: Freitag, 12:30-14:00 Uhr, o.n.v.
MehrDAS ZUFRIEDENE GEHIRN: FREI VON DEPRESSIONEN, TRAUMATA, ADHS, SUCHT UND ANGST. MIT DER BRAIN-STATE-TECHNOLOGIE DAS LEBEN AUSBALANCIEREN (GE
DAS ZUFRIEDENE GEHIRN: FREI VON DEPRESSIONEN, TRAUMATA, ADHS, SUCHT UND ANGST. MIT DER BRAIN-STATE-TECHNOLOGIE DAS LEBEN AUSBALANCIEREN (GE READ ONLINE AND DOWNLOAD EBOOK : DAS ZUFRIEDENE GEHIRN: FREI
MehrReduced-Rank Least Squares Modelle
16.12.2008 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A
Mehr8 Zugriffstypen ( Zeiger )
8 Zugriffstypen ( Zeiger ) 1. Zugriffstypen, die auf Daten in einem Storage Pool zeigen Heap. 2. Allgemeine Zugriffstypen, die auf (mehr oder weniger) beliebige Daten zeigen. 3. Zugriffsparameter für Unterprogramme
MehrAchtung: Groß O definiert keine totale Ordnungsrelation auf der Menge aller Funktionen! Beweis: Es gibt positive Funktionen f und g so, dass
Achtung: Groß O definiert keine totale Ordnungsrelation auf der Menge aller Funktionen! Beweis: Es gibt positive Funktionen f und g so, dass f O g und auch g O f. Wähle zum Beispiel und G. Zachmann Informatik
MehrLogistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios
Logistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios PD Dr.Gabriele Doblhammer, Fortgescrittene Methoden, SS2004 Logistische Regression Tabelle 2 Alter und Symptome von Herz-/Kreislauferkrankung(CD)
MehrStatistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze
Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger
MehrTuesday 10 May 2011 Afternoon Time: 30 minutes plus 5 minutes reading time
Write your name here Surname Other names Edexcel IGCSE German Paper 1: Listening Centre Number Candidate Number Tuesday 10 May 2011 Afternoon Time: 30 minutes plus 5 minutes reading time You do not need
MehrGliederung. Algorithmen und Datenstrukturen II. Problem: Längste gemeinsame Teilsequenz. Problem: Längste gemeinsame Teilsequenz
Gliederung Algorithmen und Datenstrukturen II Algorithmen zur Textverarbeitung II D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg
Mehr=ZÄHLENWENN Zählt die nichtleeren Zellen eines Bereiches, deren Inhalte mit den Suchkriterien übereinstimmen
Excel Formel-Handbuch T. Korn 2011 =SUMME Gibt das Ergebnis einer Addition aus =SUMME(A1:A4) =SUMME(A1;A2;A4) : (Doppelpunkt) bedeutet bis bei zusammenhängenden Zellen ; (Semikolon) bedeutet und bei nicht
Mehrherzberg social housing complex green living
Vienna 2011 social housing complex green living Seite 1/9 Vienna 2011 social housing complex green living since summer 2011, the new residents of the Herzberg public housing project developed by AllesWirdGut
MehrGerman Section 33 - Online activitites
No. 01 Was kostet das? How much does that cost? sharer case No. 02 Drei gewinnt! Tic Tac Toe sharer case No. 03 der, die oder das? Which definite article? Das Heft ist grün. The is green. Der Radiergummi
MehrGrundwissen. 8. Jahrgangsstufe. Mathematik
Grundwissen 8. Jahrgangsstufe Mathematik Grundwissen Mathematik 8. Jahrgangsstufe Seite 1 1 Proportionalität 1.1 Direkte Proportionalität Eigenschaften: y Quotientengleichheit Bei kommt immer das Gleiche
MehrEinführung in Python. Gliederung
Einführung in Python Stefan Dziwok Universität Paderborn 1. Februar 2007 Referenzen Python has been an important part of Google since the beginning, and remains so as the system grows and evolves. Today
MehrA study on computer-aided design of PIN-diode phase modulators at microwave frequencies
Downloaded from orbit.dtu.dk on: Jul 08, 2016 A study on computer-aided design of PIN-diode phase modulators at microwave frequencies Schjær-Jacobsen, Hans Publication date: 1976 Document Version Publisher's
MehrBA63 Zeichensätze/ Character sets
BA63 Zeichensätze/ Character sets Anhang/ Appendix We would like to know your opinion on this publication. Ihre Meinung/ Your opinion: Please send us a copy of this page if you have any contructive criticism.
MehrCOMPUTER: Mission Berlin. November 9, 2006, ten twenty-five am. You have 90 minutes and 2 lives left, and someone seems to know you.
Episode 06 Die Frau in Rot Anna stößt mit einer Frau zusammen, die behauptet, mit ihr im Jahr 1961 befreundet gewesen zu sein. Außerdem wird Anna von der Nachricht überrascht, dass ihr eine Frau in Rot
MehrTagging von Online-Blogs
Tagging von Online-Blogs Gertrud Faaß (vertreten durch Josef Ruppenhofer) STTS tagset and tagging: special corpora 24. September 2012 Faaß MODEBLOGS 1 Korpuslinguistische studentische Projekte am IwiSt
MehrKURZANLEITUNG. Firmware-Upgrade: Wie geht das eigentlich?
KURZANLEITUNG Firmware-Upgrade: Wie geht das eigentlich? Die Firmware ist eine Software, die auf der IP-Kamera installiert ist und alle Funktionen des Gerätes steuert. Nach dem Firmware-Update stehen Ihnen
MehrFranke & Bornberg award AachenMünchener private annuity insurance schemes top grades
Franke & Bornberg award private annuity insurance schemes top grades Press Release, December 22, 2009 WUNSCHPOLICE STRATEGIE No. 1 gets best possible grade FFF ( Excellent ) WUNSCHPOLICE conventional annuity
Mehr2 German sentence: write your English translation before looking at p. 3
page Edward Martin, Institut für Anglistik, Universität Koblenz-Landau, Campus Koblenz 2 German sentence: write your English translation before looking at p. 3 3 German sentence analysed in colour coding;
Mehr1 Potenzen und Polynome
1 Potenzen und Polynome Für eine reelle Zahl x R und eine natürliche Zahl n N definieren wir x n := x x x... x }{{} n-mal Einschub über die bisher aufgetretenen mathematischen Symbole: Definition mittels
MehrInformationslogistik Unit 1: Introduction
Informationslogistik Unit 1: Introduction 18. II. 2014 Eine Frage zum Einstieg Eine Frage Wie stellen Sie sich Ihren Arbeitsalltag als LogistikerIn vor? Eine Frage zum Einstieg Eine Frage Wie stellen Sie
MehrMatrizen, Determinanten, lineare Gleichungssysteme
Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n
MehrPart-Of-Speech-Tagging mit Viterbi Algorithmus
Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus
MehrIn der SocialErasmus Woche unterstützen wir mit euch zusammen zahlreiche lokale Projekte in unserer Stadt! Sei ein Teil davon und hilf denen, die Hilfe brauchen! Vom 4.-10. Mai werden sich internationale
MehrC/C++ Programmierung
1 C/C++ Programmierung Grundlagen: Anweisungen Sebastian Hack Christoph Mallon (hack mallon)@cs.uni-sb.de Fachbereich Informatik Universität des Saarlandes Wintersemester 2009/2010 2 Anweisungen (Statements)
MehrMy Reading-Log. Eine Hilfe beim Lesen von englischen Ganzschriften in der Schule. Hinweise zur technischen Umsetzung:
Eine Hilfe beim Lesen von englischen Ganzschriften in der Schule Hinweise zur technischen Umsetzung: Die Tagebuch-Seiten werden in der vorgebenen Reihenfolge beidseitig auf A4 Papier gedruckt. Das vierte
Mehr