Maschinelle Sprachverarbeitung: Modelle zu Wortsequenzen Teil 1

Größe: px
Ab Seite anzeigen:

Download "Maschinelle Sprachverarbeitung: Modelle zu Wortsequenzen Teil 1"

Transkript

1 Maschinelle Sprachverarbeitung: Modelle zu Wortsequenzen Teil 1 Basierend auf Kapitel 4 P.M. Nugues (2006) Gertrud Faaβ Universität StuVgart, InsXtut für maschinelle Sprachverarbeitung Azenbergstr. 12, StuVgart faaszgd@ims.uni stuvgart.de 1

2 Einleitung Wörter und Wortsequenzen zählen N gramme Wahrscheinlichkeitsmodelle von Wortsequenzen Smoothing KollokaXonen (nächstes Mal) 2

3 Wörter und Wortsequenzen zählen Wörter und Wortsequenzen zählen Basisidee: In einem Sprach(en)modell (language model) wird die Wahrscheinlichkeit einer Wortsequenz mit staxsxschen Methoden geschätzt Spracherkennungssysteme Lexikographie (KollokaXonen) Parsing (strukturelle AnnotaXon) SemanXsche InterpretaXon Maschinelle Übersetzung 3

4 N-Gramme N Gramme Extrahieren von Wörtern ((word) types) aus einem Korpus, zusammen mit ihren Häufigkeiten (frequency of occurence) George Orwell s Nineteen Eighty Four War is peace Freedom is slavery Ignorance is strength 4

5 N-Gramme George Orwell s Nineteen Eighty Four 1 1 War1 2 1 is peace Freedom4 2 2 is slavery Ignorance7 2 3 is strength 9 9 tokens, 7 types Bi Gramme und ihre Häufigkeit z.b. wie om kommt starker Tee versus kräciger Tee im Text vor? Siehe KollokaXonen (nächstes Mal!) 5

6 N-Gramme Tri Gramme z.b. wie om kommt erfrischender grüner Tee versus kräciger schwarzer Tee im Text vor? Beispiel (Jelinek 1990): We need to resolve all the important issues 6

7 N-Gramme Word Rank More likely alterna0ves We 9 The This One Two A Three Please In need 7 are will the would also do to 1 resolve 85 have know do all 9 the this these problems of 2 the the 1 important 657 document quesxon first issues 14 thing point to 7

8 N-Gramme Ranking, berechnet aus einer KombinaXon aus Uni,Bi und Tri Grammen Wahrscheinlichkeit vorkommender Wortsequenzen: We ist nur an 9. Rang einen Satz zu eröffnen (Wahrscheinlicher wären The, This, etc.) We, need ist nur im 7. Rang (We are, We will, We would, etc. sind alle wahrscheinlicher) to folgt We need am wahrscheinlichsten... genauso ist the am wahrscheinlichsten nach all of 8

9 N-Gramme Zeichenebene: mit/ohne BerücksichXgung von Satzgrenzen/Groß / Kleinschreibung Uni Gramm Modell Lexikographie: Sprachspezifische DistribuXon von Uni Grammen fürwörterbuchaumeilungen (z.b. Mehr Einträge von Wörtern, die mit A beginnen als von Wörtern, die mit E beginnen). 9

10 N-Gramme Nutzung von DistribuXonsinformaXon zur Spracherkennung Tri Gramm: Deutsch: sch im Verhältnis zu allen vorkommenden Tri Grammen wahrscheinlicher als in Englisch. Reicht es nicht, dass folgende Unigramme vorkommen? Ö, ö, Ä, ä, Ü, ü, β RelaXve Frequenz (Anteil am Gesamten, n:n): Englische DissertaXon zu Goethe mit Beispielen 10

11 Wörter und Wortsequenzen zählen Uni Gramme mit Perl zählen: Tokenisierung (wie oben) Wörter in einer Hash Tabelle zählen Wörter alphabexsch sorxeren eventuell: nach Häufigkeit absteigend ausgeben 11

12 Wörter und Wortsequenzen = split (/\s/, $text); # erstes Wort in $words[0], zweites in $word[1], etc. for ($i = 0; $i <= $#words; $i++) { if (!exists($frequency{$words[$i]})) { $frequency{$words[$i]} = 1; } else { $frequency{$words}[$i] }++; } } 12

13 Wörter und Wortsequenzen zählen # Ausgabe der Liste foreach $word ( sort keys %frequency ) { print $frequency{$word} $word\n ; } 13

14 Wörter und Wortsequenzen zählen Bi Gramme? Tokenisieren Array erzeugen (Nachbarwörter konkatenieren) 14

15 Wörter und Wortsequenzen zählen $text = <>; while ( $line = <>) { $text.= $line; } $text =~ tr /a zäöüβa ZÄÖÜ ()\.,?!:;/\n/sc; $text =~ s/([,.?:;() \ ])/\n$1\n/g; $text =~ = split (/\n/, $text); 15

16 Wörter und Wortsequenzen = split (/\s/, $text); # erstes und zweites Wort in $words[0], zweites und drives in $word[1], etc. for ($i = 0; $i < $#words; $i++) { $bigrams[$i] = $words[$i].. $words[$i+1]; } 16

17 Wörter und Wortsequenzen zählen for ($i = 0, $i < $#words; $i++) { if (!exists ($frequency_bigrams{$bigrams[$i]} )) { $frequency_bigrams($bigrams[$i] = 1; } else { $frequency_bigrams($bigrams[$i]}++; } } 17

18 Wörter und Wortsequenzen zählen foreach $bigram ( sort keys %frequency_bigrams) { print $frequency_bigrams{$bigram} \t $bigram \n ; 18

19 Wahrscheinlichkeitsmodelle Wahrscheinlichkeitsmodelle von Wortsequenzen Maximum Likelihood (es gibt noch andere!) QuanXfizierung der Wahrscheinlichkeit, nach der besxmmte Wortsequenzen vorkommen Wortsequenz S = w 1, w 2,..., w i,..., w n IntuiXve Wahrscheinlichkeitsschätzung dieser Sequenz P(S): in einem gegebenen Trainingskorpus ist dessen relaxve Häufigkeit. Diese ergibt sich aus Zahl der Vorkommen der Sequenz C(w 1,.., w n ) dividiert durch Alle Sequenzen der Länge n 19

20 Wahrscheinlichkeitsmodelle Problem der IntuiXon: Sparse Data Selbst bei großen Korpora kann es om vorkommen, dass die gesuchte Wortsequenz nicht enthalten ist Versuch einer Vereinfachung P(S) = P(w 1,.., w n ), = P(w 1 ) P(w 2 w 1 ) P(w 3 w 1,w 2 ) P(w n w 1,...,w n 1 ), n = P(w i w 1,..., w n 1 ) i=1 20

21 Wahrscheinlichkeitsmodelle Versuch einer Vereinfachung: Wahrscheinlichkeit, das w 1 das erste Wort des Satzes ist mulxpliziert mit der Wahrscheinlichkeit von w 2 als zweitem Wort unter der Bedingung das w 1 davor steht, mulxpliziert mit der Wahrscheinlichkeit, dass w 3 an driver Stelle im Satz steht, unter der Bedingung, dass w 1 und w 2 davor stehen, etc. bis w n Fenstergröβe festlegen: manchmal Tri Gramm, om eher Bi Gramm 21

22 Wahrscheinlichkeitsmodelle P(S) = P(w 1,.., w n ), = P(w 1 ) P(w 2 w 1 ) P(w 3 w 1,w 2 ) P(w n w 1,...,w n 1 ), n = P(w i w 1,..., w n 1 ) i=1 Bi Gramm Fenster P(w i w 1, w 2,..., w i 1 ) P(w i w i 1 ) Tri Gramm Fenster P(w i w 1, w 2,..., w i 1 ) P(w i w i 2, w i 1 ) 22

23 Sprachmodell Berechne für jedes Uni Gramm in einem gegebenem Trainingskorpus die Uni Gramm Wahrscheinlichkeit n/n. Beispiel: <s> Das ist ein fauler Hund. </s> <s> Dem ist nicht zu trauen. </s> <s> Das habe ich auch schon immer gesagt. </s> Type wtokens. Um Satzende/Satzanfang berücksichxgen zu können, werden die entsprechenden SGML tags als Zeichen miteinberechnet. 23

24 Sprachmodell Uni Gramm: 1 1 <s> Das ist ein fauler Hund </s> <s> 8 8 Dem ist nicht zu trauen </s> <s> Das habe ich auch schon immer gesagt </s> 23 Wahrscheinlichkeit 7 <s> = 3/23 = 0,13 Wahrscheinlichkeit 2 Das = 2/23 = 8,7 2 Wahrscheinlichkeit 3 ist = 2/23 = 8,7 2 Wahrscheinlichkeit 4 ein = 1/23 = 3,3 2 24

25 Sprachmodell Bi Gramm: ( 1 1 <s> 1 ( 2 1 Das 2 ) 1 1 ( 3 1 ist 3 ) 2 1 ( 4 1 ein 4 ) 3 1 ( 5 1 fauler 5 ) 4 1 ( 6 1 Hund 6 ) 5 1. ( 7 1 </s> 7 ) 6 1 ( 1 2 <s> 8 ) 7 1 ( 8 Dem 9 ) 8 1 ( 3 2 ist 10 ) 9 1 ( 9 1 nicht 11 ) 10 1 ( 10 1 zu 12 ) 11 1 ( 11 1 trauen 13 ) ( 7 2 </s> 14 ) 13 1 ( 1 3 <s> 15 ) 7 2 ( 2 2 Das 16 ) 1 2 ( 12 1 habe 17 ) 14 1 ( 13 1 ich 18 ) 14 1 ( 14 1 auch 19 ) 15 1 ( 15 1 schon 20 ) 16 1 ( 16 1 immer 21 ) 17 1 ( 17 1 gesagt 22 ) </ s> 23 ) 19 1 Wahrscheinlichkeit 7 <s> 2 Das = 2/23 = 8,7 2 Wahrscheinlichkeit 2 Das 3 ist = 1/23 = 3,3 2 Wahrscheinlichkeit 3 ist 4 ein= 1/23 =

26 Sprachmodell Wahrscheinlichkeit von <s> Das ist der Hammer! </s> = passt das ins Sprachmodell? Bi Gramm: P(<s> Das ist der Hammer! </s>)= (<s>) 0.13 * (<s> Das) 8,7 2 * (Das ist) 3,3 2 * (ist der) 0 = 0! Wie mit Wahrscheinlichkeit Null umgehen? 26

27 Smoothing Smoothing oder GläVung Kein Korpus ist jemals groβ genug, selbst für Bi Gramme: Sparse Data Problem Lösung: Wahrscheinlichkeit bisher unbekannter n Gramme berechnen Achtung Summe aller Wahrscheinlichkeiten aller bekannten N Gramme ist immer 1, daher GläVung der Werte über Null ( discounts ) 27

28 Smoothing Laplace s Rule 1 zu allen berechneten Wahrscheinlichkeiten addieren ( add one method ). Achtung: Dem Denominator muss die Zahl aller Types (Card(V)) im Korpus addiert werden. Formel für Bi Gramm Fenster: P laplace (w i+1 w i ) = C(w i, w i+1 ) + 1 = C(w i, w i+1 ) +1 (C(w i,w) + 1) C(w i ) + Card(V) w 28

29 Smoothing Problem bei Laplace: Zu hohe Wahrscheinlichkeit für bisher ungesehene Wortsequenzen (und: Gieβkannenprinzip). Besser Good Turing: Berechne den discount nach der Anzahl der vorhandenen N Gramme: N c = Anzahl der Bigramme mit Häufigkeit c, N 0 also die Anzahl der nicht vorkommenden N Gramme N 0 = Card(V) 2 abzgl. der exisxerenden Bi Gramme 29

30 Smoothing Wir gehen Angeln: Im See gibt es unseres Wissens nach 8 Fischarten, sechs davon haben wir gesehen: 10 Karpfen, 3 Fluβbarsche, 2 Weiβfische, 1 Forelle, 1 Lachs und 1 Aal = 18 Fische (es soll noch Katzenfische und Seebarsche geben) Wie groβ ist die Wahrscheinlichkeit, dass der nächste geangelte Fisch ein noch nicht gesehener ist? Die grundsätzliche Wahrscheinlichkeit wäre ist 0 (mit Laplace = 1), mit Good Turing ist P(N 0 ) jedoch 3/18, da N 1 =3 und N =

31 Smoothing Good Turing Methode formal: Häufigkeit von N Grammen die c mal vorkommen c* = (c+1) N c+1 N c Good Turing c* für unbekannte Bi Gramme = N 1 /N 0 für einmal vorkommende = 2N 2 /N 1 31

32 Smoothing <s> Das ist der Hammer! </s> <s> Das, Das ist, ist der, der Hammer, Hammer </s> Berechnung N 0: card(v) 2 = 17 2 (Anzahl Types im Korpus im Quadrat = Mögliche Bi Gramme) = 270 abzgl. Anzahl bekannte Bi Gramme (19) = 251 = N 0 19 Bi gramme: 2 kommen 2mal, 17 1mal vor 32

33 Smoothing c* für unbekannte Bi Gramme = N 1 /N 0 = 17/251 c* für bekannte Bi Gramme, einmal vorkommend: 2N 2 /N 1 = 2*2/17 Allgemein: P GT (w n w 1,..., w n 1 ) = c*(w 1,..., w n ) C(w 1,..., w n 1 ) 33

34 Smoothing Zum Schluss: In der Praxis sind nur hohe Werte von N c verlässlich Diese entsprechen niedrigen Werten von c Ab einer gewissen Höhe ergeben sich fakxsch Nullwerte Daher wird Good Turing nur für besxmmte c Werte einer Konstante (k) angewandt, also c < k, wobei k = 5, 6,..., oder auch 10, abhängig von den vorhandenen Trainingsdaten. Lineare InterpolaXon / Back off : Die Wahrscheinlichkeit für unbekannte N Gramme (N>1) wird abhängig davon berechnet, mit welcher Wahrscheinlichkeit in den Trainingsdaten enthaltene N 1 Gramme vorkommen 34

35 Referenzen Nugues, P.M. (2006). An IntroducXon to Language Processing with Perl and Prolog. CogniXve Technologies. Springer Berlin Heidelberg, New York, Kapitel 4.1 9, referiert u.a. auf Jelinek (1990). Self organized language modelling for speech recognixon. In Waibel, A. and Lee, K. F., editors, Readings in Speech RecogniXon. MIT Press, Cambridge, MassachuseVs. Weiterlesen (Referenzen Dr. Zinsmeister): Jurafsky and MarXn (2008). Speech and Language Processing. 2 nd EdiXon. Upper Saddle River: PrenXce Hall, Kapitel Helmut Schmid. StaXsXsche Methoden in der Maschinellen Sprachverarbeitung. Unveröffentlichtes Manuskript zur Lehrveranstaltung. hvp:// stuvgart.de/ ~schmid/parsingii/current/snlp folien 4.ps 35

Dialogsysteme. Vortrag zum Thema n-gramm-modelle 2. Teil: Lösungsansätze für Ausfall-N-Gramme. 12. Januar 2006, Susanne O'Shaughnessy

Dialogsysteme. Vortrag zum Thema n-gramm-modelle 2. Teil: Lösungsansätze für Ausfall-N-Gramme. 12. Januar 2006, Susanne O'Shaughnessy Dialogsysteme Vortrag zum Thema n-gramm-modelle 2. Teil: Lösungsansätze für Ausfall-N-Gramme 12. Januar 2006, Susanne O'Shaughnessy Smoothing - Glättung Problem bei Standard- n-gramm-modellen: - kein Trainingskorpus

Mehr

Maschinelle Sprachverarbeitung: KollokaKonen (Teil 2: Modelle von Wortsequenzen)

Maschinelle Sprachverarbeitung: KollokaKonen (Teil 2: Modelle von Wortsequenzen) basierend auf H Schmid snlp 4 KollokaKonen Maschinelle Sprachverarbeitung: KollokaKonen (Teil 2: Modelle von Wortsequenzen) Basierend auf Kap 3 McEnery & Wilson (2001) & H Schmid snlp Vorlesungsskript

Mehr

Einführung in PERL 2 Reguläre Ausdrücke

Einführung in PERL 2 Reguläre Ausdrücke Einführung in PERL 2 Reguläre Ausdrücke BASIEREND AUF FOLIEN VON DR. H. ZINSMEISTER und dem Buch `Einführung in Perl (Lama Buch) von RL Schwartz&T Phoenix sowie hwp://de.sel[tml.org/perl/sprache/regexpr.htm

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 1. Dezember 2014 Wahrscheinlichkeit und Sprache Ausgangsfrage: Nächstes Wort vorhersagen. Sprache als Zufallsprozess: Für jede

Mehr

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008 Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation

Mehr

Programmierkurs Python II

Programmierkurs Python II Programmierkurs Python II Stefan Thater & Michaela Regneri Universität des Saarlandes FR 4.7 Allgemeine Linguistik (Computerlinguistik) Übersicht Einführung zu maschinellem Lernen Sprachmodelle Textklassifizierung

Mehr

Moderne IR / Language Models / Page Ranking

Moderne IR / Language Models / Page Ranking Moderne IR / Language Models / Page Ranking Paul Raab 10.11.2011 Paul Raab () Moderne IR / Language Models / Page Ranking 10.11.2011 1 / 14 Überblick Statistische Methoden auf Sprachmodelle angewandt sind

Mehr

Wahrscheinlichkeitstheorie und Naive Bayes

Wahrscheinlichkeitstheorie und Naive Bayes Wahrscheinlichkeitstheorie und Naive Bayes Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 12.05.2011 Caroline Sporleder Naive Bayes (1) Elementare Wahrscheinlichkeitstheorie

Mehr

Language Identification XXL

Language Identification XXL Ruprecht-Karls Universität Heidelberg Seminar für Computerlinguistik Software Projekt WS 2009/10 Language Identification XXL Referenten: Galina Sigwarth, Maria Semenchuk, George Kakish, Ulzhan Kadirbayeva

Mehr

Statistische Verfahren in der Computerlinguistik

Statistische Verfahren in der Computerlinguistik Statistische Verfahren in der Computerlinguistik Zweiter Teil Einführung in die Computerlinguistik Sommersemester 2009 Übersicht Statistische vs. symbolische Verfahren in der CL Statistik beschreibende

Mehr

Exkurs: Unix Programme

Exkurs: Unix Programme Exkurs: Unix Programme BASIEREND AUF FOLIEN VON Dr. Stefan Rapp (inspiriert von Ken Church s Vorlesung: Unix for poets ) Gertrud Faaβ Universität StuUgart, InsWtut für maschinelle Sprachverarbeitung Azenbergstr.

Mehr

Level 1 German, 2012

Level 1 German, 2012 90886 908860 1SUPERVISOR S Level 1 German, 2012 90886 Demonstrate understanding of a variety of German texts on areas of most immediate relevance 9.30 am Tuesday 13 November 2012 Credits: Five Achievement

Mehr

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 17. November 2015

n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 17. November 2015 n-gramm-modelle Vorlesung Computerlinguistische Techniken Alexander Koller 17. November 2015 Statistische Modelle Wir möchten W.theorie verwenden, um ein Modell eines generativen Prozesses aus Beobachtungen

Mehr

3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen

3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen 3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 14. Mai 2008 1 Kollokationen

Mehr

Praktikum Maschinelle Übersetzung Language Model

Praktikum Maschinelle Übersetzung Language Model Praktikum Maschinelle Übersetzung Language Model Um die Aufgaben auszuführen, können Sie ihre Daten in folgendem Verzeichnis speichern: /project/smtstud/ss10/systems/username/ Wir werden verschiedene Sprachmodelle

Mehr

"What's in the news? - or: why Angela Merkel is not significant

What's in the news? - or: why Angela Merkel is not significant "What's in the news? - or: why Angela Merkel is not significant Andrej Rosenheinrich, Dr. Bernd Eickmann Forschung und Entwicklung, Unister GmbH, Leipzig UNISTER Seite 1 Unister Holding UNISTER Seite 2

Mehr

Übersicht. Einführung in Perl Datenstrukturen I. Datentypen Übersicht (1) Kernbegriffe. Kernbegriffe. Einführung der Datentypen.

Übersicht. Einführung in Perl Datenstrukturen I. Datentypen Übersicht (1) Kernbegriffe. Kernbegriffe. Einführung der Datentypen. Übersicht Kernbegriffe Einführung der Datentypen Skalare im Detail Vergleichsoperatoren Standardeingabe chomp-operator while-schleife Perl, 24.10.03 Datentypen I 1 Datentypen Übersicht (1) Datentyp Erklärung

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Modellierung I WS 2010/2011 Manfred Pinkal Wortartinformation Wortartinformation ist eine wichtige Voraussetzung für die syntaktische Analyse. Woher kommt

Mehr

Erkennung fremdsprachiger Ausdrücke im Text

Erkennung fremdsprachiger Ausdrücke im Text Erkennung fremdsprachiger Ausdrücke im Text Jekaterina Siilivask Betreuer: Dr. Helmut Schmid Centrum für Informations- und Sprachbearbeiting Ludwig- Maximilians- Universität München 19.05.2014 Jekaterina

Mehr

Level 2 German, 2013

Level 2 German, 2013 91126 911260 2SUPERVISOR S Level 2 German, 2013 91126 Demonstrate understanding of a variety of written and / or visual German text(s) on familiar matters 9.30 am Monday 11 November 2013 Credits: Five

Mehr

Part-of-Speech- Tagging

Part-of-Speech- Tagging Part-of-Speech- Tagging In: Einführung in die Computerlinguistik Institut für Computerlinguistik Heinrich-Heine-Universität Düsseldorf WS 2004/05 Dozentin: Wiebke Petersen Tagging Was ist das? Tag (engl.):

Mehr

NLP Eigenschaften von Text

NLP Eigenschaften von Text NLP Eigenschaften von Text Dr. Andreas Hotho Dominik Benz Beate Krause Sommersemester 2008 Folie: 1 Übersicht Einführung Eigenschaften von Text Words I: Satzgrenzenerkennung, Tokenization, Kollokationen

Mehr

Komplexe Datenstrukturen

Komplexe Datenstrukturen Perl-Praxis Komplexe Datenstrukturen Jörn Clausen, Jan Krüger Jens Reeder, Alex Sczyrba AG Praktische Informatik Technische Fakultät Universität Bielefeld {asczyrba,jkrueger@techfak.uni-bielefeld.de 1

Mehr

There are 10 weeks this summer vacation the weeks beginning: June 23, June 30, July 7, July 14, July 21, Jul 28, Aug 4, Aug 11, Aug 18, Aug 25

There are 10 weeks this summer vacation the weeks beginning: June 23, June 30, July 7, July 14, July 21, Jul 28, Aug 4, Aug 11, Aug 18, Aug 25 Name: AP Deutsch Sommerpaket 2014 The AP German exam is designed to test your language proficiency your ability to use the German language to speak, listen, read and write. All the grammar concepts and

Mehr

p^db=`oj===pìééçêíáåñçêã~íáçå=

p^db=`oj===pìééçêíáåñçêã~íáçå= p^db=`oj===pìééçêíáåñçêã~íáçå= Error: "Could not connect to the SQL Server Instance" or "Failed to open a connection to the database." When you attempt to launch ACT! by Sage or ACT by Sage Premium for

Mehr

Part-of-Speech Tagging. Stephanie Schuldes

Part-of-Speech Tagging. Stephanie Schuldes Part-of-Speech Tagging Stephanie Schuldes 05.06.2003 PS Erschließen von großen Textmengen Geißler/Holler SoSe 2003 Motivation Ziel: vollständiges Parsing und Verstehen natürlicher Sprache Herantasten durch

Mehr

Extended Ordered Paired Comparison Models An Application to the Data from Bundesliga Season 2013/14

Extended Ordered Paired Comparison Models An Application to the Data from Bundesliga Season 2013/14 Etended Ordered Paired Comparison Models An Application to the Data from Bundesliga Season 2013/14 Gerhard Tutz & Gunther Schauberger Ludwig-Maimilians-Universität München Akademiestraße 1, 80799 München

Mehr

❶ Hier siehst du Beispiele für die Pluralbildung im Englischen. Schreibe unter jedes Beispiel zwei weitere Nomen, die ihren Plural genauso bilden.

❶ Hier siehst du Beispiele für die Pluralbildung im Englischen. Schreibe unter jedes Beispiel zwei weitere Nomen, die ihren Plural genauso bilden. 4 Singular und Plural ❶ Hier siehst du Beispiele für die Pluralbildung im Englischen. Schreibe unter jedes Beispiel zwei weitere Nomen, die ihren Plural genauso bilden. Tipp: Wenn dir keine Nomen einfallen,

Mehr

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung

Kernel, Perceptron, Regression. Erich Schubert, Arthur Zimek. 2014-07-20 KDD Übung Kernel, Perceptron, Regression Erich Schubert, Arthur Zimek Ludwig-Maximilians-Universität München 2014-07-20 KDD Übung Kernel-Fukctionen Kernel kann mehrdeutig sein! Unterscheidet zwischen: Kernel function

Mehr

1.5 Berechnung von Rangzahlen

1.5 Berechnung von Rangzahlen 1.5 Berechnung von Rangzahlen Bei vielen nichtparametrischen Verfahren spielen die so genannten Rangzahlen eine wesentliche Rolle, denn über diese werden hier die Prüfgrößen berechnet. Dies steht im Gegensatz

Mehr

DO NOT PRINT THIS PAGE

DO NOT PRINT THIS PAGE 1 2 3 4 6 5 7 9 8 10 12 11 DO NOT PRINT THIS PAGE 2 3 4 5 6 7 8 9 11 13 A B A B 15 16 17 18 19 20 21 22 23 [Nm] 370 350 330 310 290 270 250 230 210 190 170 150 130 110 90 140 PS 115 PS 85 PS 70 1000 1500

Mehr

VGM. VGM information. HAMBURG SÜD VGM WEB PORTAL - USER GUIDE June 2016

VGM. VGM information. HAMBURG SÜD VGM WEB PORTAL - USER GUIDE June 2016 Overview The Hamburg Süd VGM-Portal is an application which enables to submit VGM information directly to Hamburg Süd via our e-portal web page. You can choose to insert VGM information directly, or download

Mehr

Einführung in die Signalverarbeitung

Einführung in die Signalverarbeitung Einführung in die Signalverarbeitung Phonetik und Sprachverarbeitung, 2. Fachsemester, Block Sprachtechnologie I Florian Schiel Institut für Phonetik und Sprachverarbeitung, LMU München Signalverarbeitung

Mehr

KOBIL SecOVID Token III Manual

KOBIL SecOVID Token III Manual KOBIL SecOVID Token III Manual Einführung Vielen Dank, dass Sie sich für das KOBIL SecOVID Token entschieden haben. Mit dem SecOVID Token haben Sie ein handliches, einfach zu bedienendes Gerät zur universellen

Mehr

Part of Speech Tagging. Linguistische Sicht. Carolin Deck

Part of Speech Tagging. Linguistische Sicht. Carolin Deck Part of Speech Tagging Linguistische Sicht Carolin Deck Gliederung 1. Begriffsklärung 2. Vorstellung zwei wichtiger Tagsets (STTS & PTTS) 3. Bedeutung des POS-Tagging für die Sprachwissenschaft 4. Tagzuweisung

Mehr

KV 1. Klasse: Datum: Name: Zeige, was du schon auf Englisch kannst! Male die für dich zutreffenden Sprechblasen an! Das kann ich sonst noch:

KV 1. Klasse: Datum: Name: Zeige, was du schon auf Englisch kannst! Male die für dich zutreffenden Sprechblasen an! Das kann ich sonst noch: KV 1 Zeige, was du schon auf Englisch kannst! Male die für dich zutreffenden Sprechblasen an! Das kann ich sonst noch: 97 KV 2 Zeige, was du schon auf Englisch kannst! Male die für dich zutreffenden Sprechblasen

Mehr

Exercise (Part XI) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1

Exercise (Part XI) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1 Exercise (Part XI) Notes: The exercise is based on Microsoft Dynamics CRM Online. For all screenshots: Copyright Microsoft Corporation. The sign ## is you personal number to be used in all exercises. All

Mehr

Rätsel 1: Buchstabensalat klassisch, 5 5, A C (10 Punkte) Puzzle 1: Standard As Easy As, 5 5, A C (10 points)

Rätsel 1: Buchstabensalat klassisch, 5 5, A C (10 Punkte) Puzzle 1: Standard As Easy As, 5 5, A C (10 points) Rätsel 1: uchstabensalat klassisch, 5 5, (10 Punkte) Puzzle 1: Standard s Easy s, 5 5, (10 points) Rätsel 2: uchstabensalat klassisch, 5 5, (5 Punkte) Puzzle 2: Standard s Easy s, 5 5, (5 points) Rätsel

Mehr

HUMANGENETIK IN DER WELT VON HEUTE: 12 SALZBURGER VORLESUNGEN (GERMAN EDITION) BY FRIEDRICH VOGEL

HUMANGENETIK IN DER WELT VON HEUTE: 12 SALZBURGER VORLESUNGEN (GERMAN EDITION) BY FRIEDRICH VOGEL FRIEDRICH VOGEL READ ONLINE AND DOWNLOAD EBOOK : HUMANGENETIK IN DER WELT VON HEUTE: 12 SALZBURGER VORLESUNGEN (GERMAN EDITION) BY Click button to download this ebook READ ONLINE AND DOWNLOAD HUMANGENETIK

Mehr

Unit 4: Informationsblatt für Mini-Teachers (schwierige Laute sind unterstrichen)

Unit 4: Informationsblatt für Mini-Teachers (schwierige Laute sind unterstrichen) Unit 4: Informationsblatt für Mini-Teachers (schwierige Laute sind unterstrichen) Was ist euer Ziel? Das Ziel eurer Stunde ist es, die Zahlen zu wiederholen. Dafür habt ihr 20 Minuten Zeit. Wie könnt ihr

Mehr

WAS IST DER KOMPARATIV: = The comparative

WAS IST DER KOMPARATIV: = The comparative DER KOMPATATIV VON ADJEKTIVEN UND ADVERBEN WAS IST DER KOMPARATIV: = The comparative Der Komparativ vergleicht zwei Sachen (durch ein Adjektiv oder ein Adverb) The comparative is exactly what it sounds

Mehr

Auswertungsbericht Lehrveranstaltungsevaluation an die Lehrenden

Auswertungsbericht Lehrveranstaltungsevaluation an die Lehrenden J. W. Goethe-Universität Robert-Mayer-Str. 10 / HPF 30 60054 Frankfurt a.m. Johann Wolfgang Goethe-Universität Sehr geehrte Frau Prof'in Dr. Heike Holbig (PERSÖNLICH) Auswertungsbericht Lehrveranstaltungsevaluation

Mehr

Übungen zum Kurs Quadratische Gleichungen

Übungen zum Kurs Quadratische Gleichungen 1. Kapitel (Aufgaben) Wandle die Gleichungen in die Normalform um: 1A) 1B) 1C) + 8+ 6 0 4 + 8+ 16 0 5 + 5+ 5 0 Wandle die Gleichungen in die Normalform bzw. Allgemeine Form um: 1D) ( + )( 5) 0 1E) ( +

Mehr

Sprachstatistik: Das Zipf sche Gesetz

Sprachstatistik: Das Zipf sche Gesetz Sprachstatistik: Das Zipf sche Gesetz Korpus-Workshop Thema Korpus-Statistik Thomas Wittig Universität Leipzig Institut für Informatik wittig@uni-leipzig.de Principle of Least Effort 2 George K. Zipf:

Mehr

Kapitel 5: Einfaktorielle Varianzanalyse

Kapitel 5: Einfaktorielle Varianzanalyse Rasch, Friese, Hofmann & Naumann (010). Quantitative Methoden. Band (3. Auflage). Heidelberg: Springer. Kapitel 5: Einfaktorielle Varianzanalyse Berechnen der Teststärke a priori bzw. Stichprobenumfangsplanung

Mehr

TIn 1: Feedback Laboratories. Lecture 4 Data transfer. Question: What is the IP? Institut für Embedded Systems. Institut für Embedded Systems

TIn 1: Feedback Laboratories. Lecture 4 Data transfer. Question: What is the IP? Institut für Embedded Systems. Institut für Embedded Systems Mitglied der Zürcher Fachhochschule TIn 1: Lecture 4 Data transfer Feedback Laboratories Question: What is the IP? Why do we NEED an IP? Lecture 3: Lernziele Moving data, the why s and wherefores Moving

Mehr

Englisch Klasse 8 - Name:

Englisch Klasse 8 - Name: Englisch Klasse 8 Name: Kompetenzen: Unit 1 talk about New York City Englisch G 21 A4 p. 1421 Fit für Tests und Klassenarbeiten 4, p. 89, p. 14 ex. 2, p. 15 ex. 3 use the present perfect progressive and

Mehr

CNC ZUR STEUERUNG VON WERKZEUGMASCHINEN (GERMAN EDITION) BY TIM ROHR

CNC ZUR STEUERUNG VON WERKZEUGMASCHINEN (GERMAN EDITION) BY TIM ROHR (GERMAN EDITION) BY TIM ROHR READ ONLINE AND DOWNLOAD EBOOK : CNC ZUR STEUERUNG VON WERKZEUGMASCHINEN (GERMAN EDITION) BY TIM ROHR PDF Click button to download this ebook READ ONLINE AND DOWNLOAD CNC ZUR

Mehr

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte

Mehr

Korpuslinguistik Grundlagen Korpusrecherchemethoden

Korpuslinguistik Grundlagen Korpusrecherchemethoden Methoden der Korpusanalyse Erstellung von Konkordanzen Erzeugung von Wortlisten mit Frequenzangaben Ermittlung von hochfrequenten Wortgruppen (Clusteranalyse) Berechnung von Kookkurrenzen Ermittlung von

Mehr

Einführung in die Wahrscheinlichkeitsrechnung

Einführung in die Wahrscheinlichkeitsrechnung Einführung in die Wahrscheinlichkeitsrechnung Sven Garbade Fakultät für Angewandte Psychologie SRH Hochschule Heidelberg sven.garbade@hochschule-heidelberg.de Statistik 1 S. Garbade (SRH Heidelberg) Wahrscheinlichkeitsrechnung

Mehr

Mul$media im Netz (Online Mul$media) Wintersemester 2014/15. Übung 02 (Nebenfach)

Mul$media im Netz (Online Mul$media) Wintersemester 2014/15. Übung 02 (Nebenfach) Mul$media im Netz (Online Mul$media) Wintersemester 2014/15 Übung 02 (Nebenfach) Mul=media im Netz WS 2014/15 - Übung 2-1 Organiza$on: Language Mul=ple requests for English Slides Tutorial s=ll held in

Mehr

Inwiefern zeigen die Monophthong Vokalverschiebungen in Neuseeland Englisch Evidenzen von 'chain shifting'?

Inwiefern zeigen die Monophthong Vokalverschiebungen in Neuseeland Englisch Evidenzen von 'chain shifting'? Inwiefern zeigen die Monophthong Vokalverschiebungen in Neuseeland Englisch Evidenzen von 'chain shifting'? Jonathan Harrington: "Die phonetischen Grundlagen des Lautwandels Referent: Matthias Mahrhofer

Mehr

Wave-Datei-Analyse via FFT

Wave-Datei-Analyse via FFT Wave-Datei-Analyse via FFT Wave-Dateien enthalten gesampelte Daten, die in bestimmten Zeitabständen gespeichert wurden. Eine Fourier-Transformation über diesen Daten verrät das Frequenz-Spektrum der zugrunde

Mehr

Level 2 German, 2011

Level 2 German, 2011 90401 904010 2SUPERVISOR S Level 2 German, 2011 90401 Listen to and understand spoken language in German in less familiar contexts 2.00 pm uesday Tuesday 1 November 2011 Credits: Six Check that the National

Mehr

Kurzanleitung um Transponder mit einem scemtec TT Reader und der Software UniDemo zu lesen

Kurzanleitung um Transponder mit einem scemtec TT Reader und der Software UniDemo zu lesen Kurzanleitung um Transponder mit einem scemtec TT Reader und der Software UniDemo zu lesen QuickStart Guide to read a transponder with a scemtec TT reader and software UniDemo Voraussetzung: - PC mit der

Mehr

Komplexe Datenstrukturen

Komplexe Datenstrukturen Perl-Praxis Komplexe Datenstrukturen Michael Beckstette Martin Mann, Steffen Heyne {mbeckste,mmann,sheyne@informatik.uni-freiburg.de 1 Übersicht Hashes Referenzen komplexe Datenstrukturen 2 Hashes dritter

Mehr

Musterlösung zur Abschlussklausur

Musterlösung zur Abschlussklausur Einführung in die Computerlinguistik Sommersemester 2012 Department Linguistik Peter Kolb 9.9.2012 Musterlösung zur Abschlussklausur 1. Aufgabe Ein Programm zum maschinellen Übersetzen verfügt über ein

Mehr

UNIVERSITY OF CAMBRIDGE INTERNATIONAL EXAMINATIONS International General Certificate of Secondary Education

UNIVERSITY OF CAMBRIDGE INTERNATIONAL EXAMINATIONS International General Certificate of Secondary Education *6407704618* UNIVERSITY OF CAMBRIDGE INTERNATIONAL EXAMINATIONS International General Certificate of Secondary Education FOREIGN LANGUAGE GERMAN 0677/03 Paper 3 Speaking Role Play Card One 1 March 30 April

Mehr

Kapitel 12: Schnelles Bestimmen der Frequent Itemsets

Kapitel 12: Schnelles Bestimmen der Frequent Itemsets Einleitung In welchen Situationen ist Apriori teuer, und warum? Kapitel 12: Schnelles Bestimmen der Frequent Itemsets Data Warehousing und Mining 1 Data Warehousing und Mining 2 Schnelles Identifizieren

Mehr

https://portal.microsoftonline.com

https://portal.microsoftonline.com Sie haben nun Office über Office365 bezogen. Ihr Account wird in Kürze in dem Office365 Portal angelegt. Anschließend können Sie, wie unten beschrieben, die Software beziehen. Congratulations, you have

Mehr

www.infoplc.net AC500 Application Example Scalable PLC for Individual Automation AC500-eCo Modbus TCP/IP Data Exchange between two AC500-eCo CPUs

www.infoplc.net AC500 Application Example Scalable PLC for Individual Automation AC500-eCo Modbus TCP/IP Data Exchange between two AC500-eCo CPUs Application Example AC500 Scalable PLC for Individual Automation AC500-eCo Modbus TCP/IP Data Exchange between two AC500-eCo CPUs Content 1 Disclaimer...2 1.1 For customers domiciled outside Germany /

Mehr

Einführung in die Signalverarbeitung

Einführung in die Signalverarbeitung Einführung in die Signalverarbeitung Phonetik und Sprachverarbeitung, 2. Fachsemester, Block Sprachtechnologie I Florian Schiel Institut für Phonetik und Sprachverarbeitung, LMU München Signalverarbeitung

Mehr

Selbstlernmodul bearbeitet von: begonnen: Inhaltsverzeichnis:

Selbstlernmodul bearbeitet von: begonnen: Inhaltsverzeichnis: bearbeitet von: begonnen: Fach: Englisch Thema: The Future Deckblatt des Moduls 1 ''You will have to pay some money soon. That makes 4, please.'' ''Oh!'' Inhaltsverzeichnis: Inhalt bearbeitet am 2 Lerntagebuch

Mehr

Variablen - %Hashes Was ist ein Hash? 'Assoziative Arrays'

Variablen - %Hashes Was ist ein Hash? 'Assoziative Arrays' Was ist ein Hash? 'Assoziative Arrays' Hashes sind array-ähnliche Datenstrukturen, die aus Schlüssel-Wert Paaren bestehen. Artikel + Preis Apfel 0,45 Banane 0,75 Ananas 1,49 Birne 0,59 %Artikel = Apfel

Mehr

HiOPC Hirschmann Netzmanagement. Anforderungsformular für eine Lizenz. Order form for a license

HiOPC Hirschmann Netzmanagement. Anforderungsformular für eine Lizenz. Order form for a license HiOPC Hirschmann Netzmanagement Anforderungsformular für eine Lizenz Order form for a license Anforderungsformular für eine Lizenz Vielen Dank für Ihr Interesse an HiOPC, dem SNMP/OPC Gateway von Hirschmann

Mehr

Standardstufe 6: Interkulturelle kommunikative Kompetenz

Standardstufe 6: Interkulturelle kommunikative Kompetenz Lernaufgabe Let s make our school nicer Your task: Let s make our school nicer Imagine the SMV wants to make our school nicer and has asked YOU for your help, because you have learnt a lot about British

Mehr

12. Vorlesung. Statistische Sprachmodelle für Information Retrieval

12. Vorlesung. Statistische Sprachmodelle für Information Retrieval 12. Vorlesung Statistische Sprachmodelle für Information Retrieval Allgemeiner Ansatz Unigram Modell Beziehung zum Vektorraummodell mit TF-IDF Gewichten Statistische Spachmodelle zur Glättung Idee von

Mehr

Programmierkurs Python II

Programmierkurs Python II Programmierkurs Python II Michaela Regneri & tefan Thater FR 4.7 Allgemeine Linguistik (Computerlinguistik) Universität des aarlandes ommersemester 2010 (Charniak, 1997) the dog biscuits N V N V the dog

Mehr

Living Agile! Velocity made good. @Thomas_van_Aken

Living Agile! Velocity made good. @Thomas_van_Aken Living Agile! Velocity made good @Thomas_van_Aken Sybit GmbH Agile Consulting seit 2010 Coaching von Kunden-Teams Schulungen Darüber hinaus 1. & 2. Oktober 2014 Etwas über mich Aktuelle Titel: - Scrum

Mehr

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung

Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Elementare Begriffe der Wahrscheinlichkeitstheorie für die Sprachverarbeitung Kursfolien Karin Haenelt 1 Übersicht Wahrscheinlichkeitsfunktion P Wahrscheinlichkeit und bedingte Wahrscheinlichkeit Bayes-Formeln

Mehr

Einführung in die Informatik 2

Einführung in die Informatik 2 Einführung in die Informatik 2 Suchen in Texten Sven Kosub AG Algorithmik/Theorie komplexer Systeme Universität Konstanz E 202 Sven.Kosub@uni-konstanz.de Sprechstunde: Freitag, 12:30-14:00 Uhr, o.n.v.

Mehr

DAS ZUFRIEDENE GEHIRN: FREI VON DEPRESSIONEN, TRAUMATA, ADHS, SUCHT UND ANGST. MIT DER BRAIN-STATE-TECHNOLOGIE DAS LEBEN AUSBALANCIEREN (GE

DAS ZUFRIEDENE GEHIRN: FREI VON DEPRESSIONEN, TRAUMATA, ADHS, SUCHT UND ANGST. MIT DER BRAIN-STATE-TECHNOLOGIE DAS LEBEN AUSBALANCIEREN (GE DAS ZUFRIEDENE GEHIRN: FREI VON DEPRESSIONEN, TRAUMATA, ADHS, SUCHT UND ANGST. MIT DER BRAIN-STATE-TECHNOLOGIE DAS LEBEN AUSBALANCIEREN (GE READ ONLINE AND DOWNLOAD EBOOK : DAS ZUFRIEDENE GEHIRN: FREI

Mehr

Reduced-Rank Least Squares Modelle

Reduced-Rank Least Squares Modelle 16.12.2008 Wiederholung Gegeben: Matrix A m n Paar Rechter Eigenvektor x, Eigenwert λ: A x = λ x mit x R n \ 0, λ N Paar Linker Eigenvektor y, Eigenwert λ: y T A = λ y T Singulärwertzerlegung (SVD): A

Mehr

8 Zugriffstypen ( Zeiger )

8 Zugriffstypen ( Zeiger ) 8 Zugriffstypen ( Zeiger ) 1. Zugriffstypen, die auf Daten in einem Storage Pool zeigen Heap. 2. Allgemeine Zugriffstypen, die auf (mehr oder weniger) beliebige Daten zeigen. 3. Zugriffsparameter für Unterprogramme

Mehr

Achtung: Groß O definiert keine totale Ordnungsrelation auf der Menge aller Funktionen! Beweis: Es gibt positive Funktionen f und g so, dass

Achtung: Groß O definiert keine totale Ordnungsrelation auf der Menge aller Funktionen! Beweis: Es gibt positive Funktionen f und g so, dass Achtung: Groß O definiert keine totale Ordnungsrelation auf der Menge aller Funktionen! Beweis: Es gibt positive Funktionen f und g so, dass f O g und auch g O f. Wähle zum Beispiel und G. Zachmann Informatik

Mehr

Logistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios

Logistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios Logistische Regression I. Odds, Logits, Odds Ratios, Log Odds Ratios PD Dr.Gabriele Doblhammer, Fortgescrittene Methoden, SS2004 Logistische Regression Tabelle 2 Alter und Symptome von Herz-/Kreislauferkrankung(CD)

Mehr

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze

Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Statistische Verfahren in der Künstlichen Intelligenz, Bayesische Netze Erich Schubert 6. Juli 2003 LMU München, Institut für Informatik, Erich Schubert Zitat von R. P. Feynman Richard P. Feynman (Nobelpreisträger

Mehr

Tuesday 10 May 2011 Afternoon Time: 30 minutes plus 5 minutes reading time

Tuesday 10 May 2011 Afternoon Time: 30 minutes plus 5 minutes reading time Write your name here Surname Other names Edexcel IGCSE German Paper 1: Listening Centre Number Candidate Number Tuesday 10 May 2011 Afternoon Time: 30 minutes plus 5 minutes reading time You do not need

Mehr

Gliederung. Algorithmen und Datenstrukturen II. Problem: Längste gemeinsame Teilsequenz. Problem: Längste gemeinsame Teilsequenz

Gliederung. Algorithmen und Datenstrukturen II. Problem: Längste gemeinsame Teilsequenz. Problem: Längste gemeinsame Teilsequenz Gliederung Algorithmen und Datenstrukturen II Algorithmen zur Textverarbeitung II D. Rösner Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität Magdeburg

Mehr

=ZÄHLENWENN Zählt die nichtleeren Zellen eines Bereiches, deren Inhalte mit den Suchkriterien übereinstimmen

=ZÄHLENWENN Zählt die nichtleeren Zellen eines Bereiches, deren Inhalte mit den Suchkriterien übereinstimmen Excel Formel-Handbuch T. Korn 2011 =SUMME Gibt das Ergebnis einer Addition aus =SUMME(A1:A4) =SUMME(A1;A2;A4) : (Doppelpunkt) bedeutet bis bei zusammenhängenden Zellen ; (Semikolon) bedeutet und bei nicht

Mehr

herzberg social housing complex green living

herzberg social housing complex green living Vienna 2011 social housing complex green living Seite 1/9 Vienna 2011 social housing complex green living since summer 2011, the new residents of the Herzberg public housing project developed by AllesWirdGut

Mehr

German Section 33 - Online activitites

German Section 33 - Online activitites No. 01 Was kostet das? How much does that cost? sharer case No. 02 Drei gewinnt! Tic Tac Toe sharer case No. 03 der, die oder das? Which definite article? Das Heft ist grün. The is green. Der Radiergummi

Mehr

Grundwissen. 8. Jahrgangsstufe. Mathematik

Grundwissen. 8. Jahrgangsstufe. Mathematik Grundwissen 8. Jahrgangsstufe Mathematik Grundwissen Mathematik 8. Jahrgangsstufe Seite 1 1 Proportionalität 1.1 Direkte Proportionalität Eigenschaften: y Quotientengleichheit Bei kommt immer das Gleiche

Mehr

Einführung in Python. Gliederung

Einführung in Python. Gliederung Einführung in Python Stefan Dziwok Universität Paderborn 1. Februar 2007 Referenzen Python has been an important part of Google since the beginning, and remains so as the system grows and evolves. Today

Mehr

A study on computer-aided design of PIN-diode phase modulators at microwave frequencies

A study on computer-aided design of PIN-diode phase modulators at microwave frequencies Downloaded from orbit.dtu.dk on: Jul 08, 2016 A study on computer-aided design of PIN-diode phase modulators at microwave frequencies Schjær-Jacobsen, Hans Publication date: 1976 Document Version Publisher's

Mehr

BA63 Zeichensätze/ Character sets

BA63 Zeichensätze/ Character sets BA63 Zeichensätze/ Character sets Anhang/ Appendix We would like to know your opinion on this publication. Ihre Meinung/ Your opinion: Please send us a copy of this page if you have any contructive criticism.

Mehr

COMPUTER: Mission Berlin. November 9, 2006, ten twenty-five am. You have 90 minutes and 2 lives left, and someone seems to know you.

COMPUTER: Mission Berlin. November 9, 2006, ten twenty-five am. You have 90 minutes and 2 lives left, and someone seems to know you. Episode 06 Die Frau in Rot Anna stößt mit einer Frau zusammen, die behauptet, mit ihr im Jahr 1961 befreundet gewesen zu sein. Außerdem wird Anna von der Nachricht überrascht, dass ihr eine Frau in Rot

Mehr

Tagging von Online-Blogs

Tagging von Online-Blogs Tagging von Online-Blogs Gertrud Faaß (vertreten durch Josef Ruppenhofer) STTS tagset and tagging: special corpora 24. September 2012 Faaß MODEBLOGS 1 Korpuslinguistische studentische Projekte am IwiSt

Mehr

KURZANLEITUNG. Firmware-Upgrade: Wie geht das eigentlich?

KURZANLEITUNG. Firmware-Upgrade: Wie geht das eigentlich? KURZANLEITUNG Firmware-Upgrade: Wie geht das eigentlich? Die Firmware ist eine Software, die auf der IP-Kamera installiert ist und alle Funktionen des Gerätes steuert. Nach dem Firmware-Update stehen Ihnen

Mehr

Franke & Bornberg award AachenMünchener private annuity insurance schemes top grades

Franke & Bornberg award AachenMünchener private annuity insurance schemes top grades Franke & Bornberg award private annuity insurance schemes top grades Press Release, December 22, 2009 WUNSCHPOLICE STRATEGIE No. 1 gets best possible grade FFF ( Excellent ) WUNSCHPOLICE conventional annuity

Mehr

2 German sentence: write your English translation before looking at p. 3

2 German sentence: write your English translation before looking at p. 3 page Edward Martin, Institut für Anglistik, Universität Koblenz-Landau, Campus Koblenz 2 German sentence: write your English translation before looking at p. 3 3 German sentence analysed in colour coding;

Mehr

1 Potenzen und Polynome

1 Potenzen und Polynome 1 Potenzen und Polynome Für eine reelle Zahl x R und eine natürliche Zahl n N definieren wir x n := x x x... x }{{} n-mal Einschub über die bisher aufgetretenen mathematischen Symbole: Definition mittels

Mehr

Informationslogistik Unit 1: Introduction

Informationslogistik Unit 1: Introduction Informationslogistik Unit 1: Introduction 18. II. 2014 Eine Frage zum Einstieg Eine Frage Wie stellen Sie sich Ihren Arbeitsalltag als LogistikerIn vor? Eine Frage zum Einstieg Eine Frage Wie stellen Sie

Mehr

Matrizen, Determinanten, lineare Gleichungssysteme

Matrizen, Determinanten, lineare Gleichungssysteme Matrizen, Determinanten, lineare Gleichungssysteme 1 Matrizen Definition 1. Eine Matrix A vom Typ m n (oder eine m n Matrix, A R m n oder A C m n ) ist ein rechteckiges Zahlenschema mit m Zeilen und n

Mehr

Part-Of-Speech-Tagging mit Viterbi Algorithmus

Part-Of-Speech-Tagging mit Viterbi Algorithmus Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus

Mehr

In der SocialErasmus Woche unterstützen wir mit euch zusammen zahlreiche lokale Projekte in unserer Stadt! Sei ein Teil davon und hilf denen, die Hilfe brauchen! Vom 4.-10. Mai werden sich internationale

Mehr

C/C++ Programmierung

C/C++ Programmierung 1 C/C++ Programmierung Grundlagen: Anweisungen Sebastian Hack Christoph Mallon (hack mallon)@cs.uni-sb.de Fachbereich Informatik Universität des Saarlandes Wintersemester 2009/2010 2 Anweisungen (Statements)

Mehr

My Reading-Log. Eine Hilfe beim Lesen von englischen Ganzschriften in der Schule. Hinweise zur technischen Umsetzung:

My Reading-Log. Eine Hilfe beim Lesen von englischen Ganzschriften in der Schule. Hinweise zur technischen Umsetzung: Eine Hilfe beim Lesen von englischen Ganzschriften in der Schule Hinweise zur technischen Umsetzung: Die Tagebuch-Seiten werden in der vorgebenen Reihenfolge beidseitig auf A4 Papier gedruckt. Das vierte

Mehr