Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer

Größe: px
Ab Seite anzeigen:

Download "Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer"

Transkript

1 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachportale Tobias Scheffer

2 Motivation Es gibt, grob geschätzt: 1.15 Md Mrd. 15Mrd 1.5 Mrd. 668 Mio. Die wenigsten Computer verfügen über Bildschirm und Tastatur. Telefone einfacher zu benutzen, erreichen mehr Menschen. Sprache als Mensch-Maschine-Schnittstelle! 2

3 Motivation Ubiquitäre, allgegenwärtige Information. Fernbedienung mit einem Knopf, Location-based Services, Auch Grauen erregende Anwendungen vorstellbar: Joghurtbecher belehrt über wertvolle Inhaltsstoffe. Werbeplakate sprechen Passanten an. 3

4 Überblick Spachtechnologien: Spracherkennung, Spracherzeugung. Anwendungsentwicklung: SRGS, SSML, VoiceXML, Beispiel. Anwendungen. Forschung und weitere Entwicklung: woran hängt es? 4

5 Spracherkennung: Mathematisches Prinzip Komponenten: Akustisches und Sprachmodell. argmax: beste Posterior: wie wahrscheinlich Wortfolge. ist Wortfolge gegeben Signal? arg max arg max Bayes (Wortfolge) (Wortfolge) P (Wortfolge Signal) P(Signal Wortfolge) P(Wortfolge) Akustisches Modell Sprachmode ll Likelihood: wie gut passt Signal zu Wortfolge? Prior: wie wahrscheinlich ist Wortfolge generell? 5

6 Spracherkennung: Mathematisches Prinzip arg max arg max (Wortfolge) (Wortfolge) P (Wortfolge Signal) P(Signal Wortfolge) P(Wortfolge) Akustisches Modell Sprachmode ll Anpassung des Erkenners an neue Domäne: Sprachmodell aus Texten lernen. Durch (probabilistische) Grammatik spezifiziert. 6

7 Spracherkennung: Mathematisches Prinzip arg max arg max (Wortfolge) (Wortfolge) P (Wortfolge Signal) P(Signal Wortfolge) P(Wortfolge) Akustisches Modell Sprachmode ll Akustisches Modell: Aus annotierten Sprachproben trainiert. Phonemische Modelle: Signal Phone. Aussprachenetze: Phone Wörter. 7

8 Spracherkennung: Mathematisches Prinzip Dekodierung (Prozess der Spracherkennung): Suche im Raum der möglichen Wortfolgen. Suchalgorithmen, Viterbi Beam Search. arg max arg max (Wortfolge) (Wortfolge) P (Wortfolge Signal) P(Signal Wortfolge) P(Wortfolge) Akustisches Modell Sprachmode ll 8

9 Spracherkennung: Akustisches Modell Ganze Wörter: Erkennung weniger, isolierter Wörter (z.b. Ziffern). Keine Generalisierung unbekannter Wörter. Gemeinsame Phone in verschiedenen Wörtern. Silben: Gut für Japanisch (50 Silben), sonst schlecht (Englisch: Silben). Phon: Kleinste Einheit einer sprachlichen Äußerung. Phonem: Bedeutungsunterscheidende Einheit. 50 Phone im Englischen. Aber Aussprache kontextabhängig. 9

10 Spracherkennung: akustisches Modell Short-Time-Fourier-Transformation: Signal Sinus (Frequenz ) = Anteil am Signal. Zu jedem Zeitpunkt: Amplituden von ca. 24 Bändern. Dekorrelation, Reduktion: Cepstral-Attribute. Ergebnis: ca kontinuierliche Attribute. Zeitabhängige Überlagerung von Schwingungen X[ k] n X[ k] e 2 ink / N

11 Spracherkennung: Akustisches Modell Triphon-Klassenmodelle. Aussprache des Phons hängt von Nachbarphonen ab. b b und p p haben denselben Einfluss auf einen folgenden Vokal, ebenso r und w. Solche Kontexte werden zu Klassen zusammen gefasst um die Anzahl der Modellparameter zu reduzieren. Senone: Cluster von ähnlichen subphonetischen Einheiten, gemeinsame Modellparameter. 11

12 Spracherkennung: Akustisches Modell Hidden-Markov-Modell: Probabilistischer endlicher Automat. Probabilistische Zustandsübergänge ij. Jeder Zustand hat Emissionswahrscheinlichkeiten b i ( Ot ) Ein Phon/Senon wird durch Zustände repräsentiert. Struktur repräsentiert Aussprachevarianten. Meist lineare Struktur, aber Verkürzungen (Kanten, die Zustände überspringen). Aussprachevarianten. a ij 12

13 Spracherkennung: Hidden-Markov-Modell Folge der Zustände ist nicht sichtbar, nur die emittierten Beobachtungen (akustische Merkmale). Emissionswahrscheinlichkeiten als Mischung multivariater Gaußverteilungen modelliert. Zustand 1 P Zustand 1 P( x S ) b ( k ) N μ, Σ ( x ) ( t j k j k k t 10% 90% 1 Zustand 2 5% Zustand % 1% 15% 80% 4% 4% 1% Zustand 4 Zustand 5 P( q S q S ( t 1 j t i ) 13

14 Spracherkennung: Aussprachenetzwerke Abbildung von Phonen auf Wörter. Probabilistischer endlicher Automat. Transitionswahrscheinlichkeiten aus annotiertem Korpus schätzen. Scheffer: Sprachtec hnologie 14

15 Spracherkennung: Hidden-Markov-Modell Schätzung der Modellparameter: Aus annotierten Sprachdaten, mit Baum-Welch-Algorithmus Algorithmus, EM-Variante Variante. Finde arg max (Trainingsdaten Parameter ) P Scheffer: Sprachtec Wiederhole bis Konvergenz: Forward-Backward berechnet Berechne Schätze Schätze b Schätze t ( i, j) ( k ) ( i 1 i) ( k ) ij t t t t ( k ) i ( O) t ( i) t : O O t a (, i j) () i t ( i) t,, hnologie 15

16 Spracherkennung: Akustisches Modell Dekodierung des akustischen Modells: Finde Zustandsfolge gegeben akustisches Signal. n-best Viterbi-Algorithmus Algorithmus. n wahrscheinlichste Senone, Wörter. Aussprachenetz Senonische HMMs Zustand 1 10% 1 90% Zustand Zustand 4% 2 4 1% 1% 5% 15% 90% Zustand 3 4% Zustand 5 80% 1 Signal / Merkmale 16

17 Spracherkennung: Akustisches Modell Dekodierung des akustischen Modells: Finde Zustandsfolge gegeben akustisches Signal. n-best Viterbi-Algorithmus Algorithmus. n wahrscheinlichste Senone, Wörter. Aussprachenetz 1 Senonische HMMs Zustand 1 10% 90% Zustand Zustand 4% 2 4 1% 1% 5% 15% 90% Zustand 3 4% Zustand 5 80% 1 Signal / Merkmale 17

18 Spracherkennung: Sprachmodell Modellierung von P(Wortfolge) ) Wissen über Sprache: P( Ich pflücke Bären ) = sehr gering. P( Ich pflücke Beeren ) = schon größer. Häufig verwendete Sprachmodelle: N-Gramm-Modelle. Kontextfreie ee Grammatiken. a Probabilistische Kontextfreie Grammatiken. 18

19 Spracherkennung: Sprachmodell N-Gramm-Modell: P( Ich pflücke Bären) P(Ich) P(pflücke Ich) P(Bären Ich pflücke) Markov-Annahme n. Ordnung: Nur Abhängigkeiten zwischen bis zu n aufeinanderfolgenden Wörtern. Längere Abhängigkeiten werden ignoriert. Modellparameter: Für alle Wortkombinationen: P Wortn Wort Parameter werden aus Korpus geschätzt. ( 1,..., Wortn- 1) Häufig anwendungsspezifische Korpora (z.b. WSJ). 19

20 Spracherkennung: Sprachmodell Probabilistische, kontextfreie Grammatik. Jede Regel ist mit Wahrscheinlichkeit belegt. Schätzung der Parameter aus Baum-Bank Bank oder anwendungsbezogene Festlegung. Scheffer: Sprachtec hnologie j j ( p, q) P( w N, G) pq pq j j ( p, q) P( w1 ( p 1), N pq, w( q 1) m G) 20

21 Spracherkennung: Sprachmodell Probabilistische, kontextfreie Grammatik. Dekodierung: wahrscheinlichster Pars-Baum mit Viterbi-Algorithmus in O(n 3 ). Höchste Inside-Wahrscheinlichkeit für einen i Pars des Teilbaumes N pq : i ( p, q) i Initialisierung: i( p, p) P( N wp) Induktion: (, ) max,, ( i j k i p q q j k n p r q P N N N ) j( p, r) k( r 1, q) Bester Weg: (, ) arg max (,, ) ( i j k i p q j k r P N N N ) j( p, r) k( r 1, q) Parse-Baum rekonstruieren: wenn i ( p, q) ( j, k, r) dann sind links N j und rechts N k ( r 1) q im Baum. pr 21

22 Spracherkennung: Dekodierung Beam Search: Suche im Raum aller Wortfolgen. Speichere k beste Satzanfänge der Länge t. Akustisches Modell: n wahrscheinlichste nächste Wörter. Bestimme k beste Satzanfänge der Länge t+1. arg max arg max (Wortfolge) P(Wortfolge Signal ) (Wortfolge) P(Signal Wortfolge) P(Wortfolge) Akustisches Modell Sprachmodell 22

23 Überblick Sprachtechnologien: Spracherkennung, Spracherzeugung. Anwendungsentwicklung: SRGS, SSML, VoiceXML, Beispiel. Anwendungen. Forschung und weitere Entwicklung: woran hängt es? 23

24 Spracherzeugung: Textanalyse Vorverarbeitung: Expandieren von Abkürzungen. Expandieren von Zahlen, Sonderzeichen. Satzzeichen: Identifizieren von Sätzen, Satzenden. Morphologische Analyse: Morpheme, Silbengrenzen, Wortakzente. Morphemlexikon + Grammatik. Wortartenerkennung und syntaktische Analyse: Syntaxbaum, Phrasierung, Gliederung in prosodische Gruppen. 24

25 Spracherzeugung: Phonetisierung Abbildung Wörter Phone. Aussprachelexikon für Grundformen. Aussprache abhängig von Wortart und Syntax ( read / read ). Verwandt mit und ähnlich komplex wie Übersetzung. Lexika und Regeln verbreitet. Statistischer Ansatz: arg max Phonfolge P(Phonfolge Wortfolge) t P(Wortt Phonet, Kontext,Syntax) P(Phonfolge) 25

26 Spracherzeugung: Prosodiegenerierung Prosodische Information aus syntaktischen Gruppen. Prosodie aus Meta-Information (SSML). Modifikation von Tonhöhe, Geschwindigkeit. Scheffer: Sprachtec hnologie 26

27 Spracherzeugung: Signalerzeugung Konkatenation: Aussprache eines Phons hängt von Nachbarn ab. Alle Phone werden in der Mitte geteilt. Für jedes benachbarte Paar aus halben Phonen wird ein Sample aufgenommen. Scheffer: Sprachtec hnologie 27

28 Spracherzeugung: Signalerzeugung Formantsynthese: Formanten: Langsam variierende Frequenzbereiche, in denen bei Aussprache Energiegipfel gp auftreten. Modellbasierte Synthese des Signals. Artikulatorische Synthese: Simulation der Schallerzeugungsmechanik. Häufig konkatenative Systeme mit Wellenformmodifikation. Glattere Übergänge, natürlicherer Klang. 28

29 Überblick Sprachtechnologie: Spracherkennung, Text-to-Speech to Speech. Anwendungsentwicklung: SRGS, SSML, VoiceXML, Beispiel. Anwendungen. Forschung und weitere Entwicklung: woran hängt es? 29

30 Sprachportale Anwendungsentwicklung VoiceXML: Ablaufsteuerung SALT: Speech Application Language Tags SRGS: Speech N-GRAM: Stochastic ti SSML: Speech Recognition Language Models Synthesis Markup Grammar Specification Language Specification Spracherkennung Sprachtechnologie Spracherzeugung 30

31 Speech Recognition Grammar Specification Version 2.1 W3C Recommendation. Syntax für probabilistische, kontextfreie Grammatiken: Augmented BNF oder XML. Sprache und DTMF-Eingaben. Kernelemente: Regeldefinitionen, Regelexpansionen. 31

32 SRGS: Elemente Regeldefinition: Assoziiert Regel mit Bezeichner. <rule id = bestellung> [Regelexpansion] </rule> Scheffer: Sprachtechnologie 32

33 SRGS: Elemente Regeldefinition: Regelreferenz: Assoziiert Regel mit Bezeichner. Referenz auf Regel oder N-GRAM. VOID, NULL, GARBAGE. <rule id = bestellung> <ruleref uri = #begrüßung/> </rule> 33

34 SRGS: Elemente Regeldefinition: Regelreferenz: Assoziiert Regel mit Bezeichner. Referenz auf Regel oder N-GRAM. VOID, NULL, GARBAGE. <one-of> of> Alternativen: <item>caipirinha</item> <item>mojito</item> <item>zombie</item> </one-of> Akzeptiert jede der Varianten. 34

35 SRGS: Elemente <one-of> <item weight=10 >Caipirinha </item> <item weight=5>mojito</item> <item weight=1>b52</item> </one-of> f Regelreferenz: Referenz auf Regel oder N-GRAM. VOID, NULL, GARBAGE. Gewichtungen: Alternativen: In Wahrscheinlichkeiten umzurechnen. PCFG. Akzeptiert jede der Varianten. 35

36 N-GRAM: Stochastic Language Models W3C Working Draft. Syntaktisches Schema zur Repräsentation von Wörterbüchern, Zählern für Auftretenshäufigkeit von N-Grammen. Elemente <lexicon> Lexikondeklaration, <token> Tokendeklaration, a o <tree> Zähler für Auftretenshäufigkeiten, <interpolation> Lineare Interpolationsgewichte, 36

37 SSML: Speech Synthesis Markup Version 2.1 W3C Recommendation. Markup-Konventionen für Stufen der Spracherzeugung. ACSS: Aural Cascading Style Sheets. Komplexe Markup-Definitionen, Auswahl von Sprechern e für Markup-Tags, ags, Räumliche Anordnung der Schallquellen. 37

38 SSML: Elemente Normierung (Expansion von Abkürzungen, Währungen: <say-as>- und <sub>-elemente. <p>- und <s>-elemente (Absatz, Satz). Konvertierung Text Phonem: <phoneme>-element. Beschreibung im IPA-Alphabet. Prosodie-Analyse: <emphasis>-, <break>- und <prosody>-elemente. Signalerzeugung: g g <voice>-element, Stimm-Auswahl. Attribute gender, age, variant, name. 38

39 VoiceXML Version 2.0 W3C Recommendation. VoiceXML Forum: Intel, AT&T, HP, Oracle, TellMe, IBM, Motorola, Ziele: Trennung von Awendung und Sprachtechnologie. Elemente: Dialogsteuerung, Spracherkennung und Synthese, DTMF, Aufzeichnung und Wiedergabe. <vxml version="2.0"> <form> <block> <prompt> Hello world! </prompt> </block> </form> </vxml> 39

40 VoiceXML: Konzepte Dialoge und Subdialoge: Menüs: Verzweigungspunkte. Forms: ausfüllbare Formulare. Events: Behandlung von Ausnahmesituationen. Links: Grammatik, die in einem Gültigkeitsbereichaktiv ist. Löst Event aus oder verweist e auf Ziel-URI. Prozedurale Elemente: <var>, <assign>, <goto>, <if> <else/> </if>. <objekt>: Aufruf eines plattformabhängigen Objekts. 40

41 VoiceXML: Erzeugung von Dokumenten VoiceXML-Dokument wird meist generiert, genau wie HTML, z.b. mit XSLT aus XML-Beschreibung der Inhalte. <cocktailkarte> <cocktail> <name>caipirinha</name> <beschr>nationalgetränk Brasiliens</beschr> </cocktail> </cocktailkarte> <voice gender=male>caipirinha </voice> <voice gender=female> Nationalgetränk Brasiliens</voice> <xsl:template match= cocktailkarte > Cocktailkarte <xsl:template match= cocktail > <voice gender = male> <xsl:value-of select= name /> </voice> <p/> <voice gender = female> <xsl:value-of select= beschr /> </voice> </xsl:template> </xsl:template> 41

42 VoiceXML Elemente: Forms <form>: Formular; <field>: auszufüllendes Feld. Attribute und Methoden: Bezeichner, dient später als Referenz. Mit Eingabe zu belegende Variablen, Scope: lokal für Dialog oder global, Event-Handler, Aktionen wie Rufweiterleitung. Bedingungen g für Felder. 42

43 VoiceXML Elemente: Forms Interpretation: Solange nicht jedes <field> aufgefüllt, wähle <field>, lies <prompt>, warte auf Eingabe. <form id=bestellung> <block>sie können jetzt bestellen.</block> <field name= getränk > <prompt>was möchten Sie trinken? </prompt> <grammar src= cocktail.grxml cocktail grxml type= application/srgs+xml application/srgs+xml /> /> </field> </form> 43

44 VoiceXML Forms: Mixed Initiative <initial>, initiales Element: Prompt bei erster Iteration über Form. Benutzer kann ein oder gleich mehrere Felder füllen. Interpreter spielt danach Prompt des ersten jetzt noch freien Feldes ab. > Wohin dürfen wir den Cocktail liefern? Bitte in die Rudower Chaussee 25, mein Name ist Scheffer. > Wie lautet Ihre Postleitzahl? 44

45 Scheffer: Sprachtechnologie 45 VoiceXML - Beispiel

46 SALT: Speech Application Language Tags Erweiterung von HTML um sprach-orientierte Tags. Sprachsteuerung von Browsern. Multimodale Browser. Basiert auf SRGS und SSML. Microsoft Speech Server. OpenSALT. 46

47 Überblick Unter der Haube: Spracherkennung, Text-to-Speech to Speech. Anwendungsentwicklung: SRGS, SSML, VoiceXML, Beispiel. Anwendungen. Forschung und weitere Entwicklung: woran hängt es? 47

48 Sprachportale: Anwendungen Bankgeschäfte: Statusabfragen, Aufträge, Wertpapierhandel. Scheffer: Sprachtec hnologie 48

49 Sprachportale: Anwendungen Bankgeschäfte: Wirtschaft und Statusabfragen, Handel: Aufträge, Versandhandel, Wertpapierhandel. Bestellungen. Scheffer: Sprachtec hnologie 49

50 Sprachportale: Anwendungen Bankgeschäfte: Wirtschaft und Statusabfragen, Handel: Aufträge, Versandhandel, Wertpapierhandel. Bestellungen. Information Retrieval: Wetterauskunft, Telefonauskunft, Kino, Sport. 50

51 Sprachportale: Anwendungen Wirtschaft und Handel: Versandhandel, Bestellungen. Unified Messaging: Information Retrieval: Vorlesen von SMS, Wetterauskunft, -Portale Portale, Telefonauskunft, Voice-Office. Kino, Sport. 51

52 Überblick Unter der Haube: Spracherkennung, Text-to-Speech to Speech. Anwendungsentwicklung: SRGS, SSML, VoiceXML, Beispiel. Anwendungen. Forschung und weitere Entwicklung: woran hängt es? 52

53 Woran hängt es? Spracherkennung ist eine Schwachstelle: Benutzerspezifisch oder Thematisch fokussiert. Mensch gegen Maschine Mensch Maschine WSJ 0.90% 4.50% WSJ, verrauscht 1.10% 10% 8.60% WSJ, Trigramm-Texte 7.60% 4.40% Perfektes Sprachmodell: Spracherkenner schlagen Sekretärinnen! [Huang et al., 2001]. Argument: Brauchen bessere Sprachmodelle. 53

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachportale. Tobias Scheffer Christoph Sawade

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachportale. Tobias Scheffer Christoph Sawade Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachportale Tobias Scheffer Christoph Sawade Motivation Es gibt, grob geschätzt: 1.15 Mrd. 1.5 Mrd. 668 Mio. Die wenigsten Computer

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachportale Tobias Scheffer Motivation Es gibt, grob geschätzt: 1.15 Md Mrd. 15Mrd 1.5 Mrd. 668 Mio. Die wenigsten Computer verfügen

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Statistische Sprachmodelle

Statistische Sprachmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Paul Prasse Michael Großhans Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. 6 Leistungspunkte

Mehr

VoiceXML. Julian H. Knocke. 29. Januar Universität Hamburg

VoiceXML. Julian H. Knocke. 29. Januar Universität Hamburg VoiceXML Julian H. Knocke Universität Hamburg 29. Januar 2007 Übersicht 1 Geschichte 2 Anwendungsgebiete 3 Aufbau eines Telefonates mit VoiceXML 4 Konzept 5 Quelltextbeispiele Julian H. Knocke (Universität

Mehr

Maschinelle Sprachverarbeitung: N-Gramm-Modelle

Maschinelle Sprachverarbeitung: N-Gramm-Modelle HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind

Mehr

Spracherkennung und Sprachsynthese

Spracherkennung und Sprachsynthese Spracherkennung und Sprachsynthese Einführung in die Computerlinguistik Sommersemester 2012 Peter Kolb Spracherkennung / -synthese Spracherkennung (automatic speech recognition, ASR) Sprachsynthese (text-to-speech,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer, Tom Vanck, Paul Prasse Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Termin: Montags,

Mehr

Active Hidden Markov Models for Information Extraction

Active Hidden Markov Models for Information Extraction HMMs in der IE p.1/28 Active Hidden Markov Models for Information Extraction Seminar Informationsextraktion im WiSe 2002/2003 Madeleine Theile HMMs in der IE p.2/28 Inhaltsübersicht Ziel formalere Aufgabenbeschreibung

Mehr

Sprachsynthese mit Mary. Simon Schmiedel Proseminar Tools für Computerlinguisten

Sprachsynthese mit Mary. Simon Schmiedel Proseminar Tools für Computerlinguisten Sprachsynthese mit Mary Proseminar Tools für Computerlinguisten Was ist Sprachsynthese? künstliche Erzeugung der menschlichen Sprache 2 Sprachsynthese Symbolische Repräsentation Sprachsynthese Akustische

Mehr

Maschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken

Maschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken Tobias Scheffer Ulf Brefeld Sprachmodelle N-Gramm-Modell:

Mehr

Sprachsynthese und SSML

Sprachsynthese und SSML Sprachsynthese und SSML HS Dialogsysteme und VoiceXML, 11. Januar 2005 Dozenten: Prof. Klaus Schulz, Christoph Ringlstetter Referentin: Joanna Rymarska Übersicht Was bedeutet Sprachsynthese? Ihre Rolle

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung

Mehr

Entwicklung von Sprachdialogsystem mit Voice-XML

Entwicklung von Sprachdialogsystem mit Voice-XML Projekt Sprachdialogsysteme SoSe 2006 Entwicklung von Sprachdialogsystem mit Voice-XML Cristina Vertan, Walther v. Hahn Was ist Voice-XML? Voice-XML ist eine XML-basierte Dialog-Markup-Sprache, Sie verbindet

Mehr

Speech Synthesis Markup Language (SSML)

Speech Synthesis Markup Language (SSML) Speech Synthesis Markup Language (SSML) 2 / 33 Was ist SSML? o XML-basiert o Auszeichnungssprache o Erweitert um Befehle für Sprachausgabe Stimme Sprachgeschwindigkeit Lautstärke Rhythmus... 3 / 33 Motivation

Mehr

Spracherkennung Hauptseminar Interaktion von Mensch und Roboter

Spracherkennung Hauptseminar Interaktion von Mensch und Roboter Spracherkennung Hauptseminar Interaktion von Mensch und Roboter Vladislav Lazarov lazarov@in.tum.de Was ist Spracherkennung? Was ist (automatische) Spracherkennung? Identifikation und Analyse gesprochener

Mehr

Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging

Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging Tobias Scheffer Ulf Brefeld POS-Tagging Zuordnung der Wortart von

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte

Mehr

HMM-Synthese (Grundzüge)

HMM-Synthese (Grundzüge) (Grundzüge) Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München reichelu@phonetik.uni-muenchen.de 6. Dezember 2010 Inhalt HMM-Grundlagen HMM und Phonemerkennung HMM-Grundlagen

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank Wortdekodierung Vorlesungsunterlagen Speech Communication 2, SS 2004 Franz Pernkopf/Erhard Rank Institute of Signal Processing and Speech Communication University of Technology Graz Inffeldgasse 16c, 8010

Mehr

Sprachdialogsysteme Arbeitsblatt inge - ines Grammatik Editor

Sprachdialogsysteme Arbeitsblatt inge - ines Grammatik Editor Aufgabe 1) Ausprobieren eines Sprachdialoges mit natürlich gesprochener Sprache Starte ines und öffne die Datei flugbuchung.ines. Sie befindet sich im Verzeichnis C:\Programme\inES\Aufgaben\inGE\Deutsch.

Mehr

Probabilistische kontextfreie Grammatiken

Probabilistische kontextfreie Grammatiken Mathematische Grundlagen III Probabilistische kontextfreie Grammatiken 14 Juni 2011 1/26 Ambiguität beim Parsing Wörter können verschiedene Bedeutungen haben und mehr als einer Wortkategorien angehören

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle (Vorabversion begleitend zur Vorlesung Spracherkennung und integrierte Dialogsysteme am Lehrstuhl Medieninformatik am Inst. f. Informatik der LMU München, Sommer 2005) Prof. Marcus

Mehr

Sprachsynthese und Spracherkennung

Sprachsynthese und Spracherkennung 90 Sprachsynthese und Spracherkennung von John N. Holmes Mit 51 Bildern und 69 Übungen mit Lösungshinweisen R. Oldenbourg Verlag München Wien 1991 INHALT Vorwort 11 1 Lautsprachliche Kommunikation 15 1.1

Mehr

Aristech Documentation

Aristech Documentation SSML SSML ist eine Markup-Sprache die vom World Wide Web Consortium (W3C) entwickelt wurde und als Subset von VoiceXML (VXMl) zu den XML-basierten Markup-Sprachen gehört. Mit SSML können Text-Passagen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Christoph Sawade Heute: Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz:

Mehr

xii Inhaltsverzeichnis Generalisierung Typisierte Merkmalsstrukturen Literaturhinweis

xii Inhaltsverzeichnis Generalisierung Typisierte Merkmalsstrukturen Literaturhinweis Inhaltsverzeichnis 1 Computerlinguistik Was ist das? 1 1.1 Aspekte der Computerlinguistik.................. 1 1.1.1 Computerlinguistik: Die Wissenschaft........... 2 1.1.2 Computerlinguistik und ihre Nachbardisziplinen.....

Mehr

Dialogsysteme und VoiceXML Christoph Ringlstetter/Prof. Klaus U. Schulz Seminar im WS 2004/05

Dialogsysteme und VoiceXML Christoph Ringlstetter/Prof. Klaus U. Schulz Seminar im WS 2004/05 Dialogsysteme und VoiceXML Christoph Ringlstetter/Prof. Klaus U. Schulz Seminar im WS 2004/05 Aufgabe 7.1 Im zu erstellenden Programm soll es möglich sein, dass der Benutzer in einer Äußerung gleichzeitig

Mehr

Inhaltsverzeichnis. Bibliografische Informationen digitalisiert durch

Inhaltsverzeichnis. Bibliografische Informationen  digitalisiert durch Inhaltsverzeichnis 1 Computerlinguistik - Was ist das? 1 1.1 Aspekte der Computerlinguistik 1 1.1.1 Computer linguistik: Die Wissenschaft 2 1.1.2 Computerlinguistik und ihre Nachbardisziplinen 3 1.1.3

Mehr

Spracherkennung. Gliederung:

Spracherkennung. Gliederung: Spracherkennung Gliederung: - Einführung - Geschichte - Spracherkennung - Einteilungen - Aufbau und Funktion - Hidden Markov Modelle (HMM) - HMM bei der Spracherkennung - Probleme - Einsatzgebiete und

Mehr

VoiceXML 3.0. Jan Pit Wagner Fachbereich Informatik Seminar Moderne Webtechnologien 25. November 2009

VoiceXML 3.0. Jan Pit Wagner Fachbereich Informatik Seminar Moderne Webtechnologien 25. November 2009 VoiceXML 3.0 Jan Pit Wagner Fachbereich Informatik Seminar Moderne Webtechnologien 25. November 2009 Zielsetzungen dieses Vortrages VoiceXML vorstellen. Zeigen, dass VoiceXML einfach ist. Für den Einsatz

Mehr

Elementare Wahrscheinlichkeitslehre

Elementare Wahrscheinlichkeitslehre Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?

Mehr

Sprachdialogsystem mit robuster automatischer Spracherkennung

Sprachdialogsystem mit robuster automatischer Spracherkennung Sprachdialogsystem mit robuster automatischer Spracherkennung Hans-Günter Hirsch Hochschule Niederrhein Fachbereich Elektrotechnik und Informatik Digitale Nachrichtentechnik http://dnt.kr.hs-niederrhein.de

Mehr

Der VITERBI-Algorithmus

Der VITERBI-Algorithmus Der VITERBI-Algorithmus Hauptseminar Parsing Sommersemester 2002 Lehrstuhl für Computerlinguistik Universität Heidelberg Thorsten Beinhorn http://janus.cl.uni-heidelberg.de/~beinhorn 2 Inhalt Ziel des

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

Äquivokationen. In der Spracherkennung. Michael Baumann Seminar (mit Bachelorarbeit)

Äquivokationen. In der Spracherkennung. Michael Baumann Seminar (mit Bachelorarbeit) Äquivokationen In der Spracherkennung Michael Baumann 532 0225336 michael.baumann@student.tuwien.ac.at Seminar (mit Bachelorarbeit) Inhalt Einführung Äquivokation, Ambiguität, Prosodie Signale Beispiele:

Mehr

Prof. Dr. Marcus Spies Institut f. Informatik LMU München

Prof. Dr. Marcus Spies Institut f. Informatik LMU München Planung für die Vorlesung Spracherkennung und integrierte Dialoganwendungen Sommersemester 2005 am Lehrstuhl Medieninformatik des Institut für Informatik der LMU München Prof. Dr. Marcus Spies Institut

Mehr

Kommunikation mit gesprochener Sprache...

Kommunikation mit gesprochener Sprache... Kommunikation mit gesprochener Sprache...... ist mehr als Hören und Sprechen: Mensch-Maschine-Kommunikation mit gesprochener Sprache 1 Kommunikation mit gesprochener Sprache...... ist mehr als Hören und

Mehr

Hidden Markov Models (HMM)

Hidden Markov Models (HMM) Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen

Mehr

Sprachsynthese - ein Überblick

Sprachsynthese - ein Überblick Sprachsynthese - ein Überblick Florian Schiel Florian F Schiel: Sprachsynthese - Übersicht WS 05/06 1 Definition: Produktion von Sprache mit technischen Mitteln Gegensatz: Synthese vs. Wiedergabe (Übergang

Mehr

Viterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes

Viterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes Viterbi Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus von Arndt Faulhaber und Benjamin Schlebes Seminar: Endliche Automaten für die Sprachverarbeitung SS 2005 PD Dr. K. Haenelt 1/28

Mehr

Hidden Markov Models in Anwendungen

Hidden Markov Models in Anwendungen Hidden Markov Models in Anwendungen Prof Dr. Matthew Crocker Universität des Saarlandes 18. Juni 2015 Matthew Crocker (UdS) HMM Anwendungen 18. Juni 2015 1 / 26 Hidden Markov Modelle in der Computerlinguistik

Mehr

Statistische Sprachmodelle

Statistische Sprachmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle obias Scheffer Paul Prasse Michael Großhans Uwe Dick Statistische Sprachmodelle Welche Sätze sind Elemente

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

LR Parsing. Prinzip: Entwicklung des Parsebaums bottom up, von links nach rechts (Abb. 2.52)

LR Parsing. Prinzip: Entwicklung des Parsebaums bottom up, von links nach rechts (Abb. 2.52) LR Parsing Prinzip: Entwicklung des Parsebaums bottom up, von links nach rechts (Abb. 2.52) Parserkonfiguration: s 0 X 1 s 1... X m s m, t i t i 1... t n 1.Stack: enthält abwechselnd Zustand sk und Grammatiksymbol

Mehr

Automatische Spracherkennung

Automatische Spracherkennung Ernst Günter Schukat-Talamazzini Automatische Spracherkennung Grundlagen, statistische Modelle und effiziente Algorithmen Technische Universität Darmetadt FACHBEREICH INFORMATIK BIBLIOTHEK MH Invsntar-Nr.:

Mehr

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008 Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation

Mehr

Hidden Markov Models in Anwendungen

Hidden Markov Models in Anwendungen Hidden Markov Models in Anwendungen Dr. Vera Demberg Universität des Saarlandes 31. Mai 2012 Vera Demberg (UdS) HMM Anwendungen 31. Mai 2012 1 / 26 Hidden Markov Modelle in der Computerlinguistik Table

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de 5. Mai 2017 Human Language Technology and Pattern Recognition Lehrstuhl

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

10 VoiceXML. Manuel Burghardt Lehrstuhl für Medieninformatik

10 VoiceXML. Manuel Burghardt Lehrstuhl für Medieninformatik Markup Sprachen 10 VoiceXML Manuel Burghardt VoiceXML Geschichte 1994: Nuance und Speechworks sind zwei Unternehmen die schonfrühnatürlichsprachliche natürlichsprachliche Dialogsysteme entwickelten (Weitere:

Mehr

Kapitel 2: Spracherkennung Automatisches Verstehen gesprochener Sprache

Kapitel 2: Spracherkennung Automatisches Verstehen gesprochener Sprache Automatisches Verstehen gesprochener Sprache. Spracherkennung Martin Hacker Bernd Ludwig Günther Görz Professur für Künstliche Intelligenz Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten

Mehr

Einführung in die Computerlinguistik: Gesprochene Sprache. Dr. Marc Schröder, DFKI

Einführung in die Computerlinguistik: Gesprochene Sprache. Dr. Marc Schröder, DFKI Einführung in die Computerlinguistik: Gesprochene Sprache Dr. Marc Schröder, DFKI schroed@dfki.de Kurs-Homepage: http://www.coli.uni-saarland.de/~hansu/courses/ec07/index.html Überblick Eigenschaften gesprochener

Mehr

Einführung in die Spracherkennung & Sprachsynthese. Lucia D. Krisnawati

Einführung in die Spracherkennung & Sprachsynthese. Lucia D. Krisnawati Einführung in die Spracherkennung & Sprachsynthese Lucia D. Krisnawati Vorlesungsinhalt Spracherkennung: Einleitung Die Architektur der Spracherkennung Die Spracherkennungskomponente Sie Anwendungen &

Mehr

.NET Speech API. Seminar Objektorientiertes Programmieren mit.net und C# Alexander Schubert

.NET Speech API. Seminar Objektorientiertes Programmieren mit.net und C# Alexander Schubert .NET Speech API Seminar Objektorientiertes Programmieren mit.net und C# Alexander Schubert Institut für Informatik Software & Systems Engineering 24.01.2013 Agenda Überblick über die Microsoft Speech APIs

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Tagging mit Hidden Markov Models und Viterbi-Algorithmus

Tagging mit Hidden Markov Models und Viterbi-Algorithmus Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion

Mehr

Einführung in XML. Arthur Brack FHDW Hannover. 1. Oktober 2009

Einführung in XML. Arthur Brack FHDW Hannover. 1. Oktober 2009 Einführung in XML Arthur Brack FHDW Hannover Inhalt Was ist XML? Warum XML? Aufbau von XML-Dokumenten Ausblick XML-Schemasprachen XPath XSLT Zusammenfassung Literatur Einführung in XML 2 / 14 Was ist XML?

Mehr

Programmierkurs Python II

Programmierkurs Python II Programmierkurs Python II Michaela Regneri & tefan Thater FR 4.7 Allgemeine Linguistik (Computerlinguistik) Universität des aarlandes ommersemester 2010 (Charniak, 1997) the dog biscuits N V N V the dog

Mehr

Proseminar, wozu? Proseminar, wozu? Proseminar, wozu? Verarbeitung gesprochener Sprache

Proseminar, wozu? Proseminar, wozu? Proseminar, wozu? Verarbeitung gesprochener Sprache Proseminar, wozu? Verarbeitung gesprochener Sprache Proseminar Wolfgang Menzel menzel@informatik.uni-hamburg.de Arbeitsbereich Natürlichsprachliche Systeme Fachbereich Informatik Universität Hamburg Proseminare

Mehr

6.5 Statistische Spracherkennung

6.5 Statistische Spracherkennung 6.5 Statistische Spracherkennung 6.5.1 Spracherkennung mit MAP Regel MAP Regel (Maximum-a-posteriori-Regel Wˆ = argmax W V * P( W X) optimale Wortfolge Wˆ = w w K w i V 1 2 w K Wortfolge Merkmalssequenz

Mehr

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014 idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme

Mehr

Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16

Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16 Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16 AGENDA Grundlegendes Sprache Anwendungsbeispiele Schwierigkeit Architektur Spracherkennungssystem Hidden Markov Modell Verbesserung durch Kombination mit

Mehr

Zeitreihenanalyse mit Hidden Markov Modellen

Zeitreihenanalyse mit Hidden Markov Modellen Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials VL PLT2

Mehr

Probabilistic Context Free Grammars, Part II

Probabilistic Context Free Grammars, Part II Probabilistic Context Free Grammars, Part II Prof Dr. Matthew Crocker Universität des Saarlandes 16. Juli 2015 Matthew Crocker (UdS) PCFG II 16. Juli 2015 1 / 25 Themen heute: 1 Wiederholung: PCFG 2 Formeln

Mehr

Probabilistische kontextfreie Grammatiken

Probabilistische kontextfreie Grammatiken Probabilistische kontextfreie Grammatiken Vorlesung Computerlinguistische Techniken Alexander Koller 08. Dezember 2015 Let s play a game Ich gebe Ihnen ein Nichtterminalsymbol. S, NP, VP, PP, oder POS-Tag

Mehr

Projekt Sprachdialogsysteme SoSe 2006. Voice XML - Teil II. Cristina Vertan, Walther v. Hahn

Projekt Sprachdialogsysteme SoSe 2006. Voice XML - Teil II. Cristina Vertan, Walther v. Hahn Projekt Sprachdialogsysteme SoSe 2006 Voice XML - Teil II Cristina Vertan, Walther v. Hahn Implizite Verifizierung den Benutzereingaben welcome to Courses Details

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Einführung Laura Kallmeyer Heinrich-Heine-Universität Düsseldorf Summer 2018 1 / 14 Anwendungen der Computerlinguistik Carstensen et al. (2010); Jurafsky and Martin

Mehr

Praktikum Softwareanalyse und -transformation

Praktikum Softwareanalyse und -transformation Praktikum Softwareanalyse und -transformation Thilo Mende Universität Bremen Fachbereich 3 Mathematik und Informatik Arbeitsgruppe Softwaretechnik http://www.informatik.uni-bremen/st Sommersemester 2009

Mehr

Einführung Computerlinguistik. Konstituentensyntax II

Einführung Computerlinguistik. Konstituentensyntax II Einführung Computerlinguistik Konstituentensyntax II Hinrich Schütze & Robert Zangenfeind Centrum für Informations- und Sprachverarbeitung, LMU München 2013-11-18 1 / 31 Take-away Phrasenstrukturgrammatik:

Mehr

Lexikalische Programmanalyse der Scanner

Lexikalische Programmanalyse der Scanner Der Scanner führt die lexikalische Analyse des Programms durch Er sammelt (scanned) Zeichen für Zeichen und baut logisch zusammengehörige Zeichenketten (Tokens) aus diesen Zeichen Zur formalen Beschreibung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen Universität Potsdam Institut für Informatik Lehrstuhl Niels Landwehr, Silvia Makowski, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Di 10:00-11:30

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 216 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Aufgabe

Mehr

Planung von Handlungen bei unsicherer Information

Planung von Handlungen bei unsicherer Information Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 20.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER)

Mehr

11. Rekursion. 1, falls n 1. n (n 1)!, andernfalls. Mathematische Rekursion. Rekursion in Java: Genauso! Unendliche Rekursion. n!

11. Rekursion. 1, falls n 1. n (n 1)!, andernfalls. Mathematische Rekursion. Rekursion in Java: Genauso! Unendliche Rekursion. n! Mathematische Rekursion 11. Rekursion Mathematische Rekursion, Terminierung, der Aufrufstapel, Beispiele, Rekursion vs. Iteration, Lindenmayer Systeme Viele mathematische Funktionen sind sehr natürlich

Mehr

Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur

Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Crocker/Demberg/Staudte Sommersemester 2014 17.07.2014 1. Sie haben 90 Minuten Zeit zur Bearbeitung der Aufgaben.

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Peter Haider Uwe Dick Paul Prasse

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Peter Haider Uwe Dick Paul Prasse Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Peter Haider Uwe Dick Paul Prasse NLP-Pipeline Folge von Verarbeitungsschritten für Informationsextraktion,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

12. Rekursion. 1, falls n 1. n (n 1)!, andernfalls. Lernziele. Mathematische Rekursion. Rekursion in Java: Genauso! n! =

12. Rekursion. 1, falls n 1. n (n 1)!, andernfalls. Lernziele. Mathematische Rekursion. Rekursion in Java: Genauso! n! = Lernziele Sie verstehen, wie eine Lösung eines rekursives Problems in Java umgesetzt werden kann. Sie wissen, wie Methoden in einem Aufrufstapel abgearbeitet werden. 12. Rekursion Mathematische Rekursion,

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

HMMs und der Viterbi-Algorithmus

HMMs und der Viterbi-Algorithmus July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,

Mehr

Digitale Verarbeitung von natürlicher Sprache

Digitale Verarbeitung von natürlicher Sprache PS Einführung in die Computerlinguistik bzw. SE aus Artificial Intelligence Digitale Verarbeitung von natürlicher Sprache MMag. Gudrun Kellner Ein Sprachsignal 2 Beobachtungen am Sprachsignal 1 Sprachsignale

Mehr

Zuerst wird die Bedingung ausgewertet. Ist sie erfüllt, wird der Rumpf des while-statements ausgeführt. Nach Ausführung des Rumpfs wird das gesamte

Zuerst wird die Bedingung ausgewertet. Ist sie erfüllt, wird der Rumpf des while-statements ausgeführt. Nach Ausführung des Rumpfs wird das gesamte Zuerst wird die Bedingung ausgewertet. Ist sie erfüllt, wird der Rumpf des while-statements ausgeführt. Nach Ausführung des Rumpfs wird das gesamte while-statement erneut ausgeführt. Ist die Bedingung

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2011 / 2012 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Paul Prasse Michael Großhans

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. NLP-Pipeline. Tobias Scheffer Paul Prasse Michael Großhans Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen NLP-Pipeline Tobias Scheffer Paul Prasse Michael Großhans NLP- (Natural Language Processing-) Pipeline Folge von Verarbeitungsschritten

Mehr

3. Vorlesung: Endliche Automaten Markus Kr otzsch Lehrstuhl Wissensbasierte Systeme

3. Vorlesung: Endliche Automaten Markus Kr otzsch Lehrstuhl Wissensbasierte Systeme Wiederholung Mit Grammatiken können wir Sprachen beschreiben und sie grob in Typen unterteilen: FORMALE SYSTEME 3. Vorlesung: Endliche Automaten Markus Krötzsch Lehrstuhl Wissensbasierte Systeme Formale

Mehr

Einführung in die automatische Spracherkennung

Einführung in die automatische Spracherkennung Einführung in die automatische Spracherkennung Klausur 30.07.2008 Name:... Vorname:... Matr.-Nr:... Studiengang:... Hinweise: 1. Schreiben Sie bitte auf jedes Zusatz-Blatt Ihren Namen und Ihre Matrikelnummer.

Mehr

1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 -

1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen - 1 - 1. Der Begriff Informatik 2. Syntax und Semantik von Programmiersprachen I.2. I.2. Grundlagen von von Programmiersprachen. - 1 - 1. Der Begriff Informatik "Informatik" = Kunstwort aus Information und Mathematik

Mehr