Spracherkennung Hauptseminar Interaktion von Mensch und Roboter

Größe: px
Ab Seite anzeigen:

Download "Spracherkennung Hauptseminar Interaktion von Mensch und Roboter"

Transkript

1 Spracherkennung Hauptseminar Interaktion von Mensch und Roboter Vladislav Lazarov

2 Was ist Spracherkennung?

3 Was ist (automatische) Spracherkennung? Identifikation und Analyse gesprochener Sprache aus gesprochene Äußerung unbekannten Inhaltes die Wörter zu Rekonstruieren Digitalisierung eines analoges Sprachsignals Benutzung verschiedener Algorithmen/Verfahren

4 Einsatzgebiete Quelle: Automatische Spracherkennung von Schukat-Talamazinni

5 Einsatzgebiete Sprachdialogsysteme (Telefonische Auskunft) Diktierfunktionen Steuerung von Geräten Automatisierte Datenerfassung (Call centers) Medizinische Unerstützung bei Krankheiten Spiele / Entertainment Suche in Audioarchiven Maschinelles Dolmetschen Sprecheridentifikation und -verifikation Vladislav.Lazarov@in.tum.de 5

6 Probleme bei Spracherkennung Kontinuierität der Äußerungen Großer Wortschatz, Kombinatorik der Satzbildung Störquellen (Umgebungsgeräusche) Sprechweise (Tempo, Emotion, Aussprache, Artikulationsdruck)

7 Probleme bei Spracherkennung individuelle Sprechermerkmale (Alter, Geschlecht, Gesundheitszustand, etc.) habituelle Sprechermerkmale (Dialekt, nicht native Sprache) Homophone (Meer / Mehr) Vladislav.Lazarov@in.tum.de 7

8 Anforderungen Robustheit Sprecherunabhängigkeit Akustische Variabilität Unterschiede in der Sprechweise Identifizierung von Mehrdeutigkeit (Homophone, Wortgrenzen, syntaktische Mehrdeutigkeit, etc.) Echtzeitverhalten

9 Voraussetzungen für automatische Spracherkennung

10 Gesprochene Sprache Erzeugung eines Sprachschalls durch eine folge von artikulatorische Bewegungen Bandpasssignal (Hauptspekralanteile im Frequenzbereich von ca Hz) Phoneme kleinste bedeutungsunterscheidende Lauteinheit

11 Gesprochene Sprache Silbe: kleinste Lautgruppe im natürlichen Sprechfluss, phonetische Einheit Intonation: Akzentuierung sprachlicher Einheiten zum Zweck der Wortunterscheidung Ausspracheverschleifung: Reduktionskette von der Standardaussprache

12 Spracherkennungsarten einzelne Wörter Gleichwahrscheinlichkeit der Wörter Sprachsteuerung kontinuierliche Sprache Wahrscheinlichkeitstheoretische Ansätze Diktiersysteme spontan gesprochene Sprache Höchste Komplexität

13 Allgemeiner Prozeß Quelle: Automatische Spracherkennung von Schukat-Talamazinni

14 Vorverarbeitung

15 Vorverarbeitung Quelle: Automatische Spracherkennung von Schukat-Talamazinni

16 Abtastung und Quantisierung Aufzeichnung des Sprachsignals (z.b. mittels Mikrofon) Überführung des kontinuierlichen Signals in diskrete Wertefolge Informationsverlust möglich wg. geringe Abtastrate oder Verzerrungen

17 Abtastung und Quantisierung Quelle: Dissertation von Daniel Willett

18 Merkmalgewinnung Quelle: Automatische Spracherkennung von Schukat-Talamazinni

19 Merkmalgewinnung Extraktion einer diskreten zeitlichen Folge von Merkmalsvektoren x(m) digitale Repräsentation des Sprachschalls Reduktion der Datenmenge Erhaltung von wichtige Information für Sprachlautunterscheidung Herausfilterung von sprecherabhängige Informationsanteile und nicht-relevante Umgebungsinformationen

20

21

22

23

24

25

26 Hidden-Markov-Modelle Typen von HMM: Diskrete Hidden-Markov-Modelle Kontinuierliche Hidden-Markov-Modelle Hybride Hidden-Markov-Modelle Schätzung der Parameter duch Algorithmen (Baum- Welch, Viterbi) Optimierung durch Maximum Likelihood Verfahren Trainingskriterium, um Pr[X W] der Beobachtungen bzgl. des Modells zu maximieren

27 Hidden-Markov-Modelle: Probleme Wie kann die Wahrscheinlichkeit der beobachteten Sequenz effizient ermittelt werden? Wie kann für eine Beobachtungssequenz ein optimalen Zustandspfad festgelegt werden? Wie können Parameter eines HMMs angepasst werden, so dass sie die Wahrscheinlichkeit der Sequenz bei gegebenem Modell optimal ist?

28 Alternative: Neuronale Netze Radiale-Basisfunktionsnetze Quelle: Dissertation von Daniel Willett

29 Sprachmodellierung

30 Akustische Modellierung Quelle: Automatische Spracherkennung von Schukat-Talamazinni

31 Sprachmodellierung Bestimmung der a-priori Auftrittswahrscheinlichkeit P[W] beliebiger Wortsequenzen W typische Wortkombinationen für Sprache/Anwendung unwahrscheinliche Wortfolgen Information über Struktur der Sprache Vladislav.Lazarov@in.tum.de 31

32 Sprachmodellierung Wortpaar Grammatiken N-Gramm Grammatiken Backoff-N-Gramm Grammatiken

33 Dekodierung der wahrscheinlichsten Wortfolge Wahrscheinlichkeitstheoretischer Ansatz W* = argmax(pr[w X]) Pr[X W] Auftrittswahrscheinlichkeit der akustischen Beobachtung X der Worfolge W (HMM) Pr[W] absolute, unbedingte Wahrscheinlichkeit der Wortfolge W (Sprachmodell) mit Bayes-Formel: W* = argmax(pr[w].pr[x W]) Vladislav.Lazarov@in.tum.de 33

34 Zusammenfassung und Ausblick

35 Zusammenfassung Quelle: Dissertation von Daniel Willett

36 Ausblick Gesprochene Sprache verstehen Semantische Netze: Knoten, Kanten, verschiedene Beziehungen Scripts: Vorwissen über Abläufe (z.b. Restaurant- Script) Erkennung und Analyse spontan gesprochener Sprache

37 Speech is the mirror of the mind - Seneca (5BC - 65AD) Vladislav.Lazarov@in.tum.de 37

38 Quellen Ernst Günter Schukat-Talamazzini Automatische Spracherkennung Lawrence R. Rabiner A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition Daniel Willet Beiträge zur statistischen Modellierung und effizienten Dekodierung in der automatischen Spracherkennung Stephan Euler Grundkurs: Spracherkennung Vladislav.Lazarov@in.tum.de 38

39 Backup

40 Hamming Fensterfunktion Quelle: Wikipedia

41 Inverse DCT

42 Mel Frequency Cepstral Coefficients Mel: Maßeinheit für die psychoakustische Größe Tonheit trennen von Anregungssignal und Impulsantwort

43 Mel Frequency Cepstral Coefficients Mel: Maßeinheit für die psychoakustische Größe Tonheit trennen von Anregungssignal und Impulsantwort

44 Hidden-Markov-Modelle Beispiel: Wetter S = (s1=regnerisch, s2=bewölkt, s3=sonnig) Startwahrscheinlichkeit = (0, 0, 1) Wahrscheinlichkeit für O:={s3,s3,s1,s1,s3,s2,s3}? P=(O,λ)=π 3 *a 33 *a 33 *a 13 *a 11 *a 31 *a 23 *a 32 = 0, Quelle: A Tutorial on Hidden Markov Models... von Lawrence Rabiner Vladislav.Lazarov@in.tum.de 44

45 Baum-Welch Algorithmus Instanz des EM-Algorithmus benutzt um unbekannten Parameter von HMM zu finden erwartungsmaximierender Algorithmus Maximalwahrscheinlichkeitsschätzungen posterior mode Schätzungen Übergangs- und Emissionswahrscheinlichkeit, wenn nur die Emissionsdaten als Trainingsdaten gegeben

46 Baum-Welch Algorithmus 2. Schritte: forward probability und backward probability Frequenz der Übergangs-Emissions-Paar-Werte dividiert durch die Wahrscheinlichkeit des Gesamtstrings damit Wahrscheinlichkeit wegen Unterlauf nicht 0 wird kann man deren Logarithmen addieren Vladislav.Lazarov@in.tum.de 46

47 Viterbi-Algorithmus v[0][0] = 1.0 for k = 1 to K v[k][0] = 0.0 end for for i = 1 to length do for j = 1 to number_states do maxindex = 1; max = NEGATIVE_INFINITY; for k = 0 to number_states do result = ek(xi) * v[k][i 1] * t[k][j]; if result > max max = result; maxindex = k; endif endfor endfor endfor Vladislav.Lazarov@in.tum.de 47

48 Bayes Formel

Spracherkennung. Gliederung:

Spracherkennung. Gliederung: Spracherkennung Gliederung: - Einführung - Geschichte - Spracherkennung - Einteilungen - Aufbau und Funktion - Hidden Markov Modelle (HMM) - HMM bei der Spracherkennung - Probleme - Einsatzgebiete und

Mehr

Äquivokationen. In der Spracherkennung. Michael Baumann Seminar (mit Bachelorarbeit)

Äquivokationen. In der Spracherkennung. Michael Baumann Seminar (mit Bachelorarbeit) Äquivokationen In der Spracherkennung Michael Baumann 532 0225336 michael.baumann@student.tuwien.ac.at Seminar (mit Bachelorarbeit) Inhalt Einführung Äquivokation, Ambiguität, Prosodie Signale Beispiele:

Mehr

Automatische Spracherkennung

Automatische Spracherkennung Ernst Günter Schukat-Talamazzini Automatische Spracherkennung Grundlagen, statistische Modelle und effiziente Algorithmen Technische Universität Darmetadt FACHBEREICH INFORMATIK BIBLIOTHEK MH Invsntar-Nr.:

Mehr

Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16

Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16 Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16 AGENDA Grundlegendes Sprache Anwendungsbeispiele Schwierigkeit Architektur Spracherkennungssystem Hidden Markov Modell Verbesserung durch Kombination mit

Mehr

Spracherkennung und Sprachsynthese

Spracherkennung und Sprachsynthese Spracherkennung und Sprachsynthese Einführung in die Computerlinguistik Sommersemester 2012 Peter Kolb Spracherkennung / -synthese Spracherkennung (automatic speech recognition, ASR) Sprachsynthese (text-to-speech,

Mehr

Active Hidden Markov Models for Information Extraction

Active Hidden Markov Models for Information Extraction HMMs in der IE p.1/28 Active Hidden Markov Models for Information Extraction Seminar Informationsextraktion im WiSe 2002/2003 Madeleine Theile HMMs in der IE p.2/28 Inhaltsübersicht Ziel formalere Aufgabenbeschreibung

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle (Vorabversion begleitend zur Vorlesung Spracherkennung und integrierte Dialogsysteme am Lehrstuhl Medieninformatik am Inst. f. Informatik der LMU München, Sommer 2005) Prof. Marcus

Mehr

Sprachsynthese und Spracherkennung

Sprachsynthese und Spracherkennung 90 Sprachsynthese und Spracherkennung von John N. Holmes Mit 51 Bildern und 69 Übungen mit Lösungshinweisen R. Oldenbourg Verlag München Wien 1991 INHALT Vorwort 11 1 Lautsprachliche Kommunikation 15 1.1

Mehr

Sprachdialogsystem mit robuster automatischer Spracherkennung

Sprachdialogsystem mit robuster automatischer Spracherkennung Sprachdialogsystem mit robuster automatischer Spracherkennung Hans-Günter Hirsch Hochschule Niederrhein Fachbereich Elektrotechnik und Informatik Digitale Nachrichtentechnik http://dnt.kr.hs-niederrhein.de

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach

Mehr

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank Wortdekodierung Vorlesungsunterlagen Speech Communication 2, SS 2004 Franz Pernkopf/Erhard Rank Institute of Signal Processing and Speech Communication University of Technology Graz Inffeldgasse 16c, 8010

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

HMM-Synthese (Grundzüge)

HMM-Synthese (Grundzüge) (Grundzüge) Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München reichelu@phonetik.uni-muenchen.de 6. Dezember 2010 Inhalt HMM-Grundlagen HMM und Phonemerkennung HMM-Grundlagen

Mehr

Prof. Dr. Marcus Spies Institut f. Informatik LMU München

Prof. Dr. Marcus Spies Institut f. Informatik LMU München Planung für die Vorlesung Spracherkennung und integrierte Dialoganwendungen Sommersemester 2005 am Lehrstuhl Medieninformatik des Institut für Informatik der LMU München Prof. Dr. Marcus Spies Institut

Mehr

Maschinelle Sprachverarbeitung: N-Gramm-Modelle

Maschinelle Sprachverarbeitung: N-Gramm-Modelle HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind

Mehr

Kapitel 2: Spracherkennung Automatisches Verstehen gesprochener Sprache

Kapitel 2: Spracherkennung Automatisches Verstehen gesprochener Sprache Automatisches Verstehen gesprochener Sprache. Spracherkennung Martin Hacker Bernd Ludwig Günther Görz Professur für Künstliche Intelligenz Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Mehr

Automatisches Verstehen gesprochener Sprache

Automatisches Verstehen gesprochener Sprache Automatisches Verstehen gesprochener Sprache 3. Sprachmodellierung Martin Hacker Bernd Ludwig Günther Görz Professur für Künstliche Intelligenz Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

Digitale Verarbeitung von natürlicher Sprache

Digitale Verarbeitung von natürlicher Sprache PS Einführung in die Computerlinguistik bzw. SE aus Artificial Intelligence Digitale Verarbeitung von natürlicher Sprache MMag. Gudrun Kellner Ein Sprachsignal 2 Beobachtungen am Sprachsignal 1 Sprachsignale

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion

Mehr

Hidden Markov Models (HMM)

Hidden Markov Models (HMM) Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Einführung in die automatische Spracherkennung. SS 2007 Klaus Kasper

Einführung in die automatische Spracherkennung. SS 2007 Klaus Kasper Einführung in die automatische Spracherkennung SS 27 Klaus Kasper Praktikum Montag, 16:h 19:15h (Y-Raster) Ort: D15/22 erste Veranstaltung: 2.4.27 Programmiersprache Ihrer Wahl (C/C ++ /C#, Java, ) Zulassungsvoraussetzung

Mehr

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014 idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme

Mehr

1 Erkennung von Wortfolgen. 2 Bewertung von Wortfolgen. 3 Sprachmodelle in der Praxis. Erkennung von Wortfolgen

1 Erkennung von Wortfolgen. 2 Bewertung von Wortfolgen. 3 Sprachmodelle in der Praxis. Erkennung von Wortfolgen Automatisches Verstehen gesprochener Sprache. Sprachmodellierung Martin Hacker Bernd Ludwig Günther Görz Professur für Künstliche Intelligenz Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Mehr

Statistische Sprachmodelle

Statistische Sprachmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch

Mehr

Einführung in die automatische Spracherkennung

Einführung in die automatische Spracherkennung Einführung in die automatische Spracherkennung Klausur 30.07.2008 Name:... Vorname:... Matr.-Nr:... Studiengang:... Hinweise: 1. Schreiben Sie bitte auf jedes Zusatz-Blatt Ihren Namen und Ihre Matrikelnummer.

Mehr

Elementare Wahrscheinlichkeitslehre

Elementare Wahrscheinlichkeitslehre Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?

Mehr

Musterlösung zur Probeklausur Multilinguale Mensch Maschine Kommunikation 2013

Musterlösung zur Probeklausur Multilinguale Mensch Maschine Kommunikation 2013 Musterlösung zur Probeklausur Multilinguale Mensch Maschine Kommunikation 2013 Aufgabe 1: Divers (10 Punkte) Kreuzen Sie für die folgenden Aussagen an, ob sie wahr oder falsch sind. Hinweis: Für jede richtige

Mehr

bonn.de bonn.de

bonn.de  bonn.de wgh@ikp.uni bonn.de http://www.ikp.uni bonn.de 023 Vorlesungsskripten deutsch bilingual deutsch/englisch Allgemein zur Sprachsignalverarbeitung Speziell zu Kapitel 1 gsv_1.1 t 250 ms/zeile gsv_1.2 t

Mehr

Teil II. Automatische Spracherkennung. SPEZIELLE MUSTERANALYSESYSTEME Schrift- und Spracherkennung mit Hidden-Markov-Modellen

Teil II. Automatische Spracherkennung. SPEZIELLE MUSTERANALYSESYSTEME Schrift- und Spracherkennung mit Hidden-Markov-Modellen SPEZIELLE MUSTERANALYSESYSTEME Schrift- und Spracherkennung mit Hidden-Markov-Modellen Vorlesung im Wintersemester 2015 Teil II Automatische Spracherkennung Prof. E.G. Schukat-Talamazzini Stand: 24. Juli

Mehr

Zeitreihenanalyse mit Hidden Markov Modellen

Zeitreihenanalyse mit Hidden Markov Modellen Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials VL PLT2

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Hidden Markov Model (HMM)

Hidden Markov Model (HMM) Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de 5. Mai 2017 Human Language Technology and Pattern Recognition Lehrstuhl

Mehr

Sprachverstehen. Vorlesung an der TU Chemnitz Wintersemester 2012/2013 Dr. Johannes Steinmüller

Sprachverstehen. Vorlesung an der TU Chemnitz Wintersemester 2012/2013 Dr. Johannes Steinmüller Sprachverstehen Vorlesung an der TU Chemnitz Wintersemester 2012/2013 Dr. Johannes Steinmüller Johannes Steinmüller 1/B309 Tel.: 531 35198 stj@informatik.tu-chemnitz.de Seite zur Vorlesung: http://www.tu-chemnitz.de/informatik/ki/edu/spraver/

Mehr

Hauptseminar Interaktion von Mensch und Roboter

Hauptseminar Interaktion von Mensch und Roboter Hauptseminar Interaktion von Mensch und Roboter Betreuer Organisatorisches Markus Rickert Telefon: 289-18126 Raum: MI 03.07.061 E-Mail: rickert@in.tum.de Manuel Giuliani Telefon: 289-18100 Raum: MI 03.07.060

Mehr

Der VITERBI-Algorithmus

Der VITERBI-Algorithmus Der VITERBI-Algorithmus Hauptseminar Parsing Sommersemester 2002 Lehrstuhl für Computerlinguistik Universität Heidelberg Thorsten Beinhorn http://janus.cl.uni-heidelberg.de/~beinhorn 2 Inhalt Ziel des

Mehr

Spracherkennung. 2. Sitzung 16. Oktober 2008

Spracherkennung. 2. Sitzung 16. Oktober 2008 Spracherkennung 2. Sitzung 16. Oktober 2008 Überblick 1. Sitzung Organisatorisches Übungen und Scheinkriterien Termine Sprechstunde und Webseite Inhaltlicher Überblick Allgemeines Übungen Bislang: NN Vorschlag:

Mehr

Viterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes

Viterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes Viterbi Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus von Arndt Faulhaber und Benjamin Schlebes Seminar: Endliche Automaten für die Sprachverarbeitung SS 2005 PD Dr. K. Haenelt 1/28

Mehr

6.5 Statistische Spracherkennung

6.5 Statistische Spracherkennung 6.5 Statistische Spracherkennung 6.5.1 Spracherkennung mit MAP Regel MAP Regel (Maximum-a-posteriori-Regel Wˆ = argmax W V * P( W X) optimale Wortfolge Wˆ = w w K w i V 1 2 w K Wortfolge Merkmalssequenz

Mehr

Hidden Markov Models in Anwendungen

Hidden Markov Models in Anwendungen Hidden Markov Models in Anwendungen Dr. Vera Demberg Universität des Saarlandes 31. Mai 2012 Vera Demberg (UdS) HMM Anwendungen 31. Mai 2012 1 / 26 Hidden Markov Modelle in der Computerlinguistik Table

Mehr

Kombinationen von Neuronalen Netzen und Hidden Markov Modellen in der Spracherkennung

Kombinationen von Neuronalen Netzen und Hidden Markov Modellen in der Spracherkennung Kombinationen von Neuronalen Netzen und Hidden Markov Modellen in der Spracherkennung Christian Tomm Christian.Tomm@uni-ulm.de Zusammenfassung In der Spracherkennung werden vornehmlich Hidden Markov Modelle

Mehr

Hidden Markov Modellen

Hidden Markov Modellen Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials) VL PLT2

Mehr

LI07: Hidden Markov Modelle und Part-of-Speech Tagging

LI07: Hidden Markov Modelle und Part-of-Speech Tagging LI07: Hidden Markov Modelle und Part-of-Speech Tagging sumalvico@informatik.uni-leipzig.de 18. Mai 2017 Wiederholung: Statistisches Sprachmodell Ein statistisches Sprachmodell besteht allgemein aus: einer

Mehr

Inhaltsverzeichnis 1 Einleitung Mensch-Maschine-Kommunikation in der Informations- und Kommunikationstechnik Grundbegriffe der Mensch-M

Inhaltsverzeichnis 1 Einleitung Mensch-Maschine-Kommunikation in der Informations- und Kommunikationstechnik Grundbegriffe der Mensch-M 1 Einleitung 1 1.1 Mensch-Maschine-Kommunikation in der Informations- und Kommunikationstechnik... 1 1.2 Grundbegriffe der Mensch-Maschine-Kommunikation... 2 1.3 Disziplinen der Mensch-Maschine-Kommunikation...

Mehr

Hidden Markov Models in Anwendungen

Hidden Markov Models in Anwendungen Hidden Markov Models in Anwendungen Prof Dr. Matthew Crocker Universität des Saarlandes 18. Juni 2015 Matthew Crocker (UdS) HMM Anwendungen 18. Juni 2015 1 / 26 Hidden Markov Modelle in der Computerlinguistik

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 216 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Aufgabe

Mehr

Segmentierung von Gesten

Segmentierung von Gesten Segmentierung von Gesten Anwendungen 1 Johann Heitsch 1 Motivation Maus & Tastatur 2 Motivation Single- / Multitouch 3 Motivation Interaktion mit großen Displays 4 Hochschule für Angewandte Wissenschaften

Mehr

Sprachverarbeitung I

Sprachverarbeitung I Institut für Technische Informatik und Kommunikationsnetze Eidgenössische Technische Hochschule Zürich Swiss Federal Institute of Technology Zurich Ecole polytechnique fédérale de Zurich Politecnico federale

Mehr

HMM/KNN zur Spracherkennung

HMM/KNN zur Spracherkennung HMM/KNN zur Spracherkennung Andreas Hallerbach 18. Januar 2005 Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Hauptseminar Neuroinformatik WS 04/05 Spracherkennung Zusammenfassung Die

Mehr

Automatische Spracherkennung

Automatische Spracherkennung Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.

Mehr

Welf Walter

Welf Walter Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Seminar 2004 Sehen und Hören Hidden Markov Modelle und Künstliche Neuronale Netze Welf Walter ww2@informatik.uni-ulm.de Zusammenfassung

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Proseminar: Machine-Learning Hidden-Markov-Modelle Benjamin Martin Zusammenfassung 1953 stellten Watson und Crick ihr DNA-Modell vor. Damit öffnete sich für Genforscher ein riesiges Gebiet, das bisher

Mehr

Der Viterbi-Algorithmus im Part-of-Speech Tagging

Der Viterbi-Algorithmus im Part-of-Speech Tagging Der Viterbi-Algorithmus im Part-of-Speech Tagging Kursfolien Karin Haenelt 1 Themen Zweck des Viterbi-Algorithmus Hidden Markov Model Formale Spezifikation Beispiel Arc Emission Model State Emission Model

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachportale Tobias Scheffer Motivation Es gibt, grob geschätzt: 1.15 Md Mrd. 15Mrd 1.5 Mrd. 668 Mio. Die wenigsten Computer verfügen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Verfahren zur robusten automatischen Spracherkennung

Verfahren zur robusten automatischen Spracherkennung Verfahren zur robusten automatischen Spracherkennung Hans-Günter Hirsch Hochschule Niederrhein Fachbereich Elektrotechnik und Informatik Digitale Nachrichtentechnik http://dnt.kr.hs-niederrhein.de Ansätze

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer, Tom Vanck, Paul Prasse Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Termin: Montags,

Mehr

Maschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken

Maschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Probabilistische, kontextfreie Grammatiken Tobias Scheffer Ulf Brefeld Sprachmodelle N-Gramm-Modell:

Mehr

Erkennung von menschlichen Bewegungen mit Hidden Markov Modellen

Erkennung von menschlichen Bewegungen mit Hidden Markov Modellen DIRK GEHRIG, HILDEGARD KÜHNE & TANJA SCHULTZ Erkennung von menschlichen Bewegungen mit Hidden Markov Modellen Einleitung Ein wichtiges und ständig wachsendes Forschungsgebiet innerhalb der Robotik sind

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 S. Constantin (stefan.constantin@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 4 Maschinelles Lernen und Spracherkennung Abgabe

Mehr

Hidden Markov Models (HMM) Karin Haenelt

Hidden Markov Models (HMM) Karin Haenelt Hidden Markov Models (HMM) Karin Haenelt 16.5.2009 1 Inhalt Einführung Theoretische Basis Elementares Zufallsereignis Stochastischer Prozess (Folge von elementaren Zufallsereignissen) Markow-Kette (Stochastischer

Mehr

RelAtive SpecTrAl (RASTA) Processing of Speech

RelAtive SpecTrAl (RASTA) Processing of Speech RelAtive SpecTrAl (RASTA) Processing of Speech Paul Glad Mihai 23.11.06 Gliederung Einleitung Wieso RASTA? RASTA erläutert Probleme Modulationsspektrum von Sprache Methode RASTA erweitert Lin-Log Rasta

Mehr

Tagging mit Hidden Markov Models und Viterbi-Algorithmus

Tagging mit Hidden Markov Models und Viterbi-Algorithmus Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:

Mehr

2 Sprachliche Einheiten

2 Sprachliche Einheiten 2 Sprachliche Einheiten Inhalt Semiotische Begriffe Wörter Wortbestandteile Wortzusammensetzungen Wortgruppen Text und Dialog Wort- und Satzbedeutung 2.1 Semiotische Begriffe Semiotische Begriffe Semiotik

Mehr

Kognitive Systeme. Übung 4

Kognitive Systeme. Übung 4 Kognitive Systeme Übung 4 Matthias Sperber Thai Son Nguyen 1 29.06.16 Wir bitten um Entschuldigung: Trotz anders lautender Ankündigung änderte sich die korrekte Lösung für Aufgabe 3e, sodass keine der

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 S. Constantin (stefan.constantin@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Aufgabe

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Statistische Verfahren in der lexikalischen Semantik WS 2/22 Manfred Pinkal Beispiel: Adjektive im Wahrig-Korpus Frequenzen in einem kleinen Teilkorpus: n groß - -

Mehr

Messung & Darstellung von Schallwellen

Messung & Darstellung von Schallwellen Messung Digitalisierung Darstellung Jochen Trommer jtrommer@uni-leipzig.de Universität Leipzig Institut für Linguistik Phonologie/Morphologie SS 2007 Messung Digitalisierung Darstellung Überblick Messung

Mehr

HMMs und der Viterbi-Algorithmus

HMMs und der Viterbi-Algorithmus July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,

Mehr

Ivana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Sarah Bosch,

Ivana Daskalovska. Willkommen zur Übung Einführung in die Computerlinguistik. Sarah Bosch, Ivana Daskalovska Willkommen zur Übung Einführung in die Computerlinguistik Kontakt: ivana.bt.mk@gmail.com Betreff: EICL Wiederholung Aufgabe 1 Was ist Computerlinguistik? 4 Was ist Computerlinguistik?

Mehr

12. Vorlesung. Statistische Sprachmodelle für Information Retrieval

12. Vorlesung. Statistische Sprachmodelle für Information Retrieval 12. Vorlesung Statistische Sprachmodelle für Information Retrieval Allgemeiner Ansatz Unigram Modell Beziehung zum Vektorraummodell mit TF-IDF Gewichten Statistische Spachmodelle zur Glättung Idee von

Mehr

Evaluation und Training von HMMs

Evaluation und Training von HMMs Evaluation und Training von MMs Vorlesung omputerlinguistische Techniken Alexander Koller. Dezember 04 MMs: Beispiel initial p. a 0 0.8 0.7 0. Eisner 0. transition p. 0. 0.6 a 0.5 0. emission p. b () States

Mehr

Content-Based Audio Management

Content-Based Audio Management Content-Based Audio Management Music Information Retrieval Jake Atwell, Philip Jakob Agenda Einleitung/Motivation Muscle Fish Verfahren Vergleich Fazit 2 Agenda Einleitung/Motivation Muscle Fish Verfahren

Mehr

Digitale Signalverarbeitung

Digitale Signalverarbeitung Digitale Signalverarbeitung Hans-Günter Hirsch Institut für Mustererkennung email: hans-guenter.hirsch@hs-niederrhein.de http://dnt.kr.hs-niederrhein.de Webserver: http://dnt.kr.hs-niederrhein.de/dsv15/

Mehr

Harald Finster, Hans-Günter Hirsch Hochschule Niederrhein

Harald Finster, Hans-Günter Hirsch Hochschule Niederrhein BESTIMMUNG DER OPTIMALEN HMM PARAMETER ZUR ROBUSTEN, PHONEMBASIERTEN SPRACHERKENNUNG Harald Finster, Hans-Günter Hirsch Hochschule Niederrhein hans-guenter.hirsch@hs-niederrhein.de Abstract: Zur Erweiterung

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation Wintersemester 2007/2008 Klaus Kasper Praktikum Mittwochs: 10:15 13:30 (Y) Start: 24.10.2007 Ort: D15/202 Donnerstags: 14:15 17:30 (X) Start: 25.10.2007 Ort: D15/102 Zulassungsvoraussetzung

Mehr

Der Viterbi Algorithmus

Der Viterbi Algorithmus M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes

Mehr

Einführung in die Computerlinguistik: Gesprochene Sprache. Dr. Marc Schröder, DFKI

Einführung in die Computerlinguistik: Gesprochene Sprache. Dr. Marc Schröder, DFKI Einführung in die Computerlinguistik: Gesprochene Sprache Dr. Marc Schröder, DFKI schroed@dfki.de Kurs-Homepage: http://www.coli.uni-saarland.de/~hansu/courses/ec07/index.html Überblick Eigenschaften gesprochener

Mehr

Digitale Signalverarbeitung

Digitale Signalverarbeitung Digitale Signalverarbeitung Hans-Günter Hirsch Institut für Mustererkennung email: hans-guenter.hirsch@hs-niederrhein.de http://dnt.kr.hs-niederrhein.de Webserver: http://dnt.kr.hs-niederrhein.de/dsv17/

Mehr

Kommunikation mit gesprochener Sprache...

Kommunikation mit gesprochener Sprache... Kommunikation mit gesprochener Sprache...... ist mehr als Hören und Sprechen: Mensch-Maschine-Kommunikation mit gesprochener Sprache 1 Kommunikation mit gesprochener Sprache...... ist mehr als Hören und

Mehr

Interdisziplinäre Fachdidaktik: Natürliche Sprachen und Formale Sprachen. Wie verstehen Computer natürliche Sprachen?

Interdisziplinäre Fachdidaktik: Natürliche Sprachen und Formale Sprachen. Wie verstehen Computer natürliche Sprachen? Interdisziplinäre Fachdidaktik: Natürliche Sprachen und Formale Sprachen Wie verstehen Computer natürliche Sprachen? LVA Leiter: Elizabeta Jenko Wilfried Grossmann erstellt von Egbert Althammer 9031924

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Paul Prasse Michael Großhans Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. 6 Leistungspunkte

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Joachim Schenk Gerhard Rigoll. ~ensch-~aschine KOmn1Unikation. Gnlndlagen von sprach- und bildbasierten Benutzerschnittstellen.

Joachim Schenk Gerhard Rigoll. ~ensch-~aschine KOmn1Unikation. Gnlndlagen von sprach- und bildbasierten Benutzerschnittstellen. Joachim Schenk Gerhard Rigoll ~ensch-~aschine KOmn1Unikation Gnlndlagen von sprach- und bildbasierten Benutzerschnittstellen ~ Springer Inhaltsverzeichnis 1 Einleitung 1.1 Mensch-Maschine-Kommunikation

Mehr

Einführung in die Spracherkennung & Sprachsynthese. Lucia D. Krisnawati

Einführung in die Spracherkennung & Sprachsynthese. Lucia D. Krisnawati Einführung in die Spracherkennung & Sprachsynthese Lucia D. Krisnawati Vorlesungsinhalt Spracherkennung: Einleitung Die Architektur der Spracherkennung Die Spracherkennungskomponente Sie Anwendungen &

Mehr

Anwendung Rechnernetze Thema: Spracheingabe. Michael Pöhnert Matrikel: INF04 Kennnummer: 12538

Anwendung Rechnernetze Thema: Spracheingabe. Michael Pöhnert Matrikel: INF04 Kennnummer: 12538 Anwendung Rechnernetze Thema: Spracheingabe Michael Pöhnert Matrikel: INF04 Kennnummer: 12538 Gliederung - Einleitung - Theoretische Grundlagen - Praktische Durchführung - Zusammenfassung - Quellenangaben

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Maschinelles Lernen II

Maschinelles Lernen II Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II Niels Landwehr Organisation Vorlesung/Übung 4 SWS. Ort: 3.01.2.31. Termin: Vorlesung: Dienstag, 10:00-11:30.

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr