Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013
|
|
- Linus Lorenz
- vor 7 Jahren
- Abrufe
Transkript
1 Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe max. Punkte tats. Punkte Gesamtpunktzahl: Note:
2
3 Name: Matr.-Nr.: Aufgabe 1: Divers (10 Punkte) Kreuzen Sie für die folgenden Aussagen an, ob sie wahr oder falsch sind. Hinweis: Für jede richtige Antwort gibt es einen Punkt, für jede falsche Antwort wird ein Punkt abgezogen. Wenn Sie kein Kreuz setzen, bekommen Sie weder Plus- noch Minuspunkt, für das Ankreuzen beider Möglichkeiten wird ein Punkt abgezogen. Die gesamte Aufgabe wird mit mindestens 0 Punkten bewertet. a) Morpheme-basierte Sprachmodelle sind besonders hilfreich bei Sprachen mit wenig Flexion wie z.b. bei Englisch. wahr: falsch: b) In der Spracherkennung werden normalerweise ergodische HMMs verwendet. wahr: falsch: c) Man benötigt mehr Textdaten um ein Trigramm-Sprachmodell angemessen zu trainieren als ein Bigramm-Sprachmodell angemessen zu trainieren. ( angemessen bedeutet dass alle Parameter ausreichend gut geschätzt werden mit maximal 1% Abweichung ihres tatsächlichen Wertes). wahr: falsch: d) Triphone modellieren Phoneme basierend auf deren drei linken und drei rechten Nachbarn. wahr: falsch: e) Für eine gegebene Menge an Audiodaten eines Sprechers ist ein Sprecherunabhängiges System besser als ein Sprecher-abhängiges System, weil es robuster ist. wahr: falsch: f) Die Wortfehlerrate basiert auf der Summe der Fehler durch Wort-Einfügungen, Löschungen und Substitutionen. wahr: falsch: g) Ein typisches 3-State Phonem-HMM (wie in der Vorlesung definiert) zu durchlaufen dauert mindestens 30ms (wenn kein Zustand mit einer Kante übersprungen werden kann). wahr: falsch: h) Bei der Adaption mit MAP (maximum a posteriori) werden nur die Parameter geändert, für die Adaptionsdaten vorhanden sind. wahr: falsch: i) Der DTW (Dynamic Time Warp) Algorithmus eignet sich gut für die Erkennung von kontinuierlicher Sprache. wahr: falsch: j) Die z-transformation ist ein Spezialfall der diskreten Fouriertransformation. wahr: falsch: k) Logographische Schriftzeichen stellen für die automatische datengetriebene Aussprachegenerierung ein Problem dar. wahr: falsch: 3
4 Aufgabe 2: Vorverarbeitung (5 Punkte) 1) In der Vorverarbeitung wird ein akustisches Signal in eine Sequenz von Merkmalsvektoren transformiert. Geben Sie eine Sequenz von Schritten an, die nötig sind, um aus dem Audiosignal eine Sequenz von spektralen Merkmalsvektoren zu extrahieren. [2 Punkte] 2) Was muss beim Sampling eines analogen Zeitsignals beachtet werden. 3) Wie kann diese Bedingung erfüllt werden, ohne eine sehr hohe sampling rate? 4) Warum wird bei der Fensterung anstelle eines Rechteckfensters zum Beispiel ein Hamming Window benutzt? 4
5 Name: Matr.-Nr.: Weiterer Platz für Antworten zu Aufgabe 2: 5
6 Aufgabe 3: Gauß-Mischverteilungen und DTW (6 Punkte) 1) Notieren Sie die Formel einer mehrdimensionalen Gauß-Mischverteilung mit D Dimensionen. 2) Beschreiben Sie alle Schritte des k-mean Algorithmus. [2 Punkte] 3) Welche Probleme können sich ergeben, wenn man zwei unterschiedliche Sprachsegmente miteinander vergleichen will? Nennen Sie zwei Ihrer Wahl. 4) Berechnen Sie die Levinshtein Distanz zwischen S A M S T A G S und S O N N T A G. Notieren Sie alle Zwischenschritte. (Die Distanz für Ersetzen, Einfügen und Löschen ist jeweils 1.) [2 Punkte] 6
7 Name: Matr.-Nr.: Weiterer Platz für Antworten zu Aufgabe 3: 7
8 Aufgabe 4: Hidden-Markov-Modelle (7 Punkte) Betrachten Sie folgendes HMM: ˆ Zwei Zustände S1, S2 ˆ Zwei Ausgabesymbole X, Y ˆ Emissionswahrscheinlichkeiten: B S1 (X) = 1 B S1 (Y) = 0 B S2 (X) = 4/10 B S2 (Y) = 6/10 ˆ Übergangswahrscheinlichkeiten: A S1,S1 = A S1,S2 = A S2,S1 = A S2,S2 = 1/2. ˆ Anfangswahrscheinlichkeiten: π S1 = 1, π S2 = 0 (das HMM beginnt immer in Zustand S1) 1) Die Ausgabe des HMMs sei XYX. Wie viele Pfade mit von null verschiedener Wahrscheinlichkeit gibt es, die diese Ausgabe erzeugt haben können? Welche sind das? [2 Punkte] 2) Berechnen Sie die Gesamtwahrscheinlichkeit der Ausgabe XYX. [2 Punkte] Tipp: Benutzen Sie Brüche, dann ist die Aufgabe ohne Taschenrechner lösbar. 3) Die Ausgabe des HMMs sei wie oben XYX. Welche Abfolge von Zuständen ist bei dieser Ausgabe am wahrscheinlichsten durchlaufen worden? 4) Erläutern Sie, warum HMMs bei der kontinuierlichen Spracherkennung ermöglichen, auch Wörter zu erkennen, die im Trainingsmaterial nicht vorgekommen sind. [2 Punkte] 8
9 Name: Matr.-Nr.: Weiterer Platz für Antworten zu Aufgabe 4: 9
10 Aufgabe 5: Akustische Modellierung (5 Punkte) 1) Nennen Sie zwei mögliche Spracheinheiten, die man für akustische Modellierung verwenden kann. 2) Welche Clustering-Methoden gibt es um Kontexte zu clustern? Beschreiben alle Schritte von einer Methode Ihrer Wahl. [2 Punkte] 3) Stellen Sie sich vor, dass Sie einen Entscheidungsbaum für die Phonemekontexte trainieren wollen. Welche Methode nehmen Sie um die Frage für den Entscheidungsbaum zu bestimmen? 4) Was ist der Unterschied zwischen überwachtem und unüberwachtem Adaptieren? 10
11 Name: Matr.-Nr.: Weiterer Platz für Antworten zu Aufgabe 5: 11
12 Aufgabe 6: Sprachmodellierung (10 Punkte) 1) Welche Wahrscheinlichkeit liefert das Sprachmodell bei der Spracherkennung? 2) Warum ist ein Sprachmodell bei der Spracherkennung sinnvoll? Nennen Sie drei Gründe. [3 Punkte] 3) Nennen Sie eine Motivation für Smoothing bei der Sprachmodellierung und zwei Smoothing-Techniken. [2 Punkte] 4) Wählen Sie die richtige Antwort aus indem Sie eine Antwort ankreuzen. Ein Trigramm-Sprachmodell bestimmt die Häufigkeit mit der ein Wort w i auftritt basierend auf dessen Historie w (i 1), w (i 2),..., w (i n). n hat dabei eine Größe von: (a) 1 (b) 2 (c) 3 5) Nennen Sie 2 Gründe, wegen denen es sinnvoll ist, das Sprachmodell zu adaptieren. 6) Nennen Sie einen Vorteil und einen Nachteil für der Verwendung einer Grammatik als Sprachmodell, die nur Sätze akzeptiert, die in der Grammatik definiert sind. [2 Punkte] 12
13 Name: Matr.-Nr.: Weiterer Platz für Antworten zu Aufgabe 6: 13
14 Aufgabe 7: Suche (9 Punkte) 1) Welche Probleme ergeben sich bei kontinuierlicher Spracherkennung gegenüber isolierter Worterkennung? Nennen Sie drei Punkte. [3 Punkte] 2) Erklären Sie kurz den Unterschied zwischen time-synchronous und timeasynchronous Suchstrategien. 3) In der Vorlesung wurde zur Optimierung der Suche die Tree Search vorgestellt. Erstellen Sie aus folgenden fünf Wörtern mit Aussprachen den in der Vorlesung definierten prefix-tree für die Tree Search: a) Baum - b a u m b) Bahnhof - b a n h o f c) Banane - b a n a n e d) Bank - b a ng k e) Brot - b r o t [3 Punkte] 4) Wie wird das Language Model bei der Tree Search integriert? 5) Erkären Sie was man unter Unigram-Lookahead versteht. 14
15 Name: Matr.-Nr.: Weiterer Platz für Antworten zu Aufgabe 7: 15
16 Aufgabe 8: Transferaufgabe (8 Punkte) 1) Nennen Sie drei Herausforderungen die bei der Entwicklung eines Spracherkenners für eine neue Sprache auftreten können. [3 Punkte] 2) Sie wurden beauftragt einen Spracherkenner zur Erkennung von Telefonnummern in einem Callcenter zu entwickeln. a) Welche Komponenten benötigen Sie für Ihren Erkenner? [3 Punkte] b) Worauf müssen Sie achten, wenn der Service einerseits für eine möglichst große Menge von Nutzern funktionieren soll und andererseits auch vom Mobiltelefon aus angerufen wird? [2 Punkte] 16
17 Name: Matr.-Nr.: Weiterer Platz für Antworten zu Aufgabe 8: 17
18 Extrapapier 18
19 Name: Matr.-Nr.: Extrapapier 19
20 Extrapapier 20
Musterlösung zur Probeklausur Multilinguale Mensch Maschine Kommunikation 2013
Musterlösung zur Probeklausur Multilinguale Mensch Maschine Kommunikation 2013 Aufgabe 1: Divers (10 Punkte) Kreuzen Sie für die folgenden Aussagen an, ob sie wahr oder falsch sind. Hinweis: Für jede richtige
MehrHidden Markov Modelle
Hidden Markov Modelle (Vorabversion begleitend zur Vorlesung Spracherkennung und integrierte Dialogsysteme am Lehrstuhl Medieninformatik am Inst. f. Informatik der LMU München, Sommer 2005) Prof. Marcus
MehrEinführung in die automatische Spracherkennung
Einführung in die automatische Spracherkennung Klausur 30.07.2008 Name:... Vorname:... Matr.-Nr:... Studiengang:... Hinweise: 1. Schreiben Sie bitte auf jedes Zusatz-Blatt Ihren Namen und Ihre Matrikelnummer.
MehrHidden Markov Modelle
Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten
MehrÄquivokationen. In der Spracherkennung. Michael Baumann Seminar (mit Bachelorarbeit)
Äquivokationen In der Spracherkennung Michael Baumann 532 0225336 michael.baumann@student.tuwien.ac.at Seminar (mit Bachelorarbeit) Inhalt Einführung Äquivokation, Ambiguität, Prosodie Signale Beispiele:
MehrHMM-Synthese (Grundzüge)
(Grundzüge) Institut für Phonetik und Sprachverarbeitung Ludwig-Maximilians-Universität München reichelu@phonetik.uni-muenchen.de 6. Dezember 2010 Inhalt HMM-Grundlagen HMM und Phonemerkennung HMM-Grundlagen
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrSpracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16
Spracherkennung TAREQ HASCHEMI HAW-SEMINAR WS16 AGENDA Grundlegendes Sprache Anwendungsbeispiele Schwierigkeit Architektur Spracherkennungssystem Hidden Markov Modell Verbesserung durch Kombination mit
MehrSpracherkennung und Sprachsynthese
Spracherkennung und Sprachsynthese Einführung in die Computerlinguistik Sommersemester 2012 Peter Kolb Spracherkennung / -synthese Spracherkennung (automatic speech recognition, ASR) Sprachsynthese (text-to-speech,
MehrSpracherkennung Hauptseminar Interaktion von Mensch und Roboter
Spracherkennung Hauptseminar Interaktion von Mensch und Roboter Vladislav Lazarov lazarov@in.tum.de Was ist Spracherkennung? Was ist (automatische) Spracherkennung? Identifikation und Analyse gesprochener
MehrAutomatische Spracherkennung
Ernst Günter Schukat-Talamazzini Automatische Spracherkennung Grundlagen, statistische Modelle und effiziente Algorithmen Technische Universität Darmetadt FACHBEREICH INFORMATIK BIBLIOTHEK MH Invsntar-Nr.:
MehrSpracherkennung. Gliederung:
Spracherkennung Gliederung: - Einführung - Geschichte - Spracherkennung - Einteilungen - Aufbau und Funktion - Hidden Markov Modelle (HMM) - HMM bei der Spracherkennung - Probleme - Einsatzgebiete und
MehrProbeklausur zur Vorlesung Grundbegrie der Informatik 22. Januar 2016
Probeklausur zur Vorlesung Grundbegrie der Informatik 22. Januar 26 Hinweis: Diese Probeklausur wurde von Tutoren erstellt. Die An-/Abwesenheit bestimmter Aufgabentypen oder auch deren Schwierigkeit in
MehrAlgorithmen und Datenstrukturen 1 VL Übungstest WS Jänner 2009
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 2. Übungstest WS 2008 16. Jänner
MehrStream Processing II
Stream Processing II K-Buckets Histogram Histogramme sind graphische Darstellungen der Verteilung von numerischen Werten Werden durch Intervalle, die sich nicht überlappen, dargestellt Ein Intervall wird
MehrProbeklausur zur Vorlesung Grundbegriffe der Informatik
Probeklausur zur Vorlesung Grundbegriffe der Informatik Hinweis: Diese Probeklausur wurde von Tutoren erstellt. Die An-/Abwesenheit bestimmter Aufgabentypen oder auch deren Schwierigkeit in der Probeklausur
MehrSprachsynthese und Spracherkennung
90 Sprachsynthese und Spracherkennung von John N. Holmes Mit 51 Bildern und 69 Übungen mit Lösungshinweisen R. Oldenbourg Verlag München Wien 1991 INHALT Vorwort 11 1 Lautsprachliche Kommunikation 15 1.1
MehrProbeklausur Optimierung
Universität Hamburg Fakultät für Mathematik, Informatik und Naturwissenschaften Dr. Nico Düvelmeyer Hamburg, 4. Juli 2011 Probeklausur Optimierung Bitte selber ausfüllen: Name: (darf anonymisiert werden)
MehrSemestralklausur zur Vorlesung Mathematische Strukturen
Name: Vorname: Matr.Nr: Universität Duisburg-Essen WS 2010/2011 Ingenieurwissenschaften / Informatik 14. Februar 2010 Dozentin: Prof. Dr. B. König Klausur Semestralklausur zur Vorlesung Mathematische Strukturen
MehrSequenzanalyse mit Markov-Ketten
Sequenzanalyse mit Markov-Ketten Andreas Spillner Bioinformatik, SS 208 Ausgangspunkt Die Abfolge von Buchstaben in einer Sequenz ist zufällig, aber es gibt in der Regel Abhängigkeiten zwischen benachbarten
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrAlgorithmische Bioinformatik
FREIE UNIVERSITÄT BERLIN Fachbereich Mathematik und Informatik Institut für Informatik (WE 3) FU BERLIN Freie Universität Berlin FB Mathematik und Informatik, Institut für Informatik, Takustr. 9, D-14195
Mehr6.5 Statistische Spracherkennung
6.5 Statistische Spracherkennung 6.5.1 Spracherkennung mit MAP Regel MAP Regel (Maximum-a-posteriori-Regel Wˆ = argmax W V * P( W X) optimale Wortfolge Wˆ = w w K w i V 1 2 w K Wortfolge Merkmalssequenz
MehrStatistische Sprachmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch
MehrKlausur zur Vorlesung Grundbegriffe der Informatik 5. März 2014
Klausur zur Vorlesung Grundbegriffe der Informatik 5. März 2014 Klausurnummer Nachname: Vorname: Matr.-Nr.: Aufgabe 1 2 3 4 5 6 7 max. Punkte 6 8 4 7 5 6 8 tats. Punkte Gesamtpunktzahl: Note: Punkte Aufgabe
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN Fakultät für Mathematik. Grundlagen der Nichtlinearen Optimierung. Klausur zur Vorlesung WS 2008/09
................ Note I II Name Vorname 1 Matrikelnummer Studiengang (Hauptfach) Fachrichtung (Nebenfach) 2 Obige Angaben sind richtig: Unterschrift der Kandidatin/des Kandidaten 3 TECHNISCHE UNIVERSITÄT
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 S. Constantin (stefan.constantin@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 4 Maschinelles Lernen und Spracherkennung Abgabe
MehrAufgaben zur Klausurvorbereitung
Vorlesung Graphen und Optimierung Sommersemester 2013/14 Prof. S. Lange Aufgaben zur Klausurvorbereitung Hier finden Sie eine Reihe von Übungsaufgaben, die wir an den beiden Vorlesungsterminen am 29.01.2014
MehrMustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle
Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators
MehrAlgorithmen und Datenstrukturen in der Bioinformatik Zweites Übungsblatt WS 05/06 Musterlösung
Johanna Ploog, Konstantin Clemens Freie Universität Berlin Institut für Mathematik II Arbeitsgruppe für Mathematik in den Lebenswissenschaften Algorithmen und Datenstrukturen in der Bioinformatik Zweites
MehrKlausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende
Universität Duisburg-Essen Essen, 31.01.2011 Fakultät für Mathematik M. Winkler Klausur zur Wahrscheinlichkeitstheorie für Lehramtsstudierende Bearbeitungszeit 90 min. Die Klausur gilt als bestanden, wenn
MehrHidden Markov Models
Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach
MehrSerie 8: Online-Test
D-MAVT Lineare Algebra I HS 017 Prof Dr N Hungerbühler Serie 8: Online-Test Einsendeschluss: Freitag, der 4 November um 14:00 Uhr Diese Serie besteht nur aus Multiple-Choice-Aufgaben und wird nicht vorbesprochen
MehrProf. Dr. Marcus Spies Institut f. Informatik LMU München
Planung für die Vorlesung Spracherkennung und integrierte Dialoganwendungen Sommersemester 2005 am Lehrstuhl Medieninformatik des Institut für Informatik der LMU München Prof. Dr. Marcus Spies Institut
MehrInformatik IIa: Modellierung
Informatik IIa: Modellierung Frühlingssemester 2014 Übung 1: Einführung in die Modellierung und Modelltheorie Kapitel 1 & 2 Ausgabe: 21.02.2014 Abgabe: 07.03.2014 Name: Matrikelnummer: Hinweise: Wir verwenden
MehrHidden Markov Model (HMM)
Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig
MehrLösungsvorschläge zur Klausur zur Vorlesung Grundbegriffe der Informatik 7. September 2010
Lösungsvorschläge zur Klausur zur Vorlesung Grundbegriffe der Informatik 7. September 2010 Klausurnummer Name: Vorname: Matr.-Nr.: Aufgabe 1 2 3 4 5 6 7 max. Punkte 6 5 6 8 6 7 8 tats. Punkte Gesamtpunktzahl:
MehrAlgorithmen und Datenstrukturen 1 VL Übungstest SS Juni 2009
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 2. Übungstest SS 2009 09. Juni
MehrName: SS Universität Kassel Prof. Dr. Hadrian Heil
SS 2015 Name: Universität Kassel Prof. Dr. Hadrian Heil Mathematik IV für Ingenieure (Stochastik) Klausur, 25.9.2015. Bearbeitungszeit 2 Stunden Ergebnis (nicht ausfüllen): K1 K2 K3 K4 K5 K6 K7 Note Tragen
MehrWiederholung von Äquivalenzumformungen (Lösen linearer Gleichungen): Wiederholung von Äquivalenzumformungen (Lösen von Ungleichungen):
Prof. U. Stephan WiIng 1. Wiederholung von Äquivalenzumformungen (Lösen linearer Gleichungen): Bitte lösen Sie die folgenden Aufgaben und prüfen Sie, ob Sie Lücken dabei haben. Bestimmen Sie jeweils die
MehrSystemmodellierung. Teil Ereignisdiskrete Systeme
Prüfungsklausur Im Modul Systemmodellierung Teil Ereignisdiskrete Systeme 12. März 2018 Name: Vorname: Matrikelnummer: Zugelassene Hilfsmittel: Taschenrechner, Schreib- und Zeichenwerkzeug (kein roter
MehrKlausur zur Vorlesung Grundbegriffe der Informatik 4. März 2015
Klausur zur Vorlesung Grundbegriffe der Informatik 4. März 2015 Klausurnummer Nachname: Vorname: Matr.-Nr.: Diese Klausur ist mein 1. Versuch 2. Versuch in GBI Email-Adr.: nur falls 2. Versuch Aufgabe
MehrAussage: richtig falsch
Aufgabe 1: Multiple Choice (10 unkte) Folgende Aussagen sind entweder richtig oder falsch! Kreuzen Sie jeweils direkt hinter der Aussage eines der Kästchen an! Stimmt Ihre Bewertung einer Aussage so gibt
MehrLösungsvorschläge und Erläuterungen Klausur zur Vorlesung Grundbegriffe der Informatik 15. September 2016
Lösungsvorschläge und Erläuterungen Klausur zur Vorlesung Grundbegriffe der Informatik 15. September 2016 Klausurnummer Nachname: Vorname: Matr.-Nr.: Diese Klausur ist mein 1. Versuch 2. Versuch in GBI
MehrKapitel 2: Spracherkennung Automatisches Verstehen gesprochener Sprache
Automatisches Verstehen gesprochener Sprache. Spracherkennung Martin Hacker Bernd Ludwig Günther Görz Professur für Künstliche Intelligenz Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
MehrKlausur Formale Systeme Fakultät für Informatik SS 2017
Klausur Formale Systeme Fakultät für Informatik SS 2017 Prof. Dr. Bernhard Beckert 3. August 2017 Name: Vorname: Matrikel-Nr.: Die Bearbeitungszeit beträgt 60 Minuten. A1 (14) A2 (6) A3 (6) A4 (8) A5 (11)
MehrKlausur zur Vorlesung Informatik III Wintersemester 2007/2008
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Klausur zur Vorlesung Informatik III Wintersemester 2007/2008 Hier Aufkleber mit Name und Matrikelnr. anbringen Vorname: Nachname: Matrikelnummer:
Mehr2. Klausur Datenstrukturen und Algorithmen SS 2014
Prof. aa Dr. E. Ábrahám F. Corzilius, S. Schupp, T. Ströder 2. Klausur Datenstrukturen und Algorithmen SS 2014 Vorname: Nachname: Studiengang (bitte genau einen markieren): Informatik Bachelor Informatik
MehrKlausur im Lehrgebiet. Signale und Systeme. - Prof. Dr.-Ing. Thomas Sikora - Name:... Bachelor ET Master TI Vorname:... Diplom KW Magister...
Signale und Systeme - Prof. Dr.-Ing. Thomas Sikora - Name:............................ Bachelor ET Master TI Vorname:......................... Diplom KW Magister.............. Matr.Nr:..........................
MehrBayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008
Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation
MehrProjektgruppe. Text Labeling mit Sequenzmodellen
Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:
MehrProbeklausur Kryptokomplexität I
Heinrich-Heine-Universität Düsseldorf Institut für Informatik Prof. Dr. J. Rothe Universitätsstr. 1, D-40225 Düsseldorf Gebäude: 25.12, Ebene: 02, Raum: 26 Tel.: +49 211 8112188, Fax: +49 211 8111667 E-Mail:
MehrAutomatische Spracherkennung
Automatische Spracherkennung 2 Grundlagen: Mustererkennung Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben. Beispiele von Computerkommandos
MehrSegmentierung von Gesten
Segmentierung von Gesten Anwendungen 1 Johann Heitsch 1 Motivation Maus & Tastatur 2 Motivation Single- / Multitouch 3 Motivation Interaktion mit großen Displays 4 Hochschule für Angewandte Wissenschaften
MehrAutomatische Spracherkennung
Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.
MehrMathematik-Vorkurs für Informatiker Formale Sprachen 1
Christian Eisentraut & Julia Krämer www.vorkurs-mathematik-informatik.de Mathematik-Vorkurs für Informatiker Formale Sprachen 1 Aufgabe 1. (Wiederholung wichtiger Begriffe) Kategorie 1 Notieren Sie die
MehrKLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM
KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM VOR NACH MATRIKELNUMMER: STUDIENGANG: B.Sc. Computerlinguistik, B.Sc. Informatik, Magister
MehrKlausur Medieninformatik I
Klausur Medieninformatik I Universität Hildesheim WiSe 2015/2016 Dr. Jörg Cassens 09.02.2016 Name Vorname Matrikelnummer Studiengang Fachsemester Unterschrift Ablauf der Prüfung (Bitte aufmerksam lesen)
MehrWirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Sommersemester 2011.
Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Sommersemester 2011 Namensschild Dr. Martin Becker Hinweise für die Klausurteilnehmer ˆ
Mehr1 Word Sense Disambiguation - Grundlagen
7. Übung zur Vorlesung NLP Analyse des Wissensrohstoes Text im Sommersemester 2008 mit Musterlösungen Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 2. Juli 2008 1 Word Sense Disambiguation
MehrAutomatisches Verstehen gesprochener Sprache
Automatisches Verstehen gesprochener Sprache 3. Sprachmodellierung Martin Hacker Bernd Ludwig Günther Görz Professur für Künstliche Intelligenz Department Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
MehrKlausur zu Mathematische Grundlagen BachelorStudiengänge der Informatik
Klausur zu Mathematische Grundlagen BachelorStudiengänge der Informatik SS 2016, 16.07.2016 Prof. Dr. Hans-Jürgen Steens Name: Vorname: Matrikelnummer: Die Klausur besteht aus 23 Aufgaben. Es sind maximal
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2011 / 2012 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrKlausur zur Vorlesung Ausgewählte Kapitel der Ingenieurmathematik
Name: der Ingenieurmathematik Master-Studiengang Maschinenbau und Mechatronik 1. Februar 2008, 8.30-10.00 Uhr Allgemeine Hinweise: Dauer der Klausur: Zugelassene Hilfsmittel: 90 min, 1.5 Zeitstunden Computer,
MehrWenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces
EFME-Zusammenfassusng WS11 Kurze Fragen: Wenn PCA in der Gesichtserkennung eingesetzt wird heißen die Eigenvektoren oft: Eigenfaces Unter welcher Bedingung konvergiert der Online Perceptron Algorithmus?
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrKryptologie. K l a u s u r WS 2006/2007, Prof. Dr. Harald Baier
Kryptologie K l a u s u r WS 2006/2007, 2007-02-01 Prof. Dr. Harald Baier Name, Vorname: Matrikelnummer: Hinweise: (a) Als Hilfsmittel ist nur der Taschenrechner TI-30 zugelassen. Weitere Hilfsmittel sind
Mehr1. Zwischentest Formale Systeme Fakultät für Informatik WS 2009/2010
1. Zwischentest Formale Systeme Fakultät für Informatik WS 2009/2010 Prof. Dr. Bernhard Beckert 10. Dezember 2009 Vorname: Matrikel-Nr.: Bitte geben Sie auf jedem benutzten Blatt rechts oben Ihren Namen
MehrKlausur im Lehrgebiet. Signale und Systeme. - Prof. Dr.-Ing. Thomas Sikora -
Signale und Systeme - Prof. Dr.-Ing. Thomas Sikora - Name:............................ Bachelor ET Master TI Vorname:......................... Diplom KW Magister... Matr.Nr:.......................... Erasmus
MehrSprachdialogsystem mit robuster automatischer Spracherkennung
Sprachdialogsystem mit robuster automatischer Spracherkennung Hans-Günter Hirsch Hochschule Niederrhein Fachbereich Elektrotechnik und Informatik Digitale Nachrichtentechnik http://dnt.kr.hs-niederrhein.de
MehrSupport Vector Machines, Kernels
Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen
MehrA3.9: Viterbi Algorithmus: Grundlegendes
A3.9: Viterbi Algorithmus: Grundlegendes Die Grafik zeigt ein Trellisdiagramm und definiert gleichzeitig die Fehlergrößen Γ i (S 0 ) und Γ i (S 1 ) zu den Zeitpunkten i = 0 bis i = 5. Aus diesem Trellis
MehrUNIVERSITÄT DUISBURG-ESSEN
Termin: Musterklausur SS 2011 Prüfungsfach: Makroökonomik I Prüfer: Prof. Dr. Belke Name, Vorname Studiengang MUSTERKLAUSUR MAKROÖKONOMIK I Hinweise zur Bearbeitung der Klausur Seite 1 Bearbeitungszeit:
MehrTECHNISCHE UNIVERSITÄT MÜNCHEN. Lineare Algebra 1 WS 2006/07 Lösungen Blatt 13/ Probeklausur. Lösungen zur. Zentrum Mathematik
TECHNISCHE UNIVERSITÄT MÜNCHEN Zentrum Mathematik Prof. Dr. Friedrich Roesler Ralf Franken, PhD Max Lein Lineare Algebra 1 WS 26/7 en Blatt 13/2 29.1.27 en zur Probeklausur Aufgabe 1 (ca. 6 Punkte) Sei
MehrKlausur zur Vorlesung Grundbegriffe der Informatik 14. September 2015
Klausur zur Vorlesung Grundbegriffe der Informatik 14. September 2015 Klausurnummer Nachname: Vorname: Matr.-Nr.: Diese Klausur ist mein 1. Versuch 2. Versuch in GBI Email-Adr.: nur falls 2. Versuch Aufgabe
MehrNAME, VORNAME: Studiennummer: Matrikel:
TU Ilmenau, Fakultat IA Institut für Theoretische Informatik FG Komplexitätstheorie und Effiziente Algorithmen Prof. Dr. (USA) M. Dietzfelbinger Klausur Algorithmen und Datenstrukturen SS08, Ing.-Inf.
MehrProf. Dr. Christoph Karg Hochschule Aalen. Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik. Sommersemester 2018
Prof. Dr. Christoph Karg 9.7.2018 Hochschule Aalen Klausur zur Vorlesung Wahrscheinlichkeitstheorie und Statistik Sommersemester 2018 Unterschrift: Klausurergebnis Aufgabe 1 (15 Punkte) Aufgabe 3 (10 Punkte)
MehrHMM/KNN zur Spracherkennung
HMM/KNN zur Spracherkennung Andreas Hallerbach 18. Januar 2005 Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Hauptseminar Neuroinformatik WS 04/05 Spracherkennung Zusammenfassung Die
MehrÜbungsblatt 7 - Voronoi Diagramme
Karlsruher Institut für Technologie Algorithmische Geometrie Fakultät für Informatik Sommersemester 2012 ITI Wagner Martin Nöllenburg/Andreas Gemsa Übungsblatt 7 - Voronoi Diagramme 1 Voronoi-Zellen Sei
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten
MehrElektronische Kommunikationshilfen. Raphael Kubke Einführung in die Computerlinguistik Sommersemester 2010 Heinrich-Heine-Universität
Gliederung - T9 (Text On 9 Keys) - Text-Telefonie / CTM (Cellular Text Telephone Modem) - Spracherkennungssysteme - Quellen 2 T9 (Text On 9 Keys) Allgemeines - Text On 9 Keys - von Clifford A. Kushler,
MehrMathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur
Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Crocker/Demberg/Staudte Sommersemester 2014 17.07.2014 1. Sie haben 90 Minuten Zeit zur Bearbeitung der Aufgaben.
MehrKlausur zur Vorlesung Algorithmen und Datenstrukturen
Klausur zur Vorlesung Algorithmen und Datenstrukturen Die Dauer der Klausur beträgt 120 Minuten. Erlaubte Hilfsmittel: Ein selbst handschriftlich beschriebenes DIN A4 Blatt, das komplette Skript zur Vorlesung
MehrKognitive Systeme. Übung 4
Kognitive Systeme Übung 4 Matthias Sperber Thai Son Nguyen 1 29.06.16 Wir bitten um Entschuldigung: Trotz anders lautender Ankündigung änderte sich die korrekte Lösung für Aufgabe 3e, sodass keine der
MehrActive Hidden Markov Models for Information Extraction
HMMs in der IE p.1/28 Active Hidden Markov Models for Information Extraction Seminar Informationsextraktion im WiSe 2002/2003 Madeleine Theile HMMs in der IE p.2/28 Inhaltsübersicht Ziel formalere Aufgabenbeschreibung
Mehr2. Klausur zur Funktionentheorie SS 2009
Aufgabe : Finden Sie ein Beispiel für eine meromorphe Funktion f M(C), die auf den Kreisringen A 0, (0) und A,2 (0) unterschiedliche Laurentreihenentwicklungen besitzt. Beweisen Sie, dass Ihr Beispiel
MehrDiskrete Modellierung (SS 08) Klausur (Modulabschlussprüfung)
Johann Wolfgang Goethe-Universität Frankfurt am Main 8. September 2008 Institut für Informatik Theorie komplexer Systeme Prof. Dr. Nicole Schweikardt Diskrete Modellierung (SS 08) Klausur (Modulabschlussprüfung)
MehrDisMod-Repetitorium Tag 3
DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität
MehrKlausur zur Vorlesung Grundbegriffe der Informatik 2. März 2016
Klausurnummer Klausur zur Vorlesung Grundbegriffe der Informatik 2. März 2016 Nachname: Vorname: Matr.-Nr.: Diese Klausur ist mein 1. Versuch 2. Versuch in GBI Email-Adr.: nur falls 2. Versuch Aufgabe
MehrDer Viterbi Algorithmus
M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes
MehrProjekt Standardisierte schriftliche Reifeprüfung in Mathematik. T e s t h e f t. Vorname:
Projekt Standardisierte schriftliche Reifeprüfung in Mathematik T e s t h e f t Schüler(in) Nachname:. Vorname:. Schul- und Schüler(innen)kennzahl Projekt Standardisierte schriftliche Reifeprüfung in Mathematik
MehrWirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Sommersemester 2011
Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Sommersemester 2011 Aufgabenstellung und Ergebnisse Dr. Martin Becker Hinweise für die Klausurteilnehmer
MehrWirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2014/15.
Wirtschaftswissenschaftliches Prüfungsamt Bachelor-Prüfung Deskriptive Statistik und Wahrscheinlichkeitsrechnung Wintersemester 2014/15 Namensschild Dr. Martin Becker Hinweise für die Klausurteilnehmer
MehrAlgorithmische Bioinformatik
FREIE UNIVERSITÄT BERLIN Fachbereich Mathematik und Informatik Institut für Informatik (WE 3) FU BERLIN Freie Universität Berlin FB Mathematik und Informatik, Institut für Informatik, Takustr. 9, D-14195
MehrAutomatische Spracherkennung
Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 2 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.
MehrInhaltliche Planung für die Vorlesung
Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme
MehrMaschinelle Sprachverarbeitung: N-Gramm-Modelle
HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind
MehrKlausur Informatik II
Klausur Informatik II Sommersemester 23 Bearbeitungszeit 2 Minuten Name: Vorname: Matrikelnummer: Bei der Klausur sind keine Hilfsmittel (Skripten, Taschenrechner, etc.) erlaubt. Schreiben Sie bitte mit
Mehr