Kognitive Systeme. Übung 4
|
|
|
- Krista Goldschmidt
- vor 8 Jahren
- Abrufe
Transkript
1 Kognitive Systeme Übung 4 Matthias Sperber Thai Son Nguyen
2 Wir bitten um Entschuldigung: Trotz anders lautender Ankündigung änderte sich die korrekte Lösung für Aufgabe 3e, sodass keine der online auswählbaren Antworten richtig ist Daher unser Angebot: Wir ignorieren für Blatt 4 die Online Abgabe, und werden Bonuspunkte manuell, aufgrund der schriftlichen Ausarbeitungen (exklusive Aufgabe 3e), vergeben Probleme können dann im Einzelfall besprochen werden
3 Aufgabe 1: Neuronales Netz a) XOR-Problem Aufgabe: neuronales Netz entwickeln, welches XOR-Problem löst. 1 versteckte Schicht 2 binäre Eingänge (0/1) 1 binärer Ausgang (0/1) Eingang 1 Eingang 2 Ausgang
4 Aufgabe 1: Neuronales Netz a) XOR-Problem Mögliche Lösungen z.b.:
5 Aufgabe 1: Neuronales Netz b) Online-Frage Wieviele versteckte Neuronen sind mind. nötig (direkte Verbindungen nicht erlaubt?) Antwort:
6 HMMs in der automatischen Spracherkennung
7 a) Wahrscheinlichkeit Pro Zustand Emissionswahrscheinlichkeiten summieren sich auf zu 1 Übergangswahrscheinlichkeiten summieren sich auf zu
8 a) Wahrscheinlichkeit O 1 =ABA Wahrscheinlichkeit für? P (O λ)= Q P (O, Q λ) Forward-Algorithmus α 0 ( j)= 1, wenn j = Startzustand 0, sonst N α t ( j)={ i=0 α t 1 (i) a ij } b j (O t ) mit t >
9 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
10 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
11 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
12 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
13 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
14 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
15 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
16 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
17 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
18 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
19 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
20 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
21 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
22 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
23 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
24 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?
25 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 2 =CAB?
26 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 2 =CAB? C A B
27 b) Zustandskette O 1 = ABA Mit max. Wahrscheinlichkeit für? V t (i)=max q1 q t 1 P (O 1 O t, q t =i λ) Viterbi-Algorithmus V 0 ( j)= 1, wenn j = Startzustand 0, sonst V t ( j)={max i=0 N V t (i) a ij } b j (O t ) mit t >
28 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
29 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
30 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
31 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
32 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
33 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
34 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
35 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
36 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
37 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
38 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
39 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
40 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA
41 c) Onlinefrage Nr. 1: Wahrsch. Folge? O 1 O 2 P(O 1, Q λ)= < P(O 2, Q λ)= O
42 Aufgabe 3: Sprachmodelle Allgemein V ={abwarten,und,tee,trinken } Laut Sprachmodell: P( I go there ) > P( I go their )
43 Aufgabe 3: Sprachmodelle Allgemein 3-gram-LM mit <S>: Satzanfang </S>: Satzende V ={abwarten,und,tee,trinken }
44 Aufgabe 3: Sprachmodelle a) abwarten und Tee trinken Formel für die Berechnung der Wahrscheinlichkeit von 3-grammen: P(<S> abwarten und Tee trinken </S>) = P(abwarten n/a <S>) * P(und <S> abwarten) * P(Tee abwarten und) * P(trinken und Tee) * P(</S> Tee trinken)
45 Aufgabe 3: Sprachmodelle a) abwarten und Tee trinken Formel für die Berechnung der Wahrscheinlichkeit von 3-grammen: P(<S> abwarten und Tee trinken </S>) = P(abwarten n/a <S>) * P(und <S> abwarten) * P(Tee abwarten und) * P(trinken und Tee) * P(</S> Tee trinken) = 0,5 * 0,6 * 0,5 * 0,5 * 0,15 = 0,
46 Aufgabe 3: Sprachmodelle a) abwarten und Tee trinken Umformung:
47 Aufgabe 3: Sprachmodelle a) abwarten und Tee trinken P(<S> abwarten und Tee trinken </S>) = 0,01125 PPL(<S> abwarten und Tee trinken </S>) = 0,01125 ^ (-1/5) = 2,
48 Aufgabe 4: Dynamische Programmierung a) Programmieren Minimale Editierdistanz D 0,0 =0 D i, j =min D i 1, j 1 +0,falls match D i 1, j 1 +1,falls sub D i 1, j +1,falls del D i, j 1 +1, falls ins
49 Aufgabe 4: Dynamische Programmierung a) Programmieren Demo
50 Aufgabe 4: Dynamische Programmierung a) Programmieren def levenshtein(s1, s2): if len(s1) < len(s2): return levenshtein(s2, s1) if len(s2) == 0: return len(s1) previous_row = range(len(s2) + 1) for i, c1 in enumerate(s1): current_row = [i + 1] for j, c2 in enumerate(s2): insertions = previous_row[j + 1] + 1 deletions = current_row[j] + 1 substitutions = previous_row[j] + (c1!= c2) current_row.append(min(insertions, deletions, substitutions)) previous_row = current_row return previous_row[-1]
51 Aufgabe 3: Sprachmodelle Satz WS PPL a) abwarten 0,13 2,77 b) abwarten und abwarten 0, ,900 c) abwarten und Tee trinken 0, ,453 d) Tee trinken und abwarten 0, ,
52 Aufgabe 4: Dynamische Programmierung a) Programmieren Referenz: wenn es im Juni viel donnert kommt ein trüber Sommer Hypothese im Juni viel Sonne kommt einen trüberen Sommer 5 viel Donner im Juni einen trüben Sommer bringt 8 Juni Donner einen Sommer 8 im Juni viel Donner bringt einen trüben Sommer 6 wenns im Juno viel Donner gibts einen trüben Sommer 7 Word edit distance
53 Aufgabe 4: Dynamische Programmierung b) Programmieren Referenz: wenn es im Juni viel donnert kommt ein trüber Sommer Hypothese Word edit distance Character edit dist. im Juni viel Sonne kommt einen trüberen Sommer 5 15 viel Donner im Juni einen trüben Sommer bringt 8 33 Juni Donner einen Sommer 8 30 im Juni viel Donner bringt einen trüben Sommer 6 18 wenns im Juno viel Donner gibts einen trüben Sommer
54 Aufgabe 4: Dynamische Programmierung c) Programmieren Referenz: wenn es im Juni viel donnert kommt ein trüber Sommer Hypothese im Juni viel Sonne kommt einen trüberen Sommer Word edit distance 5 8 viel Donner im Juni einen trüben Sommer bringt 8 12 Juni Donner einen Sommer 8 10 im Juni viel Donner bringt einen trüben Sommer 6 10 Word edit distance, sub=2 wenns im Juno viel Donner gibts einen trüben Sommer
55 Aufgabe 4: Dynamische Programmierung c) Onlinefrage Nr. 4: Niedrigste Distanz 1) 4, 6 2) 1, 5 3) 2, 5 4) 3, 8 5) 1, 8 6) 2,
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 216 M. Sperber ([email protected]) S. Nguyen ([email protected]) Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Aufgabe
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 S. Constantin ([email protected]) S. Nguyen ([email protected]) Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Aufgabe
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 S. Constantin ([email protected]) S. Nguyen ([email protected]) Übungsblatt 4 Maschinelles Lernen und Spracherkennung Abgabe
Algorithmen und Datenstrukturen in der Bioinformatik Erstes Übungsblatt WS 05/06 Musterlösung
Konstantin Clemens Johanna Ploog Freie Universität Berlin Institut für Mathematik II Arbeitsgruppe für Mathematik in den Lebenswissenschaften Algorithmen und Datenstrukturen in der Bioinformatik Erstes
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber ([email protected]) S. Nguyen ([email protected]) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
Hidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
Softwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl {peter,guta,schamper}@i6.informatik.rwth-aachen.de Vorbesprechung 3. Aufgabe 19. Mai 2017 Human Language
Hannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
Zeitreihenanalyse mit Hidden Markov Modellen
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials VL PLT2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt
Algorithmen auf Sequenzen
Algorithmen auf Sequenzen Fehlertolerante Mustersuche: Distanz- und Ähnlichkeitsmaße Sven Rahmann Genominformatik Universitätsklinikum Essen Universität Duisburg-Essen Universitätsallianz Ruhr Einführung
Algorithmen I - Tutorium 28 Nr. 12
Algorithmen I - Tutorium 28 Nr. 12 20.07.2017: Spaß mit Dynamischer und Linearer Programmierung Marc Leinweber [email protected] INSTITUT FÜR THEORETISCHE INFORMATIK (ITI), PROF. DR. JÖRN
Signalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
HMMs und der Viterbi-Algorithmus
July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,
Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong
Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem
6. Algorithmen auf Zeichenketten
6. Algorithmen auf Zeichenketten Motivation Wir lernen nun Algorithmen zur Lösung verschiedener elementarer Probleme auf Zeichenketten zu lösen Zeichenketten spielen eine wichtige Rolle in diversen Gebieten
Algorithmische Bioinformatik
FREIE UNIVERSITÄT BERLIN Fachbereich Mathematik und Informatik Institut für Informatik (WE 3) FU BERLIN Freie Universität Berlin FB Mathematik und Informatik, Institut für Informatik, Takustr. 9, D-14195
19. Dynamic Programming I
495 19. Dynamic Programming I Fibonacci, Längste aufsteigende Teilfolge, längste gemeinsame Teilfolge, Editierdistanz, Matrixkettenmultiplikation, Matrixmultiplikation nach Strassen [Ottman/Widmayer, Kap.
Automatische Spracherkennung
Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.
Datenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale
Übungen zum Vorkurs Mathematik
Übungen zum Vorkurs Mathematik Blatt 1 W.S.2009/2010 - Ernst Bönecke Aufgaben zur Aussagenlogik 1.) Seien A, B, C Aussagen. Beweisen Sie mit Hilfe von Wahrheitstafeln, dass folgende Aussagen stets wahr
Maschinelle Sprachverarbeitung: N-Gramm-Modelle
HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind
Wiederholung. Divide & Conquer Strategie
Wiederholung Divide & Conquer Strategie Binäre Suche O(log n) Rekursives Suchen im linken oder rechten Teilintervall Insertion-Sort O(n 2 ) Rekursives Sortieren von a[1..n-1], a[n] Einfügen von a[n] in
19. Dynamic Programming I
Fibonacci Zahlen 9. Dynamic Programming I Fibonacci, Längste aufsteigende Teilfolge, längste gemeinsame Teilfolge, Editierdistanz, Matrixettenmultipliation, Matrixmultipliation nach Strassen [Ottman/Widmayer,
Hidden Markov Model (HMM)
Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig
11. Übung Algorithmen I
Timo Bingmann, Christian Schulz INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS KIT Timo Universität Bingmann, des LandesChristian Baden-Württemberg Schulz und nationales Forschungszentrum in der Helmholtz-Gemeinschaft
Suchen in Texten. Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz
Suchen in Texten Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz Textsuche Gegeben ist ein Zeichensatz (Alphabet) Σ. Für einen Text T Σ n und
Massive Parallelität : Neuronale Netze
Massive Parallelität : Neuronale Netze PI2 Sommer-Semester 2005 Hans-Dieter Burkhard Massive Parallelität : Neuronale Netze Knoten: Neuronen Neuronen können erregt ( aktiviert ) sein Kanten: Übertragung
KNN für XOR-Funktion. 6. April 2009
KNN für XOR-Funktion G.Döben-Henisch Fachbereich Informatik und Ingenieurswissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de
Statistische Sprachmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch
Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004
Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron
HMM/KNN zur Spracherkennung
HMM/KNN zur Spracherkennung Andreas Hallerbach 18. Januar 2005 Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Hauptseminar Neuroinformatik WS 04/05 Spracherkennung Zusammenfassung Die
D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11
D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Serie 11 1. Wir betrachten das überbestimmte Gleichungssystem Ax = y mit 1 1 1 1 A := 1 1 0 1 0 1, y := 2 3 0 0 1 4 Berechnen Sie die
Informatik II: Algorithmen & Datenstrukturen. Blättern Sie nicht um bevor Sie dazu aufgefordert werden!
Albert-Ludwigs-Universität Institut für Informatik Prof. Dr. F. Kuhn Informatik II: Algorithmen & Datenstrukturen Montag, 29. August, 2014, 14:00 17:00 Name:...........................................................
G. Zachmann Clausthal University, Germany Die wichtigsten Entwurfsverfahren für Algorithmen:
lausthal Informatik II Divide & onquer. Zachmann lausthal University, ermany [email protected] Algorithmen-Design-Techniken Die wichtigsten Entwurfsverfahren für Algorithmen: 1. Divide and onquer
Algorithmen und Datenstrukturen in der Bioinformatik Zweites Übungsblatt WS 05/06 Musterlösung
Johanna Ploog, Konstantin Clemens Freie Universität Berlin Institut für Mathematik II Arbeitsgruppe für Mathematik in den Lebenswissenschaften Algorithmen und Datenstrukturen in der Bioinformatik Zweites
21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3
581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv
Übungsaufgaben zur Einführung in die Bioinformatik - Lösungen
18.01.2013 Prof. P. Güntert 1 Vorlesung BPC I: Aspekte der Thermodynamik in der Strukturbiologie Übungsaufgaben zur Einführung in die Bioinformatik - Lösungen 1. Hamming und Levenshtein Distanzen a) Was
Viterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes
Viterbi Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus von Arndt Faulhaber und Benjamin Schlebes Seminar: Endliche Automaten für die Sprachverarbeitung SS 2005 PD Dr. K. Haenelt 1/28
Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.
Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.
Künstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
1 Bestimmung der inversen Matrix
Inhaltsverzeichnis 1 Bestimmung der inversen Matrix Die inverse Matrix A 1 zu einer Matrix A kann nur bestimmt werden, wenn die Determinante der Matrix A von Null verschieden ist. Im folgenden wird die
Spracherkennung und Sprachsynthese
Spracherkennung und Sprachsynthese Einführung in die Computerlinguistik Sommersemester 2012 Peter Kolb Spracherkennung / -synthese Spracherkennung (automatic speech recognition, ASR) Sprachsynthese (text-to-speech,
Algorithmen und Datenstrukturen SS09. Foliensatz 15. Michael Brinkmeier. Technische Universität Ilmenau Institut für Theoretische Informatik
Foliensatz 15 Michael Brinkmeier Technische Universität Ilmenau Institut für Theoretische Informatik Sommersemester 2009 TU Ilmenau Seite 1 / 16 Untere Schranken für das Vergleichsbasierte Sortieren TU
Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1
Adaptive Systeme Prof. Rüdiger Brause WS 2013 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags 10-12 Uhr, SR11 Übungen Donnerstags 12-13 Uhr, SR 9 Adaptive Systeme M-AS-2
Algorithmische Bioinformatik
FREIE UNIVERSITÄT BERLIN Fachbereich Mathematik und Informatik Institut für Informatik (WE 3) FU BERLIN Freie Universität Berlin FB Mathematik und Informatik, Institut für Informatik, Takustr. 9, D-14195
Softwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Throsten Peter, Andreas Guta {peter,guta}@i6.informatik.rwth-aachen.de Vorbesprechung 3. Aufgabe 6. Mai 2014 Human Language Technology and Pattern Recognition
Klassifikationsverfahren und Neuronale Netze
Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
Tagging mit Hidden Markov Models und Viterbi-Algorithmus
Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:
Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
Projektgruppe. Text Labeling mit Sequenzmodellen
Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:
Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013
Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte
Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank
Wortdekodierung Vorlesungsunterlagen Speech Communication 2, SS 2004 Franz Pernkopf/Erhard Rank Institute of Signal Processing and Speech Communication University of Technology Graz Inffeldgasse 16c, 8010
Hidden Markov Models
Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach
Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells
Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren
Dynamische Programmierung
Dynamische Programmierung Claudia Gerhold 9.5.6 Claudia Gerhold Dynamische Programmierung 9.5.6 / 4 Agenda Einführung Dynamische Programmierung Top-Down Ansatz mit Memoization Bottom-Up Ansatz 3 Anwendungsbeispiele
Algorithmische Bioinformatik 1
Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Paarweises
Diskrete Mathematik 1
Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof. Dr. Alexander May M. Ritzenhofen, M. Mansour Al Sawadi, A. Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik 1 WS 008/09 Blatt
1. Teilklausur Gruppe A. Bitte in Druckschrift leserlich ausfüllen!
Objektorientierte Programmierung & Modellierung WS 2007/8 Universität Koblenz-Landau Institut für Informatik Prof. Dr. Ralf Lämmel Dr. Manfred Jackel 1. Teilklausur 07.12.2007 Gruppe A Bitte in Druckschrift
Vorlesung 2 KÜRZESTE WEGE
Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!
Einführung in die Computerlinguistik POS-Tagging
Einführung in die Computerlinguistik POS-Tagging Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2013 POS Tags (1) POS = part-of-speech Tags sind morphosyntaktische Kategorien von Wortformen.
Einführung in die Computerlinguistik
Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion
Computational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund [email protected] Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart
Institut für maschinelle Sprachverarbeitung Universität Stuttgart [email protected] Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle
HS: Angewandte Linguistische Datenverarbeitung Prof. Dr. Rolshoven Universität zu Köln. Edit distance. Referentinnen: Alena Geduldig, Kim Opgenoorth
HS: Angewandte Linguistische Datenverarbeitung Prof. Dr. Rolshoven Universität zu Köln Edit distance Referentinnen: Alena Geduldig, Kim Opgenoorth inexact matching Problem Erkenne, finde und toleriere
