Kognitive Systeme. Übung 4

Größe: px
Ab Seite anzeigen:

Download "Kognitive Systeme. Übung 4"

Transkript

1 Kognitive Systeme Übung 4 Matthias Sperber Thai Son Nguyen

2 Wir bitten um Entschuldigung: Trotz anders lautender Ankündigung änderte sich die korrekte Lösung für Aufgabe 3e, sodass keine der online auswählbaren Antworten richtig ist Daher unser Angebot: Wir ignorieren für Blatt 4 die Online Abgabe, und werden Bonuspunkte manuell, aufgrund der schriftlichen Ausarbeitungen (exklusive Aufgabe 3e), vergeben Probleme können dann im Einzelfall besprochen werden

3 Aufgabe 1: Neuronales Netz a) XOR-Problem Aufgabe: neuronales Netz entwickeln, welches XOR-Problem löst. 1 versteckte Schicht 2 binäre Eingänge (0/1) 1 binärer Ausgang (0/1) Eingang 1 Eingang 2 Ausgang

4 Aufgabe 1: Neuronales Netz a) XOR-Problem Mögliche Lösungen z.b.:

5 Aufgabe 1: Neuronales Netz b) Online-Frage Wieviele versteckte Neuronen sind mind. nötig (direkte Verbindungen nicht erlaubt?) Antwort:

6 HMMs in der automatischen Spracherkennung

7 a) Wahrscheinlichkeit Pro Zustand Emissionswahrscheinlichkeiten summieren sich auf zu 1 Übergangswahrscheinlichkeiten summieren sich auf zu

8 a) Wahrscheinlichkeit O 1 =ABA Wahrscheinlichkeit für? P (O λ)= Q P (O, Q λ) Forward-Algorithmus α 0 ( j)= 1, wenn j = Startzustand 0, sonst N α t ( j)={ i=0 α t 1 (i) a ij } b j (O t ) mit t >

9 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

10 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

11 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

12 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

13 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

14 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

15 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

16 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

17 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

18 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

19 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

20 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

21 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

22 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

23 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

24 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 1 =ABA?

25 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 2 =CAB?

26 a) Wahrscheinlichkeit Wahrscheinlichkeit für O 2 =CAB? C A B

27 b) Zustandskette O 1 = ABA Mit max. Wahrscheinlichkeit für? V t (i)=max q1 q t 1 P (O 1 O t, q t =i λ) Viterbi-Algorithmus V 0 ( j)= 1, wenn j = Startzustand 0, sonst V t ( j)={max i=0 N V t (i) a ij } b j (O t ) mit t >

28 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

29 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

30 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

31 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

32 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

33 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

34 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

35 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

36 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

37 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

38 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

39 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

40 b) Zustandskette Mit max. Wahrscheinlichkeit für? O 1 = ABA

41 c) Onlinefrage Nr. 1: Wahrsch. Folge? O 1 O 2 P(O 1, Q λ)= < P(O 2, Q λ)= O

42 Aufgabe 3: Sprachmodelle Allgemein V ={abwarten,und,tee,trinken } Laut Sprachmodell: P( I go there ) > P( I go their )

43 Aufgabe 3: Sprachmodelle Allgemein 3-gram-LM mit <S>: Satzanfang </S>: Satzende V ={abwarten,und,tee,trinken }

44 Aufgabe 3: Sprachmodelle a) abwarten und Tee trinken Formel für die Berechnung der Wahrscheinlichkeit von 3-grammen: P(<S> abwarten und Tee trinken </S>) = P(abwarten n/a <S>) * P(und <S> abwarten) * P(Tee abwarten und) * P(trinken und Tee) * P(</S> Tee trinken)

45 Aufgabe 3: Sprachmodelle a) abwarten und Tee trinken Formel für die Berechnung der Wahrscheinlichkeit von 3-grammen: P(<S> abwarten und Tee trinken </S>) = P(abwarten n/a <S>) * P(und <S> abwarten) * P(Tee abwarten und) * P(trinken und Tee) * P(</S> Tee trinken) = 0,5 * 0,6 * 0,5 * 0,5 * 0,15 = 0,

46 Aufgabe 3: Sprachmodelle a) abwarten und Tee trinken Umformung:

47 Aufgabe 3: Sprachmodelle a) abwarten und Tee trinken P(<S> abwarten und Tee trinken </S>) = 0,01125 PPL(<S> abwarten und Tee trinken </S>) = 0,01125 ^ (-1/5) = 2,

48 Aufgabe 4: Dynamische Programmierung a) Programmieren Minimale Editierdistanz D 0,0 =0 D i, j =min D i 1, j 1 +0,falls match D i 1, j 1 +1,falls sub D i 1, j +1,falls del D i, j 1 +1, falls ins

49 Aufgabe 4: Dynamische Programmierung a) Programmieren Demo

50 Aufgabe 4: Dynamische Programmierung a) Programmieren def levenshtein(s1, s2): if len(s1) < len(s2): return levenshtein(s2, s1) if len(s2) == 0: return len(s1) previous_row = range(len(s2) + 1) for i, c1 in enumerate(s1): current_row = [i + 1] for j, c2 in enumerate(s2): insertions = previous_row[j + 1] + 1 deletions = current_row[j] + 1 substitutions = previous_row[j] + (c1!= c2) current_row.append(min(insertions, deletions, substitutions)) previous_row = current_row return previous_row[-1]

51 Aufgabe 3: Sprachmodelle Satz WS PPL a) abwarten 0,13 2,77 b) abwarten und abwarten 0, ,900 c) abwarten und Tee trinken 0, ,453 d) Tee trinken und abwarten 0, ,

52 Aufgabe 4: Dynamische Programmierung a) Programmieren Referenz: wenn es im Juni viel donnert kommt ein trüber Sommer Hypothese im Juni viel Sonne kommt einen trüberen Sommer 5 viel Donner im Juni einen trüben Sommer bringt 8 Juni Donner einen Sommer 8 im Juni viel Donner bringt einen trüben Sommer 6 wenns im Juno viel Donner gibts einen trüben Sommer 7 Word edit distance

53 Aufgabe 4: Dynamische Programmierung b) Programmieren Referenz: wenn es im Juni viel donnert kommt ein trüber Sommer Hypothese Word edit distance Character edit dist. im Juni viel Sonne kommt einen trüberen Sommer 5 15 viel Donner im Juni einen trüben Sommer bringt 8 33 Juni Donner einen Sommer 8 30 im Juni viel Donner bringt einen trüben Sommer 6 18 wenns im Juno viel Donner gibts einen trüben Sommer

54 Aufgabe 4: Dynamische Programmierung c) Programmieren Referenz: wenn es im Juni viel donnert kommt ein trüber Sommer Hypothese im Juni viel Sonne kommt einen trüberen Sommer Word edit distance 5 8 viel Donner im Juni einen trüben Sommer bringt 8 12 Juni Donner einen Sommer 8 10 im Juni viel Donner bringt einen trüben Sommer 6 10 Word edit distance, sub=2 wenns im Juno viel Donner gibts einen trüben Sommer

55 Aufgabe 4: Dynamische Programmierung c) Onlinefrage Nr. 4: Niedrigste Distanz 1) 4, 6 2) 1, 5 3) 2, 5 4) 3, 8 5) 1, 8 6) 2,

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 216 M. Sperber ([email protected]) S. Nguyen ([email protected]) Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Aufgabe

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 S. Constantin ([email protected]) S. Nguyen ([email protected]) Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Aufgabe

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2018 S. Constantin ([email protected]) S. Nguyen ([email protected]) Übungsblatt 4 Maschinelles Lernen und Spracherkennung Abgabe

Mehr

Algorithmen und Datenstrukturen in der Bioinformatik Erstes Übungsblatt WS 05/06 Musterlösung

Algorithmen und Datenstrukturen in der Bioinformatik Erstes Übungsblatt WS 05/06 Musterlösung Konstantin Clemens Johanna Ploog Freie Universität Berlin Institut für Mathematik II Arbeitsgruppe für Mathematik in den Lebenswissenschaften Algorithmen und Datenstrukturen in der Bioinformatik Erstes

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber ([email protected]) S. Nguyen ([email protected]) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl {peter,guta,schamper}@i6.informatik.rwth-aachen.de Vorbesprechung 3. Aufgabe 19. Mai 2017 Human Language

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Zeitreihenanalyse mit Hidden Markov Modellen

Zeitreihenanalyse mit Hidden Markov Modellen Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials VL PLT2

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

Algorithmen auf Sequenzen

Algorithmen auf Sequenzen Algorithmen auf Sequenzen Fehlertolerante Mustersuche: Distanz- und Ähnlichkeitsmaße Sven Rahmann Genominformatik Universitätsklinikum Essen Universität Duisburg-Essen Universitätsallianz Ruhr Einführung

Mehr

Algorithmen I - Tutorium 28 Nr. 12

Algorithmen I - Tutorium 28 Nr. 12 Algorithmen I - Tutorium 28 Nr. 12 20.07.2017: Spaß mit Dynamischer und Linearer Programmierung Marc Leinweber [email protected] INSTITUT FÜR THEORETISCHE INFORMATIK (ITI), PROF. DR. JÖRN

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

HMMs und der Viterbi-Algorithmus

HMMs und der Viterbi-Algorithmus July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

6. Algorithmen auf Zeichenketten

6. Algorithmen auf Zeichenketten 6. Algorithmen auf Zeichenketten Motivation Wir lernen nun Algorithmen zur Lösung verschiedener elementarer Probleme auf Zeichenketten zu lösen Zeichenketten spielen eine wichtige Rolle in diversen Gebieten

Mehr

Algorithmische Bioinformatik

Algorithmische Bioinformatik FREIE UNIVERSITÄT BERLIN Fachbereich Mathematik und Informatik Institut für Informatik (WE 3) FU BERLIN Freie Universität Berlin FB Mathematik und Informatik, Institut für Informatik, Takustr. 9, D-14195

Mehr

19. Dynamic Programming I

19. Dynamic Programming I 495 19. Dynamic Programming I Fibonacci, Längste aufsteigende Teilfolge, längste gemeinsame Teilfolge, Editierdistanz, Matrixkettenmultiplikation, Matrixmultiplikation nach Strassen [Ottman/Widmayer, Kap.

Mehr

Automatische Spracherkennung

Automatische Spracherkennung Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale

Mehr

Übungen zum Vorkurs Mathematik

Übungen zum Vorkurs Mathematik Übungen zum Vorkurs Mathematik Blatt 1 W.S.2009/2010 - Ernst Bönecke Aufgaben zur Aussagenlogik 1.) Seien A, B, C Aussagen. Beweisen Sie mit Hilfe von Wahrheitstafeln, dass folgende Aussagen stets wahr

Mehr

Maschinelle Sprachverarbeitung: N-Gramm-Modelle

Maschinelle Sprachverarbeitung: N-Gramm-Modelle HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind

Mehr

Wiederholung. Divide & Conquer Strategie

Wiederholung. Divide & Conquer Strategie Wiederholung Divide & Conquer Strategie Binäre Suche O(log n) Rekursives Suchen im linken oder rechten Teilintervall Insertion-Sort O(n 2 ) Rekursives Sortieren von a[1..n-1], a[n] Einfügen von a[n] in

Mehr

19. Dynamic Programming I

19. Dynamic Programming I Fibonacci Zahlen 9. Dynamic Programming I Fibonacci, Längste aufsteigende Teilfolge, längste gemeinsame Teilfolge, Editierdistanz, Matrixettenmultipliation, Matrixmultipliation nach Strassen [Ottman/Widmayer,

Mehr

Hidden Markov Model (HMM)

Hidden Markov Model (HMM) Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig

Mehr

11. Übung Algorithmen I

11. Übung Algorithmen I Timo Bingmann, Christian Schulz INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS KIT Timo Universität Bingmann, des LandesChristian Baden-Württemberg Schulz und nationales Forschungszentrum in der Helmholtz-Gemeinschaft

Mehr

Suchen in Texten. Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz

Suchen in Texten. Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz Suchen in Texten Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz Textsuche Gegeben ist ein Zeichensatz (Alphabet) Σ. Für einen Text T Σ n und

Mehr

Massive Parallelität : Neuronale Netze

Massive Parallelität : Neuronale Netze Massive Parallelität : Neuronale Netze PI2 Sommer-Semester 2005 Hans-Dieter Burkhard Massive Parallelität : Neuronale Netze Knoten: Neuronen Neuronen können erregt ( aktiviert ) sein Kanten: Übertragung

Mehr

KNN für XOR-Funktion. 6. April 2009

KNN für XOR-Funktion. 6. April 2009 KNN für XOR-Funktion G.Döben-Henisch Fachbereich Informatik und Ingenieurswissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

Statistische Sprachmodelle

Statistische Sprachmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

HMM/KNN zur Spracherkennung

HMM/KNN zur Spracherkennung HMM/KNN zur Spracherkennung Andreas Hallerbach 18. Januar 2005 Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Hauptseminar Neuroinformatik WS 04/05 Spracherkennung Zusammenfassung Die

Mehr

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11

D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung. Serie 11 D-INFK Lineare Algebra HS 2017 Özlem Imamoglu Olga Sorkine-Hornung Serie 11 1. Wir betrachten das überbestimmte Gleichungssystem Ax = y mit 1 1 1 1 A := 1 1 0 1 0 1, y := 2 3 0 0 1 4 Berechnen Sie die

Mehr

Informatik II: Algorithmen & Datenstrukturen. Blättern Sie nicht um bevor Sie dazu aufgefordert werden!

Informatik II: Algorithmen & Datenstrukturen. Blättern Sie nicht um bevor Sie dazu aufgefordert werden! Albert-Ludwigs-Universität Institut für Informatik Prof. Dr. F. Kuhn Informatik II: Algorithmen & Datenstrukturen Montag, 29. August, 2014, 14:00 17:00 Name:...........................................................

Mehr

G. Zachmann Clausthal University, Germany Die wichtigsten Entwurfsverfahren für Algorithmen:

G. Zachmann Clausthal University, Germany Die wichtigsten Entwurfsverfahren für Algorithmen: lausthal Informatik II Divide & onquer. Zachmann lausthal University, ermany [email protected] Algorithmen-Design-Techniken Die wichtigsten Entwurfsverfahren für Algorithmen: 1. Divide and onquer

Mehr

Algorithmen und Datenstrukturen in der Bioinformatik Zweites Übungsblatt WS 05/06 Musterlösung

Algorithmen und Datenstrukturen in der Bioinformatik Zweites Übungsblatt WS 05/06 Musterlösung Johanna Ploog, Konstantin Clemens Freie Universität Berlin Institut für Mathematik II Arbeitsgruppe für Mathematik in den Lebenswissenschaften Algorithmen und Datenstrukturen in der Bioinformatik Zweites

Mehr

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3

21. Greedy Algorithmen. Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 581 21. Greedy Algorithmen Aktivitätenauswahl, Fractional Knapsack Problem, Huffman Coding Cormen et al, Kap. 16.1, 16.3 Aktivitäten Auswahl 582 Koordination von Aktivitäten, die gemeinsame Resource exklusiv

Mehr

Übungsaufgaben zur Einführung in die Bioinformatik - Lösungen

Übungsaufgaben zur Einführung in die Bioinformatik - Lösungen 18.01.2013 Prof. P. Güntert 1 Vorlesung BPC I: Aspekte der Thermodynamik in der Strukturbiologie Übungsaufgaben zur Einführung in die Bioinformatik - Lösungen 1. Hamming und Levenshtein Distanzen a) Was

Mehr

Viterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes

Viterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes Viterbi Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus von Arndt Faulhaber und Benjamin Schlebes Seminar: Endliche Automaten für die Sprachverarbeitung SS 2005 PD Dr. K. Haenelt 1/28

Mehr

Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.

Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

1 Bestimmung der inversen Matrix

1 Bestimmung der inversen Matrix Inhaltsverzeichnis 1 Bestimmung der inversen Matrix Die inverse Matrix A 1 zu einer Matrix A kann nur bestimmt werden, wenn die Determinante der Matrix A von Null verschieden ist. Im folgenden wird die

Mehr

Spracherkennung und Sprachsynthese

Spracherkennung und Sprachsynthese Spracherkennung und Sprachsynthese Einführung in die Computerlinguistik Sommersemester 2012 Peter Kolb Spracherkennung / -synthese Spracherkennung (automatic speech recognition, ASR) Sprachsynthese (text-to-speech,

Mehr

Algorithmen und Datenstrukturen SS09. Foliensatz 15. Michael Brinkmeier. Technische Universität Ilmenau Institut für Theoretische Informatik

Algorithmen und Datenstrukturen SS09. Foliensatz 15. Michael Brinkmeier. Technische Universität Ilmenau Institut für Theoretische Informatik Foliensatz 15 Michael Brinkmeier Technische Universität Ilmenau Institut für Theoretische Informatik Sommersemester 2009 TU Ilmenau Seite 1 / 16 Untere Schranken für das Vergleichsbasierte Sortieren TU

Mehr

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1 Adaptive Systeme Prof. Rüdiger Brause WS 2013 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags 10-12 Uhr, SR11 Übungen Donnerstags 12-13 Uhr, SR 9 Adaptive Systeme M-AS-2

Mehr

Algorithmische Bioinformatik

Algorithmische Bioinformatik FREIE UNIVERSITÄT BERLIN Fachbereich Mathematik und Informatik Institut für Informatik (WE 3) FU BERLIN Freie Universität Berlin FB Mathematik und Informatik, Institut für Informatik, Takustr. 9, D-14195

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Throsten Peter, Andreas Guta {peter,guta}@i6.informatik.rwth-aachen.de Vorbesprechung 3. Aufgabe 6. Mai 2014 Human Language Technology and Pattern Recognition

Mehr

Klassifikationsverfahren und Neuronale Netze

Klassifikationsverfahren und Neuronale Netze Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Tagging mit Hidden Markov Models und Viterbi-Algorithmus

Tagging mit Hidden Markov Models und Viterbi-Algorithmus Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte

Mehr

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank

Wortdekodierung. Vorlesungsunterlagen Speech Communication 2, SS Franz Pernkopf/Erhard Rank Wortdekodierung Vorlesungsunterlagen Speech Communication 2, SS 2004 Franz Pernkopf/Erhard Rank Institute of Signal Processing and Speech Communication University of Technology Graz Inffeldgasse 16c, 8010

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Dynamische Programmierung

Dynamische Programmierung Dynamische Programmierung Claudia Gerhold 9.5.6 Claudia Gerhold Dynamische Programmierung 9.5.6 / 4 Agenda Einführung Dynamische Programmierung Top-Down Ansatz mit Memoization Bottom-Up Ansatz 3 Anwendungsbeispiele

Mehr

Algorithmische Bioinformatik 1

Algorithmische Bioinformatik 1 Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Paarweises

Mehr

Diskrete Mathematik 1

Diskrete Mathematik 1 Ruhr-Universität Bochum Lehrstuhl für Kryptologie und IT-Sicherheit Prof. Dr. Alexander May M. Ritzenhofen, M. Mansour Al Sawadi, A. Meurer Lösungsblatt zur Vorlesung Diskrete Mathematik 1 WS 008/09 Blatt

Mehr

1. Teilklausur Gruppe A. Bitte in Druckschrift leserlich ausfüllen!

1. Teilklausur Gruppe A. Bitte in Druckschrift leserlich ausfüllen! Objektorientierte Programmierung & Modellierung WS 2007/8 Universität Koblenz-Landau Institut für Informatik Prof. Dr. Ralf Lämmel Dr. Manfred Jackel 1. Teilklausur 07.12.2007 Gruppe A Bitte in Druckschrift

Mehr

Vorlesung 2 KÜRZESTE WEGE

Vorlesung 2 KÜRZESTE WEGE Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!

Mehr

Einführung in die Computerlinguistik POS-Tagging

Einführung in die Computerlinguistik POS-Tagging Einführung in die Computerlinguistik POS-Tagging Laura Heinrich-Heine-Universität Düsseldorf Sommersemester 2013 POS Tags (1) POS = part-of-speech Tags sind morphosyntaktische Kategorien von Wortformen.

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund [email protected] Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart Institut für maschinelle Sprachverarbeitung Universität Stuttgart [email protected] Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle

Mehr

HS: Angewandte Linguistische Datenverarbeitung Prof. Dr. Rolshoven Universität zu Köln. Edit distance. Referentinnen: Alena Geduldig, Kim Opgenoorth

HS: Angewandte Linguistische Datenverarbeitung Prof. Dr. Rolshoven Universität zu Köln. Edit distance. Referentinnen: Alena Geduldig, Kim Opgenoorth HS: Angewandte Linguistische Datenverarbeitung Prof. Dr. Rolshoven Universität zu Köln Edit distance Referentinnen: Alena Geduldig, Kim Opgenoorth inexact matching Problem Erkenne, finde und toleriere

Mehr