Hidden Markov Modellen
|
|
- Lukas Feld
- vor 6 Jahren
- Abrufe
Transkript
1 Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach VL PLT2 Professur für Prozessleittechnik
2 Übersicht Wiederholung Markov Modelle Modellierungsansatz & Markov Eigenschaft Beispiel: Robot-Human-Spiel Typische Fragestellungen an ein Markov Modell Einführung Dynamic Programming Hidden Markov Modelle Modellierungsansatz 3 Problemstellungen Schätzen: Backward-Forward Verfahren Suchen: Viterbi Pfade Lernen: Baum-Welch Verfahren PLT2 (c) , Urbas, Pfeffer, Krause Folie 2
3 Andrei Andreyevich Markov * 14. Juni Juli 1922 Professor in Sankt Petersburg für Theorie der stochastischen Prozesse Leonard E. Baum: 1960er erste Veröffentlichung über Hidden Markov Modelle. Entwickelt für die Spracherkennung PLT2 (c) , Urbas, Pfeffer, Krause Folie 3
4 Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Wiederholung Markov Modelle
5 Wiederholung Markov Modelle Ein System habe N Zustände s 1, s 2,, s n Zeitschritte t=1, t=2, Im Zeitschritt t ist das System in genau einem Zustand q t {s 1, s 2,, s n } Zu jedem Zeitschritt wird der nächste Zustand zufällig gewählt Die Wahrscheinlichkeitsverteilung für den nächsten Zustand wird nur vom aktuellen Zustand bestimmt (und nicht vom Weg dahin) PLT2 (c) , Urbas, Pfeffer, Krause Folie 5
6 Beispiel Markov Modelle 3 Zustände s 1, s 2, s 3 Übergangswahrscheinlichkeiten aus s 1 P(q t+1 =s 1 q t =s 1 )=0 P(q t+1 =s 2 q t =s 1 )=0 1/2 P(q t+1 =ss 3 q t =ss 1 )=1 Übergangswahrscheinlichkeiten aus s 2 P(q t+1 =s 1 q t =s 2 )=1/2 P(q t+1 =s s 2 q t =s s 2 )=1/2 s P(q t+1 =s 3 q t =s 2 )=0 1/3 s 1 1/2 s 2 1 2/3 s 3 Übergangswahrscheinlichkeiten aus s 3 P(q t+1 =s 1 q t =s 3 )=1/3 P(q t+1 =s 2 q t =s 3 )=2/3 P(q t+1 =s 3 q t =s 3 )=0 A = PLT2 (c) , Urbas, Pfeffer, Krause Folie 6
7 Markov Eigenschaft q t+1 ist bei gegebenem q t bedingt unabhängig* von den vorher eingenommenen Zuständen {q t-1, q t-2,,q 1 } Formal 1/3 1/2 P(q t+1 =ss j q t =ss i ) = P(q t+1 =ss j q t =ss i, beliebiger Weg nach s i ) s s 1 1/2 s 2 1 2/3 s 3 * a und b sind bedingt unabhängig bei gegebenem c wenn gilt P a, b c P a c P b c Diese Aussage ist äquivalent P a b, c = P a c PLT2 (c) , Urbas, Pfeffer, Krause Folie 7
8 Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Beispiel Robot-Human-Spiel
9 Beispiel von A. Moore ( Ein Roboter (R) und ein Mensch (H) bewegen sich zufällig auf einem Spielfeld ld mit 18 Feldern. Der Systemzustand sei definiert als das Tupel <Feld R, Feld H> 18*18=324 Zustände! z.b. <4,8> In jedem Zeitschritt bewegen sich R und H auf ein benachbartes Feld PLT2 (c) , Urbas, Pfeffer, Krause Folie 9
10 Typische Fragen 1.Wie lange dauert es durchschnittlich bis R und H kollidieren? 2.Wie groß ist die Wahrscheinlichkeit dass R gegen die linke Wand rennt, bevor er mit H zusammenstößt? 3.Wie wahrscheinlich ist es, dass H und R im nächsten Schritt zusammenstoßen? PLT2 (c) , Urbas, Pfeffer, Krause Folie 10
11 Kollisionswahrscheinlichkeit im nächsten Schritt Geg.: Aktuelle Zeit = t, H lebt noch Ges.: Wahrscheinlichkeit, dass H im nächsten Schritt platt ist? R ist blind Berechenbar -> Thema der nächsten Folien R ist allwissend R kennt Zustand, direkt berechenbar R mit Sensoren aber unvollständiger Information Hidden Markov Modell! PLT2 (c) , Urbas, Pfeffer, Krause Folie 11
12 Wahrscheinlichkeit des Zustands q t = s j Es gibt viele Pfade Q = q 1 q 2 q 3 q t zu einem Zustand q t =ss j Wie kann ein bestimmtes P(Q) berechnet werden? Wir kennen den Startzustand q 1, d.h. P(q 1 )=1 Es gilt: P(q 1 q 2 q 3 q t ) = P(q 1 q 2 q 3 q t-1 )P(q t q 1 q 2 q 3 q t-1 ) = P(q 1 q 2 q 3 q t-1 )P(q t q t-1 ) = P(q 1 )P(q 2 q 1 )P(q 3 q 2 ) P(q t q t-1 ) Naiver Ansatz: Summiere Wahrscheinlichkeit aller Wege Q* mit der Länge t, die in s j enden P(q t = s j q 1 ) = Σ Q* P(Q*) Aufwand exponentiell in t, O(N t ) ungeeignet! PLT2 (c) , Urbas, Pfeffer, Krause Folie 12
13 Einfach ist zu teuer! Geht das besser? Zerlegung in leichter lösbare Teilprobleme Dynamic Programming Definiere für jeden Zustand s i p t (i) : WS, dass System zur Zeit t in s i ist, d.h. p t (i) = P(q t = s i ) Rekursiver Ansatz zur Berechnung von p t (i) j i 1 p (i)=? p (j)=p(q t+ 1 t+ 1 =s j ) =? PLT2 (c) , Urbas, Pfeffer, Krause Folie 13
14 Berechnung P(q t = s) i p 1 (i) = 1 fürsi = 0 sonst j p (j) = P(q = s ) = = = t+ 1 P(q P(q a p t+ 1 t+ 1 (i) = s = s t+ 1 j j, q t q Startzustand j = s t i = s ) i )P(q t = s ij t mit a ij = P q t+ 1 = s j q t = s i und i N i ) 1 2 N Aufwand für alle Zustände s : O(t N²)! PLT2 (c) , Urbas, Pfeffer, Krause Folie 14
15 HR-Spiel, reduziertes 2x2 Spielfeld 4*4=16 Zustände Kodiere e Zustand s i als <F H,F R > F H : Feld auf dem H ist F R: Feld auf dem R ist Übergangswahrscheinlichkeiten für F H (s i )=F H (s j ) v F R (s i )=F R (s j ) a ij =P(q t+1 =s j q t =s i ) = 0 sonst a ij=p(q t+1 1=s j q t=s i) = 1/9 Berechnungsbeispiel PIV_MM-2x2HRSpiel.xls 1 2 H R 3 4 Gilt nur für blinde (=zufällige) Züge! Mögliche Zustandsübergänge g nach <2,2> PLT2 (c) , Urbas, Pfeffer, Krause Folie 15
16 Kollisionswahrscheinlichkeit im nächsten Schritt mit Sensorinformationen Geg.: Aktuelle Zeit = t, H lebt noch Ges.: Wahrscheinlichkeit, dass H im nächsten Schritt platt ist? R ist blind R ist allwissend R kennt Zustand, direkt berechenbar R mit Sensoren aber unvollständiger Info Hidden Markov Modell! PLT2 (c) , Urbas, Pfeffer, Krause Folie 16
17 Versteckte Zustände Bislang: Schätzung von P(q t =s j ) ohne Beobachtung Annahme: Beobachtung verfügbar, die von dem wahren Zustand beeinflusst wird. Beispiel HR-Spiel: Umgebungssensor für 8 umgebende Felder Beispiel (W=Wand) PLT2 (c) , Urbas, Pfeffer, Krause Folie 17
18 Sensor + Rauschen Umgebungssensor ist nicht perfekt Messrauschen, Fehlklassifikation, Annahmen Beobachtung O t wird nur von Systemzustand q t + Zufallskomponente bestimmt O t sei bedingt unabhängig von {q t-1 1,..q 1,O t-1 1,..O 1 } bei gegebenem q t b i (k)=p(o t =k q t =s i ) = P(O t =k q t =s i, beliebiger Weg nach s i ) = +Fehler PLT2 (c) , Urbas, Pfeffer, Krause Folie 18
19 Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Hidden Markov Modelle Modellierungsansatz
20 Einsatz von HMMs Roboterplanung & -sensorik unter Unsicherheit h it Spracherkennung Gestenerkennung Nutzer- und Entscheidungsmodellierung Gensequenzierung Marktmodelle Fehlermodelle in der Prozessautomatisierung PLT2 (c) , Urbas, Pfeffer, Krause Folie 20
21 Formale Definition des HMM Ein HMM ist ein 5-Tupel aus N Anzahl der Zustände M Anzahl der möglichen Beobachtungen {π 1 π n } Anfangsws. π i = P(q 1 = s i ) a ij Matrix der Zustandsübergangsws. a ij = P(q t+1 = s j q t =s i ) i,j [1 N] j j b i (k) Matrix der Beobachtungsws. b i (k) = P(O t = k q t =s i ) i [1 N], k [1 M] PLT2 (c) , Urbas, Pfeffer, Krause Folie 21
22 Hidden Markov Modell (1/2) (Rabiner 1989) Spezifikation eines HMM λ = <N,M,{π i },{a ij },{b i (k)}> Andere Notation: λ = (π,a,b) N: Anzahl der Zustände s 1, s 2,, s N M: Anzahl der Beobachtungen 1 M π: : Initialverteilung A: Zustandsübergangsmatrix B: Zustands-Symbolmatrix PLT2 (c) , Urbas, Pfeffer, Krause Folie 22
23 Hidden Markov Modell (2/2) (Rabiner 1989) T: Länge der Beobachtungssequenz O: Sequenz der Beobachtungen O = O 1 O 2 O 3 O T Q: Pfad durch die Zustände Q = q 1 q 2 q 3 q T PLT2 (c) , Urbas, Pfeffer, Krause Folie 23
24 Beispiel für ein HMM Das Modell startet zufällig im Zustand s oder s im Zustand s 1 oder s 2 In jedem Zustand wird zufällig eines der eingezeichneten Symbole X, Y, Z ausgegeben PLT2 (c) , Urbas, Pfeffer, Krause Folie 24
25 Beispiel Beobachtung (1/3) Gegeben: Q=s 1 s 3 s 3, O=X X Z Gesucht: Wie hoch ist P(O)? P(O 1 O 2 O 3 ) = P(O 1 =X Λ O 2 =X Λ O 3 =Z) Direkter (langsamer) Ansatz Summiere über alle Pfade Q der Länge 3: P(O) ( ) = Σ Q P(O( Λ Q) = Σ P(O Q) ( P(Q) wir brauchen P(Q) für einen beliebigen Pfad Q P(O Q) für einen beliebigen Pfad Q PLT2 (c) , Urbas, Pfeffer, Krause Folie 25
26 Beispiel Beobachtung (2/3) Berechnung P(Q) für einen beliebigen Pfad Q P(Q) = P(q 1,q 2,q 3 ) = P(q 2,q 3 q 1 ) P(q 1 ) = P(q 3 q 2 ) P(q 2 q 1 ) P(q 1 ) = P(q 1 ) P(q 2 q 1 ) P(q 3 q 2 ) Beispiel Q=s 1 s 3 s 3 : P(Q) = P(q 1 =s 1 )P(q 2 =s 3 q 1 =s 1 )P(q 3 =s 3 q 2 =s 3 ) = π 1 * a 13 * a 23 = 1/2 * 2/3 * 1/3 = 1/ PLT2 (c) , Urbas, Pfeffer, Krause Folie 26
27 Beispiel Beobachtung (3/3) Berechnung P(O Q) für einen Pfad Q P(O 1 O 2 O 3 q 1,q 2,q 3 ) = P(O 1 q 1 ) P(O 2 q 2 ) P(O 3 q 3 ) Beispiel Q=s 1 s 3 s 3 : P(X q 1 =s 1 ) P(X q 2 =s 3 ) P(Z q 3 =s 3 ) = 1/2 * 1/2 * 1/2 = 1/8 P(O) = ΣQ P(O Λ Q) = Σ P(O Q) P(Q) 27 (N T ) Berechnungen von P(Q) und P(O Q) Bei 20 Beobachtungen: je 3.5 Mrd Berechnungen von P(Q) und P(O Q)! Zu aufwändig! D.P.-Ansatz? PLT2 (c) , Urbas, Pfeffer, Krause Folie 27
28 Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Hidden Markov Modelle Typische Fragestellungen
29 Hidden Markov Modell (HMM) Typische Fragen an HMM bei gegebenen B b Beobachtungen O 1 O 2 O 3 O t Zustand: In welchem Zustand sind wir jetzt? P(q t =s i O 1 O 2 O 3 OO t ), Forward-Backward-Algorithmus Pfad: Welcher Weg wurde wahrscheinlich eingeschlagen? Q* = argmax Q P(Q O), Viterbi-Algorithmus Lernen von HMMs: Wie sieht ein HMM λ aus, das diese Beobachtungen generiert haben könnte λ* = argmax λ P(λ O), Baum-Welch-Algorithmus PLT2 (c) , Urbas, Pfeffer, Krause Folie 29
30 Frage 1: Aktueller Zustand P(q t =s i O) Geg.: Beobachtungen O 1 O 2 O 3 O T Ges.: Zustand q t Definiere α t (i) als die WS, dass das durch λ spezifizierte Hidden Markov Modell zum Zeitpunkt t im Zustand s i ist, UND auf einem zufälligen Pfad dorthin t Beobachtungen O 1 O 2 O t ausgegeben wurden α t (i) = P(O 1 O 2 O 3 O t q t = s i λ); 1 t T Rekursive Definition von α t (i): α 1 1( (i), α t+1(j) PLT2 (c) , Urbas, Pfeffer, Krause Folie 30
31 Rekursive Definition von α t (i) α 1 (i) = P(O 1 q 1 = s i ) = P(q 1 = s i ) P(O 1 q 1 = s i ) = π i b i (O 1 ) α t+1 (j) = P(O 1 O 2 O t O t+1 q t+1 =s j ) = Σ i=1,n P(O 1 O 2 O t q t =s i O t+1 q t+1 =s j ) = Σ i=1,n P(O t+1,q t+1 =s j O 1 O 2 O t q t =s i ) P(O 1 O 2 O t q t =s i ) = Σ i=1,n P(O t+1,q t+1 =s j q t =s i ) α t (i) = Σ i=1,n P(q t+1 =s j q t =s i ) P(O t+1 q t+1 =s j ) α t (i) = Σ i=1,n a ij b j (O t+1 ) α t (i) i 1,N ij j t+1 t PLT2 (c) , Urbas, Pfeffer, Krause Folie 31
32 Beispiel α t (i) = P(O 1 O 2 O t q t = s i λ) α 1 (i) = b i (O 1 ) π i α t+1 (j) = Σ a ij b j (O t+1 ) α t (i) Gegeben: O=X X Z α 1 (1)=1/4 α 1 (2)=0 α 1 (3)=0 α 2 (1)=0 α 2 (2)=0 α 2 (3)=1/12 α 3 (1)=0 α 3 (2)=1/72 α 3 (3)=? PLT2 (c) , Urbas, Pfeffer, Krause Folie 32
33 Übergang zu P(q t =s i O 1 O 2 O 3 O t )? α t (i) = P(O 1 O 2 O 3 O t Λ q t = S i λ) P(O 1 O 2 O t ) = Σ i=1,n α t (i) P(q t =S i O 1 O 2 O t ) = α t (i) / Σ j=1,n α t (j) PLT2 (c) , Urbas, Pfeffer, Krause Folie 33
34 Frage 2: Wahrscheinlichster Pfad Q O Gegeben: Beobachtungen O 1 O 2 O 3 O T Gesucht: Wahrscheinlichster h h Pfad Q argmax Q P(Q O 1 O 2 O 3 O T ) Direkter Weg wieder zu aufwändig: argmax Q P(Q O 1 O 2 O 3 O T ) = argmax Q P(O 1 O 2 O 3 O T Q)P(Q) / P(O 1 O 2 O 3 O T ) = argmax Q P(O 1 O 2 O 3 O T Q)P(Q) Das geht besser! PLT2 (c) , Urbas, Pfeffer, Krause Folie 34
35 Partiell beste Pfade im Trellisdiagramm Für jeden Zustand q t =s i gibt es einen wahrscheinlichsten h h Pfad state X X Z PLT2 (c) , Urbas, Pfeffer, Krause Folie 35 t
36 state Partielle beste Pfade Unterschied zu Forward-Algorithmus Wahrscheinlichkeit h hk it des EINEN wahrscheinlichsten h h Pfades zum Zustand X X Z PLT2 (c) , Urbas, Pfeffer, Krause Folie 36 t
37 Partieller bester Pfad δ t (i)= max P(q 1 q 2...q t-1 Λ q t = S i Λ O 1...O t ) q1 qt-1 WS des Pfades q 1 q 2..q t-1 der Länge t-1 1 mit der größten Chance folgende Bedingungen zu erfüllen: Pfad Q ist möglich q 1 q 2...q t-1 UND endet zum Zeitpunkt t in S i q t =SS i UND produziert O O 1...O t PLT2 (c) , Urbas, Pfeffer, Krause Folie 37
38 Ansatz δ t (i)= max P(q 1 q 2...q t-1 Λ q t = S i Λ O 1...O t ) q1 qt-1 WS des Pfades q 1 q 2..q t-1 der Länge t-1 mit der größten Chance folgende Bedingungen g zu erfüllen: Pfad Q ist möglich q 1 q 2...q t-1 UND endet zum Zeitpunkt t in S i q t =S i UND produziert O O 1...O t Def: mpp t (i) = dieser Pfad, δ t (i)=p(mpp t (i)) PLT2 (c) , Urbas, Pfeffer, Krause Folie 38
39 VITERBI Algorithmus δ t (i)= max P(q 1..q t-1 Λ q t =S i Λ O 1...O t ) q1 qt-1 mpp t (i)= argmax P(q 1..q t-1 Λ q t =S i Λ O 1...O t ) q1 qt-1 Start: t=1 δ 1 (i)= max P(q 1 =S i Λ O 1 ) q1 = P(q 1 =S i )P(O 1 q 1 =S i ) = π i b i (O 1 ) i i( 1 ) Angenommen, wir kennen δ t (i) und mpp t (i) Wie kommen wir zu δ t+1 (i) und mpp t+1 (i)? PLT2 (c) , Urbas, Pfeffer, Krause Folie 39
40 VITERBI Algorithmus t > 1 Angenommen, wir kennen δ t (i) und mpp t (i) Wie kommen wir zu δ t+1 (i) und mpp t+1 (i)? Der WSste Pfad dessen letzten beiden Zustände S i und S j sind ist Der WSstePfad zu S i, gefolgt von einem Übergang von S i nach S j δ t (i) P(S i S j Λ O t+1 ) = δ t (i)a ij b j (O t+1 ) δ t+1 (j) = max i (δ t (i)a ij b j (O t+1 )) PLT2 (c) , Urbas, Pfeffer, Krause Folie 40
41 Backpointer Wir kennen die partiellen WS δ t (i) Wir brauchen den WSten Pfad, d.h. wir müssen uns die δ t (i) merken state X X Z t PLT2 (c) , Urbas, Pfeffer, Krause Folie 41
42 Backpointer Wir kennen die partiellen WS δ t (i) Wir brauchen den WSten Pfad, d.h. wir müssen uns die δ t (i) merken Es reicht für jeden Zustand ein Rückwärtszeiger (Backpointer Ф) aufzuheben, von dem wir am besten hier angelangt sind Ф t (i) = argmax j (δ t-1 (j)a ji ) PLT2 (c) , Urbas, Pfeffer, Krause Folie 42
43 3. Frage: Modelllernen Geg.: O T, N, M Ansatz: Definiere i γ t (i) = P(q t =s i O 1 O 2 O T, λ ) ε t t( (i,j) = P(q t = s i Λ q t+1 = s j O 1O 2 O T,λ ) γ t (i) and ε t (i,j) können i,j,t effizient berechnet werden Suchverfahren Berechne WS mit einem geschätzten Modell in einen Zustand zu gelangen, bewerte die Übereinstimmung mit den Beobachtungen, verändere anschließend die Modellparameter Details Rabiner (1989) PLT2 (c) , Urbas, Pfeffer, Krause Folie 43
44 Zusammenfassung der Problemstellungen Evaluation (Auswertung, Schätzen) Gegeben ist ein HMM λ und eine Beobachtungssequenz O T. Berechne die Wahrscheinlichkeit, dass O T von λ erzeugt wurde. Decoding (Entschlüsseln, Suchen) Gegeben ist ein HMM λ und eine Beobachtungssequenz O T. Berechne die Folge von verborgenen Zuständen, die O T mit der höchsten h Wahrscheinlichkeit h hk it erzeugt hat. Learning (Lernen) Für ein HMM λ ist die Zahl der sichtbaren und unsichtbaren Zustände bekannt, sowie ein oder mehrere Beobachtungssequenzen (Trainingssequenzen). Berechne die Parameter a ij und b j (k) PLT2 (c) , Urbas, Pfeffer, Krause Folie 44
45 Literatur & Bibliotheken Literatur Rabiner (1989) A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition, Proc. of the IEEE, Vol.77, No.2, pp , Moore, A. (o.j.) Hidden Markov Models. Boyle, R. (o.j.) Hidden Markov Models. n.html Fraser, A. (2008) HMM & Dynamical Systems. SIAM Bibliotheken MATLAB: p / p / / / R: Gestenerkennung GT2K: PLT2 (c) , Urbas, Pfeffer, Krause Folie 45
46 PLT2 (c) , Urbas, Pfeffer, Krause 46
Hidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrHidden Markov Models (HMM)
Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen
MehrHidden Markov Modelle
Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten
MehrHidden Markov Models
Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach
MehrHidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014
idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme
MehrHidden Markov Models
Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung
MehrHidden-Markov-Modelle
Proseminar: Machine-Learning Hidden-Markov-Modelle Benjamin Martin Zusammenfassung 1953 stellten Watson und Crick ihr DNA-Modell vor. Damit öffnete sich für Genforscher ein riesiges Gebiet, das bisher
MehrDer Viterbi Algorithmus
M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes
MehrTagging mit Hidden Markov Models und Viterbi-Algorithmus
Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:
Mehr8. Reinforcement Learning
8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält
MehrHidden Markov Model (HMM)
Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig
MehrAlgorithmische Methoden zur Netzwerkanalyse
Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische
MehrWelf Walter
Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Seminar 2004 Sehen und Hören Hidden Markov Modelle und Künstliche Neuronale Netze Welf Walter ww2@informatik.uni-ulm.de Zusammenfassung
MehrHidden Markov Models (HMM) Karin Haenelt
Hidden Markov Models (HMM) Karin Haenelt 16.5.2009 1 Inhalt Einführung Theoretische Basis Elementares Zufallsereignis Stochastischer Prozess (Folge von elementaren Zufallsereignissen) Markow-Kette (Stochastischer
MehrZeitstetige Markov-Prozesse: Einführung und Beispiele
Zeitstetige Markov-Prozesse: Einführung und Beispiele Simone Wielart 08.12.10 Inhalt Q-Matrizen und ihre Exponentiale Inhalt Q-Matrizen und ihre Exponentiale Zeitstetige stochastische Prozesse Inhalt Q-Matrizen
MehrAufabe 7: Baum-Welch Algorithmus
Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,
MehrFriedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong
Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem
MehrÜbungsaufgaben Lösungen
Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij
MehrHidden Markov Models Erläuterung der Bestimmung der Wahrscheinlichkeit einer Beobachtung
Hidden Markov Models Erläuterung der estimmung der Wahrscheinlichkeit einer eobachtung Kursfolien Karin Haenelt Karin Haenelt Hidden Markov-Modelle 9.66 2.64 Hidden Markov Model HMM: eschreibung Ein Hidden
MehrViterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes
Viterbi Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus von Arndt Faulhaber und Benjamin Schlebes Seminar: Endliche Automaten für die Sprachverarbeitung SS 2005 PD Dr. K. Haenelt 1/28
Mehr1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie
1 Einführung 2 Typ-0- und Typ-1-Sprachen 3 Berechnungsmodelle 4 Unentscheidbarkeit 5 Unentscheidbare Probleme 6 Komplexitätstheorie WS 11/12 155 Überblick Zunächst einmal definieren wir formal den Begriff
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrTutoriums-Paper zu Hidden Markov Models
Tutoriums-Paper zu Hidden Markov Models Mario Mohr February 1, 2015 Contents 1 Das Modell 1 2 Der Forward-Algorithmus 2 2.1 Wahrscheinlichkeiten von Beobachtungsketten........................ 4 2.2 Filtering.............................................
MehrEinführung in die Theorie der Markov-Ketten. Jens Schomaker
Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch
MehrAlgorithmen für Geographische Informationssysteme
Algorithmen für Geographische Informationssysteme 8. Vorlesung: 10. Dezember 2012 Jan-Henrik Haunert Map Matching Problemformulierung Gegeben: Das Straßennetz als planar eingebetteter Graph G = V, E Die
MehrKognitive Systeme. Übung 4
Kognitive Systeme Übung 4 Matthias Sperber Thai Son Nguyen 1 29.06.16 Wir bitten um Entschuldigung: Trotz anders lautender Ankündigung änderte sich die korrekte Lösung für Aufgabe 3e, sodass keine der
MehrTheoretische Informatik 1
Theoretische Informatik 1 Nichtdeterminismus David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2012 Übersicht Nichtdeterminismus NTM Nichtdeterministische Turingmaschine Die
Mehr1. Was ist eine Wahrscheinlichkeit P(A)?
1. Was ist eine Wahrscheinlichkeit P(A)? Als Wahrscheinlichkeit verwenden wir ein Maß, welches die gleichen Eigenschaften wie die relative Häufigkeit h n () besitzt, aber nicht zufallsbehaftet ist. Jan
Mehr1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie
1 Einführung 2 Typ-0- und Typ-1-Sprachen 3 Berechnungsmodelle 4 Unentscheidbarkeit 5 Unentscheidbare Probleme 6 Komplexitätstheorie 15 Ziele vgl. AFS: Berechnungsmodelle für Typ-0- und Typ-1-Sprachen (Nicht-)Abschlußeigenschaften
MehrProbabilistische kontextfreie Grammatiken
Mathematische Grundlagen III Probabilistische kontextfreie Grammatiken 14 Juni 2011 1/26 Ambiguität beim Parsing Wörter können verschiedene Bedeutungen haben und mehr als einer Wortkategorien angehören
MehrTheorie der Informatik
Theorie der Informatik 8. Reguläre Sprachen II Malte Helmert Gabriele Röger Universität Basel 24. März 24 Pumping Lemma Pumping Lemma: Motivation Man kann zeigen, dass eine Sprache regulär ist, indem man
MehrGibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells
Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren
MehrEinführung in die (induktive) Statistik
Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung
MehrElektrotechnik und Informationstechnik
Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen
Mehr1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln,
Theorie der Informatik 9. März 24 7. Reguläre Sprachen I Theorie der Informatik 7. Reguläre Sprachen I Malte Helmert Gabriele Röger Universität Basel 9. März 24 7. Reguläre Grammatiken 7.2 DFAs 7.3 NFAs
MehrDWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr
2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,
MehrVorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1
Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 2 Melanie Kaspar, Prof. Dr. B. Grabowski 3 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung
MehrPr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.
2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet
Mehr9 Höhere partielle Ableitungen und die Taylorformel
Vorlesung SS 29 Analsis 2 Prof Dr Siegfried Echterhoff 9 Höhere partielle Ableitungen und die Talorformel Definition 91 Sei U R n offen, f : U R m eine Funktion Dann heißt f 2-mal partiell differenzierbar,
MehrElliptic Curve Cryptography
Elliptic Curve Cryptography Institut für Informatik Humboldt-Universität zu Berlin 10. November 2013 ECC 1 Aufbau 1 Asymmetrische Verschlüsselung im Allgemeinen 2 Elliptische Kurven über den reellen Zahlen
MehrDatenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale
Mehr2.3 Intervallschätzung
2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau
MehrTheorie der Informatik Übersicht. Theorie der Informatik SAT Graphenprobleme Routing-Probleme. 21.
Theorie der Informatik 19. Mai 2014 21. einige NP-vollständige Probleme Theorie der Informatik 21. einige NP-vollständige Probleme 21.1 Übersicht 21.2 Malte Helmert Gabriele Röger 21.3 Graphenprobleme
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
Mehr15.5 Stetige Zufallsvariablen
5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven
MehrZentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)
SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013
MehrDie mathematische Seite
Kellerautomaten In der ersten Vorlesung haben wir den endlichen Automaten kennengelernt. Mit diesem werden wir uns in der zweiten Vorlesung noch etwas eingängiger beschäftigen und bspw. Ansätze zur Konstruktion
MehrPart-Of-Speech-Tagging mit Viterbi Algorithmus
Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus
MehrSuchen in Texten. Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz
Suchen in Texten Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz Textsuche Gegeben ist ein Zeichensatz (Alphabet) Σ. Für einen Text T Σ n und
MehrGrundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt
Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum
Mehr19. Dynamic Programming I
495 19. Dynamic Programming I Fibonacci, Längste aufsteigende Teilfolge, längste gemeinsame Teilfolge, Editierdistanz, Matrixkettenmultiplikation, Matrixmultiplikation nach Strassen [Ottman/Widmayer, Kap.
MehrFrank Heitmann 2/47. 1 Ein PDA beginnt im Startzustand z 0 und mit im Keller. 2 Ist der Automat
Formale Grundlagen der Informatik 1 Kapitel 5 Über reguläre Sprachen hinaus und (Teil 2) Frank Heitmann heitmann@informatik.uni-hamburg.de 21. April 2015 Der Kellerautomat - Formal Definition (Kellerautomat
Mehr6. Polynom-Interpolation
6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für
MehrVertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie
Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen
MehrKapitel 1. Exakte Suche nach einem Wort. R. Stiebe: Textalgorithmen, WS 2003/04 11
Kapitel 1 Exakte Suche nach einem Wort R. Stiebe: Textalgorithmen, WS 2003/04 11 Überblick Aufgabenstellung Gegeben: Text T Σ, Suchwort Σ mit T = n, = m, Σ = σ Gesucht: alle Vorkommen von in T Es gibt
MehrMarkov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes
Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,
MehrFolie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse
Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}
Mehr12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.
12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrMaschinelle Sprachverarbeitung: N-Gramm-Modelle
HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind
MehrAngewandte Stochastik
Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrKapitel III Selektieren und Sortieren
Kapitel III Selektieren und Sortieren 1. Einleitung Gegeben: Menge S von n Elementen aus einem total geordneten Universum U, i N, 1 i n. Gesucht: i-kleinstes Element in S. Die Fälle i = 1 bzw. i = n entsprechen
MehrTheoretische Informatik 1
Theoretische Informatik 1 Die Komplexitätsklasse P David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2012 Übersicht Äquivalenz von RM und TM Äquivalenz, Sätze Simulation DTM
MehrKurz-Skript zur Theoretischen Informatik I
Kurz-Skript zur Theoretischen Informatik I Inhaltsverzeichnis 1 Grundlagen 2 2 Reguläre Ausdrücke 4 3 Endliche Automaten 5 3.1 Vollständige endliche Automaten................................... 6 3.2 ε
MehrEigenwerte und Eigenvektoren
Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte
MehrMathematische Werkzeuge R. Neubecker, WS 2016 / 2017
Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum
Mehr5 Interpolation und Approximation
5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)
MehrLaufzeit einer DTM, Klasse DTIME
Laufzeit einer DTM, Klasse DTIME Definition Laufzeit einer DTM Sei M eine DTM mit Eingabealphabet Σ, die bei jeder Eingabe hält. Sei T M (w) die Anzahl der Rechenschritte d.h. Bewegungen des Lesekopfes
MehrFORMALE SYSTEME. 3. Vorlesung: Endliche Automaten. TU Dresden, 17. Oktober Markus Krötzsch
FORMALE SYSTEME 3. Vorlesung: Endliche Automaten Markus Krötzsch TU Dresden, 17. Oktober 2016 Rückblick Markus Krötzsch, 17. Oktober 2016 Formale Systeme Folie 2 von 31 Wiederholung Mit Grammatiken können
MehrPrüfungsvorbereitungskurs Höhere Mathematik 3
Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse
MehrBerechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen
Definition Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Seminar über Algorithmen WS 2005/2006 Vorgetragen von Oliver Rieger und Patrick-Thomas Chmielewski basierend auf der Arbeit
MehrTuring Maschine. Thorsten Timmer. SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke. Turing Maschine SS 2005 p.
Thorsten Timmer SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke Turing Maschine SS 2005 p. 1/35 Inhalt Einführung Formale Definition Berechenbare Sprachen und Funktionen Berechnung ganzzahliger
Mehr1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie
1 Einführung 2 Typ-0- und Typ-1-Sprachen 3 Berechnungsmodelle 4 Unentscheidbarkeit 5 Unentscheidbare Probleme 6 Komplexitätstheorie 139 Unentscheidbarkeit Überblick Zunächst einmal definieren wir formal
Mehr7. Stochastische Prozesse und Zeitreihenmodelle
7. Stochastische Prozesse und Zeitreihenmodelle Regelmäßigkeiten in der Entwicklung einer Zeitreihe, um auf zukünftige Entwicklung zu schließen Verwendung zu Prognosezwecken Univariate Zeitreihenanalyse
Mehr11. Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P
11 Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P 11 Woche: Turingmaschinen, Entscheidbarkeit, P 239/ 333 Einführung in die NP-Vollständigkeitstheorie
Mehr1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln,
Theorie der Informatik 8. März 25 8. Reguläre Sprachen I Theorie der Informatik 8. Reguläre Sprachen I 8. Reguläre Grammatiken Malte Helmert Gabriele Röger 8.2 DFAs Universität Basel 8. März 25 8.3 NFAs
MehrFormale Sprachen. Reguläre Sprachen. Rudolf FREUND, Marian KOGLER
Formale Sprachen Reguläre Sprachen Rudolf FREUND, Marian KOGLER Endliche Automaten - Kleene STEPHEN KLEENE (99-994) 956: Representation of events in nerve nets and finite automata. In: C.E. Shannon und
Mehr3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen
3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 14. Mai 2008 1 Kollokationen
MehrDie Nerode-Relation und der Index einer Sprache L
Die Nerode-Relation und der Index einer Sprache L Eine zweite zentrale Idee: Sei A ein vollständiger DFA für die Sprache L. Repäsentiere einen beliebigen Zustand p von A durch die Worte in Σ, die zu p
MehrBayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008
Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation
MehrStochastische Prozesse
INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die
MehrPrinzipien der modernen Kryptographie Sicherheit
Prinzipien der modernen Kryptographie Sicherheit Prinzip 1 Sicherheitsziel Die Sicherheitsziele müssen präzise definiert werden. Beispiele für ungenügende Definitionen von Sicherheit Kein Angreifer kann
MehrForschungsstatistik I
Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/
MehrSoftware Engineering Ergänzung zur Vorlesung
Ergänzung zur Vorlesung Prof. Dr. Markus Müller-Olm WS 2008 2009 2.6.1 Endliche und reguläre Sprachen Endliche und reguläre Sprache: fundamental in vielen Bereichen der Informatik: theorie Formale Sprachen
MehrDefinition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =.
2. Der Blum-Floyd-Pratt-Rivest-Tarjan Selektions-Algorithmus Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n
MehrAlgebraische Statistik ein junges Forschungsgebiet. Dipl.-Math. Marcus Weber
Algebraische Statistik ein junges Forschungsgebiet Dipl.-Math. Marcus Weber Disputationsvortrag 15. Februar 2006 Gliederung 1. Statistische Modelle 2. Algebraische Interpretation statistischer Probleme
Mehr13 Grenzwertsätze Das Gesetz der großen Zahlen
13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n
MehrFormale Systeme. Prof. Dr. Bernhard Beckert, WS 2017/ KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft
Formale Systeme Prof. Dr. Bernhard Beckert, WS 2017/2018 Pra dikatenlogik: Tableaukalku l (ohne Gleichheit) KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der
MehrFormale Systeme. Prof. Dr. Bernhard Beckert, WS 2016/ KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft
Formale Systeme Prof. Dr. Bernhard Beckert, WS 2016/2017 Pra dikatenlogik: Tableaukalku l (ohne Gleichheit) KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der
MehrModelle. VL PLT2, SS 2012 Professur für Prozessleittechnik
Verfügbarkeit und Markov- Modelle VL PLT2, SS 202 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl.-Ing. A. Krause Übersicht Grundlagen zur Verfügbarkeit und zu Markov-Modellen Berechnung des PFD
MehrLernmodul 7 Algorithmus von Dijkstra
Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer
MehrMethoden der Statistik Markov Chain Monte Carlo Methoden
Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrDas Prinzip der Suchmaschine Google TM
/9 Das Prinzip der Suchmaschine Google TM Numerische Mathematik WS 20/2 Basieren auf dem Paper The $25,000,000,000 Eigenvector: The Linear Algebra behind Google von Kurt Bryan und Tanya Leise (SIAM Review,
MehrAlgorithmische Bioinformatik
Algorithmische Bioinformatik Hidden-Markov-Modelle Viterbi - Algorithmus Ulf Leser Wissensmanagement in der Bioinformatik Inhalt der Vorlesung Hidden Markov Modelle Baum, L. E. and Petrie, T. (1966). "Statistical
MehrReasoning and decision-making under uncertainty
Reasoning and decision-making under uncertainty 9. Vorlesung Actions, interventions and complex decisions Sebastian Ptock AG Sociable Agents Rückblick: Decision-Making A decision leads to states with values,
Mehr2.1 Importance sampling: Metropolis-Algorithmus
Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem
Mehr