Hidden Markov Modellen

Größe: px
Ab Seite anzeigen:

Download "Hidden Markov Modellen"

Transkript

1 Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach VL PLT2 Professur für Prozessleittechnik

2 Übersicht Wiederholung Markov Modelle Modellierungsansatz & Markov Eigenschaft Beispiel: Robot-Human-Spiel Typische Fragestellungen an ein Markov Modell Einführung Dynamic Programming Hidden Markov Modelle Modellierungsansatz 3 Problemstellungen Schätzen: Backward-Forward Verfahren Suchen: Viterbi Pfade Lernen: Baum-Welch Verfahren PLT2 (c) , Urbas, Pfeffer, Krause Folie 2

3 Andrei Andreyevich Markov * 14. Juni Juli 1922 Professor in Sankt Petersburg für Theorie der stochastischen Prozesse Leonard E. Baum: 1960er erste Veröffentlichung über Hidden Markov Modelle. Entwickelt für die Spracherkennung PLT2 (c) , Urbas, Pfeffer, Krause Folie 3

4 Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Wiederholung Markov Modelle

5 Wiederholung Markov Modelle Ein System habe N Zustände s 1, s 2,, s n Zeitschritte t=1, t=2, Im Zeitschritt t ist das System in genau einem Zustand q t {s 1, s 2,, s n } Zu jedem Zeitschritt wird der nächste Zustand zufällig gewählt Die Wahrscheinlichkeitsverteilung für den nächsten Zustand wird nur vom aktuellen Zustand bestimmt (und nicht vom Weg dahin) PLT2 (c) , Urbas, Pfeffer, Krause Folie 5

6 Beispiel Markov Modelle 3 Zustände s 1, s 2, s 3 Übergangswahrscheinlichkeiten aus s 1 P(q t+1 =s 1 q t =s 1 )=0 P(q t+1 =s 2 q t =s 1 )=0 1/2 P(q t+1 =ss 3 q t =ss 1 )=1 Übergangswahrscheinlichkeiten aus s 2 P(q t+1 =s 1 q t =s 2 )=1/2 P(q t+1 =s s 2 q t =s s 2 )=1/2 s P(q t+1 =s 3 q t =s 2 )=0 1/3 s 1 1/2 s 2 1 2/3 s 3 Übergangswahrscheinlichkeiten aus s 3 P(q t+1 =s 1 q t =s 3 )=1/3 P(q t+1 =s 2 q t =s 3 )=2/3 P(q t+1 =s 3 q t =s 3 )=0 A = PLT2 (c) , Urbas, Pfeffer, Krause Folie 6

7 Markov Eigenschaft q t+1 ist bei gegebenem q t bedingt unabhängig* von den vorher eingenommenen Zuständen {q t-1, q t-2,,q 1 } Formal 1/3 1/2 P(q t+1 =ss j q t =ss i ) = P(q t+1 =ss j q t =ss i, beliebiger Weg nach s i ) s s 1 1/2 s 2 1 2/3 s 3 * a und b sind bedingt unabhängig bei gegebenem c wenn gilt P a, b c P a c P b c Diese Aussage ist äquivalent P a b, c = P a c PLT2 (c) , Urbas, Pfeffer, Krause Folie 7

8 Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Beispiel Robot-Human-Spiel

9 Beispiel von A. Moore ( Ein Roboter (R) und ein Mensch (H) bewegen sich zufällig auf einem Spielfeld ld mit 18 Feldern. Der Systemzustand sei definiert als das Tupel <Feld R, Feld H> 18*18=324 Zustände! z.b. <4,8> In jedem Zeitschritt bewegen sich R und H auf ein benachbartes Feld PLT2 (c) , Urbas, Pfeffer, Krause Folie 9

10 Typische Fragen 1.Wie lange dauert es durchschnittlich bis R und H kollidieren? 2.Wie groß ist die Wahrscheinlichkeit dass R gegen die linke Wand rennt, bevor er mit H zusammenstößt? 3.Wie wahrscheinlich ist es, dass H und R im nächsten Schritt zusammenstoßen? PLT2 (c) , Urbas, Pfeffer, Krause Folie 10

11 Kollisionswahrscheinlichkeit im nächsten Schritt Geg.: Aktuelle Zeit = t, H lebt noch Ges.: Wahrscheinlichkeit, dass H im nächsten Schritt platt ist? R ist blind Berechenbar -> Thema der nächsten Folien R ist allwissend R kennt Zustand, direkt berechenbar R mit Sensoren aber unvollständiger Information Hidden Markov Modell! PLT2 (c) , Urbas, Pfeffer, Krause Folie 11

12 Wahrscheinlichkeit des Zustands q t = s j Es gibt viele Pfade Q = q 1 q 2 q 3 q t zu einem Zustand q t =ss j Wie kann ein bestimmtes P(Q) berechnet werden? Wir kennen den Startzustand q 1, d.h. P(q 1 )=1 Es gilt: P(q 1 q 2 q 3 q t ) = P(q 1 q 2 q 3 q t-1 )P(q t q 1 q 2 q 3 q t-1 ) = P(q 1 q 2 q 3 q t-1 )P(q t q t-1 ) = P(q 1 )P(q 2 q 1 )P(q 3 q 2 ) P(q t q t-1 ) Naiver Ansatz: Summiere Wahrscheinlichkeit aller Wege Q* mit der Länge t, die in s j enden P(q t = s j q 1 ) = Σ Q* P(Q*) Aufwand exponentiell in t, O(N t ) ungeeignet! PLT2 (c) , Urbas, Pfeffer, Krause Folie 12

13 Einfach ist zu teuer! Geht das besser? Zerlegung in leichter lösbare Teilprobleme Dynamic Programming Definiere für jeden Zustand s i p t (i) : WS, dass System zur Zeit t in s i ist, d.h. p t (i) = P(q t = s i ) Rekursiver Ansatz zur Berechnung von p t (i) j i 1 p (i)=? p (j)=p(q t+ 1 t+ 1 =s j ) =? PLT2 (c) , Urbas, Pfeffer, Krause Folie 13

14 Berechnung P(q t = s) i p 1 (i) = 1 fürsi = 0 sonst j p (j) = P(q = s ) = = = t+ 1 P(q P(q a p t+ 1 t+ 1 (i) = s = s t+ 1 j j, q t q Startzustand j = s t i = s ) i )P(q t = s ij t mit a ij = P q t+ 1 = s j q t = s i und i N i ) 1 2 N Aufwand für alle Zustände s : O(t N²)! PLT2 (c) , Urbas, Pfeffer, Krause Folie 14

15 HR-Spiel, reduziertes 2x2 Spielfeld 4*4=16 Zustände Kodiere e Zustand s i als <F H,F R > F H : Feld auf dem H ist F R: Feld auf dem R ist Übergangswahrscheinlichkeiten für F H (s i )=F H (s j ) v F R (s i )=F R (s j ) a ij =P(q t+1 =s j q t =s i ) = 0 sonst a ij=p(q t+1 1=s j q t=s i) = 1/9 Berechnungsbeispiel PIV_MM-2x2HRSpiel.xls 1 2 H R 3 4 Gilt nur für blinde (=zufällige) Züge! Mögliche Zustandsübergänge g nach <2,2> PLT2 (c) , Urbas, Pfeffer, Krause Folie 15

16 Kollisionswahrscheinlichkeit im nächsten Schritt mit Sensorinformationen Geg.: Aktuelle Zeit = t, H lebt noch Ges.: Wahrscheinlichkeit, dass H im nächsten Schritt platt ist? R ist blind R ist allwissend R kennt Zustand, direkt berechenbar R mit Sensoren aber unvollständiger Info Hidden Markov Modell! PLT2 (c) , Urbas, Pfeffer, Krause Folie 16

17 Versteckte Zustände Bislang: Schätzung von P(q t =s j ) ohne Beobachtung Annahme: Beobachtung verfügbar, die von dem wahren Zustand beeinflusst wird. Beispiel HR-Spiel: Umgebungssensor für 8 umgebende Felder Beispiel (W=Wand) PLT2 (c) , Urbas, Pfeffer, Krause Folie 17

18 Sensor + Rauschen Umgebungssensor ist nicht perfekt Messrauschen, Fehlklassifikation, Annahmen Beobachtung O t wird nur von Systemzustand q t + Zufallskomponente bestimmt O t sei bedingt unabhängig von {q t-1 1,..q 1,O t-1 1,..O 1 } bei gegebenem q t b i (k)=p(o t =k q t =s i ) = P(O t =k q t =s i, beliebiger Weg nach s i ) = +Fehler PLT2 (c) , Urbas, Pfeffer, Krause Folie 18

19 Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Hidden Markov Modelle Modellierungsansatz

20 Einsatz von HMMs Roboterplanung & -sensorik unter Unsicherheit h it Spracherkennung Gestenerkennung Nutzer- und Entscheidungsmodellierung Gensequenzierung Marktmodelle Fehlermodelle in der Prozessautomatisierung PLT2 (c) , Urbas, Pfeffer, Krause Folie 20

21 Formale Definition des HMM Ein HMM ist ein 5-Tupel aus N Anzahl der Zustände M Anzahl der möglichen Beobachtungen {π 1 π n } Anfangsws. π i = P(q 1 = s i ) a ij Matrix der Zustandsübergangsws. a ij = P(q t+1 = s j q t =s i ) i,j [1 N] j j b i (k) Matrix der Beobachtungsws. b i (k) = P(O t = k q t =s i ) i [1 N], k [1 M] PLT2 (c) , Urbas, Pfeffer, Krause Folie 21

22 Hidden Markov Modell (1/2) (Rabiner 1989) Spezifikation eines HMM λ = <N,M,{π i },{a ij },{b i (k)}> Andere Notation: λ = (π,a,b) N: Anzahl der Zustände s 1, s 2,, s N M: Anzahl der Beobachtungen 1 M π: : Initialverteilung A: Zustandsübergangsmatrix B: Zustands-Symbolmatrix PLT2 (c) , Urbas, Pfeffer, Krause Folie 22

23 Hidden Markov Modell (2/2) (Rabiner 1989) T: Länge der Beobachtungssequenz O: Sequenz der Beobachtungen O = O 1 O 2 O 3 O T Q: Pfad durch die Zustände Q = q 1 q 2 q 3 q T PLT2 (c) , Urbas, Pfeffer, Krause Folie 23

24 Beispiel für ein HMM Das Modell startet zufällig im Zustand s oder s im Zustand s 1 oder s 2 In jedem Zustand wird zufällig eines der eingezeichneten Symbole X, Y, Z ausgegeben PLT2 (c) , Urbas, Pfeffer, Krause Folie 24

25 Beispiel Beobachtung (1/3) Gegeben: Q=s 1 s 3 s 3, O=X X Z Gesucht: Wie hoch ist P(O)? P(O 1 O 2 O 3 ) = P(O 1 =X Λ O 2 =X Λ O 3 =Z) Direkter (langsamer) Ansatz Summiere über alle Pfade Q der Länge 3: P(O) ( ) = Σ Q P(O( Λ Q) = Σ P(O Q) ( P(Q) wir brauchen P(Q) für einen beliebigen Pfad Q P(O Q) für einen beliebigen Pfad Q PLT2 (c) , Urbas, Pfeffer, Krause Folie 25

26 Beispiel Beobachtung (2/3) Berechnung P(Q) für einen beliebigen Pfad Q P(Q) = P(q 1,q 2,q 3 ) = P(q 2,q 3 q 1 ) P(q 1 ) = P(q 3 q 2 ) P(q 2 q 1 ) P(q 1 ) = P(q 1 ) P(q 2 q 1 ) P(q 3 q 2 ) Beispiel Q=s 1 s 3 s 3 : P(Q) = P(q 1 =s 1 )P(q 2 =s 3 q 1 =s 1 )P(q 3 =s 3 q 2 =s 3 ) = π 1 * a 13 * a 23 = 1/2 * 2/3 * 1/3 = 1/ PLT2 (c) , Urbas, Pfeffer, Krause Folie 26

27 Beispiel Beobachtung (3/3) Berechnung P(O Q) für einen Pfad Q P(O 1 O 2 O 3 q 1,q 2,q 3 ) = P(O 1 q 1 ) P(O 2 q 2 ) P(O 3 q 3 ) Beispiel Q=s 1 s 3 s 3 : P(X q 1 =s 1 ) P(X q 2 =s 3 ) P(Z q 3 =s 3 ) = 1/2 * 1/2 * 1/2 = 1/8 P(O) = ΣQ P(O Λ Q) = Σ P(O Q) P(Q) 27 (N T ) Berechnungen von P(Q) und P(O Q) Bei 20 Beobachtungen: je 3.5 Mrd Berechnungen von P(Q) und P(O Q)! Zu aufwändig! D.P.-Ansatz? PLT2 (c) , Urbas, Pfeffer, Krause Folie 27

28 Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Hidden Markov Modelle Typische Fragestellungen

29 Hidden Markov Modell (HMM) Typische Fragen an HMM bei gegebenen B b Beobachtungen O 1 O 2 O 3 O t Zustand: In welchem Zustand sind wir jetzt? P(q t =s i O 1 O 2 O 3 OO t ), Forward-Backward-Algorithmus Pfad: Welcher Weg wurde wahrscheinlich eingeschlagen? Q* = argmax Q P(Q O), Viterbi-Algorithmus Lernen von HMMs: Wie sieht ein HMM λ aus, das diese Beobachtungen generiert haben könnte λ* = argmax λ P(λ O), Baum-Welch-Algorithmus PLT2 (c) , Urbas, Pfeffer, Krause Folie 29

30 Frage 1: Aktueller Zustand P(q t =s i O) Geg.: Beobachtungen O 1 O 2 O 3 O T Ges.: Zustand q t Definiere α t (i) als die WS, dass das durch λ spezifizierte Hidden Markov Modell zum Zeitpunkt t im Zustand s i ist, UND auf einem zufälligen Pfad dorthin t Beobachtungen O 1 O 2 O t ausgegeben wurden α t (i) = P(O 1 O 2 O 3 O t q t = s i λ); 1 t T Rekursive Definition von α t (i): α 1 1( (i), α t+1(j) PLT2 (c) , Urbas, Pfeffer, Krause Folie 30

31 Rekursive Definition von α t (i) α 1 (i) = P(O 1 q 1 = s i ) = P(q 1 = s i ) P(O 1 q 1 = s i ) = π i b i (O 1 ) α t+1 (j) = P(O 1 O 2 O t O t+1 q t+1 =s j ) = Σ i=1,n P(O 1 O 2 O t q t =s i O t+1 q t+1 =s j ) = Σ i=1,n P(O t+1,q t+1 =s j O 1 O 2 O t q t =s i ) P(O 1 O 2 O t q t =s i ) = Σ i=1,n P(O t+1,q t+1 =s j q t =s i ) α t (i) = Σ i=1,n P(q t+1 =s j q t =s i ) P(O t+1 q t+1 =s j ) α t (i) = Σ i=1,n a ij b j (O t+1 ) α t (i) i 1,N ij j t+1 t PLT2 (c) , Urbas, Pfeffer, Krause Folie 31

32 Beispiel α t (i) = P(O 1 O 2 O t q t = s i λ) α 1 (i) = b i (O 1 ) π i α t+1 (j) = Σ a ij b j (O t+1 ) α t (i) Gegeben: O=X X Z α 1 (1)=1/4 α 1 (2)=0 α 1 (3)=0 α 2 (1)=0 α 2 (2)=0 α 2 (3)=1/12 α 3 (1)=0 α 3 (2)=1/72 α 3 (3)=? PLT2 (c) , Urbas, Pfeffer, Krause Folie 32

33 Übergang zu P(q t =s i O 1 O 2 O 3 O t )? α t (i) = P(O 1 O 2 O 3 O t Λ q t = S i λ) P(O 1 O 2 O t ) = Σ i=1,n α t (i) P(q t =S i O 1 O 2 O t ) = α t (i) / Σ j=1,n α t (j) PLT2 (c) , Urbas, Pfeffer, Krause Folie 33

34 Frage 2: Wahrscheinlichster Pfad Q O Gegeben: Beobachtungen O 1 O 2 O 3 O T Gesucht: Wahrscheinlichster h h Pfad Q argmax Q P(Q O 1 O 2 O 3 O T ) Direkter Weg wieder zu aufwändig: argmax Q P(Q O 1 O 2 O 3 O T ) = argmax Q P(O 1 O 2 O 3 O T Q)P(Q) / P(O 1 O 2 O 3 O T ) = argmax Q P(O 1 O 2 O 3 O T Q)P(Q) Das geht besser! PLT2 (c) , Urbas, Pfeffer, Krause Folie 34

35 Partiell beste Pfade im Trellisdiagramm Für jeden Zustand q t =s i gibt es einen wahrscheinlichsten h h Pfad state X X Z PLT2 (c) , Urbas, Pfeffer, Krause Folie 35 t

36 state Partielle beste Pfade Unterschied zu Forward-Algorithmus Wahrscheinlichkeit h hk it des EINEN wahrscheinlichsten h h Pfades zum Zustand X X Z PLT2 (c) , Urbas, Pfeffer, Krause Folie 36 t

37 Partieller bester Pfad δ t (i)= max P(q 1 q 2...q t-1 Λ q t = S i Λ O 1...O t ) q1 qt-1 WS des Pfades q 1 q 2..q t-1 der Länge t-1 1 mit der größten Chance folgende Bedingungen zu erfüllen: Pfad Q ist möglich q 1 q 2...q t-1 UND endet zum Zeitpunkt t in S i q t =SS i UND produziert O O 1...O t PLT2 (c) , Urbas, Pfeffer, Krause Folie 37

38 Ansatz δ t (i)= max P(q 1 q 2...q t-1 Λ q t = S i Λ O 1...O t ) q1 qt-1 WS des Pfades q 1 q 2..q t-1 der Länge t-1 mit der größten Chance folgende Bedingungen g zu erfüllen: Pfad Q ist möglich q 1 q 2...q t-1 UND endet zum Zeitpunkt t in S i q t =S i UND produziert O O 1...O t Def: mpp t (i) = dieser Pfad, δ t (i)=p(mpp t (i)) PLT2 (c) , Urbas, Pfeffer, Krause Folie 38

39 VITERBI Algorithmus δ t (i)= max P(q 1..q t-1 Λ q t =S i Λ O 1...O t ) q1 qt-1 mpp t (i)= argmax P(q 1..q t-1 Λ q t =S i Λ O 1...O t ) q1 qt-1 Start: t=1 δ 1 (i)= max P(q 1 =S i Λ O 1 ) q1 = P(q 1 =S i )P(O 1 q 1 =S i ) = π i b i (O 1 ) i i( 1 ) Angenommen, wir kennen δ t (i) und mpp t (i) Wie kommen wir zu δ t+1 (i) und mpp t+1 (i)? PLT2 (c) , Urbas, Pfeffer, Krause Folie 39

40 VITERBI Algorithmus t > 1 Angenommen, wir kennen δ t (i) und mpp t (i) Wie kommen wir zu δ t+1 (i) und mpp t+1 (i)? Der WSste Pfad dessen letzten beiden Zustände S i und S j sind ist Der WSstePfad zu S i, gefolgt von einem Übergang von S i nach S j δ t (i) P(S i S j Λ O t+1 ) = δ t (i)a ij b j (O t+1 ) δ t+1 (j) = max i (δ t (i)a ij b j (O t+1 )) PLT2 (c) , Urbas, Pfeffer, Krause Folie 40

41 Backpointer Wir kennen die partiellen WS δ t (i) Wir brauchen den WSten Pfad, d.h. wir müssen uns die δ t (i) merken state X X Z t PLT2 (c) , Urbas, Pfeffer, Krause Folie 41

42 Backpointer Wir kennen die partiellen WS δ t (i) Wir brauchen den WSten Pfad, d.h. wir müssen uns die δ t (i) merken Es reicht für jeden Zustand ein Rückwärtszeiger (Backpointer Ф) aufzuheben, von dem wir am besten hier angelangt sind Ф t (i) = argmax j (δ t-1 (j)a ji ) PLT2 (c) , Urbas, Pfeffer, Krause Folie 42

43 3. Frage: Modelllernen Geg.: O T, N, M Ansatz: Definiere i γ t (i) = P(q t =s i O 1 O 2 O T, λ ) ε t t( (i,j) = P(q t = s i Λ q t+1 = s j O 1O 2 O T,λ ) γ t (i) and ε t (i,j) können i,j,t effizient berechnet werden Suchverfahren Berechne WS mit einem geschätzten Modell in einen Zustand zu gelangen, bewerte die Übereinstimmung mit den Beobachtungen, verändere anschließend die Modellparameter Details Rabiner (1989) PLT2 (c) , Urbas, Pfeffer, Krause Folie 43

44 Zusammenfassung der Problemstellungen Evaluation (Auswertung, Schätzen) Gegeben ist ein HMM λ und eine Beobachtungssequenz O T. Berechne die Wahrscheinlichkeit, dass O T von λ erzeugt wurde. Decoding (Entschlüsseln, Suchen) Gegeben ist ein HMM λ und eine Beobachtungssequenz O T. Berechne die Folge von verborgenen Zuständen, die O T mit der höchsten h Wahrscheinlichkeit h hk it erzeugt hat. Learning (Lernen) Für ein HMM λ ist die Zahl der sichtbaren und unsichtbaren Zustände bekannt, sowie ein oder mehrere Beobachtungssequenzen (Trainingssequenzen). Berechne die Parameter a ij und b j (k) PLT2 (c) , Urbas, Pfeffer, Krause Folie 44

45 Literatur & Bibliotheken Literatur Rabiner (1989) A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition, Proc. of the IEEE, Vol.77, No.2, pp , Moore, A. (o.j.) Hidden Markov Models. Boyle, R. (o.j.) Hidden Markov Models. n.html Fraser, A. (2008) HMM & Dynamical Systems. SIAM Bibliotheken MATLAB: p / p / / / R: Gestenerkennung GT2K: PLT2 (c) , Urbas, Pfeffer, Krause Folie 45

46 PLT2 (c) , Urbas, Pfeffer, Krause 46

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Hidden Markov Models (HMM)

Hidden Markov Models (HMM) Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach

Mehr

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014 idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Proseminar: Machine-Learning Hidden-Markov-Modelle Benjamin Martin Zusammenfassung 1953 stellten Watson und Crick ihr DNA-Modell vor. Damit öffnete sich für Genforscher ein riesiges Gebiet, das bisher

Mehr

Der Viterbi Algorithmus

Der Viterbi Algorithmus M. 23.Juli.2007 Gliederung 1 2 3 Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes entwickelt Auf Basis von entwickelt Erfinder Andrew J. Viterbi 1967 zur Dekodierung von Faltungscodes

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Bayes'sche Netze VL PLT2 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl. Ing. Johannes

Mehr

Tagging mit Hidden Markov Models und Viterbi-Algorithmus

Tagging mit Hidden Markov Models und Viterbi-Algorithmus Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:

Mehr

8. Reinforcement Learning

8. Reinforcement Learning 8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält

Mehr

Hidden Markov Model (HMM)

Hidden Markov Model (HMM) Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig

Mehr

Algorithmische Methoden zur Netzwerkanalyse

Algorithmische Methoden zur Netzwerkanalyse Algorithmische Methoden zur Netzwerkanalyse Prof. Dr. Henning Meyerhenke Institut für Theoretische Informatik 1 KIT Henning Universität desmeyerhenke, Landes Baden-Württemberg Institutund für Theoretische

Mehr

Welf Walter

Welf Walter Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Seminar 2004 Sehen und Hören Hidden Markov Modelle und Künstliche Neuronale Netze Welf Walter ww2@informatik.uni-ulm.de Zusammenfassung

Mehr

Hidden Markov Models (HMM) Karin Haenelt

Hidden Markov Models (HMM) Karin Haenelt Hidden Markov Models (HMM) Karin Haenelt 16.5.2009 1 Inhalt Einführung Theoretische Basis Elementares Zufallsereignis Stochastischer Prozess (Folge von elementaren Zufallsereignissen) Markow-Kette (Stochastischer

Mehr

Zeitstetige Markov-Prozesse: Einführung und Beispiele

Zeitstetige Markov-Prozesse: Einführung und Beispiele Zeitstetige Markov-Prozesse: Einführung und Beispiele Simone Wielart 08.12.10 Inhalt Q-Matrizen und ihre Exponentiale Inhalt Q-Matrizen und ihre Exponentiale Zeitstetige stochastische Prozesse Inhalt Q-Matrizen

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

Hidden Markov Models Erläuterung der Bestimmung der Wahrscheinlichkeit einer Beobachtung

Hidden Markov Models Erläuterung der Bestimmung der Wahrscheinlichkeit einer Beobachtung Hidden Markov Models Erläuterung der estimmung der Wahrscheinlichkeit einer eobachtung Kursfolien Karin Haenelt Karin Haenelt Hidden Markov-Modelle 9.66 2.64 Hidden Markov Model HMM: eschreibung Ein Hidden

Mehr

Viterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes

Viterbi. Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus. von Arndt Faulhaber und Benjamin Schlebes Viterbi Hidden Markov Models und POS Tagging mit dem Viterbi-Algorithmus von Arndt Faulhaber und Benjamin Schlebes Seminar: Endliche Automaten für die Sprachverarbeitung SS 2005 PD Dr. K. Haenelt 1/28

Mehr

1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie

1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie 1 Einführung 2 Typ-0- und Typ-1-Sprachen 3 Berechnungsmodelle 4 Unentscheidbarkeit 5 Unentscheidbare Probleme 6 Komplexitätstheorie WS 11/12 155 Überblick Zunächst einmal definieren wir formal den Begriff

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Tutoriums-Paper zu Hidden Markov Models

Tutoriums-Paper zu Hidden Markov Models Tutoriums-Paper zu Hidden Markov Models Mario Mohr February 1, 2015 Contents 1 Das Modell 1 2 Der Forward-Algorithmus 2 2.1 Wahrscheinlichkeiten von Beobachtungsketten........................ 4 2.2 Filtering.............................................

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Algorithmen für Geographische Informationssysteme

Algorithmen für Geographische Informationssysteme Algorithmen für Geographische Informationssysteme 8. Vorlesung: 10. Dezember 2012 Jan-Henrik Haunert Map Matching Problemformulierung Gegeben: Das Straßennetz als planar eingebetteter Graph G = V, E Die

Mehr

Kognitive Systeme. Übung 4

Kognitive Systeme. Übung 4 Kognitive Systeme Übung 4 Matthias Sperber Thai Son Nguyen 1 29.06.16 Wir bitten um Entschuldigung: Trotz anders lautender Ankündigung änderte sich die korrekte Lösung für Aufgabe 3e, sodass keine der

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Nichtdeterminismus David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2012 Übersicht Nichtdeterminismus NTM Nichtdeterministische Turingmaschine Die

Mehr

1. Was ist eine Wahrscheinlichkeit P(A)?

1. Was ist eine Wahrscheinlichkeit P(A)? 1. Was ist eine Wahrscheinlichkeit P(A)? Als Wahrscheinlichkeit verwenden wir ein Maß, welches die gleichen Eigenschaften wie die relative Häufigkeit h n () besitzt, aber nicht zufallsbehaftet ist. Jan

Mehr

1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie

1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie 1 Einführung 2 Typ-0- und Typ-1-Sprachen 3 Berechnungsmodelle 4 Unentscheidbarkeit 5 Unentscheidbare Probleme 6 Komplexitätstheorie 15 Ziele vgl. AFS: Berechnungsmodelle für Typ-0- und Typ-1-Sprachen (Nicht-)Abschlußeigenschaften

Mehr

Probabilistische kontextfreie Grammatiken

Probabilistische kontextfreie Grammatiken Mathematische Grundlagen III Probabilistische kontextfreie Grammatiken 14 Juni 2011 1/26 Ambiguität beim Parsing Wörter können verschiedene Bedeutungen haben und mehr als einer Wortkategorien angehören

Mehr

Theorie der Informatik

Theorie der Informatik Theorie der Informatik 8. Reguläre Sprachen II Malte Helmert Gabriele Röger Universität Basel 24. März 24 Pumping Lemma Pumping Lemma: Motivation Man kann zeigen, dass eine Sprache regulär ist, indem man

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Einführung in die (induktive) Statistik

Einführung in die (induktive) Statistik Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung

Mehr

Elektrotechnik und Informationstechnik

Elektrotechnik und Informationstechnik Elektrotechnik und Informationstechnik Institut für utomatisierungstechnik, Professur Prozessleittechnik Bayessche Netze VL Prozessinformationsverarbeitung WS 2009/2010 Problemstellung Wie kann Wissen

Mehr

1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln,

1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln, Theorie der Informatik 9. März 24 7. Reguläre Sprachen I Theorie der Informatik 7. Reguläre Sprachen I Malte Helmert Gabriele Röger Universität Basel 9. März 24 7. Reguläre Grammatiken 7.2 DFAs 7.3 NFAs

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 1 Melanie Kaspar, Prof. Dr. B. Grabowski 2 Melanie Kaspar, Prof. Dr. B. Grabowski 3 Markovketten Markovketten sind ein häufig verwendetes Modell zur Beschreibung

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

9 Höhere partielle Ableitungen und die Taylorformel

9 Höhere partielle Ableitungen und die Taylorformel Vorlesung SS 29 Analsis 2 Prof Dr Siegfried Echterhoff 9 Höhere partielle Ableitungen und die Talorformel Definition 91 Sei U R n offen, f : U R m eine Funktion Dann heißt f 2-mal partiell differenzierbar,

Mehr

Elliptic Curve Cryptography

Elliptic Curve Cryptography Elliptic Curve Cryptography Institut für Informatik Humboldt-Universität zu Berlin 10. November 2013 ECC 1 Aufbau 1 Asymmetrische Verschlüsselung im Allgemeinen 2 Elliptische Kurven über den reellen Zahlen

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale

Mehr

2.3 Intervallschätzung

2.3 Intervallschätzung 2.3.1 Motivation und Hinführung Bsp. 2.11. [Wahlumfrage] Der wahre Anteil der rot-grün Wähler 2009 war genau 33.7%. Wie groß ist die Wahrscheinlichkeit, in einer Zufallsstichprobe von 1000 Personen genau

Mehr

Theorie der Informatik Übersicht. Theorie der Informatik SAT Graphenprobleme Routing-Probleme. 21.

Theorie der Informatik Übersicht. Theorie der Informatik SAT Graphenprobleme Routing-Probleme. 21. Theorie der Informatik 19. Mai 2014 21. einige NP-vollständige Probleme Theorie der Informatik 21. einige NP-vollständige Probleme 21.1 Übersicht 21.2 Malte Helmert Gabriele Röger 21.3 Graphenprobleme

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

15.5 Stetige Zufallsvariablen

15.5 Stetige Zufallsvariablen 5.5 Stetige Zufallsvariablen Es gibt auch Zufallsvariable, bei denen jedes Elementarereignis die Wahrscheinlich keit hat. Beispiel: Lebensdauer eines radioaktiven Atoms Die Lebensdauer eines radioaktiven

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

Die mathematische Seite

Die mathematische Seite Kellerautomaten In der ersten Vorlesung haben wir den endlichen Automaten kennengelernt. Mit diesem werden wir uns in der zweiten Vorlesung noch etwas eingängiger beschäftigen und bspw. Ansätze zur Konstruktion

Mehr

Part-Of-Speech-Tagging mit Viterbi Algorithmus

Part-Of-Speech-Tagging mit Viterbi Algorithmus Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus

Mehr

Suchen in Texten. Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz

Suchen in Texten. Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz Suchen in Texten Naives Suchen Verfahren von Knuth-Morris-Pratt Verfahren von Boyer-Moore Ähnlichkeitssuchen Editierdistanz Textsuche Gegeben ist ein Zeichensatz (Alphabet) Σ. Für einen Text T Σ n und

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

19. Dynamic Programming I

19. Dynamic Programming I 495 19. Dynamic Programming I Fibonacci, Längste aufsteigende Teilfolge, längste gemeinsame Teilfolge, Editierdistanz, Matrixkettenmultiplikation, Matrixmultiplikation nach Strassen [Ottman/Widmayer, Kap.

Mehr

Frank Heitmann 2/47. 1 Ein PDA beginnt im Startzustand z 0 und mit im Keller. 2 Ist der Automat

Frank Heitmann 2/47. 1 Ein PDA beginnt im Startzustand z 0 und mit im Keller. 2 Ist der Automat Formale Grundlagen der Informatik 1 Kapitel 5 Über reguläre Sprachen hinaus und (Teil 2) Frank Heitmann heitmann@informatik.uni-hamburg.de 21. April 2015 Der Kellerautomat - Formal Definition (Kellerautomat

Mehr

6. Polynom-Interpolation

6. Polynom-Interpolation 6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für

Mehr

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie

Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Fakultät für Mathematik Prof. Dr. Barbara Gentz SS 2013 Vertiefung NWI: 13. Vorlesung zur Wahrscheinlichkeitstheorie Mittwoch, 10.7.2013 13. Markoffketten 13.1 Beispiele 1. Irrfahrt auf dem zweidimensionalen

Mehr

Kapitel 1. Exakte Suche nach einem Wort. R. Stiebe: Textalgorithmen, WS 2003/04 11

Kapitel 1. Exakte Suche nach einem Wort. R. Stiebe: Textalgorithmen, WS 2003/04 11 Kapitel 1 Exakte Suche nach einem Wort R. Stiebe: Textalgorithmen, WS 2003/04 11 Überblick Aufgabenstellung Gegeben: Text T Σ, Suchwort Σ mit T = n, = m, Σ = σ Gesucht: alle Vorkommen von in T Es gibt

Mehr

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}

Mehr

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable.

12 Ungleichungen. Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. 12 Ungleichungen Wir beginnen mit einer einfachen Ungleichung über die Varianz. Satz 35 Es sei X eine zufällige Variable. Dann gilt: min c R E(X c)2 = Var X. Beweis: Für alle reellen Zahlen c R gilt: E(X

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Maschinelle Sprachverarbeitung: N-Gramm-Modelle

Maschinelle Sprachverarbeitung: N-Gramm-Modelle HUMBOLD-UNIVERSIÄ ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: N-Gramm-Modelle obias Scheffer, Ulf Brefeld Statistische Sprachmodelle Welche Sätze sind

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Kapitel III Selektieren und Sortieren

Kapitel III Selektieren und Sortieren Kapitel III Selektieren und Sortieren 1. Einleitung Gegeben: Menge S von n Elementen aus einem total geordneten Universum U, i N, 1 i n. Gesucht: i-kleinstes Element in S. Die Fälle i = 1 bzw. i = n entsprechen

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Die Komplexitätsklasse P David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2012 Übersicht Äquivalenz von RM und TM Äquivalenz, Sätze Simulation DTM

Mehr

Kurz-Skript zur Theoretischen Informatik I

Kurz-Skript zur Theoretischen Informatik I Kurz-Skript zur Theoretischen Informatik I Inhaltsverzeichnis 1 Grundlagen 2 2 Reguläre Ausdrücke 4 3 Endliche Automaten 5 3.1 Vollständige endliche Automaten................................... 6 3.2 ε

Mehr

Eigenwerte und Eigenvektoren

Eigenwerte und Eigenvektoren Eigenwerte und Eigenvektoren Siehe Analysis (von der Hude, Folie 20: Definition 2.3. Ein Vektor x R n heißt Eigenvektor der quadratischen n n-matrix A zum Eigenwert λ R, wenn gilt Ax = λx Die Eigenwerte

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Laufzeit einer DTM, Klasse DTIME

Laufzeit einer DTM, Klasse DTIME Laufzeit einer DTM, Klasse DTIME Definition Laufzeit einer DTM Sei M eine DTM mit Eingabealphabet Σ, die bei jeder Eingabe hält. Sei T M (w) die Anzahl der Rechenschritte d.h. Bewegungen des Lesekopfes

Mehr

FORMALE SYSTEME. 3. Vorlesung: Endliche Automaten. TU Dresden, 17. Oktober Markus Krötzsch

FORMALE SYSTEME. 3. Vorlesung: Endliche Automaten. TU Dresden, 17. Oktober Markus Krötzsch FORMALE SYSTEME 3. Vorlesung: Endliche Automaten Markus Krötzsch TU Dresden, 17. Oktober 2016 Rückblick Markus Krötzsch, 17. Oktober 2016 Formale Systeme Folie 2 von 31 Wiederholung Mit Grammatiken können

Mehr

Prüfungsvorbereitungskurs Höhere Mathematik 3

Prüfungsvorbereitungskurs Höhere Mathematik 3 Prüfungsvorbereitungskurs Höhere Mathematik 3 Stochastik Marco Boßle Jörg Hörner Mathematik Online Frühjahr 2011 PV-Kurs HM 3 Stochastik 1-1 Zusammenfassung Wahrscheinlichkeitsraum (WR): Menge der Elementarereignisse

Mehr

Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen

Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Definition Berechnung approximierter Voronoi-Zellen auf geometrischen Datenströmen Seminar über Algorithmen WS 2005/2006 Vorgetragen von Oliver Rieger und Patrick-Thomas Chmielewski basierend auf der Arbeit

Mehr

Turing Maschine. Thorsten Timmer. SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke. Turing Maschine SS 2005 p.

Turing Maschine. Thorsten Timmer. SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke. Turing Maschine SS 2005 p. Thorsten Timmer SS 2005 Proseminar Beschreibungskomplexität bei Prof. D. Wotschke Turing Maschine SS 2005 p. 1/35 Inhalt Einführung Formale Definition Berechenbare Sprachen und Funktionen Berechnung ganzzahliger

Mehr

1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie

1 Einführung. 2 Typ-0- und Typ-1-Sprachen. 3 Berechnungsmodelle. 4 Unentscheidbarkeit. 5 Unentscheidbare Probleme. 6 Komplexitätstheorie 1 Einführung 2 Typ-0- und Typ-1-Sprachen 3 Berechnungsmodelle 4 Unentscheidbarkeit 5 Unentscheidbare Probleme 6 Komplexitätstheorie 139 Unentscheidbarkeit Überblick Zunächst einmal definieren wir formal

Mehr

7. Stochastische Prozesse und Zeitreihenmodelle

7. Stochastische Prozesse und Zeitreihenmodelle 7. Stochastische Prozesse und Zeitreihenmodelle Regelmäßigkeiten in der Entwicklung einer Zeitreihe, um auf zukünftige Entwicklung zu schließen Verwendung zu Prognosezwecken Univariate Zeitreihenanalyse

Mehr

11. Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P

11. Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P 11 Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P 11 Woche: Turingmaschinen, Entscheidbarkeit, P 239/ 333 Einführung in die NP-Vollständigkeitstheorie

Mehr

1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln,

1 Σ endliches Terminalalphabet, 2 V endliche Menge von Variablen (mit V Σ = ), 3 P (V (Σ ΣV )) {(S, ε)} endliche Menge von Regeln, Theorie der Informatik 8. März 25 8. Reguläre Sprachen I Theorie der Informatik 8. Reguläre Sprachen I 8. Reguläre Grammatiken Malte Helmert Gabriele Röger 8.2 DFAs Universität Basel 8. März 25 8.3 NFAs

Mehr

Formale Sprachen. Reguläre Sprachen. Rudolf FREUND, Marian KOGLER

Formale Sprachen. Reguläre Sprachen. Rudolf FREUND, Marian KOGLER Formale Sprachen Reguläre Sprachen Rudolf FREUND, Marian KOGLER Endliche Automaten - Kleene STEPHEN KLEENE (99-994) 956: Representation of events in nerve nets and finite automata. In: C.E. Shannon und

Mehr

3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen

3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen 3. Übung zur Vorlesung NLP Analyse des Wissensrohstoffes Text im Sommersemester 2008 mit Musterlösungen Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 14. Mai 2008 1 Kollokationen

Mehr

Die Nerode-Relation und der Index einer Sprache L

Die Nerode-Relation und der Index einer Sprache L Die Nerode-Relation und der Index einer Sprache L Eine zweite zentrale Idee: Sei A ein vollständiger DFA für die Sprache L. Repäsentiere einen beliebigen Zustand p von A durch die Worte in Σ, die zu p

Mehr

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008 Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation

Mehr

Stochastische Prozesse

Stochastische Prozesse INSTITUT FÜR STOCHASTIK SS 2009 UNIVERSITÄT KARLSRUHE Blatt 1 Priv.-Doz. Dr. D. Kadelka Dipl.-Math. W. Lao Übungen zur Vorlesung Stochastische Prozesse Musterlösungen Aufgabe 1: (Verzweigungsprozess) Die

Mehr

Prinzipien der modernen Kryptographie Sicherheit

Prinzipien der modernen Kryptographie Sicherheit Prinzipien der modernen Kryptographie Sicherheit Prinzip 1 Sicherheitsziel Die Sicherheitsziele müssen präzise definiert werden. Beispiele für ungenügende Definitionen von Sicherheit Kein Angreifer kann

Mehr

Forschungsstatistik I

Forschungsstatistik I Prof. Dr. G. Meinhardt 6. Stock, Taubertsberg 2 R. 06-206 (Persike) R. 06-214 (Meinhardt) Sprechstunde jederzeit nach Vereinbarung Forschungsstatistik I Dr. Malte Persike persike@uni-mainz.de http://psymet03.sowi.uni-mainz.de/

Mehr

Software Engineering Ergänzung zur Vorlesung

Software Engineering Ergänzung zur Vorlesung Ergänzung zur Vorlesung Prof. Dr. Markus Müller-Olm WS 2008 2009 2.6.1 Endliche und reguläre Sprachen Endliche und reguläre Sprache: fundamental in vielen Bereichen der Informatik: theorie Formale Sprachen

Mehr

Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =.

Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =. 2. Der Blum-Floyd-Pratt-Rivest-Tarjan Selektions-Algorithmus Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n

Mehr

Algebraische Statistik ein junges Forschungsgebiet. Dipl.-Math. Marcus Weber

Algebraische Statistik ein junges Forschungsgebiet. Dipl.-Math. Marcus Weber Algebraische Statistik ein junges Forschungsgebiet Dipl.-Math. Marcus Weber Disputationsvortrag 15. Februar 2006 Gliederung 1. Statistische Modelle 2. Algebraische Interpretation statistischer Probleme

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Formale Systeme. Prof. Dr. Bernhard Beckert, WS 2017/ KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft

Formale Systeme. Prof. Dr. Bernhard Beckert, WS 2017/ KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft Formale Systeme Prof. Dr. Bernhard Beckert, WS 2017/2018 Pra dikatenlogik: Tableaukalku l (ohne Gleichheit) KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der

Mehr

Formale Systeme. Prof. Dr. Bernhard Beckert, WS 2016/ KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft

Formale Systeme. Prof. Dr. Bernhard Beckert, WS 2016/ KIT Die Forschungsuniversita t in der Helmholtz-Gemeinschaft Formale Systeme Prof. Dr. Bernhard Beckert, WS 2016/2017 Pra dikatenlogik: Tableaukalku l (ohne Gleichheit) KIT I NSTITUT F U R T HEORETISCHE I NFORMATIK www.kit.edu KIT Die Forschungsuniversita t in der

Mehr

Modelle. VL PLT2, SS 2012 Professur für Prozessleittechnik

Modelle. VL PLT2, SS 2012 Professur für Prozessleittechnik Verfügbarkeit und Markov- Modelle VL PLT2, SS 202 Professur für Prozessleittechnik Prof. Leon Urbas, Dipl.-Ing. A. Krause Übersicht Grundlagen zur Verfügbarkeit und zu Markov-Modellen Berechnung des PFD

Mehr

Lernmodul 7 Algorithmus von Dijkstra

Lernmodul 7 Algorithmus von Dijkstra Folie 1 von 30 Lernmodul 7 Algorithmus von Dijkstra Quelle: http://www.map24.de Folie 2 von 30 Algorithmus von Dijkstra Übersicht Kürzester Weg von A nach B in einem Graphen Problemstellung: Suche einer

Mehr

Methoden der Statistik Markov Chain Monte Carlo Methoden

Methoden der Statistik Markov Chain Monte Carlo Methoden Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Das Prinzip der Suchmaschine Google TM

Das Prinzip der Suchmaschine Google TM /9 Das Prinzip der Suchmaschine Google TM Numerische Mathematik WS 20/2 Basieren auf dem Paper The $25,000,000,000 Eigenvector: The Linear Algebra behind Google von Kurt Bryan und Tanya Leise (SIAM Review,

Mehr

Algorithmische Bioinformatik

Algorithmische Bioinformatik Algorithmische Bioinformatik Hidden-Markov-Modelle Viterbi - Algorithmus Ulf Leser Wissensmanagement in der Bioinformatik Inhalt der Vorlesung Hidden Markov Modelle Baum, L. E. and Petrie, T. (1966). "Statistical

Mehr

Reasoning and decision-making under uncertainty

Reasoning and decision-making under uncertainty Reasoning and decision-making under uncertainty 9. Vorlesung Actions, interventions and complex decisions Sebastian Ptock AG Sociable Agents Rückblick: Decision-Making A decision leads to states with values,

Mehr

2.1 Importance sampling: Metropolis-Algorithmus

2.1 Importance sampling: Metropolis-Algorithmus Kapitel 2 Simulationstechniken 2.1 Importance sampling: Metropolis-Algorithmus Eine zentrale Fragestellung in der statistischen Physik ist die Bestimmung von Erwartungswerten einer Observablen O in einem

Mehr