Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Größe: px
Ab Seite anzeigen:

Download "Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr"

Transkript

1 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr

2 Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte Inferenz in Graphischen Modellen Sequenzmodelle Approimative Inferenz in Graphischen Modellen 2

3 Eakte Inferenz: Message-Passing Message Passing Algorithmus auf linearer Kette ( ) i, i i, i i p( ) ( ) ( 2) a ( ) ( ) k, k k k k k a ( a ) ( a ), (, ) ( ): unbeobachtet Für -,..., : ( ) k k k k k k k a k k (, ) ( ) : beobachtt e ( ), (, ) ( ) : unbeobachtet Für 2,..., : ( ) k k k k k k k a k k (, ) ( ) : beobachtet k, k k k k k a ( ) p (,... ) ( ) ( ) a i i m a a Bedingte Verteilung über Anfragevariable a gegeben Evidenz: Produkt der achrichten 3

4 Inferenz in Allgemeinen Graphen Bisher nur Spezialfall: Inferenz auf linearer Kette Die Grundidee des Message-Passing funktioniert auch auf allgemeineren Graphen Erweiterung: Eakte Inferenz auf Polytrees Polytree: Gerichteter Graph, in dem es zwischen zwei Knoten immer genau einen ungerichteten Pfad gibt Etwas allgemeiner als gerichteter Baum Gerichteter Baum Polytree 4

5 Inferenz in Allgemeinen Graphen Grundidee Message-Passing auf Polytrees: Umwandlung in Faktor-Graph (ungerichteter Baum) Ursprünglicher Graph 4 Gemeinsame Verteilung p(,,,, ) p( ) p( ) p(, ) p( ) p(, ) Faktor Faktor-Graph Faktor-Knoten - Für jeden Faktor in der gemeinsamen Verteilung gibt es einen Faktor-Knoten - Ungerichtete Kanten von den Faktor-Knoten zu den im Faktor auftauchenden Variablen 5

6 Inferenz in Allgemeinen Graphen (Skizze) Falls der ursprüngliche Graph ein Polytree war, ist der Faktor- Graph ein ungerichteter Baum (dh zykelfrei). Blätter a Betrachten Anfragevariable als Wurzel des Baumes achrichten von den Blättern zur Wurzel schicken (immer eindeutiger Pfad, weil Baum) a Es gibt zwei Typen von achrichten: Faktor-achrichten und Variablen-achrichten a Spezialfall lineare Kette 6

7 Inferenz in Allgemeinen Graphen (Skizze) Blätter a achrichten werden verschmolzen, dabei müssen wir über mehrere Variablen summieren Grundidee dieselbe wie bei Inferenz auf der linearen Kette: geschicktes Aussummieren Details im Bishop-Tetbuch ( Sum-Product Algorithmus) a 7

8 Inferenz in Allgemeinen Graphen Inferenz in Graphen, die keine Polytrees sind? Iteratives Message-Passing Schema, wegen Zyklen im Graph nicht eakt (=approimativer Algorithmus) Alternative für eakte Inferenz in allgemeinen Graphen: p( ) p( ) p( ) p( ) p(, ) Graph in einen äquivalenten azyklischen Graphen umwandeln Junction Tree Algorithmus, (i.a. eponentielle Laufzeit) Loopy Belief Propagation 8

9 Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte Inferenz in Graphischen Modellen Sequenzmodelle Approimative Inferenz in Graphischen Modellen 9

10 Hidden Markov Modell: probabilistischer Automat Hidden Markov Modell: Modell für Folge diskreter Zeitschritte,.,T (= einzelne Sequenzelemente) Probabilistischer Automat, der sich in jedem Zeitschritt in einem Zustand aus einer endlichen Menge von Zuständen befindet Der Automat wechselt in jedem Zeitschritt probabilistisch in einen neuen Zustand, in Abhängigkeit des aktuellen Zustands Beispiel: Modell für natürliche Sprache Zeitschritte = Worte im Tet Zustände = grammatikalische Kategorie des Wortes Wahrscheinlichkeiten für Zustandsübergänge Artikel Verb 0.6 Substantiv Adjektiv 0

11 Hidden Markov Modell: probabilistischer Automat Folge der Zustände nicht direkt beobachtbar Stattdessen: Zustände emittieren Beobachtungen, diese bilden die eigentliche Sequenz Verteilung über mögliche Beobachtungen abhängig vom aktuellen Zustand... weise weiß will weich der 0.3 weise die weiß Beobachtungen: Eigentliches Wort an Position t das 0.3 Artikel Weiche Weise Verb 0.6 Substantiv Adjektiv

12 Formalisierung: Zustände Zustand zur Zeit t: Zufallsvariable Automatenmodell: Verteilung für nächsten Zustand hängt nur vom aktuellen Zustand ab, nicht von früheren Zuständen Dadurch ergibt sich vereinfachte gemeinsame Verteilung: (,..., ) ( ) T p q q pq p( qt qt ) "Markov-Annahme" T t2 Als graphisches Modell: q qt {,..., } q2 q3 q4 2

13 Formalisierung: Beobachtungen Zustände (versteckt) Beobachtungen Beobachtung zur Zeit t: Zufallsvariable Automatenmodell: Wahrscheinlichkeit einer Beobachtung hängt nur vom aktuellen Zustand ab Gemeinsame Verteilung über alle ZV: T T OT t qt t t t2 p( q,..., q, O,..., ) p( q ) p( O q ) p( q ) p( O q ) Als graphisches Modell ( Hidden Markov Modell oder HMM ) q po ( q,..., q, O,..., O ) po ( q ) t t t t t O { o,..., o } q2 q q 3 4 O O2 O3 O 4 t M 2. Markov-Annahme 3

14 HMM Parametrisierung Zu Definition eines HMMs müssen wir die folgenden Verteilungen angeben: pq t t ( ) Verteilung über mögliche Startzust än d e p( q q ) Verteilung über Zustandsübergänge (unabhängig von t) p( O q ) Verteilung über Beobachtungen (unabhängig von t) t t Bezeichner für die entsprechenden Wahrscheinlichkeiten: Startwahrscheinlichkeiten: p( q j ) Vektor Übergangswahrscheinlichkeiten: p( q j q i) a Matri A Beobachtungswahrscheinlichkeiten: p( O q i) b ( O ) Matri B Ein HMM ist definiert durch ein Triple j t t ij t t i t ( AB,, ) M 4

15 HMM Problemstellungen 3 Basisproblemstellungen zu Hidden Markov Modellen:. Likelihood einer Beobachtungsfolge: Wie wahrscheinlich ist eine Beobachtungsfolge gegeben ein Modell? Berechne p( O,..., O ) O, O2,..., O T 2. Wahrscheinlichster Zustand, gegeben Beobachtungen: a) Berechne argma p( q O,..., O, ) q t T b) Berechne argma p( q,..., q O,..., O, ) 3. Gegeben mehrere Beobachtungsfolgen, finde das Modell welches die Daten am besten erklärt Berechne argma ({(,..., ),...} ) t,..., T q q T p O O T T T 5

16 . Likelihood einer Beobachtungsfolge Likelihood einer Beobachtungsfolge: Wie wahrscheinlich ist eine Beobachtungsfolge gegeben ein Modell? Summenregel: Gesucht: polynomieller Algorithmus. Lösung: T T T q q Forward-Backward Algorithmus: dynamisches Programmieren Forward-Backward ist Spezialfall von (allgemeinem) Message- Passing Löst gleichzeitig auch Problem 2.a) O, O2,..., O T p( O,..., O )... p( O,..., O, q,..., q ) T Eponentieller Aufwand 6

17 Forward-Backward Algorithmus Definiere Hilfsvariablen ( i ) p ( O,..., O, q i ) insgesamt T Varia blen t t t ( i ) p ( O,..., O q i, ) insgesamt T Va riablen t t T t Theorem: ( ) i io ) i b( () i ( j) a b( O ) t t ji i t j () i T Ermöglicht rekursive Berechnung alle r t ( i) 2 für t,..., T und j,..., in O( T ) t () i aijbj ( Ot ) t ( j) 2 j Ermöglicht rekursive Berechnung aller ( i) für t T,..., und i,..., in O( T ) t 7

18 Forward-Backward Algorithmus Wenn wir alle () i und t () i berechnet haben: Lösung Problem : t p( O,..., O ) p( O,..., O, q i ) T T T i i ( i) 2 Gesamtlaufzeit: O( T ) T Summenregel 8

19 Forward-Backward Algorithmus Wenn wir alle () i und t () i berechnet haben: t Lösung Problem 2.a): p( q i O,..., O, )... t 2 Gesamtlaufzeit: O( T) T t() i t() i = p( O,..., O ) T 9

20 Ausblick Problem 2.b): Lösung mit Viterbi (ähnliche Idee wie Forward-Backward) Problem 3: Lösung mit Baum-Welch Instanz des EM-Algorithmus (siehe später) Enthält Forward-Backward als Teilproblem Alternativer Ansatz zur Modellierung von Sequenzen: diskriminative Modelle HM-SVM Conditional Random Fields Weitere Details in der Vorlesung Sprachtechnologie 20

21 Anwendungen HMMs Part-of-Speech Tagging in natürlicher Sprache Versteckte Zustände sind die grammatikalischen Kategorien (Artikel, Verb, Substantiv, etc) Beobachtungen sind die Worte im Tet Ziel: weise Worten grammatikalische Kategorien zu Spracherkennung: akustisches Modell Versteckte Zustände sind die gesprochenen Worte Beobachtet wird das akustische Signal Ziel: Rekonstruiere gesprochene Worte aus akustischem Signal Bioinformatik Finden oder Annotieren von Genen in DA In der Regel Erweiterungen der hier vorgestellten HMMs 2

22 Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte Inferenz in Graphischen Modellen Sequenzmodelle Approimative Inferenz in Graphischen Modellen 22

23 Approimative Inferenz Eakte Inferenz P-hart: In der Prais spielen approimative Inferenzverfahren wichtige Rolle Wir betrachten Sampling-basierte Verfahren Relativ einfach zu verstehen/implementieren Anytime-Algorithmen (je länger die Laufzeit, desto genauer) 23

24 Inferenz: Sampling-basiert Grundidee Sampling: Wir interessieren uns für eine Verteilung, ist eine Menge von Zufallsvariablen (z.b. bedingte Verteilung über Anfragevariablen in graphischem Modell) Es ist schwierig, p() z direkt auszurechnen p() z Stattdessen ziehen wir Samples (Stichproben) z ( k) ~ p( z) i.i.d., k,..., K, z jedes Sample ist eine vollständige Belegung der Zufallsvariablen in z () (2) ( K ) Die Samples z, z,..., z approimieren die Verteilung p() z z 24

25 Inferenz: Sampling-basiert Beispiel: Eindimensionale Verteilung, z {} z Diskrete Variable mit Zuständen {0,,6}: Anzahl Kopf bei 6 Münzwürfen Anteil Eine Münze 6 Mal werfen liefert ein Sample Samples mit Wert z K=00 Eperimente, in denen wir jeweils Münze 6 werfen Sample-Histogramm K Echte Verteilung (Binomial) z 25

26 Sampling-Inferenz für Graphische Modelle Gegeben graphisches Modell, repräsentiert Verteilung durch p (,..., ) p( pa( )) i i i Etwas allgemeinere Inferenz-Problemstellung: Menge von Anfragevariablen p( I D )? {,..., } Menge von Anfragevariablen Wir betrachten zunächst den Fall ohne Evidenz: I D p( )? {,..., } {,..., } I I i i {,..., } Menge von Evidenzvariablen m 26

27 Sampling-Inferenz für Graphische Modelle Ziel: Samples aus der Randverteilung Es genügt, Samples aus der Gesamtverteilung zu ziehen: ( k) ( k) ( k) p ( ) p... ) (,..., ) ~ p(,..., ) k,..., K (,, Samples aus der Randverteilung p (,..., ) i erhalten wir i m einfach durch Projektion der Samples auf die {,..., } i i m ( k) I ~ ( k) ( k) ( k) (,..., ) p,..., ),.. ( ( ),..., ) ~ p (,..., ) k,..., K ( k) k ( k) I i i i p( I ) k,..., K ~ ( k., K Projektion m i m p( ) p(,..., ) I i i m 27

28 Inferenz: Ancestral Sampling ( Wie ziehen wir Samples k ) ~ p( )? Einfach bei gerichteten graphischen Modellen: Ancestral Sampling utze Faktorisierung der gemeinsamen Verteilung ~ p( ) p (,..., ) i Ziehen entlang der Kanten p ( i pa( i)) Ziehe jeweils nächste Variable, gegeben vorige Variablen Ziehen entlang der Kanten

29 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) Schon gezogene Werte ~ p( ) i ~ p( ) p ( pa( )) i i Topologische Ordnung: pa( ) {,..., } B 2 A 3 5 E i 4 i R i 29

30 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( P(B=) ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte 0. B 2 A 3 5 E 4 R 30

31 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte P(E=) B A 3 5 E 4 R 3

32 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte B E P(A= B,E) B 2 A 3 5 E 4 R 32

33 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte E P(R= E) B A 3 5 E 4 R 33

34 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( 2) 2 ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte B A P(= A) 2 A 3 5 E 4 R 34

35 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte ( k) (,0,,0,) 35

36 Inferenz: Ancestral Sampling Beispiel für Schätzung der Randverteilungen aus Samples: () (2) (3) (4) (5) Analyse Ancentral Sampling + Zieht direkt aus der korrekten Verteilung + Effizient (, 0,, 0,) (0,0,0,0,0) (0,, 0,, 0) (0,,, 0,) (0,0,0,0,0) p ( ) Funktioniert nur ohne Evidenz 3 p ( ) p ( ) B 2 A 3 5 E 4 R 36

37 Inferenz: Logic Sampling Wie erhalten wir Samples unter Evidenz? Logic Sampling: Ancestral Sampling + Zurückweisung von Samples, die nicht mit der Beobachtung konsistent sind ( k ) ~ p( ) p(,...,,..., ) I I D i i m j j l Beim Generieren der vollständigen Samples (,..., ) ~ p( ) ( ) ( ) ( ) Beobachtete Variablen verwerfen wir alle Samples, in denen die für die Evidenzvariablen gezogenen Werte nicht mit den Beobachtungen übereinstimmen Problem: meist werden fast alle Samples verworfen (vor allem, wenn es viele Evidenzvariablen gibt) Sehr lange Laufzeit um genug Samples zu erhalten, oft nicht praktikabel 37

38 Inferenz: MCMC Alternative Strategie zum Erzeugen von Samples: Markov Chain Monte Carlo ( MCMC ) Idee: Schwierig, direkt Samples aus p( z) zu ziehen Alternativstrategie: Konstruiere Folge von Samples (0) () (2) (3) (4) (5) z z z z z z... (0) ( t) ( t) t z zufällig initialisiert z ~ p( z z ) ( t) ( t) t durch mehrfache probabilistische Update-Schritte z ~ p( z z ). Wenn Updates geeignet gewählt, gilt asymptotisch ZV: T-te Variablenbelegung ( T z ) ~ p( z) ungefähr, für sehr grosse T 38

39 Markov-Ketten Betrachte Folge der Samples als Zufallsvariablen, Diese Zufallsvariablen bilden Markov-Kette: (0) z (0) () (2) (3) (4) (5) z z z z z z... () z () t z heißt Zustand der Kette zum Zeitpunkt t (0) (0) () () (0) (2) (2) () (3) (3) (2) z ~ p( z ) z ~ p( z z ) z ~ p( z z ) z ~ p( z z ) (2) z (3) z 39

40 Markov-Ketten ( ) Die Verteilung über z t ergibt sich aus der Verteilung über durch () t z Folgezustand p ( ) ( ) ( ) ( ) ( z t ) p( z t z t ) p( z t ) t ( ) () t Eine Verteilung p( z ) heißt stationär, falls z Wenn die Kette zum Zeitpunkt t eine stationäre Verteilung erreicht hat, so bleibt diese erhalten: ( tk ) ( t p( z ) p( z ) ) für alle k 0 Aktueller Zustand ( t) ( t) ( z ) p( z ) Unter bestimmten Bedingungen ( ergodische Ketten ) konvergieren Markov-Ketten zu einer eindeutigen stationären Verteilung ( Gleichgewichtsverteilung ) p 40

41 Inferenz: MCMC Gegeben graphisches Modell über ZV = {,, }, definiert Verteilung p() Annahme zunächst: keine Evidenz Markov Chain Monte Carlo Methoden Konstruiere aus dem graphischen Modell eine Folge von Samples durch iterative probabilistische Updates (0) () (2) (3) (4) (5)... (0) ( t) ( t) t zufällig initialisiert ~ p( ) Ziel: Updates so wählen, dass sich ergodische Markov-Kette mit Gleichgewichtsverteilung p( ) ergibt Einfachste Methode: lokales Ziehen einer Variable, gegeben Zustand der anderen Variablen ( Gibbs-Sampling ) () t jeweils Belegung aller Knoten im etz 4

42 Inferenz: Gibbs Sampling Gibbs Sampling: Eine Version von MCMC Übergangswahrscheinlichkeiten bestimmt durch wiederholtes lokales Ziehen einer ZV, gegeben den Zustand aller anderen ZV Gegeben alter Zustand (,..., ) Ziehen des neuen Zustands ' ( ',..., ') : Im letzten Schritt gesampelte Werte ' ~ p(,..., ) ' ~ p( ',,..., ) ' ~ p( ', ',,...,... ' ~ ( ' 2', p,.., ') ) Anfangs zufällige Initialisierung 42

43 Inferenz: Gibbs Sampling Satz: Falls p( i pa( i )) 0 für alle i und alle möglichen Zustände i, so ist die resultierende Markov-Kette ergodisch mit Gleichgewichtsverteilung p( ). Einzelner Gibbs-Schritt einfach: alle Variablen bis auf Anfragevariable beobachtet, naive Inferenz in Zeit O(M ) 43

44 Gibbs-Sampling mit Evidenz Bisher haben wir Inferenz ohne Evidenz betrachtet Wie erhalten wir Samples aus der bedingten Verteilung? ( T ) Ziel: ~ p( D) ungefähr, für sehr grosse Leichte Modifikation der Gibbs-Sampling Methode: Gibbs-Sampling zieht immer eine Variable i neu, gegeben Zustand der anderen Variablen Mit Evidenz: ur die unbeobachteten Variablen werden jeweils neu gezogen, die beobachteten Variablen werden fest auf den beobachteten Wert gesetzt T 44

45 Inferenz: Gibbs Sampling Zusammenfassung Gibbs Sampling Algorithmus: Gibbs Sampling in vielen praktischen Anwendungen brauchbar (0) zufällige Initialisierung aller ZV, konsistent mit Evidenz D ( t) ( t) Für t,..., T: Gibbs-u pdate( ) () (2) (3) Die Samples,,... sind asymptotisch verteilt nach p(, ) Einzelne Update-Schritte effizient Garantierte Konvergenz (für t ) Erlaubt, Samples aus p( ) D zu ziehen, ohne dass Laufzeit eplodiert wenn Evidenzmenge groß (im Gegensatz zu Logic Sampling) D 45

46 Inferenz: Gibbs Sampling Gibbs-Sampling: Konvergenz () (2) (3) Konvergenz der Markov-Kette,,,... ist nur garantiert für t. In der Prais: Burn-In Iterationen, bevor Samples () verwendet werden (verwerfe Samples t für ) t T Burn in Es gibt auch Konvergenztests, um Anzahl der Burn-In Iterationen zu bestimmen 46

47 Inferenz: Zusammenfassung Eakte Inferenz Message-Passing Algorithmen Eakte Inferenz auf Polytrees (mit Junction-Tree Erweiterung auf allgemeinen Graphen) Laufzeit abhängig von Graphstruktur, eponentiell im worst-case Approimative Inferenz Sampling-Methoden: Approimation durch Menge von Samples, eakte Ergebnisse für t. Ancestral Sampling: einfach, schnell, keine Evidenz Logic Sampling: mit Evidenz, aber selten praktikabel MCMC/Gibbs-Sampling: Effizientes approimatives Ziehen von Samples unter Evidenz 47

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte

Mehr

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Strukturelle SVM zum Graph-labelling

Strukturelle SVM zum Graph-labelling 23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Latente Dirichlet-Allokation

Latente Dirichlet-Allokation Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert

Mehr

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014

Hidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014 idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Christoph Sawade Heute: Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz:

Mehr

Der Metropolis-Hastings Algorithmus

Der Metropolis-Hastings Algorithmus Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung

Mehr

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten

Übersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung

Mehr

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities) Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief

Mehr

Elementare Wahrscheinlichkeitslehre

Elementare Wahrscheinlichkeitslehre Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?

Mehr

Probabilistische Graphische Modelle

Probabilistische Graphische Modelle Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Übersicht über die Vorlesung Probabilistische

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung

Mehr

Zeitreihenanalyse mit Hidden Markov Modellen

Zeitreihenanalyse mit Hidden Markov Modellen Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials VL PLT2

Mehr

Bayessche Lineare Regression

Bayessche Lineare Regression Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.

Mehr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr

Folien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion

Mehr

Datenstrukturen und Algorithmen (SS 2013)

Datenstrukturen und Algorithmen (SS 2013) Datenstrukturen und Algorithmen (SS 2013) Übungsblatt 10 Abgabe: Montag, 08.07.2013, 14:00 Uhr Die Übungen sollen in Gruppen von zwei bis drei Personen bearbeitet werden. Schreiben Sie die Namen jedes

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil XIII Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University of Leipzig

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen

Mehr

Bayes sche und probabilistische Netze

Bayes sche und probabilistische Netze Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp

Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)

Mehr

HMMs und der Viterbi-Algorithmus

HMMs und der Viterbi-Algorithmus July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,

Mehr

Hidden Markov Models (HMM)

Hidden Markov Models (HMM) Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Beweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i)

Beweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i) Die Probabilistische Methode Beobachtung: Besitzt ein Ereignis Ws > 0, so muss es existieren! Notation: Sei K n der komplette Graph mit n Knoten und ( n 2) Kanten. Satz Falls 2 (k 2) 1 > ( n k), existiert

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/Niels Landwehr/Tobias Scheffer Überblick Problemstellung/Motivation Deterministischer i ti Ansatz:

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

Statistische Sprachmodelle

Statistische Sprachmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch

Mehr

Planung von Handlungen bei unsicherer Information

Planung von Handlungen bei unsicherer Information Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 20.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER)

Mehr

Maschinelle Sprachverarbeitung

Maschinelle Sprachverarbeitung Maschinelle Sprachverarbeitung Übung Aufgabe 5: Gen-Erkennung mit Maschinellen Lernen Mario Sänger Problemstellung Erkennung von Genen in Texten NEU: Beachtung von Multi-Token-Entitäten (B-/I-protein)

Mehr

Hidden Markov Modellen

Hidden Markov Modellen Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials) VL PLT2

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Semester-Fahrplan 1 / 17

Semester-Fahrplan 1 / 17 Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle (Vorabversion begleitend zur Vorlesung Spracherkennung und integrierte Dialogsysteme am Lehrstuhl Medieninformatik am Inst. f. Informatik der LMU München, Sommer 2005) Prof. Marcus

Mehr

Vorlesung Datenstrukturen

Vorlesung Datenstrukturen Vorlesung Datenstrukturen Kürzeste Wege Maike Buchin 4. und 6.7.2017 Einführung Motivation: Bestimmung von kürzesten Wegen ist in vielen Anwendungen, z.b. Routenplanung, ein wichtiges Problem. Allgemeine

Mehr

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation

Teil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten

Mehr

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen

Mehr

Effizienter Planaritätstest Vorlesung am

Effizienter Planaritätstest Vorlesung am Effizienter Planaritätstest Vorlesung am 23.04.2014 INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER Satz Gegebenen einen Graphen G = (V, E) mit n Kanten und m Knoten, kann in O(n + m) Zeit

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur

Mehr

3.2 Maximum-Likelihood-Schätzung

3.2 Maximum-Likelihood-Schätzung 291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde

Mehr

Syntaktische und Statistische Mustererkennung. Bernhard Jung

Syntaktische und Statistische Mustererkennung. Bernhard Jung Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel

Mehr

Algorithmische Bioinformatik 1

Algorithmische Bioinformatik 1 Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,

Mehr

Active Hidden Markov Models for Information Extraction

Active Hidden Markov Models for Information Extraction HMMs in der IE p.1/28 Active Hidden Markov Models for Information Extraction Seminar Informationsextraktion im WiSe 2002/2003 Madeleine Theile HMMs in der IE p.2/28 Inhaltsübersicht Ziel formalere Aufgabenbeschreibung

Mehr

ADS: Algorithmen und Datenstrukturen 2

ADS: Algorithmen und Datenstrukturen 2 ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,

Mehr

Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.

Map Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.

Mehr

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe 3. Elementare Graphalgorithmen und Anwendungen 4. Minimal spannende Bäume 5. Kürzeste Pfade 6. Traveling Salesman Problem 7. Flüsse

Mehr

Algorithmen. Von Labyrinthen zu. Gerald Futschek

Algorithmen. Von Labyrinthen zu. Gerald Futschek Von Labyrinthen zu Algorithmen Gerald Futschek Wie kommt man aus einem Labyrinth (griechisch: Haus der Doppelaxt, wahrscheinlich Knossos auf Kreta) Labyrinth heraus? Labrys Grundriss des Palastes von Knossos

Mehr

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i])

Graphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i]) Seminar über Algorithmen 19. November 2013 Michael Brückner Graphische Spiele Wolfgang Mulzer, Yannik Stein 1 Einführung Da in Mehrspielerspielen mit einer hohen Anzahl n N an Spielern die Auszahlungsdarstellungen

Mehr

Kapitel 9: Lineare Programmierung Gliederung

Kapitel 9: Lineare Programmierung Gliederung Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen

Mehr

Hidden Markov Model (HMM)

Hidden Markov Model (HMM) Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig

Mehr

Counting the Number of Satisfying Assignments

Counting the Number of Satisfying Assignments Counting the Number of Satisfying Assignments Ferienakademie im Sarntal Kurs 1 Moderne Suchmethoden der Informatik: Trends und Potenzial Stefan Ploner Department Informatik FAU Erlangen-Nürnberg 29. September

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Zusammenfassung. Niels Landwehr, Uwe Dick, Matthias Bussas

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Zusammenfassung. Niels Landwehr, Uwe Dick, Matthias Bussas Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Zusammenfassung Niels Landwehr, Uwe Dick, Matthias Bussas Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen

Mehr

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten

Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von

Mehr

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87

16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 16. November 2011 Zentralitätsmaße H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 Darstellung in spektraler Form Zentralität genügt Ax = κ 1 x (Herleitung s. Tafel), daher ist x der Eigenvektor

Mehr

Informatik II: Algorithmen & Datenstrukturen. Blättern Sie nicht um bevor Sie dazu aufgefordert werden!

Informatik II: Algorithmen & Datenstrukturen. Blättern Sie nicht um bevor Sie dazu aufgefordert werden! Albert-Ludwigs-Universität Institut für Informatik Prof. Dr. F. Kuhn Informatik II: Algorithmen & Datenstrukturen Montag, 29. August, 2014, 14:00 17:00 Name:...........................................................

Mehr

Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =.

Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =. 2. Der Blum-Floyd-Pratt-Rivest-Tarjan Selektions-Algorithmus Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n

Mehr

Wahrscheinlichkeitsrechnung und Statistik

Wahrscheinlichkeitsrechnung und Statistik Babeş-Bolyai Universität Fakultät für Mathematik und Informatik Oktober 2018 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Paul Prasse Michael Großhans Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. 6 Leistungspunkte

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer, Tom Vanck, Paul Prasse Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Termin: Montags,

Mehr

Methoden der Statistik Markov Chain Monte Carlo Methoden

Methoden der Statistik Markov Chain Monte Carlo Methoden Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

3.3 Optimale binäre Suchbäume

3.3 Optimale binäre Suchbäume 3.3 Optimale binäre Suchbäume Problem 3.3.1. Sei S eine Menge von Schlüsseln aus einem endlichen, linear geordneten Universum U, S = {a 1,,...,a n } U und S = n N. Wir wollen S in einem binären Suchbaum

Mehr

DisMod-Repetitorium Tag 3

DisMod-Repetitorium Tag 3 DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Algebraische Statistik ein junges Forschungsgebiet. Dipl.-Math. Marcus Weber

Algebraische Statistik ein junges Forschungsgebiet. Dipl.-Math. Marcus Weber Algebraische Statistik ein junges Forschungsgebiet Dipl.-Math. Marcus Weber Disputationsvortrag 15. Februar 2006 Gliederung 1. Statistische Modelle 2. Algebraische Interpretation statistischer Probleme

Mehr

Betriebswirtschaftliche Optimierung

Betriebswirtschaftliche Optimierung Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie

Mehr

Seminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11.

Seminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen 11. Juni 2009 Gliederung 1 Problemstellung 2 Vektorprodukt Approximationen Samplesammlung 3 Schritte Lokalität und Nachrichtenkomplexität

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr

DAP2-Klausur

DAP2-Klausur DAP2-Klausur 09.10.2004 Vorname : Familienname: Ich studiere (Bitte markieren): Informatik (inkl. angewandte Informatik)/ Lehramt Informatik/Informationstechnik/ Physik/Mathe/Statistik/Sonstiges: Bitte

Mehr

Vorlesung 3: Graphenalgorithmen. Markus Püschel David Steurer Peter Widmayer. PDF download goo.gl/ym3spq

Vorlesung 3: Graphenalgorithmen. Markus Püschel David Steurer Peter Widmayer. PDF download goo.gl/ym3spq Vorlesung 3: Graphenalgorithmen Markus Püschel David Steurer Peter Widmayer PDF download goo.gl/ym3spq Algorithmen und Datenstrukturen, Herbstsemester 2017, ETH Zürich Gerichtete Graphen und Abhängigkeiten

Mehr

Betriebliche Optimierung

Betriebliche Optimierung Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08

Mehr

Beweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n)

Beweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n) Beweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n) ( ( ) n 3 T + T m ) 4 n n 3 c + m 4 n c + n n + C m + cn; dies gilt, falls m 2 n m C m + n 2 (bis auf, ) c m + 3

Mehr

Algorithmen und Datenstrukturen

Algorithmen und Datenstrukturen 1 Algorithmen und Datenstrukturen Wintersemester 013/14 7. Vorlesung Zufall! Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Ein Experiment Ein Franke und ein Münchner gehen (unabhängig voneinander)

Mehr

Klausur Algorithmentheorie

Klausur Algorithmentheorie Prof. Dr. G. Schnitger Frankfurt, den 24.02.2011 M. Poloczek Klausur Algorithmentheorie WS 2010/2011 Name: Vorname: Geburtsdatum: Studiengang: BITTE GENAU LESEN Die Klausur besteht aus 4 Aufgaben, in denen

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 216 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Aufgabe

Mehr

Lösungen zur Vorlesung Berechenbarkeit und Komplexität

Lösungen zur Vorlesung Berechenbarkeit und Komplexität Lehrstuhl für Informatik 1 WS 009/10 Prof. Dr. Berthold Vöcking 0.0.010 Alexander Skopalik Thomas Kesselheim Lösungen zur Vorlesung Berechenbarkeit und Komplexität. Zulassungsklausur Aufgabe 1: (a) Worin

Mehr

Ferien-Übungsblatt 8 Lösungsvorschläge

Ferien-Übungsblatt 8 Lösungsvorschläge Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Ferien-Übungsblatt 8 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Probabilistische Komplexitätsklassen [vgl.

Mehr

Klammersprache Definiere

Klammersprache Definiere Klammersprache w=w 1...w n {(,)}* heißt korrekt geklammert, falls die Anzahl ( ist gleich der Anzahl ). in jedem Anfangsstück w 1,...,w i (i n) ist die Anzahl ( nicht kleiner als die Anzahl ). Definiere

Mehr