Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
|
|
- Leonard Gehrig
- vor 5 Jahren
- Abrufe
Transkript
1 Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr
2 Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte Inferenz in Graphischen Modellen Sequenzmodelle Approimative Inferenz in Graphischen Modellen 2
3 Eakte Inferenz: Message-Passing Message Passing Algorithmus auf linearer Kette ( ) i, i i, i i p( ) ( ) ( 2) a ( ) ( ) k, k k k k k a ( a ) ( a ), (, ) ( ): unbeobachtet Für -,..., : ( ) k k k k k k k a k k (, ) ( ) : beobachtt e ( ), (, ) ( ) : unbeobachtet Für 2,..., : ( ) k k k k k k k a k k (, ) ( ) : beobachtet k, k k k k k a ( ) p (,... ) ( ) ( ) a i i m a a Bedingte Verteilung über Anfragevariable a gegeben Evidenz: Produkt der achrichten 3
4 Inferenz in Allgemeinen Graphen Bisher nur Spezialfall: Inferenz auf linearer Kette Die Grundidee des Message-Passing funktioniert auch auf allgemeineren Graphen Erweiterung: Eakte Inferenz auf Polytrees Polytree: Gerichteter Graph, in dem es zwischen zwei Knoten immer genau einen ungerichteten Pfad gibt Etwas allgemeiner als gerichteter Baum Gerichteter Baum Polytree 4
5 Inferenz in Allgemeinen Graphen Grundidee Message-Passing auf Polytrees: Umwandlung in Faktor-Graph (ungerichteter Baum) Ursprünglicher Graph 4 Gemeinsame Verteilung p(,,,, ) p( ) p( ) p(, ) p( ) p(, ) Faktor Faktor-Graph Faktor-Knoten - Für jeden Faktor in der gemeinsamen Verteilung gibt es einen Faktor-Knoten - Ungerichtete Kanten von den Faktor-Knoten zu den im Faktor auftauchenden Variablen 5
6 Inferenz in Allgemeinen Graphen (Skizze) Falls der ursprüngliche Graph ein Polytree war, ist der Faktor- Graph ein ungerichteter Baum (dh zykelfrei). Blätter a Betrachten Anfragevariable als Wurzel des Baumes achrichten von den Blättern zur Wurzel schicken (immer eindeutiger Pfad, weil Baum) a Es gibt zwei Typen von achrichten: Faktor-achrichten und Variablen-achrichten a Spezialfall lineare Kette 6
7 Inferenz in Allgemeinen Graphen (Skizze) Blätter a achrichten werden verschmolzen, dabei müssen wir über mehrere Variablen summieren Grundidee dieselbe wie bei Inferenz auf der linearen Kette: geschicktes Aussummieren Details im Bishop-Tetbuch ( Sum-Product Algorithmus) a 7
8 Inferenz in Allgemeinen Graphen Inferenz in Graphen, die keine Polytrees sind? Iteratives Message-Passing Schema, wegen Zyklen im Graph nicht eakt (=approimativer Algorithmus) Alternative für eakte Inferenz in allgemeinen Graphen: p( ) p( ) p( ) p( ) p(, ) Graph in einen äquivalenten azyklischen Graphen umwandeln Junction Tree Algorithmus, (i.a. eponentielle Laufzeit) Loopy Belief Propagation 8
9 Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte Inferenz in Graphischen Modellen Sequenzmodelle Approimative Inferenz in Graphischen Modellen 9
10 Hidden Markov Modell: probabilistischer Automat Hidden Markov Modell: Modell für Folge diskreter Zeitschritte,.,T (= einzelne Sequenzelemente) Probabilistischer Automat, der sich in jedem Zeitschritt in einem Zustand aus einer endlichen Menge von Zuständen befindet Der Automat wechselt in jedem Zeitschritt probabilistisch in einen neuen Zustand, in Abhängigkeit des aktuellen Zustands Beispiel: Modell für natürliche Sprache Zeitschritte = Worte im Tet Zustände = grammatikalische Kategorie des Wortes Wahrscheinlichkeiten für Zustandsübergänge Artikel Verb 0.6 Substantiv Adjektiv 0
11 Hidden Markov Modell: probabilistischer Automat Folge der Zustände nicht direkt beobachtbar Stattdessen: Zustände emittieren Beobachtungen, diese bilden die eigentliche Sequenz Verteilung über mögliche Beobachtungen abhängig vom aktuellen Zustand... weise weiß will weich der 0.3 weise die weiß Beobachtungen: Eigentliches Wort an Position t das 0.3 Artikel Weiche Weise Verb 0.6 Substantiv Adjektiv
12 Formalisierung: Zustände Zustand zur Zeit t: Zufallsvariable Automatenmodell: Verteilung für nächsten Zustand hängt nur vom aktuellen Zustand ab, nicht von früheren Zuständen Dadurch ergibt sich vereinfachte gemeinsame Verteilung: (,..., ) ( ) T p q q pq p( qt qt ) "Markov-Annahme" T t2 Als graphisches Modell: q qt {,..., } q2 q3 q4 2
13 Formalisierung: Beobachtungen Zustände (versteckt) Beobachtungen Beobachtung zur Zeit t: Zufallsvariable Automatenmodell: Wahrscheinlichkeit einer Beobachtung hängt nur vom aktuellen Zustand ab Gemeinsame Verteilung über alle ZV: T T OT t qt t t t2 p( q,..., q, O,..., ) p( q ) p( O q ) p( q ) p( O q ) Als graphisches Modell ( Hidden Markov Modell oder HMM ) q po ( q,..., q, O,..., O ) po ( q ) t t t t t O { o,..., o } q2 q q 3 4 O O2 O3 O 4 t M 2. Markov-Annahme 3
14 HMM Parametrisierung Zu Definition eines HMMs müssen wir die folgenden Verteilungen angeben: pq t t ( ) Verteilung über mögliche Startzust än d e p( q q ) Verteilung über Zustandsübergänge (unabhängig von t) p( O q ) Verteilung über Beobachtungen (unabhängig von t) t t Bezeichner für die entsprechenden Wahrscheinlichkeiten: Startwahrscheinlichkeiten: p( q j ) Vektor Übergangswahrscheinlichkeiten: p( q j q i) a Matri A Beobachtungswahrscheinlichkeiten: p( O q i) b ( O ) Matri B Ein HMM ist definiert durch ein Triple j t t ij t t i t ( AB,, ) M 4
15 HMM Problemstellungen 3 Basisproblemstellungen zu Hidden Markov Modellen:. Likelihood einer Beobachtungsfolge: Wie wahrscheinlich ist eine Beobachtungsfolge gegeben ein Modell? Berechne p( O,..., O ) O, O2,..., O T 2. Wahrscheinlichster Zustand, gegeben Beobachtungen: a) Berechne argma p( q O,..., O, ) q t T b) Berechne argma p( q,..., q O,..., O, ) 3. Gegeben mehrere Beobachtungsfolgen, finde das Modell welches die Daten am besten erklärt Berechne argma ({(,..., ),...} ) t,..., T q q T p O O T T T 5
16 . Likelihood einer Beobachtungsfolge Likelihood einer Beobachtungsfolge: Wie wahrscheinlich ist eine Beobachtungsfolge gegeben ein Modell? Summenregel: Gesucht: polynomieller Algorithmus. Lösung: T T T q q Forward-Backward Algorithmus: dynamisches Programmieren Forward-Backward ist Spezialfall von (allgemeinem) Message- Passing Löst gleichzeitig auch Problem 2.a) O, O2,..., O T p( O,..., O )... p( O,..., O, q,..., q ) T Eponentieller Aufwand 6
17 Forward-Backward Algorithmus Definiere Hilfsvariablen ( i ) p ( O,..., O, q i ) insgesamt T Varia blen t t t ( i ) p ( O,..., O q i, ) insgesamt T Va riablen t t T t Theorem: ( ) i io ) i b( () i ( j) a b( O ) t t ji i t j () i T Ermöglicht rekursive Berechnung alle r t ( i) 2 für t,..., T und j,..., in O( T ) t () i aijbj ( Ot ) t ( j) 2 j Ermöglicht rekursive Berechnung aller ( i) für t T,..., und i,..., in O( T ) t 7
18 Forward-Backward Algorithmus Wenn wir alle () i und t () i berechnet haben: Lösung Problem : t p( O,..., O ) p( O,..., O, q i ) T T T i i ( i) 2 Gesamtlaufzeit: O( T ) T Summenregel 8
19 Forward-Backward Algorithmus Wenn wir alle () i und t () i berechnet haben: t Lösung Problem 2.a): p( q i O,..., O, )... t 2 Gesamtlaufzeit: O( T) T t() i t() i = p( O,..., O ) T 9
20 Ausblick Problem 2.b): Lösung mit Viterbi (ähnliche Idee wie Forward-Backward) Problem 3: Lösung mit Baum-Welch Instanz des EM-Algorithmus (siehe später) Enthält Forward-Backward als Teilproblem Alternativer Ansatz zur Modellierung von Sequenzen: diskriminative Modelle HM-SVM Conditional Random Fields Weitere Details in der Vorlesung Sprachtechnologie 20
21 Anwendungen HMMs Part-of-Speech Tagging in natürlicher Sprache Versteckte Zustände sind die grammatikalischen Kategorien (Artikel, Verb, Substantiv, etc) Beobachtungen sind die Worte im Tet Ziel: weise Worten grammatikalische Kategorien zu Spracherkennung: akustisches Modell Versteckte Zustände sind die gesprochenen Worte Beobachtet wird das akustische Signal Ziel: Rekonstruiere gesprochene Worte aus akustischem Signal Bioinformatik Finden oder Annotieren von Genen in DA In der Regel Erweiterungen der hier vorgestellten HMMs 2
22 Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte Inferenz in Graphischen Modellen Sequenzmodelle Approimative Inferenz in Graphischen Modellen 22
23 Approimative Inferenz Eakte Inferenz P-hart: In der Prais spielen approimative Inferenzverfahren wichtige Rolle Wir betrachten Sampling-basierte Verfahren Relativ einfach zu verstehen/implementieren Anytime-Algorithmen (je länger die Laufzeit, desto genauer) 23
24 Inferenz: Sampling-basiert Grundidee Sampling: Wir interessieren uns für eine Verteilung, ist eine Menge von Zufallsvariablen (z.b. bedingte Verteilung über Anfragevariablen in graphischem Modell) Es ist schwierig, p() z direkt auszurechnen p() z Stattdessen ziehen wir Samples (Stichproben) z ( k) ~ p( z) i.i.d., k,..., K, z jedes Sample ist eine vollständige Belegung der Zufallsvariablen in z () (2) ( K ) Die Samples z, z,..., z approimieren die Verteilung p() z z 24
25 Inferenz: Sampling-basiert Beispiel: Eindimensionale Verteilung, z {} z Diskrete Variable mit Zuständen {0,,6}: Anzahl Kopf bei 6 Münzwürfen Anteil Eine Münze 6 Mal werfen liefert ein Sample Samples mit Wert z K=00 Eperimente, in denen wir jeweils Münze 6 werfen Sample-Histogramm K Echte Verteilung (Binomial) z 25
26 Sampling-Inferenz für Graphische Modelle Gegeben graphisches Modell, repräsentiert Verteilung durch p (,..., ) p( pa( )) i i i Etwas allgemeinere Inferenz-Problemstellung: Menge von Anfragevariablen p( I D )? {,..., } Menge von Anfragevariablen Wir betrachten zunächst den Fall ohne Evidenz: I D p( )? {,..., } {,..., } I I i i {,..., } Menge von Evidenzvariablen m 26
27 Sampling-Inferenz für Graphische Modelle Ziel: Samples aus der Randverteilung Es genügt, Samples aus der Gesamtverteilung zu ziehen: ( k) ( k) ( k) p ( ) p... ) (,..., ) ~ p(,..., ) k,..., K (,, Samples aus der Randverteilung p (,..., ) i erhalten wir i m einfach durch Projektion der Samples auf die {,..., } i i m ( k) I ~ ( k) ( k) ( k) (,..., ) p,..., ),.. ( ( ),..., ) ~ p (,..., ) k,..., K ( k) k ( k) I i i i p( I ) k,..., K ~ ( k., K Projektion m i m p( ) p(,..., ) I i i m 27
28 Inferenz: Ancestral Sampling ( Wie ziehen wir Samples k ) ~ p( )? Einfach bei gerichteten graphischen Modellen: Ancestral Sampling utze Faktorisierung der gemeinsamen Verteilung ~ p( ) p (,..., ) i Ziehen entlang der Kanten p ( i pa( i)) Ziehe jeweils nächste Variable, gegeben vorige Variablen Ziehen entlang der Kanten
29 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) Schon gezogene Werte ~ p( ) i ~ p( ) p ( pa( )) i i Topologische Ordnung: pa( ) {,..., } B 2 A 3 5 E i 4 i R i 29
30 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( P(B=) ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte 0. B 2 A 3 5 E 4 R 30
31 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte P(E=) B A 3 5 E 4 R 3
32 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte B E P(A= B,E) B 2 A 3 5 E 4 R 32
33 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte E P(R= E) B A 3 5 E 4 R 33
34 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( 2) 2 ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte B A P(= A) 2 A 3 5 E 4 R 34
35 Inferenz: Ancestral Sampling Wir ziehen ein Sample (,..., ), indem wir nacheinander die einzelnen ziehen Beispiel ~ p( ) ~ p( ) ~ p(, 0)... ~ p( ) ~ p( ~ p( ~ p( 0) pa( )) pa( )) ~ p( ) i Schon gezogene Werte ( k) (,0,,0,) 35
36 Inferenz: Ancestral Sampling Beispiel für Schätzung der Randverteilungen aus Samples: () (2) (3) (4) (5) Analyse Ancentral Sampling + Zieht direkt aus der korrekten Verteilung + Effizient (, 0,, 0,) (0,0,0,0,0) (0,, 0,, 0) (0,,, 0,) (0,0,0,0,0) p ( ) Funktioniert nur ohne Evidenz 3 p ( ) p ( ) B 2 A 3 5 E 4 R 36
37 Inferenz: Logic Sampling Wie erhalten wir Samples unter Evidenz? Logic Sampling: Ancestral Sampling + Zurückweisung von Samples, die nicht mit der Beobachtung konsistent sind ( k ) ~ p( ) p(,...,,..., ) I I D i i m j j l Beim Generieren der vollständigen Samples (,..., ) ~ p( ) ( ) ( ) ( ) Beobachtete Variablen verwerfen wir alle Samples, in denen die für die Evidenzvariablen gezogenen Werte nicht mit den Beobachtungen übereinstimmen Problem: meist werden fast alle Samples verworfen (vor allem, wenn es viele Evidenzvariablen gibt) Sehr lange Laufzeit um genug Samples zu erhalten, oft nicht praktikabel 37
38 Inferenz: MCMC Alternative Strategie zum Erzeugen von Samples: Markov Chain Monte Carlo ( MCMC ) Idee: Schwierig, direkt Samples aus p( z) zu ziehen Alternativstrategie: Konstruiere Folge von Samples (0) () (2) (3) (4) (5) z z z z z z... (0) ( t) ( t) t z zufällig initialisiert z ~ p( z z ) ( t) ( t) t durch mehrfache probabilistische Update-Schritte z ~ p( z z ). Wenn Updates geeignet gewählt, gilt asymptotisch ZV: T-te Variablenbelegung ( T z ) ~ p( z) ungefähr, für sehr grosse T 38
39 Markov-Ketten Betrachte Folge der Samples als Zufallsvariablen, Diese Zufallsvariablen bilden Markov-Kette: (0) z (0) () (2) (3) (4) (5) z z z z z z... () z () t z heißt Zustand der Kette zum Zeitpunkt t (0) (0) () () (0) (2) (2) () (3) (3) (2) z ~ p( z ) z ~ p( z z ) z ~ p( z z ) z ~ p( z z ) (2) z (3) z 39
40 Markov-Ketten ( ) Die Verteilung über z t ergibt sich aus der Verteilung über durch () t z Folgezustand p ( ) ( ) ( ) ( ) ( z t ) p( z t z t ) p( z t ) t ( ) () t Eine Verteilung p( z ) heißt stationär, falls z Wenn die Kette zum Zeitpunkt t eine stationäre Verteilung erreicht hat, so bleibt diese erhalten: ( tk ) ( t p( z ) p( z ) ) für alle k 0 Aktueller Zustand ( t) ( t) ( z ) p( z ) Unter bestimmten Bedingungen ( ergodische Ketten ) konvergieren Markov-Ketten zu einer eindeutigen stationären Verteilung ( Gleichgewichtsverteilung ) p 40
41 Inferenz: MCMC Gegeben graphisches Modell über ZV = {,, }, definiert Verteilung p() Annahme zunächst: keine Evidenz Markov Chain Monte Carlo Methoden Konstruiere aus dem graphischen Modell eine Folge von Samples durch iterative probabilistische Updates (0) () (2) (3) (4) (5)... (0) ( t) ( t) t zufällig initialisiert ~ p( ) Ziel: Updates so wählen, dass sich ergodische Markov-Kette mit Gleichgewichtsverteilung p( ) ergibt Einfachste Methode: lokales Ziehen einer Variable, gegeben Zustand der anderen Variablen ( Gibbs-Sampling ) () t jeweils Belegung aller Knoten im etz 4
42 Inferenz: Gibbs Sampling Gibbs Sampling: Eine Version von MCMC Übergangswahrscheinlichkeiten bestimmt durch wiederholtes lokales Ziehen einer ZV, gegeben den Zustand aller anderen ZV Gegeben alter Zustand (,..., ) Ziehen des neuen Zustands ' ( ',..., ') : Im letzten Schritt gesampelte Werte ' ~ p(,..., ) ' ~ p( ',,..., ) ' ~ p( ', ',,...,... ' ~ ( ' 2', p,.., ') ) Anfangs zufällige Initialisierung 42
43 Inferenz: Gibbs Sampling Satz: Falls p( i pa( i )) 0 für alle i und alle möglichen Zustände i, so ist die resultierende Markov-Kette ergodisch mit Gleichgewichtsverteilung p( ). Einzelner Gibbs-Schritt einfach: alle Variablen bis auf Anfragevariable beobachtet, naive Inferenz in Zeit O(M ) 43
44 Gibbs-Sampling mit Evidenz Bisher haben wir Inferenz ohne Evidenz betrachtet Wie erhalten wir Samples aus der bedingten Verteilung? ( T ) Ziel: ~ p( D) ungefähr, für sehr grosse Leichte Modifikation der Gibbs-Sampling Methode: Gibbs-Sampling zieht immer eine Variable i neu, gegeben Zustand der anderen Variablen Mit Evidenz: ur die unbeobachteten Variablen werden jeweils neu gezogen, die beobachteten Variablen werden fest auf den beobachteten Wert gesetzt T 44
45 Inferenz: Gibbs Sampling Zusammenfassung Gibbs Sampling Algorithmus: Gibbs Sampling in vielen praktischen Anwendungen brauchbar (0) zufällige Initialisierung aller ZV, konsistent mit Evidenz D ( t) ( t) Für t,..., T: Gibbs-u pdate( ) () (2) (3) Die Samples,,... sind asymptotisch verteilt nach p(, ) Einzelne Update-Schritte effizient Garantierte Konvergenz (für t ) Erlaubt, Samples aus p( ) D zu ziehen, ohne dass Laufzeit eplodiert wenn Evidenzmenge groß (im Gegensatz zu Logic Sampling) D 45
46 Inferenz: Gibbs Sampling Gibbs-Sampling: Konvergenz () (2) (3) Konvergenz der Markov-Kette,,,... ist nur garantiert für t. In der Prais: Burn-In Iterationen, bevor Samples () verwendet werden (verwerfe Samples t für ) t T Burn in Es gibt auch Konvergenztests, um Anzahl der Burn-In Iterationen zu bestimmen 46
47 Inferenz: Zusammenfassung Eakte Inferenz Message-Passing Algorithmen Eakte Inferenz auf Polytrees (mit Junction-Tree Erweiterung auf allgemeinen Graphen) Laufzeit abhängig von Graphstruktur, eponentiell im worst-case Approimative Inferenz Sampling-Methoden: Approimation durch Menge von Samples, eakte Ergebnisse für t. Ancestral Sampling: einfach, schnell, keine Evidenz Logic Sampling: mit Evidenz, aber selten praktikabel MCMC/Gibbs-Sampling: Effizientes approimatives Ziehen von Samples unter Evidenz 47
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick Graphische Modelle: Synta und Semantik Graphische Modelle im Maschinellen Lernen Eakte
MehrInstitut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle: Inferenz Wir haben eine Domäne durch gemeinsame
MehrHidden-Markov-Modelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hidden-Markov-Modelle Tobias Scheffer Thomas Vanck Hidden-Markov-Modelle: Wozu? Spracherkennung: Akustisches Modell. Geschriebene
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle iels Landwehr Überblick: Graphische Modelle Graphische Modelle: Werkzeug zur Modellierung einer Domäne mit verschiedenen
MehrProjektgruppe. Text Labeling mit Sequenzmodellen
Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:
MehrClusteranalyse: Gauß sche Mischmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrStrukturelle SVM zum Graph-labelling
23. Juni 2009 1 Was wir gerne hätten...... und der Weg dorthin Erinnerung: strukturelle SVM 2 Junction Tree Algorithmus Loopy Belief Propagation Gibbs Sampling 3 Umfang Qualität der Algorithmen Schlussfolgerungen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer
MehrLatente Dirichlet-Allokation
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Latente Dirichlet-Allokation Tobias Scheffer Peter Haider Paul Prasse Themenmodellierung Themenmodellierung (Topic modeling) liefert
MehrHidden Markov Models. Vorlesung Computerlinguistische Techniken Alexander Koller. 8. Dezember 2014
idden Markov Models Vorlesung omputerlinguistische Techniken Alexander Koller 8. Dezember 04 n-gramm-modelle Ein n-gramm ist ein n-tupel von Wörtern. -Gramme heißen auch Unigramme; -Gramme Bigramme; -Gramme
MehrHidden Markov Modelle
Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Strukturelle Modelle Conditional Random Fields Katharina Morik LS 8 Informatik Technische Universität Dortmund 17.12. 2013 1 von 27 Gliederung 1 Einführung 2 HMM 3 CRF Strukturen
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Christoph Sawade Heute: Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz:
MehrDer Metropolis-Hastings Algorithmus
Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Markov-Chain Monte-Carlo Verfahren Übersicht 1 Einführung
MehrÜbersicht. 1 Einführung in Markov-Chain Monte-Carlo Verfahren. 2 Kurze Wiederholung von Markov-Ketten
Markov-Chain Monte-Carlo Verfahren Der Algorithmus Michael Höhle Department of Statistics University of Munich Numerical Methods for Bayesian Inference WiSe2006/07 Course 30 October 2006 Übersicht 1 Einführung
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Graphische Modelle. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/Niels Landwehr/Tobias Scheffer Graphische Modelle Werkzeug zur Modellierung einer Domäne mit
MehrHidden Markov Models
Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung
MehrBayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)
Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief
MehrElementare Wahrscheinlichkeitslehre
Elementare Wahrscheinlichkeitslehre Vorlesung Computerlinguistische Techniken Alexander Koller 13. November 2015 CL-Techniken: Ziele Ziel 1: Wie kann man die Struktur sprachlicher Ausdrücke berechnen?
MehrProbabilistische Graphische Modelle
Probabilistische Graphische Modelle 1 Probabilistische Graphische Modelle Sven Wachsmuth Universität Bielefeld, Technische Fakultät, AG Angewandte Informatik WS 2006/2007 Übersicht über die Vorlesung Probabilistische
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Belief Propagation, Strukturlernen Nico Piatkowski und Uwe Ligges 29.06.2017 1 von 13 Überblick Was bisher geschah... Modellklassen Verlustfunktionen Numerische Optimierung
MehrZeitreihenanalyse mit Hidden Markov Modellen
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials VL PLT2
MehrBayessche Lineare Regression
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Baessche Lineare Regression Niels Landwehr Überblick Baessche Lernproblemstellung. Einführendes Beispiel: Münzwurfexperimente.
MehrFolien zu Data Mining von I. H. Witten und E. Frank. übersetzt von N. Fuhr
Folien zu Data Mining von I. H. Witten und E. Frank übersetzt von N. Fuhr Von Naivem Bayes zu Bayes'schen Netzwerken Naiver Bayes Annahme: Attribute bedingt unabhängig bei gegebener Klasse Stimmt in der
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Bayes sches Lernen Niels Landwehr Überblick Grundkonzepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münzwürfe
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Spracherkennung und Hidden Markov Modelle Dozentin: Wiebke Petersen WS 2004/2005 Wiebke Petersen Einführung in die Computerlinguistik WS 04/05 Spracherkennung Merkmalsextraktion
MehrDatenstrukturen und Algorithmen (SS 2013)
Datenstrukturen und Algorithmen (SS 2013) Übungsblatt 10 Abgabe: Montag, 08.07.2013, 14:00 Uhr Die Übungen sollen in Gruppen von zwei bis drei Personen bearbeitet werden. Schreiben Sie die Namen jedes
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil XIII Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University of Leipzig
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Graphische Modelle Christoph Sawade/iels Landwehr/Tobias Scheffer Graphische Modelle Modellierung einer Domäne mit verschiedenen
MehrBayes sche und probabilistische Netze
Bayes sche und probabilistische Netze Gliederung Wahrscheinlichkeiten Bedingte Unabhängigkeit, Deduktion und Induktion Satz von Bayes Bayes sche Netze D-Separierung Probabilistische Inferenz Beispielanwendung
MehrBayesianische Netzwerke - Lernen und Inferenz
Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel
MehrBayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität. Volker Tresp
Bayes sche Netze: Konstruktion, Inferenz, Lernen und Kausalität Volker Tresp 1 Einführung Bisher haben wir uns fast ausschließich mit überwachtem Lernen beschäftigt: Ziel war es, eine (oder mehr als eine)
MehrHMMs und der Viterbi-Algorithmus
July 8, 2015 Das Problem Wir haben gesehen: wir können P( w q)p( q) ohne große Probleme ausrechnen ( w = b 1...b i, q = q 1...q i. P( w q)p( q) = π(q 1 )τ(b 1, q 1 )δ(q 1, q 2 )τ(b 2, q 2 )...δ(q i 1,
MehrHidden Markov Models (HMM)
Hidden Markov Models (HMM) Kursfolien Karin Haenelt 1 Themen Definitionen Stochastischer Prozess Markow Kette (Visible) Markov Model Hidden Markov Model Aufgaben, die mit HMMs bearbeitet werden Algorithmen
MehrGibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells
Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren
MehrBeweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i)
Die Probabilistische Methode Beobachtung: Besitzt ein Ereignis Ws > 0, so muss es existieren! Notation: Sei K n der komplette Graph mit n Knoten und ( n 2) Kanten. Satz Falls 2 (k 2) 1 > ( n k), existiert
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 25 Überblick Überblick Metropolis-Algorithmus
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Christoph Sawade/Niels Landwehr/Tobias Scheffer Überblick Problemstellung/Motivation Deterministischer i ti Ansatz:
MehrFriedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong
Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem
MehrStatistische Sprachmodelle
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Statistische Sprachmodelle Tobias Scheffer Thomas Vanck Statistische Sprachmodelle Welche Sätze sind Elemente einer Sprache (durch
MehrPlanung von Handlungen bei unsicherer Information
Planung von Handlungen bei unsicherer Information Dr.-Ing. Bernd Ludwig Lehrstuhl für Künstliche Intelligenz Friedrich-Alexander-Universität Erlangen-Nürnberg 20.01.2010 Dr.-Ing. Bernd Ludwig (FAU ER)
MehrMaschinelle Sprachverarbeitung
Maschinelle Sprachverarbeitung Übung Aufgabe 5: Gen-Erkennung mit Maschinellen Lernen Mario Sänger Problemstellung Erkennung von Genen in Texten NEU: Beachtung von Multi-Token-Entitäten (B-/I-protein)
MehrHidden Markov Modellen
Elektrotechnik und Informationstechnik Institut für Automatisierungstechnik, Professur Prozessleittechnik Zeitreihenanalyse mit Hidden Markov Modellen (nach http://www.cs.cmu.edu/~awm/tutorials) VL PLT2
MehrSignalverarbeitung 2. Volker Stahl - 1 -
- 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen
MehrSemester-Fahrplan 1 / 17
Semester-Fahrplan 1 / 17 Hydroinformatik I Einführung in die Hydrologische Modellierung Bayes sches Netz Olaf Kolditz *Helmholtz Centre for Environmental Research UFZ 1 Technische Universität Dresden TUDD
MehrHidden Markov Modelle
Hidden Markov Modelle (Vorabversion begleitend zur Vorlesung Spracherkennung und integrierte Dialogsysteme am Lehrstuhl Medieninformatik am Inst. f. Informatik der LMU München, Sommer 2005) Prof. Marcus
MehrVorlesung Datenstrukturen
Vorlesung Datenstrukturen Kürzeste Wege Maike Buchin 4. und 6.7.2017 Einführung Motivation: Bestimmung von kürzesten Wegen ist in vielen Anwendungen, z.b. Routenplanung, ein wichtiges Problem. Allgemeine
MehrTeil VIII. Zentraler Grenzwertsatz und Vertrauensintervalle. Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle. Lernziele. Typische Situation
Woche 6: Zentraler Grenzwertsatz und Vertrauensintervalle Patric Müller ETHZ Teil VIII Zentraler Grenzwertsatz und Vertrauensintervalle WBL 17/19, 29.05.2017 Wahrscheinlichkeit
MehrRandomisierte Algorithmen
Randomisierte Algorithmen Randomisierte Algorithmen Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2018/2019 1 / 40 Überblick Überblick Grundlegendes zu Markov-Ketten
MehrBayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (1) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (1) 1 / 22 Gliederung 1 Unsicheres Wissen 2 Schließen
MehrEffizienter Planaritätstest Vorlesung am
Effizienter Planaritätstest Vorlesung am 23.04.2014 INSTITUT FÜR THEORETISCHE INFORMATIK PROF. DR. DOROTHEA WAGNER Satz Gegebenen einen Graphen G = (V, E) mit n Kanten und m Knoten, kann in O(n + m) Zeit
MehrStochastik Praktikum Markov Chain Monte Carlo Methoden
Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
MehrBayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl KI) Bayes-Netze (2) 1 / 23 Gliederung 1 Zusammenhang zwischen Graphenstruktur
Mehr3.2 Maximum-Likelihood-Schätzung
291 Die Maximum-Likelihood-Schätzung ist die populärste Methode zur Konstruktion von Punktschätzern bei rein parametrischen Problemstellungen. 292 3.2.1 Schätzkonzept Maximum-Likelihood-Prinzip: Finde
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Nicht lineare Entscheidungsfunktionen SVM, Kernel
MehrAlgorithmische Bioinformatik 1
Algorithmische Bioinformatik 1 Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Sommersemester 2009 Übersicht Algorithmen
MehrAufabe 7: Baum-Welch Algorithmus
Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 6 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 16. Mai 2018 [Letzte Aktualisierung: 18/05/2018,
MehrActive Hidden Markov Models for Information Extraction
HMMs in der IE p.1/28 Active Hidden Markov Models for Information Extraction Seminar Informationsextraktion im WiSe 2002/2003 Madeleine Theile HMMs in der IE p.2/28 Inhaltsübersicht Ziel formalere Aufgabenbeschreibung
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil 4 Prof. Dr. Gerhard Heyer Institut für Informatik Abteilung Automatische Sprachverarbeitung Universität Leipzig 24. April 2019 [Letzte Aktualisierung: 24/04/2019,
MehrMap Matching. Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf.
Map Matching Problem: GPS-Punkte der Trajektorie weisen einen relativ großen Abstand zueinander auf. Ergebnis mit minimaler Fréchet-Distanz Annahme: Fahrer wählen bevorzugt kürzeste Wege im Straßennetz.
MehrKapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung
Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe 3. Elementare Graphalgorithmen und Anwendungen 4. Minimal spannende Bäume 5. Kürzeste Pfade 6. Traveling Salesman Problem 7. Flüsse
MehrAlgorithmen. Von Labyrinthen zu. Gerald Futschek
Von Labyrinthen zu Algorithmen Gerald Futschek Wie kommt man aus einem Labyrinth (griechisch: Haus der Doppelaxt, wahrscheinlich Knossos auf Kreta) Labyrinth heraus? Labrys Grundriss des Palastes von Knossos
MehrGraphische Spiele. M i (p) M i (p[i : p i]) M i (p) + ε M i (p[i : p i])
Seminar über Algorithmen 19. November 2013 Michael Brückner Graphische Spiele Wolfgang Mulzer, Yannik Stein 1 Einführung Da in Mehrspielerspielen mit einer hohen Anzahl n N an Spielern die Auszahlungsdarstellungen
MehrKapitel 9: Lineare Programmierung Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
MehrHidden Markov Model (HMM)
Hidden Markov Model (HMM) Kapitel 1 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig
MehrCounting the Number of Satisfying Assignments
Counting the Number of Satisfying Assignments Ferienakademie im Sarntal Kurs 1 Moderne Suchmethoden der Informatik: Trends und Potenzial Stefan Ploner Department Informatik FAU Erlangen-Nürnberg 29. September
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Zusammenfassung. Niels Landwehr, Uwe Dick, Matthias Bussas
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Zusammenfassung Niels Landwehr, Uwe Dick, Matthias Bussas Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen
MehrStochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten
Kapitel 2 Stochastische Unabhängigkeit, bedingte Wahrscheinlichkeiten 2.1 Stochastische Unabhängigkeit von Ereignissen Gegeben sei ein W-Raum (Ω, C, P. Der Begriff der stochastischen Unabhängigkeit von
Mehr16. November 2011 Zentralitätsmaße. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87
16. November 2011 Zentralitätsmaße H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 87 Darstellung in spektraler Form Zentralität genügt Ax = κ 1 x (Herleitung s. Tafel), daher ist x der Eigenvektor
MehrInformatik II: Algorithmen & Datenstrukturen. Blättern Sie nicht um bevor Sie dazu aufgefordert werden!
Albert-Ludwigs-Universität Institut für Informatik Prof. Dr. F. Kuhn Informatik II: Algorithmen & Datenstrukturen Montag, 29. August, 2014, 14:00 17:00 Name:...........................................................
MehrDefinition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n i =.
2. Der Blum-Floyd-Pratt-Rivest-Tarjan Selektions-Algorithmus Definition 77 Sei n N. Der Median (das mittlere Element) einer total geordneten Menge von n Elementen ist deren i-kleinstes Element, wobei n
MehrWahrscheinlichkeitsrechnung und Statistik
Babeş-Bolyai Universität Fakultät für Mathematik und Informatik Oktober 2018 Im Alltag... Laut den meteorologischen Vorhersagen wird es morgen regnen. Ob ich riskiere und die Wette verlieren werde? Ich
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Paul Prasse Michael Großhans
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Paul Prasse Michael Großhans Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. 6 Leistungspunkte
MehrDatenstrukturen & Algorithmen
Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale
MehrUniversität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer, Tom Vanck, Paul Prasse
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer, Tom Vanck, Paul Prasse Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Termin: Montags,
MehrMethoden der Statistik Markov Chain Monte Carlo Methoden
Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem
Mehr3.3 Optimale binäre Suchbäume
3.3 Optimale binäre Suchbäume Problem 3.3.1. Sei S eine Menge von Schlüsseln aus einem endlichen, linear geordneten Universum U, S = {a 1,,...,a n } U und S = n N. Wir wollen S in einem binären Suchbaum
MehrDisMod-Repetitorium Tag 3
DisMod-Repetitorium Tag 3 Markov-Ketten 21. März 2018 1 Markov-Ketten Was ist eine Markov-Kette? Was gehört alles dazu? Darstellung als Graph und als Matrix Stationäre Verteilung und Grenzverteilung Ergodizität
MehrDynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38
Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate
MehrAlgebraische Statistik ein junges Forschungsgebiet. Dipl.-Math. Marcus Weber
Algebraische Statistik ein junges Forschungsgebiet Dipl.-Math. Marcus Weber Disputationsvortrag 15. Februar 2006 Gliederung 1. Statistische Modelle 2. Algebraische Interpretation statistischer Probleme
MehrBetriebswirtschaftliche Optimierung
Institut für Statistik und OR Uni Graz 1 Das Travelling Salesperson Problem 2 Das Travelling Salesperson Problem Zentrales Problem der Routenplanung Unzählige wissenschaftliche Artikel theoretischer sowie
MehrSeminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11.
Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen 11. Juni 2009 Gliederung 1 Problemstellung 2 Vektorprodukt Approximationen Samplesammlung 3 Schritte Lokalität und Nachrichtenkomplexität
MehrWahrscheinlichkeitstheorie 2
Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):
MehrDAP2-Klausur
DAP2-Klausur 09.10.2004 Vorname : Familienname: Ich studiere (Bitte markieren): Informatik (inkl. angewandte Informatik)/ Lehramt Informatik/Informationstechnik/ Physik/Mathe/Statistik/Sonstiges: Bitte
MehrVorlesung 3: Graphenalgorithmen. Markus Püschel David Steurer Peter Widmayer. PDF download goo.gl/ym3spq
Vorlesung 3: Graphenalgorithmen Markus Püschel David Steurer Peter Widmayer PDF download goo.gl/ym3spq Algorithmen und Datenstrukturen, Herbstsemester 2017, ETH Zürich Gerichtete Graphen und Abhängigkeiten
MehrBetriebliche Optimierung
Betriebliche Optimierung Joachim Schauer Institut für Statistik und OR Uni Graz Joachim Schauer ( Institut für Statistik und OR Uni Graz Betriebliche ) Optimierung 1 / 22 1 Das Travelling Salesperson Problem
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08
MehrBeweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n)
Beweis: Annahme: T (n) c n, wobei c = c(m) konstant ist. Die Annahme ist ok, falls T (n) ( ( ) n 3 T + T m ) 4 n n 3 c + m 4 n c + n n + C m + cn; dies gilt, falls m 2 n m C m + n 2 (bis auf, ) c m + 3
MehrAlgorithmen und Datenstrukturen
1 Algorithmen und Datenstrukturen Wintersemester 013/14 7. Vorlesung Zufall! Prof. Dr. Alexander Wolff Lehrstuhl für Informatik I Ein Experiment Ein Franke und ein Münchner gehen (unabhängig voneinander)
MehrKlausur Algorithmentheorie
Prof. Dr. G. Schnitger Frankfurt, den 24.02.2011 M. Poloczek Klausur Algorithmentheorie WS 2010/2011 Name: Vorname: Geburtsdatum: Studiengang: BITTE GENAU LESEN Die Klausur besteht aus 4 Aufgaben, in denen
Mehr2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung
2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 216 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 4 Maschinelles Lernen und Spracherkennung Aufgabe
MehrLösungen zur Vorlesung Berechenbarkeit und Komplexität
Lehrstuhl für Informatik 1 WS 009/10 Prof. Dr. Berthold Vöcking 0.0.010 Alexander Skopalik Thomas Kesselheim Lösungen zur Vorlesung Berechenbarkeit und Komplexität. Zulassungsklausur Aufgabe 1: (a) Worin
MehrFerien-Übungsblatt 8 Lösungsvorschläge
Institut für Theoretische Informatik Lehrstuhl Prof. Dr. D. Wagner Ferien-Übungsblatt 8 Lösungsvorschläge Vorlesung Algorithmentechnik im WS 09/10 Problem 1: Probabilistische Komplexitätsklassen [vgl.
MehrKlammersprache Definiere
Klammersprache w=w 1...w n {(,)}* heißt korrekt geklammert, falls die Anzahl ( ist gleich der Anzahl ). in jedem Anfangsstück w 1,...,w i (i n) ist die Anzahl ( nicht kleiner als die Anzahl ). Definiere
Mehr