Welf Walter

Größe: px
Ab Seite anzeigen:

Download "Welf Walter"

Transkript

1 Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Seminar 2004 Sehen und Hören Hidden Markov Modelle und Künstliche Neuronale Netze Welf Walter

2 Zusammenfassung Der Traum, des Menschen, mit dem Computer zu sprechen, ist noch lange nicht erreicht. Sowohl die Teilbereiche Sprachgenerierung wie auch Spracherkennung sind noch lange nicht soweit, wie man es aus Hollywood kennt. Dennoch gibt es Fortschritte auf diesem Gebiet, so dass für viele Anwendungen bereits ausreichend gute Systeme der Spracherkennung existieren. Es hat sich herauskristallisiert, dass die Theorie der Hidden-Markov- Modelle (HMM) für die Anwendung in der Spracherkennung sehr geeignet ist. Bereits in den späten 60ern wurden Arbeiten darüber verfasst. Noch bessere Ergebnisse lassen sich erzielen, wenn man HMMs mit Künstlichen Neuronalen Netzen (KNN) kombiniert. Dieser Artikel führt in die Theorie der HMM ein, zeigt ihre Verwendung zur Spracherkennung auf und erläutert die Vorteile der Nutzung von KNN. Inhaltsverzeichnis 1 Einführung in die Spracherkennung Aufbau eines Spracherkennungssystems Vorverarbeitung Subworterkennung Worterkennung Einführung in HMM Markov-Ketten Hidden-Markov-Modelle Die 3 Fragestellungen für HMMs Evaluation Wegsuche Parametereinstellung HMM-Typen Worterkennung mit HMM Verbesserung durch KNN Verwendung Vorteile Richtigstellung Verbesserungsmöglichkeiten

3 1 Einführung in die Spracherkennung Die verbale Kommunikation das Sprechen ist für Viele ein entscheidendes Kriterium der Unterscheidung von Mensch und Tier. Während man darüber streiten kann, wird niemand bezweifeln, dass das Sprechen für uns alle die naheliegendste Art der Kommunikation ist. Somit ist auch verständlich, dass es seit Anbeginn der Computergeschichte ein Ziel war, mit dem Computer sprechen zu können. Auch wenn dieser Traum noch weit von seiner Verwirklichung entfernt ist, so gibt es doch bereits sehr viele Anwendungen, bei denen Spracherekennungssysteme eingesetzt werden. Wie diese aufgebaut sind, soll im Folgenden nun dargestellt werden. 1.1 Aufbau eines Spracherkennungssystems Abbildung 1: Aufbau eines Spracherkennungssystems Ein Spracherkennungssystem für zusammenhängendes Sprechen besteht 2

4 im Allgemeinen aus den im Folgenden aufgeführen Einzelsystemen. Es wird dabei jedoch nicht nur das jeweils bestbewertete Ergebnis geliefert, sondern eine ganze Liste, so dass das nachfolgende Modul noch genauere Analysen durchführen kann. Durch die Modularisierung ist eine höhere Strukturierung und Parallelität möglich. Die Module sind typischerweise: 1. Vorverarbeitung: Die durch Mikrophon aufgenommenen digitalisieren Daten werden tiefpassgeltert und in diskrete Merkmalsvektoren X pro Zeiteinheit 1 zerlegt. Dies können Frequenzbereichsstärken sein oder Cepstralvektoren. 2. Subworterkennung: Die Merkmalsvektoren werden bestimmten Phonemen zugeordnet. Je nach Anwendung kann auch eine Erkennung von Silben vorteilhaft sein. 3. Worterkennung: Die Subwörter werden anhand eines Wörterbuches zu Wörtern zusammengesetzt. 4. Syntaktische Überprüfung: Anhand einfacher grammatikalischer Regeln werden verschiedene Wortarten unterschieden. Z.B. können Artikel nur direkt vor Substantiven erscheinen. 5. Semantische Analyse: Hier werden Homonyme unterschieden, indem überprüft wird, welche Alternative besser in den inhaltlichen Kontext passt. Die syntaktische und die semantische Überprüfung sollen hier nicht im Näheren ausgeführt werden und sind nur der Vollständigkeit halber erwähnt. 1.2 Vorverarbeitung Die analogen Daten, die von einem Mikrophon aufgenommen werden, werden tiefpassgeltert und digitalisiert. In kleinen Zeitfenstern werden die Frequenzspektren unter überschneidenden Hamming-Fenstern ausgewertet. Verschiedene weitere Verarbeitungsschritte sind möglich, die zu unterschiedlich guten Ergebnissen führen. Dies soll jedoch nicht weiter ausgeführt werden. Gemeinsam ist allen Varianten, dass sie ein Tupel an Werten liefern, die sogenannten Merkmalsvektoren. 1.3 Subworterkennung Eine der gröÿten Schwierigkeiten bei herkömmlichen HMM-basierten Spracherkennungssystemen ist die Abbildung der kontinuierlichen 2 Merkmalsvektoren auf die diskrete Menge der Beobachtungen, die man sich als Phoneme 1 Hier sind Zehn-Millisekunden-Zeitintervalle üblich 2 natürlich nur quasi-kontinuierlich, da auf einem Computer nur endliche Wertebereiche möglich sind. 3

5 vorstellen kann. Hierfür wird meist ein Codebuch aus Beobachtungen erstellt und jeweils der Code ausgewählt, der in einem gewissen Sinn die minimale Distanz zum Merkmalsvektor hat. Die Erstellung von guten Codebüchern ist somit entscheidend für die Qualität der Spracherkennung. Eine groÿes Codebuch führt zwar zu einer genaueren Zuordnung der Merkmalsvektoren, erhöht aber gleichzeitig die Schwierigkeit für die folgenden Schichten und verschiebt somit die Probleme. Daher ist es nötig, auf beiden Seiten Zugeständnisse zu machen. 1.4 Worterkennung Wir beschränken uns im Folgenden auf die Kommando-Worterkennung. Das bedeutet, das wir versuchen, ein einzelnes Wort so gut wie möglich aus unserem Wörterbuch auszuwählen. Für höherwertige Spracherkennung müsste eine Liste von maximal guten Wörtern an das nächste Modul weitergeleitet werden. Dort würde dann unter Berücksichtigung von syntaktischen und semantischen Gesichtspunkten das richtige Wort ausgewählt. Die Vorstellung, dass ein Wort aus aufeinanderfolgenden Phonemen aufgebaut ist, führt zu der Idee, die Phoneme als Zustände zu sehen, zwischen denen Übergänge stattnden. Da für derartige serielle Übergangs-Probleme HMM sehr geeignet sind, werden diese nun vorgestellt. 2 Einführung in HMM Hidden-Markov-Modelle sind die am meisten verbreitete Technik für die Spracherkennung. Daher sollen die Grundlagen dieser Theorie kurz vorgestellt werden: 2.1 Markov-Ketten Wir stellen uns ein System vor, das aus N durchnummerierten Zuständen besteht: S = {S 1, S 2,... S N } In jedem Zeitschritt geht das System von einem Zustand q t = S i in einen neuen Zustand q t+1 = S j über, wobei die Wahrscheinlichkeit für einen Übergang in einer Matrix dargestellt werden kann: a ij ist die Wahrscheinlichkeit, dass das System von i nach j übergeht. Die Grundannahme von Markovketten ist hierbei, dass diese Übergangswahrscheinlichkeit lediglich vom aktuellen und neuen Zustand abhängt. Werden die Anfangszustände nun mit den Wahrscheinlichkeiten π i versehen, so kann die Wahrscheinlichkeit jeder Zustandsfolge Q = (q 1, q 2,..., q T ), q t S folgendermaÿen berechnet werden: T 1 P (Q) = P (q 1 ) P (q 2 q 1 ) P (q 3 q 2 )... P (q T q T 1 ) = π q1 a qt+1,q t t=1 4

6 2.2 Hidden-Markov-Modelle Im vorigen Kapitel sind wir davon ausgegangen, dass die Zustände direkt erkennbar sind. Wir erweitern unser Modell insoweit, dass es M Beobachtungen gibt, diese sind eindeutige Symbole der Menge V = {v 1, v 2,..., v M }. Die Wahrscheinlichkeit für eine Beobachtung hängt lediglich vom aktuellen Zustand ab. Somit können wir die Wahrscheinlichkeit, dass im Zustand S j die Beobachtung v k auftritt, denieren als b j (k). O j wird dafür auf k gesetzt. O = (O 1, O 2,..., O T ) ist somit die Folge der wahrgenommenen Beobachtungen. Für uns als Auÿenstehende ist nun nur noch erkennbar, welche Beobachtung eintritt, aber nicht sichtbar, in welchem Zustand wir uns benden. Darüber können nur Annahmen gemacht werden. Und da die Zustände versteckt sind, nennen wir das Modell Hidden-Markov-Modell oder kurz HMM. Eine HMM wird speziziert durch die Anzahlen der Zustände und Beobachtungen N und M, sowie durch die Wahrscheinlichkeitsmaÿe A, B, π. Wir fassen diese zusammen in dem Tupel λ = (A, B, π). Das Tupel λ wird dabei das Modell genannnt. Simulation: Wir können also wie folgt ein HMM simulieren: 1. Eine Initialzustand q 1 durch die Verteilung π wählen 2. t := 1 3. O t nach der Verteilung b wählen 4. q t+1 nach a ij auswählen 5. Falls t < T ist, t inkrementieren und zu Punkt 3 gehen. 2.3 Die 3 Fragestellungen für HMMs Bei einem HMM gibt es nun drei Fragestellungen, die uns interessieren: 1. Wenn eine Beobachtungsfolge O und ein Modell λ gegeben ist, wie lässt sich die Wahrscheinlichkeit P (O λ) berechnen. 2. Wenn die Beobachtungsfolge O und ein Modell λ gegeben ist, wie wählen wir eine optimale Zustandsfolge Q?... und was bedeuted hierbei optimal? 3. Wie können wir unser Modell an eine gegebene Beobachtungsfolge anpassen? Die erste Fragestellung ist die Evaluation. Es wird sowohl als Bewertung einer Beobachtetung unter einem Modell gesehen, aber auch als Bewertung 5

7 eines Modelles unter einer festen Beobachtung. Man kann damit also untersuchen, welches von mehreren Modellen Beobachtungen am besten erklärt. Die zweite Fragestellung heiÿt Wegsuche. Denn es wird der Weg durch den Zustandsgraphen gesucht, der eine gegebene Beobachtung am besten erklärt. Klar ist, dass es hierbei im Allgemeinen keine wirklich richtige Lösung geben kann. Man kann lediglich versuchen, eine einleuchtende Lösung zu nden, die in einem gewissen Sinn optimal ist. Im einfachsten Fall ist optimal die Zustandsfolge, die mit genau dieser Ausgabe am wahrscheinlichsten ist. Fragestellung Nummer drei ist die Parametereinstellung. Wir haben ein Modell und wollen dieses optimieren. Man kann es als Trainieren des HMM sehen. Dies ist meistens unerlässlich, da in einem Modell sehr viele Parameter stecken und es meist nicht möglich ist, diese alle im vorneherein analytisch zu bestimmen. 2.4 Evaluation Gegeben ist eine Beobachtung O = (O 1, O 2,..., O T ) unter einem festen Modell λ. Gesucht ist die Wahrscheinlichkeit für diese Beobachtung, also P (O λ). Für eine feste Zustandsfolge Q = (q 1, q 2,..., q T ) ist wegen der stochastischen Unabhängigkeit folgende Lösung leicht ersichtlich: T T P (O Q, λ) = P (O t q t, λ) = b qt (O t ) t=1 t=1 Mit der Formel für P (Q λ) aus 2.1 ergibt sich hieraus folgende naive Lösung: P (O λ) = Q P (O Q, λ) P (Q λ) = q 1,...,q T S π q1 b q1 (O 1 ) a q1 q 2 b q2 (O 2 )... a qt 1 q T b qt (O T ) Wenn diese Gleichung auch mathematisch interessant ist, da sie implizit darstellbar ist, ist sie für Informatiker aus Komplexitätsgründen indiskutabel: Denn die Summe geht schlieÿlich über N T Zustände, jeweils aus 2T Multiplikationen. Forward-Backward-Procedure: Das Problem lässt sich durch dynamische Programmierung lösen: Wir führen eine Forward-Variable α t (i) ein, die für die Wahrscheinlichkeit steht, dass die Beobachtung bis zum Zeitpunkt t im Zustand i endet: α t (i) := P (O 1 O 2... O t, q t = S i λ) Nun kann α t (i) induktiv berechnet werden: 6

8 1. Initialisierung 2. Induktion α 1 (i) := π i b i (O 1 ) 1 i N N α t+1 (j) := [ α t (i)a ij ] b j (O t+1 ) 1 t < T 1 j N i=1 3. Terminierung N P (O λ) := α T (i) i=1 Es wird also schrittweise für wachsende t die Wahrscheinlichkeit berechnet, dass die Beobachtungsfolge (O 1, O 2,..., O t ) auftritt. Somit haben wir durch diesen Algorithmus eine Komplexität von N 2 T, was durchaus im Rahmen des Machbaren ist. Der Vollständigkeit halber werden wir gleich hier auch die Backward- Variable denieren, auch wenn sie erst später benötigt wird. Analog zur Forward-Variable α wird die Backward-Variable β t (i) deniert: 2.5 Wegsuche β t (i) := P (O t+1 O t+2... O T, q t = S i λ) Im Gegensatz zur Evaluation, bei der selbst mit der naiven Lösung ein eindeutiges Ergebnis existiert, gibt es bei der Wegsuche mehrere Möglichkeiten, da zuerst die Optimalität deniert werden muss. Man könnte z.b. für jede Einzelbeobachtung O t den optimalen Zustand q t bestimmen. Der Nachteil liegt jedoch auf der Hand: Falls nicht alle a ij positiv sind, können so sogenannte ungültige Wege geliefert werden, das sind Wege, deren Wahrscheinlichkeit 0 ist. Eine Verbesserung wäre also beispielsweise, optimale Paare (q t, q t+1 ) zu nden. Im Allgemeinen jedoch wird der optimale Pfad gesucht, also wird P (Q O, λ) maximiert, was gleichbedeutend ist zur Maximierung von P (Q, O λ). Dies wird mit dem sogenannten Viterbi-Algorithmus 3 gelöst: Viterbi-Algorithmus: Wir denieren uns ähnlich wie beim Forward-Backward-Algorithmus eine Variable δ t (i), die die beste Bewertung (also die höchste Wahrscheinlichkeit) hat über alle Pfade der Länge t, die im Zustand i enden. Um den eigentlichen Pfad herauszunden, speichern wir in ψ t (i) jeweils den durch die Maximumbildung ausgewählten Zustand. 3 A.J.Viterbi beschrieb diesen bereits

9 δ t (i) := max P (q 1, q 2,..., q t 1, q t = i, O 1, O 2,... O t λ) q 1,...,q t 1 S Die Berechnung erfolgt wieder iterativ: 1. Initialisierung δ 1 (i) := π i b i (O 1 ) 1 i N ψ t (i) := 0 1 i N 2. Induktion δ t (j) := max 1 i N [δ t 1(i)a ij ] b j (O t ) 1 < t T 1 j N ψ t (j) := argmax[δ t 1 (i)a ij ] 1 < t T 1 j N 1 i N 3. Terminierung P := max 1 i N δ T (i) qt := argmax δ T (i) 1 i N 4. Pfadrückverfolgung (backtracking) q t := ψ t+1 (q t+1) t = T 1, T 2,..., 1 Der im oben denierten Sinn optimale Weg ist nun Q := (q 1, q 2,..., q T ). 2.6 Parametereinstellung Es bleibt noch die dritte Fragestellung. Wie kann man die Parameter eines HMM so einstellen, dass sie die Wahrscheinlichkeit der Beobachtung maximieren? Hierfür gibt es keinen bekannten Weg, dies analytisch zu lösen. Man kann jedoch durch Gradienten-Techniken lokale Maxima nden. Dafür denieren wir uns eine Variable, die die Wahrscheinlichkeit angibt, dass wir beim Wechsel von t auf t + 1 von Zustand S i nach S j wechseln: ξ t (i, j) := P (q t = S i, q t+1 = S j O, λ) Wir können ξ t (i, j) nun eektiv durch die forward-backward-variablen ausrechnen: ξ t (i, j) = α t(i) a ij b j (O t+1 ) β t+1 (j) P (O λ) = α t (i) a ij b j (O t+1 ) β t+1 (j) Ni=1 Nj=1 α t (i) a ij b j (O t+1 ) β t+1 (j) 8

10 Wenn wir jetzt über t summieren, können wir berechnen, wie wahrscheinlich der Übergang von S i nach S j tatsächlich ist. Und genau das soll ja a ij ausdrücken. Also passen wir a ij entsprechend an. Es kann gezeigt werden, dass dies auch wirklich eine Verbesserung darstellt, auÿer, wir benden uns bereits in einem lokalen Maximum. Es können ähnliche Formeln für π i und b j (k) angegeben werden. Somit können alle Parameter des Modells schrittweise verbessert werden. Wie jedoch stets bei Gradienten-Methoden werden hierbei nur lokale Maxima gefunden und es müssen die üblichen Techniken zur globalen Maxiumum- Suche verwendet werden. 2.7 HMM-Typen Bis jetzt wurden HMM betrachtet, bei denen von jedem Zustand aus jeder andere erreichbar ist. Solche Modelle heiÿen das standard-ergodische Modell. Für die Verwendung zum Zweck von zeitgesteuertem Verhalten wie der Spracherkennung sind jedoch andere Modelle viel besser geeignet. Sehr vorteilhaft ist das left-to-right-modell, bei dem man sich die Zustände von links nach rechts sortiert vorstellt und nur Übergänge nach rechts erlaubt sind, also gilt i > j a ij = 0. Auÿerdem gilt π 1 = 1 und π i = 0 i > 1. Oft wird noch zusätzlich gefordert, dass keine groÿen Sprünge gemacht werden, also dass a ij = 0 j i > Θ. Und da bei der Parametereinstellung in der Formel für ξ t (i, j) der Faktor a ij vorkommt, bleiben die Nullen der Übergangsmatrix und damit die Struktur des Modelles bei der Parametereinstellung erhalten. 2.8 Worterkennung mit HMM Für jedes Wort v im Wörterbuch erstellen wir ein HMM λ v. Dabei wird als grundlegendes Modell das left-to-right-modell gewählt, mit etwa fünf Zuständen, wobei jeder Zustand für ein Subwort steht. Durch Parametereinstellung optimieren wir beim Training die Parameter von λ v, so dass sie optimal auf die Trainingswörter reagieren. Bei der Erkennung wird der Merkmalsvektor durch sämtliche HMMs geschickt. Es wird dabei jeweils mit dem Viterbi- Algorithmus P (O λ v ) berechnet. Das Maximum dieser Wahrscheinlichkeiten wird dann als Gewinner-wort ausgewählt. Bei einer höherwertigen Spracherkennung als der Kommandoworterkennung werden die k best-bewertetsten Worte ausgewählt. 3 Verbesserung durch KNN Bei der Subworterkennung hat es sich bewährt, Künstliche Neuronale Netze zu verwenden. Diese werden als Schätzer für die sogenannte a-posteriori- Wahrscheinlichkeit verwendet. 9

11 3.1 Verwendung Es wird ein MLP (Multi-Layer-Perzeptron) mit einer versteckten Schicht verwendet. Als Eingabe bekommt das Netz die Merkmalsvektoren und es wird darauf trainiert, an jedem Ausgang jeweils die Wahrscheinlichkeit für einen Zustand P (q i X), die sogenannte a-posteriori-wahrscheinlichkeit auszugeben. Als Trainingmaterial werden mit Silben gelabelte Merksmalsvektoren verwendet. Die Ausgabe eine KNN stellt natürlich noch keine Wahrscheinlichkeitsverteilung dar, da die Forderung i P (q i X) = 1 nicht notwendigerweise erfüllt ist. Dies lässt sich jedoch durch eine einfache Normalisierung erreichen. Wir haben jetzt die Wahrscheinlichkeit für einen bestimmten Zustand bei gegebenem X (P (q i X)) Was für den Viterbi-Algorithmus jedoch benötigt wird, ist P (X q i ). Dies lässt sich jedoch durch die Formel von Bayes leicht errechnen: P (q i X) = P (X q i) P (q i ) P (X) Hierbei kann P(X) vernachlässigt werden, da es ja konstant ist und P (q i ) lässt sich durch Analyse von gröÿeren Textstücken errechnen, da es ja lediglich eine Häugkeitsverteilung der Phoneme in der Sprache darstellt. 3.2 Vorteile Die Vorteile eines KNN im Gegensatz zu herkömmlichen Codebüchern sind vielfältig: 1. Es müssen keine genauen Vorkenntnisse über die statistische Verteilung der Phoneme bekannt sein, da das Netz ja grade dies lernen kann. 2. Durch Verwendung von Recurrent Neural Networks(RNN), bei denen durch durch Rückkopplung auch vorige Merkmalsvektoren beachtet werden können oder durch Eingabe nicht nur des aktuellen Merkmalsvektors, sondern auch einigen davor und danach, können Unterschiede, die durch nachfolgende Laute entstehen, beachtet werden. 3. Untersuchungen haben ergeben, dass KNN selbst bei geringerer Komplexität weitaus schneller und dennoch korrekter arbeiten. 4. Auÿerdem sind natürlich die allgemeinen Vorteile von KNN vorhanden, wie Stabilität der Ergebnisse und die Möglichkeit zur parallelen Berechnung. 10

12 3.3 Richtigstellung Ein klein wenig komplizierter als bisher dargestellt ist es in soweit, dass man unterscheiden muss zwischen den Phonemen, wie sie von den Linguisten verwendet werden und in den Wörterbüchern stehen und den tatsächlichen klangmäÿig ähnlichen Lauten. Denn die Phoneme müssen noch unterteilt werden in Teilphoneme, da es deutliche Unterschiede in Abhängigkeit vom nachfolgenden/vorigen Phonem gibt. So werden die linguistischen Phoneme in zwei bis drei Zustände eines HMM aufgeteilt. Diese Aufteilung jedoch per Hand zu erstellen ist eine unangenehme Sache, da man als Mensch die Laute viel mehr damit verbindet, wie man sie erzeugt (Phoneme), als was im Endeekt den Klang bestimmt. Ermöglicht wird dies erst durch folgende Verbesserung: 3.4 Verbesserungsmöglichkeiten Bisher wurde das KNN-gestützte HMM-Spracherkennungssystem in zwei seriellen Schritten trainiert. Zuerst wurde dem KNN beigebracht, die Zustände aus den Merkmalen zu schätzen und dann lernte das HMM, aus diesen Phonemen einzelne Wörter zu basteln. Viel eektiver ist es jedoch, die beiden Teilsysteme kombiniert lernen zu lassen. Somit werden die Verbesserungen des HMM auf das KNN zurückgeführt. Natürlich ist dies technisch anspruchsvoller, aber Untersuchungen haben ergeben, dass die Ergebnisse deutlich besser werden. Dies liegt auch daran, dass nun nicht mehr erzwungenermaÿen mit Phonemen gearbeitet werden muss, sondern auf kleinere Einheiten gewechselt werden kann. Fazit: Mit dieser und vielen weiteren Verbesserungsmöglichkeiten kann man Spracherkennungssysteme erstellen, die für viele Anwendungen geeignet sind, auch wenn eine Unterhaltung mit dem Computer noch in weiter Ferne liegt... Literatur [1] Lawrence R. Rabiner, A Tutorial on Hidden Markov Models and Selected Applications in Speech Recognition, Proceedings of the IEEE, Vol. 77, No. 2, Feb. 1989, pages [2] Herv e Bourlard and Nelson Morgan, Hybrid HMM/ANN Systems for Speech Recognition: Overview and New Research Directions [3] Edmondo Trentin and Marco Gori, Robust Comination of Neural Networks and Hidden Markov Models for Speech Recognition, IEEE Transactions on neural networks, vol. 14, No. 6, Nov. 2003, pages

HMM/KNN zur Spracherkennung

HMM/KNN zur Spracherkennung HMM/KNN zur Spracherkennung Andreas Hallerbach 18. Januar 2005 Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Hauptseminar Neuroinformatik WS 04/05 Spracherkennung Zusammenfassung Die

Mehr

Hidden Markov Modelle

Hidden Markov Modelle Hidden Markov Modelle in der Sprachverarbeitung Paul Gabriel paul@pogo.franken.de Seminar Sprachdialogsysteme: Hidden Markov Modelle p.1/3 Überblick Merkmalsvektoren Stochastischer Prozess Markov-Ketten

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Nikolas Dörfler 21.11.2003 1 Einleitung Hauptseminar Machine Learning Nicht alle Vorgänge laufen stehts in einer festen deterministischen Reihenfolge ab und sind somit relativ einfach

Mehr

Angewandte Stochastik

Angewandte Stochastik Angewandte Stochastik Dr. C.J. Luchsinger 13 Allgemeine Theorie zu Markov-Prozessen (stetige Zeit, diskreter Zustandsraum) Literatur Kapitel 13 * Grimmett & Stirzaker: Kapitel 6.9 Wie am Schluss von Kapitel

Mehr

Hidden Markov Models

Hidden Markov Models Hidden Markov Models Kursfolien Karin Haenelt 09.05002 1 Letzte Änderung 18.07002 Hidden Markov Models Besondere Form eines probabilistischen endlichen Automaten Weit verbreitet in der statistischen Sprachverarbeitung

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Aufgabe 1 Probabilistische Inferenz

Aufgabe 1 Probabilistische Inferenz Seite 1 von 8 Aufgabe 1 Probabilistische Inferenz (28 Punkte) Die BVG will besser auf Ausfälle im S-Bahn-Verkehr eingestellt sein. Sie geht dabei von folgenden Annahmen aus: An 20% der Tage ist es besonders

Mehr

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong

Friedrich-Alexander-Universität Professur für Computerlinguistik. Nguyen Ai Huong Part-of-Speech Tagging Friedrich-Alexander-Universität Professur für Computerlinguistik Nguyen Ai Huong 15.12.2011 Part-of-speech tagging Bestimmung von Wortform (part of speech) für jedes Wort in einem

Mehr

Signalverarbeitung 2. Volker Stahl - 1 -

Signalverarbeitung 2. Volker Stahl - 1 - - 1 - Hidden Markov Modelle - 2 - Idee Zu klassifizierende Merkmalvektorfolge wurde von einem (unbekannten) System erzeugt. Nutze Referenzmerkmalvektorfolgen um ein Modell Des erzeugenden Systems zu bauen

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

Probabilistische kontextfreie Grammatiken

Probabilistische kontextfreie Grammatiken Mathematische Grundlagen III Probabilistische kontextfreie Grammatiken 14 Juni 2011 1/26 Ambiguität beim Parsing Wörter können verschiedene Bedeutungen haben und mehr als einer Wortkategorien angehören

Mehr

Hidden-Markov-Modelle

Hidden-Markov-Modelle Proseminar: Machine-Learning Hidden-Markov-Modelle Benjamin Martin Zusammenfassung 1953 stellten Watson und Crick ihr DNA-Modell vor. Damit öffnete sich für Genforscher ein riesiges Gebiet, das bisher

Mehr

Kombinationen von Neuronalen Netzen und Hidden Markov Modellen in der Spracherkennung

Kombinationen von Neuronalen Netzen und Hidden Markov Modellen in der Spracherkennung Kombinationen von Neuronalen Netzen und Hidden Markov Modellen in der Spracherkennung Christian Tomm Christian.Tomm@uni-ulm.de Zusammenfassung In der Spracherkennung werden vornehmlich Hidden Markov Modelle

Mehr

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013

Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Probe-Klausur zur Vorlesung Multilinguale Mensch-Maschine Kommunikation 2013 Klausurnummer Name: Vorname: Matr.Nummer: Bachelor: Master: Aufgabe 1 2 3 4 5 6 7 8 max. Punkte 10 5 6 7 5 10 9 8 tats. Punkte

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging

Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging HUMBOLDT-UNIVERSITÄT ZU BERLIN Institut für Informatik Lehrstuhl Wissensmanagement Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging Tobias Scheffer Ulf Brefeld POS-Tagging Zuordnung der Wortart von

Mehr

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes

Markov-Prozesse. Markov-Prozesse. Franziskus Diwo. Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes Markov-Prozesse Franziskus Diwo Literatur: Ronald A. Howard: Dynamic Programming and Markov Processes 8.0.20 Gliederung Was ist ein Markov-Prozess? 2 Zustandswahrscheinlichkeiten 3 Z-Transformation 4 Übergangs-,

Mehr

Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur

Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Mathematische Grundlagen der Computerlinguistik III: Statistische Methoden Probeklausur Crocker/Demberg/Staudte Sommersemester 2014 17.07.2014 1. Sie haben 90 Minuten Zeit zur Bearbeitung der Aufgaben.

Mehr

Übungsaufgaben Lösungen

Übungsaufgaben Lösungen Übungsaufgaben Lösungen Stochastische Matrizen, Markov-Prozesse MV5.1 Eine N N-Matrix P heißt stochastisch, wenn ihre Matrixelemente nicht-negativ sind und alle Zeilensummen 1 ergeben. In Formeln: P ij

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P.

Pr[X t+1 = k] = Pr[X t+1 = k X t = i] Pr[X t = i], also. (q t+1 ) k = p ik (q t ) i, bzw. in Matrixschreibweise. q t+1 = q t P. 2.2 Berechnung von Übergangswahrscheinlichkeiten Wir beschreiben die Situation zum Zeitpunkt t durch einen Zustandsvektor q t (den wir als Zeilenvektor schreiben). Die i-te Komponente (q t ) i bezeichnet

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Der chinesische Restsatz mit Anwendung

Der chinesische Restsatz mit Anwendung Der chinesische Restsatz mit Anwendung Nike Garath n.garath@gmx.de Martrikelnummer: 423072 Seminar: Verschlüsslungs- und Codierungstheorie Dozent: Dr. Thomas Timmermann Sommersemester 2017 Inhaltsverzeichnis

Mehr

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten

Lösungen zu Übungsblatt 10 Höhere Mathematik Master KI Diskrete Zufallsgrößen/Markov-Ketten Lösungen zu Übungsblatt 0 Höhere Mathematik Master KI Hinweise: Die Aufgaben - beziehen sich auf das Thema Diskrete Zufallsgrößen, Ihre Verteilungen und Erwartungswerte. Siehe dazu auch das auf der Homepage

Mehr

Anleitung: Standardabweichung

Anleitung: Standardabweichung Anleitung: Standardabweichung So kann man mit dem V200 Erwartungswert und Varianz bzw. Standardabweichung bei Binomialverteilungen für bestimmte Werte von n, aber für allgemeines p nach der allgemeinen

Mehr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr

DWT 2.3 Ankunftswahrscheinlichkeiten und Übergangszeiten 400/467 Ernst W. Mayr 2. Ankunftswahrscheinlichkeiten und Übergangszeiten Bei der Analyse von Markov-Ketten treten oftmals Fragestellungen auf, die sich auf zwei bestimmte Zustände i und j beziehen: Wie wahrscheinlich ist es,

Mehr

Kognitive Systeme. Übung 4

Kognitive Systeme. Übung 4 Kognitive Systeme Übung 4 Matthias Sperber Thai Son Nguyen 1 29.06.16 Wir bitten um Entschuldigung: Trotz anders lautender Ankündigung änderte sich die korrekte Lösung für Aufgabe 3e, sodass keine der

Mehr

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle

Mehr

Klassifikation von Daten Einleitung

Klassifikation von Daten Einleitung Klassifikation von Daten Einleitung Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation von Daten Einleitung

Mehr

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008

Bayes sche Klassifikatoren. Uwe Reichel IPS, LMU München 16. Juli 2008 Bayes sche Klassifikatoren Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 16. Juli 2008 Inhalt Einleitung Grundlagen der Wahrscheinlichkeitsrechnung Noisy-Channel-Modell Bayes sche Klassifikation

Mehr

Transaktionen. Michael Löwe 04/15/16. FHDW Hannover, Freundallee 15, Hannover address:

Transaktionen. Michael Löwe 04/15/16. FHDW Hannover, Freundallee 15, Hannover  address: Transaktionen Michael Löwe 04/15/16 FHDW Hannover, Freundallee 15, 30173 Hannover E-mail address: michael.loewe@fhdw.de KAPITEL 1 Isolation 1.1. Formales Modell für Transaktionen und Ablaufpläne Zustand.

Mehr

Bayesianische Netzwerke - Lernen und Inferenz

Bayesianische Netzwerke - Lernen und Inferenz Bayesianische Netzwerke - Lernen und Inferenz Manuela Hummel 9. Mai 2003 Gliederung 1. Allgemeines 2. Bayesianische Netzwerke zur Auswertung von Genexpressionsdaten 3. Automatische Modellselektion 4. Beispiel

Mehr

Tagging mit Hidden Markov Models und Viterbi-Algorithmus

Tagging mit Hidden Markov Models und Viterbi-Algorithmus Tagging mit Hidden Markov Models und Viterbi-Algorithmus Annelen Brunner, Stephanie Schuldes, Nicola Kaiser, Olga Mordvinova HS Parsing SoSe 2003 PD Dr. Karin Haenelt Inhalt Ziel des Seminarprojekts Theorie:

Mehr

W-Rechnung und Statistik für Ingenieure Übung 11

W-Rechnung und Statistik für Ingenieure Übung 11 W-Rechnung und Statistik für Ingenieure Übung 11 Aufgabe 1 Ein Fahrzeugpark enthält 6 Fahrzeuge. Jedes Fahrzeug hat die Wahrscheinlichkeit p = 0.1 (bzw. p = 0.3), dass es kaputt geht. Pro Tag kann nur

Mehr

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Der Ergodensatz. Hendrik Hülsbusch

Der Ergodensatz. Hendrik Hülsbusch Der Ergodensatz Hendrik Hülsbusch 1..212 Inhaltsverzeichnis Einleitung 3 5 Stationäre Verteilungen 5 6 Reversible Markovketten 11 2 Einleitung In meinem Vortrag beschäftigen wir uns mit dem asymptotischen

Mehr

Das Bayes'sche Prinzip

Das Bayes'sche Prinzip Das Bayes'sche Prinzip Olivia Gradenwitz Patrik Kneubühler Seminar über Bayes Statistik FS8 26. Februar 28 1 Bayes'sches statistisches Modell 1.1 Statistische Probleme und statistische Modelle In diesem

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Grundbegrie der Wahrscheinlichkeitsrechnung

Grundbegrie der Wahrscheinlichkeitsrechnung Die Benutzung dieser Materialien ist auf Herbst 2017 beschränkt. Diese Hilfsmaterialien sind nur für unseren Studenten gemeint, dürfen also nicht weiterverteilt werden. Grundbegrie der Wahrscheinlichkeitsrechnung

Mehr

Tutoriums-Paper zu Hidden Markov Models

Tutoriums-Paper zu Hidden Markov Models Tutoriums-Paper zu Hidden Markov Models Mario Mohr February 1, 2015 Contents 1 Das Modell 1 2 Der Forward-Algorithmus 2 2.1 Wahrscheinlichkeiten von Beobachtungsketten........................ 4 2.2 Filtering.............................................

Mehr

Seminar Gewöhnliche Differentialgleichungen

Seminar Gewöhnliche Differentialgleichungen Seminar Gewöhnliche Differentialgleichungen Dynamische Systeme I 1 Einleitung 1.1 Nichtlineare Systeme In den vorigen Vorträgen haben wir uns mit linearen Differentialgleichungen beschäftigt. Nun werden

Mehr

Mathematische Werkzeuge für Computergrafik 2016/17. Gleitkommzahlen

Mathematische Werkzeuge für Computergrafik 2016/17. Gleitkommzahlen Mathematische Werkzeuge für Computergrafik 2016/17 Gleitkommzahlen 1 Grundlagen 1 Da im Computer nur endliche Ressourcen zur Verfügung stehen, können reelle Zahlen in vielen Fällen nicht exakt dargestellt

Mehr

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen

Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Zufallsprozesse, Ereignisse und Wahrscheinlichkeiten die Grundlagen Wichtige Tatsachen und Formeln zur Vorlesung Mathematische Grundlagen für das Physikstudium 3 Franz Embacher http://homepage.univie.ac.at/franz.embacher/

Mehr

Einführung in die (induktive) Statistik

Einführung in die (induktive) Statistik Einführung in die (induktive) Statistik Typische Fragestellung der Statistik: Auf Grund einer Problemmodellierung sind wir interessiert an: Zufallsexperiment beschrieben durch ZV X. Problem: Verteilung

Mehr

3. Prozesse mit kontinuierlicher Zeit

3. Prozesse mit kontinuierlicher Zeit 3. Prozesse mit kontinuierlicher Zeit 3.1 Einführung Wir betrachten nun Markov-Ketten (X(t)) t R +. 0 Wie beim Übergang von der geometrischen zur Exponentialverteilung können wir uns auch hier einen Grenzprozess

Mehr

Parallele und funktionale Programmierung Wintersemester 2016/ Übung Abgabe bis , 16:00 Uhr

Parallele und funktionale Programmierung Wintersemester 2016/ Übung Abgabe bis , 16:00 Uhr 4. Übung Abgabe bis 25.11.2016, 16:00 Uhr Aufgabe 4.1: Verklemmungsbedingungen a) Welche drei Bedingungen müssen gelten, damit es zu einer Verklemmung in einem parallelen System kommen kann? b) Nach welcher

Mehr

1 Umkehrfunktionen und implizite Funktionen

1 Umkehrfunktionen und implizite Funktionen Mathematik für Physiker III WS 2012/2013 Freitag 211 $Id: implizittexv 18 2012/11/01 20:18:36 hk Exp $ $Id: lagrangetexv 13 2012/11/01 1:24:3 hk Exp hk $ 1 Umkehrfunktionen und implizite Funktionen 13

Mehr

Masterarbeit. Variantentolerantes Readmapping durch Locality Sensitive Hashing. Jens Quedenfeld November Gutachter: Sven Rahmann Dominik Köppl

Masterarbeit. Variantentolerantes Readmapping durch Locality Sensitive Hashing. Jens Quedenfeld November Gutachter: Sven Rahmann Dominik Köppl Masterarbeit Variantentolerantes Readmapping durch Locality Sensitive Hashing Jens Quedenfeld November 2015 Gutachter: Sven Rahmann Dominik Köppl Technische Universität Dortmund Fakultät für Informatik

Mehr

Seminarvortrag Extensive Spiele mit imperfekter Information

Seminarvortrag Extensive Spiele mit imperfekter Information Seminarvortrag Extensive Spiele mit imperfekter Information Eva Fischedick Betreuer: Prof. Dr. Löwe 19. Juni 2012 Inhaltsverzeichnis 1 Einleitung 3 2 Extensive Spiele mit imperfekter Information 3 2.1

Mehr

2 Extrema unter Nebenbedingungen

2 Extrema unter Nebenbedingungen $Id: lagrangetex,v 18 01/11/09 14:07:08 hk Exp $ $Id: untermfgtex,v 14 01/11/1 10:00:34 hk Exp hk $ Extrema unter Nebenbedingungen Lagrange-Multiplikatoren In der letzten Sitzung hatten wir begonnen die

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

1 Lineare Gleichungssysteme und Matrizen

1 Lineare Gleichungssysteme und Matrizen 1 Lineare Gleichungssysteme und Matrizen Das Studium linearer Gleichungssysteme und ihrer Lösungen ist eines der wichtigsten Themen der linearen Algebra. Wir werden zunächst einige grundlegende Begriffe

Mehr

11. Übung Algorithmen I

11. Übung Algorithmen I Timo Bingmann, Christian Schulz INSTITUT FÜR THEORETISCHE INFORMATIK, PROF. SANDERS KIT Timo Universität Bingmann, des LandesChristian Baden-Württemberg Schulz und nationales Forschungszentrum in der Helmholtz-Gemeinschaft

Mehr

Polynome. Analysis 1 für Informatik

Polynome. Analysis 1 für Informatik Gunter Ochs Analysis 1 für Informatik Polynome sind reelle Funktionen, die sich ausschlieÿlich mit den Rechenoperation Addition, Subtraktion und Multiplikation berechnen lassen. Die allgemeine Funktionsgleichung

Mehr

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute

Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute 3.4 PageRank Arbeit: Page, Brin, Motwani, Winograd (1998). Ziel: Maß für absolute Wichtigkeit von Webseiten; nicht Relevanz bezüglich Benutzeranfrage. Anfrageunabhängiges Ranking. Ausgangspunkt: Eingangsgrad.

Mehr

Kapitel 1.5 und 1.6. Ein adäquater Kalkül der Aussagenlogik

Kapitel 1.5 und 1.6. Ein adäquater Kalkül der Aussagenlogik Kapitel 1.5 und 1.6 Ein adäquater Kalkül der Aussagenlogik Teil 1: Kalküle und Beweisbarkeit und die Korrektheit des Shoenfield-Kalküls Mathematische Logik (WS 2010/11) Kapitel 1.5 und 1.6: Kalküle 1 /

Mehr

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse

Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Folie zur Vorlesung Wahrscheinlichkeitsrechnung und Stoch. Prozesse Zu Markov-Prozessen: Bemerkungen: 17.01.2013 Wir betrachten im Folgenden eine Markovkette (X n ) n N0, wobei jedes X n Werte in Z = {0,1,2,...,s}

Mehr

Proseminar Bernsteinpolynome Bézier-Flächen. Dana Eckhardt Matr.-Nr:

Proseminar Bernsteinpolynome Bézier-Flächen. Dana Eckhardt Matr.-Nr: Proseminar Bernsteinpolynome Bézier-Flächen Dana Eckhardt Matr.-Nr: 4291637 Inhaltsverzeichnis 1 Einführung 2 1.1 Grundidee und Darstellung....................... 2 1.2 Satz 3.20.................................

Mehr

Die Mathematik hinter Google

Die Mathematik hinter Google Die Mathematik hinter Google Informationstag für Gymnasiastinnen und Gymnasiasten Universität Fribourg (Schweiz) georges.klein@unifr.ch Fribourg, 24. November 2010 georges.klein@unifr.ch Die Mathematik

Mehr

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza)

Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) SS 2013 Zentralübung Diskrete Wahrscheinlichkeitstheorie (zur Vorlesung Prof. Esparza) Dr. Werner Meixner Fakultät für Informatik TU München http://www14.in.tum.de/lehre/2013ss/dwt/uebung/ 10. Mai 2013

Mehr

Vektoren. Kapitel 13 Vektoren. Mathematischer Vorkurs TU Dortmund Seite 114 / 1

Vektoren. Kapitel 13 Vektoren. Mathematischer Vorkurs TU Dortmund Seite 114 / 1 Vektoren Kapitel 13 Vektoren Mathematischer Vorkurs TU Dortmund Seite 114 / 1 Vektoren 131 Denition: Vektoren im Zahlenraum Ein Vektor (im Zahlenraum) mit n Komponenten ist ein n-tupel reeller Zahlen,

Mehr

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1)

Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Seminar Ausgewählte Kapitel des Operations Research Die Allgegenwärtigkeit von Lagrange (Teil 1) Anna Raaz 21.12.2007 Einführung Die Relaxierung von Lagrange wird in der stochastischen Optimierung meistens

Mehr

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung

2. Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 2 Woche: Eindeutige Entschlüsselbarleit, Sätze von Kraft und McMillan, Huffmancodierung 24/ 44 Zwei Beispiele a 0

Mehr

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 }

Wenn man den Kreis mit Radius 1 um (0, 0) beschreiben möchte, dann ist. (x, y) ; x 2 + y 2 = 1 } A Analsis, Woche Implizite Funktionen A Implizite Funktionen in D A3 Wenn man den Kreis mit Radius um, beschreiben möchte, dann ist { x, ; x + = } eine Möglichkeit Oft ist es bequemer, so eine Figur oder

Mehr

LOOP-Programme: Syntaktische Komponenten

LOOP-Programme: Syntaktische Komponenten LOOP-Programme: Syntaktische Komponenten LOOP-Programme bestehen aus folgenden Zeichen (syntaktischen Komponenten): Variablen: x 0 x 1 x 2... Konstanten: 0 1 2... Operationssymbole: + Trennsymbole: ; :=

Mehr

Grundlegende Eigenschaften von Punktschätzern

Grundlegende Eigenschaften von Punktschätzern Grundlegende Eigenschaften von Punktschätzern Worum geht es in diesem Modul? Schätzer als Zufallsvariablen Vorbereitung einer Simulation Verteilung von P-Dach Empirische Lage- und Streuungsparameter zur

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08

Mehr

Hidden Markov Models (HMM) Karin Haenelt

Hidden Markov Models (HMM) Karin Haenelt Hidden Markov Models (HMM) Karin Haenelt 16.5.2009 1 Inhalt Einführung Theoretische Basis Elementares Zufallsereignis Stochastischer Prozess (Folge von elementaren Zufallsereignissen) Markow-Kette (Stochastischer

Mehr

Grundlagen: Algorithmen und Datenstrukturen

Grundlagen: Algorithmen und Datenstrukturen Technische Universität München Fakultät für Informatik Lehrstuhl für Effiziente Algorithmen Dr. Hanjo Täubig Tobias Lieber Sommersemester 2011 Übungsblatt 1 16. September 2011 Grundlagen: Algorithmen und

Mehr

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests

Hypothesen: Fehler 1. und 2. Art, Power eines statistischen Tests ue biostatistik: hypothesen, fehler 1. und. art, power 1/8 h. lettner / physik Hypothesen: Fehler 1. und. Art, Power eines statistischen Tests Die äußerst wichtige Tabelle über die Zusammenhänge zwischen

Mehr

23. November Betweenness Centrality Closeness Centrality. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 108

23. November Betweenness Centrality Closeness Centrality. H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 108 23. November 2011 Betweenness Centrality Closeness Centrality H. Meyerhenke: Algorithmische Methoden zur Netzwerkanalyse 108 Betweenness Centrality Grundlegende Idee: Ein Knoten ist wichtig, wenn er auf

Mehr

7. Musterlösung zu Mathematik für Informatiker I, WS 2003/04

7. Musterlösung zu Mathematik für Informatiker I, WS 2003/04 7. Musterlösung zu Mathematik für Informatiker I, WS 2003/04 KATHRIN TOFALL Aufgabe 7. (Symmetrischer EEA). (9 Punkte) Ziel dieser Aufgabe ist es zu zeigen, was man gewinnt, wenn man bei der Division mit

Mehr

1. Einführung. Was ist ein Algorithmus (eine Datenstruktur)? Welche Probleme kann man damit lösen? Warum betrachten wir (effiziente) Algorithmen?

1. Einführung. Was ist ein Algorithmus (eine Datenstruktur)? Welche Probleme kann man damit lösen? Warum betrachten wir (effiziente) Algorithmen? 1. Einführung Was ist ein Algorithmus (eine Datenstruktur)? Welche Probleme kann man damit lösen? Warum betrachten wir (effiziente) Algorithmen? Wie beschreiben wir Algorithmen? Nach welchen Kriterien

Mehr

Neuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden

Neuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden 1. März 2005 Neurosymbolische Integration versucht künstliche neuronale Netze und Logikprogrammierung zu vereinen

Mehr

Endliche Markov-Ketten - eine Übersicht

Endliche Markov-Ketten - eine Übersicht Endliche Markov-Ketten - eine Übersicht Diese Übersicht über endliche Markov-Ketten basiert auf dem Buch Monte Carlo- Algorithmen von Müller-Gronbach et. al. und dient als Sammlung von Definitionen und

Mehr

Die mathematische Seite

Die mathematische Seite Kellerautomaten In der ersten Vorlesung haben wir den endlichen Automaten kennengelernt. Mit diesem werden wir uns in der zweiten Vorlesung noch etwas eingängiger beschäftigen und bspw. Ansätze zur Konstruktion

Mehr

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren

Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben. Eine kurze Einführung in Quasi Newton Verfahren Ergänzungen zu dem Buch Numerische Verfahren zur Lösung unrestringierter Optimierungsaufgaben von Carl Geiger und Christian Kanzow (Springer Verlag, 1999) Eine kurze Einführung in Quasi Newton Verfahren

Mehr

Theoretische Grundlagen der Informatik

Theoretische Grundlagen der Informatik Theoretische Grundlagen der Informatik Vorlesung am 15.01.2015 INSTITUT FÜR THEORETISCHE 0 KIT 15.01.2015 Universität des Dorothea Landes Baden-Württemberg Wagner - Theoretische und Grundlagen der Informatik

Mehr

Mathematische Grundlagen der dynamischen Simulation

Mathematische Grundlagen der dynamischen Simulation Mathematische Grundlagen der dynamischen Simulation Dynamische Systeme sind Systeme, die sich verändern. Es geht dabei um eine zeitliche Entwicklung und wie immer in der Informatik betrachten wir dabei

Mehr

Würfelspiele und Zufall

Würfelspiele und Zufall Würfelspiele und Zufall Patrik L. Ferrari 29. August 2010 1 Random horse die Irrfahrt des Pferdchens Betrachte ein Schachbrett mit einem Pferd (Springer), welches sich nach den üblichen Springer-Regeln

Mehr

Polynome und ihre Nullstellen

Polynome und ihre Nullstellen Polynome und ihre Nullstellen 29. Juli 2017 Inhaltsverzeichnis 1 Einleitung 2 2 Explizite Berechnung der Nullstellen 2.1 Polynome vom Grad 0............................. 2.2 Polynome vom Grad 1.............................

Mehr

Aussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/37

Aussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/37 Aussagenlogik Übersicht: 1 Teil 1: Syntax und Semantik 2 Teil 2: Modellierung und Beweise Aussagenlogik H. Kleine Büning 1/37 Modellierungsaufgabe Es gibt drei Tauben und zwei Löcher. Jede Taube soll in

Mehr

Mining the Network Value of Customers

Mining the Network Value of Customers Mining the Network Value of Customers Seminar in Datamining bei Prof. Fürnkranz Benjamin Herbert Technische Universität Darmstadt Sommersemester 2007 1 / 34 1 2 Werbung Netzwerkwert 3 Bezeichnungen Ansatz

Mehr

8. Reinforcement Learning

8. Reinforcement Learning 8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

3. Lektion: Deskriptive Statistik

3. Lektion: Deskriptive Statistik Seite 1 von 5 3. Lektion: Deskriptive Statistik Ziel dieser Lektion: Du kennst die verschiedenen Methoden der deskriptiven Statistik und weißt, welche davon für Deine Daten passen. Inhalt: 3.1 Deskriptive

Mehr

Algorithmische Anwendungen WS 2005/2006

Algorithmische Anwendungen WS 2005/2006 Algorithmische Anwendungen WS 2005/2006 Sequenzalignment Gruppe F_lila_Ala0506 Allal Kharaz Yassine ELassad Inhaltsverzeichnis 1 Problemstellungen...................................... 3 1.1 Rechtschreibkorrektur...............................

Mehr

Elementare Mengenlehre

Elementare Mengenlehre Vorkurs Mathematik, PD Dr. K. Halupczok WWU Münster Fachbereich Mathematik und Informatik 5.9.2013 Ÿ2 Elementare Mengenlehre Der grundlegendste Begri, mit dem Objekte und Strukturen der Mathematik (Zahlen,

Mehr

Logik I. Symbole, Terme, Formeln

Logik I. Symbole, Terme, Formeln Logik I Symbole, Terme, Formeln Wie jede geschriebene Sprache basiert die Prädikatenlogik erster Stufe auf einem Alphabet, welches aus den folgenden Symbolen besteht: (a) Variabeln wie zum Beispiel v 0,v

Mehr

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Gibbs sampling Sebastian Pado October 30, 2012 1 Bayessche Vorhersage Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells Uns interessiert P (y X), wobei wir über das Modell marginalisieren

Mehr

Computer Vision: Kalman Filter

Computer Vision: Kalman Filter Computer Vision: Kalman Filter D. Schlesinger TUD/INF/KI/IS D. Schlesinger () Computer Vision: Kalman Filter 1 / 8 Bayesscher Filter Ein Objekt kann sich in einem Zustand x X befinden. Zum Zeitpunkt i

Mehr

Monotonie, Konkavität und Extrema

Monotonie, Konkavität und Extrema Kapitel 8 Monotonie, Konkavität und Extrema Josef Leydold Auffrischungskurs Mathematik WS 2017/18 8 Monotonie, Konkavität und Extrema 1 / 55 Monotonie Eine Funktion f heißt monoton steigend, falls x 1

Mehr

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt

Grundbegriffe der Wahrscheinlichkeitstheorie. Karin Haenelt Grundbegriffe der Wahrscheinlichkeitstheorie Karin Haenelt 1 Inhalt Wahrscheinlichkeitsraum Bedingte Wahrscheinlichkeit Abhängige und unabhängige Ereignisse Stochastischer Prozess Markow-Kette 2 Wahrscheinlichkeitsraum

Mehr

6.6 Poisson-Verteilung

6.6 Poisson-Verteilung 6.6 Poisson-Verteilung Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, die zur Modellierung der Anzahl von zufälligen Vorkommnissen in einem bestimmten räumlichen oder zeitlichen Abschnitt

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr

Ablauf. 1 Imitationsdynamik. 2 Monotone Auszahlung. 3 Entscheidung gegen iterativ dominierte Strategien. 4 Beste-Antwort-Dynamik 2 / 26

Ablauf. 1 Imitationsdynamik. 2 Monotone Auszahlung. 3 Entscheidung gegen iterativ dominierte Strategien. 4 Beste-Antwort-Dynamik 2 / 26 Spieldynamik Josef Hofbauer and Karl Sigmund: Evolutionary Games and Population Dynamics, Cambridge, Kap. 8 Simon Maurer Saarbrücken, den 13.12.2011 1 / 26 Ablauf 1 Imitationsdynamik 2 Monotone Auszahlung

Mehr