HMM/KNN zur Spracherkennung

Größe: px
Ab Seite anzeigen:

Download "HMM/KNN zur Spracherkennung"

Transkript

1 HMM/KNN zur Spracherkennung Andreas Hallerbach 18. Januar 2005 Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Hauptseminar Neuroinformatik WS 04/05 Spracherkennung

2 Zusammenfassung Die beiden Hauptverfahren zur automatischen Spracherkennung beruhen auf Hidden Markov Modellen oder neuronalen Netzen. Beide Ansätze haben ihre Vor- und Nachteile und so erscheint es nur logisch, dass es Versuche gibt, die jeweiligen Vorteile zu kombinieren. Der in dieser Ausarbeitung betrachteter Ansatz nimmt dafür das bewährte System der Spracherkennung mittels HMM als Grundtock und nutz ANNs zur besseren Abschätzung benötigter Wahrscheinlichkeiten. Inhaltsverzeichnis 1 Der Grundaufbau des Spracherkennungssystems 3 2 Grundlagen Grundlagen der Hidden Markov Modelle Markov-Ketten Hidden Markov Modelle Viterbi-Algorithmus Grundlagen der Künstlichen Neuronale Netze Der Grundaufbau Training Probleme Hybride HMM/KNN-Systeme Grundaufbau und Training Bayes Theorem Bewertung Verbesserungen

3 1 Der Grundaufbau des Spracherkennungssystems Der Grundaufbau eines typischen Spracherkunnungssystems besteht im allgemeinem aus 5 Hauptkomponenten, die hier nur kurz erläutert werden sollen: 1. Spracherfassung: Hierbei hat das verwendete Equipment einen wesentlichen Einfluss auf die Qualität der späteren Spracherkennung. Allein eine falsche Mikrofon- Position, zu viel Raumhall oder ein zu hohes Hintergrundrauschen können die besten Algorithmen in die Knie zwingen. 2. Front-End: Die Rohdaten werden vorverarbeitet, um Fehler zu minimieren und eine gute Ausgangsbasis für die weitere Verarbeitung zu erlangen. 3. Subworterkennung: Aus dem bereinigten Signal werden (typischerweise für für ein Intervall von 10 Millisekunden) die Merksmalsvektoren für die spätere Verarbeitung extrahiert. Diese Merksmalsvektoren können zum Beispiel Cepstralkoeffizienten, Energiewerte oder Frequenzbereichsstärken sein. Diese werden anschließend mit den Trainingsdaten verglichen und bestimmten Phonemen zugeordnet. Hier wird allerdings nicht nur das beste Resultat geliefert, sondern eine ganze Liste mit den jeweiligen Wahrscheinlichkeiten. 4. Worterkennung: Diese Liste wird nun verwendet, um mit Hilfe eines Wörterbuches eine weitere Liste zu generieren, welche die wahrscheinlichsten Wörter enthält. Hierbei muss auch die Problematik der zeitlichen Variation bei der Aussprache beachtet werden. So werden Vokale bei schneller Sprache oft viel kürzer ausgesprochen, was aber nicht zu einer Beeinträchtigung bei der Spracherkennung führen sollte. 5. Sprachmodell: Die gefundenen Lösungen werden nun im Sprachmodell auf syntaktische Korrektheit überprüft und die beste passende Lösung ausgewählt. Desweiteren müssen Homophone (gleichklingende Wörter) syntaktisch unterschieden werden um die richtigen Wörter für den Kontext zu finden. 3

4 In dieser Ausarbeitung geht es nur um die reine Worterkennung, Syntax und Semantik werden nicht behandelt. 2 Grundlagen 2.1 Grundlagen der Hidden Markov Modelle Hidden Markov Modelle (kurz HMMs) sind in der Spracherkennung die meistgenutzte Technik und beruhen auf dem Prinzip der Markov-Ketten. In der Regel wird für jedes Phonem ein HMM trainiert. Durch die Zusammensetzung mehrerer HMMs werden dann die wahrscheinlisten Wörter ermittelt Markov-Ketten Fundament einer Markov-Kette ist der Vektor S, der aus N durchnummerierten Zuständen besteht. Bei der Spracherkennung wird typischerweise eine links-nach-rechts -Topologie verwendet, was bedeutet, dass man von einem Zustand immer nur zu einem höheren Zustand kommt (Auslassungen sind in manchen Implementionen möglich), allerdings nicht wieder zurück. S = s 1,..., s N Betrachtet man nun eine Zufallsfolge Q = q 1,..., q T mit q t S, so beschreibt π i die Startwahrscheinlichkeit für den Zustand s i : π i = P (q 1 = s i ) mit N π i = 1 Für jeden Wechsel von einem Zustand s i nach s j gibt es zudem eine Übergangswahrscheinlichkeit a ij, die in der Matrix A beschrieben sind: i=1 A = [a ij ] N N mit a ij 0 und a ij = 1 Das hierbei nur der letzte vorhergehende Zustand berücksichtigt wird, ist zwar eine für die Sprache ungültige Vereinfachung, allerdings erleichtert dies den Vorgang deutlich und hat nicht viel Einfluss auf das Ergebnis. Aufgrund der links-nach-rechts -Topologie gilt außerdem a ij = 0 falls j < i. j 4

5 2.1.2 Hidden Markov Modelle Bei Hidden Markov Modellen sind nun die Symbole in der beobachteten Ausgabesequenz von der Markov-Kette entkoppelt, indem mit internen (versteckten) Zuständen gearbeitet wird, die zusätzlich noch Emisionswahrscheinlichkeiten für die Ausgabesymbole in Abhängigkeit vom internen Zustand erhalten. Die Menge der möglichen Merkmalsvektoren X = x 1,..., x n,..., x N wird dazu der Menge der spezifischen HMM-Zustände zugeordnet. Dies ist eine endliche Menge aller K möglichen Zustände Q = q 1,..., q k,..., q K, aus der wiederrum die einzelnen Ketten für jedes HMM M i zusammengesetzt werden, die aus L i Zuständen bestehen: S = s 1,..., s l,..., s L mit s l Q. Neben den oben genannten Start- und Übergangswahrscheinlichkeiten gibt es nun noch die sogenannte Emissionswahrscheinlichkeit P (x n q i ). Also die Wahrscheinlichkeit, dass man Im Zustand q i die Beobachtung x n macht. Eine Veranschaulichung der Zustände und der damit verbundenen Wahrscheinlichkeiten gibt Abb. 1. Um nicht für jedes Wort ein neues HMM modellieren zu müssen, werden in Abbildung 1: Ein HMM mit drei Zuständen. der Regel nur Phoneme modelliert, aus denen dann die Wörter zusammengesetzt werden Viterbi-Algorithmus Eine wichtige Frage bei der Spracherkennung ist nun, wie man die optimale Zustandsfolge Q = s 1,..., s t,..., s T mit s t Q zu einer gegebenen Beobachtung O = o 1,..., o t,..., o T mit o t X findet. Der hier beschriebene An- 5

6 satz nennt sich Viterbi-Algorithmus und beruht auf dem iterativen Berechnen der Wahrscheinlichket von Teilstücken der Gesamtkette. Hierfür definieren wir uns zwei Variabeln δ t (i) und ψ t (i). δ t (i) bezeichnet hierbei die höchste Wahrscheinlichkeit über alle Pfade der Länge t, die im Zustand q i enden. Für diesen wahrscheinlichsten Pfad gibt ψ t (i) den Zustand vor q i an, also den Zustand an der Stelle t 1. Hier nun der Ablauf des Algorithmus: Initialisierung: Induktion: δ 1 (k) := π k P (o 1 q k ) 1 k K ψ 1 (k) := 0 1 k K δ t (i) := max 1 k K (δ t 1(k) a ki ) P (o t q i ) 1 i K 1 t T Terminierung: Rückverfolgung: ψ t (i) := arg max 1 k K (δ t 1(k)a ki ) 1 i K 1 t T q T := arg max 1 k K (δ T (k)) q t := ψ t+1 (q t+1 ) t = T 1, T 2,..., 1 Die optimale Zustandsfolge ist nun Q := qt, q T 1,..., q 1 und hat die Wahrscheinlichkeit P := max (δ T (k)). 1 k K Die in diesem Algorithmus häufig auftauchende Wahrscheinlichkeit P (o t q k ) hat in dieser Ausarbeitung eine wichtige Rolle, da sie später mittels eines KNN geschätzt wird. 2.2 Grundlagen der Künstlichen Neuronale Netze Ein künstliches neuronales Netz (KNN) ist der Versuch, die neuronalen Schaltvorgänge im Gehirn des Menschen zu simulieren und so ein System zu schaffen, das in der Lage ist zu lernen und Muster klassifizieren zu können Der Grundaufbau Die Form des KNN, die in dieser Ausarbeitung genutz wird, ist das Multi- Layer-Perzeptron (MLP), darum wird im folgenden auch nur dessen Aufbau beschrieben. 6

7 Ein KNN besteht aus einer beliebigen Anzahl von Neuronen u, die untereinander über Ein- und Ausgabeleitungen miteinander verbunden sind. Dabei kann ein Neuron variabel viele Ein- und Ausgänge haben. Jedes Neuron berechnet über die Eingänge eine Funktion, deren Funktionswert an die Ausgänge angelegt wird. Typischerweise erhalten bei einer solchen Funktion alle Eingänge eine Gewichtung und der Vergleich der gewichteten Summe mit einem Schwellwert entscheidet über die Ausgabe. Natürlich könen die Funktionen aber auch komplexer sein. In einem MLP gibt es drei Schichten von Neuronen: Eingabeschicht, versteckte Schicht und Ausgabeschicht. Ein Eingabeneuron bekommt ihre Eingabe von außerhalb des Netzes, ein Ausgabeneuron gibt ihre Ausgabe nicht ins eigene Netz, sondern nach außen weiter. Versteckte Neuronen haben keinen Kontakt zur Außenwelt, sondern bekommen ihre Eingaben nur aus anderen neuronen ihres Netzes und geben auch nur an solche Neuronen ihre Ausgaben weiter. MLPs sind im Normalfall feed-forward-netze, was bedeutet, dass jede Schicht ihre Eingaben von der vorherigen Schicht bekommt und an die nachfolgende Schicht ihre Ausgaben weitergibt. Netzwerke mit Rückkopplungen sind allerdings auch möglich. Abbildung 2: Ein MLP mit einer versteckten Schicht Training Ein KNN lernt das Klassifizieren, indem man ihn mit genügend Trainingsdaten füttert. Man kann auch schon erste Annahmen über die Modellzu- 7

8 sammenhänge einbringen, muss dies aber nicht, ein KNN kann auch ohne Grundwissen lernen. Grundsätzlich gibt es zwei verschiedene Lernverfahren. Überwachtes Lernen wird eingesetzt, wenn Beispiellösungen bekannt sind. Zu jeder Ausgabe des KNNs kann dan explizit der Fehler ausgerechnet und zur Gewichtungskorrektur herangezogen werden. Steht die Problemlösung aber noch nicht fest (z.b. die Herausbildung vo Merkmalen zur Segmentierung von Daten), so wird das KNN mit einem unüberwachten Lernverfahren trainiert. Nach jedem Durchgang fließt der Fehler in die Berechnung der neuen Parameter an, wodurch der Lernvorgang erzielt wird. Wie der Beweis in [2] zeigt, ist es möglich, mittels eines KNN die a posteriori- Wahrscheinlichkeit p(q k o t ) zu approximieren. Da der Beweis nur auf dem Minimierungskriterium beruht (und nicht auf der Architektur des Netzwerkes), ist dies mit allen KNNs möglich, die folgende Bedimgungen erfüllen: Das KNN muss auf ein globales Fehler-Minimum trainiert werden (Mean Square Error) Das KNN muss komplex genug sein (also ausreichend viele Parameter besitzen), um eine möglichst gute Klassifikation zu erreichen. Experimentelle Versuche haben ergeben, dass bei einem Training auf einer großen Sprachmenge eine solche Approximation dem richtigen Wert sehr nahe kommt Probleme Bei der Arbeit mit KNNs gibt es diverse Probleme, die auftreten. Die größten sind: Optimierung der Parameter: Obwohl es einige mathematische Verfahren zur Findung des globalen Maximums gibt, ist die Lösung bei einem KNN häufig nur suboptimal. Man kann nie sicher sein, ob man nur ein lokales, oder wirklich das globale Maximum gefunden hat. Ein aufwendiger, aber effizienter Ansatz ist es, mehrere Optimierungsvorgänge mit verschiedenen Startwerten duchzuführen. Die richtige Trainingsmenge finden: Die Trainingsmenge muss möglichst ausgewogen sein und es muss darauf geachtet werden, dass das KNN nicht eine zufällige Übereinstimmung eines unwichtigen Parameters als Eigenschaft lernt, sondern wirklich die relevanten Merkmale erkennt. 8

9 Overfitting vermeiden Bei einer heuristischen Vorgehensweise bei der Netzwekspezifikation kann es vorkommen, dass KNNs die Trainingsdaten auswendig lernen (Overfitting) und Daten, die nicht aus der Trainingsmenge stammen nicht richtig klassifizieren können. Um dies zu vermeiden, muss die Netzwerkarchitektur sehr vorsichtig gewählt und die Anzahl der Einheiten möglichst klein gehalten werden. 3 Hybride HMM/KNN-Systeme KNNs sind zwar in der Lage, Phoneme zu klassifizieren, sind aber nur begrenzt dafür nutzbar kontinuierliche Sprache zu erkennen. Der folgende Ansatz beruht darum auf dem Grundgerüst der HMM-Systeme und nutzt die guten Klassifizierungseigenschaften des KNNs zur Schätzung der Wahrscheinlichkeit P (o t q k ). Diese kann durch das KNN allerdings nicht direkt geschätzt werden, sondern wird auf die im Folgenden beschriebene Weise ermittelt. Abbildung 3: Das MLP 9

10 3.1 Grundaufbau und Training Der Grundaufbau des KNN ist recht klein, wie Abb. 3 zeigt. Es wird ein einfaches MLP mit einer versteckten Schicht aus ca versteckten Neuronen verwendet. Als Eingabe bekommt es 9 26-dimensionale Merkmalsvektoren, zu denen es dann für 61 Phoneme 1 die a-posteriori-wahrscheinlichkeit P (q k x n ) ermittelt. Trainiert wurde das MLP vorher mit gelabelten Merkmalsvektoren, wobei die Wörter nicht in Sprechreihenfolge, sondern zufällig angeordnet eingespeist wurden. Hierdurch wurde die Trainingszeit wesentlich verkürzt und auch ein besseres Ergebnis erzielt. Für kontextbezogene Analyse wie bei einem TNN ist diese Art des Trainings natürlich nicht geeignet. Damit die Ausgabe die Stochastizitätsbedingung i P (q k o t ) = 1 erfüllt, muss abschließend noch eine Normalisierung durchgeführt werden. 3.2 Bayes Theorem Bisher liefert uns das MLP die Wahrscheinlichkeit P (q k o t ). Was allerdings für den Viterbi-Algorithmus benötigt wird ist P (o t q k ). Dies läßt sich allerdings nach Bayes Theorem leicht abschätzen: also P (o t q k ) P (o t ) = P (q k o t ) P (q k ) P (o t q k ) = P (q k o t ) P (o t ) P (q k ) wobei P (o t ) als konstant für alle Klassen angesehen wird und P (q k ) durch Analysen gewonnen werden kann, da es lediglich die Häufikeitsverteilung der einzelnen Phoneme angibt. Die Zusammenarbeit zwischen KNN und HMM zeigt Abb Bewertung Obwohl wir nun die gleichen Wahrscheinlichkeiten mit den KNNs ermittelt haben, wir wir sie auch mit den konventionellen Methoden bekommen hätten, hat dieses Verfahren einige Vorteile: Höhere Genauigkeit: Die Arbeit mit KNNs benötigt keine genauen Kenntnisse der statistischen Verteilung der Phoneme, sondern ermittelt diese selbst. Dadurch 1 passend zu den 61 Phonem-Klassen der TIMIT-Datenbank 10

11 Abbildung 4: Zu jedem Zeitpunkt t bekommt das KNN die Beobachtung o t mit seinem zugehörigen (beidseitigen) Kontext. Das KNN approximiert die a posteriori-wahrscheinlichkeit P (q k o t ) welches durch Anwendung von Bayes Theorem zur Emissionswahrscheinlichkeit P (o t q k ) transformiert werden kann. Diese Wahrscheinlichkeitsdichten werden nun dem HMM für jeden Zeitpunkt t übergeben, was in der Grafik durch die Pfeile dargestellt wird. Sobald alle Wahrscheinlichkeiten ermittelt wurden, kann für das HMM mittels des Viterbi-Algorithmus der optimale Pfad berechnet werden (die Linie in der Grafik) und somit die Wahrscheinlichkeit für das Wort (hier dad ). wird auch die harte Trennung zwischen diskreten und kontinuierlichen Merkmalen vermieden, die bei konventionellen Methoden oft vorgenommen werden muss. Kontextsensibilität Werden zeitabhängige neuronale Netzte verwendet (wie RNN oder TD- NN), so können auch Lautveränderungen, die durch das vorherigen- 11

12 de Phonem verursacht wurden, erkannt werden, was bei einem reinen HMM nicht möglich ist. Flexibilität: Durch den Einsatz von KNNs zur Abschätzung der Wahrscheinlichkeiten, ist es leicht, unterschiedliche Merkmalsvektoren als Kriterium zu nutzen, auch die gleichzeitige Nutzung von diskreten und kontinuierlichen Merkmalen ist möglich. Abbildung 5: Eingebettes Viterbi-Training mit MLP 3.4 Verbesserungen Um mit einem KNN Klasseneinteilungen durchführen zu können, muss es zuerst mit gelabelten Eingaben trainiert werden. Diese Eingaben per Hand zu labeln ist eine sehr aufwändige Arbeit, die mit folgender Verbeserung erleichtert werden soll. 12

13 Als Grundstock dient ein handgelableter Standartwortschatz (z.b. aus der TIMIT-Datenbank für amerikanisches Englisch). Dieser wird anschließend mittels eines eingebetten Viterbi-Trainings iterativ optimiert, wie Abb. 5 zeigt. Literatur [1] Borlaurd, H. and Morgan, N. Hybrid HMM/ANN Systems for Speech Recognition: Overview and New Research Directions. [2] Richard, M.D. and Lippemann, R.P. Neural network classifiers estimate Bayesian a posteriori probabilities, Neural Computation, no. 3, pp ,

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Aufabe 7: Baum-Welch Algorithmus

Aufabe 7: Baum-Welch Algorithmus Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Structurally Evolved Neural Networks for Forecasting

Structurally Evolved Neural Networks for Forecasting Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale

Mehr

TEXTKLASSIFIKATION. WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini

TEXTKLASSIFIKATION. WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini TEXTKLASSIFIKATION WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini GLIEDERUNG 1. Allgemeines Was ist Textklassifikation? 2. Aufbau eines Textklassifikationssystems 3. Arten von Textklassifikationssystemen

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Jan Parthey, Christin Seifert. 22. Mai 2003

Jan Parthey, Christin Seifert. 22. Mai 2003 Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)

Mehr

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede Universität Ulm Seminararbeit zum Thema Data Mining und Statistik: Gemeinsamkeiten und Unterschiede vorgelegt von: Daniel Meschenmoser betreut von: Dr. Tomas Hrycej Dr. Matthias Grabert Ulm, im Februar

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

Part-Of-Speech-Tagging mit Viterbi Algorithmus

Part-Of-Speech-Tagging mit Viterbi Algorithmus Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse -

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Development of Methods to Detect Products Made from Organic Salmon FKZ: 02OE073/1

Mehr

Seminar zum Thema Künstliche Intelligenz:

Seminar zum Thema Künstliche Intelligenz: Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

1 Part-of-Speech Tagging

1 Part-of-Speech Tagging 2. Übung zur Vorlesung NLP Analyse des Wissensrohstoes Text im Sommersemester 2008 Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 28. Mai 2008 1 Part-of-Speech Tagging 1.1 Grundlagen

Mehr

Text Mining 4. Seminar Klassifikation

Text Mining 4. Seminar Klassifikation Text Mining 4. Seminar Klassifikation Stefan Bordag 1. Klassifikation Stringklassifikation (männliche-weibliche Vornamen) Dokument klassifikation Bayesian Neuronal network (Decision tree) (Rule learner)

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Übersicht. 20. Verstärkungslernen

Übersicht. 20. Verstärkungslernen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes

Mehr

Carsten Breuer cb3@informatik.uni-ulm.de

Carsten Breuer cb3@informatik.uni-ulm.de Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Seminar 2004 Sehen und Hören Modelle neuronaler Netze der Sensorintegration zur verbesserten Vokalerkennung Carsten Breuer cb3@informatik.uni-ulm.de

Mehr

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:

Mehr

Black Jack - Kartenzählen

Black Jack - Kartenzählen Black Jack - Kartenzählen Michael Gabler 24.01.2012 Literatur: N. Richard Werthamer: Risk and Reward - The Science of Casino Blackjack, Springer Black Jack - Kartenzählen 1 Wie zähle ich Karten? Historisches

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

weitere Modelle und Methoden

weitere Modelle und Methoden weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens

Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 17.04.2015 Entscheidungsprobleme beim Textmining

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Lösungen zum Buch: Wissensverarbeitung Kapitel 10 Künstliche neuronale Netze Lösung 10.1 (Maschinelles Lernen) a) Ein Computerprogramm lernt aus einer Erfahrung E bezüglich einer Aufgabenklasse T und einer

Mehr

Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem

Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem Kai Groetenhardt Studiengang: Master Informatik 14. Juli 2012 Abstract Inhalt dieser Arbeit ist die Erläuterung

Mehr

Automatische Mustererkennung

Automatische Mustererkennung Automatische Mustererkennung Eine Einführung Eine Präsentation von Valentin Kraft Im Modul Digitale Bildverarbeitung Prof. Vogel FH Düsseldorf WS 12/13 Gliederung Anwendungsgebiete / Definition Ziele Zentrales

Mehr

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf

Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005 Paradigmen im Algorithmenentwurf Problemlösen Problem definieren Algorithmus entwerfen

Mehr

Teil II. Nichtlineare Optimierung

Teil II. Nichtlineare Optimierung Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene

Mehr

Lösungen zu den Übungsaufgaben aus Kapitel 3

Lösungen zu den Übungsaufgaben aus Kapitel 3 Lösungen zu den Übungsaufgaben aus Kapitel 3 Ü3.1: a) Die Start-Buchungslimits betragen b 1 = 25, b 2 = 20 und b 3 = 10. In der folgenden Tabelle sind jeweils die Annahmen ( ) und Ablehnungen ( ) der Anfragen

Mehr

Mächtigkeit von WHILE-Programmen

Mächtigkeit von WHILE-Programmen Mächtigkeit von WHILE-Programmen Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 26. November 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit

Mehr

Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen

Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen Optimale Echtzeit-Personaleinsatzplanung durch Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen 7.05.2006 Frank Köller koeller@iwi.uni-hannover.de Gliederung Motivation Vorgehensweise

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen, Einsatz z.b. für Klassifizierungsaufgaben

Mehr

Neuronale Netze im Data Mining Ein Studenten-Projekt

Neuronale Netze im Data Mining Ein Studenten-Projekt Global Journal on Engineering Education 2004 UICEE Neuronale Netze im Data Mining Ein Studenten-Projekt Uwe Lämmel Hochschule Wismar, Fachbereich Wirtschaft Philipp-Müller-Straße 21, D-23952 Wismar, Deutschland

Mehr

22. Algorithmus der Woche Partnerschaftsvermittlung Drum prüfe, wer sich ewig bindet

22. Algorithmus der Woche Partnerschaftsvermittlung Drum prüfe, wer sich ewig bindet 22. Algorithmus der Woche Partnerschaftsvermittlung Drum prüfe, wer sich ewig bindet Autor Volker Claus, Universität Stuttgart Volker Diekert, Universität Stuttgart Holger Petersen, Universität Stuttgart

Mehr

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht 2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine

Mehr

Einführung in die Informatik I

Einführung in die Informatik I Einführung in die Informatik I Algorithmen und deren Programmierung Prof. Dr. Nikolaus Wulff Definition Algorithmus Ein Algorithmus ist eine präzise formulierte Handlungsanweisung zur Lösung einer gleichartigen

Mehr

DIPLOMARBEIT. zur Erlangung des Grades einer Diplom-Ökonomin der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover

DIPLOMARBEIT. zur Erlangung des Grades einer Diplom-Ökonomin der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover Personaleinsatzplanung im Echtzeitbetrieb in Call Centern mit Künstlichen neuronalen Netzen DIPLOMARBEIT zur Erlangung des Grades einer Diplom-Ökonomin der Wirtschaftswissenschaftlichen Fakultät der Leibniz

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze Modul Informatik Seminar Simon Krenger, Frühlingssemester 2015 Studiengang: Informatik Autor: Simon Krenger Betreuer: Prof. Dr. Jürgen Eckerle Datum: 25.05.2015 Berner Fachhochschule

Mehr

Mit KI gegen SPAM. Proseminar Künstliche Intelligenz

Mit KI gegen SPAM. Proseminar Künstliche Intelligenz Mit KI gegen SPAM Proseminar Künstliche Intelligenz SS 2006 Florian Laib Ausblick Was ist SPAM? Warum SPAM-Filter? Naive Bayes-Verfahren Fallbasiertes Schließen Fallbasierte Filter TiMBL Vergleich der

Mehr

Textmining Klassifikation von Texten Teil 1: Naive Bayes

Textmining Klassifikation von Texten Teil 1: Naive Bayes Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive

Mehr

ULM. Intelligenter Greifarm. ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht. Michael Awiszus Niklas Haas

ULM. Intelligenter Greifarm. ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht. Michael Awiszus Niklas Haas ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht ULM Intelligenter Greifarm Michael Awiszus Niklas Haas Schule: GHRS Sontheim Neustraße 60-62 89567 Sontheim Robert-Bosch-Gymnasium Freistegstraße

Mehr

6. Künstliche Intelligenz

6. Künstliche Intelligenz 6.1. Turing-Test 6.2. Lernen In diesem Abschnitt besprechen wir wie man an Hand von Beispielen lernt, Objekte zu erkennen und verschiedene Dinge voneinander zu unterscheiden. Diese sogenannte Mustererkennung

Mehr

9. Schätzen und Testen bei unbekannter Varianz

9. Schätzen und Testen bei unbekannter Varianz 9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Abschätzung der Vertrauenswürdigkeit von Neuronalen Netzprognosen bei der Prozessoptimierung

Abschätzung der Vertrauenswürdigkeit von Neuronalen Netzprognosen bei der Prozessoptimierung Abschätzung der Vertrauenswürdigkeit von Neuronalen Netzprognosen bei der Prozessoptimierung Prof. Dr.-Ing. Peter Protzel + Dipl.-Phys. Lars Kindermann ++ Dipl.-Inform. Michael Tagscherer ++ Dr. Achim

Mehr

34 5. FINANZMATHEMATIK

34 5. FINANZMATHEMATIK 34 5. FINANZMATHEMATIK 5. Finanzmathematik 5.1. Ein einführendes Beispiel Betrachten wir eine ganz einfache Situation. Wir haben einen Markt, wo es nur erlaubt ist, heute und in einem Monat zu handeln.

Mehr

Seminar Text- und Datamining Datamining-Grundlagen

Seminar Text- und Datamining Datamining-Grundlagen Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation

Mehr

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die

Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p

Mehr

Realisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen

Realisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen Realisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen Prof.Dr.-Ing. K.-D. Morgeneier FH Jena, FB Elektrotechnik und Informationstechnik www.fh-jena.de Gliederung 2. Einführung 3.

Mehr

Innovative Information Retrieval Verfahren

Innovative Information Retrieval Verfahren Thomas Mandl Innovative Information Retrieval Verfahren Hauptseminar Wintersemester 2004/2005 Letzte Sitzung Grundlagen Heterogenität Ursachen Beispiele Lösungsansätze Visualisierung 2D-Karten heute Maschinelles

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Probablistic Neural Network

Probablistic Neural Network Hochschule Wismar University of Applied Sciences Technology, Business and Design Fakultät für Ingenieurwissenschaften, Bereich EuI Probablistic Neural Network Betreuer: Prof. Dr.-Ing. Uwe Lämmel Abgabetermin:

Mehr

Kompakte Graphmodelle handgezeichneter Bilder

Kompakte Graphmodelle handgezeichneter Bilder Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Authentizierung und Bilderkennung Inhaltsverzeichnis Seminar Mustererkennung WS 006/07 Autor: Stefan Lohs 1 Einleitung 1 Das graphische Modell.1

Mehr

4 Greedy-Algorithmen (gierige Algorithmen)

4 Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine

Mehr

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?

Entscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum

Mehr

Lineare Programmierung

Lineare Programmierung Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in

Mehr

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data

Mehr

Statistische Verfahren:

Statistische Verfahren: Statistische Verfahren: Hidden-Markov-Modelle für Multiples Alignment Stochastic Context-Free Grammars (SCFGs) für RNA-Multiples Alignment Übersicht 1 1. Hidden-Markov-Models (HMM) für Multiples Alignment

Mehr

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7.

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7. Semestralklausur zur Vorlesung Web Mining Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7. 2004 Name: Vorname: Matrikelnummer: Fachrichtung: Punkte: (1).... (2)....

Mehr

1.3.5 Clinical Decision Support Systems

1.3.5 Clinical Decision Support Systems Arzneimitteltherapie Thieme Verlag 1.3.5 Clinical Decision Support Systems Marco Egbring, Stefan Russmann, Gerd A. Kullak-Ublick Im Allgemeinen wird unter dem Begriff Clinical Decision Support System (CDSS)

Mehr

Adaptive Behavior from Fixed Weight Networks

Adaptive Behavior from Fixed Weight Networks Adaptive Behavior from Fixed Weight Networks Jonas Zilles, 11. Juni 007 Betreuer: Dr. Mohamed Oubbati 1 Inhaltsverzichnis 1. Abstrakt Seite 3. Einführung Seite 3 3. Problem. Seite 5 3.1. Training. Seite

Mehr

Fachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller

Fachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller Fachhochschule Köln 07 Fakultät für Informations-, Medien-, und Elektrotechnik Institut für Nachrichtentechnik Studiengang Master Technische Informatik Konzepte des maschinellen Lernens Ausarbeitung vorgelegt

Mehr

Monte-Carlo-Simulation

Monte-Carlo-Simulation Modellierung und Simulation Monte-Carlo-Simulation Universität Hamburg Johannes Schlundt 7. Januar 2013 Monte-Carlo-Simulation Johannes S. 1/31 Inhalt Motivation Geschichtliche Entwicklung Monte-Carlo-Simulation

Mehr

Künstliche Neuronale Netze und Data Mining

Künstliche Neuronale Netze und Data Mining Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung

Mehr

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c

Mehr

Computerlinguistische Textanalyse

Computerlinguistische Textanalyse Computerlinguistische Textanalyse 10. Sitzung 06.01.2014 Einführung in die Textklassifikation Franz Matthies Lehrstuhl für Computerlinguistik Institut für Germanistische Sprachwissenschaft Friedrich-Schiller

Mehr

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06 Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und

Mehr

Grundbegriffe der Informatik

Grundbegriffe der Informatik Grundbegriffe der Informatik Einheit 15: Reguläre Ausdrücke und rechtslineare Grammatiken Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009 1/25 Was kann man mit endlichen

Mehr

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination

Mehr

16. All Pairs Shortest Path (ASPS)

16. All Pairs Shortest Path (ASPS) . All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e

Mehr

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)

Literatur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS) Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen

GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen Rheinische Friedrich-Wilhelms-Universität Bonn Institut für Informatik VI Dominik Scherer GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen 8. Juni 2009 Diplomarbeit Erstgutachter: Prof.

Mehr

Termin3 Klassifikation multispektraler Daten unüberwachte Verfahren

Termin3 Klassifikation multispektraler Daten unüberwachte Verfahren Ziel Termin3 Klassifikation multispektraler Daten unüberwachte Verfahren Einteilung (=Klassifikation) der Pixel eines multispektralen Datensatzes in eine endliche Anzahl von Klassen. Es sollen dabei versucht

Mehr

Quelle: www.omekinteractive.com. Ganzkörper- Gestensteuerung. Mit 3-D Sensor (z.b. MS Kinect, ASUS Xtion) Zwischenpräsentation 21.05.

Quelle: www.omekinteractive.com. Ganzkörper- Gestensteuerung. Mit 3-D Sensor (z.b. MS Kinect, ASUS Xtion) Zwischenpräsentation 21.05. Quelle: www.omekinteractive.com Ganzkörper- 1 Gestensteuerung Mit 3-D Sensor (z.b. MS Kinect, ASUS Xtion) Zwischenpräsentation 2 Gliederung Motivation Wozu braucht man eine Gestensteuerung? Aktuelle Anwendungen

Mehr

Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik

Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik Karl Heinz Hoffmann TU Chemnitz Die Professur Stand: 18.07.11 2 Die Professur Professor: Prof. Dr. Karl Heinz Hoffmann

Mehr

Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1.

Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1. Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1. Zusammengefasst aus Ihren Beiträgen Wie bewerten sie das System ingesamt? Das Watson System verdeutlicht den Fortschritt der Künstlichen Intelligenz Forschung/Computerlinguistik/Informatik

Mehr

Bachelorarbeit. Tobias Hassenklöver Klassifikation hochvarianter Muster mit Faltungsnetzwerken

Bachelorarbeit. Tobias Hassenklöver Klassifikation hochvarianter Muster mit Faltungsnetzwerken Bachelorarbeit Tobias Hassenklöver Klassifikation hochvarianter Muster mit Faltungsnetzwerken Fakultät Technik und Informatik Department Informatik Faculty of Engineering and Computer Science Department

Mehr

Data Mining und maschinelles Lernen

Data Mining und maschinelles Lernen Data Mining und maschinelles Lernen Einführung und Anwendung mit WEKA Caren Brinckmann 16. August 2000 http://www.coli.uni-sb.de/~cabr/vortraege/ml.pdf http://www.cs.waikato.ac.nz/ml/weka/ Inhalt Einführung:

Mehr

Hinweise zum Schreiben einer Ausarbeitung

Hinweise zum Schreiben einer Ausarbeitung Seite 1 Hinweise zum Schreiben einer (Physikalisches Praktikum für Physiker) Autor: M. Saß Fakultät für Physik Technische Universität München 24.11.14 Inhaltsverzeichnis 1 Struktur einer 2 1.1 Die Einleitung..............................

Mehr

Bachelorarbeit. Informatik. Entwicklung einer Veranschaulichung von Hidden Markov Modellen zur Unterstützung der Lehre

Bachelorarbeit. Informatik. Entwicklung einer Veranschaulichung von Hidden Markov Modellen zur Unterstützung der Lehre Bachelorarbeit Informatik Entwicklung einer Veranschaulichung von Hidden Markov Modellen zur Unterstützung der Lehre Eingereicht von Chris Jacobs Matrikel Nr.: 184239 Datum: 8. Mai 2012 Eidesstattliche

Mehr