HMM/KNN zur Spracherkennung
|
|
- Bastian Egger
- vor 6 Jahren
- Abrufe
Transkript
1 HMM/KNN zur Spracherkennung Andreas Hallerbach 18. Januar 2005 Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Hauptseminar Neuroinformatik WS 04/05 Spracherkennung
2 Zusammenfassung Die beiden Hauptverfahren zur automatischen Spracherkennung beruhen auf Hidden Markov Modellen oder neuronalen Netzen. Beide Ansätze haben ihre Vor- und Nachteile und so erscheint es nur logisch, dass es Versuche gibt, die jeweiligen Vorteile zu kombinieren. Der in dieser Ausarbeitung betrachteter Ansatz nimmt dafür das bewährte System der Spracherkennung mittels HMM als Grundtock und nutz ANNs zur besseren Abschätzung benötigter Wahrscheinlichkeiten. Inhaltsverzeichnis 1 Der Grundaufbau des Spracherkennungssystems 3 2 Grundlagen Grundlagen der Hidden Markov Modelle Markov-Ketten Hidden Markov Modelle Viterbi-Algorithmus Grundlagen der Künstlichen Neuronale Netze Der Grundaufbau Training Probleme Hybride HMM/KNN-Systeme Grundaufbau und Training Bayes Theorem Bewertung Verbesserungen
3 1 Der Grundaufbau des Spracherkennungssystems Der Grundaufbau eines typischen Spracherkunnungssystems besteht im allgemeinem aus 5 Hauptkomponenten, die hier nur kurz erläutert werden sollen: 1. Spracherfassung: Hierbei hat das verwendete Equipment einen wesentlichen Einfluss auf die Qualität der späteren Spracherkennung. Allein eine falsche Mikrofon- Position, zu viel Raumhall oder ein zu hohes Hintergrundrauschen können die besten Algorithmen in die Knie zwingen. 2. Front-End: Die Rohdaten werden vorverarbeitet, um Fehler zu minimieren und eine gute Ausgangsbasis für die weitere Verarbeitung zu erlangen. 3. Subworterkennung: Aus dem bereinigten Signal werden (typischerweise für für ein Intervall von 10 Millisekunden) die Merksmalsvektoren für die spätere Verarbeitung extrahiert. Diese Merksmalsvektoren können zum Beispiel Cepstralkoeffizienten, Energiewerte oder Frequenzbereichsstärken sein. Diese werden anschließend mit den Trainingsdaten verglichen und bestimmten Phonemen zugeordnet. Hier wird allerdings nicht nur das beste Resultat geliefert, sondern eine ganze Liste mit den jeweiligen Wahrscheinlichkeiten. 4. Worterkennung: Diese Liste wird nun verwendet, um mit Hilfe eines Wörterbuches eine weitere Liste zu generieren, welche die wahrscheinlichsten Wörter enthält. Hierbei muss auch die Problematik der zeitlichen Variation bei der Aussprache beachtet werden. So werden Vokale bei schneller Sprache oft viel kürzer ausgesprochen, was aber nicht zu einer Beeinträchtigung bei der Spracherkennung führen sollte. 5. Sprachmodell: Die gefundenen Lösungen werden nun im Sprachmodell auf syntaktische Korrektheit überprüft und die beste passende Lösung ausgewählt. Desweiteren müssen Homophone (gleichklingende Wörter) syntaktisch unterschieden werden um die richtigen Wörter für den Kontext zu finden. 3
4 In dieser Ausarbeitung geht es nur um die reine Worterkennung, Syntax und Semantik werden nicht behandelt. 2 Grundlagen 2.1 Grundlagen der Hidden Markov Modelle Hidden Markov Modelle (kurz HMMs) sind in der Spracherkennung die meistgenutzte Technik und beruhen auf dem Prinzip der Markov-Ketten. In der Regel wird für jedes Phonem ein HMM trainiert. Durch die Zusammensetzung mehrerer HMMs werden dann die wahrscheinlisten Wörter ermittelt Markov-Ketten Fundament einer Markov-Kette ist der Vektor S, der aus N durchnummerierten Zuständen besteht. Bei der Spracherkennung wird typischerweise eine links-nach-rechts -Topologie verwendet, was bedeutet, dass man von einem Zustand immer nur zu einem höheren Zustand kommt (Auslassungen sind in manchen Implementionen möglich), allerdings nicht wieder zurück. S = s 1,..., s N Betrachtet man nun eine Zufallsfolge Q = q 1,..., q T mit q t S, so beschreibt π i die Startwahrscheinlichkeit für den Zustand s i : π i = P (q 1 = s i ) mit N π i = 1 Für jeden Wechsel von einem Zustand s i nach s j gibt es zudem eine Übergangswahrscheinlichkeit a ij, die in der Matrix A beschrieben sind: i=1 A = [a ij ] N N mit a ij 0 und a ij = 1 Das hierbei nur der letzte vorhergehende Zustand berücksichtigt wird, ist zwar eine für die Sprache ungültige Vereinfachung, allerdings erleichtert dies den Vorgang deutlich und hat nicht viel Einfluss auf das Ergebnis. Aufgrund der links-nach-rechts -Topologie gilt außerdem a ij = 0 falls j < i. j 4
5 2.1.2 Hidden Markov Modelle Bei Hidden Markov Modellen sind nun die Symbole in der beobachteten Ausgabesequenz von der Markov-Kette entkoppelt, indem mit internen (versteckten) Zuständen gearbeitet wird, die zusätzlich noch Emisionswahrscheinlichkeiten für die Ausgabesymbole in Abhängigkeit vom internen Zustand erhalten. Die Menge der möglichen Merkmalsvektoren X = x 1,..., x n,..., x N wird dazu der Menge der spezifischen HMM-Zustände zugeordnet. Dies ist eine endliche Menge aller K möglichen Zustände Q = q 1,..., q k,..., q K, aus der wiederrum die einzelnen Ketten für jedes HMM M i zusammengesetzt werden, die aus L i Zuständen bestehen: S = s 1,..., s l,..., s L mit s l Q. Neben den oben genannten Start- und Übergangswahrscheinlichkeiten gibt es nun noch die sogenannte Emissionswahrscheinlichkeit P (x n q i ). Also die Wahrscheinlichkeit, dass man Im Zustand q i die Beobachtung x n macht. Eine Veranschaulichung der Zustände und der damit verbundenen Wahrscheinlichkeiten gibt Abb. 1. Um nicht für jedes Wort ein neues HMM modellieren zu müssen, werden in Abbildung 1: Ein HMM mit drei Zuständen. der Regel nur Phoneme modelliert, aus denen dann die Wörter zusammengesetzt werden Viterbi-Algorithmus Eine wichtige Frage bei der Spracherkennung ist nun, wie man die optimale Zustandsfolge Q = s 1,..., s t,..., s T mit s t Q zu einer gegebenen Beobachtung O = o 1,..., o t,..., o T mit o t X findet. Der hier beschriebene An- 5
6 satz nennt sich Viterbi-Algorithmus und beruht auf dem iterativen Berechnen der Wahrscheinlichket von Teilstücken der Gesamtkette. Hierfür definieren wir uns zwei Variabeln δ t (i) und ψ t (i). δ t (i) bezeichnet hierbei die höchste Wahrscheinlichkeit über alle Pfade der Länge t, die im Zustand q i enden. Für diesen wahrscheinlichsten Pfad gibt ψ t (i) den Zustand vor q i an, also den Zustand an der Stelle t 1. Hier nun der Ablauf des Algorithmus: Initialisierung: Induktion: δ 1 (k) := π k P (o 1 q k ) 1 k K ψ 1 (k) := 0 1 k K δ t (i) := max 1 k K (δ t 1(k) a ki ) P (o t q i ) 1 i K 1 t T Terminierung: Rückverfolgung: ψ t (i) := arg max 1 k K (δ t 1(k)a ki ) 1 i K 1 t T q T := arg max 1 k K (δ T (k)) q t := ψ t+1 (q t+1 ) t = T 1, T 2,..., 1 Die optimale Zustandsfolge ist nun Q := qt, q T 1,..., q 1 und hat die Wahrscheinlichkeit P := max (δ T (k)). 1 k K Die in diesem Algorithmus häufig auftauchende Wahrscheinlichkeit P (o t q k ) hat in dieser Ausarbeitung eine wichtige Rolle, da sie später mittels eines KNN geschätzt wird. 2.2 Grundlagen der Künstlichen Neuronale Netze Ein künstliches neuronales Netz (KNN) ist der Versuch, die neuronalen Schaltvorgänge im Gehirn des Menschen zu simulieren und so ein System zu schaffen, das in der Lage ist zu lernen und Muster klassifizieren zu können Der Grundaufbau Die Form des KNN, die in dieser Ausarbeitung genutz wird, ist das Multi- Layer-Perzeptron (MLP), darum wird im folgenden auch nur dessen Aufbau beschrieben. 6
7 Ein KNN besteht aus einer beliebigen Anzahl von Neuronen u, die untereinander über Ein- und Ausgabeleitungen miteinander verbunden sind. Dabei kann ein Neuron variabel viele Ein- und Ausgänge haben. Jedes Neuron berechnet über die Eingänge eine Funktion, deren Funktionswert an die Ausgänge angelegt wird. Typischerweise erhalten bei einer solchen Funktion alle Eingänge eine Gewichtung und der Vergleich der gewichteten Summe mit einem Schwellwert entscheidet über die Ausgabe. Natürlich könen die Funktionen aber auch komplexer sein. In einem MLP gibt es drei Schichten von Neuronen: Eingabeschicht, versteckte Schicht und Ausgabeschicht. Ein Eingabeneuron bekommt ihre Eingabe von außerhalb des Netzes, ein Ausgabeneuron gibt ihre Ausgabe nicht ins eigene Netz, sondern nach außen weiter. Versteckte Neuronen haben keinen Kontakt zur Außenwelt, sondern bekommen ihre Eingaben nur aus anderen neuronen ihres Netzes und geben auch nur an solche Neuronen ihre Ausgaben weiter. MLPs sind im Normalfall feed-forward-netze, was bedeutet, dass jede Schicht ihre Eingaben von der vorherigen Schicht bekommt und an die nachfolgende Schicht ihre Ausgaben weitergibt. Netzwerke mit Rückkopplungen sind allerdings auch möglich. Abbildung 2: Ein MLP mit einer versteckten Schicht Training Ein KNN lernt das Klassifizieren, indem man ihn mit genügend Trainingsdaten füttert. Man kann auch schon erste Annahmen über die Modellzu- 7
8 sammenhänge einbringen, muss dies aber nicht, ein KNN kann auch ohne Grundwissen lernen. Grundsätzlich gibt es zwei verschiedene Lernverfahren. Überwachtes Lernen wird eingesetzt, wenn Beispiellösungen bekannt sind. Zu jeder Ausgabe des KNNs kann dan explizit der Fehler ausgerechnet und zur Gewichtungskorrektur herangezogen werden. Steht die Problemlösung aber noch nicht fest (z.b. die Herausbildung vo Merkmalen zur Segmentierung von Daten), so wird das KNN mit einem unüberwachten Lernverfahren trainiert. Nach jedem Durchgang fließt der Fehler in die Berechnung der neuen Parameter an, wodurch der Lernvorgang erzielt wird. Wie der Beweis in [2] zeigt, ist es möglich, mittels eines KNN die a posteriori- Wahrscheinlichkeit p(q k o t ) zu approximieren. Da der Beweis nur auf dem Minimierungskriterium beruht (und nicht auf der Architektur des Netzwerkes), ist dies mit allen KNNs möglich, die folgende Bedimgungen erfüllen: Das KNN muss auf ein globales Fehler-Minimum trainiert werden (Mean Square Error) Das KNN muss komplex genug sein (also ausreichend viele Parameter besitzen), um eine möglichst gute Klassifikation zu erreichen. Experimentelle Versuche haben ergeben, dass bei einem Training auf einer großen Sprachmenge eine solche Approximation dem richtigen Wert sehr nahe kommt Probleme Bei der Arbeit mit KNNs gibt es diverse Probleme, die auftreten. Die größten sind: Optimierung der Parameter: Obwohl es einige mathematische Verfahren zur Findung des globalen Maximums gibt, ist die Lösung bei einem KNN häufig nur suboptimal. Man kann nie sicher sein, ob man nur ein lokales, oder wirklich das globale Maximum gefunden hat. Ein aufwendiger, aber effizienter Ansatz ist es, mehrere Optimierungsvorgänge mit verschiedenen Startwerten duchzuführen. Die richtige Trainingsmenge finden: Die Trainingsmenge muss möglichst ausgewogen sein und es muss darauf geachtet werden, dass das KNN nicht eine zufällige Übereinstimmung eines unwichtigen Parameters als Eigenschaft lernt, sondern wirklich die relevanten Merkmale erkennt. 8
9 Overfitting vermeiden Bei einer heuristischen Vorgehensweise bei der Netzwekspezifikation kann es vorkommen, dass KNNs die Trainingsdaten auswendig lernen (Overfitting) und Daten, die nicht aus der Trainingsmenge stammen nicht richtig klassifizieren können. Um dies zu vermeiden, muss die Netzwerkarchitektur sehr vorsichtig gewählt und die Anzahl der Einheiten möglichst klein gehalten werden. 3 Hybride HMM/KNN-Systeme KNNs sind zwar in der Lage, Phoneme zu klassifizieren, sind aber nur begrenzt dafür nutzbar kontinuierliche Sprache zu erkennen. Der folgende Ansatz beruht darum auf dem Grundgerüst der HMM-Systeme und nutzt die guten Klassifizierungseigenschaften des KNNs zur Schätzung der Wahrscheinlichkeit P (o t q k ). Diese kann durch das KNN allerdings nicht direkt geschätzt werden, sondern wird auf die im Folgenden beschriebene Weise ermittelt. Abbildung 3: Das MLP 9
10 3.1 Grundaufbau und Training Der Grundaufbau des KNN ist recht klein, wie Abb. 3 zeigt. Es wird ein einfaches MLP mit einer versteckten Schicht aus ca versteckten Neuronen verwendet. Als Eingabe bekommt es 9 26-dimensionale Merkmalsvektoren, zu denen es dann für 61 Phoneme 1 die a-posteriori-wahrscheinlichkeit P (q k x n ) ermittelt. Trainiert wurde das MLP vorher mit gelabelten Merkmalsvektoren, wobei die Wörter nicht in Sprechreihenfolge, sondern zufällig angeordnet eingespeist wurden. Hierdurch wurde die Trainingszeit wesentlich verkürzt und auch ein besseres Ergebnis erzielt. Für kontextbezogene Analyse wie bei einem TNN ist diese Art des Trainings natürlich nicht geeignet. Damit die Ausgabe die Stochastizitätsbedingung i P (q k o t ) = 1 erfüllt, muss abschließend noch eine Normalisierung durchgeführt werden. 3.2 Bayes Theorem Bisher liefert uns das MLP die Wahrscheinlichkeit P (q k o t ). Was allerdings für den Viterbi-Algorithmus benötigt wird ist P (o t q k ). Dies läßt sich allerdings nach Bayes Theorem leicht abschätzen: also P (o t q k ) P (o t ) = P (q k o t ) P (q k ) P (o t q k ) = P (q k o t ) P (o t ) P (q k ) wobei P (o t ) als konstant für alle Klassen angesehen wird und P (q k ) durch Analysen gewonnen werden kann, da es lediglich die Häufikeitsverteilung der einzelnen Phoneme angibt. Die Zusammenarbeit zwischen KNN und HMM zeigt Abb Bewertung Obwohl wir nun die gleichen Wahrscheinlichkeiten mit den KNNs ermittelt haben, wir wir sie auch mit den konventionellen Methoden bekommen hätten, hat dieses Verfahren einige Vorteile: Höhere Genauigkeit: Die Arbeit mit KNNs benötigt keine genauen Kenntnisse der statistischen Verteilung der Phoneme, sondern ermittelt diese selbst. Dadurch 1 passend zu den 61 Phonem-Klassen der TIMIT-Datenbank 10
11 Abbildung 4: Zu jedem Zeitpunkt t bekommt das KNN die Beobachtung o t mit seinem zugehörigen (beidseitigen) Kontext. Das KNN approximiert die a posteriori-wahrscheinlichkeit P (q k o t ) welches durch Anwendung von Bayes Theorem zur Emissionswahrscheinlichkeit P (o t q k ) transformiert werden kann. Diese Wahrscheinlichkeitsdichten werden nun dem HMM für jeden Zeitpunkt t übergeben, was in der Grafik durch die Pfeile dargestellt wird. Sobald alle Wahrscheinlichkeiten ermittelt wurden, kann für das HMM mittels des Viterbi-Algorithmus der optimale Pfad berechnet werden (die Linie in der Grafik) und somit die Wahrscheinlichkeit für das Wort (hier dad ). wird auch die harte Trennung zwischen diskreten und kontinuierlichen Merkmalen vermieden, die bei konventionellen Methoden oft vorgenommen werden muss. Kontextsensibilität Werden zeitabhängige neuronale Netzte verwendet (wie RNN oder TD- NN), so können auch Lautveränderungen, die durch das vorherigen- 11
12 de Phonem verursacht wurden, erkannt werden, was bei einem reinen HMM nicht möglich ist. Flexibilität: Durch den Einsatz von KNNs zur Abschätzung der Wahrscheinlichkeiten, ist es leicht, unterschiedliche Merkmalsvektoren als Kriterium zu nutzen, auch die gleichzeitige Nutzung von diskreten und kontinuierlichen Merkmalen ist möglich. Abbildung 5: Eingebettes Viterbi-Training mit MLP 3.4 Verbesserungen Um mit einem KNN Klasseneinteilungen durchführen zu können, muss es zuerst mit gelabelten Eingaben trainiert werden. Diese Eingaben per Hand zu labeln ist eine sehr aufwändige Arbeit, die mit folgender Verbeserung erleichtert werden soll. 12
13 Als Grundstock dient ein handgelableter Standartwortschatz (z.b. aus der TIMIT-Datenbank für amerikanisches Englisch). Dieser wird anschließend mittels eines eingebetten Viterbi-Trainings iterativ optimiert, wie Abb. 5 zeigt. Literatur [1] Borlaurd, H. and Morgan, N. Hybrid HMM/ANN Systems for Speech Recognition: Overview and New Research Directions. [2] Richard, M.D. and Lippemann, R.P. Neural network classifiers estimate Bayesian a posteriori probabilities, Neural Computation, no. 3, pp ,
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische
MehrNeuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
MehrSoftcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003
Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung
MehrKohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
MehrAufabe 7: Baum-Welch Algorithmus
Effiziente Algorithmen VU Ausarbeitung Aufabe 7: Baum-Welch Algorithmus Florian Fest, Matr. Nr.0125496 baskit@generationfun.at Claudia Hermann, Matr. Nr.0125532 e0125532@stud4.tuwien.ac.at Matteo Savio,
Mehr6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)
6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden
MehrStructurally Evolved Neural Networks for Forecasting
Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale
MehrTEXTKLASSIFIKATION. WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini
TEXTKLASSIFIKATION WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini GLIEDERUNG 1. Allgemeines Was ist Textklassifikation? 2. Aufbau eines Textklassifikationssystems 3. Arten von Textklassifikationssystemen
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2
MehrJan Parthey, Christin Seifert. 22. Mai 2003
Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.
MehrPersonalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.
Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen
Mehrx 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen
5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x
Mehr(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim
(künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)
MehrData Mining und Statistik: Gemeinsamkeiten und Unterschiede
Universität Ulm Seminararbeit zum Thema Data Mining und Statistik: Gemeinsamkeiten und Unterschiede vorgelegt von: Daniel Meschenmoser betreut von: Dr. Tomas Hrycej Dr. Matthias Grabert Ulm, im Februar
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrDas Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell
Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen
MehrPart-Of-Speech-Tagging mit Viterbi Algorithmus
Part-Of-Speech-Tagging mit Viterbi Algorithmus HS Endliche Automaten Inna Nickel, Julia Konstantinova 19.07.2010 1 / 21 Gliederung 1 Motivation 2 Theoretische Grundlagen Hidden Markov Model Viterbi Algorithmus
MehrNeuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten
MehrEntwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse -
Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Development of Methods to Detect Products Made from Organic Salmon FKZ: 02OE073/1
MehrSeminar zum Thema Künstliche Intelligenz:
Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden
MehrComputational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
Mehr3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)
3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume
MehrHochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer
Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind
MehrNeuronale Netze (I) Biologisches Neuronales Netz
Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung
Mehr1 Part-of-Speech Tagging
2. Übung zur Vorlesung NLP Analyse des Wissensrohstoes Text im Sommersemester 2008 Dr. Andreas Hotho, Dipl.-Inform. Dominik Benz, Wi.-Inf. Beate Krause 28. Mai 2008 1 Part-of-Speech Tagging 1.1 Grundlagen
MehrText Mining 4. Seminar Klassifikation
Text Mining 4. Seminar Klassifikation Stefan Bordag 1. Klassifikation Stringklassifikation (männliche-weibliche Vornamen) Dokument klassifikation Bayesian Neuronal network (Decision tree) (Rule learner)
MehrSimulation neuronaler Netzwerke mit TIKAPP
Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?
MehrÜbersicht. 20. Verstärkungslernen
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes
MehrCarsten Breuer cb3@informatik.uni-ulm.de
Universität Ulm Fakultät für Informatik Abteilung Neuroinformatik Seminar 2004 Sehen und Hören Modelle neuronaler Netze der Sensorintegration zur verbesserten Vokalerkennung Carsten Breuer cb3@informatik.uni-ulm.de
MehrVom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung
Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:
MehrBlack Jack - Kartenzählen
Black Jack - Kartenzählen Michael Gabler 24.01.2012 Literatur: N. Richard Werthamer: Risk and Reward - The Science of Casino Blackjack, Springer Black Jack - Kartenzählen 1 Wie zähle ich Karten? Historisches
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
Mehrweitere Modelle und Methoden
weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian
MehrVorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrSeminar Textmining SS 2015 Grundlagen des Maschinellen Lernens
Seminar Textmining SS 2015 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 17.04.2015 Entscheidungsprobleme beim Textmining
MehrKünstliche neuronale Netze
Lösungen zum Buch: Wissensverarbeitung Kapitel 10 Künstliche neuronale Netze Lösung 10.1 (Maschinelles Lernen) a) Ein Computerprogramm lernt aus einer Erfahrung E bezüglich einer Aufgabenklasse T und einer
MehrHandschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem
Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem Kai Groetenhardt Studiengang: Master Informatik 14. Juli 2012 Abstract Inhalt dieser Arbeit ist die Erläuterung
MehrAutomatische Mustererkennung
Automatische Mustererkennung Eine Einführung Eine Präsentation von Valentin Kraft Im Modul Digitale Bildverarbeitung Prof. Vogel FH Düsseldorf WS 12/13 Gliederung Anwendungsgebiete / Definition Ziele Zentrales
MehrBabeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005. Paradigmen im Algorithmenentwurf
Babeș-Bolyai Universität Cluj Napoca Fakultät für Mathematik und Informatik Grundlagen der Programmierung MLG5005 Paradigmen im Algorithmenentwurf Problemlösen Problem definieren Algorithmus entwerfen
MehrTeil II. Nichtlineare Optimierung
Teil II Nichtlineare Optimierung 60 Kapitel 1 Einleitung In diesem Abschnitt wird die Optimierung von Funktionen min {f(x)} x Ω betrachtet, wobei Ω R n eine abgeschlossene Menge und f : Ω R eine gegebene
MehrLösungen zu den Übungsaufgaben aus Kapitel 3
Lösungen zu den Übungsaufgaben aus Kapitel 3 Ü3.1: a) Die Start-Buchungslimits betragen b 1 = 25, b 2 = 20 und b 3 = 10. In der folgenden Tabelle sind jeweils die Annahmen ( ) und Ablehnungen ( ) der Anfragen
MehrMächtigkeit von WHILE-Programmen
Mächtigkeit von WHILE-Programmen Prof. Dr. Berthold Vöcking Lehrstuhl Informatik 1 Algorithmen und Komplexität RWTH Aachen 26. November 2009 Berthold Vöcking, Informatik 1 () Vorlesung Berechenbarkeit
MehrApproximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen
Optimale Echtzeit-Personaleinsatzplanung durch Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen 7.05.2006 Frank Köller koeller@iwi.uni-hannover.de Gliederung Motivation Vorgehensweise
MehrKapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen
Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen
MehrNeuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen, Einsatz z.b. für Klassifizierungsaufgaben
MehrNeuronale Netze im Data Mining Ein Studenten-Projekt
Global Journal on Engineering Education 2004 UICEE Neuronale Netze im Data Mining Ein Studenten-Projekt Uwe Lämmel Hochschule Wismar, Fachbereich Wirtschaft Philipp-Müller-Straße 21, D-23952 Wismar, Deutschland
Mehr22. Algorithmus der Woche Partnerschaftsvermittlung Drum prüfe, wer sich ewig bindet
22. Algorithmus der Woche Partnerschaftsvermittlung Drum prüfe, wer sich ewig bindet Autor Volker Claus, Universität Stuttgart Volker Diekert, Universität Stuttgart Holger Petersen, Universität Stuttgart
Mehr2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht
2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine
MehrEinführung in die Informatik I
Einführung in die Informatik I Algorithmen und deren Programmierung Prof. Dr. Nikolaus Wulff Definition Algorithmus Ein Algorithmus ist eine präzise formulierte Handlungsanweisung zur Lösung einer gleichartigen
MehrDIPLOMARBEIT. zur Erlangung des Grades einer Diplom-Ökonomin der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover
Personaleinsatzplanung im Echtzeitbetrieb in Call Centern mit Künstlichen neuronalen Netzen DIPLOMARBEIT zur Erlangung des Grades einer Diplom-Ökonomin der Wirtschaftswissenschaftlichen Fakultät der Leibniz
Mehr(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim
(künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,
MehrKünstliche Neuronale Netze
Künstliche Neuronale Netze Modul Informatik Seminar Simon Krenger, Frühlingssemester 2015 Studiengang: Informatik Autor: Simon Krenger Betreuer: Prof. Dr. Jürgen Eckerle Datum: 25.05.2015 Berner Fachhochschule
MehrMit KI gegen SPAM. Proseminar Künstliche Intelligenz
Mit KI gegen SPAM Proseminar Künstliche Intelligenz SS 2006 Florian Laib Ausblick Was ist SPAM? Warum SPAM-Filter? Naive Bayes-Verfahren Fallbasiertes Schließen Fallbasierte Filter TiMBL Vergleich der
MehrTextmining Klassifikation von Texten Teil 1: Naive Bayes
Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive
MehrULM. Intelligenter Greifarm. ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht. Michael Awiszus Niklas Haas
ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht ULM Intelligenter Greifarm Michael Awiszus Niklas Haas Schule: GHRS Sontheim Neustraße 60-62 89567 Sontheim Robert-Bosch-Gymnasium Freistegstraße
Mehr6. Künstliche Intelligenz
6.1. Turing-Test 6.2. Lernen In diesem Abschnitt besprechen wir wie man an Hand von Beispielen lernt, Objekte zu erkennen und verschiedene Dinge voneinander zu unterscheiden. Diese sogenannte Mustererkennung
Mehr9. Schätzen und Testen bei unbekannter Varianz
9. Schätzen und Testen bei unbekannter Varianz Dr. Antje Kiesel Institut für Angewandte Mathematik WS 2011/2012 Schätzen und Testen bei unbekannter Varianz Wenn wir die Standardabweichung σ nicht kennen,
Mehr2. Lernen von Entscheidungsbäumen
2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrAbschätzung der Vertrauenswürdigkeit von Neuronalen Netzprognosen bei der Prozessoptimierung
Abschätzung der Vertrauenswürdigkeit von Neuronalen Netzprognosen bei der Prozessoptimierung Prof. Dr.-Ing. Peter Protzel + Dipl.-Phys. Lars Kindermann ++ Dipl.-Inform. Michael Tagscherer ++ Dr. Achim
Mehr34 5. FINANZMATHEMATIK
34 5. FINANZMATHEMATIK 5. Finanzmathematik 5.1. Ein einführendes Beispiel Betrachten wir eine ganz einfache Situation. Wir haben einen Markt, wo es nur erlaubt ist, heute und in einem Monat zu handeln.
MehrSeminar Text- und Datamining Datamining-Grundlagen
Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation
MehrSatz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die
Satz 2.8.3: Sei Q eine Intensitätsmatrix. Dann hat die Rückwärtsgleichung P (t) = QP (t), P (0) = E eine minimale nicht negative Lösung (P (t) : t 0). Die Lösung bildet eine Matrix Halbgruppe, d.h. P (s)p
MehrRealisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen
Realisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen Prof.Dr.-Ing. K.-D. Morgeneier FH Jena, FB Elektrotechnik und Informationstechnik www.fh-jena.de Gliederung 2. Einführung 3.
MehrInnovative Information Retrieval Verfahren
Thomas Mandl Innovative Information Retrieval Verfahren Hauptseminar Wintersemester 2004/2005 Letzte Sitzung Grundlagen Heterogenität Ursachen Beispiele Lösungsansätze Visualisierung 2D-Karten heute Maschinelles
MehrMotivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.
Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später
MehrProbablistic Neural Network
Hochschule Wismar University of Applied Sciences Technology, Business and Design Fakultät für Ingenieurwissenschaften, Bereich EuI Probablistic Neural Network Betreuer: Prof. Dr.-Ing. Uwe Lämmel Abgabetermin:
MehrKompakte Graphmodelle handgezeichneter Bilder
Kompakte Graphmodelle handgezeichneter Bilder Einbeziehung in Authentizierung und Bilderkennung Inhaltsverzeichnis Seminar Mustererkennung WS 006/07 Autor: Stefan Lohs 1 Einleitung 1 Das graphische Modell.1
Mehr4 Greedy-Algorithmen (gierige Algorithmen)
Greedy-Algorithmen (gierige Algorithmen) Greedy-Algorithmen werden oft für die exakte oder approximative Lösung von Optimierungsproblemen verwendet. Typischerweise konstruiert ein Greedy-Algorithmus eine
MehrEntscheidungsbäume. Definition Entscheidungsbaum. Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen?
Entscheidungsbäume Frage: Gibt es einen Sortieralgorithmus mit o(n log n) Vergleichen? Definition Entscheidungsbaum Sei T ein Binärbaum und A = {a 1,..., a n } eine zu sortierenden Menge. T ist ein Entscheidungsbaum
MehrLineare Programmierung
Lineare Programmierung WS 2003/04 Rolle der Linearen Programmierung für das TSP 1954: Dantzig, Fulkerson & Johnson lösen das TSP für 49 US-Städte (ca. 6.2 10 60 mögliche Touren) 1998: 13.509 Städte in
MehrBegriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining
Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data
MehrStatistische Verfahren:
Statistische Verfahren: Hidden-Markov-Modelle für Multiples Alignment Stochastic Context-Free Grammars (SCFGs) für RNA-Multiples Alignment Übersicht 1 1. Hidden-Markov-Models (HMM) für Multiples Alignment
MehrSemestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7.
Semestralklausur zur Vorlesung Web Mining Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin: 22. 7. 2004 Name: Vorname: Matrikelnummer: Fachrichtung: Punkte: (1).... (2)....
Mehr1.3.5 Clinical Decision Support Systems
Arzneimitteltherapie Thieme Verlag 1.3.5 Clinical Decision Support Systems Marco Egbring, Stefan Russmann, Gerd A. Kullak-Ublick Im Allgemeinen wird unter dem Begriff Clinical Decision Support System (CDSS)
MehrAdaptive Behavior from Fixed Weight Networks
Adaptive Behavior from Fixed Weight Networks Jonas Zilles, 11. Juni 007 Betreuer: Dr. Mohamed Oubbati 1 Inhaltsverzichnis 1. Abstrakt Seite 3. Einführung Seite 3 3. Problem. Seite 5 3.1. Training. Seite
MehrFachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller
Fachhochschule Köln 07 Fakultät für Informations-, Medien-, und Elektrotechnik Institut für Nachrichtentechnik Studiengang Master Technische Informatik Konzepte des maschinellen Lernens Ausarbeitung vorgelegt
MehrMonte-Carlo-Simulation
Modellierung und Simulation Monte-Carlo-Simulation Universität Hamburg Johannes Schlundt 7. Januar 2013 Monte-Carlo-Simulation Johannes S. 1/31 Inhalt Motivation Geschichtliche Entwicklung Monte-Carlo-Simulation
MehrKünstliche Neuronale Netze und Data Mining
Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung
MehrKapitel LF: IV. IV. Neuronale Netze
Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c
MehrComputerlinguistische Textanalyse
Computerlinguistische Textanalyse 10. Sitzung 06.01.2014 Einführung in die Textklassifikation Franz Matthies Lehrstuhl für Computerlinguistik Institut für Germanistische Sprachwissenschaft Friedrich-Schiller
MehrKapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06
Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und
MehrGrundbegriffe der Informatik
Grundbegriffe der Informatik Einheit 15: Reguläre Ausdrücke und rechtslineare Grammatiken Thomas Worsch Universität Karlsruhe, Fakultät für Informatik Wintersemester 2008/2009 1/25 Was kann man mit endlichen
MehrComputer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10
Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination
Mehr16. All Pairs Shortest Path (ASPS)
. All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e
MehrLiteratur. Dominating Set (DS) Dominating Sets in Sensornetzen. Problem Minimum Dominating Set (MDS)
Dominating Set 59 Literatur Dominating Set Grundlagen 60 Dominating Set (DS) M. V. Marathe, H. Breu, H.B. Hunt III, S. S. Ravi, and D. J. Rosenkrantz: Simple Heuristics for Unit Disk Graphs. Networks 25,
MehrData Mining-Modelle und -Algorithmen
Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,
MehrGPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen
Rheinische Friedrich-Wilhelms-Universität Bonn Institut für Informatik VI Dominik Scherer GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen 8. Juni 2009 Diplomarbeit Erstgutachter: Prof.
MehrTermin3 Klassifikation multispektraler Daten unüberwachte Verfahren
Ziel Termin3 Klassifikation multispektraler Daten unüberwachte Verfahren Einteilung (=Klassifikation) der Pixel eines multispektralen Datensatzes in eine endliche Anzahl von Klassen. Es sollen dabei versucht
MehrQuelle: www.omekinteractive.com. Ganzkörper- Gestensteuerung. Mit 3-D Sensor (z.b. MS Kinect, ASUS Xtion) Zwischenpräsentation 21.05.
Quelle: www.omekinteractive.com Ganzkörper- 1 Gestensteuerung Mit 3-D Sensor (z.b. MS Kinect, ASUS Xtion) Zwischenpräsentation 2 Gliederung Motivation Wozu braucht man eine Gestensteuerung? Aktuelle Anwendungen
MehrProfessurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik
Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik Karl Heinz Hoffmann TU Chemnitz Die Professur Stand: 18.07.11 2 Die Professur Professor: Prof. Dr. Karl Heinz Hoffmann
MehrLösungsvorschlag für das Übungsblatt 1. Aufgabe 1.
Lösungsvorschlag für das Übungsblatt 1. Aufgabe 1. Zusammengefasst aus Ihren Beiträgen Wie bewerten sie das System ingesamt? Das Watson System verdeutlicht den Fortschritt der Künstlichen Intelligenz Forschung/Computerlinguistik/Informatik
MehrBachelorarbeit. Tobias Hassenklöver Klassifikation hochvarianter Muster mit Faltungsnetzwerken
Bachelorarbeit Tobias Hassenklöver Klassifikation hochvarianter Muster mit Faltungsnetzwerken Fakultät Technik und Informatik Department Informatik Faculty of Engineering and Computer Science Department
MehrData Mining und maschinelles Lernen
Data Mining und maschinelles Lernen Einführung und Anwendung mit WEKA Caren Brinckmann 16. August 2000 http://www.coli.uni-sb.de/~cabr/vortraege/ml.pdf http://www.cs.waikato.ac.nz/ml/weka/ Inhalt Einführung:
MehrHinweise zum Schreiben einer Ausarbeitung
Seite 1 Hinweise zum Schreiben einer (Physikalisches Praktikum für Physiker) Autor: M. Saß Fakultät für Physik Technische Universität München 24.11.14 Inhaltsverzeichnis 1 Struktur einer 2 1.1 Die Einleitung..............................
MehrBachelorarbeit. Informatik. Entwicklung einer Veranschaulichung von Hidden Markov Modellen zur Unterstützung der Lehre
Bachelorarbeit Informatik Entwicklung einer Veranschaulichung von Hidden Markov Modellen zur Unterstützung der Lehre Eingereicht von Chris Jacobs Matrikel Nr.: 184239 Datum: 8. Mai 2012 Eidesstattliche
Mehr