Einführung in die Computerlinguistik

Ähnliche Dokumente
BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Neuronale Netze. Christian Böhm.

Intelligente Algorithmen Einführung in die Technologie

Wissensentdeckung in Datenbanken

Konzepte der AI Neuronale Netze

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wissensentdeckung in Datenbanken

Grundlagen Neuronaler Netze

Künstliche Neuronale Netze

Was sind Neuronale Netze?

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Ein selbstmodellierendes System für die Wasserwirtschaft

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Künstliche Neuronale Netze

Praktische Optimierung

Einführung in Neuronale Netze

Neuronale Netze Aufgaben 3

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1

Neuronale Netze. Anna Wallner. 15. Mai 2007

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Artificial Intelligence. Deep Learning Neuronale Netze

Neural Networks: Architectures and Applications for NLP

Aufbau und Beschreibung Neuronaler Netzwerke

Universität Klagenfurt

Hannah Wester Juan Jose Gonzalez

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Einführung in die Computerlinguistik

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

Einführung in die Methoden der Künstlichen Intelligenz

Einführung in die Computerlinguistik

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Neuronale Netze (I) Biologisches Neuronales Netz

Schriftlicher Test Teilklausur 2

Big Data Künstliche Intelligenz Und das Ich

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

11. Neuronale Netze 1

Proseminar Neuronale Netze Frühjahr 2004

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Neuronale Netze. Automatische Hinderniserkennung Paul Fritsche

Künstliche neuronale Netze

Neuronale Netze. Tilo Buschmann 5. März 2003

Einführung in neuronale Netze

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Seminar Kognitive Robotik. Interne Modelle I Vorwärtsmodelle Vortragender: Rüdiger Timpe

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF

Kohonennetze Selbstorganisierende Karten

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Simulation neuronaler Netzwerke mit TIKAPP

Schriftlicher Test Teilklausur 2

10. Neuronale Netze 1

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Automatische Erkennung und Klassifikation von Körperhaltungen und Aktivitäten

Hidden Markov Models in Anwendungen

Machine Learning - Maschinen besser als das menschliche Gehirn?

Visuelle Vorwärtsmodelle für einen Roboter-Kamera- Kopf

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011

C1/4 - Modellierung und Simulation von Neuronen

Was ist, kann und darf Deep Learning? Dr. Beat Tödtli Laboratory for Web Science

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Implementationsaspekte

Natural Language Processing

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Visuelles Bewusstsein und unbewusste Wahrnehmung. Thomas Schmidt Justus-Liebig-Universität Gießen Abteilung Allgemeine Psychologie 1

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Künstliche neuronale Netze

Kamera-basierte Objekterkennung

Named Entity Recognition auf Basis von Wortlisten

Facharbeit. Ratsgymnasium Bielefeld Schuljahr 2004/2005. aus dem Fach Biologie. Thema: Künstliche neuronale Netze

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging

Neuroinformatik. Übung 1

Ideen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn

GP-Music: An Interactive Genetic Programming System for Music Generation with Automated Fitness

Klassifikation linear separierbarer Probleme

Visualisierung von spikenden neuronalen Netzwerken. Entwicklung einer Webapplikation zum Veröffentlichen von Netzwerkmodellen

in deutschsprachigen Romanen

1 Neuronale Netze Historisches

Das visuelle System. Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems!

Aufmerksamkeit II Bewusstsein

Phonemerkennung mittels Time Delay Neural Networks

Aufgabe 1 Probabilistische Inferenz

Vorbesprechung Mathe III

Nachhaltigkeit des Lernens aus neurobiologischer Sicht

Deep Learning für Automatische Dokumentanalyse

Mann-Whitney-U-Test: Tiefenstufen

Innovative Information Retrieval Verfahren

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Transkript:

Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg

Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre: NEURONALE NETZE Spracherkennungsfehlerrate soweit reduziert, dass freie Eingaben möglich sind. Gesichter / Katzen / Menschen können automatisch erkannt werden.

Neuronale Netze: Das Katzenerkennungsneuron Input: Standbilder von Youtube videos Ein Neuron hat sich auf die Erkennung von Katzen spezialisiert.

Neuronen im Gehirn Soma: Zellkern Dendrit: Signale empfangen Axon: Nachrichten senden schematisches Bild eines menschlichen Neurons im Gehirn

Neuronen im Gehirn Wichtige relevante Fakten: Jedes Neuron hat viele Dendriten (Signale empfangen) und ein Axon (Signale senden) mit mehreren Terminalen. Das Axon eines Neurons sendet ein Signal an das Dendrit eines anderen Neurons. Axonterminal und Dendrit sind durch eine Synapse verbunden (kann Signal verstärken oder dämpfen) Starkes einkommendes Signal à Neuron sendet selbst ein Signal (elektrische Aktivität)

Neuronen im Gehirn Wann feuert ein Neuron? Aktivierung hängt ab von: Wieviele Signale gehen ein bei den Dendriten? Synapse: verstärkend oder dämpfend? Zufall: Aktivierungsfunktion ist nicht deterministisch; höhere Aktivierung erhöht Neuron Output Wahrscheinlichkeit, dass das Neuron feuert. Input Aktivierung

Ein künstliches Neuron Gewicht w 1j = Synapse Lernen: Wenn sich die Synapsengewichte ändern. künstliches Neuron aus einem Neuronalen Netz

Neuronale Netze Neuron Neuronales Netz Input: Beobachtungen Bilder Laute Output: Erkannte Muster Objekt Wort

Perzeptron Erstes Beispiel: Streifendetektor (vertikale Streifen) feuert falls vertikal gestreift Outputneuron Axon-Synapse-Dendrit Inputneuronen

Perzeptron Erstes Beispiel: Streifendetektor (vertikale Streifen) feuert falls vertikal gestreift (oder einfarbig) Outputneuron Axon-Synapse-Dendrit Inputneuronen

Streifenperzeptron

Neuronale Netze sollen selbst lernen Streifenperzeptron: wir haben programmiert welche Inputneuronen wann feuern sollen, und die Gewichte selbst gesetzt (überall zu 1). Wir Menschen haben auch Neuronen in unserer primären Sehrinde, die auf Streifen reagieren. Aber Kindern muss man ja auch nicht erklären, wie sie einen Streifen sehen kann das neuronale Netz das auch selbst lernen?

Lernende Neuronale Netze Damit das Netz lernen kann, müssen wir ihm viele Bilder mit und ohne Streifen zeigen Feedback geben, auf welchen Bildern Streifen sind Richtige Antwort à das Netz muss nichts tun Falsche Antwort à das Netz muss mind. ein Neuron in der Eingabeschicht anweisen, gegenteilige Antwort zu geben

Streifenperzeptron à Neuronales Netz Verbesserungsmöglichkeiten für einfaches Perzeptron: Tiefere Struktur als input-output (eine oder mehr hidden layers) Gewichtung (wie Synapsen) anstelle von Erkennung ob ein bestimmtes Neuron gefeuert hat oder nicht Eingabeneuronen können viel mehr Input bekommen (z.b. gesamtes Bild geht an jedes Eingabeneuron)

Tiefe neuronale Netze

Lernen mit tiefen neuronalen Netzen Wie lernt man jetzt? In welcher Schicht liegt der Fehler, falls am Ende die Ausgabe falsch ist? output layer à Backpropagation jede Schicht meldet an die darunter weiter, falls ein Fehler gemacht wurde. input layer

Lernen ohne Lehrer Wir müssen nicht mehr genau sagen, wie ein Objekt zu erkennen ist. Aber: immernoch müssen wir dem Netz mitteilen, was auf dem Gesamtbild zu sehen ist. für Gesichtererkennung müssten wir immer mitteilen, ob auf einem bestimmten Foto ein Gesicht drauf ist. Es geht! Google brain: 1 Millarde Verbindungen, 9 Schichten, 10 Millionen Bilder, bestimmte Form von Architektur eines neuronalen Netzes: Autoencoder

Autoencoder: optimiert für gute Komprimierung output layer (reconstruct input) hidden layer bottleneck hidden layer hidden layer input layer

Autoencoder lernt, Katzen zu erkennen ohne Trainingsdaten oder Labels Katzenneuron Bilder von denen der Autoencoder glaubt, dass es Katzen sind.

Autoencoders for object recognition

Neuronale Netze Es gibt auch Nachteile: Theoriedefizit! viele Parameter aber nur Heuristiken, wie wir sie setzen sollen. Anzahl Schichten??? Anzahl Neuronen??? Anfangsgewichte??? Lernprotokoll??? à derzeit: ausprobieren!

Was hat das mit Coli zu tun??? Objekterkennung nur als anschauliches Beispiel erster großer Erfolg: Spracherkennung (2009) Fehlerrate sank um 25%: absolut phänomenal. Verfahren ebenso erfolgreich angewendent auf Language modelling POS tagging, named entity recognition Sprachsynthese Document retrieval / Information retrieval semantischer Ähnlichkeit, Paraphrasenerkennung Maschinelle Übersetzung Sentiment analysis

Tiefe neuronale Netze für NLP Feedforward Neural Net Recurrent Neural Net output hidden input

Recurrent Neural Net als Sprachmodell output hidden input input: ein Wort output: rate das nächste Wort à Wahrscheinlichkeitsverteilung (um das nächste Wort erfolgreich raten zu können, muss ein Sprachmodell Sprache gut repräsentieren können.) hidden: Repräsentation vorige Wörter im Satz input: ein Neuron pro Wort im Vokabular output: ein Neuron pro Wort im Vokabular hidden: repräsentiert den bisherigen Satz

Recurrent Neural Net als Sprachmodell output: ein Neuron pro Wort im Vokabular output hidden input das Ei Lied lacht ART VB Tier Kind das Ei Lied lacht ART VB Tier Kind in der hidden layer werden abstrakte Features gelernt eventuell sind einige davon semantisch oder syntaktisch interpretierbar hidden: Repräsentation vorige Wörter im Satz input: ein Neuron pro Wort im Vokabular

Recurrent Neural Net als Sprachmodell output: ein Neuron pro Wort im Vokabular output das Ei Lied lacht hidden ART VB Tier Kind input das Ei Lied lacht ART VB Tier Kind hidden: Repräsentation vorige Wörter im Satz input: das input: ein Neuron pro Wort im Vokabular

Recurrent Neural Net als Sprachmodell output: ein Neuron pro Wort im Vokabular output das Ei Lied lacht hidden ART VB Tier Kind input das Ei Lied lacht ART VB Tier Kind hidden: Repräsentation vorige Wörter im Satz input: Lied input: ein Neuron pro Wort im Vokabular

RNN Language Model mit dem RNN Sprachmodell kann man das nächste Wort besser vorhersagen als vorige Modelle. jedes Wort wird mit dem trainierten Modell als Vektor dargestellt. Bank = 0.13 Tisch 0.05 Schuh 0.24 setzen 0.00002 Lampe 0.0005 Rad 0.1211 Geld output hidden input

(dies ist ein ähnlicher Effekt wie Kontextwörter auszählen, siehe letzte VL)... (A237)... Für diejenigen, denen Komfort wichtig ist, haben wir eine Bank mit leicht schwingender Rückenlehne entwickelt.... (A295)... Ich suche noch eine Bank für meinen Garten und sondiere deshalb gerade Angebote.... (A303)... Habe im März 2000 einen höheren Betrag bei einer Bank angelegt.... (A452)... Beim Test Anlageberatung der Banken löste kein Institut die einfache Frage nach einer sicheren Anlage wirklich gut.......

Vektorrepräsentation von Wörtern

Syntaktische und Semantische Regularitäten in RNNs repräsentiert queen king + man =? queens queen + king=? woman kings (Mikolov et al., 2013)

Syntaktische und Semantische Regularitäten in RNNs repräsentiert Clothing is to shirt as furniture is to? clothing shirt + furniture =? desk (Mikolov et al., 2013)