Neural Networks: Architectures and Applications for NLP

Ähnliche Dokumente
Programmieren in natürlicher Sprache: Alice-Kontrollstrukturen

Cognitive Systems Master thesis

Huston, Geoff: Internet Performance Survival Guide, QoS Strategies for Multiservice Networks, John Wiley & Sons, 2000, 550 Seiten, DM 98.

Sicherheit / Sicherung - unterschiedliche Begriffsbestimmung, gemeinsame Fachaspekte

Background for Hybrid Processing

Proposal zur Masterarbeit. Kombination der neuroevolutionären Methoden EANT mit Q-Learning und CMA-ES

Proseminar - Data Mining

Prüfungsplan Master of Science in Wirtschaftsinformatik

Vorlesung Automotive Software Engineering Prüfung Sommersemester 2015

Leitfaden für die Erstellung eines individuellen Stundenplans mit UnivIS/ How to make up your individual timetable with UnivIS

Proseminar - Data Mining

Algorithmen und Datenstrukturen (ESE) Entwurf, Analyse und Umsetzung von Algorithmen (IEMS) WS 2014 / 2015 Vorlesung 15, Donnerstag, 12.

Kybernetik Einführung

Willkommen zum neuen Semester!

Intelligente Unterstützung für argumentatives Schreiben

Konferenzseminar IT-Sicherheit

Sommer Verzeichnis der Lehrveranstaltungen. Institut für Technische Informatik (ZITI) (Stand: )

Bioinformatik I (Einführung)

Programmierung 2. Organisatorisches. Sebastian Hack. Klaas Boesche. Sommersemester

Offenes Lernen, Vortrag auf der Jahreskonferenz des Arbeitskreises Politik- Gesellschaft-Umwelt im Deutschen Volkshochschul-Verband

Lehrveranstaltungsverzeichnis für den Studienplan 921 Masterstudium Informatik (03W) 15W

Business Computing and Operations Research (RAIBCOR)

unter Verwendung von Folien von Herrn Prof. Dr. Flensburg, von Laudon/Laudon/Schoder und von Frau Prof. Dr. Schuhbauer

Herzlich Willkommen zum Seminar

Ein Vergleich von Methoden für Multi-klassen Support Vector Maschinen

Sprachtechnologie in der Wissenschaft: Digital-Turn in evidenzbasierter Bildungsforschung und -information

Interactive exploration of neural networks in Python. 3-d simulation of the e-puck robot in virtual environments

Anlage 1: Modularisierung des Bachelor-Studiengangs Theoretische und Angewandte Computerlinguistik

Studiengang Wirtschaftspädagogik Studienrichtung II

Intelligente Systeme WS 2015/16

P2P-Netzwerke für dynamische 3D-Szenen

Dokumentenbasierte Steuerung von Geschäftsprozessen

Big Data bei unstrukturierten Daten. AW1 Vortrag Sebastian Krome

W3C was ist das und wie kann ich da mitmachen?

Organisatorisches. Unit1: Intro and Basics. Bewertung. About Me.. Datenorientierte Systemanalyse. Gerhard Wohlgenannt

Detecting Near Duplicates for Web Crawling

Seminar Optimale Steuerung

Einige Tipps zur Präsentation von Referaten mit PowerPoint sowie zur Anfertigung schriftlicher Arbeiten

Automatisches Lernen von Regeln zur quellseitigen Umordnung

Sentiment Analysis. Eine Einführung. Robert Remus 1 rremus@informatik.uni-leipzig.de. Fakultät für Mathematik und Informatik Universität Leipzig

Organizer Co Organizer Sponsor Host

Voraussichtliche Lehrveranstaltungen im Sommersemester Preliminary list of lectures offered in summer term 2016

Large Scale Data Management

Beschreibung von Agenten für MAS

Tagging von Online-Blogs

Seminar: Risikomanagement in Banken

Computational Fluid Dynamics - CFD Overview

Autonomes Performance-Management in dienstorientierten Architekturen

Informationsveranstaltung Master Wiwi. Major: Finance. Prof. Dr. Marcel Prokopczuk, CFA Institut für Finanzmarkttheorie

Educational training programs for the professional development of music library staff the current situation in Germany

Learning Analytics und Foren

European Qualification Strategies in Information and Communications Technology (ICT)

Recent Advances in Business Computing and Operations Research (RAIBCOR)

Testing for and fixing common security issues

Context-adaptation based on Ontologies and Spreading Activation

Einleitung. Einführung in die Technische Informatik Falko Dressler und Stefan Podlipnig Universität Innsbruck

Vorlesung Automotive Software Engineering Prüfung Wintersemester 2014/15 TU Darmstadt, FB 18 und FB 20

Seminar: Moderne Web Technologien (MWT)

Einführung in die Computerlinguistik Statistische Grundlagen

Modultabelle. Masterstudiengänge Wirtschaftsinformatik (90 ECTS-Punkte und 120 ECTS-Punkte) Fakultät Wirtschaftsinformatik und Angewandte Informatik

Types of software evolution and software maintenance. Paper review from the Journal of Software Maintenance and Evolution

Einführung in die Linguistik, Teil 4

Grails. Weiterführende Themen zu Internet- und WWW-Technologien. Matthias Springer. 06. Juni 2011

SEMINAR AUTOMATISCHE GESICHTSERKENNUNG

Ontologien und Ontologiesprachen

Social Learning. Vortrag AW 1. Florian Forsthuber. Hochschule für Angewandte Wissenschaften Hamburg. Master Informatik

Organisatorisches. Proseminar Technische Informatik Oktober 2013

State-of-the-Art in Software Product Line Testing and Lessons learned

Einordnung in den Europäischen Referenzrahmen: General English

Praktikum Einführung

Seminar für Wirtschaftsinformatiker (Master/Diplom) Sommersemester 2012

Bertram Turner Teaching Activities

Proseminar - Organisation und Personal Seminar Organisational Theory and Human Resource Management

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Data Mining in der Landwirtschaft

Einführung. Arbeitsgruppe. Proseminar Corporate Semantic Web. Prof. Dr. Adrian Paschke

Modulbeschreibung: Master of Education Informatik

Linked Open Data (LOD) im Enterprise 2.0. Florian Kondert COO, Business Development

Einführung. Vertiefungsseminar: Entwicklungspsychologie WS10/11 Termin: montags Uhr im Raum 2301

Informationsextraktion

Informatikgrundlagen (WS 2015/2016)

Open Archives Initiative - Protocol for Metadata Harvesting (OAI-PMH)

Determining Vibro-Acoustic Effects in Multidomain Systems using a Custom Simscape Gear Library

Universität Bayreuth Englisch Lehramtsstudium. 1. Vertieftes Studium des Faches

Vorlesung Konsumentenverhalten 2015_1 Dr. Hansjörg Gaus

GM 1b GRUNDÜBUNGEN ZU FARBE UND FORM

Einführung in die Technische Informatik [TI]

Deep Web. Timo Mika Gläßer

BA63 Zeichensätze/ Character sets

Staff. Tim Conrad. Zeitplan. Blockseminar: Verteiltes Rechnen und Parallelprogrammierung. Sommer Semester Tim Conrad

Auswirkung von Geschäftsprozessmodellierung auf den Erfolg von ERP-Migrationsprojekten

Organisatorisches. Einführung in die Instrumentalphonetik. Scheinvoraussetzungen. Beginnen wir mit einer kurzen Vorstellungsrunde

Seminar: Software Engineering verteilter Systeme

SPRACHENTRAINING FACHKATALOG

Praktisches Linux: Effiziente Anwendung anhand von Fallbeispielen

URL: Modulbeschreibung

Empiriepraktikum: Armut und Ungleichheit in Deutschland. Konzepte, Methoden und Statistiken

Scenario-Based Analysis of Software Architecture

Transkript:

Neural Networks: Architectures and Applications for NLP Session 00: Organisatorisches Julia Kreutzer & Julian Hitschler 25. Oktober 2016 Institut für Computerlinguistik, Heidelberg 1

Überblick 1. Vorstellung 2. Kursaufbau 3. Scheinerwerb 2

Vorstellung

Hello World Wer sind wir? {kreutzer, hitschler} at cl.uni-heidelberg.de Vorlesung, Referate: Julia Übung, Projekte: Julian Sprechstunde: Julia Di 16-17, Julian Do 11-12, R 107 Wer seid ihr? BA, MA,... CL,... 3

Kursinhalt Einführung in Architekturen und Anwendungen von Neuronalen Netzen für NLP Was sind (tiefe) Neuronale Netze? Warum können sie erfolgreich für NLP eingesetzt werden? Welche Architekturen eignen sich für welche Aufgaben? Welche Herausforderungen gibt es? 4

Ziel des Kurses Nach diesem Kurs solltet ihr grundlegende Architekturen von Künstlichen Neuronalen Netzen kennen die Techniken zum Training dieser Netze verstanden haben (einfache) Modelle für NLP-Anwendungen implementieren und trainieren können 5

Abbildung 1: Deep Learning, Quelle 6

Aufbau des Kurses

VL - Übung - Seminar - Projekte Zwei Teile: 1. Vorlesung & Übung 25.10.16-13.12.16 2. Seminar & Projekte 20.12.16-02.02.17 Termine: Di, 14:15-15:45, INF 325, SR 24 Do, 09:15-10:45, INF 346, SR 10 7

Material Kursthemen: Kursseite, Wikiseite Literatur: [Goldberg, 2015] [Cho, 2015] Online-Kurs: [Socher, 2016] 8

Scheinerwerb

Leistungsnachweise regelmäßige Teilnahme an VL und Übung (verpflichtend!) alle Übungsblätter bearbeiten Referat oder Implementierungsprojekt wöchentliche Fragen im Seminarteil Commitment! im LSF und im Kurs 9

Übungsaufgaben 4 theoretische Übungen mathematische Voraussetzungen für das Verständnis von NNs 2 praktische Übungen Implementierung in Python, Theano, Tensorflow installiert auf last alle Übungsaufgaben müssen selbst substantiell bearbeitet werden Abgabefristen sind einzuhalten gegenseitige Hilfe ist erwünscht und erlaubt Übungsaufgaben werden korrigiert, aber nicht benotet 10

Implementierungsprojekte Alternative zu Referaten keine Gruppenarbeit (Ausnahmen bitte frühzeitig absprechen) Umfang: Implementierung einfaches trainierbares NN für Klassifikationsproblem (nur eigener Code, ohne Verwendung eines Frameworks) oder mäßig komplexes NN für Sequenzklassifikation oder probabilistische Sequenzmodellierung (unter Verwendung eines Frameworks) Dokumentation Ab dem 22.12. sind fünf Übungstermine ganz der gemeinsamen Arbeit an den Projekten gewidmet Abgabetermin: 31.3.2017, 23:59 Weitere Details in der ersten Übungssitzung (Donnerstag) 11

Referate per E-Mail bis Fr, 28. 10. 2 präferierte Paper auswählen Proseminar kürzere (+), Hauptseminar komplexere Paper (++) evtl. zu zweit, je nach Anzahl der Interessenten Vorbesprechung mind. 1 Woche vor Präsentation mit Folien bei Fragen während der Vorbereitung: Sprechstunde / E-mail max. 45min Zeit für Referat, Fragen & Diskussion 12

Referate Wichtig! verständliche Einführung in die Problematik der Arbeit geben selbst gewählten Schwerpunkt setzen Zeit dementsprechend einteilen Annahmen, Methodik, Schlussfolgerungen der Arbeit hinterfragen Folien nach dem Vortrag im Wiki hochladen 13

Referatsthemen i Vorläufiger Plan: 20.12. NN mit Struktur Tree-LSTM (Lutz Büch) [Tai et al., 2015] Recursive Autoencoders (++) [Socher et al., 2011] 10.01. Erweiterungen für RNNs Adaptive Computation Time (++) [Graves, 2016] Larger Context (++) [Wang and Cho, 2016] 14

Referatsthemen ii 17.01. Natural Language Understanding Text Classification (+) [Zhang et al., 2015] Neural Conversational Model (+) [Vinyals and Le, 2015] 24.01. Convolutional and Recurrent Neural Networks Relation Classification (+) [Vu et al., 2016] Neural Machine Translation with character-level decoder (++) [Chung et al., 2016] 31.01. Erweiterungen für Seq2Seq Hybrid Neural Machine Translation (++) [Luong and Manning, 2016] Copy Mechanism (++) [Gu et al., 2016] 15

Fragen mindestens eines der Paper für jede Woche lesen 3 Fragen bis montags vor dem Referat per E-Mail an Julia können auch Anmerkungen, Kritikpunkte, Ideen sein 16

References i Cho, K. (2015). Natural language understanding with distributed representation. arxiv preprint arxiv:1511.07916. Chung, J., Cho, K., and Bengio, Y. (2016). A character-level decoder without explicit segmentation for neural machine translation. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1693 1703, Berlin, Germany. Association for Computational Linguistics.

References ii Goldberg, Y. (2015). A primer on neural network models for natural language processing. arxiv preprint arxiv:1510.00726. Graves, A. (2016). Adaptive computation time for recurrent neural networks. arxiv preprint arxiv:1603.08983. Gu, J., Lu, Z., Li, H., and Li, V. O. (2016). Incorporating copying mechanism in sequence-to-sequence learning. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1631 1640, Berlin, Germany. Association for Computational Linguistics.

References iii Luong, M.-T. and Manning, C. D. (2016). Achieving open vocabulary neural machine translation with hybrid word-character models. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1054 1063, Berlin, Germany. Association for Computational Linguistics. Socher, R. (2016). Deep learning for natural language processing. Stanford University Lecture.

References iv Socher, R., Huang, E. H., Pennin, J., Manning, C. D., and Ng, A. Y. (2011). Dynamic pooling and unfolding recursive autoencoders for paraphrase detection. In Advances in Neural Information Processing Systems, pages 801 809. Tai, K. S., Socher, R., and Manning, C. D. (2015). Improved semantic representations from tree-structured long short-term memory networks. pages 1556 1566. Vinyals, O. and Le, Q. (2015). A neural conversational model. arxiv preprint arxiv:1506.05869.

References v Vu, N. T., Adel, H., Gupta, P., and Schütze, H. (2016). Combining recurrent and convolutional neural networks for relation classification. In Proceedings of the 2016 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 534 539, San Diego, California. Association for Computational Linguistics. Wang, T. and Cho, K. (2016). Larger-context language modelling with recurrent neural network. In Proceedings of the 54th Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers), pages 1319 1329, Berlin, Germany. Association for Computational Linguistics.

References vi Zhang, X., Zhao, J., and LeCun, Y. (2015). Character-level convolutional networks for text classification. In Advances in Neural Information Processing Systems, pages 649 657.