Neural Networks: Architectures and Applications for NLP

Ähnliche Dokumente
Neural Networks: Architectures and Applications for NLP

6.2 Feed-Forward Netze

Neural Networks: Architectures and Applications for NLP

Rekurrente Neuronale Netze

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Neural Networks. mit. Tools für Computerlinguist/innen

Computergestützte Mathematik zur Linearen Algebra

Neuronale Netze. Automatische Hinderniserkennung Paul Fritsche

Das Praktikum mit Seminar vertieft die in der Vorlesung erworbenen Fähigkeiten in theoretischer und praktischer Hinsicht:

WIR ARBEITEN GEMEINSAM MIT UNSEREN KUNDEN DARAN, DIE QUALITÄT IHRER SOFTWARE DURCH VERBESSERTE ENTWICKLUNGSPROZESSE ZU OPTIMIEREN.

Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation. Yupeng Guo

dlib - A toolkit for making real world machine learning and data analysis applications in C++

Anwendungen der KI / SoSe 2018

Raum-zeitliche. in Sensordaten. Mustererkennung. mit Deep Learning. Felix Kunde, Petra Sauer

Künstliche Neuronale Netze

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Curriculum. Lineare Algebra 1.

Einführung in die Numerik

Übersicht & Einführung

1. Einführung Programmieren / Algorithmen und Datenstrukturen 1 Prof. Dr. Bernhard Humm FB Informatik, Hochschule Darmstadt

Softwareprojektpraktikum Maschinelle Übersetzung Grundlagen Neuronaler Netze und mxnet

Neural Networks: Architectures and Applications for NLP

ADS. 1. Vorlesung. Techniken der Programmentwicklung Prof. Dr. Wolfgang Schramm

Data Science mit Python. Einführung in die Data Science-Programmiersprache Python zur Datenanalyse

Programmieren I. Überblick. Institut für Angewandte Informatik. KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft

F. Kathe ROS Folie 1

Themen für Bachelorprojekte und Bachelorarbeiten Lehrstuhl Prof. Dr. Pohl, Software Systems Engineering

Schnelles Prototyping für die medizinische Bildverarbeitung

Supervised & Unsupervised Machine Learning

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Informatik an der Ruprecht-Karls-Universität Heidelberg

Georg-August-Universität Göttingen. Modulverzeichnis

Grundlagen zu neuronalen Netzen. Kristina Tesch

Programmieren I. Überblick. Institut für Angewandte Informatik. KIT Die Forschungsuniversität in der Helmholtz-Gemeinschaft

TensorFlow Open-Source Bibliothek für maschinelles Lernen. Matthias Täschner Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig

WIR HELFEN UNSEREN KUNDEN DABEI, BESSERE LABVIEW -SOFTWARE ZU ERSTELLEN. ODER WIR ERSTELLEN SIE FÜR SIE.

Scalable Deep Learning. Big Data, NLP, Machine Perception

Jira-Administrator (m/w/d) im Bereich Jira-Entwicklung bei Bertrandt in München

Modulhandbuch. Wintersemester 2016/17: Veranstaltungen der Arbeitsgruppe Diskrete Mathematik, Optimierung und Operations Research keine Zuordnung

Inhaltsverzeichnis. Teil 1 Grundlagen 21. Teil 2 Datenstrukturen 85

Übersicht & Einführung

Hauptseminar Information Retrieval. Karin Haenelt Vorschläge für Seminarprojekte

Softwareprojektpraktikum Maschinelle Übersetzung Verbesserungen für Neuronale Übersetzungssysteme

Data Science mit Python. Einführung in die Data Science-Programmiersprache Python zur Datenanalyse

Anhang III: Modulhandbuch

Kapitel LF: IV. IV. Neuronale Netze

Datenstrukturen und Algorithmen

Was ist, kann und darf Deep Learning? Dr. Beat Tödtli Laboratory for Web Science

Iterative Methoden für lineare Gleichungssysteme

Vorstellung der Themen

Maschinelle Sprachverarbeitung Übung

Robust Named Entity Recognition (NER) in Idiosyncratic Domains. Eine automatische Identifikation und Klassifikation von Eigennamen

MID Webcast Entscheidungen und Prozesse. Jetzt wächst zusammen, was zusammen gehört!

Korrektur der Studien- und Prüfungsordnung

Toolbox Workshop. PeP et al. Toolbox Workshop. PeP et al. e.v. Physikstudierende und ehemalige Physikstudierende

Machine Learning. Kurzeinführung Erfahrungen in GIS

Numerische Mathematik mit Matlab

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011

Deep Learning Prof. Dr. E. Rahm und Mitarbeiter

Bemerkung: Termine und Orte für die einzelnen Lehrveranstaltungen sind dem Stundenplan zu entnehmen.

Digital Humanities. Bereichsgegliedertes Modulhandbuch. für das Studienfach. als Bachelor-Nebenfach (Erwerb von 60 ECTS-Punkten)

Praktische Mathematik

Modulhandbuch für das Studienfach. Digital Humanities. als Bachelor-Nebenfach (Erwerb von 60 ECTS-Punkten)

Mathematische Methoden

Analyse und Prognose von Finanzmärkten

Maschinelle Sprachverarbeitung

Neuronale Netze. Christian Böhm.

MED-M Name des Moduls: Grundlagen. 2. Fachgebiet / Verantwortlich: Medienwissenschaft/ Prof. Dr. Bernhard Dotzler

Im Nebenfach Mathematik können zwei Varianten studiert werden. Studiensemester. Kontaktzeit 56 h 28 h

Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders

Algorithmik und Programmieren

Softwareentwicklungspraktikum Android-Programmierung

Hochschule/Fachbereich/Institut: Freie Universität Berlin/Fachbereich Mathematik und Informatik/Institut für Mathematik

Propädeutischen Fächer

Anwendung der Roblet -Tec hnol ogie

Improving Part-Of-Speech Tagging for Social Media via Automatic Spelling Error Correction

Mathematisch-algorithmische Grundlagen für Big Data

Bachelorarbeit. Bachelor Studiengang Digitale Medien

Klassifikation von Multidimensionalen Zeitreihen mittels Deep Learning

Übersicht & Einführung

Robert Sedgewick. Algorithmen in Java. »il 1-4 Grundlagen Datenstrykturen Sortleren Suchen. java-beratung durch Michael Schidlowsky

Deep Learning Appliance 4U Die Ready-to-Brain Komplett-Lösung

Diskrete Strukturen Tutorium I 29. Oktober Tim Weißker

WARUM SOLLTE VUFIND NUR EIN BESSERER OPAC SEIN UND NICHT EINE GENERELLE SUCH- ARCHITEKTUR? Christian Scheel

Event Recognition Engine

Data Science mit Python

Informatik I. Einführung in Java. Begrüßung. Zusatzveranstaltung

Modulhandbuch Medieninformatik Bachelor

Vorhersage von nicht-funktionalen Feature-Interaktionen

Data Science (WS 2018/2019) Klaus Berberich

Anwendung von Vektormodell und boolschem Modell in Kombination

Ingenieurmathematik mit MATLAB

Allgemeine Bestimmungen

Erstsemester Frühstück

Neural Networks: Architectures and Applications for NLP

CREATE BETTER NI LABVIEW SOFTWARE!

Programmiersprachenkonzepte

Transkript:

Neural Networks: Architectures and Applications for NLP Übungssitzung 1: Organisation und Orientierung Julian Hitschler ICL, Universität Heidelberg, WiSe 2016/17 27.10.2016 1 / 1

Inhalt Vorstellung Organisatorisches Voraussetzungen Implementierungsprojekte 2 / 1

Vorstellung Der Dozent Julian Hitschler zuständig für komplementäre Übungssitzungen zum Vorlesungsteil der Veranstaltung Betreuung der Implementierungsprojekte Übungsaufgaben hitschler@cl.uni-heidelberg.de Deep-Learning-Anfänger (wie fast alle in der NLP-Community) Die Studierenden 3 / 1

Organisatorisches Zeit: Donnerstag, 09:15-10:45 Raum: INF 346, SR 10 Sofern verfügbar, bitte eigene Laptops mitbringen 4 / 1

Voraussetzungen Grundkenntnisse Programmieren Grundwissen Python zum Beispiel aus Programmieren I Grundlagen der linearen Algebra Notation für Matrizen und Vektoren grundlegende Operationen auf Matrizen und Vektoren Grundlagen der Analysis (partielle) Ableitungen Gradienten(-felder) 5 / 1

Implementierungsprojekte Ziel: Ein trainierbares neuronales Netzwerk selbst implementieren und damit Experimente durchführen eher keine Gruppenarbeit selbständiges Verständnis der Materie und Arbeiten mit Frameworks begründete Ausnahmen bitte frühzeitig absprechen zwei Optionen 1 eigene Implementierung eines einfachen NN 2 Implementierung eines mäßig komplexen NN in einem Framework Experiment-Skript Dokumentation 6 / 1

Implementierungsprojekte 1 Eigene Implementierung eines NN Programmiersprache nach Wahl: C++, Python, Java,... keine Verwendung von Deep-Learning Frameworks und Bibliotheken keine Verwendung von Bibliotheken für lineare Algebra, symbolische Ableitung etc. nur Verwendung von Standardbibliotheken (soweit möglich) Lösung eines einfachen Klassifizierungsproblems NIST-Datensatz (Ziffernerkennung) einfacher Datensatz zur Dokumentklassifikation oder ähnliches mindestens ein hidden Layer Gradientenabstieg/Backpropagation kann architekturspezifisch implementiert sein Mindestumfang der Experimente: Vergleich von zwei einfachen NN-Architekturen (z.b.: Restricted Boltzmann Machine vs. Multilayer-Perceptron) 7 / 1

Implementierungsprojekte 2 Implementierung einer NN-Architektur in einem Framework Auswahl eines Frameworks: Theano oder TensorFlow Implementierung eines RNN-Sprachmodells oder einer vergleichbar komplexen Architektur mindestens einmal Rekursion oder Rekurrenz als Teil der Netzwerkarchitektur Verwendung von RNN-Modulen in TensorFlow ist erlaubt! Lösung eines Sequenzklassifikations- oder (probabilistischen) Sequenzmodellierungsproblems Preprocessing für Korpora in Standardformaten (Textdateien, CSV, XML, ConLL, etc.) Austausch des Trainingskorpus muss für den Laien (Julian) möglich sein 8 / 1

Implementierungsprojekte 2 Implementierung einer NN-Architektur in einem Framework maximale Trainingszeit: 48 Stunden auf 10 Cores auf last hartes Limit! kleine Layer flaches Netzwerk kleiner Datensatz sinnvolles Minibatching effiziente Implementierung gute Hyperparameter wollen experimentell gefunden werden keine Verwendung (Copy&Paste) von Tutorial-Code Dozentin und Dozent haben übersinnliche Fähigkeiten und könnes dies erspüren es ist nicht empfehlenswert, Funktionen der Frameworks zu verwenden, die man nicht genau versteht Projekt kann ein Einstiegspunkt für eigene Forschung (Abschlussarbeit, etc.) sein! 9 / 1

Implementierungsprojekte Projektvorschlag kurze Zusammenfassung des geplanten Projekts (1-2 Seiten) bis 16.12.2016 per Mail an hitschler@cl.uni-heidelberg.de (Betreff: Projekt NNAA ) wer im Seminarteil einen Vortrag hält, muss kein Projekt implementieren, darf dies aber gerne tun Dokumentation des Projekts README (DozentInnen-sicher) 1 Enter-Experimentskript (Shell-Skript) Dokumentation des Systems und der Experimente als Short Paper (4 Seiten + Quellen) Abgabetermin (Mail an Julian) Code+Dokumentation: 31.3.2017,23:59 10 / 1

Noch Fragen? 11 / 1

Vielen Dank für die Aufmerksamkeit! 12 / 1