Softwareprojektpraktikum Maschinelle Übersetzung Grundlagen Neuronaler Netze und mxnet

Größe: px
Ab Seite anzeigen:

Download "Softwareprojektpraktikum Maschinelle Übersetzung Grundlagen Neuronaler Netze und mxnet"

Transkript

1 Softwareprojektpraktikum Maschinelle Übersetzung Grundlagen Neuronaler Netze und mxnet Julian Schamper, Jan Rosendahl 2. Mai 2018 Human Language Technology and Pattern Recognition Computer Science Department, RWTH Aachen University J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 1 / Mai 2018

2 1. Maschinelles Lernen 2. Neuronale Netzwerke 3. Motivation: Symbolisches Rechnen und mxnet 4. Einführung: Symbolisches Rechnen in mxnet J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 2 / Mai 2018

3 Section 1 Maschinelles Lernen J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 3 / Mai 2018

4 Maschinelles Lernen Maschinelles Lernen A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E Mitchell (1997) Idee Das Programm lernt aus Beispielen/Trainingsdaten Regeln Anhand des Gelernten können Aussagen über ungesehene Ereignisse getroffen werden Verhalten des Programms wird bewertet mit einer Metrik J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 4 / Mai 2018

5 Maschinelles Lernen Beispiele Regressionsgerade Clustering Klassifizierung: Translation... Alle Systeme Maschinellen Lernens sind bis heute spezialisierte Systeme. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 5 / Mai 2018

6 Maschinelles Lernen Datensätze Trainigsdaten: auf diesen Daten wird das System trainiert Validierungsdaten/Entwicklungsdaten: auf diesen Daten werden Designentscheidungen bezüglich des Systems getroffen. Beispielsweise: Mit welchen Gewichten werden mehrere Modelle kombiniert? Wann ist das Training beendet? Testdaten: auf diesen Daten wird das System nur ausgewertet. Wichtig: Diese Datensätze müssen strikt getrennt werden. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 6 / Mai 2018

7 Überanpassung & Unteranpassung Problem Die Komplexität des Modells muss geeignet sein die Daten angemessen beschreiben zu können- Überanpassung (Overfitting): Das Modell passt sich zu stark an die Daten an Unteranpassung (Underfitting): Das Modell passt sich nicht stark genug an die Daten an Unteranpassung Ok Überanpassung J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 7 / Mai 2018

8 Überanpassung & Unteranpassung Unteranpassung Trainingsfehler und Testsetsfehler (Generalisierungsfehler) werden nicht kleiner Lösung: Aussagekräftigeres Modell Überanpassung fallenden Trainingsfehler zeitgleich mit einem steigenden Generalisierungsfehler Lösung:? Ziel ist ein geringer Fehler auf einem ungesehenen Testset. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 8 / Mai 2018

9 Section 2 Neuronale Netzwerke J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 9 / Mai 2018

10 Neuronale Netzwerke Neuronale Netzwerke Erste Experimente seit den 60er Jahren Wichtiges stand-alone Systeme in der maschinellen Übersetzung z.b. [Sutskever & Vinyals + 14], Durchbruch zum state-of-the-art [Bahdanau & Cho + 14] Eigenschaften sehr strukturierte, hochdimensionale Funktionen große Anzahl freier Parameter einfache Rechenoperationen parallelisierbar systematische Parameteraktualisierung möglich J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 10 / Mai 2018

11 Neuronale Netzwerke Varianten von ANNs Feedforward Netzwerke, Multilayer Perceptrons (MLP) Rekurrente Neuronale Netzwerke (RNN) Convolutional Neural Network (CNN, ConvNet) J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 11 / Mai 2018

12 Neuronale Netzwerke Grundstruktur Eingabelayer der Größe N: (x 1,... x N ) verdeckte (hidden) layer beliebige Anzahl Jedes versteckte Layer hat ebenfalls feste Größe Ausgabelayer der Größe M: y 1,... y M Die Anzahl der Layer (minus eins) wird oft als Tiefe/depth des Netzwerks bezeichnet. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 12 / Mai 2018

13 Eingabelayer & Ausgabelayer Neuronale Netzwerke erhält Eingabe (x 1,... x N ) = (y (0) 1,... y(0) N ) keine Rechenoperation Versteckte Layer (Vollverbunden) Variablen Layer l Größe/Anzahl künstlicher Neuronen: N (l) Eingabe: y (l 1), Ausgabe: y (l) Gewichte: ω (l) i,j, Bias b(l) i Berechnung des versteckten Zustands (hidden states) Ausgabelayer y (l) j := σ (l) N (l) i=1 ω (l) i,j y(l 1) i + b (l) stellt Ausgabe bereit (y 1,... y M ) = (y (L) 1,... y (L) M ) Rechenoperation wie im versteckten Layer J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 13 / Mai 2018 j

14 Neuronale Netzwerke Künstliches Neuron/Knote/Node Layer l besteht aus Nodes/Neuronen y (l) j Mögliche Aktivierungsfunktionen σ: tanh, sigmoid ReLu(x) = max(0, x) Layer Neben den vollverbundenen Layern (fully connected) gibt es zahlreiche Alternativen Softmax Pooling Regularisierungslayer Attention Layer Rekurrente Layer... J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 14 / Mai 2018

15 Beispiel Anmerkungen Layer Rechenoperationen können als Matrixrechnungen dargestellt werden y (l) = σ (l) ( A (l) y (l 1) + b (l)) Mit der Konvention y (l 1) 0 = 1 kann der Bias Vektor b auch als Teil der Gewichtsmatrix A verstanden werden ( ( )) 1 y (l) = σ (l) Â (l) y (l 1) Funktionen wie σ werden elementweise ausgewertet. In der Regel ist aus dem Kontext klar welche Darstellung verwendet wird. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 15 / Mai 2018

16 Beispiel Ausgabelayer M = 3 (A (3), b (3) ) Vorwärtsdurchlauf/(forward pass): ( y = σ A (3) σ [A (2) σ(a (1) x + b (1) ) + b (2)] + b (3)) d.h. Ausgabe y wird aus Eingabe x berechnet Verst. Layer 2 Verst. Layer 1 (A (2), b (2) ) (A (1), b (1) ) Eingabelayer N = 5 J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 16 / Mai 2018

17 Neuronale Netzwerke Ausgabelayer Im Falle von Klassifikationsproblemen wird als letztes Layer oft ein softmax-layer verwendet: softmax(v 1,..., v M ) := exp(v 1 ) M m=1 exp(v m). exp(v M ) M m=1 exp(v m) wandelt beliebige Werte in Wahrscheinlichkeitsverteilung wird meist vor der Cross-Entropy-Verlustfunktion verwendet J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 17 / Mai 2018

18 Training Bisher: Wie wendet man das neuronale Netzwerk auf Daten an? Training: Wie werden die Gewichte (d.h. die Variablen A (l), b (l) )) des Netzwerks am besten gewählt? Geänderter Blickpunkt Bisher: Betrachten das Netzwerk als Funktion: y ω : R N R M : x y ω (x) Training: Betrachten das Netzwerk als Funktion: y ω : W R : ω score(y ω ) Mit W := W N der Menge aller Parameterbelegungen des Netzwerks N. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 18 / Mai 2018

19 Verlustfunktion (loss function) Verlustfunktion ein Neuronales Netzwerk ist eine Funktion W R M Die Optimierung benötigt W R Verwende Fehlerfunktion L : R M R Beispiele Squared loss L[Y, y ω (X)] = 1 X Cross-Entropy/Kreuzentropie L[Y, y ω (X)] = 1 X (x,y) (X,Y ) M (x,y) (X,Y ) m=1 vergleicht zwei Wahrscheinlichkeitsverteilungen y y ω (x) 2 2 y m log[(y ω (x)) m ] J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 19 / Mai 2018

20 Gradient Based Training Problem Finde eine optimale Parameterbelegung ω W für Gewichte und Bias-Vektoren: ω = arg min L[Y, y ω (X)]. ω W Gradientenverfahren/Gradient descent Approximiert ein lokales Minimum einer Funktion L mit Parametern ω iterativ. Algorithm 1: Gradientenverfahren ω := random_values() while not converged do for i, j, l do ω (l) i,j := ω(l) i,j + λ L[Y,y ω(x)] ω (l) i,j end end Mit Lernrate (learning rate) λ. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 20 / Mai 2018

21 Backpropagation - Idee Ableitung der Fehlerfunktion Ausgangssituation: L[Y, y(x)] = 1 X M (x,y) (X,Y ) m=1 Annahme: Letztes Layer ist vollverbunden. y m log [ ( σ (L) A (L) y (L 1)) ] m Ableitung mittels Kettenregel: L[Y, y(x)] ω (L) i,j = 1 X (x,y) (X,Y ) M m=1 y m log[σ (L) ] σ (L) σ(l) (z) z ( A (L) y (L 1)) m ω (L) i,j L[Y, y(x)] ω (L 1) i,j = L[Y, y(x)] A (L) y (L 1) A(L) y (L 1) ω (L 1) i,j J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 21 / Mai 2018

22 Training Probleme Verlustfunktionen summieren über alle Trainingsdaten L[Y, y ω (X)] = 1 M y m log[(y ω (x)) m ] X (x,y) (X,Y ) m=1 für ein Parameterupdate müssen alle Trainingsdaten durch das Modell verarbeitet werden. Stochastic Gradient Descent (SGD) Zerlege Trainingsdaten in Batches b: (X b, Y b ) (X, Y ). L[Y, y(x)] L[Y b, y(x b )] Nach jeder Gewichtsaktualisierung wird ein neuer Batch ausgewählt. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 22 / Mai 2018

23 Lernraten SGD Varianten In der Praxis wird die Lernrate λ im Verlaufe des Trainings gesenkt. Zahlreiche Methoden um die Lernrate zu kontrollieren/reduzieren Lernrate alle k Iterationen halbieren Lernrate halbieren, wenn keine Verbesserung für k Iterationen beobachtet wurde... Vielzahl von Optimizern die weitergehende Heuristiken anwenden Adadelta [Zeiler 12] Adam [Kingma & Ba 14]... J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 23 / Mai 2018

24 Fragen? J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 24 / Mai 2018

25 Section 3 Motivation: Symbolisches Rechnen und mxnet J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 25 / Mai 2018

26 Motivation: Neuronale Netze in der Praxis I Anforderung an Implementierung Das neuronale Netzwerk soll auf unterschiedliche Arten verwendet werden können Ausführung der modellierten Funktion: y ω : x y ω (x) Training: Verändern der Gewichte / Parameter des Netzwerks ω (automatische) Berechnung von Gradienten Flexibilität bei Modifikationen und Erweiterungen des Netzwerkes z.b. Einfügen eines weiteren Layers, Änderung der Aktivierungsfunktionen σ Änderung an einer Stelle im Code sollte sich direkt auf Ausführung und Training auswirken Wiederverwendung / Bereitstellung typischer Bausteine fully connected layer, softmax layer, cross entropy loss,... Effiziente Verarbeitung großer Datenmengen J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 26 / Mai 2018

27 Motivation: Neuronale Netze in der Praxis II Typische Lösungsansätze Zuerst: Symbolische Modellierung eines Berechnungsgraphen (ein Mal) Anschließend: Unterschiedliche Arten der Anwedung des gleichen Berechnungsgraphen auf unterschiedliche konkrete Daten (mehrmals) Bereitstellung typischer Bausteine und Funktionalitäten durch eine Bibliothek GPU Unterstützung zur Beschleunigung der Berechnungen und maschinen-nahe Implementierung der rechenintensiven Bausteine (oft in C++ und Nvidia CUDA) Entsprechende Bibliotheken mxnet, TensorFlow, (Py)Torch, Caffe, Theano,... in diesem Softwareprojektpraktikum: mxnet J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 27 / Mai 2018

28 Section 4 Einführung: Symbolisches Rechnen in mxnet J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 28 / Mai 2018

29 Einordnung: Symbolische vs. Imperative Programmierung Imperative Programmierung (vereinfachte Darstellung) Ausführung der Befehle in der gegebenen Reihenfolge (direkt mit konkreten Daten) In mxnet: Objekte und Funktionen aus mxnet.ndarray Symbolische Programmierung (vereinfachte Darstellung) Definition von Platzhaltern (Variablen) Verbund der Variablen mit Rechenoperationen zu einem beliebig komplexen Berechnungsgraphen (keine konkrete Berechnung) Auswertung der Ausgabe-Variablen unter Angabe konkreter Daten (vorher eventuell Vereinfachung und Optimierung des Graphen) In mxnet: Objekte und Funktionen aus mxnet.symbol J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 29 / Mai 2018

30 Beispiel 1: f = a + b var_a = mx.sym.variable("a") var_b = mx.sym.variable("b") var_f = var_a + var_b _plus0 # mx.viz.plot_network(var_f).render() A = mx.nd.array([3,5,1]) B = mx.nd.array([6,5,2]) print(var_f.eval(a=a, b=b)) a b [ [ ] <NDArray selbst die Shapes der Daten sind nicht bei Modellierung bekannt J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 30 / Mai 2018

31 Beispiel 2: f = (a b + c) d 2 Variante I var_a = mx.sym.variable("a") var_b = mx.sym.variable("b") var_c = mx.sym.variable("c") var_d = mx.sym.variable("d") var_f = (var_a * var_b + var_c) * (var_d * var_d) Variante II: Wiederverwendung von Python Variablen var_f = mx.sym.variable("a") var_f = var_f * mx.sym.variable("b") var_f = var_f + mx.sym.variable("c") var_ds = mx.sym.variable("d") var_ds = var_ds * var_ds var_f = var_f * var_ds J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 31 / Mai 2018

32 Beispiel 2: f = (a b + c) d 2 Beide Varianten resultieren in den gleichen Berechnungsgraphen _mul2 _plus0 _mul1 _mul0 c d a b Variante II verdeutlicht aber, dass der Aufbau des Graphen auch Schritt für Schritt geschehen kann Dies kann auch innerhalb von Python Kontrollstrukturen geschehen J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 32 / Mai 2018

33 simple_bind und forward I in Beispiel 1 wurde Symbol.eval benutzt dies führt intern die Funktionen Symbol.bind und Executor.forward hintereinander aus meist ist werden diese Schritte getrennt und in leicht abgewandelter Form durchgeführt, z.b. häufig Symbol.simple_bind Executor.forward (Executor.backward) J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 33 / Mai 2018

34 simple_bind und forward II Fortführung Beispiel 2: f = (a b + c) d 2 ex_f = var_f.simple_bind(ctx=mx.cpu(), a=(1,)) A = mx.nd.array([3]); B = mx.nd.array([2]) C = mx.nd.array([4]); D = mx.nd.array([3]) print(ex_f.forward(a=a, b=b, c=c, d=d)) [ [ 90.] <NDArray ctx: Kontext z.b. mx.cpu() oder mx.gpu() simple_bind benötigt Shapes der späteren Argumente hier reicht die Angabe für ein Argument, alle anderen Shapes lassen sich ableiten (intern durch Symbol.infer_shape) forward wird mehrmals für unterschiedliche Daten aufgerufen, simple_bind nur ein Mal J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 34 / Mai 2018

35 Berechnung der Gradienten forward und backward I Fortführung Beispiel 2: f = (a b + c) d 2 ex_f = var_f.simple_bind(ctx=mx.cpu(), a=(1,)) A = mx.nd.array([3]); B = mx.nd.array([2]) C = mx.nd.array([4]); D = mx.nd.array([3]) ex_f.forward(a=a, b=b, c=c, d=d) ex_f.backward(out_grads=mx.nd.array([1])) print(ex_f.grad_dict) b : [ 27.] <NDArray d : [ 60.] <NDArray a : [ 18.] <NDArray c : [ 9.] <NDArray ex_f.grad_dict enthält die Gradienten f a, f b, f c, f d J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 35 / Mai 2018

36 Berechnung der Gradienten forward und backward II Anmerkungen ex_f.forward(a=a, b=b, c=c, d=d) ex_f.backward(out_grads=mx.nd.array([1])) Die Gradienten werden über die Kettenregel mittels eines Vorwärts und eines Rückwärts Schrittes berechnet out_grads hier auf f f = 1 wenn für eine andere externe Funktion g der Gradient g f würde man durch setzen von out_grads auf g f die Gradienten g a, g b, g c, g d erhalten bekannt ist, J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 36 / Mai 2018

37 mxnet: Resourcen für symbolisches Rechnen Hilfreiche Tutorials / Dokumentationen Symbolic Configuration and Execution in Pictures in_pictures/symbol_in_pictures.html Deep Learning Programming Style: Symbolic vs. Imperative Programs program_model.html Symbol API symbol.html Symbol - Neural network graphs and auto-differentiation symbol.html J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 37 / Mai 2018

38 Fragen? J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 38 / Mai 2018

39 Literature I D. Bahdanau, K. Cho, Y. Bengio: Neural Machine Translation by Jointly Learning to Align and Translate. CoRR, Vol. abs/ , D.P. Kingma, J. Ba: Adam: A method for stochastic optimization. arxiv preprint arxiv: , Vol., I. Sutskever, O. Vinyals, Q.V. Le: Sequence to Sequence Learning with Neural Networks. In Z. Ghahramani, M. Welling, C. Cortes, N.D. Lawrence, K.Q. Weinberger, editors, Advances in Neural Information Processing Systems 27, pp Curran Associates, Inc., Wikipedia, the free encyclopedia: File:Overfitting.svg, [Online; accessed April 27, 2018]. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 39 / Mai 2018

40 Literature II M.D. Zeiler: ADADELTA: an adaptive learning rate method. arxiv preprint arxiv: , Vol., J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 40 / Mai 2018

Softwareprojektpraktikum Maschinelle Übersetzung Feedforward Modell und Praktische Anmerkungen (zum Training und mxnet)

Softwareprojektpraktikum Maschinelle Übersetzung Feedforward Modell und Praktische Anmerkungen (zum Training und mxnet) Softwareprojektpraktikum Maschinelle Übersetzung Feedforward Modell und Praktische Anmerkungen (zum Training und mxnet) Julian Schamper, Jan Rosendahl mtprak18@i6.informatik.rwth-aachen.de 9. Mai 2018

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung Verbesserungen für Neuronale Übersetzungssysteme

Softwareprojektpraktikum Maschinelle Übersetzung Verbesserungen für Neuronale Übersetzungssysteme Softwareprojektpraktikum Maschinelle Übersetzung Verbesserungen für Neuronale Übersetzungssysteme Julian Schamper, Jan Rosendahl mtprak18@i6.informatik.rwth-aachen.de 04. Juli 2018 Human Language Technology

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

Grundlagen zu neuronalen Netzen. Kristina Tesch

Grundlagen zu neuronalen Netzen. Kristina Tesch Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen

Mehr

6.2 Feed-Forward Netze

6.2 Feed-Forward Netze 6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir

Mehr

Seminar: Maschinelles Lernen und Deep Learning

Seminar: Maschinelles Lernen und Deep Learning Seminar: Maschinelles Lernen und Deep Learning Sommersemester 2018 Prof. Dr. Xiaoyi Jiang, Sören Klemm, Aaron Scherzinger Institut für Informatik, Arbeitsgruppe Pattern Recognition and Image Analysis (PRIA)

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Rekurrente Neuronale Netze

Rekurrente Neuronale Netze Rekurrente Neuronale Netze Gregor Mitscha-Baude May 9, 2016 Motivation Standard neuronales Netz: Fixe Dimensionen von Input und Output! Motivation In viele Anwendungen variable Input/Output-Länge. Spracherkennung

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 01 Julia Kreutzer 25. Oktober 2016 Institut für Computerlinguistik, Heidelberg 1 Übersicht 1. Deep Learning 2. Neuronale Netze 3. Vom Perceptron

Mehr

TensorFlow Open-Source Bibliothek für maschinelles Lernen. Matthias Täschner Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig

TensorFlow Open-Source Bibliothek für maschinelles Lernen. Matthias Täschner Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig TensorFlow Open-Source Bibliothek für maschinelles Lernen Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig Motivation Renaissance bei ML und KNN Forschung bei DNN fortgeschrittene

Mehr

Neuronale Netze. Automatische Hinderniserkennung Paul Fritsche

Neuronale Netze. Automatische Hinderniserkennung Paul Fritsche 1 Neuronale Netze Automatische Hinderniserkennung 2 Hintergrund Grundlagen Tensorflow Keras Fazit 3 TTBN 4 TTBN 5 TTBN 6 TTBN 7 Biological Neural Network By BruceBlaus - Own work, CC BY 3.0 8 Artificial

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017 10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion

Mehr

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de 5. Mai 2017 Human Language Technology and Pattern Recognition Lehrstuhl

Mehr

Scalable Deep Learning. Big Data, NLP, Machine Perception

Scalable Deep Learning. Big Data, NLP, Machine Perception Scalable Deep Learning Big Data, NLP, Machine Perception 2 Facebook: Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour (2017) Yang You, Zhao Zhang, Cho-Jui Hsieh, James Demmel, Kurt Keutzer: ImageNet

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl {peter,guta,rosendahl}@i6.informatik.rwth-aachen.de Vorbesprechung 4. Aufgabe 2. Juni 2017 Human Language

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung Automatische Evaluation

Softwareprojektpraktikum Maschinelle Übersetzung Automatische Evaluation Softwareprojektpraktikum Maschinelle Übersetzung Automatische Evaluation Julian Schamper, Jan Rosendahl mtprak18@i6.informatik.rwth-aachen.de 11. April 2018 Human Language Technology and Pattern Recognition

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 06 Julia Kreutzer 13. Dezember 2016 Institut für Computerlinguistik, Heidelberg 1 Abbildung 1: Droid-Life Artikel vom 15.11.16 2 Overview

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Neural Networks. mit. Tools für Computerlinguist/innen

Neural Networks. mit. Tools für Computerlinguist/innen Neural Networks mit Tools für Computerlinguist/innen WS 17 / 18 Anwendungsbeispiele Anwendungsbeispiele Anwendungsbeispiele Anwendungsbeispiele WaveNet ist ein Voice Synthesizer und ein Projekt von Google

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Faltungsnetzwerke. (Convolutional Neural Networks) Maximilian Schmidt. Faltungsnetzwerke

Faltungsnetzwerke. (Convolutional Neural Networks) Maximilian Schmidt. Faltungsnetzwerke (Convolutional Neural Networks) Maximilian Schmidt 1 Inhalt Deconvolution ConvNet Architektur History Convolution layer Layers ReLu layer Pooling layer Beispiele Feature Engineering 2 Das Ziel Klassifizierung

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Übungssitzung 1: Organisation und Orientierung Julian Hitschler ICL, Universität Heidelberg, WiSe 2016/17 27.10.2016 1 / 1 Inhalt Vorstellung Organisatorisches

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization

Mehr

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks Analyse komplexer Szenen mit Hilfe von Convolutional Anwendungen 1 Vitalij Stepanov HAW-Hamburg 24 November 2011 2 Inhalt Motivation Alternativen Problemstellung Anforderungen Lösungsansätze Zielsetzung

Mehr

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren Lineare Regression Christian Herta Oktober, 2013 1 von 33 Christian Herta Lineare Regression Lernziele Lineare Regression Konzepte des Maschinellen Lernens: Lernen mittels Trainingsmenge Kostenfunktion

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 03 Julia Kreutzer 15. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Metaparameter 3. In der Praxis 4.

Mehr

Übersicht. Definition Daten Problemklassen Fehlerfunktionen

Übersicht. Definition Daten Problemklassen Fehlerfunktionen Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung

Mehr

Rekurrente Neuronale Netzwerke

Rekurrente Neuronale Netzwerke Rekurrente Neuronale Netzwerke Benjamin Roth Centrum für Informations- und Sprachverarbeitung Ludwig-Maximilian-Universität München beroth@cis.uni-muenchen.de Benjamin Roth (CIS) Rekurrente Neuronale Netzwerke

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 00: Organisatorisches Julia Kreutzer & Julian Hitschler 25. Oktober 2016 Institut für Computerlinguistik, Heidelberg 1 Überblick 1. Vorstellung

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Proseminar Data Mining Julian Schmitz Fakultät für Informatik Technische Universität München Email: ga97wuy@mytum.de Zusammenfassung Diese Ausarbeitung will sich als hilfreiches

Mehr

Rekurrente / rückgekoppelte neuronale Netzwerke

Rekurrente / rückgekoppelte neuronale Netzwerke Rekurrente / rückgekoppelte neuronale Netzwerke Forschungsseminar Deep Learning 2018 Universität Leipzig 12.01.2018 Vortragender: Andreas Haselhuhn Neuronale Netzwerke Neuron besteht aus: Eingängen Summenfunktion

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Marina Sedinkina Folien von Benjamin Roth Planen (CIS LMU andmünchen) Evaluieren von Machine Learning Experimenten 1 / 38

Marina Sedinkina Folien von Benjamin Roth Planen (CIS LMU andmünchen) Evaluieren von Machine Learning Experimenten 1 / 38 Planen and Evaluieren von Machine Learning Eperimenten Marina Sedinkina Folien von Benjamin Roth CIS LMU München Evaluieren von Machine Learning Eperimenten 1 / 38 Übersicht 1 Entwickeln von maschinellen

Mehr

Image: (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen

Image:   (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen Image: https://pixabay.com/de/netz-netzwerk-programmierung-3706562/ (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen Künstliche Intelligenz Was ist das überhaupt? Was kann sie (nicht)?

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung

Softwareprojektpraktikum Maschinelle Übersetzung Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl {peter,guta,schamper}@i6.informatik.rwth-aachen.de Vorbesprechung 3. Aufgabe 19. Mai 2017 Human Language

Mehr

Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel

Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion

Mehr

Neuronale Netze Aufgaben 3

Neuronale Netze Aufgaben 3 Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation. Yupeng Guo

Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation. Yupeng Guo Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation Yupeng Guo 1 Agenda Introduction RNN Encoder-Decoder - Recurrent Neural Networks - RNN Encoder Decoder - Hidden

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

1. Lernen von Konzepten

1. Lernen von Konzepten 1. Lernen von Konzepten Definition des Lernens 1. Lernen von Konzepten Lernziele: Definitionen des maschinellen Lernens kennen, Klassifikationen des maschinellen Lernens kennen, Das Prinzip des induktiven

Mehr

Autonomes Fahren und KI

Autonomes Fahren und KI Autonomes Fahren und KI Kann eine autonom steuernde KI den normal reagierenden menschlichen Fahrer sicher ersetzen/übertreffen? Marco-Marcel Pechtold 19. Januar 2018 Inhaltsverzeichnis 1 Einleitung 2 2

Mehr

Einführung in NLP mit Deep Learning

Einführung in NLP mit Deep Learning Einführung in NLP mit Deep Learning Hans-Peter Zorn Minds mastering Machines, Köln, 26.4.2018 NLP ist auf einmal überall Zusammenfassung aggregated reviews Dokumentklassifikation Übersetzung Dialogsysteme

Mehr

Neuronale Netze u. Anwendungen, 17. Jan. 2012

Neuronale Netze u. Anwendungen, 17. Jan. 2012 Neuronale Netze u. Anwendungen, 17. Jan. 2012 Backpropagation Implementation Speed, Training Generalization Choice of Architecture Algorithms Backpropagation is Computer Intenstive during Training very

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

Intelligente Algorithmen Einführung in die Technologie

Intelligente Algorithmen Einführung in die Technologie Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche

Mehr

Klassifikationsverfahren und Neuronale Netze

Klassifikationsverfahren und Neuronale Netze Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Klassifikation von Multidimensionale Zeitreihen mit Hilfe von Deep Learning

Klassifikation von Multidimensionale Zeitreihen mit Hilfe von Deep Learning Master Informatik - Grundseminar Klassifikation von Multidimensionale Zeitreihen mit Hilfe von Deep Learning Manuel Meyer Master Grundseminar WS 2014 / 2015 Betreuender Professor: Prof. Dr.-Ing. Andreas

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Maschinelles Lernen SS 2005

Maschinelles Lernen SS 2005 1 Maschinelles Lernen SS 2005 Jianwei Zhang AB TAMS FB Informatik Universität Hamburg Büro: F308 Tel.: 2430 E-mail: zhang Web: http://tams-www.informatik.uni-hamburg.de/ Sprechstunde: Do. 15:00-16:00 2

Mehr

Skipgram (Word2Vec): Praktische Implementierung

Skipgram (Word2Vec): Praktische Implementierung Skipgram (Word2Vec): Praktische Implementierung Benjamin Roth Centrum für Informations- und Sprachverarbeitung Ludwig-Maximilian-Universität München beroth@cis.uni-muenchen.de Benjamin Roth (CIS) Skipgram

Mehr

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40 Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN Kapitel LF: I I. Einführung in das Maschinelle Lernen Bemerkungen: Dieses Kapitel orientiert sich an dem Buch Machine Learning von Tom Mitchell. http://www.cs.cmu.edu/ tom/mlbook.html 1 Autoeinkaufsberater?

Mehr

Robust Named Entity Recognition (NER) in Idiosyncratic Domains. Eine automatische Identifikation und Klassifikation von Eigennamen

Robust Named Entity Recognition (NER) in Idiosyncratic Domains. Eine automatische Identifikation und Klassifikation von Eigennamen Robust Named Entity Recognition (NER) in Idiosyncratic Domains Eine automatische Identifikation und Klassifikation von Eigennamen Gliederung 1 Einführung 2 Ein neues Neuronales Netzwerk 3 Datexis 4 Evaluation

Mehr

Seminararbeit über Visuelles Lernen Arithmetischer Operationen

Seminararbeit über Visuelles Lernen Arithmetischer Operationen Seminararbeit über Visuelles Lernen Arithmetischer Operationen Lara Aubele Seminar KI: gestern, heute, morgen Angewandte Informatik, Universität Bamberg Zusammenfassung. Die Arbeit Visual Learning of Arithmetic

Mehr

MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN

MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN FRANK ORBEN, TECHNICAL SUPPORT / DEVELOPER IMAGE PROCESSING, STEMMER IMAGING GLIEDERUNG Einführung Aufgabe: Klassifikation

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Deep Learning zur Objektdetektion in Bildern mit Region-based Convolutional Neural Networks und GPU-Computing

Deep Learning zur Objektdetektion in Bildern mit Region-based Convolutional Neural Networks und GPU-Computing Fachbereich Informatik und Medien MASTERARBEIT Deep Learning zur Objektdetektion in Bildern mit Region-based Convolutional Neural Networks und GPU-Computing Vorgelegt von: Jonas Preckwinkel am: 14.03.2018

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM

KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM VOR NACH MATRIKELNUMMER: STUDIENGANG: B.Sc. Computerlinguistik, B.Sc. Informatik, Magister

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 05 Julia Kreutzer 29. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Recurrent Neural Networks 3. LSTM

Mehr

Natural language processing

Natural language processing Natural language processing Guangyu Ge Betreuer: Tobias 29.01.2018 GLIEDERUNG 1. Einführung 2. Anwendungsbereiche 3. Verfahren bei NLP 4. Zusammenfassung ZIELE VON KÜNSTLICHER INTELLIGENZ Quelle: https://cdn-images-1.medium.com/max/800/0*y707xutx3zmvjkxx.png

Mehr

Künstliche Intelligenz

Künstliche Intelligenz 1. Juni, 2017 Künstliche Intelligenz Stand der Forschung, Aktuelle Probleme & Herausforderungen Prof. Dr. Roland Kwitt Fachbereich Computerwissenschaften Universität Salzburg Übersicht Begrifflichkeiten

Mehr

Neuronale Netze und PyTorch

Neuronale Netze und PyTorch Neuronale Netze und PyTorch Helmut Schmid Centrum für Informations- und Sprachverarbeitung Ludwig-Maximilians-Universität München Stand: 9. April 2018 Helmut Schmid (CIS, LMU) Neuronale Netze und PyTorch

Mehr

Künstliche neuronale Netze am Beispiel der Klassifizierung von Scandaten

Künstliche neuronale Netze am Beispiel der Klassifizierung von Scandaten GYMNASIUM DER STADT MESCHEDE FACHARBEIT Künstliche neuronale Netze am Beispiel der Klassifizierung von Scandaten Autor: Lukas MERTENS Betreuer: C. LÖSER Konzeption und Implementierung künstlicher neuronaler

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung Kurze Einführung in Python

Softwareprojektpraktikum Maschinelle Übersetzung Kurze Einführung in Python Softwareprojektpraktikum Maschinelle Übersetzung Kurze Einführung in Python Julian Schamper, Jan Rosendahl mtprak18@i6.informatik.rwth-aachen.de 11. April 2018 Human Language Technology and Pattern Recognition

Mehr

Automatisierte Hyperparameter Optimierung im Maschinellen Lernen

Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Nicolas Schilling Information Systems and Machine Learning Lab (ISMLL)

Mehr

Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders

Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders Gerhard Svolba SAS Austria Mariahilfer Straße 116 A-1070 Wien Sastools.by.gerhard@gmx.net Zusammenfassung

Mehr

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung 26.10.2016, TP 2: Arbeiten von A.R.T. TP2: Tracking und Umfelderkennung Markerloses Tracking texturierte Objekte Umfelderkennung

Mehr

Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks. Master Grundseminar WiSe 2014/2015 Victoria Bibaeva

Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks. Master Grundseminar WiSe 2014/2015 Victoria Bibaeva Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks Master Grundseminar WiSe 2014/2015 Victoria Bibaeva Inhalte Einführung Convolutional Neuronal Networks (Faltungsnetzwerke)

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

Automatische Spracherkennung

Automatische Spracherkennung Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.

Mehr

Interdisziplinäre fachdidaktische Übung: Formale Sprache Definitionen, Funktionen

Interdisziplinäre fachdidaktische Übung: Formale Sprache Definitionen, Funktionen Interdisziplinäre fachdidaktische Übung: Formale Sprache Definitionen, en SS 2013: Grossmann, Jenko 1 Definitionen Folgenden Begriffe werden oft synonym verwendet: Formale Sprache Programmiersprache Computersprache

Mehr

Gliederung. n Teil I: Einleitung und Grundbegriffe. n Teil II: Imperative und objektorientierte Programmierung

Gliederung. n Teil I: Einleitung und Grundbegriffe. n Teil II: Imperative und objektorientierte Programmierung Gliederung n Teil I: Einleitung und Grundbegriffe l 1. Organisatorisches l 2. Grundlagen von Programmiersprachen n Teil II: Imperative und objektorientierte Programmierung l 1. Grundelemente der Programmierung

Mehr

Raum-zeitliche. in Sensordaten. Mustererkennung. mit Deep Learning. Felix Kunde, Petra Sauer

Raum-zeitliche. in Sensordaten. Mustererkennung. mit Deep Learning. Felix Kunde, Petra Sauer Raum-zeitliche Mustererkennung in Sensordaten mit Deep Learning Felix Kunde, Petra Sauer About me Wissenschaftlicher Mitarbeiter @BeuthHS Geographie / GIS Background Fokus der letzten Jahre: Geodatenbanken

Mehr

Corpus based Identification of Text Segments. Thomas Ebert Betreuer: MSc. Martin Schmitt

Corpus based Identification of Text Segments. Thomas Ebert Betreuer: MSc. Martin Schmitt Corpus based Identification of Text Segments Thomas Ebert Betreuer: MSc. Martin Schmitt Übersicht 1. Motivation 2. Ziel der Arbeit 3. Vorgehen 4. Probleme 5. Evaluierung 6. Erkenntnisse und offene Fragen

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Probleme des Backpropagation-Algorithmus und Alternativen Seminar

Mehr

Einfaches Framework für Neuronale Netze

Einfaches Framework für Neuronale Netze Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.

Mehr

zu große Programme (Bildschirmseite!) zerlegen in (weitgehend) unabhängige Einheiten: Unterprogramme

zu große Programme (Bildschirmseite!) zerlegen in (weitgehend) unabhängige Einheiten: Unterprogramme Bisher Datentypen: einfach Zahlen, Wahrheitswerte, Zeichenketten zusammengesetzt Arrays (Felder) zur Verwaltung mehrerer zusammengehörender Daten desselben Datentypes eindimensional, mehrdimensional, Array-Grenzen

Mehr