Softwareprojektpraktikum Maschinelle Übersetzung Grundlagen Neuronaler Netze und mxnet
|
|
- Nicolas Melsbach
- vor 5 Jahren
- Abrufe
Transkript
1 Softwareprojektpraktikum Maschinelle Übersetzung Grundlagen Neuronaler Netze und mxnet Julian Schamper, Jan Rosendahl 2. Mai 2018 Human Language Technology and Pattern Recognition Computer Science Department, RWTH Aachen University J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 1 / Mai 2018
2 1. Maschinelles Lernen 2. Neuronale Netzwerke 3. Motivation: Symbolisches Rechnen und mxnet 4. Einführung: Symbolisches Rechnen in mxnet J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 2 / Mai 2018
3 Section 1 Maschinelles Lernen J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 3 / Mai 2018
4 Maschinelles Lernen Maschinelles Lernen A computer program is said to learn from experience E with respect to some class of tasks T and performance measure P, if its performance at tasks in T, as measured by P, improves with experience E Mitchell (1997) Idee Das Programm lernt aus Beispielen/Trainingsdaten Regeln Anhand des Gelernten können Aussagen über ungesehene Ereignisse getroffen werden Verhalten des Programms wird bewertet mit einer Metrik J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 4 / Mai 2018
5 Maschinelles Lernen Beispiele Regressionsgerade Clustering Klassifizierung: Translation... Alle Systeme Maschinellen Lernens sind bis heute spezialisierte Systeme. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 5 / Mai 2018
6 Maschinelles Lernen Datensätze Trainigsdaten: auf diesen Daten wird das System trainiert Validierungsdaten/Entwicklungsdaten: auf diesen Daten werden Designentscheidungen bezüglich des Systems getroffen. Beispielsweise: Mit welchen Gewichten werden mehrere Modelle kombiniert? Wann ist das Training beendet? Testdaten: auf diesen Daten wird das System nur ausgewertet. Wichtig: Diese Datensätze müssen strikt getrennt werden. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 6 / Mai 2018
7 Überanpassung & Unteranpassung Problem Die Komplexität des Modells muss geeignet sein die Daten angemessen beschreiben zu können- Überanpassung (Overfitting): Das Modell passt sich zu stark an die Daten an Unteranpassung (Underfitting): Das Modell passt sich nicht stark genug an die Daten an Unteranpassung Ok Überanpassung J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 7 / Mai 2018
8 Überanpassung & Unteranpassung Unteranpassung Trainingsfehler und Testsetsfehler (Generalisierungsfehler) werden nicht kleiner Lösung: Aussagekräftigeres Modell Überanpassung fallenden Trainingsfehler zeitgleich mit einem steigenden Generalisierungsfehler Lösung:? Ziel ist ein geringer Fehler auf einem ungesehenen Testset. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 8 / Mai 2018
9 Section 2 Neuronale Netzwerke J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 9 / Mai 2018
10 Neuronale Netzwerke Neuronale Netzwerke Erste Experimente seit den 60er Jahren Wichtiges stand-alone Systeme in der maschinellen Übersetzung z.b. [Sutskever & Vinyals + 14], Durchbruch zum state-of-the-art [Bahdanau & Cho + 14] Eigenschaften sehr strukturierte, hochdimensionale Funktionen große Anzahl freier Parameter einfache Rechenoperationen parallelisierbar systematische Parameteraktualisierung möglich J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 10 / Mai 2018
11 Neuronale Netzwerke Varianten von ANNs Feedforward Netzwerke, Multilayer Perceptrons (MLP) Rekurrente Neuronale Netzwerke (RNN) Convolutional Neural Network (CNN, ConvNet) J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 11 / Mai 2018
12 Neuronale Netzwerke Grundstruktur Eingabelayer der Größe N: (x 1,... x N ) verdeckte (hidden) layer beliebige Anzahl Jedes versteckte Layer hat ebenfalls feste Größe Ausgabelayer der Größe M: y 1,... y M Die Anzahl der Layer (minus eins) wird oft als Tiefe/depth des Netzwerks bezeichnet. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 12 / Mai 2018
13 Eingabelayer & Ausgabelayer Neuronale Netzwerke erhält Eingabe (x 1,... x N ) = (y (0) 1,... y(0) N ) keine Rechenoperation Versteckte Layer (Vollverbunden) Variablen Layer l Größe/Anzahl künstlicher Neuronen: N (l) Eingabe: y (l 1), Ausgabe: y (l) Gewichte: ω (l) i,j, Bias b(l) i Berechnung des versteckten Zustands (hidden states) Ausgabelayer y (l) j := σ (l) N (l) i=1 ω (l) i,j y(l 1) i + b (l) stellt Ausgabe bereit (y 1,... y M ) = (y (L) 1,... y (L) M ) Rechenoperation wie im versteckten Layer J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 13 / Mai 2018 j
14 Neuronale Netzwerke Künstliches Neuron/Knote/Node Layer l besteht aus Nodes/Neuronen y (l) j Mögliche Aktivierungsfunktionen σ: tanh, sigmoid ReLu(x) = max(0, x) Layer Neben den vollverbundenen Layern (fully connected) gibt es zahlreiche Alternativen Softmax Pooling Regularisierungslayer Attention Layer Rekurrente Layer... J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 14 / Mai 2018
15 Beispiel Anmerkungen Layer Rechenoperationen können als Matrixrechnungen dargestellt werden y (l) = σ (l) ( A (l) y (l 1) + b (l)) Mit der Konvention y (l 1) 0 = 1 kann der Bias Vektor b auch als Teil der Gewichtsmatrix A verstanden werden ( ( )) 1 y (l) = σ (l) Â (l) y (l 1) Funktionen wie σ werden elementweise ausgewertet. In der Regel ist aus dem Kontext klar welche Darstellung verwendet wird. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 15 / Mai 2018
16 Beispiel Ausgabelayer M = 3 (A (3), b (3) ) Vorwärtsdurchlauf/(forward pass): ( y = σ A (3) σ [A (2) σ(a (1) x + b (1) ) + b (2)] + b (3)) d.h. Ausgabe y wird aus Eingabe x berechnet Verst. Layer 2 Verst. Layer 1 (A (2), b (2) ) (A (1), b (1) ) Eingabelayer N = 5 J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 16 / Mai 2018
17 Neuronale Netzwerke Ausgabelayer Im Falle von Klassifikationsproblemen wird als letztes Layer oft ein softmax-layer verwendet: softmax(v 1,..., v M ) := exp(v 1 ) M m=1 exp(v m). exp(v M ) M m=1 exp(v m) wandelt beliebige Werte in Wahrscheinlichkeitsverteilung wird meist vor der Cross-Entropy-Verlustfunktion verwendet J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 17 / Mai 2018
18 Training Bisher: Wie wendet man das neuronale Netzwerk auf Daten an? Training: Wie werden die Gewichte (d.h. die Variablen A (l), b (l) )) des Netzwerks am besten gewählt? Geänderter Blickpunkt Bisher: Betrachten das Netzwerk als Funktion: y ω : R N R M : x y ω (x) Training: Betrachten das Netzwerk als Funktion: y ω : W R : ω score(y ω ) Mit W := W N der Menge aller Parameterbelegungen des Netzwerks N. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 18 / Mai 2018
19 Verlustfunktion (loss function) Verlustfunktion ein Neuronales Netzwerk ist eine Funktion W R M Die Optimierung benötigt W R Verwende Fehlerfunktion L : R M R Beispiele Squared loss L[Y, y ω (X)] = 1 X Cross-Entropy/Kreuzentropie L[Y, y ω (X)] = 1 X (x,y) (X,Y ) M (x,y) (X,Y ) m=1 vergleicht zwei Wahrscheinlichkeitsverteilungen y y ω (x) 2 2 y m log[(y ω (x)) m ] J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 19 / Mai 2018
20 Gradient Based Training Problem Finde eine optimale Parameterbelegung ω W für Gewichte und Bias-Vektoren: ω = arg min L[Y, y ω (X)]. ω W Gradientenverfahren/Gradient descent Approximiert ein lokales Minimum einer Funktion L mit Parametern ω iterativ. Algorithm 1: Gradientenverfahren ω := random_values() while not converged do for i, j, l do ω (l) i,j := ω(l) i,j + λ L[Y,y ω(x)] ω (l) i,j end end Mit Lernrate (learning rate) λ. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 20 / Mai 2018
21 Backpropagation - Idee Ableitung der Fehlerfunktion Ausgangssituation: L[Y, y(x)] = 1 X M (x,y) (X,Y ) m=1 Annahme: Letztes Layer ist vollverbunden. y m log [ ( σ (L) A (L) y (L 1)) ] m Ableitung mittels Kettenregel: L[Y, y(x)] ω (L) i,j = 1 X (x,y) (X,Y ) M m=1 y m log[σ (L) ] σ (L) σ(l) (z) z ( A (L) y (L 1)) m ω (L) i,j L[Y, y(x)] ω (L 1) i,j = L[Y, y(x)] A (L) y (L 1) A(L) y (L 1) ω (L 1) i,j J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 21 / Mai 2018
22 Training Probleme Verlustfunktionen summieren über alle Trainingsdaten L[Y, y ω (X)] = 1 M y m log[(y ω (x)) m ] X (x,y) (X,Y ) m=1 für ein Parameterupdate müssen alle Trainingsdaten durch das Modell verarbeitet werden. Stochastic Gradient Descent (SGD) Zerlege Trainingsdaten in Batches b: (X b, Y b ) (X, Y ). L[Y, y(x)] L[Y b, y(x b )] Nach jeder Gewichtsaktualisierung wird ein neuer Batch ausgewählt. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 22 / Mai 2018
23 Lernraten SGD Varianten In der Praxis wird die Lernrate λ im Verlaufe des Trainings gesenkt. Zahlreiche Methoden um die Lernrate zu kontrollieren/reduzieren Lernrate alle k Iterationen halbieren Lernrate halbieren, wenn keine Verbesserung für k Iterationen beobachtet wurde... Vielzahl von Optimizern die weitergehende Heuristiken anwenden Adadelta [Zeiler 12] Adam [Kingma & Ba 14]... J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 23 / Mai 2018
24 Fragen? J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 24 / Mai 2018
25 Section 3 Motivation: Symbolisches Rechnen und mxnet J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 25 / Mai 2018
26 Motivation: Neuronale Netze in der Praxis I Anforderung an Implementierung Das neuronale Netzwerk soll auf unterschiedliche Arten verwendet werden können Ausführung der modellierten Funktion: y ω : x y ω (x) Training: Verändern der Gewichte / Parameter des Netzwerks ω (automatische) Berechnung von Gradienten Flexibilität bei Modifikationen und Erweiterungen des Netzwerkes z.b. Einfügen eines weiteren Layers, Änderung der Aktivierungsfunktionen σ Änderung an einer Stelle im Code sollte sich direkt auf Ausführung und Training auswirken Wiederverwendung / Bereitstellung typischer Bausteine fully connected layer, softmax layer, cross entropy loss,... Effiziente Verarbeitung großer Datenmengen J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 26 / Mai 2018
27 Motivation: Neuronale Netze in der Praxis II Typische Lösungsansätze Zuerst: Symbolische Modellierung eines Berechnungsgraphen (ein Mal) Anschließend: Unterschiedliche Arten der Anwedung des gleichen Berechnungsgraphen auf unterschiedliche konkrete Daten (mehrmals) Bereitstellung typischer Bausteine und Funktionalitäten durch eine Bibliothek GPU Unterstützung zur Beschleunigung der Berechnungen und maschinen-nahe Implementierung der rechenintensiven Bausteine (oft in C++ und Nvidia CUDA) Entsprechende Bibliotheken mxnet, TensorFlow, (Py)Torch, Caffe, Theano,... in diesem Softwareprojektpraktikum: mxnet J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 27 / Mai 2018
28 Section 4 Einführung: Symbolisches Rechnen in mxnet J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 28 / Mai 2018
29 Einordnung: Symbolische vs. Imperative Programmierung Imperative Programmierung (vereinfachte Darstellung) Ausführung der Befehle in der gegebenen Reihenfolge (direkt mit konkreten Daten) In mxnet: Objekte und Funktionen aus mxnet.ndarray Symbolische Programmierung (vereinfachte Darstellung) Definition von Platzhaltern (Variablen) Verbund der Variablen mit Rechenoperationen zu einem beliebig komplexen Berechnungsgraphen (keine konkrete Berechnung) Auswertung der Ausgabe-Variablen unter Angabe konkreter Daten (vorher eventuell Vereinfachung und Optimierung des Graphen) In mxnet: Objekte und Funktionen aus mxnet.symbol J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 29 / Mai 2018
30 Beispiel 1: f = a + b var_a = mx.sym.variable("a") var_b = mx.sym.variable("b") var_f = var_a + var_b _plus0 # mx.viz.plot_network(var_f).render() A = mx.nd.array([3,5,1]) B = mx.nd.array([6,5,2]) print(var_f.eval(a=a, b=b)) a b [ [ ] <NDArray selbst die Shapes der Daten sind nicht bei Modellierung bekannt J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 30 / Mai 2018
31 Beispiel 2: f = (a b + c) d 2 Variante I var_a = mx.sym.variable("a") var_b = mx.sym.variable("b") var_c = mx.sym.variable("c") var_d = mx.sym.variable("d") var_f = (var_a * var_b + var_c) * (var_d * var_d) Variante II: Wiederverwendung von Python Variablen var_f = mx.sym.variable("a") var_f = var_f * mx.sym.variable("b") var_f = var_f + mx.sym.variable("c") var_ds = mx.sym.variable("d") var_ds = var_ds * var_ds var_f = var_f * var_ds J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 31 / Mai 2018
32 Beispiel 2: f = (a b + c) d 2 Beide Varianten resultieren in den gleichen Berechnungsgraphen _mul2 _plus0 _mul1 _mul0 c d a b Variante II verdeutlicht aber, dass der Aufbau des Graphen auch Schritt für Schritt geschehen kann Dies kann auch innerhalb von Python Kontrollstrukturen geschehen J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 32 / Mai 2018
33 simple_bind und forward I in Beispiel 1 wurde Symbol.eval benutzt dies führt intern die Funktionen Symbol.bind und Executor.forward hintereinander aus meist ist werden diese Schritte getrennt und in leicht abgewandelter Form durchgeführt, z.b. häufig Symbol.simple_bind Executor.forward (Executor.backward) J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 33 / Mai 2018
34 simple_bind und forward II Fortführung Beispiel 2: f = (a b + c) d 2 ex_f = var_f.simple_bind(ctx=mx.cpu(), a=(1,)) A = mx.nd.array([3]); B = mx.nd.array([2]) C = mx.nd.array([4]); D = mx.nd.array([3]) print(ex_f.forward(a=a, b=b, c=c, d=d)) [ [ 90.] <NDArray ctx: Kontext z.b. mx.cpu() oder mx.gpu() simple_bind benötigt Shapes der späteren Argumente hier reicht die Angabe für ein Argument, alle anderen Shapes lassen sich ableiten (intern durch Symbol.infer_shape) forward wird mehrmals für unterschiedliche Daten aufgerufen, simple_bind nur ein Mal J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 34 / Mai 2018
35 Berechnung der Gradienten forward und backward I Fortführung Beispiel 2: f = (a b + c) d 2 ex_f = var_f.simple_bind(ctx=mx.cpu(), a=(1,)) A = mx.nd.array([3]); B = mx.nd.array([2]) C = mx.nd.array([4]); D = mx.nd.array([3]) ex_f.forward(a=a, b=b, c=c, d=d) ex_f.backward(out_grads=mx.nd.array([1])) print(ex_f.grad_dict) b : [ 27.] <NDArray d : [ 60.] <NDArray a : [ 18.] <NDArray c : [ 9.] <NDArray ex_f.grad_dict enthält die Gradienten f a, f b, f c, f d J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 35 / Mai 2018
36 Berechnung der Gradienten forward und backward II Anmerkungen ex_f.forward(a=a, b=b, c=c, d=d) ex_f.backward(out_grads=mx.nd.array([1])) Die Gradienten werden über die Kettenregel mittels eines Vorwärts und eines Rückwärts Schrittes berechnet out_grads hier auf f f = 1 wenn für eine andere externe Funktion g der Gradient g f würde man durch setzen von out_grads auf g f die Gradienten g a, g b, g c, g d erhalten bekannt ist, J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 36 / Mai 2018
37 mxnet: Resourcen für symbolisches Rechnen Hilfreiche Tutorials / Dokumentationen Symbolic Configuration and Execution in Pictures in_pictures/symbol_in_pictures.html Deep Learning Programming Style: Symbolic vs. Imperative Programs program_model.html Symbol API symbol.html Symbol - Neural network graphs and auto-differentiation symbol.html J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 37 / Mai 2018
38 Fragen? J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 38 / Mai 2018
39 Literature I D. Bahdanau, K. Cho, Y. Bengio: Neural Machine Translation by Jointly Learning to Align and Translate. CoRR, Vol. abs/ , D.P. Kingma, J. Ba: Adam: A method for stochastic optimization. arxiv preprint arxiv: , Vol., I. Sutskever, O. Vinyals, Q.V. Le: Sequence to Sequence Learning with Neural Networks. In Z. Ghahramani, M. Welling, C. Cortes, N.D. Lawrence, K.Q. Weinberger, editors, Advances in Neural Information Processing Systems 27, pp Curran Associates, Inc., Wikipedia, the free encyclopedia: File:Overfitting.svg, [Online; accessed April 27, 2018]. J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 39 / Mai 2018
40 Literature II M.D. Zeiler: ADADELTA: an adaptive learning rate method. arxiv preprint arxiv: , Vol., J. Schamper, J. Rosendahl: Praktikum Maschinelle Übersetzung 40 / Mai 2018
Softwareprojektpraktikum Maschinelle Übersetzung Feedforward Modell und Praktische Anmerkungen (zum Training und mxnet)
Softwareprojektpraktikum Maschinelle Übersetzung Feedforward Modell und Praktische Anmerkungen (zum Training und mxnet) Julian Schamper, Jan Rosendahl mtprak18@i6.informatik.rwth-aachen.de 9. Mai 2018
MehrSoftwareprojektpraktikum Maschinelle Übersetzung Verbesserungen für Neuronale Übersetzungssysteme
Softwareprojektpraktikum Maschinelle Übersetzung Verbesserungen für Neuronale Übersetzungssysteme Julian Schamper, Jan Rosendahl mtprak18@i6.informatik.rwth-aachen.de 04. Juli 2018 Human Language Technology
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap
MehrGrundlagen zu neuronalen Netzen. Kristina Tesch
Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen
Mehr6.2 Feed-Forward Netze
6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir
MehrSeminar: Maschinelles Lernen und Deep Learning
Seminar: Maschinelles Lernen und Deep Learning Sommersemester 2018 Prof. Dr. Xiaoyi Jiang, Sören Klemm, Aaron Scherzinger Institut für Informatik, Arbeitsgruppe Pattern Recognition and Image Analysis (PRIA)
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrRekurrente Neuronale Netze
Rekurrente Neuronale Netze Gregor Mitscha-Baude May 9, 2016 Motivation Standard neuronales Netz: Fixe Dimensionen von Input und Output! Motivation In viele Anwendungen variable Input/Output-Länge. Spracherkennung
MehrSoftwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de Vorbesprechung 5. Aufgabe 22. Juni 2017 Human Language Technology
MehrNeuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 01 Julia Kreutzer 25. Oktober 2016 Institut für Computerlinguistik, Heidelberg 1 Übersicht 1. Deep Learning 2. Neuronale Netze 3. Vom Perceptron
MehrTensorFlow Open-Source Bibliothek für maschinelles Lernen. Matthias Täschner Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig
TensorFlow Open-Source Bibliothek für maschinelles Lernen Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig Motivation Renaissance bei ML und KNN Forschung bei DNN fortgeschrittene
MehrNeuronale Netze. Automatische Hinderniserkennung Paul Fritsche
1 Neuronale Netze Automatische Hinderniserkennung 2 Hintergrund Grundlagen Tensorflow Keras Fazit 3 TTBN 4 TTBN 5 TTBN 6 TTBN 7 Biological Neural Network By BruceBlaus - Own work, CC BY 3.0 8 Artificial
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrKapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017
10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion
MehrDer Sprung in die Zukunft! Einführung in neuronale Netzwerke
Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale
MehrSoftwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl max.bleu@i6.informatik.rwth-aachen.de 5. Mai 2017 Human Language Technology and Pattern Recognition Lehrstuhl
MehrScalable Deep Learning. Big Data, NLP, Machine Perception
Scalable Deep Learning Big Data, NLP, Machine Perception 2 Facebook: Accurate, Large Minibatch SGD: Training ImageNet in 1 Hour (2017) Yang You, Zhao Zhang, Cho-Jui Hsieh, James Demmel, Kurt Keutzer: ImageNet
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrKünstliche Neuronale Netze
Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung
MehrSoftwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl {peter,guta,rosendahl}@i6.informatik.rwth-aachen.de Vorbesprechung 4. Aufgabe 2. Juni 2017 Human Language
MehrSoftwareprojektpraktikum Maschinelle Übersetzung Automatische Evaluation
Softwareprojektpraktikum Maschinelle Übersetzung Automatische Evaluation Julian Schamper, Jan Rosendahl mtprak18@i6.informatik.rwth-aachen.de 11. April 2018 Human Language Technology and Pattern Recognition
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 06 Julia Kreutzer 13. Dezember 2016 Institut für Computerlinguistik, Heidelberg 1 Abbildung 1: Droid-Life Artikel vom 15.11.16 2 Overview
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrMustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12
Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1
MehrNeural Networks. mit. Tools für Computerlinguist/innen
Neural Networks mit Tools für Computerlinguist/innen WS 17 / 18 Anwendungsbeispiele Anwendungsbeispiele Anwendungsbeispiele Anwendungsbeispiele WaveNet ist ein Voice Synthesizer und ein Projekt von Google
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
MehrFaltungsnetzwerke. (Convolutional Neural Networks) Maximilian Schmidt. Faltungsnetzwerke
(Convolutional Neural Networks) Maximilian Schmidt 1 Inhalt Deconvolution ConvNet Architektur History Convolution layer Layers ReLu layer Pooling layer Beispiele Feature Engineering 2 Das Ziel Klassifizierung
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Übungssitzung 1: Organisation und Orientierung Julian Hitschler ICL, Universität Heidelberg, WiSe 2016/17 27.10.2016 1 / 1 Inhalt Vorstellung Organisatorisches
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrWeitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff
Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization
MehrAnalyse komplexer Szenen mit Hilfe von Convolutional Neural Networks
Analyse komplexer Szenen mit Hilfe von Convolutional Anwendungen 1 Vitalij Stepanov HAW-Hamburg 24 November 2011 2 Inhalt Motivation Alternativen Problemstellung Anforderungen Lösungsansätze Zielsetzung
MehrLineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren
Lineare Regression Christian Herta Oktober, 2013 1 von 33 Christian Herta Lineare Regression Lernziele Lineare Regression Konzepte des Maschinellen Lernens: Lernen mittels Trainingsmenge Kostenfunktion
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 03 Julia Kreutzer 15. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Metaparameter 3. In der Praxis 4.
MehrÜbersicht. Definition Daten Problemklassen Fehlerfunktionen
Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung
MehrRekurrente Neuronale Netzwerke
Rekurrente Neuronale Netzwerke Benjamin Roth Centrum für Informations- und Sprachverarbeitung Ludwig-Maximilian-Universität München beroth@cis.uni-muenchen.de Benjamin Roth (CIS) Rekurrente Neuronale Netzwerke
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 00: Organisatorisches Julia Kreutzer & Julian Hitschler 25. Oktober 2016 Institut für Computerlinguistik, Heidelberg 1 Überblick 1. Vorstellung
MehrGrundlagen Neuronaler Netze
Grundlagen Neuronaler Netze Proseminar Data Mining Julian Schmitz Fakultät für Informatik Technische Universität München Email: ga97wuy@mytum.de Zusammenfassung Diese Ausarbeitung will sich als hilfreiches
MehrRekurrente / rückgekoppelte neuronale Netzwerke
Rekurrente / rückgekoppelte neuronale Netzwerke Forschungsseminar Deep Learning 2018 Universität Leipzig 12.01.2018 Vortragender: Andreas Haselhuhn Neuronale Netzwerke Neuron besteht aus: Eingängen Summenfunktion
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrMarina Sedinkina Folien von Benjamin Roth Planen (CIS LMU andmünchen) Evaluieren von Machine Learning Experimenten 1 / 38
Planen and Evaluieren von Machine Learning Eperimenten Marina Sedinkina Folien von Benjamin Roth CIS LMU München Evaluieren von Machine Learning Eperimenten 1 / 38 Übersicht 1 Entwickeln von maschinellen
MehrImage: (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen
Image: https://pixabay.com/de/netz-netzwerk-programmierung-3706562/ (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen Künstliche Intelligenz Was ist das überhaupt? Was kann sie (nicht)?
MehrSoftwareprojektpraktikum Maschinelle Übersetzung
Softwareprojektpraktikum Maschinelle Übersetzung Jan-Thorsten Peter, Andreas Guta, Jan Rosendahl {peter,guta,schamper}@i6.informatik.rwth-aachen.de Vorbesprechung 3. Aufgabe 19. Mai 2017 Human Language
MehrRidge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel
Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel Dr. Dominik Grimm Probelehrveranstaltung Fakultät für Informatik und Mathematik Hochschule
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrSo lösen Sie das multivariate lineare Regressionsproblem von Christian Herta
Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion
MehrNeuronale Netze Aufgaben 3
Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:
MehrLearning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation. Yupeng Guo
Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation Yupeng Guo 1 Agenda Introduction RNN Encoder-Decoder - Recurrent Neural Networks - RNN Encoder Decoder - Hidden
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen
Mehr1. Lernen von Konzepten
1. Lernen von Konzepten Definition des Lernens 1. Lernen von Konzepten Lernziele: Definitionen des maschinellen Lernens kennen, Klassifikationen des maschinellen Lernens kennen, Das Prinzip des induktiven
MehrAutonomes Fahren und KI
Autonomes Fahren und KI Kann eine autonom steuernde KI den normal reagierenden menschlichen Fahrer sicher ersetzen/übertreffen? Marco-Marcel Pechtold 19. Januar 2018 Inhaltsverzeichnis 1 Einleitung 2 2
MehrEinführung in NLP mit Deep Learning
Einführung in NLP mit Deep Learning Hans-Peter Zorn Minds mastering Machines, Köln, 26.4.2018 NLP ist auf einmal überall Zusammenfassung aggregated reviews Dokumentklassifikation Übersetzung Dialogsysteme
MehrNeuronale Netze u. Anwendungen, 17. Jan. 2012
Neuronale Netze u. Anwendungen, 17. Jan. 2012 Backpropagation Implementation Speed, Training Generalization Choice of Architecture Algorithms Backpropagation is Computer Intenstive during Training very
MehrKünstliche Neuronale Netze
Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze
MehrTechnische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt
MehrIntelligente Algorithmen Einführung in die Technologie
Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche
MehrKlassifikationsverfahren und Neuronale Netze
Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrKlassifikation von Multidimensionale Zeitreihen mit Hilfe von Deep Learning
Master Informatik - Grundseminar Klassifikation von Multidimensionale Zeitreihen mit Hilfe von Deep Learning Manuel Meyer Master Grundseminar WS 2014 / 2015 Betreuender Professor: Prof. Dr.-Ing. Andreas
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrMaschinelles Lernen SS 2005
1 Maschinelles Lernen SS 2005 Jianwei Zhang AB TAMS FB Informatik Universität Hamburg Büro: F308 Tel.: 2430 E-mail: zhang Web: http://tams-www.informatik.uni-hamburg.de/ Sprechstunde: Do. 15:00-16:00 2
MehrSkipgram (Word2Vec): Praktische Implementierung
Skipgram (Word2Vec): Praktische Implementierung Benjamin Roth Centrum für Informations- und Sprachverarbeitung Ludwig-Maximilian-Universität München beroth@cis.uni-muenchen.de Benjamin Roth (CIS) Skipgram
MehrAllgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40
Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrKapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN
Kapitel LF: I I. Einführung in das Maschinelle Lernen Bemerkungen: Dieses Kapitel orientiert sich an dem Buch Machine Learning von Tom Mitchell. http://www.cs.cmu.edu/ tom/mlbook.html 1 Autoeinkaufsberater?
MehrRobust Named Entity Recognition (NER) in Idiosyncratic Domains. Eine automatische Identifikation und Klassifikation von Eigennamen
Robust Named Entity Recognition (NER) in Idiosyncratic Domains Eine automatische Identifikation und Klassifikation von Eigennamen Gliederung 1 Einführung 2 Ein neues Neuronales Netzwerk 3 Datexis 4 Evaluation
MehrSeminararbeit über Visuelles Lernen Arithmetischer Operationen
Seminararbeit über Visuelles Lernen Arithmetischer Operationen Lara Aubele Seminar KI: gestern, heute, morgen Angewandte Informatik, Universität Bamberg Zusammenfassung. Die Arbeit Visual Learning of Arithmetic
MehrMACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN
MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN FRANK ORBEN, TECHNICAL SUPPORT / DEVELOPER IMAGE PROCESSING, STEMMER IMAGING GLIEDERUNG Einführung Aufgabe: Klassifikation
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?
MehrDeep Learning zur Objektdetektion in Bildern mit Region-based Convolutional Neural Networks und GPU-Computing
Fachbereich Informatik und Medien MASTERARBEIT Deep Learning zur Objektdetektion in Bildern mit Region-based Convolutional Neural Networks und GPU-Computing Vorgelegt von: Jonas Preckwinkel am: 14.03.2018
MehrStatistical Learning
Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in
MehrKLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM
KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM VOR NACH MATRIKELNUMMER: STUDIENGANG: B.Sc. Computerlinguistik, B.Sc. Informatik, Magister
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 05 Julia Kreutzer 29. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Recurrent Neural Networks 3. LSTM
MehrNatural language processing
Natural language processing Guangyu Ge Betreuer: Tobias 29.01.2018 GLIEDERUNG 1. Einführung 2. Anwendungsbereiche 3. Verfahren bei NLP 4. Zusammenfassung ZIELE VON KÜNSTLICHER INTELLIGENZ Quelle: https://cdn-images-1.medium.com/max/800/0*y707xutx3zmvjkxx.png
MehrKünstliche Intelligenz
1. Juni, 2017 Künstliche Intelligenz Stand der Forschung, Aktuelle Probleme & Herausforderungen Prof. Dr. Roland Kwitt Fachbereich Computerwissenschaften Universität Salzburg Übersicht Begrifflichkeiten
MehrNeuronale Netze und PyTorch
Neuronale Netze und PyTorch Helmut Schmid Centrum für Informations- und Sprachverarbeitung Ludwig-Maximilians-Universität München Stand: 9. April 2018 Helmut Schmid (CIS, LMU) Neuronale Netze und PyTorch
MehrKünstliche neuronale Netze am Beispiel der Klassifizierung von Scandaten
GYMNASIUM DER STADT MESCHEDE FACHARBEIT Künstliche neuronale Netze am Beispiel der Klassifizierung von Scandaten Autor: Lukas MERTENS Betreuer: C. LÖSER Konzeption und Implementierung künstlicher neuronaler
MehrSoftwareprojektpraktikum Maschinelle Übersetzung Kurze Einführung in Python
Softwareprojektpraktikum Maschinelle Übersetzung Kurze Einführung in Python Julian Schamper, Jan Rosendahl mtprak18@i6.informatik.rwth-aachen.de 11. April 2018 Human Language Technology and Pattern Recognition
MehrAutomatisierte Hyperparameter Optimierung im Maschinellen Lernen
Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Automatisierte Hyperparameter Optimierung im Maschinellen Lernen Nicolas Schilling Information Systems and Machine Learning Lab (ISMLL)
MehrKann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders
Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders Gerhard Svolba SAS Austria Mariahilfer Straße 116 A-1070 Wien Sastools.by.gerhard@gmx.net Zusammenfassung
MehrEchtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH
Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung 26.10.2016, TP 2: Arbeiten von A.R.T. TP2: Tracking und Umfelderkennung Markerloses Tracking texturierte Objekte Umfelderkennung
MehrDreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks. Master Grundseminar WiSe 2014/2015 Victoria Bibaeva
Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks Master Grundseminar WiSe 2014/2015 Victoria Bibaeva Inhalte Einführung Convolutional Neuronal Networks (Faltungsnetzwerke)
MehrVorlesung Digitale Bildverarbeitung Sommersemester 2013
Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches
MehrAutomatische Spracherkennung
Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.
MehrInterdisziplinäre fachdidaktische Übung: Formale Sprache Definitionen, Funktionen
Interdisziplinäre fachdidaktische Übung: Formale Sprache Definitionen, en SS 2013: Grossmann, Jenko 1 Definitionen Folgenden Begriffe werden oft synonym verwendet: Formale Sprache Programmiersprache Computersprache
MehrGliederung. n Teil I: Einleitung und Grundbegriffe. n Teil II: Imperative und objektorientierte Programmierung
Gliederung n Teil I: Einleitung und Grundbegriffe l 1. Organisatorisches l 2. Grundlagen von Programmiersprachen n Teil II: Imperative und objektorientierte Programmierung l 1. Grundelemente der Programmierung
MehrRaum-zeitliche. in Sensordaten. Mustererkennung. mit Deep Learning. Felix Kunde, Petra Sauer
Raum-zeitliche Mustererkennung in Sensordaten mit Deep Learning Felix Kunde, Petra Sauer About me Wissenschaftlicher Mitarbeiter @BeuthHS Geographie / GIS Background Fokus der letzten Jahre: Geodatenbanken
MehrCorpus based Identification of Text Segments. Thomas Ebert Betreuer: MSc. Martin Schmitt
Corpus based Identification of Text Segments Thomas Ebert Betreuer: MSc. Martin Schmitt Übersicht 1. Motivation 2. Ziel der Arbeit 3. Vorgehen 4. Probleme 5. Evaluierung 6. Erkenntnisse und offene Fragen
MehrKapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen
Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Probleme des Backpropagation-Algorithmus und Alternativen Seminar
MehrEinfaches Framework für Neuronale Netze
Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.
Mehrzu große Programme (Bildschirmseite!) zerlegen in (weitgehend) unabhängige Einheiten: Unterprogramme
Bisher Datentypen: einfach Zahlen, Wahrheitswerte, Zeichenketten zusammengesetzt Arrays (Felder) zur Verwaltung mehrerer zusammengehörender Daten desselben Datentypes eindimensional, mehrdimensional, Array-Grenzen
Mehr