Künstliche Neuronale Netze

Ähnliche Dokumente
Künstliche neuronale Netze

Was sind Neuronale Netze?

Hannah Wester Juan Jose Gonzalez

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS Neuronale Netze. Von Deasy Sukarya & Tania Bellini

Neuronale Netze. Anna Wallner. 15. Mai 2007

Künstliche neuronale Netze

Theoretische Informatik 1

Einführung in neuronale Netze

Einführung in Neuronale Netze

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Grundlagen Neuronaler Netze

Eine kleine Einführung in neuronale Netze

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Einführung in Neuronale Netze

Künstliche Neuronale Netze und Data Mining

Technische Universität. Fakultät für Informatik

Einführung in. Neuronale Netze

auch: Konnektionismus; subsymbolische Wissensverarbeitung

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Machine Learning - Maschinen besser als das menschliche Gehirn?

Herzlich Willkommen. Spielstrategien. gehalten von Nils Böckmann

Vortrag zum Hauptseminar Hardware/Software Co-Design

Künstliche neuronale Netze

Kohonennetze Selbstorganisierende Karten

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.

Multi-Layer Neural Networks and Learning Algorithms

Predictive Modeling mit künstlich neuronalen Netzen

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Lernverfahren von Künstlichen Neuronalen Netzwerken

Künstliche Neuronale Netze. 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5.

Neuronale Netze mit mehreren Schichten

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze. Prof. Dr. Rudolf Kruse Christoph Doell, M.Sc.

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Kleines Handbuch Neuronale Netze

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Künstliche Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze

Neuronale Netze (I) Biologisches Neuronales Netz

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

5. Lernregeln für neuronale Netze

Neuronale Netze Eine Einführung

Grundlagen Künstlicher Neuronaler Netze

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion

Neuronale Netze. 11.Januar.2002

Simulation neuronaler Netzwerke mit TIKAPP

Realisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen

Die Sandy-Bridge Architektur

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF

Structurally Evolved Neural Networks for Forecasting

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Kapitel VI Neuronale Netze

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Fachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller

Zellulare Neuronale Netzwerke

Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Untersuchung der Berechnung der 3D-Punktkorrelation auf hochparallelen Plattformen

Computational Intelligence I Künstliche Neuronale Netze

Backpropagation. feedforward Netze

Untersuchung und Vorstellung moderner Grafikchiparchitekturen

Modellbildung und Simulation

Reinforcement Learning

Zeit- und Ressourcenplanung leicht gemacht - Unterstützung durch Simulation

Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN

Aufbau und Beschreibung Neuronaler Netzwerke

Neuronale Netze (Konnektionismus)

CLINICAL DECISION SUPPORT SYSTEMS

Proposal zur Masterarbeit. Kombination der neuroevolutionären Methoden EANT mit Q-Learning und CMA-ES

Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten

Folien.

Einführung in die Methoden der Künstlichen Intelligenz

Einführung in die Methoden der Künstlichen Intelligenz

Neuronale Netze. Literatur: J. Zupan, J. Gasteiger: Neural Networks in Chemistry and Drug Design, VCH, Weinheim, 2nd Ed. 1999, ISBN

Neuronale Netze. Thema: Semesterarbeit zum Forschungsseminar: Neuere psychologische Fachliteratur SS 2006

Facharbeit. Ratsgymnasium Bielefeld Schuljahr 2004/2005. aus dem Fach Biologie. Thema: Künstliche neuronale Netze

Transkript:

Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017

Gliederung 1. Motivation 2. Aufbau und Funktionsweise 3. Hardwarebedarf 4. Fazit Folie 2

1. Motivation Künstliche Neuronale Netze Gehirnmodell (Simulation von Neuronalen Netzen) Machine Learning Künstliche Intelligenz Strukturierter Aufbau Folie 3

1. Motivation Simulation des Gehirnmodells Aufbau: Funktion: Aufgabe: Problem: Neuronen Netz Simulation jedes Neurons Lösen von Problemen (Kognition umgestalten von Informationen) Lernverfahren Folie 4

1. Motivation Machine Learning System sammelt Wissen aus Daten Big Data Früher: Formalisierungen und Algorithmen (kompliziert für kognitive Aufgaben) Heute: Künstliche Neuronale Netze [GBC16] Folie 5

1. Motivation Anwendungen Modellbildung (Prognose, Kennlinien) Bildvearbeitung (allg. Mustererkennung) Automatisierung (Qualitätskontrolle) Medizin (Diagnostik) Folie 6

1. Motivation Anwendungen Georg-Schumann-Bau, TU Dresden [Hb3] Folie 7

1. Motivation Anwendungen Georg-Schumann-Bau umgewandelt mit dem AI Painter [AIP] Folie 8

2. Aufbau und Funktionsweise Neuron Abbildung: Aufbau eines Neurons [BAL16] Folie 9

2. Aufbau und Funktionsweise Arten von Neuron Input-Units Hidden-Units Output-Units Input-Units: - nur ein Eingang - Propagierungsfunktion entfällt Hidden-Units: - Ein- und Ausgabe unbekannt (deshalb vesteckte Knoten) Output-Units: - Ausgabe des Systems Bias-Unit Bias-Units: - Schwellwert (Verschiebung der Aktivierungsfunktion) Abbildung: Netzbeispiel Folie 10

2. Aufbau und Funktionsweise Aktivierungsfunktionen Linear (mit und ohne Schwellwert) Binäre Schwellenwertfunktion (eindeutige Aktivität) Sigmoid Funktion Tangens Hyperbolicus (Tanh) Rectifier Linear Unit (ReLu) Abbildung: Aktivierungsfunktionen [BAL16] Folie 11

2. Aufbau und Funktionsweise Aktivierungsfunktionen Monoton wachsend Stetigkeit (Differenzierbarkeit Lernverfahren) Obere Grenze Untere Grenze } vermeidet Dominoeffekt bei zu starken Aktivitätslevel Abbildung: Aktivierungsfunktionen [BAL16] Folie 12

2. Aufbau und Funktionsweise Netztopologie Gewichte enthalten das Wissen Anordnung in Schichten (Parallelität) Rückkopplungen: - ohne ( feedforward Netze) - mit ( rekurrente Netze) Folie 13

2. Aufbau und Funktionsweise Lernverfahren Gewichte enthalten das Wissen Das Lernverfahren ist abhängig vom Aufbau des Netzes 3 Arten von Lernverfahren: Überwachtes Lernen ( supervised Learning ) Unüberwachtes Lernen ( unsupervised Learning ) Bestärkendes Lernen ( reinforcement Learning ) Folie 14

2. Aufbau und Funktionsweise Backpropagation Überwachtes Lernen feedforward Netze Gradientenabstiegsverfahren Algorithmus: 1) Berechnung der Netzausgabe 2) Ermitteln des Fehlerwertes (Fehlerfunktion) 3) Aufteilung des Fehlerterms negativer Gradient 4) Modifizieren der Gewichte Folie 15

2. Aufbau und Funktionsweise Backpropagation Folie 16

2. Aufbau und Funktionsweise Backpropagation Folie 17

3. Hardwarebedarf Bedarf an Beschleunigern Parallelität (Schichten) Hoher Rechenaufwand: - Propagationsfunktion - Aktivierungsfunktion - Lernverfahren (besonders aufwändig) Folie 18

3. Hardwarebedarf FPGA Beispiel AlexNet: Convolutional Neural Network Programmiert mit Cuda Klassifizierung von Bildern System Throughput Power Throughput/Watt Arria 10-115 (FP32, @275Mhz) 600 img/s 31W 19,4 img/s/w Arria 10-115 (FP32, @350Mhz) 800 img/s 37W 21,6 img/s/w Arria 10-115 (FP16, @350Mhz) 1200 img/s 36W 33,3 img/s/w 2x Arria 10-115 2400 img/s 75W 32 img/s/w Caffe on NVIDIA Titan X 1000 img/s 250W 4 img/s/w cudnn4 on NVIDIA Titan X 3216 img/s 227W 14,2 img/s/w Tabelle: AlexNet Vergleichsanalyse [BAL16] Folie 19

3. Hardwarebedarf FPGA Vorteile Niedriger Stromverbrauch Hohes Potential für die Beschleunigung von Lernverfahren Platzsparender (Industrie) System Throughput Power Throughput/Watt Arria 10-115 (FP32, @275Mhz) 600 img/s 31W 19,4 img/s/w Arria 10-115 (FP32, @350Mhz) 800 img/s 37W 21,6 img/s/w Arria 10-115 (FP16, @350Mhz) 1200 img/s 36W 33,3 img/s/w 2x Arria 10-115 2400 img/s 75W 32 img/s/w Caffe on NVIDIA Titan X 1000 img/s 250W 4 img/s/w cudnn4 on NVIDIA Titan X 3216 img/s 227W 14,2 img/s/w Tabelle: AlexNet Vergleichsanalyse [BAL16] Folie 20

4. Fazit KNN Vorteile Kein Modell (Formalisierung) notwendig Großer Anwendungsbereich Hohe Fehlertoleranz Widerstandsfähigkeit (Rauschen, fehlender Input) Generalisierungsfähigkeit Folie 21

4. Fazit KNN Nachteile Black Box - empirische Forschung - Prototyping Hoher Rechenaufwand Hoher Datenbedarf (Lernen) Lange Trainingszeit Folie 22

Vielen Dank für Ihre Aufmerksamkeit!

Quellen [Bal16] Paul Balzer. Neuronale Netze einfach erklärt. 2016. url: www.cbcity.de/tutorial-neuronale-netze-einfach-erklaert. [Jen16] Intel FPGA: Bill Jenkins. Machine Learning on FPGAs: Neural Networks. 2016. url: https://de.slideshare.net/embeddedvision/accelerating-deep-learning-using-alterafpgas-a-presentation-from-intel [GBC16] Ian Goodfellow, Yoshua Bengio und Aaron Courville. Deep Learning. MIT Press, 2016. url: www.deeplearningbook.org. [Hb3] Photograph by: Hullbr3ach. Georg-Schumann-Bau. 2006. url: https://commons.wikimedia.org/wiki/file:tu-dresden-georg-schumann-bau.jpg [AIP] AI Painter url: www.instapainting.com/ai-painter Folie 24

Hardwarebedarf Frameworks Theano MatConvnet Cuda-convnet TensorFlow Intel DAAL Torch Caffe Folie 25

Aufbau und Funktionsweise KNN Typen (Beispiele) Kohonennetze Funktionen approximieren Inverse 2D-Kinematik (auch Wegfindung) Mustererkennung Convolutional Neural Network - Bilderkennung, Spracherkennung Perceptron (einschichtig, mehrschichtig) Folie 26

Aufbau und Funktionsweise Zahlenbeispiel Handschrifterkennung 28x28 Pixel 784 Input-Units 2x 16 Hidden-Units 1. Schicht: 16 x 784 = 11968 Multiplikationen und Additionen Folie 27