Begriffbildung, Konzepte und Überblick

Ähnliche Dokumente
Leipziger Institut für Informatik. Wintersemester Seminararbeit. im Studiengang Informatik der Universität Leipzig

Grundlagen zu neuronalen Netzen. Kristina Tesch

Wissensentdeckung in Datenbanken

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Künstliche Neuronale Netze

Neural Networks: Architectures and Applications for NLP

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wissensentdeckung in Datenbanken

Neuronale Netze. Anna Wallner. 15. Mai 2007

6.2 Feed-Forward Netze

Neuronale Netze. Christian Böhm.

Faltungsnetzwerke. (Convolutional Neural Networks) Maximilian Schmidt. Faltungsnetzwerke

Rekurrente / rückgekoppelte neuronale Netzwerke

Rekurrente Neuronale Netze

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Neuronale Netze Aufgaben 3

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Hannah Wester Juan Jose Gonzalez

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Universität Leipzig. Fakultät für Mathematik und Informatik. Forschungsseminar Deep Learning. Prof. Dr. Erhard Rahm. Wintersemester 2017/18

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Künstliche Neuronale Netze

Neuronale Netze. Automatische Hinderniserkennung Paul Fritsche

Neuronale Netze u. Anwendungen, 17. Jan. 2012

Praktische Optimierung

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

Was sind Neuronale Netze?

Intelligente Algorithmen Einführung in die Technologie

Einführung in die Computerlinguistik

Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders

Thema 3: Radiale Basisfunktionen und RBF- Netze

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

Deep Learning Prof. Dr. E. Rahm und Mitarbeiter

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks

Neuronale Netze (Konnektionismus)

Grundlagen Neuronaler Netze

Neural Networks: Architectures and Applications for NLP

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Konzepte der AI Neuronale Netze

Klassifikationsverfahren und Neuronale Netze

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Seminararbeit über Visuelles Lernen Arithmetischer Operationen

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Prof. Dr. Rudolf Kruse Christoph Doell, M.Sc.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Künstliche neuronale Netze

TensorFlow Open-Source Bibliothek für maschinelles Lernen. Matthias Täschner Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig

Personenerkennung. Harald Hauptseminarpräsentation. Harald Kirschenmann. Department Informatik. Department Informatik.

Einführung in die Methoden der Künstlichen Intelligenz

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Neuronale Netze und PyTorch

Neuronale Netze. Volker Tresp

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

8. Vorlesung Neuronale Netze

Finanzmarktprognose mit neuronalen Netzen

Visuelle Bildsuche und Bildnavigation. Prof. Dr. Kai Uwe Barthel

Neural Networks. mit. Tools für Computerlinguist/innen

Automatische Erkennung und Klassifikation von Körperhaltungen und Aktivitäten

Technische Universität. Fakultät für Informatik

Blues-Improvisation mit neuronalen Netze

Lineare Regression. Volker Tresp

Learning Phrase Representations using RNN Encoder Decoder for Statistical Machine Translation. Yupeng Guo

Neuronale Netze. Prof. Dr. Rudolf Kruse

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Vergleich von SVM und Regel- und Entscheidungsbaum-Lernern

Lösungen zur letzten Stunde & Vorbereitung

DOKUMENTENKLASSIFIKATION MIT MACHINE LEARNING

Klassifikation von Multidimensionale Zeitreihen mit Hilfe von Deep Learning

Künstliche Neuronale Netze

Modellierung mit künstlicher Intelligenz

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Lernregeln. Künstliche neuronale Netze. Professur Psychologie digitaler Lernmedien. Institut für Medienforschung Philosophische Fakultät

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Klassifikation von Multidimensionalen Zeitreihen mittels Deep Learning

MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Einführung in Autoencoder und Convolutional Neural Networks

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks. Master Grundseminar WiSe 2014/2015 Victoria Bibaeva

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Backpropagation. feedforward Netze

Kapitel LF: IV. IV. Neuronale Netze

Frischer Wind für ein bekanntes Thema Klassifikation 4.0

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion

Intelligente Systeme

Transkript:

Begriffbildung, Konzepte und Überblick Seminar Deep Learning Alexander Strätz Universität Leipzig 12. Januar 2018 Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 1 / 30

Inhaltsverzeichnis 1. Motivation 2. Aufbau künstlicher neuronaler Netze 3. Funktionsweise 4. Probleme/Lösungen 5. Zusammenfassung Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 2 / 30

Motivation Motivation Wo ist deep learning anzufinden?: Websuche Filterfunktionen in sozialen Netzwerken Empfehlungen im Bereich e-commerce Kameras/Smartphones Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 3 / 30

Motivation Motivation deep learning wird genutzt um: Objekte in Bildern zu identifizieren Sprache zu Text zu übersetzen Produkte auf Nutzerinteressen abzustimmen relevante Suchergebnisse festzustellen Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 4 / 30

Motivation Motivation Konventionelles Machine-learning: Fachkompetenz im Anwendungsbreich nötig transformieren der rohen Daten in eine geeignete interne Repräsentation Deep learning: rohe Eingabedaten automatisches Entdecken der geeigneten Repräsentation mehrere Abstraktionslevel der Repräsentation Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 5 / 30

Aufbau künstlicher neuronaler Netze Aufbau künstlicher neuronaler Netze Abbildung: Aufbau des künstlichen Neurons Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 6 / 30

Aufbau künstlicher neuronaler Netze Aufbau künstlicher neuronaler Netze Aktivierungsfunktion: Zusammenhang zwischen Netzinput und Aktivitätslevel eines Neurons Sigmoid Funktion: σ(z) = 1 1+e z Abbildung: Sigmoid-Funktion Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 7 / 30

Aufbau künstlicher neuronaler Netze Aufbau künstlicher neuronaler Netze empirisch oft bessere Ergebnisse: rectified linear units (ReLU) ReLU(z) = max(0, z) Abbildung: Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 8 / 30

Aufbau künstlicher neuronaler Netze Aufbau künstlicher neuronaler Netze Abbildung: Schichten im KNN Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 9 / 30

Aufbau künstlicher neuronaler Netze Aufbau künstlicher neuronaler Netze Abbildung: Tiefes Netz Abbildung: Flaches Netz Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 10 / 30

Aufbau künstlicher neuronaler Netze Aufbau künstlicher neuronaler Netze Convolutional Neural Network (CNN) Anwendungsbeispiel: Verarbeitung von Bilddaten besteht aus Convolutional Layer und Pooling Layer z.b. zuerst Kantenerkennung, anschließend Reduktion auf Maximum Recurrent Neural Network (RNN) Anwendungsbeispiel: Spracherkennung Verbindungen von Neuronen einer Schicht zu Neuronen derselben oder einer vorangegangenen Schicht Verarbeitung von Sequenzen Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 11 / 30

Funktionsweise Funktionsweise: Beispiel Filmempfehlung Abbildung: Abbildung: Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 12 / 30

Funktionsweise Funktionsweise: Beispiel Filmempfehlung Abbildung: Initialisiere θ und b zufällig Ziel: h(x (1) ; θ, b) y (1) h(x (2) ; θ, b) y (2)... Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 13 / 30

Funktionsweise Funktionsweise: Gradientenverfahren minimiere Kostenfunktion: m i=1 (h(x)(i) ; θ, b) y (i) ) 2 stochastisches Gradientenabstiegsverfahren: θ 1 = θ 1 α θ 1 θ 2 = θ 2 α θ 2 b = b α b α: Lernfaktor (kleines nicht-negatives Skalar) schätze Gradienten mit zufällig ausgewählten Trainingsbeispielen Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 14 / 30

Funktionsweise Funktionsweise: Gradientenverfahren Abbildung: Gradientenverfahren Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 15 / 30

Funktionsweise Backpropagation Algorithmus Ziel: Berechne C/ w und b/ b Input: Setze die Aktivierung für den Input-Layer Feedforward: Berechne Input z l = w l a l 1 + b l und Aktivierung a l = σ(z l ) Output Fehler: δ l = C σ (z a j j L) L Backpropagation des Fehlers: δ l = (w l+1 δ l+1 ) σ (z l ) Output: Berechne C w l jk = a l 1 k δj l Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 16 / 30

Funktionsweise Funktionsweise Abbildung: Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 17 / 30

Funktionsweise Funktionsweise Stopp des Gradientenverfahrens, wenn sich Parameter nicht mehr ändern oder nach festgelegter Anzahl von Iterationen Entscheidungsfunktion h(x; Θ, b) bestimmt ob man den Film mag oder nicht h > 0, 5: ja, h < 0, 5: nein Abbildung: Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 18 / 30

Funktionsweise Funktionsweisen Abbildung: Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 19 / 30

Funktionsweise Funktionsweise: Beispiel realistischeres Beispiel: Erkennen von handgeschriebenen Zahlen Abbildung: Zahlen bestehen aus 64x64 Graustufenbildern Input-Layer aus 64x64 = 4096 Neuronen zwischen 0 (weiß) und 1 (schwarz) 10 Output-Neuronen, die jeweils eine Ziffer repräsentieren Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 20 / 30

Funktionsweise Funktionsweise: Beispiel Abbildung: Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 21 / 30

Probleme/Lösungen Probleme/Lösungen: Overfitting Abbildung: Gesamtkosten auf den Trainingsdaten Abbildung: Genauigkeit der Klassifikation auf den Testdaten Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 22 / 30

Probleme/Lösungen Overfitting Lösungsmöglichkeiten: Berechnen der Klassifikationsgenauigkeit nach jeder Epoche auf Validierungsdaten Stoppen des Trainings nachdem die Klassifikationsgenauigkeit nicht mehr zunimmt L2-Regularisierung: C neu = C alt + w w 2 kleine Gewichte werden vorgezogen L1-Regularisierung: C neu = C alt + w w Schrumpfen der Gewichte um konstanten Betrag Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 23 / 30

Probleme/Lösungen Overfitting Lösungsmöglichkeiten: Dropout: Bei jedem Trainingsdurchgang lösche die Hälfte der hidden Neuronen Anschließend halbiere die Gewichte, die von den hidden Neuronen ausgehen Erweitere künstlich die Trainingsdaten: Modifiziere leicht die originalen Trainingsdaten zum Beispiel durch Rotation und Translation bei Bilddaten Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 24 / 30

Probleme/Lösungen Initialisierung der Gewichte Initialisierung der Gewichte mit Mittelwert 0 und Standardabweichung 1 1000 eingehende Neuronen, jeweils 50% besitzen Wert 0 und 1 Abbildung: sehr hohe Wahrscheinlichekeit für z << 1 oder z >> 1 Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 25 / 30

Probleme/Lösungen Initialisierung der Gewichte Initialisiere Gewichte mit Mittelwert 0 und Standardabweichung 1/ n in Abbildung: Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 26 / 30

Probleme/Lösungen Problem des verschwindenden Gradienten Abbildung: Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 27 / 30

Probleme/Lösungen Problem des verschwindenden Gradienten Abbildung: Gradient in den frühen Schichten ist Produkt der Terme aus den späteren Schichten unstabile Situation besser: verwende ReLU statt Sigmoid-Funktion Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 28 / 30

Zusammenfassung Zusammenfassung Neuronale Netze sind vor allem für Aufgaben gut geeignet, die vom Menschen intuitiv gelöst werden z.b.: Spracherkennung, Gesichtserkennung... Deep Learning nutzt eine Reihe hierarchischer Schichten, um die Eingabedaten interpretieren zu können viele Richtlinien bei der Verwendung neuronaler Netze basieren nur auf empirischen Erkenntnissen weitere Forschung nötig Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 29 / 30

Zusammenfassung Vielen Dank für die Aufmerksamkeit Alexander Strätz (Uni Leipzig) Begriffbildung, Konzepte und Überblick 12. Januar 2018 30 / 30