Neuronale Netze. Christian Böhm.

Ähnliche Dokumente
Wissensentdeckung in Datenbanken

Künstliche Neuronale Netze

Neuronale Netze. Anna Wallner. 15. Mai 2007

Wissensentdeckung in Datenbanken

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Konzepte der AI Neuronale Netze

Hannah Wester Juan Jose Gonzalez

Neuronale Netze mit mehreren Schichten

Einführung in die Computerlinguistik

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Kapitel 4: Data Mining

Künstliche Neuronale Netze

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Was sind Neuronale Netze?

Intelligente Algorithmen Einführung in die Technologie

Künstliche neuronale Netze

Künstliche Neuronale Netze

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Praktische Optimierung

Neuronale Netze Aufgaben 3

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Automatische Erkennung und Klassifikation von Körperhaltungen und Aktivitäten

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Einführung in neuronale Netze

INTELLIGENTE DATENANALYSE IN MATLAB

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Modellierung mit künstlicher Intelligenz

Einführung in Neuronale Netze

Kamera-basierte Objekterkennung

Grundlagen Neuronaler Netze

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Jan Parthey, Christin Seifert. 22. Mai 2003

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Kapitel LF: IV. IV. Neuronale Netze

Neuronale Netze (Konnektionismus)

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Thema 3: Radiale Basisfunktionen und RBF- Netze

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Künstliche Neuronale Netze und Data Mining

Artificial Intelligence. Deep Learning Neuronale Netze

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

11. Neuronale Netze 1

Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten

Eine kleine Einführung in neuronale Netze

Neuronale Netze (I) Biologisches Neuronales Netz

Die Datenmatrix für Überwachtes Lernen

TD-Gammon. Michael Zilske

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

INTELLIGENTE DATENANALYSE IN MATLAB

Mustererkennung und Klassifikation

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren

Structurally Evolved Neural Networks for Forecasting

Neural Networks: Architectures and Applications for NLP

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN

Exploration und Klassifikation von BigData

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Selbstorganisierende Karten

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Ideen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn

Theoretische Informatik 1

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Simulation neuronaler Netzwerke mit TIKAPP

INTELLIGENTE DATENANALYSE IN MATLAB. Objekterkennung

Beschleunigung von Bild-Segmentierungs- Algorithmen mit FPGAs

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011

Multivariate Pattern Analysis. Jan Mehnert, Christoph Korn

V. Metriken. Gliederung. I. Motivation. Lesen mathematischer Symbole. Wissenschaftliche Argumentation. Matrizenrechnung. Seite 67

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF

Vorlesung. Data und Web Mining. Kurzinformation zur. Univ.-Prof. Dr. Ralph Bergmann. Lehrstuhl für Wirtschaftsinformatik II

5 Suchmaschinen Page Rank. Page Rank. Information Retrieval und Text Mining FH Bonn-Rhein-Sieg, SS Suchmaschinen Page Rank

Maschinelle Sprachverarbeitung: Part-of-Speech-Tagging

Implementationsaspekte

Seminar Kognitive Robotik. Interne Modelle I Vorwärtsmodelle Vortragender: Rüdiger Timpe

Künstliche Intelligenz

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

Aufbau und Beschreibung Neuronaler Netzwerke

3D-Rekonstruktion aus Bildern

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Multi-Layer Neural Networks and Learning Algorithms

KNN für XOR-Funktion. 6. April 2009

Klassifikation linear separierbarer Probleme

Theoretical Analysis of Protein-Protein Interactions. Proseminar SS 2004

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Neuronale Netze. Literatur: J. Zupan, J. Gasteiger: Neural Networks in Chemistry and Drug Design, VCH, Weinheim, 2nd Ed. 1999, ISBN

Transkript:

Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1

Lehrbuch zur Vorlesung Lehrbuch zur Vorlesung: Goodfellow, Bengio, Courville: Deep Learning Adaptive Computation and Machine Learning MIT Press, 2016, 46,99 (780 Seiten, gebunden) 2

Motivation Bei vielen komplexen Aufgaben ist das menschliche Gehirn klassischen Algorithmen (zunächst) überlegen: Erkennung gesprochener Sprache oder Handschrift, Bild- und Gesichtserkennung, Spiele mit komplexen Entscheidungen, Fahrzeugsteuerung. Neuronale Netze: Algorithmen bilden das natürliche Lernen nach. Historie: Erste Ansätze schon 1943 (McCullon/Pitch-Neuron), 1970-1990 Verwendung einfacher neuronaler Netze, Seit ca. 2009: Deep Learning : Wesentlich komplexere Netzwerke, Hohe Rechenleistung zum Training erforderlich, Deutlich verbesserte Erkennungsleistung. 3

Feature-Vektoren Viele Anwendungen arbeiten mit komplexen Objekten. Es ist die Aufgabe des Anwendungs-Experten, geeignete Merkmale ( Features ) der Objekte zu definieren. Beispiel: CAD-Zeichnungen kleiner Bauteile: ax 2 +bx+c Mögliche Merkmale: Höhe h Breite w Form-Parameter (a,b,c) 4

Feature-Vektoren Object-Space w h ax 2 +bx+c (h, w, a, b, c) Feature-Space h c b a (5-D) w Die ausgewählten Features bilden einen Feature-Vector Der Feature-Space ist oft hochdimensional (im Beispiel 5-D) 5

Feature-Vektoren Nägel Feature-Space h (5-D) Schrauben c a b w Ähnliche Objekte haben ähnliche Eigenschaften. Die Distanz der Feature-Vektoren ist deshalb ein Maß für die Ähnlichkeit. Oft gehören ähnliche Objekte der gleichen Klasse an. 6

Feature-Vektoren Feature-Space Definition Klassifikation: Lerne von vorklassifizierten Trainings-Daten (, ) die Regeln, um die Klasse neuer Objekte ( ) nur auf Basis der Features vorhersagen zu können. Beispiel: Support-Vector-Machine (lineare Trenn-Ebene ) 7

Frequency Feature-Vektoren Bilddatenbanken: Farb-Histogramme. Gen-Datenbanken: Expressionslevel. Color Dokument-Datenbanken: Term-Häufigkeiten. Data 25 Mining 15 Feature 12 Object 7... Der Feature-basierte Ansatz ermöglicht es, eine Vielzahl von Anwendungen einheitlich zu behandeln. 8

Feature-Vektoren Objekt-Space A B C D E F G H 8 7 6 5 4 3 2 1 Feature Space Bei Anwendungen von tiefen neuronalen Netzen verwendet man häufig sehr einfache Features. Im Beispiel wird jedes Pixel (z.b. nach Reduktion oder Standardisierung der Auflösung) als Feature (64-D) verwendet. Komplexe Zusammenhänge soll das Lernverfahren selbst erkennen. 9

Feature-Vektoren Objekt-Space Feature Space A B C D E F G H 8 7 6 5 4 3 2 1 (A1 H8) A2 A3 (64-D) H8 A1 A4 Bei Anwendungen von tiefen neuronalen Netzen verwendet man häufig sehr einfache Features. Im Beispiel wird jedes Pixel (z.b. nach Reduktion oder Standardisierung der Auflösung) als Feature (64-D) verwendet. Komplexe Zusammenhänge soll das Lernverfahren selbst erkennen. 10

Artificial Neural Network (ANN) Input Layer Zero, one, or more Hidden Layers Output Layer Ein Artificial Neural Network (ANN, künstliches neuronales Netz) ist ein Netwerk (gerichteter Graph) von informationsverarbeitenden Einheiten (künstliche Neuronen), das meist für Aufgaben des maschinellen Lernens wie z.b. zur Klassifikation eingesetzt wird. 11

Das Künstliche Neuron x 1 x 2 x 3 x 1 x 2 x 3 y = f (x 1, x 2, x 3 ) Das künstliche Neuron Realisiert eine mathematische Funktion f ( ). Eingaben (x 1, x 2, x 3 ) werden über eingehende Kanten übergeben. Das Ergebnis (y) wird über ausgehende Kanten an andere künstliche Neuronen übermittelt. y y = f (x 1, x 2, x 3 ) y 12

Das Künstliche Neuron x 1 x 2 w 2j w 3j w 1j y y = f (x 1, x 2, x 3 ) x 3 Die Funktion f ( ) ist oft zusammengesetzt aus einer linearen Übertragungsfunktion der Eingaben x i (z.b. einer gewichteten Summe S i w ij x i ) und danach einer nichtlinearen Aktivierungsfunktion, z.b. Sigmoid ReLU Softplus 13

Layers eines ANN Input Layer Kein, ein oder mehrere Hidden Layers Output Layer In natürlichen neuronalen Netzen sind die Neuronen miteinander in beliebiger Ordnung verbunden. ANNs ordnen die Neuronen Lagen-weise (Layer) an: genau ein Output-Layer beliebig viele Hidden Layers Die Neuronen einer Ebene verwenden alle die gleiche Funktion, aber unterschiedliche Parameter (z.b. die Gewichte w ij ) 14

Feedforward vs. Rekurrente ANNs Input Layer Kein, ein oder mehrere Hidden Layers Output Layer ANNs, die nur Vorwärts-Verbindungen haben (zwischen dem aktuellen Layer und dem jeweiligen Nachfolge-Layer, bei möglichem Überspringen von Layers) nennt man Feedforward-NN. ANNs mit rückwärtsgerichteten Kanten auf den gleichen oder vorige Layers werden Rekurrente NNs genannt. Sie ermöglichen eine Art Gedächtnis (häufig mit Zeitverzögerung) 15

Vollständig verbundene Layers selektiv vollständig vollständig verbunden Layers können vollständig oder selektiv verbunden sein: Bei vollständiger Verbindung ist jedes Neuron eines Layers mit jedem Neuron des Nachfolgelayers verbunden. Das erlernte Gewicht kann aber 0 sein (wie keine Verbindung ). Welche Verbindungsart man wählt, hängt von der Aufgabe ab, die der Layer zu erledigen hat: z.b. Konvolutionale NNs aus der Bildverarbeitung: Mustererkennung auf lokaler Ebene (benachbarte Pixel) 16

Netz-Topologie Alle Fragen der Netz-Topologie, wie z.b. Wie viele Hidden Layers? Wie viele Neuronen auf jedem Layer? Feedforward oder Rekurrent? Vollständig verbunden? Welche Übertragungs-/Aktivierungsfunktionen? usw. usw. werden nicht automatisch gelernt, sondern vom Designer einer ANN- Anwendung festgelegt (Best Practices, Trial-and-Error). High-Level Interfaces wie z.b. Keras unterstützen das Design. Automatisch gelernt werden bei ANNs die Funktions-Parameter (w ij ). Bei natürlichen neuronalen Netzen ist dies ebenfalls Ergebnis von Lernprozessen (Evolution und Selbstorganisation). 17

Klassifikation mit einem ANN Wir nehmen an, das ANN wäre bereits trainiert (siehe nächste Folie) Wie bestimmt man das Klassenlabel eines neuen Objekts? A1 A2 H8 y:=g(x) z:=f(y) Wir nehmen unser zu klassifizierendes Objekt. Wir wenden darauf die Feature-Transformation an. Wir wenden Layer für Layer die Funktionen der künstlichen Neuronen an (Vorwärtspropagierung). 18

Klassifikation mit einem ANN Wir nehmen an, das ANN wäre bereits trainiert (siehe nächste Folie) Wie bestimmt man das Klassenlabel eines neuen Objekts? A1 A2 H8 Schraube 83% Nagel 17% Wir nehmen unser zu klassifizierendes Objekt. Wir wenden darauf die Feature-Transformation an. Wir wenden Layer für Layer die Funktionen der künstlichen Neuronen an (Vorwärtspropagierung). Das Endergebnis ist das gesuchte Klassenlabel. 19

ANN-Training durch Backpropagation Ziel ist die optimale Bestimmung der Funtionsparameter (z.b. w ij ) für die Trainingsmenge. Wir starten z.b. mit einer Zufalls-Initialisierung der w ij. Schritt 1: Vorwärtspropagierung eines Objekts. 20

ANN-Training durch Backpropagation Ziel ist die optimale Bestimmung der Funtionsparameter (z.b. w ij ) für die Trainingsmenge. Wir starten z.b. mit einer Zufalls-Initialisierung der w ij. Schritt 1: Vorwärtspropagierung eines Objekts. Schraube 10% Nagel 90% g(x) f(y) 21

ANN-Training durch Backpropagation Ziel ist die optimale Bestimmung der Funtionsparameter (z.b. w ij ) für die Trainingsmenge. Wir starten z.b. mit einer Zufalls-Initialisierung der w ij. Schritt 1: Vorwärtspropagierung eines Objekts. Schraube 10% Nagel 90% Schritt 2: Bestimmung des Fehlers ist tats. Schraube! (große Abweichung zur Vorhersage des ANN) 22

ANN-Training durch Backpropagation Ziel ist die optimale Bestimmung der Funtionsparameter (z.b. w ij ) für die Trainingsmenge. Wir starten z.b. mit einer Zufalls-Initialisierung der w ij. Schritt 1: Vorwärtspropagierung eines Objekts. Schraube 10% Nagel 90% f(g(w ij )) f (w ij ) Schritt 2: Bestimmung des Fehlers Schritt 3: Entgegen der Richtung der Vorwärtspropagierung: Anpassen der w ij, so dass Fehler kleiner wird. 23

ANN-Training durch Backpropagation Ziel ist die optimale Bestimmung der Funtionsparameter (z.b. w ij ) für die Trainingsmenge. Die Schritte 1-3 werden so lange für alle Objekte wiederholt, bis sich der Fehler nicht mehr verbessert (Konvergenz). 24

Anwendung der Kettenregel Bei der Rückpropagierung des Fehlers treten vielfach verschachtelte mathematische Funktionen auf. Zur Ableitung Kettenregel: f(g(w ij )) = f (g(w ij )) g (w ij ), wobei g (w ij ) := g(w ij ) In Wirklichkeit wesentlich mehr verschachtelte Funktionen: Jeder Layer definiert eine eigene Funktion f, g usw. Jede zusammengesetzt aus Übertragungs- und Aktivierungsfunkt. Am Ende (d.h. ganz außen) steht immer die Fehlerfunktion. w ij ist ein Vektor Gradient statt eindimensionale Ableitung. Stochastic Gradient Descent: Gehe immer ein kleines Stück in Richtung der Fehler-Verringerung: w ij w ij := h - error(f(g(w ij ))); (h: Lernrate). w ij 25

Fazit Tiefe Neuronale Netze (mit vielen Layers) haben zahlreiche Wettbewerbe gewonnen, z.b. zur Handschrifterkennung, Bilderkennung usw. Es gibt auch Nachteile: Große Anzahl von Trainingsdaten ist nötig. ANNs neigen zur Überanpassung (auswendig lernen der Traingsdaten). Aktuelles Projekt: DermaScreen Studentische Existenzgründung (Dominik Seliger, Christian Ludwigs, Simon Schäfer). Hautveränderungen (Muttermale, Leberflecke) mit Handy fotografiert. Neuronales Netz (Server) klassifiziert auf malignes Melanom u.a. ANNs haben in einer Studie Erkennungsraten vergleichbar mit Dermatologen (Nature Vol 542, Februar 2017). EXIST-Stipendium für die Existenzgründung beantragt. 26