(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Ähnliche Dokumente
kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Neuronale Netze Aufgaben 3

Lösungen zur letzten Stunde & Vorbereitung

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Konzepte der AI Neuronale Netze

Grundlagen zu neuronalen Netzen. Kristina Tesch

Praktische Optimierung

Künstliche Neuronale Netze

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze

Neuronale Netze. Anna Wallner. 15. Mai 2007

Klassifikation linear separierbarer Probleme

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuronale Netze (Konnektionismus)

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Neuronale Netze. Christian Böhm.

Künstliche neuronale Netze

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Hannah Wester Juan Jose Gonzalez

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

Thema 3: Radiale Basisfunktionen und RBF- Netze

Nichtlineare Klassifikatoren

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze. Was sind künstliche Neuronale Netze?

Neuronale Netze Aufgaben 2

6.2 Feed-Forward Netze

Mann-Whitney-U-Test: Tiefenstufen

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks

Neural Networks: Architectures and Applications for NLP

Eine kleine Einführung in neuronale Netze

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

auch: Konnektionismus; subsymbolische Wissensverarbeitung

8. Vorlesung Neuronale Netze

Adaptive Resonance Theory

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Einführung in die Computerlinguistik

Künstliche Neuronale Netze

Proseminar Neuronale Netze Frühjahr 2004

Inhaltsverzeichnis. Einführung

Einfaches Framework für Neuronale Netze

11. Neuronale Netze 1

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Wissensentdeckung in Datenbanken

Theoretische Informatik 1

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

7. Vorlesung Neuronale Netze

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Selbstorganisierende Karten

Künstliche neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze

Lineare Regression. Volker Tresp

Klassifikationsverfahren und Neuronale Netze

Was sind Neuronale Netze?

Intelligente Systeme. Einführung. Christian Moewes

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Ein selbstmodellierendes System für die Wasserwirtschaft

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Künstliche Neuronale Netze

Selbstorganisierende Karten

Exkurs Modelle und Algorithmen

Wissensentdeckung in Datenbanken

MULTILAYER-PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

Modellbildung und Simulation

Kapitel VI Neuronale Netze

Modellierung mit künstlicher Intelligenz

Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation

Einführung in neuronale Netze

Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel

Grundlagen neuronaler Netzwerke

5. Lernregeln für neuronale Netze

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Simulation neuronaler Netzwerke mit TIKAPP

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Das Perzeptron. Volker Tresp

Ausarbeitung zum Hauptseminar Machine Learning

Image: (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Multi-Layer Neural Networks and Learning Algorithms

Aufbau und Beschreibung Neuronaler Netzwerke

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Computational Intelligence I Künstliche Neuronale Netze

Maschinelles Lernen und Neural Computation

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Transkript:

(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944

Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2

EINFÜHRUNG 3

Gehirn des Menschen Vorbild Gehirn Neuron Schaltzeit: > 0.001 sec Anzahl Neuronen: 1010 Verbindungen (Synapsen) pro Neuron: 104-105 Szenenerkennung: 0.1 sec Auffallende Eigenschaften hochparallele Berechnung verteilte Repräsentation von Wissen 4

Vergleich: Gehirn serieller Rechner Eigenschaft Gehirn ser. Rechner Parallelität Präzision Fehlertoleranz Speicherzugriff Erkennen v. Mustern u. Ähnlichkeiten hoch mäßig hoch global gut noch mäßig hoch niedrig lokal mäßig Eigenschaft Gehirn ser. Rechner Numerische präzise Berechnungen Fehlerloses Speichern v. Daten Rekonstrukt. teilw. zerst. Daten Verallgem. v. Bsp. auf implizite Regeln Selbstorganisation schlecht schlecht gut gut ja gut gut schlecht schlecht bisher nicht 5

Was ist konnektionistisches Rechnen? Rechnerarchitekturen, Rechenmodelle und Lernmodelle, die in Anlehnung an natürliche Neuronenmodelle entwickelt werden. kennzeichnende Eigenschaften solcher Systeme Große Anzahl einfacher Recheneinheiten (Künstliche Neuronen) Durch gewichtete Kanäle verbunden (Netz) Kein Rechnen mit symbolisch kodierten Nachrichten Wissen wird in der Struktur der Verbindungen repräsentiert Massiver Parallelismus 6

PERZEPTRON 7

Perzeptron: Idee [Rosenblatt 1960] Grundidee: Anlehnung an das Funktionsprinzip der natürlichen Wahrnehmung/Reaktion im Tierreich Biologie Computer 8

Perzeptron: Aufbau [Rosenblatt 1960] Aufbau eines Perzeptrons x Eingabevektor t Target (Soll-Ausgabe) x 0 =1 x 1 x 2 x n... w 2 w 1 w n w 0 Σ o = Bias Trick x 0 =1 +1 1 w 0 = θ n w i x i θ0 i=1 i=0 sonst w Gewichtsvektor o Output (Ist-Ausgabe) 9

Perzeptron: Geometrische Interpretation Positive und Negative Daten (P,N) Erweiterung der Dimension durch x 0 Trennhyperebene (in R 2 : Gerade), definiert durch Gewichte (Normalen der Ebene) Gewichtete Summe = Skalarprodukt x 0 =1 x 1 w 1 w 0 x 2 x n. w 2 w n Σ o = { 1 w i x i 0 1 n i=1 sonst Lernen = Anpassen der Gewichte Gesucht wird die beste Trennebene 10

Lernen - Geometrische Interpretation Hilfsmenge { } N = x x = x, x N Neues Lernproblem xw > 0, x N P Im Beispiel: alle x i aus P

Perzeptron Lernalgorithmus Start: Gegeben Lerndatenmenge P N Der Gewichtsvektor w(0) wird zufällig generiert. Setze t:=0. Testen: Ein Punkt x in P N wird zufällig gewählt. Falls x P und w(t) x > 0 gehe zu Testen Falls x P und w(t) x 0 gehe zu Addieren Falls x N und w(t) x < 0 gehe zu Testen Falls x N und w(t) x 0 gehe zu Subtrahieren Addieren: Setze w(t+1) = w(t)+x. Setze t:= t+1. Gehe zu Testen. Subtrahieren: Setze w(t+1) = w(t)-x. Setze t:=t+1. Gehe zu Testen.

Perzeptron: Kapazität Bsp. Logik: 1 x 2 1 x 2 1 x 1 x 1 OR x 2 : 0.5x 1 + 0.5 x 2 > 0.3 x 1 AND x 2 : 0.5x 1 + 0.5 x 2 > 0.8 Durch Kombination von Perzeptronen sind viele Funktionen möglich x 2 1 x 1 XOR:??? 1 N I C H T M Ö G L I C H! 1 x 1 13

MULTI LAYER FEEDFORWARD NEURAL NETWORK 14

Nichtlineare Entscheidungsregionen Wie kann man nichtlineare Entscheidungsregionen mit KNN lernen? Beispiel: Erkennung von Lauten anhand von 2 Formanten (Teiltönen) [Lippmann90] 15

Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus [Rumelhart86, Werbos74] Neuronenaufbau: nichtlineare Aktivierungsfunktion -1 i1 i2 i3-1 -1 i4 i5 16

Aufbau der Neuronen x 0 =1 x 1 w 1 w 0 x 2. w 2 Σ x n w n x ij = i-te Eingabe des Neurons j w ij = das Gewicht zwischen Neuron i und Neuron j net j = i w ij x ij Propagierungsfunktion o j = Ausgabe des Neurons j t j = Zielausgabe (target) des Ausgabeneurons j f(x) = Aktivierungsfunktion output = Menge der Ausgabeneuronen Downstream (j) = direkte Nachfolger des Neurons j 17

Nichtlineare Aktivierungsfunktionen Sigmoid: f x f (x) = 1 1+ e x f (x) = tanh(x) = f (x) (1 f (x)) f x = (1+ f (x)) (1 f (x)) 18

Vorgaben Backpropagation Algorithmus I Menge T von Trainingsbeispielen (Eingabevektor/ Ausgabevektor) Lernrate η Netztopologie Anzahl und Ausmaße der Zwischenschichten Schichten sind vollständig vorwärts gerichtet verbunden Lernziel Finden einer Gewichtsbelegung W, die T korrekt wiedergibt 19

Backpropagation Algorithmus II Initialisieren der Gewichte mit kleinen zufälligen Werten Wiederhole Auswahl eines Beispielmusters d Bestimmen der Netzausgabe Bestimmen des Ausgabefehlers (bzgl. Sollausgabe) Sukzessives Rückpropagieren des Fehlers auf die einzelnen Neuronen Anpassen der Gewichtsbelegung um solange ein gewähltes Abbruchkriterium nicht erfüllt ist! 20

MLNN IN DER ANWENDUNG 21

Entwurf von Neuronalen Netzen Subsymbolische Repräsentation der Ein- und Ausgabe Auswahl der Topologie Auswahl des Lernverfahrens Parametereinstellung Implementierung / Realisierung Training & Verifikation (Test) 22

Topologieauswahl Zusammenhang zwischen Anzahl der (hidden) layer und Zielfunktion? 3 Layer (1 hidden Layer - sigmoid): jede Boolsche Funktion jede kontinuierliche beschränkte Funktion [Cybenko 1989, Hornik et al. 1989] 4 Layer (2 hidden Layer -sigmoid) beliebige Funktionen mit beliebiger Genauigkeit [Cybenko 1988] Schon eine geringe Tiefe ist ausreichend 23

Lernverhalten - Topologieauswahl Anzahl der Neuronen pro Schicht im Bezug zu der Anzahl von (stochastisch unabhängigen) Lerndaten ist wichtig Aber: allgemeine Aussage nicht möglich Beispiel: gestrichelte Kurve soll eingelernt werden wenig Neuronen viele Neuronen wenig Lerndaten 24

Initialisierung der Gewichte Gewichte verschieden wählen sonst funktionsgleiche Neuronen zufällig, gleichverteilt und klein keine anfängliche Ausrichtung 25

Auswahl repräsentativer Trainingsbeispiele Lerndaten für die Anpassung der Gewichte Verifikationsdaten für das Testen der Generalisierung gute Verteilung der Beispiele Klassifikation: Daten aus allen Klassen Regression: gesamter Definitionsbereich Beispiele insbesondere aus komplexen Regionen Klassifikation: Randregionen zwischen Klassen Regression: Verlaufsänderungen 26

Overfitting Fehler auf Verifikationsdaten steigt ab einer Anzahl von Lernzyklen Mögliches Abbruchkriterium für Lernvorgang 27

Entwurfs- und Optimierungskriterien Wiedererkennungs-Fehlerrate Trainingszeit Wiedererkennungszeit Speicherbedarf Komplexität der Trainingsalgorithmen Leichte Implementierbarkeit Gute Anpassungsfähigkeit Trade-off zwischen Anforderungen nötig 28

Literatur Tom Mitchell: Machine Learning. McGraw-Hill, New York, 1997. M. Berthold, D.J. Hand: Intelligent Data Analysis. P. Rojas: Theorie der Neuronalen Netze Eine systematische Einführung. Springer Verlag, 1993. C. Bishop: Neural Networks for Pattern Recognition. Oxford University Press, 1995. Vorlesung 2006 : http://isl.ira.uka.de/ siehe auch Skriptum Ein kleiner Überblick über : http://www.dkriesel.com/