Künstliche neuronale Netze

Ähnliche Dokumente
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Künstliche Neuronale Netze

Künstliche neuronale Netze

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Grundlagen Neuronaler Netze

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Neuronale Netze (Konnektionismus)

11. Neuronale Netze 1

Thema 3: Radiale Basisfunktionen und RBF- Netze

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

Neuronale Netze. Anna Wallner. 15. Mai 2007

Hannah Wester Juan Jose Gonzalez

Konzepte der AI Neuronale Netze

Klassifikationsverfahren und Neuronale Netze

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Was sind Neuronale Netze?

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Aufbau und Beschreibung Neuronaler Netzwerke

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Praktische Optimierung

Proseminar Neuronale Netze Frühjahr 2004

auch: Konnektionismus; subsymbolische Wissensverarbeitung

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Neuronale Netze zur Dokumentenklassifikation

Kleines Handbuch Neuronale Netze

Neuronale Netze mit mehreren Schichten

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Einführung in neuronale Netze

Hopfield-Netze. Rudolf Kruse Neuronale Netze 192

Selbstorganisierende Karten

Künstliche Neuronale Netze

Feedback-Netze Rekurrentes Netze. Jordan- und Elman-Netze, Bidirektionaler assoziativer Speicher, Hopfield-Netz und Boltzmann-Maschine.

Neuronale Netze I. Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Kohonennetze Selbstorganisierende Karten

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck:

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Künstliche Intelligenz. Neuronale Netze

Grundlagen neuronaler Netzwerke

Lernverfahren von Künstlichen Neuronalen Netzwerken

Künstliche neuronale Netze

Inhaltsverzeichnis. Einführung

Computational Intelligence I Künstliche Neuronale Netze

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Universität Klagenfurt

Klassifikation linear separierbarer Probleme

Neuronale Netze. Christian Böhm.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung

Einfaches Framework für Neuronale Netze

Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel

Einführung in Neuronale Netze

Wissensentdeckung in Datenbanken

Neuronale Netze. 11.Januar.2002

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Universität Hamburg. Grundlagen und Funktionsweise von Künstlichen Neuronalen Netzen. Fachbereich Wirtschaftswissenschaften

Künstliche Neuronale Netze

Neuroinformatik. Übung 1

MULTILAYER-PERZEPTRON

Hopfield Netze. Neuronale Netze WS 2016/17

Künstliche Neuronale Netze

10. Neuronale Netze 1

Künstliche Intelligenz

7. Vorlesung Neuronale Netze

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Einführung in Neuronale Netze

Rekurrente / rückgekoppelte neuronale Netzwerke

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS Neuronale Netze. Von Deasy Sukarya & Tania Bellini

Adaptive Resonanztheorie

Neural Networks: Architectures and Applications for NLP

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Multi-Layer Neural Networks and Learning Algorithms

Transkript:

Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung keine Begründung der Ergebnisse Klassifikation Mustererkennung, z.b. Bild- und Spracherkennung Funktions-Approximation Modellierung zeitlicher Verläufe Assoziation Clustering (Zuordnung von Mustern zu Bündeln) 133

Lernverfahren überwachtes Lernen Trainingsmenge enthält Paare (Muster, Ausgabevektor) (partielle Funktion, Werte an Stützstellen) Trainingsziel: Funktion, die an den Stützstellen mit der Trainingsmenge übereinstimmt bestärkendes Lernen Trainingsmenge enthält Muster Schüler erfährt nach jedem Lernschritt, ob Ausgabe korrekt ist. Trainingsziel: Funktion, die an den Stützstellen die korrekte Ausgabe erzeugt Wettbewerbslernen (unüberwachtes Lernen) Trainingsmenge enthält nur Muster Trainingsziel: Gruppierung ähnliche Muster oft auch topologisch sinnvolle Anordnung 134

Typen künstlicher Neuronen McCulloch-Pitts-Neuron: Ein- und Ausgabe: Boolesche Vektoren keine Kantengewichte Schwellwert θ R erregende und hemmende Eingänge Aktivierung durch Stufenfunktion Schwellwertelemente Ein- und Ausgabe: Boolesche Vektoren Kantengewichte und Schwellwert R Aktivierung durch Stufenfunktion Neuronen mit reeller Ein- und Ausgabe Ein- und Ausgabe: Reelle Vektoren Kantengewichte und Schwellwert R Aktivierung durch lineare, sigmoide oder Stufenfunktion alle mit gewichteter Summe als Eingabefunktion und Identität als Ausgabefunktion 135

Typen künstlicher neuronaler Netze Feed-Forward-Netze Ein-Schicht-FFN Mehr-Schicht-FFN RBF-Netze Netze mit Rückkopplung Elman-Netz Jordan-Netz Assoziativspeicher BAM Hopfield-Netz Selbstorganisierende Karten Funktionsweise aller Netztypen in zwei Phasen: 1. Trainingsphase: (Anpassung / Lernen durch Änderung der Kantengegewichte anhand gegebener Trainingsmuster) 2. Ausführungsphase (Reproduktion): Berechnung der Ausgaben zu beliebigen Mustern 136

Ein-Schicht-FFN Topologie: Eingabeschicht Ausgabeschicht teilweise vorwärts verbunden Kantengewichte repräsentieren Stärke eingehender Signale Gewichtsmatrix McCulloch-Pitts-Neuronen, Schwellwertelemente oder Neuronen mit reellen Ein- und Ausgängen und Aktivierung durch lineare, sigmoide oder Stufenfunktion. Training (überwachtes Lernen): -Regel w ij = w ij + ηx i (t j y j ) Klassifikation in linear trennbare Klassen lineare Approximation 137

Mehr-Schicht-FFN Topologie: Eingabeschicht eine oder mehrere versteckte Schichten Ausgabeschicht teilweise vorwärts zwischen benachbarten Schichten verbunden Kantengewichte repräsentieren Stärke eingehender Signale Gewichtsmatrix mit Blockstruktur Neuronen mit reellen Ein- und Ausgängen und Aktivierung durch lineare oder sigmoide Funktion. Training (überwachtes Lernen): Backpropagation-Regel w ij = w ij + ηδ j x i (mir Fehlertermen δ j ) Muster-Klassifikation Funktions-Approximation 138

RBF-Netze Topologie: Zwei-Schicht-FFN Eingabeschicht, eine versteckte Schicht, Ausgabeschicht Neuronen der versteckten Schicht: Eingabefunktion: Skalarprodukt (Abstand) mit Vektor der eingehenden Gewichte (eingehende Kantengewichte repräsentieren RBF-Zentren) Aktivierungsfunktion: RBF-Funktion (z.b. Zylinder-, Kegel- oder Glockenfunktion) Ausgabefunktion: Identität Training mit Clustering-Techniken (z.b. wie SOM) Neuronen der Ausgabeschicht: Schwellwertelemente oder Neuronen mit reellen Ein- und Ausgängen und Aktivierung durch lineare oder Stufenfunktion. (eingehende Kantengewichte repräsentieren Stärke eingehender Signale) Training (überwachtes Lernen) mit -Regel Muster-Klassifikation, Funktions-Approximation (durch gewichtete Summe von RBF) 139

Netze mit Rückkopplung Idee: Rückkopplung als Kurzzeitgedächtnis Topologie: Ein- oder Mehrschicht-FFN mit zusätzlichen Rückwärtskanten zwischen verschiedenen Schichten (oft zur Eingabeschicht) häufig zusätzliche Neuronen (Kontextneuronen) in Eingabeoder versteckten Schichten Kantengewichte repräsentieren Stärke eingehender Signale Neuronen mit reellen Ein- und Ausgängen und Aktivierung durch lineare oder sigmoide Funktion. Training (unüberwachtes Lernen): Backpropagation-Regel (nur für Vorwärtskanten) Jordan-Netz: zu jedem Ausgabeneuron ein Kontextneuron in der Eingabeschicht Elman-Netz: zu jedem versteckten Neuron ein Kontextneuron in der vorigen versteckten bzw. Eingabeschicht Klassifikation von Mustern variabler Länge Modellierung zeitlicher Verläufe 140

Bidirektionaler Assoziativspeicher Topologie: Eingabeschicht Ausgabeschicht vollständige symmetrische Verbindungen zwischen Neuronen verschiedener Schichten, keine Verbindung innerhalb einer Schicht Kantengewichte repräsentieren Stärke eingehender Signale Neuronen mit bipolaren Ein- und Ausgängen und Aktivierung durch Signumfunktion (modifizierte Schwellwertelemente). Training (unüberwachtes Lernen): Hebb-Regel w ij = w ij + ηx i y j oder direkte Berechnung (Matrixoperationen) Zuordnungen zwischen verschiedenen Mustermengen Mustererkennung, -rekonstruktion 141

Hopfield-Netz Topologie: nur eine Schicht von Neuronen (Eingabeschicht) vollständige symmetrische Verbindungen zwischen allen Neuronen, keine Selbstrückkopplung Kantengewichte repräsentieren Stärke eingehender Signale Neuronen mit bipolaren Ein- und Ausgängen und Aktivierung durch Signumfunktion (modifizierte Schwellwertelemente). Asynchrone Neuberechnung der Neuronen-Aktivierung Training (überwachtes Lernen): Hebb-Regel oder direkte Berechnung (Matrixoperationen) Rekonstruktion unscharfer und unvollständiger Muster Lösen von Optimierungsproblemen (z.b. TSP) 142

Selbstorganisierende Karten (SOM) Topologie: Ein-Schicht-FFN vollständig vorwärts zwischen beiden Schichten verbunden Kantengewichte repräsentieren Bündelzentren Neuronen der Ausgabeschicht: Eingabefunktion: Skalarprodukt (Abstand) mit Vektor der eingehenden Gewichte (Bündelzentren) Aktivierungsfunktion: (Wettbewerb) nur Neuron mit dem kleinsten Eingabewert 1, alle anderen 0 Ausgabefunktion: Identität Training (unüberwachtes Lernen): schrittweise Verschiebung der Bündelzentren (und evtl. ihrer Nachbarn) in Richtung der dem Bündel neu zugeordneten Trainingsmuster Clustering: Bündeln von Mustern nach unbekannten Gemeinsamkeiten topologieerhaltende Abbildung (oft auf kleinere Dimension) 143