Adaptive Resonance Theory

Ähnliche Dokumente
Technische Universität. Fakultät für Informatik

Adaptive Resonanztheorie

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Adaptive Resonance Theory [ART] - Ein neuer Ansatz lernender Computer -

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Konzepte der AI Neuronale Netze

7. Vorlesung Neuronale Netze

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuroinformatik. Übung 1

Einführung in neuronale Netze

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Künstliche Neuronale Netze

Neuronale Netze zur Dokumentenklassifikation

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.

2.4.4 Die Fraktale Dimension

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Hannah Wester Juan Jose Gonzalez

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

1 Einleitung. 2 Clustering

Wissensentdeckung in Datenbanken

Selbstorganisierende Karten

Künstliche Intelligenz

Einführung in die Computerlinguistik

Praktische Optimierung

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Künstliche neuronale Netze

8. Vorlesung Neuronale Netze

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Martin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr

5. Lernregeln für neuronale Netze

Aufbau und Beschreibung Neuronaler Netzwerke

Was sind Neuronale Netze?

Grundlagen Neuronaler Netze

Klassifikationsverfahren und Neuronale Netze

Kopplung von Neuronen

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Künstliche Neuronale Netze

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Gedächtniskonsolidierung im Schlaf - Modell

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Einfaches Framework für Neuronale Netze

Künstliche Neuronale Netze

Grundlagen zu neuronalen Netzen. Kristina Tesch

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze. Prof. Dr. Rudolf Kruse

Grundlagen neuronaler Netzwerke

Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

6 Neuronale Modellierung: Der STAA-Ansatz

7. Unüberwachte Lernverfahren

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks

Neuronale Netze Aufgaben 3

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Kohonennetze Selbstorganisierende Karten

KNN für XOR-Funktion. 6. April 2009

Simulation neuronaler Netzwerke mit TIKAPP

Künstliche neuronale Netze

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Hopfield Netze. Neuronale Netze WS 2016/17

Algorithmenalltag. Prof. Dr.-Ing. Johannes Konert Fachgebiet Web Engineering

Klassifikation linear separierbarer Probleme

Neuronale Netze. Anna Wallner. 15. Mai 2007

DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

weitere Modelle und Methoden

Technische Universität. Fakultät für Informatik

Das Modell von McCulloch und Pitts

Adaptive Systeme. Neuronale Netze: der Backward Propagation Algorithmus. Prof. Dr. rer. nat. Nikolaus Wulff

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011

Neuronale Netze. Christian Böhm.

Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz

Machine Learning - Maschinen besser als das menschliche Gehirn?

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 4 Maschinelles Lernen und Spracherkennung

Digraphen, DAGs und Wurzelbäume

Wissensbasierte Systeme

6.2 Feed-Forward Netze

Was denken denkende Maschinen? WI-Award, Crowne Plaza Zürich, Thilo Stadelmann

Transkript:

Adaptive Resonance Theory Jonas Jacobi, Felix J. Oppermann C.v.O. Universität Oldenburg

Adaptive Resonance Theory p.1/27 Gliederung 1. Neuronale Netze 2. Stabilität - Plastizität 3. ART-1 4. ART-2 5. ARTMAP 6. Anwendung 7. Zusammenfassung

Adaptive Resonance Theory p.2/27 Neuronale Netze Künstliche neuronale Netze sind Modell für das Nervensystem Aufbau aus einzellnen Zellen Paralelle Datenverarbeitung Lernen implizit durch Gewichtsveränderung Sehr unterschiedliche Strukturen

Adaptive Resonance Theory p.3/27 Neuronale Netze Summation der Eingänge Vergleich mit einem Schwellenwert Erzeugen eines Ausgabesignals

Adaptive Resonance Theory p.4/27 Stabilität Plastizität Lernen mit fester Lernrate Die Lernrate gibt an wie stark ein neues Muster die Gewichte beeinflusst Lernen erfolgt bei überwachtem Lernen nur in einer Trainingsphase Im biologischen System wird das Lernen nicht beendet Meist kein direktes Fehlersignal

Adaptive Resonance Theory p.5/27 Stabilität Plastizität Stabilität Einmal Gelerntes soll gespeichert bleiben Das trainieren neuer Muster soll vermieden werden, da diese die Klassifikation stark verändern könnten Plastizität Neue Muster sollen kein vollständiges Neutrainieren erfordern Alte Klassifikation sollten beim Hinzufügen neuer Muster erhalten bleiben

Adaptive Resonance Theory p.6/27 Stabilität Plastizität Beide Anforderungen konkurrieren Hohe Stabilität oder hohe Plastizität Plastizitäts-Stabilitäts-Dilemma

Adaptive Resonance Theory p.7/27 Stabilität Plastizität Lösungsansätze: Kontrolle ob das neue Muster bereits bekannt ist Für neue Muster eine neue Klasse öffnen Bei hoher Ähnlichkeit zu bekannten Mustern Einordnung in diese Klasse Der Parameter der Kontrolle kann als Aufmerksamkeit betrachtet werden

Adaptive Resonance Theory p.8/27 Stephen Grossberg Stuyvesant High School, Manhattan, 1957 Rockefeller University, Ph.D., 1964-1967 Associate Professor of Applied Mathematics, M.I.T., 1969-1975. Professor of Mathematics, Psychology, and Biomedical Engineering, Boston University, 1975-heute

Adaptive Resonance Theory p.9/27 Adaptive Resonance Theory Von Grossberg 1976 entwickelte Theorie Versucht das Plastitzitäts-Stabilitäts-Dilemma zu lösen Grundlage verschiedener neuronaler Modelle

Adaptive Resonance Theory p.10/27 Adaptive Resonance Theory Resonance: Gegenseitige Verstärkung Adaptive: Gewichtsanpassung nur bei Resonanz

Adaptive Resonance Theory p.11/27 ART-Netze Kombination überwachten und unüberwachten Lernens Neue Kategorien werden dynamisch angelegt Durch biologische Systeme motiviert Besitzen Kurz- und Langzeitgedächtnis

Adaptive Resonance Theory p.12/27 ART-1 Von Stephen Grossberg 1976 vorgeschlagenes Modell Das ART-1 soll ein Modell kognitiver Prozesse sein Verarbeitet binäre Signale

Adaptive Resonance Theory p.13/27 ART-1 / Struktur Gain control F2 Layer + + + + + + + + + Reset + + + F1 Layer + + + + + + Gain control + + + + + + Input

Adaptive Resonance Theory p.14/27 ART-1 / Struktur F1-Schicht: Erhält die Eingabe Stellt ein Kurzeitgedächtnis dar F2-Schicht: Jedes Neuron repräsentiert eine Kategorie Langzeitgedächtnis in den Verbindungen zu F1-Schicht

Adaptive Resonance Theory p.15/27 ART-1 / Algorithmus Eingabe wird an F1-Schicht angelegt und zwischengespeichert Weiterleitung an F2-Schicht Hypothese über eine Klassifizierung in der F2-Schicht bilden Rückgabe auf Grundlage dieser Hypothese erzeugen Vergleich in der F1-Schicht. Falls die Hypothese nahe genug an der Eingabe ist: Anpassen der Gewichte

Adaptive Resonance Theory p.16/27 ART-1 / Algorithmus Sonst erzeugen eine neuen Hypothese unter Ausschluss der schon zuvor getesteten Klassen Wiederholung bis eine passende Klasse gefunden wurde Kann die Eingabe keiner Klasse zugeordente werden, so wird eine neue Klasse erzeugt

Adaptive Resonance Theory p.17/27 ART-1 / Hilfsneuronen Die Neuronen des ART-1 müssen bei verschiedenen Schritten des Algorithmus verschieden reagieren Neuronen selbst besitzen keinen Mechanismus, der dies ermöglicht Gain control, G 1 und G 2, und das Reset, R lösen dieses Problem Lösen ein rein technisches Problem

Adaptive Resonance Theory p.18/27 ART-1 / 2/3-Regel Es gibt aktivierende und hemmende Eingänge Die Neuronen der F1- und F2-Schicht feuern genau dann, wenn genau zwei ihrer drei Eingänge aktiv sind

Adaptive Resonance Theory p.19/27 ART-1 / Notation n Komponentenanzahl des Eingabevektors. m Maximale Klassenanzahl. b ij Gewichte von Neuron i in F 1 zu Neuron j in F 2. t ji Gewichte von Neuron j in F 2 zu Neuron i in F 1. ρ Aufmerksamkeit. s Eingabevektor. x Aktivierungsvektor von F 1. x Anzahl der Einsen des Vektors x. L Lernrate

Adaptive Resonance Theory p.20/27 ART-1 / Lernalgorithmus 0 Initialisieren: L > 1, 0 < ρ 1, Anfangsgewichte 0 < b ij (0) < L L 1+n und t ji = 1. 1 Durchlaufe Schritt 2-11 für jedes Eingabemuster. 2 Setze die Aktivierung aller Neurone in F 2 auf 0. Setze die Aktivierung der Neurone von Input auf s. 3 Berechne s. 4 Gebe Eingabesignal von Input an F 1 weiter (x i = s i ). 5 Berechne y j = i b ijx i für alle Neurone in F 2, die nicht deaktiviert sind. 6 Solange reset gesetzt ist, führe Schritt 7-10 aus.

Adaptive Resonance Theory p.21/27 ART-1 / Lernalgorithmus 7 Setze J = Index des Neurons inf 2, das den höchsten y j -Wert hat. 8 Berechen Aktivierung x von F 1 : x i = s j t Ji. 9 Berechne x. 10 Test auf reset: { Deaktiviere Neuron J und gehe zu Schritt 6, gehe zu Schritt 11, wenn x sonst 11 Erneuere Gewichte des Neurons J: b ij = Lx i L 1+ x, t Ji = x i. s < ρ

Adaptive Resonance Theory p.22/27 ART-2 Von Stephen Grosserg und Gail A. Carpenter 1987 entwickelte Modelle Verallgemeinerung der ART-Architektur Erlaubt reellwertige Eingaben und Gewichte Funktionsweise analog zu ART-1

Adaptive Resonance Theory p.23/27 ARTMAP Erweiterung um überwachtes Lernen zu ermöglichen. Besteht aus zwei ART-1 Netzen(ART a, ART b ) und einem zwischengeschalteten Assoziationsnetz. Es wird eine Assoziation zwischen zwei Mustern a und b gebilded, die selbst Klasseneinteilungen von zwei Eingabemuster x a und x b sind. ART b fungiert als Lehrer. Sollte die von ART a vorhergesagt Klasse nicht mit der von ART b übereinstimmen, wird das Verhalten von ART a angepasst.

Adaptive Resonance Theory p.24/27 ARTMAP 1 1 1 1 1 2 2 2 2 2 3 3 3 3 3 n n m m m Control

Adaptive Resonance Theory p.25/27 Anwendungen Modellierung biologischer neuronaler Vorgänge Musikerkennung Medizinische Diagnose E-Mail-Klassifizierung (Erkennen von Ähnlichkeiten bei Texten)

Adaptive Resonance Theory p.26/27 Zusammenfassung Die Adaptive Resonance Theory ist ein Beispiel für den Versuch kognitive Vorgänge durch neuronale Netze zu modellieren Zeigt Teilaspekte des Verhaltens des biologischen Vorbilds Bei weitem keine vollständige Modellierung Ein Forschungsansatz unter vielen Grundlage auch für technische Lösungen

Adaptive Resonance Theory p.27/27 Literatur [Bot98] [Bra95] Hans-Heinrich Bothe. Neuro-Fuzzy-Methoden: Einführung in die Theorie und Anwendungen. Springer, Berlin, 1998. Rüdiger Brause. Neuronale Netze: Eine Einführung in die Neuroinformatik. Teubner, Stuttgart, 1995. [Che00] Ke Chen. Lectureslides Nature Inspired Learning (http://ailab.ch/teaching/classes/2004ss/nn/lecture_on_art.pdf), 2000. [Jen04] Peter Jensch. Skript zu Vorlesung Neuro-Fuzzy-Methoden. 2004. [Roj96] [RT98] Raul Rojas. Theorie der neuronalen Netze. Springer, Berlin, Vierte Ausgabe, 1996. Edmund T. Rolls und Alessandro Treves. Neural Networks and Brain Function. Oxford University Press, New York, 1998.