Topologische Objektrepräsentationen und zeitliche Korrelation

Ähnliche Dokumente
Synaptische Verschaltung

Dynamische Systeme in der Biologie: Beispiel Neurobiologie

Seminarvortrag: Visual Cortex

Aufbau und Beschreibung Neuronaler Netzwerke

Dynamische Systeme in der Biologie: Beispiel Neurobiologie

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

3 Modellierung von Neuronen I

7. Unüberwachte Lernverfahren

Aufrechterhaltung der Retinotopie. Bear 10.14; Kandel 27-9

Lernmodul 2 Modelle des Raumes

6 Neuronale Modellierung: Der STAA-Ansatz

Exzitatorische (erregende) Synapsen

Universalität für Wigner Matrizen

Mechanismen der synaptischen Plastizitaet. Andreas Frick MPI fuer Medizinische Forschung Heidelberg

5. Raum-Zeit-Symmetrien: Erhaltungssätze

Spektralanalyse physiologischer Signale

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011

Einführung in die Computerlinguistik

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

Computational Neuroscience Rezeptive Felder

Entstehung rezeptiver Felder

Computational Neuroscience 2. Neuronenmodelle

Objekt Attributwerte Klassifizierung X Y

Selbstorganisierende Karten

Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining

Klassifikation durch direkten Vergleich (Matching)

Modulprüfung: BBio119, Neurowissenschaften und Verhaltensbiologie. Klausur zur Vorlesung: Theoretische Neurowissenschaften.

Statistische und neuronale Lernverfahren: Selbstorganisierende Merkmalskarten. Holger Arndt WS 03/04, 2 SWS

Selbstorganisierende Karten

Visuelle Bewegungswahrnehmung. Visuelle Wahrnehmung Dipl. Psych. Kai Hamburger

Invariance is bliss! Was ist algebraische Topologie?

Selbstorganisierende Karten

Vom Reiz zum Aktionspotential. Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden?

C1/4 - Modellierung und Simulation von Neuronen

1 Einleitung. 2 Clustering

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Einführung in die moderne Psychologie

Tarnkappen und mathematische Räume

BK07_Vorlesung Physiologie. 05. November 2012

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back )

Vereinfachte Neuronenmodelle

Inhalt und Überblick. Visuelle Kognition. Visuelle Kognition WS 2001/2002 Adrian Schwaninger

Adaptive Resonance Theory

Inhalt und Überblick

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Inhalt und Überblick. Visuelle Kognition Adrian Schwaninger Universität Zürich. Visuelle Kognition. Funktionaler Zugang.

Künstliche neuronale Netze

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Selective visual attention ensures constancy of sensory representations: Testing the influence of perceptual load and spatial competition

Die Entwicklung der Gefühle: Aspekte aus der Hirnforschung. Andreas Lüthi, Friedrich Miescher Institut, Basel

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Vorlesung 2 KÜRZESTE WEGE

Ligandengesteuerte Ionenkanäle

Einfache Modelle der Neurodynamik.

Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07

Konzepte der AI Neuronale Netze

Passive und aktive elektrische Membraneigenschaften

Hannah Wester Juan Jose Gonzalez

Bildverarbeitung: Kontinuierliche Energieminimierung. D. Schlesinger BV: () Kontinuierliche Energieminimierung 1 / 9

Wie und wo lernen Kinder am besten welche Bedingungen brauchen sie?

Klassifikation akustischer Kommunikationssignale durch Heuschrecken: Probleme der Informationsverarbeitung

Zur pädagogischen Relevanz neurowissenschaftlicher Erkenntnisse ein Überblick über die Debatte

Modellbildung und Simulation

Die wahrscheinlich am häufigsten gestellte Frage. Die Karte im Kopf. Wie stellt das Gehirn seine Umwelt dar? J. Leo van Hemmen

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Selbstorganisierende Merkmalskarten

Inhalt und Überblick. Visuelle Kognition WS 2001/2002 Adrian Schwaninger. Visuelle Kognition. Einleitung

5. Lernregeln für neuronale Netze

Implementationsaspekte

Theoretische Informatik 1

Parallele Algorithmen in der Bildverarbeitung

Mechanismen der Aufmerksamkeitsorientierung

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Einleitung Grundlagen Einordnung. Normen. Thomas Gerstner. Institut für Mathematik Goethe-Universität Frankfurt am Main

Topologie metrischer Räume

Slow feature analysis

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008

Biologische Psychologie II

3 Matrizenrechnung. 3. November

Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung"

Konvergenz von Hopfield-Netzen

Kapitel 2, Teil 2: Basiswissen Neurobiologie und Modelle neuronaler Netze Prof. Dr. Bernd J. Kröger

Selbstorganisierende Karten

Neural Networks: Architectures and Applications for NLP

Neuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate...

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Nichtlineare Klassifikatoren

Using Sets of Feature Vectors for Similarity Search on Voxelized CAD Data

Analyse, Modellierung und Simulation der visuell-räumlichen Kognition bei der Mensch-Maschine-Interaktion

John C. Eccles. Das Gehirn. des Menschen. Das Abenteuer de r modernen Hirnforschung

Denition 1 (Die Peanoschen Axiome). Es gibt eine Menge N und eine sogenannte Nachfolgefunktion S mit folgenden Eigenschaften.

Lineare Klassifikatoren

Automatische Spracherkennung

Neuronale Kodierung. Jutta Kretzberg. Lehrprobe Oldenburg,

2.4.4 Die Fraktale Dimension

Transkript:

Topologische Objektrepräsentationen und zeitliche Korrelation Frank Michler Fachbereich Physik, AG NeuroPhysik

Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 2 / 38

Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 3 / 38

Invarianz-Problem Sensorischer Input ändert sich schnell (sehr variant) 4 / 38

Invarianz-Problem Sensorischer Input ändert sich schnell (sehr variant) Verschiedene sensorische Input-Muster, gleiches Objekt 4 / 38

Lernen von Assiziationen durch zeitliche Korrelation Wallis & Bültho 2001 5 / 38

Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer 6 / 38

Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) 6 / 38

Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) Slow-Feature-Analysis (Wiskott 2002) 6 / 38

Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) Slow-Feature-Analysis (Wiskott 2002) Lernen von Complex-Zellen aus natürlichen Stimulus-Sequenzen (Einhäuser et al. 2002) 6 / 38

Földiák 1991: Trace-Lernregel Gewichts-Änderung abhängig von Aktivitäts-Vergangenheit Symbole ω (t) ij = αȳ (t) i (x (t) j ω (t) ij ) mit ȳ (t) i = (1 δ)ȳ (t 1) i + δȳ (t) i x (t) j : präsynaptischeaktivität zur Zeit t ω (t) ij : Gewicht von präsynaptischer Zelle j zur postsynaptischen Zelle i ȳ (t) i : memory trace δ, α : Parameter 7 / 38

Földiák 1991: Trace-Lernregel stimului 8 / 38

Földiák 1991: Trace-Lernregel stimului connection weights before 8 / 38

Földiák 1991: Trace-Lernregel stimului connection weights before after 8 / 38

Földiák 1991: Trace-Lernregel stimului connection weights before after no trace (δ = 1) 8 / 38

im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex 9 / 38

im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex Beispiel: Orientierungskarten in V1 (Bosking 1997) 9 / 38

im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex Beispiel: Orientierungskarten in V1 (Bosking 1997) 9 / 38

Topologie im Inferotemporalen Cortex Tanaka 1996 10 / 38

Topologie im Inferotemporalen Cortex Wang 1996, optical imaging 11 / 38

SOM-Algorithmus, Kohonen 1982 Input-Vektoren 12 / 38

SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. 12 / 38

SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. 12 / 38

SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. Winner-Take-All: Es gewinnt das Neuron, dessen Gewichts-Vektor dem Input-Vektor am ähnlichsten ist. 12 / 38

SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. Winner-Take-All: Es gewinnt das Neuron, dessen Gewichts-Vektor dem Input-Vektor am ähnlichsten ist. Das Gewinner-Neuron und dessen Nachbarschaft lernen, d.h. deren Gewichts-Vektoren werden in Richtung des Input-Vektors verschoben. 12 / 38

SOM-Algorithmus, Kohonen 1982 13 / 38

SOM mit spikenden Neuronen Selbst-organisierende Karten mit spikenden Neuronen und lateraler Wechselwirkung (Choe/Miikkulainen 1996) Kurzreichweitige exzitatorische Verbindungen Langreichweitige Inhibition 14 / 38

SOM mit spikenden Neuronen 15 / 38

SOM: Klassikation nach Ähnlichkeit SOM-Algorithmen klassizieren Input-Stimuli nach ihrer Ähnlichkeit. Optimal zur Detektion räumlicher Korrelationen zwischen den Input-Stimuli Stimuli werden einzeln, nacheinander präsentiert, die Zeitliche Reihenfolge spielt keine Rolle. 16 / 38

17 / 38

17 / 38

Outline Stimuli -Neuron und Architektur Lernregel 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 18 / 38

2D-Gauss-Stimulus Stimuli -Neuron und Architektur Lernregel Y-Parameter X-Parameter 19 / 38

Winkel-Stimulus Stimuli -Neuron und Architektur Lernregel Y-Parameter X-Parameter 20 / 38

Stimuli Stimuli -Neuron und Architektur Lernregel 2D-Gauss-Stimulus Winkel-Stimulus 3D-Tetraeder (movie) 21 / 38

-Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Leaky Integrator dv (t) C m dt = g L (V (t) E L ) I syn (t) I syn (t) = I AMPA (t) + I NMDA (t) + I GABAa (t) C m : Membrankapazität V : Membranspannung t : Zeit g L : Leck-Leitfähigkeit I syn : Synaptische Ströme 22 / 38

-Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) 23 / 38

-Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) Schneller inhibitorischer GABAa-Strom I GABAa (t) = G GABAa (t)g max,gabaa (V (t) E GABAa ) 23 / 38

-Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) Schneller inhibitorischer GABAa-Strom I GABAa (t) = G GABAa (t)g max,gabaa (V (t) E GABAa ) Langsamer exzitatorischer NMDA-Strom (Jahr und Stevens 1990) I NMDA (t) = G NMDA(t)G max,nmda (V (t) E NMDA ) 1 + [Mg 2+ ]exp( 0.062V (t))/3.57 23 / 38

-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes presynaptic spikes 0 20 40 60 80 time/ms 25 / 38

Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes 0 20 40 60 80 time/ms 25 / 38

Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes L pre,m = t sm e t tsm τ pre 0 20 40 60 80 time/ms 25 / 38

Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes L pre,m = t sm e t tsm τ pre w m,n = δ n (t)rl pre,m L post,n 0 20 40 60 80 time/ms 25 / 38

Gewichts-Normalisierung Stimuli -Neuron und Architektur Lernregel Beim Überschreiten einer bestimmten postsynaptischen Feuerrate werden alle Synapsen zu dieser Zelle entsprechend ihres aktuellen Gewichts geschwächt. 26 / 38

Outline Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 27 / 38

Bestimmung der Stimulus-Selektivität Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Repräsentations-Schicht (E 1 ) 28 / 38

Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Ohne laterale ex. Verbindungen keine geordnete Karte X-Parameter kontinuierlich 29 / 38

2D-Gauss-Stimulus: X kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich 30 / 38

2D-Gauss-Stimulus: Y kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Y-Parameter kontinuierlich 31 / 38

Winkel-Stimulus: X kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich 32 / 38

Winkel-Stimulus: Y kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Y-Parameter kontinuierlich 33 / 38

Bestimmung der Stimulus-Selektivität Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Complex-Zell-Schicht (E 2 ) 34 / 38

2D-Gauss-Stimulus Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich Y-Parameter kontinuierlich 35 / 38

2D-Gauss-Stimulus Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich Y-Parameter kontinuierlich N=100 N=100 N=100 N=100 36 / 38

Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. 37 / 38

Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition 37 / 38

Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. 37 / 38

Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. Eine topologische Repräsentation, die zeitliche Korrelationen berücksichtigt, unterstützt invariante Erkennung. 37 / 38

Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. Eine topologische Repräsentation, die zeitliche Korrelationen berücksichtigt, unterstützt invariante Erkennung. Die im inferotemporalen Cortex gefundene Topologie könnte auf dem vorgeschlagenen Mechanismus beruhen. 37 / 38

Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Danke für Eure Aufmerksamkeit... 38 / 38