Topologische Objektrepräsentationen und zeitliche Korrelation Frank Michler Fachbereich Physik, AG NeuroPhysik
Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 2 / 38
Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 3 / 38
Invarianz-Problem Sensorischer Input ändert sich schnell (sehr variant) 4 / 38
Invarianz-Problem Sensorischer Input ändert sich schnell (sehr variant) Verschiedene sensorische Input-Muster, gleiches Objekt 4 / 38
Lernen von Assiziationen durch zeitliche Korrelation Wallis & Bültho 2001 5 / 38
Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer 6 / 38
Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) 6 / 38
Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) Slow-Feature-Analysis (Wiskott 2002) 6 / 38
Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) Slow-Feature-Analysis (Wiskott 2002) Lernen von Complex-Zellen aus natürlichen Stimulus-Sequenzen (Einhäuser et al. 2002) 6 / 38
Földiák 1991: Trace-Lernregel Gewichts-Änderung abhängig von Aktivitäts-Vergangenheit Symbole ω (t) ij = αȳ (t) i (x (t) j ω (t) ij ) mit ȳ (t) i = (1 δ)ȳ (t 1) i + δȳ (t) i x (t) j : präsynaptischeaktivität zur Zeit t ω (t) ij : Gewicht von präsynaptischer Zelle j zur postsynaptischen Zelle i ȳ (t) i : memory trace δ, α : Parameter 7 / 38
Földiák 1991: Trace-Lernregel stimului 8 / 38
Földiák 1991: Trace-Lernregel stimului connection weights before 8 / 38
Földiák 1991: Trace-Lernregel stimului connection weights before after 8 / 38
Földiák 1991: Trace-Lernregel stimului connection weights before after no trace (δ = 1) 8 / 38
im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex 9 / 38
im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex Beispiel: Orientierungskarten in V1 (Bosking 1997) 9 / 38
im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex Beispiel: Orientierungskarten in V1 (Bosking 1997) 9 / 38
Topologie im Inferotemporalen Cortex Tanaka 1996 10 / 38
Topologie im Inferotemporalen Cortex Wang 1996, optical imaging 11 / 38
SOM-Algorithmus, Kohonen 1982 Input-Vektoren 12 / 38
SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. 12 / 38
SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. 12 / 38
SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. Winner-Take-All: Es gewinnt das Neuron, dessen Gewichts-Vektor dem Input-Vektor am ähnlichsten ist. 12 / 38
SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. Winner-Take-All: Es gewinnt das Neuron, dessen Gewichts-Vektor dem Input-Vektor am ähnlichsten ist. Das Gewinner-Neuron und dessen Nachbarschaft lernen, d.h. deren Gewichts-Vektoren werden in Richtung des Input-Vektors verschoben. 12 / 38
SOM-Algorithmus, Kohonen 1982 13 / 38
SOM mit spikenden Neuronen Selbst-organisierende Karten mit spikenden Neuronen und lateraler Wechselwirkung (Choe/Miikkulainen 1996) Kurzreichweitige exzitatorische Verbindungen Langreichweitige Inhibition 14 / 38
SOM mit spikenden Neuronen 15 / 38
SOM: Klassikation nach Ähnlichkeit SOM-Algorithmen klassizieren Input-Stimuli nach ihrer Ähnlichkeit. Optimal zur Detektion räumlicher Korrelationen zwischen den Input-Stimuli Stimuli werden einzeln, nacheinander präsentiert, die Zeitliche Reihenfolge spielt keine Rolle. 16 / 38
17 / 38
17 / 38
Outline Stimuli -Neuron und Architektur Lernregel 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 18 / 38
2D-Gauss-Stimulus Stimuli -Neuron und Architektur Lernregel Y-Parameter X-Parameter 19 / 38
Winkel-Stimulus Stimuli -Neuron und Architektur Lernregel Y-Parameter X-Parameter 20 / 38
Stimuli Stimuli -Neuron und Architektur Lernregel 2D-Gauss-Stimulus Winkel-Stimulus 3D-Tetraeder (movie) 21 / 38
-Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Leaky Integrator dv (t) C m dt = g L (V (t) E L ) I syn (t) I syn (t) = I AMPA (t) + I NMDA (t) + I GABAa (t) C m : Membrankapazität V : Membranspannung t : Zeit g L : Leck-Leitfähigkeit I syn : Synaptische Ströme 22 / 38
-Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) 23 / 38
-Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) Schneller inhibitorischer GABAa-Strom I GABAa (t) = G GABAa (t)g max,gabaa (V (t) E GABAa ) 23 / 38
-Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) Schneller inhibitorischer GABAa-Strom I GABAa (t) = G GABAa (t)g max,gabaa (V (t) E GABAa ) Langsamer exzitatorischer NMDA-Strom (Jahr und Stevens 1990) I NMDA (t) = G NMDA(t)G max,nmda (V (t) E NMDA ) 1 + [Mg 2+ ]exp( 0.062V (t))/3.57 23 / 38
-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
-Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes presynaptic spikes 0 20 40 60 80 time/ms 25 / 38
Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes 0 20 40 60 80 time/ms 25 / 38
Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes L pre,m = t sm e t tsm τ pre 0 20 40 60 80 time/ms 25 / 38
Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes L pre,m = t sm e t tsm τ pre w m,n = δ n (t)rl pre,m L post,n 0 20 40 60 80 time/ms 25 / 38
Gewichts-Normalisierung Stimuli -Neuron und Architektur Lernregel Beim Überschreiten einer bestimmten postsynaptischen Feuerrate werden alle Synapsen zu dieser Zelle entsprechend ihres aktuellen Gewichts geschwächt. 26 / 38
Outline Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 27 / 38
Bestimmung der Stimulus-Selektivität Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Repräsentations-Schicht (E 1 ) 28 / 38
Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Ohne laterale ex. Verbindungen keine geordnete Karte X-Parameter kontinuierlich 29 / 38
2D-Gauss-Stimulus: X kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich 30 / 38
2D-Gauss-Stimulus: Y kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Y-Parameter kontinuierlich 31 / 38
Winkel-Stimulus: X kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich 32 / 38
Winkel-Stimulus: Y kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Y-Parameter kontinuierlich 33 / 38
Bestimmung der Stimulus-Selektivität Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Complex-Zell-Schicht (E 2 ) 34 / 38
2D-Gauss-Stimulus Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich Y-Parameter kontinuierlich 35 / 38
2D-Gauss-Stimulus Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich Y-Parameter kontinuierlich N=100 N=100 N=100 N=100 36 / 38
Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. 37 / 38
Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition 37 / 38
Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. 37 / 38
Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. Eine topologische Repräsentation, die zeitliche Korrelationen berücksichtigt, unterstützt invariante Erkennung. 37 / 38
Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. Eine topologische Repräsentation, die zeitliche Korrelationen berücksichtigt, unterstützt invariante Erkennung. Die im inferotemporalen Cortex gefundene Topologie könnte auf dem vorgeschlagenen Mechanismus beruhen. 37 / 38
Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Danke für Eure Aufmerksamkeit... 38 / 38