Topologische Objektrepräsentationen und zeitliche Korrelation
|
|
- Mareke Gerstle
- vor 5 Jahren
- Abrufe
Transkript
1 Topologische Objektrepräsentationen und zeitliche Korrelation Frank Michler Fachbereich Physik, AG NeuroPhysik
2 Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 2 / 38
3 Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 3 / 38
4 Invarianz-Problem Sensorischer Input ändert sich schnell (sehr variant) 4 / 38
5 Invarianz-Problem Sensorischer Input ändert sich schnell (sehr variant) Verschiedene sensorische Input-Muster, gleiches Objekt 4 / 38
6 Lernen von Assiziationen durch zeitliche Korrelation Wallis & Bültho / 38
7 Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer 6 / 38
8 Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) 6 / 38
9 Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) Slow-Feature-Analysis (Wiskott 2002) 6 / 38
10 Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) Slow-Feature-Analysis (Wiskott 2002) Lernen von Complex-Zellen aus natürlichen Stimulus-Sequenzen (Einhäuser et al. 2002) 6 / 38
11 Földiák 1991: Trace-Lernregel Gewichts-Änderung abhängig von Aktivitäts-Vergangenheit Symbole ω (t) ij = αȳ (t) i (x (t) j ω (t) ij ) mit ȳ (t) i = (1 δ)ȳ (t 1) i + δȳ (t) i x (t) j : präsynaptischeaktivität zur Zeit t ω (t) ij : Gewicht von präsynaptischer Zelle j zur postsynaptischen Zelle i ȳ (t) i : memory trace δ, α : Parameter 7 / 38
12 Földiák 1991: Trace-Lernregel stimului 8 / 38
13 Földiák 1991: Trace-Lernregel stimului connection weights before 8 / 38
14 Földiák 1991: Trace-Lernregel stimului connection weights before after 8 / 38
15 Földiák 1991: Trace-Lernregel stimului connection weights before after no trace (δ = 1) 8 / 38
16 im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex 9 / 38
17 im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex Beispiel: Orientierungskarten in V1 (Bosking 1997) 9 / 38
18 im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex Beispiel: Orientierungskarten in V1 (Bosking 1997) 9 / 38
19 Topologie im Inferotemporalen Cortex Tanaka / 38
20 Topologie im Inferotemporalen Cortex Wang 1996, optical imaging 11 / 38
21 SOM-Algorithmus, Kohonen 1982 Input-Vektoren 12 / 38
22 SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. 12 / 38
23 SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. 12 / 38
24 SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. Winner-Take-All: Es gewinnt das Neuron, dessen Gewichts-Vektor dem Input-Vektor am ähnlichsten ist. 12 / 38
25 SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. Winner-Take-All: Es gewinnt das Neuron, dessen Gewichts-Vektor dem Input-Vektor am ähnlichsten ist. Das Gewinner-Neuron und dessen Nachbarschaft lernen, d.h. deren Gewichts-Vektoren werden in Richtung des Input-Vektors verschoben. 12 / 38
26 SOM-Algorithmus, Kohonen / 38
27 SOM mit spikenden Neuronen Selbst-organisierende Karten mit spikenden Neuronen und lateraler Wechselwirkung (Choe/Miikkulainen 1996) Kurzreichweitige exzitatorische Verbindungen Langreichweitige Inhibition 14 / 38
28 SOM mit spikenden Neuronen 15 / 38
29 SOM: Klassikation nach Ähnlichkeit SOM-Algorithmen klassizieren Input-Stimuli nach ihrer Ähnlichkeit. Optimal zur Detektion räumlicher Korrelationen zwischen den Input-Stimuli Stimuli werden einzeln, nacheinander präsentiert, die Zeitliche Reihenfolge spielt keine Rolle. 16 / 38
30 17 / 38
31 17 / 38
32 Outline Stimuli -Neuron und Architektur Lernregel 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 18 / 38
33 2D-Gauss-Stimulus Stimuli -Neuron und Architektur Lernregel Y-Parameter X-Parameter 19 / 38
34 Winkel-Stimulus Stimuli -Neuron und Architektur Lernregel Y-Parameter X-Parameter 20 / 38
35 Stimuli Stimuli -Neuron und Architektur Lernregel 2D-Gauss-Stimulus Winkel-Stimulus 3D-Tetraeder (movie) 21 / 38
36 -Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Leaky Integrator dv (t) C m dt = g L (V (t) E L ) I syn (t) I syn (t) = I AMPA (t) + I NMDA (t) + I GABAa (t) C m : Membrankapazität V : Membranspannung t : Zeit g L : Leck-Leitfähigkeit I syn : Synaptische Ströme 22 / 38
37 -Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) 23 / 38
38 -Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) Schneller inhibitorischer GABAa-Strom I GABAa (t) = G GABAa (t)g max,gabaa (V (t) E GABAa ) 23 / 38
39 -Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) Schneller inhibitorischer GABAa-Strom I GABAa (t) = G GABAa (t)g max,gabaa (V (t) E GABAa ) Langsamer exzitatorischer NMDA-Strom (Jahr und Stevens 1990) I NMDA (t) = G NMDA(t)G max,nmda (V (t) E NMDA ) 1 + [Mg 2+ ]exp( 0.062V (t))/ / 38
40 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
41 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
42 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
43 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
44 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
45 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
46 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
47 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38
48 Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes presynaptic spikes time/ms 25 / 38
49 Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes time/ms 25 / 38
50 Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes L pre,m = t sm e t tsm τ pre time/ms 25 / 38
51 Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes L pre,m = t sm e t tsm τ pre w m,n = δ n (t)rl pre,m L post,n time/ms 25 / 38
52 Gewichts-Normalisierung Stimuli -Neuron und Architektur Lernregel Beim Überschreiten einer bestimmten postsynaptischen Feuerrate werden alle Synapsen zu dieser Zelle entsprechend ihres aktuellen Gewichts geschwächt. 26 / 38
53 Outline Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 27 / 38
54 Bestimmung der Stimulus-Selektivität Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Repräsentations-Schicht (E 1 ) 28 / 38
55 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Ohne laterale ex. Verbindungen keine geordnete Karte X-Parameter kontinuierlich 29 / 38
56 2D-Gauss-Stimulus: X kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich 30 / 38
57 2D-Gauss-Stimulus: Y kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Y-Parameter kontinuierlich 31 / 38
58 Winkel-Stimulus: X kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich 32 / 38
59 Winkel-Stimulus: Y kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Y-Parameter kontinuierlich 33 / 38
60 Bestimmung der Stimulus-Selektivität Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Complex-Zell-Schicht (E 2 ) 34 / 38
61 2D-Gauss-Stimulus Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich Y-Parameter kontinuierlich 35 / 38
62 2D-Gauss-Stimulus Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich Y-Parameter kontinuierlich N=100 N=100 N=100 N= / 38
63 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. 37 / 38
64 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition 37 / 38
65 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. 37 / 38
66 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. Eine topologische Repräsentation, die zeitliche Korrelationen berücksichtigt, unterstützt invariante Erkennung. 37 / 38
67 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. Eine topologische Repräsentation, die zeitliche Korrelationen berücksichtigt, unterstützt invariante Erkennung. Die im inferotemporalen Cortex gefundene Topologie könnte auf dem vorgeschlagenen Mechanismus beruhen. 37 / 38
68 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Danke für Eure Aufmerksamkeit / 38
Synaptische Verschaltung
Synaptische Verschaltung 16.1.2006 http://www.uni-oldenburg.de/sinnesphysiologie/ 15246.html Vorläufiges Vorlesungsprogramm 17.10.05 Motivation 24.10.05 Passive Eigenschaften von Neuronen 31.10.05 Räumliche
MehrDynamische Systeme in der Biologie: Beispiel Neurobiologie
Dynamische Systeme in der Biologie: Beispiel Neurobiologie Caroline Geisler geisler@lmu.de April 18, 2018 Elektrische Ersatzschaltkreise und Messmethoden Wiederholung: Membranpotential Exkursion in die
MehrSeminarvortrag: Visual Cortex
Seminarvortrag: Visual Cortex Sören Schwenker 13. Januar 2013 Visual Cortex Inhaltsverzeichnis 13. Januar 2013 Inhaltsverzeichnis 1 Einleitung 2 2 Conductance based models 2 3 Rate-based neural network
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrDynamische Systeme in der Biologie: Beispiel Neurobiologie
Dynamische Systeme in der Biologie: Beispiel Neurobiologie Dr. Caroline Geisler geisler@lmu.de 13. Juni 2018 Hans Berger (1873-1941) und das EEG Hans Berger zeichnete 1924 das erste EEG (Elektroenzephalogramm)
MehrNeuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.
Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles
Mehr3 Modellierung von Neuronen I
3 Modellierung von Neuronen I Im ersten Kapitel über die Modellierung von Neuronen bewegen wir uns von der einfachsten Modelldarstellung von Neuronen, in denen das Neuron als eine Einheit modelliert wird
Mehr7. Unüberwachte Lernverfahren
7. Unüberwachte Lernverfahren 1. Neuronale Merkmalskarten 2. Explorative Datenanalyse 3. Methoden zur Datenreduktion der Datenpunkte 4. Methoden zur Merkmalsreduktion der Merkmale Schwenker NI1 141 7.1
MehrAufrechterhaltung der Retinotopie. Bear 10.14; Kandel 27-9
Aufrechterhaltung der Retinotopie Bear 10.14; Kandel 27-9 Antwortcharakteristik einer Simple cell Rezeptives Feld: On off Bear 10.21 Bevorzugte Antwort auf Lichtbalken Bestimmter Orientierung Simple cell
MehrLernmodul 2 Modelle des Raumes
Folie 1 von 21 Lernmodul 2 Modelle des Raumes Bildnachweis: www. tagesschau.de Folie 2 von 21 Modelle des Raumes Übersicht Motivation Was ist Raum? Formalismus und Invarianz Metrischer Raum/Euklidischer
Mehr6 Neuronale Modellierung: Der STAA-Ansatz
Bernd J. Kröger: Neuronale Sprachverarbeitung (Version 1.0.4) Seite 150 6 Neuronale Modellierung: Der STAA-Ansatz 6.1 Knoten: die STAA-Neuronensembles 6.1.1 Aktivierungslevel, Aktivierungsfunktion und
MehrExzitatorische (erregende) Synapsen
Exzitatorische (erregende) Synapsen Exzitatorische Neurotransmitter z.b. Glutamat Öffnung von Na+/K+ Kanälen Membran- Potential (mv) -70 Graduierte Depolarisation der subsynaptischen Membran = Erregendes
MehrUniversalität für Wigner Matrizen
Universalität für Wigner Matrizen Benjamin Schlein, Universität Zürich HSGYM Tag 29. Januar 2015 1 1. Einführung Zufallmatrizen: sind N N Matrizen dessen Einträge Zufallsvariablen mit gegebenen Verteilung
MehrMechanismen der synaptischen Plastizitaet. Andreas Frick MPI fuer Medizinische Forschung Heidelberg
Mechanismen der synaptischen Plastizitaet Andreas Frick MPI fuer Medizinische Forschung Heidelberg Hippocampus - deklaratives Gedaechtnis Hebbsche Synapse Donald Hebb (1949): "When an axon of cell A is
Mehr5. Raum-Zeit-Symmetrien: Erhaltungssätze
5. Raum-Zeit-Symmetrien: Erhaltungssätze Unter Symmetrie versteht man die Invarianz unter einer bestimmten Operation. Ein Objekt wird als symmetrisch bezeichnet, wenn es gegenüber Symmetrieoperationen
MehrSpektralanalyse physiologischer Signale
Spektralanalyse physiologischer Signale Dr. rer. nat. Axel Hutt Vorlesung 11 Aktionspotential zeigt Membranpotential in der Zellmembran, doch was sieht man ausserhalb? einzelne Synapse Summe von synaptischen
MehrNeuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011
Neuronale Netzwerke Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp Betreuer: Michael Wilczek 7. Februar 2011 1 Wiederholung 2 Modell 3 spikeabhängige Plastizität 4 Anwendung 5 Literatur Biologischer
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:
Mehr6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
MehrComputational Neuroscience Rezeptive Felder
Computational Neuroscience Rezeptive Felder Jutta Kretzberg Master-Grundmodul 2009 Download der pdf Version: http://www.uni-oldenburg.de/sinnesphysiologie/ Computational Neuroscience Heute: Rezeptive Felder
MehrEntstehung rezeptiver Felder
Entstehung rezeptiver Felder 30.1.2006 http://www.uni-oldenburg.de/sinnesphysiologie/ Vorlesungsprogramm 17.10.05 Motivation 24.10.05 Passive Eigenschaften von Neuronen 31.10.05 Räumliche Struktur von
MehrComputational Neuroscience 2. Neuronenmodelle
Computational Neuroscience 2. Neuronenmodelle Jutta Kretzberg Master-Grundmodul 2009 Download der pdf Version: http://www.uni-oldenburg.de/sinnesphysiologie/ 40426.html Nachtrag: Literatur pdf-version
MehrObjekt Attributwerte Klassifizierung X Y
AUFGABE : Entscheidungsbäume Betrachten Sie das folgende Klassifizierungsproblem: bjekt Attributwerte Klassifizierung X Y A 3 B 2 3 + C 2 D 3 3 + E 2 2 + F 3 G H 4 3 + I 3 2 J 4 K 2 L 4 2 ) Bestimmen Sie
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Marten Jäger 6. August 2007 Zusammenfassung Selbstorganisierte Karten (SOM ) sind ein unüberwachtes Lernverfahren mit dem Ziel eine topologische Darstellung des Eingaberaums
MehrKapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining
Kapitel ML:XII XII. Other Unsupervised Learning Nearest Neighbor Strategies Self Organizing Maps Neural Gas Association Analysis Rule Mining Reinforcement Learning ML:XII-1 Unsupervised Others LETTMANN
MehrKlassifikation durch direkten Vergleich (Matching)
Klassifikation durch direkten Vergleich (Matching) Eine triviale Lösung für die Klassifikation ergibt sich durch direkten Vergleich des unbekannten Musters in allen Erscheinungsformen der Äquivalenzklasse
MehrModulprüfung: BBio119, Neurowissenschaften und Verhaltensbiologie. Klausur zur Vorlesung: Theoretische Neurowissenschaften.
Modulprüfung: BBio119, Neurowissenschaften und Verhaltensbiologie Klausur zur Vorlesung: Theoretische Neurowissenschaften. SoSe 2010 Name Vorname Matrikelnummer Anmerkungen: Sie müssen die Prüfung ohne
MehrStatistische und neuronale Lernverfahren: Selbstorganisierende Merkmalskarten. Holger Arndt WS 03/04, 2 SWS
Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten Statistische und neuronale Lernverfahren: Selbstorganisierende Merkmalskarten Holger Arndt arndt@in.tum.de WS 3/4, 2 SWS 8..23 8:3 - Uhr Holger
MehrSelbstorganisierende Karten
Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales
MehrVisuelle Bewegungswahrnehmung. Visuelle Wahrnehmung Dipl. Psych. Kai Hamburger
Visuelle Bewegungswahrnehmung Seminar: Dozent: Referentin: Datum: Visuelle Wahrnehmung Dipl. Psych. Kai Hamburger Debora Palm 14.06.2004 Visuelle Bewegungswahrnehmung Einführung Verarbeitung von bewegten
MehrInvariance is bliss! Was ist algebraische Topologie?
Invariance is bliss! Was ist algebraische Topologie? Clara Löh Universität Regensburg 29. Juli 2011 Was sind Invarianten? Clara Löh Was sind Invarianten? 2 / 17 Was sind Invarianten? Clara Löh Was sind
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Proseminar Ausgewählte Themen über Agentensysteme 11.07.2017 Institut für Informatik Selbstorganisierende Karten 1 Übersicht Motivation Selbstorganisierende Karten Aufbau &
MehrVom Reiz zum Aktionspotential. Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden?
Vom Reiz zum Aktionspotential Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden? Vom Reiz zum Aktionspotential Primäre Sinneszellen (u.a. in den Sinnesorganen) wandeln den
MehrC1/4 - Modellierung und Simulation von Neuronen
C 1 /4 - Modellierung und Simulation von Neuronen April 25, 2013 Motivation Worum geht es? Motivation Worum geht es? Um Neuronen. Motivation Worum geht es? Um Neuronen. Da ist u.a. euer Gehirn draus Motivation
Mehr1 Einleitung. 2 Clustering
Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrEinführung in die moderne Psychologie
WZ 04 Donald O. Hebb Einführung in die moderne Psychologie Neu übersetzt nach der dritten völlig überarbeiteten Auflage von Hermann Rademacker A 015784 Landes-Lehrer-Bibliothek des Fürstentums Li2ci:tcnstsin
MehrTarnkappen und mathematische Räume
Tarnkappen und mathematische Räume Stefan Müller-Stach http://hodge.mathematik.uni-mainz.de/ stefan/biblio.html Ein Raum Mathematische Räume Die moderne Mathematik bietet einen universellen Baukasten zur
MehrBK07_Vorlesung Physiologie. 05. November 2012
BK07_Vorlesung Physiologie 05. November 2012 Stichpunkte zur Vorlesung 1 Aktionspotenziale = Spikes Im erregbaren Gewebe werden Informationen in Form von Aktions-potenzialen (Spikes) übertragen Aktionspotenziale
MehrMustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12
Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1
MehrNeuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back )
Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) A: Schrittweise vorwärts-gerichtete Abbildung: Eingangssignal (Input) r in Ausgansgsignal (Output) r out Überwachtes Lernen (wie z.b.
MehrVereinfachte Neuronenmodelle
Vereinfachte Neuronenmodelle (Integrate & Fire, künstliche neuronale Netze) Computational Neuroscience 8.1.2007 Jutta Kretzberg (Vorläufiges) Vorlesungsprogramm 23.10.06!! Motivation 30.10.06!! Neuronale
MehrInhalt und Überblick. Visuelle Kognition. Visuelle Kognition WS 2001/2002 Adrian Schwaninger
Einleitung WS 2001/2002 Adrian Schwaninger Inhalt und Überblick Repräsentation, Erkennung, Kategorisierung Traditioneller Ansatz Strukturelle Beschreibungen Ansichtenbasierte Modelle Diskussion Gesichterwahrnehmung
MehrAdaptive Resonance Theory
Adaptive Resonance Theory Jonas Jacobi, Felix J. Oppermann C.v.O. Universität Oldenburg Adaptive Resonance Theory p.1/27 Gliederung 1. Neuronale Netze 2. Stabilität - Plastizität 3. ART-1 4. ART-2 5. ARTMAP
MehrInhalt und Überblick
Einleitung Visuelle Kognition Adrian Schwaninger Universität Zürich Inhalt und Überblick Repräsentation, Erkennung, Kategorisierung Traditioneller Ansatz Strukturelle Beschreibungen Ansichtenbasierte Modelle
MehrOptimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp
Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator
MehrInhalt und Überblick. Visuelle Kognition Adrian Schwaninger Universität Zürich. Visuelle Kognition. Funktionaler Zugang.
drian Schwaninger Universität ürich Begriffsbestimmung Inhalt und Überblick Funktionaler ugang Bottom-Up Selektion Top-Down Selektion Bedürfnisse Repräsentation, Erkennung, Kategorisierung Traditioneller
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrDatenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität
Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte
MehrSelective visual attention ensures constancy of sensory representations: Testing the influence of perceptual load and spatial competition
Selective visual attention ensures constancy of sensory representations: Testing the influence of perceptual load and spatial competition Detlef Wegener, F. Orlando Galashan, Dominique N. Markowski, Andreas
MehrDie Entwicklung der Gefühle: Aspekte aus der Hirnforschung. Andreas Lüthi, Friedrich Miescher Institut, Basel
Die Entwicklung der Gefühle: Aspekte aus der Hirnforschung Andreas Lüthi, Friedrich Miescher Institut, Basel Wie lernen wir Angst zu haben? Wie kann das Gehirn die Angst wieder loswerden? Angst und Entwicklung
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrVorlesung 2 KÜRZESTE WEGE
Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!
MehrLigandengesteuerte Ionenkanäle
Das Gehirn SS 2010 Ligandengesteuerte Ionenkanäle Ligandengesteuerte Kanäle Ligand-gated ion channels LGIC Ionotrope Rezeptoren Neurotransmission Liganden Acetylcholin Glutamat GABA Glycin ATP; camp; cgmp;
MehrEinfache Modelle der Neurodynamik.
Vorlesung Einfache Modelle der Neurodynamik. Anregbarkeit und canards. Wintersemester 2015/16 12.01.2016 M. Zaks Aufbau eines Neurons: Gesamtbild 2 / 16 neuron Aufbau eines Neurons: Axon und Dendriten
MehrSeminar über Neuronale Netze und Maschinelles Lernen WS 06/07
Universität Regensburg Naturwissenschaftliche Informatik Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Cluster-Algorithmen II: Neural Gas Vortragender: Matthias Klein Gliederung Motivation:
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrPassive und aktive elektrische Membraneigenschaften
Aktionspotential Passive und aktive elektrische Membraneigenschaften V m (mv) 20 Overshoot Aktionspotential (Spike) V m Membran potential 0-20 -40 Anstiegsphase (Depolarisation) aktive Antwort t (ms) Repolarisation
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrBildverarbeitung: Kontinuierliche Energieminimierung. D. Schlesinger BV: () Kontinuierliche Energieminimierung 1 / 9
Bildverarbeitung: Kontinuierliche Energieminimierung D. Schlesinger BV: () Kontinuierliche Energieminimierung 1 / 9 Idee Statt zu sagen, wie die Lösung geändert werden muss (explizite Algorithmus, Diffusion),
MehrWie und wo lernen Kinder am besten welche Bedingungen brauchen sie?
Experimentelle HNO-Heilkunde Wie und wo lernen Kinder am besten welche Bedingungen brauchen sie? Prof. Dr. Holger Schulze Einführung Einige Grundlagen aus der Neurobiologie Verschiedene Hirnregionen haben
MehrKlassifikation akustischer Kommunikationssignale durch Heuschrecken: Probleme der Informationsverarbeitung
Klassifikation akustischer Kommunikationssignale durch Heuschrecken: Probleme der Informationsverarbeitung Bernd Ronacher, Humboldt-Universität zu Berlin Dank: Dagmar und Otto von Helversen (Univ. Erlangen)
MehrZur pädagogischen Relevanz neurowissenschaftlicher Erkenntnisse ein Überblick über die Debatte
Zur pädagogischen Relevanz neurowissenschaftlicher Erkenntnisse ein Überblick über die Debatte Vortrag im Rahmen der Tagung Wer ruft, wenn sich das Gewissen meldet? an der Evangelischen Akademie im Rheinland
MehrModellbildung und Simulation
Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:
MehrDie wahrscheinlich am häufigsten gestellte Frage. Die Karte im Kopf. Wie stellt das Gehirn seine Umwelt dar? J. Leo van Hemmen
Biophysik Die Karte im Kopf Wie stellt das Gehirn seine Umwelt dar? J. Leo van Hemmen In der Neurophysik versteht man unter einer Karte die neuronale Abbildung raumzeitlicher Aktivität eines Sinnesorgans.
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrSelbstorganisierende Merkmalskarten
Selbstorganisierende Merkmalskarten Motivation (Gehirn) Architektur Topographische Merkmalskarten Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele (Folien: Holger Arndt) Motivation:
MehrInhalt und Überblick. Visuelle Kognition WS 2001/2002 Adrian Schwaninger. Visuelle Kognition. Einleitung
WS 2001/2002 Adrian Schwaninger Visuelle Aufmerksamkeit Visual Search: Distributed, parallel, pop-out Inhalt und Überblick Einleitung Repräsentation, Erkennung, Kategorisierung Traditioneller Ansatz Strukturelle
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
MehrImplementationsaspekte
Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrParallele Algorithmen in der Bildverarbeitung
Seminar über Algorithmen - SoSe 2009 Parallele Algorithmen in der Bildverarbeitung von Christopher Keiner 1 Allgemeines 1.1 Einleitung Parallele Algorithmen gewinnen immer stärker an Bedeutung. Es existieren
MehrMechanismen der Aufmerksamkeitsorientierung
Mechanismen der Aufmerksamkeitsorientierung Exogene (reizgetriggerte) Orientierung auf periphere Cues: schnell, relativ automatisch Endogene Orientierung auf zentrale, symbolische Cues: langsam, intentional,
MehrNeuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien
in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???
MehrAdaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke
MehrEinleitung Grundlagen Einordnung. Normen. Thomas Gerstner. Institut für Mathematik Goethe-Universität Frankfurt am Main
Institut für Mathematik Goethe-Universität Frankfurt am Main Einführungsvortrag Proseminar 25. Januar 2013 Outline 1 Einleitung Motivation Anwendungsbereiche 2 3 Wichtige Outline Einleitung Motivation
MehrTopologie metrischer Räume
Technische Universität München Christoph Niehoff Ferienkurs Analysis für Physiker Vorlesung Montag SS 11 In diesem Teil des Ferienkurses beschäftigen wir uns mit drei Themengebieten. Zuerst wird die Topologie
MehrSlow feature analysis
Slow feature analysis Welf Walter Zusammenfassung Die sogenannte Slow Feature Analysis ist eine neue Idee, aus zeitabhängigen Daten die wichtigen Komponenten herauszufinden und die redundanten Informationen
MehrGenetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008
Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung
MehrBiologische Psychologie II
Wo sind denn nun Erinnerungen im gesunden Gehirn gespeichert? Es wurde bereits die Idee erwähnt, dass Erinnerungen im Rahmen der Strukturen gespeichert sind, die an der ursprünglichen Erfahrung beteiligt
Mehr3 Matrizenrechnung. 3. November
3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige
MehrProseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung"
Fakultät Informatik, Institut für künstliche Intelligenz, Intelligent Systems Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung" Lokale Merkmalsdeskriptoren Jens Stormberg - Dresden, 19.06.2009
MehrKonvergenz von Hopfield-Netzen
Matthias Jauernig 1. August 2006 Zusammenfassung Die nachfolgende Betrachtung bezieht sich auf das diskrete Hopfield-Netz und hat das Ziel, die Konvergenz des Verfahrens zu zeigen. Leider wird dieser Beweis
MehrKapitel 2, Teil 2: Basiswissen Neurobiologie und Modelle neuronaler Netze Prof. Dr. Bernd J. Kröger
Inhalt Kapitel 2, Teil 2: Basiswissen Neurobiologie und Modelle neuronaler Netze Prof. Dr. Bernd J. Kröger Zum Begriff: Neurobiologie Aufbau des Nervensystems Neuronen: Die Basiseinheiten der Informationsverarbeitung
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Jochen Weiß Inhaltsverzeichnis 1 Das menschliche Gehirn als Vorbild 2 2 Architektur einer SOM 3 2.1 Aufbau der Neuronenschichten 3 2.2 Gewichts- und Eingabevektor 3 3 Das Training
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap
MehrNeuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate...
Neuro-Info Notizen Marus Klemm.net WS 6/7 Inhaltsverzeichnis Hebbsche Lernregel. Fälle........................................ Lernrate..................................... Neural Gas. Algorithmus.....................................
MehrPraktikum Simulationstechnik Rene Schneider, Benjamin Zaiser
Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrUsing Sets of Feature Vectors for Similarity Search on Voxelized CAD Data
Diplomarbeit Using Sets of Feature Vectors for Similarity Search on Voxelized CAD Data Stefan Brecheisen Aufgabensteller: Betreuer: Dank an: Prof. Dr. Hans-Peter Kriegel Martin Pfeifle Peer Kröger, Matthias
MehrAnalyse, Modellierung und Simulation der visuell-räumlichen Kognition bei der Mensch-Maschine-Interaktion
Schriftenreihe Rationalisierung und Humanisierung Band 82 Carsten Winkelholz Analyse, Modellierung und Simulation der visuell-räumlichen Kognition bei der Mensch-Maschine-Interaktion D 82 (Diss.RWTH Aachen)
MehrJohn C. Eccles. Das Gehirn. des Menschen. Das Abenteuer de r modernen Hirnforschung
John C. Eccles Das Gehirn des Menschen Das Abenteuer de r modernen Hirnforschung Kapitel I : Neurone, Nervenfasern und der Nervenimpuls 1 7 A. Einführung 1 7 B. Das Neuron........................... 1
MehrDenition 1 (Die Peanoschen Axiome). Es gibt eine Menge N und eine sogenannte Nachfolgefunktion S mit folgenden Eigenschaften.
In dieser Ausarbeitung handelt es sich es um die Menge der natürlichen Zahlen und deren Eigenschaften. In der Analysis werden häug zunächst die reellen Zahlen als vollständig geordneter Körper betrachtet
MehrLineare Klassifikatoren
Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-
MehrAutomatische Spracherkennung
Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.
MehrNeuronale Kodierung. Jutta Kretzberg. Lehrprobe Oldenburg,
Neuronale Kodierung Jutta Kretzberg Lehrprobe Oldenburg, 2.10.2008 http://www.uni-oldenburg.de/sinnesphysiologie/download/lehrprobe.pdf Vorlesung zum Master-Modul Neurobiologie Neuroanatomie Neurophysiologie
Mehr2.4.4 Die Fraktale Dimension
2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die
Mehr