Topologische Objektrepräsentationen und zeitliche Korrelation

Größe: px
Ab Seite anzeigen:

Download "Topologische Objektrepräsentationen und zeitliche Korrelation"

Transkript

1 Topologische Objektrepräsentationen und zeitliche Korrelation Frank Michler Fachbereich Physik, AG NeuroPhysik

2 Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 2 / 38

3 Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 3 / 38

4 Invarianz-Problem Sensorischer Input ändert sich schnell (sehr variant) 4 / 38

5 Invarianz-Problem Sensorischer Input ändert sich schnell (sehr variant) Verschiedene sensorische Input-Muster, gleiches Objekt 4 / 38

6 Lernen von Assiziationen durch zeitliche Korrelation Wallis & Bültho / 38

7 Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer 6 / 38

8 Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) 6 / 38

9 Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) Slow-Feature-Analysis (Wiskott 2002) 6 / 38

10 Verhaltensrelevante Umwelt-Eigenschaften (Objekt-Identität) ändern sich langsamer Trace-Lernregel (Földiák 1991, Wallis & Rolls 1996) Slow-Feature-Analysis (Wiskott 2002) Lernen von Complex-Zellen aus natürlichen Stimulus-Sequenzen (Einhäuser et al. 2002) 6 / 38

11 Földiák 1991: Trace-Lernregel Gewichts-Änderung abhängig von Aktivitäts-Vergangenheit Symbole ω (t) ij = αȳ (t) i (x (t) j ω (t) ij ) mit ȳ (t) i = (1 δ)ȳ (t 1) i + δȳ (t) i x (t) j : präsynaptischeaktivität zur Zeit t ω (t) ij : Gewicht von präsynaptischer Zelle j zur postsynaptischen Zelle i ȳ (t) i : memory trace δ, α : Parameter 7 / 38

12 Földiák 1991: Trace-Lernregel stimului 8 / 38

13 Földiák 1991: Trace-Lernregel stimului connection weights before 8 / 38

14 Földiák 1991: Trace-Lernregel stimului connection weights before after 8 / 38

15 Földiák 1991: Trace-Lernregel stimului connection weights before after no trace (δ = 1) 8 / 38

16 im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex 9 / 38

17 im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex Beispiel: Orientierungskarten in V1 (Bosking 1997) 9 / 38

18 im Cortex: Retinotopie in V1-V4, Tonotopie im Auditorischen Cortex Beispiel: Orientierungskarten in V1 (Bosking 1997) 9 / 38

19 Topologie im Inferotemporalen Cortex Tanaka / 38

20 Topologie im Inferotemporalen Cortex Wang 1996, optical imaging 11 / 38

21 SOM-Algorithmus, Kohonen 1982 Input-Vektoren 12 / 38

22 SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. 12 / 38

23 SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. 12 / 38

24 SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. Winner-Take-All: Es gewinnt das Neuron, dessen Gewichts-Vektor dem Input-Vektor am ähnlichsten ist. 12 / 38

25 SOM-Algorithmus, Kohonen 1982 Input-Vektoren Neuronen, die durch ihren Gewichtsvektor deniert sind. Topologie: Neuronen sind in einem 2D-Array angeordnet. Winner-Take-All: Es gewinnt das Neuron, dessen Gewichts-Vektor dem Input-Vektor am ähnlichsten ist. Das Gewinner-Neuron und dessen Nachbarschaft lernen, d.h. deren Gewichts-Vektoren werden in Richtung des Input-Vektors verschoben. 12 / 38

26 SOM-Algorithmus, Kohonen / 38

27 SOM mit spikenden Neuronen Selbst-organisierende Karten mit spikenden Neuronen und lateraler Wechselwirkung (Choe/Miikkulainen 1996) Kurzreichweitige exzitatorische Verbindungen Langreichweitige Inhibition 14 / 38

28 SOM mit spikenden Neuronen 15 / 38

29 SOM: Klassikation nach Ähnlichkeit SOM-Algorithmen klassizieren Input-Stimuli nach ihrer Ähnlichkeit. Optimal zur Detektion räumlicher Korrelationen zwischen den Input-Stimuli Stimuli werden einzeln, nacheinander präsentiert, die Zeitliche Reihenfolge spielt keine Rolle. 16 / 38

30 17 / 38

31 17 / 38

32 Outline Stimuli -Neuron und Architektur Lernregel 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 18 / 38

33 2D-Gauss-Stimulus Stimuli -Neuron und Architektur Lernregel Y-Parameter X-Parameter 19 / 38

34 Winkel-Stimulus Stimuli -Neuron und Architektur Lernregel Y-Parameter X-Parameter 20 / 38

35 Stimuli Stimuli -Neuron und Architektur Lernregel 2D-Gauss-Stimulus Winkel-Stimulus 3D-Tetraeder (movie) 21 / 38

36 -Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Leaky Integrator dv (t) C m dt = g L (V (t) E L ) I syn (t) I syn (t) = I AMPA (t) + I NMDA (t) + I GABAa (t) C m : Membrankapazität V : Membranspannung t : Zeit g L : Leck-Leitfähigkeit I syn : Synaptische Ströme 22 / 38

37 -Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) 23 / 38

38 -Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) Schneller inhibitorischer GABAa-Strom I GABAa (t) = G GABAa (t)g max,gabaa (V (t) E GABAa ) 23 / 38

39 -Neuronen: Leaky Integrator Stimuli -Neuron und Architektur Lernregel Schneller exzitatorischer AMPA-Strom I AMPA (t) = G AMPA (t)g max,ampa (V (t) E AMPA ) Schneller inhibitorischer GABAa-Strom I GABAa (t) = G GABAa (t)g max,gabaa (V (t) E GABAa ) Langsamer exzitatorischer NMDA-Strom (Jahr und Stevens 1990) I NMDA (t) = G NMDA(t)G max,nmda (V (t) E NMDA ) 1 + [Mg 2+ ]exp( 0.062V (t))/ / 38

40 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

41 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

42 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

43 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

44 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

45 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

46 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

47 -Architektur Stimuli -Neuron und Architektur Lernregel 24 / 38

48 Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes presynaptic spikes time/ms 25 / 38

49 Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes time/ms 25 / 38

50 Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes L pre,m = t sm e t tsm τ pre time/ms 25 / 38

51 Spike-Zeit-abhängige Lernregel Stimuli -Neuron und Architektur Lernregel postsynaptic spikes L post,n = t sn e t tsn τ post presynaptic spikes L pre,m = t sm e t tsm τ pre w m,n = δ n (t)rl pre,m L post,n time/ms 25 / 38

52 Gewichts-Normalisierung Stimuli -Neuron und Architektur Lernregel Beim Überschreiten einer bestimmten postsynaptischen Feuerrate werden alle Synapsen zu dieser Zelle entsprechend ihres aktuellen Gewichts geschwächt. 26 / 38

53 Outline Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen 27 / 38

54 Bestimmung der Stimulus-Selektivität Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Repräsentations-Schicht (E 1 ) 28 / 38

55 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Ohne laterale ex. Verbindungen keine geordnete Karte X-Parameter kontinuierlich 29 / 38

56 2D-Gauss-Stimulus: X kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich 30 / 38

57 2D-Gauss-Stimulus: Y kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Y-Parameter kontinuierlich 31 / 38

58 Winkel-Stimulus: X kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich 32 / 38

59 Winkel-Stimulus: Y kontinuierlich Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Y-Parameter kontinuierlich 33 / 38

60 Bestimmung der Stimulus-Selektivität Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Complex-Zell-Schicht (E 2 ) 34 / 38

61 2D-Gauss-Stimulus Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich Y-Parameter kontinuierlich 35 / 38

62 2D-Gauss-Stimulus Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen X-Parameter kontinuierlich Y-Parameter kontinuierlich N=100 N=100 N=100 N= / 38

63 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. 37 / 38

64 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition 37 / 38

65 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. 37 / 38

66 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. Eine topologische Repräsentation, die zeitliche Korrelationen berücksichtigt, unterstützt invariante Erkennung. 37 / 38

67 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Zusammenfassung und Schlussfolgerungen Die Herausbildung topologischer Karten ist auch mit kontinuierlichem Input möglich. Verschaltungsprinzip: lokale exzitatorische Wechselwirkung, und langreichweitige Inhibition Die gelernte Topologie hängt von der zeitlichen Reihenfolge beim Lernen ab. Eine topologische Repräsentation, die zeitliche Korrelationen berücksichtigt, unterstützt invariante Erkennung. Die im inferotemporalen Cortex gefundene Topologie könnte auf dem vorgeschlagenen Mechanismus beruhen. 37 / 38

68 Selektivitäts-Karten Invariante Repräsentation Zusammenfassung & Schlussvolgerungen Danke für Eure Aufmerksamkeit / 38

Synaptische Verschaltung

Synaptische Verschaltung Synaptische Verschaltung 16.1.2006 http://www.uni-oldenburg.de/sinnesphysiologie/ 15246.html Vorläufiges Vorlesungsprogramm 17.10.05 Motivation 24.10.05 Passive Eigenschaften von Neuronen 31.10.05 Räumliche

Mehr

Dynamische Systeme in der Biologie: Beispiel Neurobiologie

Dynamische Systeme in der Biologie: Beispiel Neurobiologie Dynamische Systeme in der Biologie: Beispiel Neurobiologie Caroline Geisler geisler@lmu.de April 18, 2018 Elektrische Ersatzschaltkreise und Messmethoden Wiederholung: Membranpotential Exkursion in die

Mehr

Seminarvortrag: Visual Cortex

Seminarvortrag: Visual Cortex Seminarvortrag: Visual Cortex Sören Schwenker 13. Januar 2013 Visual Cortex Inhaltsverzeichnis 13. Januar 2013 Inhaltsverzeichnis 1 Einleitung 2 2 Conductance based models 2 3 Rate-based neural network

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Dynamische Systeme in der Biologie: Beispiel Neurobiologie

Dynamische Systeme in der Biologie: Beispiel Neurobiologie Dynamische Systeme in der Biologie: Beispiel Neurobiologie Dr. Caroline Geisler geisler@lmu.de 13. Juni 2018 Hans Berger (1873-1941) und das EEG Hans Berger zeichnete 1924 das erste EEG (Elektroenzephalogramm)

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

3 Modellierung von Neuronen I

3 Modellierung von Neuronen I 3 Modellierung von Neuronen I Im ersten Kapitel über die Modellierung von Neuronen bewegen wir uns von der einfachsten Modelldarstellung von Neuronen, in denen das Neuron als eine Einheit modelliert wird

Mehr

7. Unüberwachte Lernverfahren

7. Unüberwachte Lernverfahren 7. Unüberwachte Lernverfahren 1. Neuronale Merkmalskarten 2. Explorative Datenanalyse 3. Methoden zur Datenreduktion der Datenpunkte 4. Methoden zur Merkmalsreduktion der Merkmale Schwenker NI1 141 7.1

Mehr

Aufrechterhaltung der Retinotopie. Bear 10.14; Kandel 27-9

Aufrechterhaltung der Retinotopie. Bear 10.14; Kandel 27-9 Aufrechterhaltung der Retinotopie Bear 10.14; Kandel 27-9 Antwortcharakteristik einer Simple cell Rezeptives Feld: On off Bear 10.21 Bevorzugte Antwort auf Lichtbalken Bestimmter Orientierung Simple cell

Mehr

Lernmodul 2 Modelle des Raumes

Lernmodul 2 Modelle des Raumes Folie 1 von 21 Lernmodul 2 Modelle des Raumes Bildnachweis: www. tagesschau.de Folie 2 von 21 Modelle des Raumes Übersicht Motivation Was ist Raum? Formalismus und Invarianz Metrischer Raum/Euklidischer

Mehr

6 Neuronale Modellierung: Der STAA-Ansatz

6 Neuronale Modellierung: Der STAA-Ansatz Bernd J. Kröger: Neuronale Sprachverarbeitung (Version 1.0.4) Seite 150 6 Neuronale Modellierung: Der STAA-Ansatz 6.1 Knoten: die STAA-Neuronensembles 6.1.1 Aktivierungslevel, Aktivierungsfunktion und

Mehr

Exzitatorische (erregende) Synapsen

Exzitatorische (erregende) Synapsen Exzitatorische (erregende) Synapsen Exzitatorische Neurotransmitter z.b. Glutamat Öffnung von Na+/K+ Kanälen Membran- Potential (mv) -70 Graduierte Depolarisation der subsynaptischen Membran = Erregendes

Mehr

Universalität für Wigner Matrizen

Universalität für Wigner Matrizen Universalität für Wigner Matrizen Benjamin Schlein, Universität Zürich HSGYM Tag 29. Januar 2015 1 1. Einführung Zufallmatrizen: sind N N Matrizen dessen Einträge Zufallsvariablen mit gegebenen Verteilung

Mehr

Mechanismen der synaptischen Plastizitaet. Andreas Frick MPI fuer Medizinische Forschung Heidelberg

Mechanismen der synaptischen Plastizitaet. Andreas Frick MPI fuer Medizinische Forschung Heidelberg Mechanismen der synaptischen Plastizitaet Andreas Frick MPI fuer Medizinische Forschung Heidelberg Hippocampus - deklaratives Gedaechtnis Hebbsche Synapse Donald Hebb (1949): "When an axon of cell A is

Mehr

5. Raum-Zeit-Symmetrien: Erhaltungssätze

5. Raum-Zeit-Symmetrien: Erhaltungssätze 5. Raum-Zeit-Symmetrien: Erhaltungssätze Unter Symmetrie versteht man die Invarianz unter einer bestimmten Operation. Ein Objekt wird als symmetrisch bezeichnet, wenn es gegenüber Symmetrieoperationen

Mehr

Spektralanalyse physiologischer Signale

Spektralanalyse physiologischer Signale Spektralanalyse physiologischer Signale Dr. rer. nat. Axel Hutt Vorlesung 11 Aktionspotential zeigt Membranpotential in der Zellmembran, doch was sieht man ausserhalb? einzelne Synapse Summe von synaptischen

Mehr

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011 Neuronale Netzwerke Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp Betreuer: Michael Wilczek 7. Februar 2011 1 Wiederholung 2 Modell 3 spikeabhängige Plastizität 4 Anwendung 5 Literatur Biologischer

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Computational Neuroscience Rezeptive Felder

Computational Neuroscience Rezeptive Felder Computational Neuroscience Rezeptive Felder Jutta Kretzberg Master-Grundmodul 2009 Download der pdf Version: http://www.uni-oldenburg.de/sinnesphysiologie/ Computational Neuroscience Heute: Rezeptive Felder

Mehr

Entstehung rezeptiver Felder

Entstehung rezeptiver Felder Entstehung rezeptiver Felder 30.1.2006 http://www.uni-oldenburg.de/sinnesphysiologie/ Vorlesungsprogramm 17.10.05 Motivation 24.10.05 Passive Eigenschaften von Neuronen 31.10.05 Räumliche Struktur von

Mehr

Computational Neuroscience 2. Neuronenmodelle

Computational Neuroscience 2. Neuronenmodelle Computational Neuroscience 2. Neuronenmodelle Jutta Kretzberg Master-Grundmodul 2009 Download der pdf Version: http://www.uni-oldenburg.de/sinnesphysiologie/ 40426.html Nachtrag: Literatur pdf-version

Mehr

Objekt Attributwerte Klassifizierung X Y

Objekt Attributwerte Klassifizierung X Y AUFGABE : Entscheidungsbäume Betrachten Sie das folgende Klassifizierungsproblem: bjekt Attributwerte Klassifizierung X Y A 3 B 2 3 + C 2 D 3 3 + E 2 2 + F 3 G H 4 3 + I 3 2 J 4 K 2 L 4 2 ) Bestimmen Sie

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Marten Jäger 6. August 2007 Zusammenfassung Selbstorganisierte Karten (SOM ) sind ein unüberwachtes Lernverfahren mit dem Ziel eine topologische Darstellung des Eingaberaums

Mehr

Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining

Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining Kapitel ML:XII XII. Other Unsupervised Learning Nearest Neighbor Strategies Self Organizing Maps Neural Gas Association Analysis Rule Mining Reinforcement Learning ML:XII-1 Unsupervised Others LETTMANN

Mehr

Klassifikation durch direkten Vergleich (Matching)

Klassifikation durch direkten Vergleich (Matching) Klassifikation durch direkten Vergleich (Matching) Eine triviale Lösung für die Klassifikation ergibt sich durch direkten Vergleich des unbekannten Musters in allen Erscheinungsformen der Äquivalenzklasse

Mehr

Modulprüfung: BBio119, Neurowissenschaften und Verhaltensbiologie. Klausur zur Vorlesung: Theoretische Neurowissenschaften.

Modulprüfung: BBio119, Neurowissenschaften und Verhaltensbiologie. Klausur zur Vorlesung: Theoretische Neurowissenschaften. Modulprüfung: BBio119, Neurowissenschaften und Verhaltensbiologie Klausur zur Vorlesung: Theoretische Neurowissenschaften. SoSe 2010 Name Vorname Matrikelnummer Anmerkungen: Sie müssen die Prüfung ohne

Mehr

Statistische und neuronale Lernverfahren: Selbstorganisierende Merkmalskarten. Holger Arndt WS 03/04, 2 SWS

Statistische und neuronale Lernverfahren: Selbstorganisierende Merkmalskarten. Holger Arndt WS 03/04, 2 SWS Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten Statistische und neuronale Lernverfahren: Selbstorganisierende Merkmalskarten Holger Arndt arndt@in.tum.de WS 3/4, 2 SWS 8..23 8:3 - Uhr Holger

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales

Mehr

Visuelle Bewegungswahrnehmung. Visuelle Wahrnehmung Dipl. Psych. Kai Hamburger

Visuelle Bewegungswahrnehmung. Visuelle Wahrnehmung Dipl. Psych. Kai Hamburger Visuelle Bewegungswahrnehmung Seminar: Dozent: Referentin: Datum: Visuelle Wahrnehmung Dipl. Psych. Kai Hamburger Debora Palm 14.06.2004 Visuelle Bewegungswahrnehmung Einführung Verarbeitung von bewegten

Mehr

Invariance is bliss! Was ist algebraische Topologie?

Invariance is bliss! Was ist algebraische Topologie? Invariance is bliss! Was ist algebraische Topologie? Clara Löh Universität Regensburg 29. Juli 2011 Was sind Invarianten? Clara Löh Was sind Invarianten? 2 / 17 Was sind Invarianten? Clara Löh Was sind

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Proseminar Ausgewählte Themen über Agentensysteme 11.07.2017 Institut für Informatik Selbstorganisierende Karten 1 Übersicht Motivation Selbstorganisierende Karten Aufbau &

Mehr

Vom Reiz zum Aktionspotential. Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden?

Vom Reiz zum Aktionspotential. Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden? Vom Reiz zum Aktionspotential Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden? Vom Reiz zum Aktionspotential Primäre Sinneszellen (u.a. in den Sinnesorganen) wandeln den

Mehr

C1/4 - Modellierung und Simulation von Neuronen

C1/4 - Modellierung und Simulation von Neuronen C 1 /4 - Modellierung und Simulation von Neuronen April 25, 2013 Motivation Worum geht es? Motivation Worum geht es? Um Neuronen. Motivation Worum geht es? Um Neuronen. Da ist u.a. euer Gehirn draus Motivation

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Einführung in die moderne Psychologie

Einführung in die moderne Psychologie WZ 04 Donald O. Hebb Einführung in die moderne Psychologie Neu übersetzt nach der dritten völlig überarbeiteten Auflage von Hermann Rademacker A 015784 Landes-Lehrer-Bibliothek des Fürstentums Li2ci:tcnstsin

Mehr

Tarnkappen und mathematische Räume

Tarnkappen und mathematische Räume Tarnkappen und mathematische Räume Stefan Müller-Stach http://hodge.mathematik.uni-mainz.de/ stefan/biblio.html Ein Raum Mathematische Räume Die moderne Mathematik bietet einen universellen Baukasten zur

Mehr

BK07_Vorlesung Physiologie. 05. November 2012

BK07_Vorlesung Physiologie. 05. November 2012 BK07_Vorlesung Physiologie 05. November 2012 Stichpunkte zur Vorlesung 1 Aktionspotenziale = Spikes Im erregbaren Gewebe werden Informationen in Form von Aktions-potenzialen (Spikes) übertragen Aktionspotenziale

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back )

Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) A: Schrittweise vorwärts-gerichtete Abbildung: Eingangssignal (Input) r in Ausgansgsignal (Output) r out Überwachtes Lernen (wie z.b.

Mehr

Vereinfachte Neuronenmodelle

Vereinfachte Neuronenmodelle Vereinfachte Neuronenmodelle (Integrate & Fire, künstliche neuronale Netze) Computational Neuroscience 8.1.2007 Jutta Kretzberg (Vorläufiges) Vorlesungsprogramm 23.10.06!! Motivation 30.10.06!! Neuronale

Mehr

Inhalt und Überblick. Visuelle Kognition. Visuelle Kognition WS 2001/2002 Adrian Schwaninger

Inhalt und Überblick. Visuelle Kognition. Visuelle Kognition WS 2001/2002 Adrian Schwaninger Einleitung WS 2001/2002 Adrian Schwaninger Inhalt und Überblick Repräsentation, Erkennung, Kategorisierung Traditioneller Ansatz Strukturelle Beschreibungen Ansichtenbasierte Modelle Diskussion Gesichterwahrnehmung

Mehr

Adaptive Resonance Theory

Adaptive Resonance Theory Adaptive Resonance Theory Jonas Jacobi, Felix J. Oppermann C.v.O. Universität Oldenburg Adaptive Resonance Theory p.1/27 Gliederung 1. Neuronale Netze 2. Stabilität - Plastizität 3. ART-1 4. ART-2 5. ARTMAP

Mehr

Inhalt und Überblick

Inhalt und Überblick Einleitung Visuelle Kognition Adrian Schwaninger Universität Zürich Inhalt und Überblick Repräsentation, Erkennung, Kategorisierung Traditioneller Ansatz Strukturelle Beschreibungen Ansichtenbasierte Modelle

Mehr

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator

Mehr

Inhalt und Überblick. Visuelle Kognition Adrian Schwaninger Universität Zürich. Visuelle Kognition. Funktionaler Zugang.

Inhalt und Überblick. Visuelle Kognition Adrian Schwaninger Universität Zürich. Visuelle Kognition. Funktionaler Zugang. drian Schwaninger Universität ürich Begriffsbestimmung Inhalt und Überblick Funktionaler ugang Bottom-Up Selektion Top-Down Selektion Bedürfnisse Repräsentation, Erkennung, Kategorisierung Traditioneller

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

Selective visual attention ensures constancy of sensory representations: Testing the influence of perceptual load and spatial competition

Selective visual attention ensures constancy of sensory representations: Testing the influence of perceptual load and spatial competition Selective visual attention ensures constancy of sensory representations: Testing the influence of perceptual load and spatial competition Detlef Wegener, F. Orlando Galashan, Dominique N. Markowski, Andreas

Mehr

Die Entwicklung der Gefühle: Aspekte aus der Hirnforschung. Andreas Lüthi, Friedrich Miescher Institut, Basel

Die Entwicklung der Gefühle: Aspekte aus der Hirnforschung. Andreas Lüthi, Friedrich Miescher Institut, Basel Die Entwicklung der Gefühle: Aspekte aus der Hirnforschung Andreas Lüthi, Friedrich Miescher Institut, Basel Wie lernen wir Angst zu haben? Wie kann das Gehirn die Angst wieder loswerden? Angst und Entwicklung

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Vorlesung 2 KÜRZESTE WEGE

Vorlesung 2 KÜRZESTE WEGE Vorlesung 2 KÜRZESTE WEGE 34 Kürzeste Wege im Graphen Motivation! Heute:! Kürzeste Wege von einem Knoten (SSSP)! Kürzeste Wege zwischen allen Knotenpaaren (APSP)! Viele Anwendungen:! Navigationssysteme!

Mehr

Ligandengesteuerte Ionenkanäle

Ligandengesteuerte Ionenkanäle Das Gehirn SS 2010 Ligandengesteuerte Ionenkanäle Ligandengesteuerte Kanäle Ligand-gated ion channels LGIC Ionotrope Rezeptoren Neurotransmission Liganden Acetylcholin Glutamat GABA Glycin ATP; camp; cgmp;

Mehr

Einfache Modelle der Neurodynamik.

Einfache Modelle der Neurodynamik. Vorlesung Einfache Modelle der Neurodynamik. Anregbarkeit und canards. Wintersemester 2015/16 12.01.2016 M. Zaks Aufbau eines Neurons: Gesamtbild 2 / 16 neuron Aufbau eines Neurons: Axon und Dendriten

Mehr

Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07

Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Universität Regensburg Naturwissenschaftliche Informatik Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Cluster-Algorithmen II: Neural Gas Vortragender: Matthias Klein Gliederung Motivation:

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Passive und aktive elektrische Membraneigenschaften

Passive und aktive elektrische Membraneigenschaften Aktionspotential Passive und aktive elektrische Membraneigenschaften V m (mv) 20 Overshoot Aktionspotential (Spike) V m Membran potential 0-20 -40 Anstiegsphase (Depolarisation) aktive Antwort t (ms) Repolarisation

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Bildverarbeitung: Kontinuierliche Energieminimierung. D. Schlesinger BV: () Kontinuierliche Energieminimierung 1 / 9

Bildverarbeitung: Kontinuierliche Energieminimierung. D. Schlesinger BV: () Kontinuierliche Energieminimierung 1 / 9 Bildverarbeitung: Kontinuierliche Energieminimierung D. Schlesinger BV: () Kontinuierliche Energieminimierung 1 / 9 Idee Statt zu sagen, wie die Lösung geändert werden muss (explizite Algorithmus, Diffusion),

Mehr

Wie und wo lernen Kinder am besten welche Bedingungen brauchen sie?

Wie und wo lernen Kinder am besten welche Bedingungen brauchen sie? Experimentelle HNO-Heilkunde Wie und wo lernen Kinder am besten welche Bedingungen brauchen sie? Prof. Dr. Holger Schulze Einführung Einige Grundlagen aus der Neurobiologie Verschiedene Hirnregionen haben

Mehr

Klassifikation akustischer Kommunikationssignale durch Heuschrecken: Probleme der Informationsverarbeitung

Klassifikation akustischer Kommunikationssignale durch Heuschrecken: Probleme der Informationsverarbeitung Klassifikation akustischer Kommunikationssignale durch Heuschrecken: Probleme der Informationsverarbeitung Bernd Ronacher, Humboldt-Universität zu Berlin Dank: Dagmar und Otto von Helversen (Univ. Erlangen)

Mehr

Zur pädagogischen Relevanz neurowissenschaftlicher Erkenntnisse ein Überblick über die Debatte

Zur pädagogischen Relevanz neurowissenschaftlicher Erkenntnisse ein Überblick über die Debatte Zur pädagogischen Relevanz neurowissenschaftlicher Erkenntnisse ein Überblick über die Debatte Vortrag im Rahmen der Tagung Wer ruft, wenn sich das Gewissen meldet? an der Evangelischen Akademie im Rheinland

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:

Mehr

Die wahrscheinlich am häufigsten gestellte Frage. Die Karte im Kopf. Wie stellt das Gehirn seine Umwelt dar? J. Leo van Hemmen

Die wahrscheinlich am häufigsten gestellte Frage. Die Karte im Kopf. Wie stellt das Gehirn seine Umwelt dar? J. Leo van Hemmen Biophysik Die Karte im Kopf Wie stellt das Gehirn seine Umwelt dar? J. Leo van Hemmen In der Neurophysik versteht man unter einer Karte die neuronale Abbildung raumzeitlicher Aktivität eines Sinnesorgans.

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Selbstorganisierende Merkmalskarten

Selbstorganisierende Merkmalskarten Selbstorganisierende Merkmalskarten Motivation (Gehirn) Architektur Topographische Merkmalskarten Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele (Folien: Holger Arndt) Motivation:

Mehr

Inhalt und Überblick. Visuelle Kognition WS 2001/2002 Adrian Schwaninger. Visuelle Kognition. Einleitung

Inhalt und Überblick. Visuelle Kognition WS 2001/2002 Adrian Schwaninger. Visuelle Kognition. Einleitung WS 2001/2002 Adrian Schwaninger Visuelle Aufmerksamkeit Visual Search: Distributed, parallel, pop-out Inhalt und Überblick Einleitung Repräsentation, Erkennung, Kategorisierung Traditioneller Ansatz Strukturelle

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Parallele Algorithmen in der Bildverarbeitung

Parallele Algorithmen in der Bildverarbeitung Seminar über Algorithmen - SoSe 2009 Parallele Algorithmen in der Bildverarbeitung von Christopher Keiner 1 Allgemeines 1.1 Einleitung Parallele Algorithmen gewinnen immer stärker an Bedeutung. Es existieren

Mehr

Mechanismen der Aufmerksamkeitsorientierung

Mechanismen der Aufmerksamkeitsorientierung Mechanismen der Aufmerksamkeitsorientierung Exogene (reizgetriggerte) Orientierung auf periphere Cues: schnell, relativ automatisch Endogene Orientierung auf zentrale, symbolische Cues: langsam, intentional,

Mehr

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke

Mehr

Einleitung Grundlagen Einordnung. Normen. Thomas Gerstner. Institut für Mathematik Goethe-Universität Frankfurt am Main

Einleitung Grundlagen Einordnung. Normen. Thomas Gerstner. Institut für Mathematik Goethe-Universität Frankfurt am Main Institut für Mathematik Goethe-Universität Frankfurt am Main Einführungsvortrag Proseminar 25. Januar 2013 Outline 1 Einleitung Motivation Anwendungsbereiche 2 3 Wichtige Outline Einleitung Motivation

Mehr

Topologie metrischer Räume

Topologie metrischer Räume Technische Universität München Christoph Niehoff Ferienkurs Analysis für Physiker Vorlesung Montag SS 11 In diesem Teil des Ferienkurses beschäftigen wir uns mit drei Themengebieten. Zuerst wird die Topologie

Mehr

Slow feature analysis

Slow feature analysis Slow feature analysis Welf Walter Zusammenfassung Die sogenannte Slow Feature Analysis ist eine neue Idee, aus zeitabhängigen Daten die wichtigen Komponenten herauszufinden und die redundanten Informationen

Mehr

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008 Genetische Algorithmen Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 8. Juli 2008 Inhalt Einführung Algorithmus Erweiterungen alternative Evolutions- und Lernmodelle Inhalt 1 Einführung

Mehr

Biologische Psychologie II

Biologische Psychologie II Wo sind denn nun Erinnerungen im gesunden Gehirn gespeichert? Es wurde bereits die Idee erwähnt, dass Erinnerungen im Rahmen der Strukturen gespeichert sind, die an der ursprünglichen Erfahrung beteiligt

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung"

Proseminar Aufgabenstellungen der Bildanalyse und Mustererkennung Fakultät Informatik, Institut für künstliche Intelligenz, Intelligent Systems Proseminar "Aufgabenstellungen der Bildanalyse und Mustererkennung" Lokale Merkmalsdeskriptoren Jens Stormberg - Dresden, 19.06.2009

Mehr

Konvergenz von Hopfield-Netzen

Konvergenz von Hopfield-Netzen Matthias Jauernig 1. August 2006 Zusammenfassung Die nachfolgende Betrachtung bezieht sich auf das diskrete Hopfield-Netz und hat das Ziel, die Konvergenz des Verfahrens zu zeigen. Leider wird dieser Beweis

Mehr

Kapitel 2, Teil 2: Basiswissen Neurobiologie und Modelle neuronaler Netze Prof. Dr. Bernd J. Kröger

Kapitel 2, Teil 2: Basiswissen Neurobiologie und Modelle neuronaler Netze Prof. Dr. Bernd J. Kröger Inhalt Kapitel 2, Teil 2: Basiswissen Neurobiologie und Modelle neuronaler Netze Prof. Dr. Bernd J. Kröger Zum Begriff: Neurobiologie Aufbau des Nervensystems Neuronen: Die Basiseinheiten der Informationsverarbeitung

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Jochen Weiß Inhaltsverzeichnis 1 Das menschliche Gehirn als Vorbild 2 2 Architektur einer SOM 3 2.1 Aufbau der Neuronenschichten 3 2.2 Gewichts- und Eingabevektor 3 3 Das Training

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

Neuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate...

Neuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate... Neuro-Info Notizen Marus Klemm.net WS 6/7 Inhaltsverzeichnis Hebbsche Lernregel. Fälle........................................ Lernrate..................................... Neural Gas. Algorithmus.....................................

Mehr

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Using Sets of Feature Vectors for Similarity Search on Voxelized CAD Data

Using Sets of Feature Vectors for Similarity Search on Voxelized CAD Data Diplomarbeit Using Sets of Feature Vectors for Similarity Search on Voxelized CAD Data Stefan Brecheisen Aufgabensteller: Betreuer: Dank an: Prof. Dr. Hans-Peter Kriegel Martin Pfeifle Peer Kröger, Matthias

Mehr

Analyse, Modellierung und Simulation der visuell-räumlichen Kognition bei der Mensch-Maschine-Interaktion

Analyse, Modellierung und Simulation der visuell-räumlichen Kognition bei der Mensch-Maschine-Interaktion Schriftenreihe Rationalisierung und Humanisierung Band 82 Carsten Winkelholz Analyse, Modellierung und Simulation der visuell-räumlichen Kognition bei der Mensch-Maschine-Interaktion D 82 (Diss.RWTH Aachen)

Mehr

John C. Eccles. Das Gehirn. des Menschen. Das Abenteuer de r modernen Hirnforschung

John C. Eccles. Das Gehirn. des Menschen. Das Abenteuer de r modernen Hirnforschung John C. Eccles Das Gehirn des Menschen Das Abenteuer de r modernen Hirnforschung Kapitel I : Neurone, Nervenfasern und der Nervenimpuls 1 7 A. Einführung 1 7 B. Das Neuron........................... 1

Mehr

Denition 1 (Die Peanoschen Axiome). Es gibt eine Menge N und eine sogenannte Nachfolgefunktion S mit folgenden Eigenschaften.

Denition 1 (Die Peanoschen Axiome). Es gibt eine Menge N und eine sogenannte Nachfolgefunktion S mit folgenden Eigenschaften. In dieser Ausarbeitung handelt es sich es um die Menge der natürlichen Zahlen und deren Eigenschaften. In der Analysis werden häug zunächst die reellen Zahlen als vollständig geordneter Körper betrachtet

Mehr

Lineare Klassifikatoren

Lineare Klassifikatoren Lineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 8 1 M. O. Franz 06.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht 1 Nächste-Nachbarn-

Mehr

Automatische Spracherkennung

Automatische Spracherkennung Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.

Mehr

Neuronale Kodierung. Jutta Kretzberg. Lehrprobe Oldenburg,

Neuronale Kodierung. Jutta Kretzberg. Lehrprobe Oldenburg, Neuronale Kodierung Jutta Kretzberg Lehrprobe Oldenburg, 2.10.2008 http://www.uni-oldenburg.de/sinnesphysiologie/download/lehrprobe.pdf Vorlesung zum Master-Modul Neurobiologie Neuroanatomie Neurophysiologie

Mehr

2.4.4 Die Fraktale Dimension

2.4.4 Die Fraktale Dimension 2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die

Mehr