Natürliche und künstliche neuronale Netze

Größe: px
Ab Seite anzeigen:

Download "Natürliche und künstliche neuronale Netze"

Transkript

1 Kapitel 2 Natürliche und künstliche neuronale Netze 2.1 Informationsverarbeitung im Gehirn In diesem Abschnitt soll ein sehr knapper und durchaus unvollständiger Überblick gegeben werden, um den Bezug zu der biologischen Relevanz verschiedener Modelle und dem benutzten Wortschatz herzustellen. Als Einführung kann eine schon etwas ältere, aber sehr gute Übersicht im Spektrum der Wissenschaft, Nov.92, herangezogen werden, die sich dem Gehirn von der biologischen und informationstheoretischen Seite her gewidmet hat. [28, 29]). Die intellektuellen Leistungen werden in der Hirnrinde (Neokortex) erzielt (Fläche etwa 0.2 m 2, Dicke 2-3 mm). Die Hirnrinde ist in Felder für verschiedene Teilaufgaben organisiert (z.b. visuelle, motorische, somatosensorische, Assoziations-Felder), siehe Abb Abbildung 2.1: Organisation der Hirnrinde in Felder mit verschiedenen Teilaufgaben Ein Schnitt durch die Hirnrinde (Abb. 2.2) zeigt vertikal ausgerichtet das Netz der Neuronen (Nervenzellen) mit ihren Verzweigungen. In einer vertikalen Säule von 1 mm 2 befinden sich etwa 10 5 Neuronen, insgesamt gibt es etwa Neuronen im Gehirn. Dies entspricht in der Größenordnung etwas der Anzahl der Sterne in einer typischen Spiral- 7

2 8 Kapitel 2. Natürliche und künstliche neuronale Netze galaxis wie der Milchstraße. Die zahlenmäßige Vergleichbarkeit dieser doch sehr unterschiedlichen Systeme ist wohl eher zufällig. Bevor wir uns mit dem Aufbau der Nervenzellen befassen, soll zunächst ein Überblick über den Aufbau und die Organisation der Hirnrinde gegeben werden Organisation der Hirnrinde Vertikale Schichten: wie folgt aufgebaut: Beginnend in Abb. 2.2 in der untersten Schicht ist die Hirnrinde 6. Eingabeschicht und z.t. Ursprung von langreichweitigen Assoziationsfasern 5. Hauptausgabeschicht 4. Ursprung von Fasern, die zur Eingabe zurückkoppeln 3. Hauptursprung kurzreichweitiger Assoziationsfasern, das sind Verbindungen zwischen Neuronen aus verschiedenen Feldern. 2. dito 1. Schicht enthält die Assoziationsfasern Experimentelle Untersuchungen des Gehirns werden mit Mikroelektroden, SQUIDs, NMR etc. durchgeführt, wobei die invasiven Methoden eher auf Tiere beschränkt bleiben. Experimentell konnten Gedanken, Reize etc. im Gehirn nicht in einzelnen Neuronen lokalisiert werden. Vielmehr sind immer größere Bereiche involviert. Andererseits ist aber auch bei einem Prozess nicht das ganze Gehirn beteiligt. Es werden Zusammenschlüsse von Neuronen zu funktionellen Einheiten (mit unscharfen Übergängen) beobachtet, zum Beispiel: Rindenfelder, davon sind etwa 80 verschiedene bekannt, z.b. gibt es im Sehkortex Felder, die die Analyse von Kantenorientierungen, Farbtönen oder Geschwindigkeiten durchführen. Vertikale Mikrosäulen mit einem Durchmesser von etwa 0.1 mm übernehmen z.b. die Analyse einer einzelnen Bildkante oder die Ansteuerung eines Muskels. Rezeptive Felder: ein Lichtpunkt auf der Retina erregt z.b. nicht nur ein einzelnes Neuron sondern auch Nachbarn. Ein typisches Erregungsmuster ist der Sombrero in Abb. 2.3: Das Erregungszentrum wird durch eine hemmende Umgebung eingekreist ( laterale Inhibition ). Dieses gleichzeitige Auftreten von Erregung und Hemmung dient wahrscheinlich der Stabilisierung. Einzelne Felder sind untereinander und mit anderen Gehirn- und Nervenstrukturen über Assoziationsfasern verbunden. Strukturbildung: Mit den etwa Synapsen ergeben sich etwa mögliche Konfigurationen des Gehirns. Das kann nicht alles genetisch festgelegt sein! Genetisch kodiert sind wahrscheinlich nur Organisationsschemata und ein Strukturbildungsmechanismus. Die Verbindungen zwischen den Neuronen werden z.t. evolutionär aufgrund sensorischer Reize gebildet und können meistens auch später noch verändert werden.

3 2.1. Informationsverarbeitung im Gehirn 9 Abbildung 2.2: Vertikaler Schnitt durch die Hirnrinde. Die Dichte der Neuronen ist um einen Faktor 100 untersetzt

4 10 Kapitel 2. Natürliche und künstliche neuronale Netze Abbildung 2.3: Anregungsstruktur eines rezeptiven Feldes Abbildung 2.4: Struktur der Rindenfelder im somatosensorischen Kortex. Topographische Abbildungen: Der Lernvorgang führt offensichtlich zu Strukturen im Gehirn, die vorgegebene topographische Zusammenhänge bei den einlaufenden Sinnesreizen intakt lassen. Beispielsweise wird im somatosensorischen Kortex der Tastsinn der Hautoberfläche so abgebildet, dass benachbarte Körperbereiche benachbart bleiben (Abb. 2.4, links). Eine wesentliche Eigenschaft der Abbildung ist die Anpassung der Größe der Bildbereiche entsprechend der Wichtigkeit (oder Sensibilität) und das jeweils benötigte Auflösungsvermögen. Dieser Sachverhalt ist in der Abbildung 2.4 rechts dargetellt: Die Größenverhältnisse im Körperbau des so genannten Homunculus entspricht einem Sensibilitätsdiagramm verschiedener Bereiche seiner Körperoberfläche Aufbau und Funktion der Neuronen Die eigentlichen Informationsverarbeitungseinheiten des Gehirns sind die Nervenzellen oder Neuronen. Es gibt viele unterschiedliche Neuron-Typen. Um die uns interessierenden wesentlichen Eigenschaften von Neuronen zu beleuchten, konzentrieren wir uns auf die schematische Darstellung eines typischen Neurons in Abb Solch ein Neuron besteht aus dem Zellkörper, Durchmesser 5-80 µm,

5 2.1. Informationsverarbeitung im Gehirn 11 Abbildung 2.5: Schematische Darstellung von Nervenzellen (Neuronen) und ihrer Verbindungen zu anderen Nervenzellen. den Dendriten, die sich zu Dendritenbäumen mit einer Reichweite von mm verzweigen, dem Axon, das bis zu 1 m lang sein kann. Funktionsweise eines Neurons: Die Dendriten sammeln in einer Umgebung bis zu etwa 400 µm Signale von benachbarten Neuronen oder von den Axonen weiter entfernter Neuronen. Die Signalübertragung auf die Dendriten oder direkt auf den Zellkörper erfolgt über chemische Kontakte (Neurotransmitter) an den Synapsen innerhalb von O(1 ms). In der Hirnrinde hat jedes Neuron O(10 3 ) Synapsen (allgemein im Gehirn O(1) bis O(10 5 )). Die Zeitskala für die Übertragung ist 1 ms, d.h. dass z.b. die visuelle Erkennung eines Bildes mit nicht mehr als O(10) serielle Schritten erfolgen muss. Das Summensignal aller Dendriten verändert das elektrische Potential des Zellkörpers. Bei Überschreiten einer Schwelle erzeugt diese Potentialänderung einen Nadelpuls (Spike) auf dem Axon. Das Axonsignal wird durch eine Erhöhung des elektrischen Potenials innerhalb des Axons relativ zum umgebenden Medium gebildet. Das Signal hat eine zeitliche Dauer von etwa 2 Millisekunden und breitet sich mit einer Geschwindigkeit von etwa 10 m/s aus. Die geringe Signalgeschwindigkeit ist durch die zugrunde liegenden chemischen Prozesse begründet, die das elektrische Potenzial entlang der Nervenleitungen (im Inneren des Zellkörpers der Axonen und Dendriten) vom Ruhezustand (etwa -70 mv ) auf den Anregungszustand (etwa +20 mv )

6 .. 12 Kapitel 2. Natürliche und künstliche neuronale Netze anheben. Diese Prozesse sind im Wesentlichen Ionenaustauschprozesse (Kalium, Natrium, Chlor und einige weitere) durch die semipermeable Zellwand der Axonen und Dendriten. Ruckkopplung y 1 y y 2 3 Ausgang Abbildung 2.6: Beispiel für ein neuronales Netz. Im Allgemeinen sind Verbindungen auch von einer höheren Schicht zu einer tieferen Schicht zulässig (Rückkopplung). x x x Eingang Neuronale Vernetzung: Wesentlich für die Funktion des Gehirns und daher auch für eine angemessene Simulation ist das kollektive Verhalten eines Systems von nichtlinear gekoppelten Neuronen. Im Beispiel Abb. 2.6 werden die Eingangsreize x i (z.b. visuelle Signale) in Ausgangssignale y i (z.b. zur Bewegung eines Muskels) transformiert. x ( t ) 1 w1 x ( t ) 2 x ( t ) 3... w 2 w y( t + 1) 3 s Abbildung 2.7: Neuron als logisches Schaltelement Einfaches Modell: das McCulloch-Pitts-Neuron: Um die Funktionsweise des Gehirns zu simulieren, muss man zunächst ein mathematisches Modell des Neurons entwerfen. Ein erster Versuch in dieser Richtung wurde schon 1949 von Warren McCullcoch und Walter Pitts gestartet. Abbildung 2.7 zeigt das McCulloch-Pitts-Neuron [1], das einem logischen Schaltelement entspricht. Die binären Eingangssignale x i erzeugen ein binäres

7 2.2. Künstliche neuronale Netze (KNN) 13 Ausgangssignal y (x i, y = 0 oder 1) nach der Vorschrift: y(t + 1) = Θ j w j (t)x j s (2.1) Dabei ist t eine diskrete Zeitvariable. Die Heaviside-Funktion ist definiert als: Θ(a) = 1 a 0 0 sonst Die Gewichte w i entsprechen den Synapsenstärken, s ist der Schwellenwert. Das Neuron feuert also, wenn die gewichtete Summe der Eingangssignale die Schwelle s überschreitet. Die Gewichte können > 0 (erregend) oder < 0 (hemmend) sein, wie es auch tatsächlich für Synapsen beobachtet wird Lernen und Selbstorganisation Aus eigener Erfahrung wissen wir, dass das Gedächtnis auf unterschiedlichen Zeitskalen arbeitet. Manches ist bereits nach Sekunden verflogen, wie zum Beispiel die dauernd einwirkenden visuellen und sensorischen Reize, anderes behalten wir für Minuten oder Tage, manches für Jahre. Das Speicherung von Information im Gedächtnis ist also ähnlich einem evolutionären Prozess. Generell scheint zu gelten, dass die Stärke und Häufigkeit eines Reizes das Lernen wesentlich beeinflusst. Man beachte, dass wir zum Lernen offensichtlich in der Regel nicht zu wissen brauchen, ob das Gelernte richtig ist ( Lernen ohne Lehrer ). Auf diese Beobachtungen ist die Lernregel von Donald Hebb [2] begründet: Die Synapsenstärke ändert sich proportional zu der Korrelation zwischen prä- und postsynaptischem Signal, oder mathematisch ausgedrückt: w i = η y(x i ) x i, mit 0 < η < 1 (2.2) Der Lernparameter η legt die Lerngeschwingigkeit fest. Es ist ein besonders empfindlicher Parameter: Einerseits möchte man schnell lernen, andererseits birgt zu schnelles Lernen die Gefahr, dass bisweilen auch Unsinn abgespeichert wird. 2.2 Künstliche neuronale Netze (KNN) Künstliche neuronale Netze und neuronale Algorithmen sind in den letzten Jahren intensiv theoretisch untersucht, auf Computern simuliert und -seltener- als Hardware realisiert worden. Bei der Entwicklung von NN-Modellen wird man sich natürlich von den biologischen Befunden inspirieren lassen. Für die Anwendung ist es aber nicht wichtig, ob ein Modell tatsächlich in der Natur realisiert wird. Hier ist der praktische Erfolg ausschlaggebend. Ausgehend von den im vorigen Abschnitt entwickelten Vorstellungen über natürliche neuronale Netze definieren wir im Folgenden, welches die gemeinsamen Elemente der KNN-Modelle sein sollen. Diese Aufstellung ist nicht strikt, sondern soll eher der Orientierung dienen. Prozessorelement: (formales) Neuron, Netzwerk-Knoten (Abb. 2.8).

8 14 Kapitel 2. Natürliche und künstliche neuronale Netze y i g a i w i1 w i2 w i3 x 1 x 2 x 3 Abbildung 2.8: Struktur eines künstlichen Neurons Eingabeaktivitäten x j (Signale auf den Dendriten) sind reelle Zahlen (oder Spannungen, Ströme), eventuell binär (-1,1) oder (0,1). Gewichte (entspricht den Synapsen) w ij, > 0 (erregend), < 0 (hemmend) Aktivitätsfunktion a, z.b.: a i = j w ij x j s i Ausgabefunktion (oder Transferfunktion) g: y i = g(a i ) Im Allgemeinen liegt y i im Intervall [-1,1] oder [0,1] und hat häufig ein Schwellwertverhalten mit Sättigung an den Intervallgrenzen. Neben der Θ-Funktion werden häufig folgende sigmoide Funktionen gewählt (Abb. 2.9): σ(a) = e a/t, bekannt auch als Fermi-Dirac-Funktion (2.3) σ(a) = tanh(a/t ) (2.4) σ(a) = 1/2(1 + tanh(a/t )) (2.5) Die Funktionen (2.3) und (2.5) haben Werte im Intervall [0,1] und die Funktion (2.4) im Intervall [-1,1]. Sigmoide Funktionen haben den Vorteil im Bereich der Schwelle differenzierbar zu sein. Die Temperatur T bestimmt den Bereich mit variabler Verstärkung: Für T 0 geht σ in die Θ-Funktion über (binäres Neuron). T groß: weiche Entscheidung (siehe später). Netzwerk-Architektur: Netzwerk mit Neuronen ( Knoten ) und Verbindungen (Verknüpfungen zwischen den Neuronen) Vollständige Verknüpfung ( jeder mit jedem )

9 2.2. Künstliche neuronale Netze (KNN) 15 Stufe linear sigmoid Abbildung 2.9: Beispiele von Schwellenfunktionen Nachbarschaftsverknüpfung (zellulare Automaten) Verknüpfung uni- oder bi-direktional Schicht-Struktur der Neuronenverbindungen mit hierarchischer Anordnung (z.b. feed-forward) Verknüpfungen zwischen Neuronen mit oder ohne Rückkopplung Lernen: Anpassung der Gewichte Anpassung der Architektur: Erzeugen und Löschen von Neuronen und Verbindungen Lernregel: angeleitet (mit Lehrer, supervised ) Vergleich des Netzwerk-Outputs mit der (vom Lehrer vorgegebenen) Erwartung, Anpassung durch Fehlerminimierung (z.b. Backpropagation- Algorithmus). selbständig (ohne Lehrer, unsupervised ) z.b. Hebb-Regel Update-Regel: Neubestimmung eines Netzzustandes kann synchron (für alle Neuronen gleichzeitig), sequentiell oder iterativ (wegen nichtlinearer Kopplungen) gemacht werden. Netzwerk-Phasen: Trainingsphase (Verwendung eines Trainings-Datensatzes) Generalisierungsphase (Anwendung auf unbekannte Daten)

10 16 Kapitel 2. Natürliche und künstliche neuronale Netze

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

7. Vorlesung Neuronale Netze

7. Vorlesung Neuronale Netze Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich

Mehr

Universität Klagenfurt

Universität Klagenfurt Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Abbildungen Schandry, 2006 Quelle: www.ich-bin-einradfahrer.de Abbildungen Schandry, 2006 Informationsvermittlung im Körper Pioniere der Neurowissenschaften: Santiago Ramón y Cajal (1852-1934) Camillo

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM

Mehr

Das visuelle System. Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems!

Das visuelle System. Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems! Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems! Kanten definieren die Ausdehnung und die Position von Objekten! Eine visuelle

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011 Neuronale Netzwerke Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp Betreuer: Michael Wilczek 7. Februar 2011 1 Wiederholung 2 Modell 3 spikeabhängige Plastizität 4 Anwendung 5 Literatur Biologischer

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

C1/4 - Modellierung und Simulation von Neuronen

C1/4 - Modellierung und Simulation von Neuronen C 1 /4 - Modellierung und Simulation von Neuronen April 25, 2013 Motivation Worum geht es? Motivation Worum geht es? Um Neuronen. Motivation Worum geht es? Um Neuronen. Da ist u.a. euer Gehirn draus Motivation

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

1. Kommunikation Informationsweiterleitung und -verarbeitung

1. Kommunikation Informationsweiterleitung und -verarbeitung 1. Kommunikation Informationsweiterleitung und -verarbeitung Sinnesorgane, Nervenzellen, Rückenmark, Gehirn, Muskeln und Drüsen schaffen die Grundlage um Informationen aus der Umgebung aufnehmen, weiterleiten,

Mehr

Inhaltsfeld: IF 4: Neurobiologie

Inhaltsfeld: IF 4: Neurobiologie Unterrichtsvorhaben IV (Grundkurs): Thema/Kontext: Molekulare und zellbiologische Grundlagen der Informationsverarbeitung und Wahrnehmung Wie wird aus einer durch einen Reiz ausgelösten Erregung eine Wahrnehmung?

Mehr

Proseminar Neuronale Netze Frühjahr 2004

Proseminar Neuronale Netze Frühjahr 2004 Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die

Mehr

6 Neuronale Modellierung: Der STAA-Ansatz

6 Neuronale Modellierung: Der STAA-Ansatz Bernd J. Kröger: Neuronale Sprachverarbeitung (Version 1.0.4) Seite 150 6 Neuronale Modellierung: Der STAA-Ansatz 6.1 Knoten: die STAA-Neuronensembles 6.1.1 Aktivierungslevel, Aktivierungsfunktion und

Mehr

Inhaltsfeld: IF 4: Neurobiologie

Inhaltsfeld: IF 4: Neurobiologie Unterrichtsvorhaben IV: Thema/Kontext: Molekulare und zellbiologische Grundlagen der neuronalen Informationsverarbeitung Wie ist das Nervensystem Menschen aufgebaut und wie ist organisiert? Inhaltsfeld:

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

BK07_Vorlesung Physiologie. 05. November 2012

BK07_Vorlesung Physiologie. 05. November 2012 BK07_Vorlesung Physiologie 05. November 2012 Stichpunkte zur Vorlesung 1 Aktionspotenziale = Spikes Im erregbaren Gewebe werden Informationen in Form von Aktions-potenzialen (Spikes) übertragen Aktionspotenziale

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Biopsychologie als Neurowissenschaft Evolutionäre Grundlagen Genetische Grundlagen Mikroanatomie des NS

Biopsychologie als Neurowissenschaft Evolutionäre Grundlagen Genetische Grundlagen Mikroanatomie des NS 1 1 25.10.06 Biopsychologie als Neurowissenschaft 2 8.11.06 Evolutionäre Grundlagen 3 15.11.06 Genetische Grundlagen 4 22.11.06 Mikroanatomie des NS 5 29.11.06 Makroanatomie des NS: 6 06.12.06 Erregungsleitung

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Zwei Modelle retinaler Verarbeitung

Zwei Modelle retinaler Verarbeitung Zwei Modelle retinaler Verarbeitung 8.1.2006 http://www.uni-oldenburg.de/sinnesphysiologie/15247.html Vorlesungsprogramm 17.10.05 Motivation 24.10.05 Passive Eigenschaften von Neuronen 31.10.05 Räumliche

Mehr

2.4.4 Die Fraktale Dimension

2.4.4 Die Fraktale Dimension 2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die

Mehr

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler

Mehr

Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex

Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex Benedikt Gierlichs, 13. Mai 2004 Gliederung Wiederholung Die Hauptsehbahn Das Gesichtsfeld Chiasma Opticum Corpus Geniculatum

Mehr

Matthias Birnstiel Modul Nervensystem Medizinisch wissenschaftlicher Lehrgang Wissenschaftliche Lehrmittel, Medien, Aus- und Weiterbildung

Matthias Birnstiel Modul Nervensystem Medizinisch wissenschaftlicher Lehrgang Wissenschaftliche Lehrmittel, Medien, Aus- und Weiterbildung Matthias Birnstiel Modul Nervensystem Medizinisch wissenschaftlicher Lehrgang CHRISANA Wissenschaftliche Lehrmittel, Medien, Aus- und Weiterbildung Inhaltsverzeichnis des Moduls Nervensystem Anatomie des

Mehr

Analogie als Kern der Kognition

Analogie als Kern der Kognition 17. Januar 2008 Betreuerin: Prof. Dr. Ute Schmid Professur für Angewandte Informatik / Kognitive Systeme Otto-Friedrich-Universität Bamberg Analogie von griechischen: ana(anˆ) auseinander, zusammen, wieder,

Mehr

Modul MED-CNS008: Grundlagen der Modellierung neuronaler Systeme. VL4, , Uhr, PC-Pool, IMSID, Bachstr.18, Gebäude 1

Modul MED-CNS008: Grundlagen der Modellierung neuronaler Systeme. VL4, , Uhr, PC-Pool, IMSID, Bachstr.18, Gebäude 1 Modul MED-CNS008: Grundlagen der Modellierung neuronaler Systeme VL4, 11.5.2012, 10.00 Uhr, PC-Pool, IMSID, Bachstr.18, Gebäude 1 Lehrender: Dirk Hoyer, dirk.hoyer@med.uni-jena.de, Tel. 9325795 2.2 Rückgekoppelte

Mehr

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1 Adaptive Systeme Prof. Rüdiger Brause WS 2013 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags 10-12 Uhr, SR11 Übungen Donnerstags 12-13 Uhr, SR 9 Adaptive Systeme M-AS-2

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche

Mehr

M 3. Informationsübermittlung im Körper. D i e N e r v e n z e l l e a l s B a s i s e i n h e i t. im Überblick

M 3. Informationsübermittlung im Körper. D i e N e r v e n z e l l e a l s B a s i s e i n h e i t. im Überblick M 3 Informationsübermittlung im Körper D i e N e r v e n z e l l e a l s B a s i s e i n h e i t im Überblick Beabeablog 2010 N e r v e n z e l l e n ( = Neurone ) sind auf die Weiterleitung von Informationen

Mehr

Schematische Übersicht über das Nervensystem eines Vertebraten

Schematische Übersicht über das Nervensystem eines Vertebraten Schematische Übersicht über das Nervensystem eines Vertebraten Die Integration des sensorischen Eingangs und motorischen Ausgangs erfolgt weder stereotyp noch linear; sie ist vielmehr durch eine kontinuierliche

Mehr

1 Bau von Nervenzellen

1 Bau von Nervenzellen Neurophysiologie 1 Bau von Nervenzellen Die funktionelle Einheit des Nervensystems bezeichnet man als Nervenzelle. Dendrit Zellkörper = Soma Zelllkern Axon Ranvier scher Schnürring Schwann sche Hüllzelle

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

Lernregeln. Künstliche neuronale Netze. Professur Psychologie digitaler Lernmedien. Institut für Medienforschung Philosophische Fakultät

Lernregeln. Künstliche neuronale Netze. Professur Psychologie digitaler Lernmedien. Institut für Medienforschung Philosophische Fakultät Professur Psychologie digitaler Lernmedien Institut für Medienforschung Philosophische Fakultät Künstliche neuronale Netze Lernregeln Überblick Definition Lernregeln Hebb-Regel Delta-Regel Gradientenabstiegsverfahren

Mehr

abiweb NEUROBIOLOGIE 17. März 2015 Webinar zur Abiturvorbereitung

abiweb NEUROBIOLOGIE 17. März 2015 Webinar zur Abiturvorbereitung abiweb NEUROBIOLOGIE 17. März 2015 Webinar zur Abiturvorbereitung Bau Nervenzelle Neuron (Nervenzelle) Dentrit Zellkörper Axon Synapse Gliazelle (Isolierung) Bau Nervenzelle Bau Nervenzelle Neurobiologie

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Unterschied zwischen aktiver und passiver Signalleitung:

Unterschied zwischen aktiver und passiver Signalleitung: Unterschied zwischen aktiver und passiver Signalleitung: Passiv: Ein kurzer Stromimpuls wird ohne Zutun der Zellmembran weitergeleitet Nachteil: Signalstärke nimmt schnell ab Aktiv: Die Zellmembran leitet

Mehr

Erregungsübertragung an Synapsen. 1. Einleitung. 2. Schnelle synaptische Erregung. Biopsychologie WiSe Erregungsübertragung an Synapsen

Erregungsübertragung an Synapsen. 1. Einleitung. 2. Schnelle synaptische Erregung. Biopsychologie WiSe Erregungsübertragung an Synapsen Erregungsübertragung an Synapsen 1. Einleitung 2. Schnelle synaptische Übertragung 3. Schnelle synaptische Hemmung chemische 4. Desaktivierung der synaptischen Übertragung Synapsen 5. Rezeptoren 6. Langsame

Mehr

Neuronale Neize. Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke ADDISON-WESLEY PUBLISHING COMPANY

Neuronale Neize. Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke ADDISON-WESLEY PUBLISHING COMPANY Helge Ritter/Thomas Marrineiz/Klaus Schulten Neuronale Neize Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke Technische Hochschule Darmstadt FACHBEREICH INFORMATIK B! B k±ojjtlus

Mehr

Vom Reiz zum Aktionspotential. Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden?

Vom Reiz zum Aktionspotential. Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden? Vom Reiz zum Aktionspotential Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden? Vom Reiz zum Aktionspotential Primäre Sinneszellen (u.a. in den Sinnesorganen) wandeln den

Mehr

Zentrales Nervensystem

Zentrales Nervensystem Zentrales Nervensystem Funktionelle Neuroanatomie (Struktur und Aufbau des Nervensystems) Neurophysiologie (Ruhe- und Aktionspotenial, synaptische Übertragung) Fakten und Zahlen (funktionelle Auswirkungen)

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

Inhaltsverzeichnis. Einführung

Inhaltsverzeichnis. Einführung Inhaltsverzeichnis Einführung 1 Das biologische Paradigma 3 1.1 Neuronale Netze als Berechnungsmodell 3 1.1.1 Natürliche und künstliche neuronale Netze 3 1.1.2 Entstehung der Berechenbarkeitsmodelle 5

Mehr

Implementierung von Neuronalen Netzen mit LabVIEW und LabVIEW FPGA

Implementierung von Neuronalen Netzen mit LabVIEW und LabVIEW FPGA Virtuelle Instrumente in der Praxis VIP 2017 Implementierung von Neuronalen Netzen mit LabVIEW und LabVIEW FPGA Prof. Dr.-Ing. Alfred Rozek, Dirk Naparty Beuth Hochschule für Technik Berlin Kurzfassung

Mehr

Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back )

Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) A: Schrittweise vorwärts-gerichtete Abbildung: Eingangssignal (Input) r in Ausgansgsignal (Output) r out Überwachtes Lernen (wie z.b.

Mehr

Grundlagen Künstlicher Neuronaler Netze

Grundlagen Künstlicher Neuronaler Netze FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher

Mehr

11. Neuronale Netze 1

11. Neuronale Netze 1 11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Martin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr

Martin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr Statistische und neuronale Lernverfahren Martin Stetter WS 03/04, 2 SWS VL: Dienstags 8:30-0 Uhr PD Dr. Martin Stetter, Siemens AG Statistische und neuronale Lernverfahren Behandelte Themen 0. Motivation

Mehr

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Neuronale Netze. Seminar aus Algorithmik Stefan Craß, Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze

Mehr

Klassifikationsverfahren und Neuronale Netze

Klassifikationsverfahren und Neuronale Netze Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

auch: Konnektionismus; subsymbolische Wissensverarbeitung

auch: Konnektionismus; subsymbolische Wissensverarbeitung 10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Seminarvortrag: Visual Cortex

Seminarvortrag: Visual Cortex Seminarvortrag: Visual Cortex Sören Schwenker 13. Januar 2013 Visual Cortex Inhaltsverzeichnis 13. Januar 2013 Inhaltsverzeichnis 1 Einleitung 2 2 Conductance based models 2 3 Rate-based neural network

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Übertragung zwischen einzelnen Nervenzellen: Synapsen

Übertragung zwischen einzelnen Nervenzellen: Synapsen Übertragung zwischen einzelnen Nervenzellen: Synapsen Kontaktpunkt zwischen zwei Nervenzellen oder zwischen Nervenzelle und Zielzelle (z.b. Muskelfaser) Synapse besteht aus präsynaptischen Anteil (sendendes

Mehr

Topologische Objektrepräsentationen und zeitliche Korrelation

Topologische Objektrepräsentationen und zeitliche Korrelation Topologische Objektrepräsentationen und zeitliche Korrelation Frank Michler Fachbereich Physik, AG NeuroPhysik Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation

Mehr

Adaptive Systeme. Neuronale Netze: der Backward Propagation Algorithmus. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Neuronale Netze: der Backward Propagation Algorithmus. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Neuronale Netze: der Backward Propagation Algorithmus Prof. Dr. rer. nat. Nikolaus Wulff Neuronen Schicht x 1 x 2 x 3.. θ 1 θ 2. y 1 y 2 n y j = k =1 w jk x k j y j = n k =0 w jk x k x

Mehr

Postsynaptische Potenziale

Postsynaptische Potenziale Postsynaptisches Potenzial Arbeitsblatt Nr 1 Postsynaptische Potenziale Links ist eine Versuchsanordnung zur Messung der Membranpotenziale an verschiedenen Stellen abgebildet. Das Axon links oben wurde

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Neuronale Kodierung. Jutta Kretzberg. Lehrprobe Oldenburg,

Neuronale Kodierung. Jutta Kretzberg. Lehrprobe Oldenburg, Neuronale Kodierung Jutta Kretzberg Lehrprobe Oldenburg, 2.10.2008 http://www.uni-oldenburg.de/sinnesphysiologie/download/lehrprobe.pdf Vorlesung zum Master-Modul Neurobiologie Neuroanatomie Neurophysiologie

Mehr

Wie funktioniert unser Gehirn?

Wie funktioniert unser Gehirn? Wie funktioniert unser Gehirn? Wie funktioniert unser Gehirn? Was passiert, wenn wir denken? Was passiert, wenn wir unser Denken verändern? Unser Gehirn Das im Kopf liegende Gehirn steuert nahezu alle

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

Forschungsmodul: Komplexe Systeme

Forschungsmodul: Komplexe Systeme Forschungsmodul: Komplexe Systeme Bericht zur Vorlesung vom 25. Oktober 2007 von Jan-Philip Gehrcke Anatomie des Nervensystems Bei der Maus, beim Wolf und auch beim Menschen zeigt sich, dass der anatomische

Mehr

Ringvorlesung - Teil Neurobiologie Übungsfragen und Repetitorium

Ringvorlesung - Teil Neurobiologie Übungsfragen und Repetitorium Ringvorlesung - Teil Neurobiologie Übungsfragen und Repetitorium Termin 1: Neuronen, Synapsen und Signalgebung (Kapitel 48) 1. Wie unterscheiden sich funktionell Dendriten vom Axon? 2. Wo wird ein Aktionspotenzial

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen

Mehr

Das Modell von McCulloch und Pitts

Das Modell von McCulloch und Pitts Humboldt Universität Berlin Institut für Informatik Dr. Kock Seminar Künstliche Neuronale Netze Das Modell von McCulloch und Pitts Alexandra Rostin 24..25 SE Künstliche Neuronale Netze Das Modell von McCulloch

Mehr

Exkurs Modelle und Algorithmen

Exkurs Modelle und Algorithmen Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen

Mehr

postsynaptische Potentiale graduierte Potentiale

postsynaptische Potentiale graduierte Potentiale postsynaptische Potentiale graduierte Potentiale Postsynaptische Potentiale veraendern graduierte Potentiale aund, wenn diese Aenderungen das Ruhepotential zum Schwellenpotential hin anheben, dann entsteht

Mehr

Aufbau und Funktion von Neuronen Neuronale Informationsverarbeitung und Grundlagen der Wahrnehmung Plastizität und Lernen

Aufbau und Funktion von Neuronen Neuronale Informationsverarbeitung und Grundlagen der Wahrnehmung Plastizität und Lernen Grundkurs Q 2: Inhaltsfeld: IF 4 (Neurobiologie) Unterrichtsvorhaben V: Molekulare und zellbiologische Grundlagen der neuronalen Informationsverarbeitung Wie ist das Nervensystem des Menschen aufgebaut

Mehr

Gehirn und Lernen Prof. Dr. Christian Willems Fachhochschule Gelsenkirchen Abteilung Recklinghausen

Gehirn und Lernen Prof. Dr. Christian Willems Fachhochschule Gelsenkirchen Abteilung Recklinghausen Gehirn und Lernen Prof. Dr. Christian Willems Fachhochschule Gelsenkirchen Abteilung Recklinghausen Gehirn und Lernen Christian Willems - 25.03.2003 Seite 1 Gehirn und Lernen I Aufgaben des menschlichen

Mehr

Neuroinformatik II Theorie neuronaler Netze

Neuroinformatik II Theorie neuronaler Netze Neuroinformati II Theorie neuronaler Netze Günther Palm und Friedhelm Schwener Institut für Neuroinformati Vorlesung (3h) Übungen (1h): Di 12.00-13.30 und Fr 10.15-11.45 Uhr H21 (1.Übung: 7.5.) Schein:

Mehr

Neuronale Netze. Tilo Buschmann 5. März 2003

Neuronale Netze. Tilo Buschmann 5. März 2003 Neuronale Netze Tilo Buschmann 5. März 2003 1 1 Grenzen herkömmlicher Programmiermethoden bisher kennen und benutzen wir nur herkömmliche Algorithmen hauptsächlich binär orientiert eingeschränkt in Programmiersprachen

Mehr