Natürliche und künstliche neuronale Netze
|
|
- Jörn Dieter
- vor 7 Jahren
- Abrufe
Transkript
1 Kapitel 2 Natürliche und künstliche neuronale Netze 2.1 Informationsverarbeitung im Gehirn In diesem Abschnitt soll ein sehr knapper und durchaus unvollständiger Überblick gegeben werden, um den Bezug zu der biologischen Relevanz verschiedener Modelle und dem benutzten Wortschatz herzustellen. Als Einführung kann eine schon etwas ältere, aber sehr gute Übersicht im Spektrum der Wissenschaft, Nov.92, herangezogen werden, die sich dem Gehirn von der biologischen und informationstheoretischen Seite her gewidmet hat. [28, 29]). Die intellektuellen Leistungen werden in der Hirnrinde (Neokortex) erzielt (Fläche etwa 0.2 m 2, Dicke 2-3 mm). Die Hirnrinde ist in Felder für verschiedene Teilaufgaben organisiert (z.b. visuelle, motorische, somatosensorische, Assoziations-Felder), siehe Abb Abbildung 2.1: Organisation der Hirnrinde in Felder mit verschiedenen Teilaufgaben Ein Schnitt durch die Hirnrinde (Abb. 2.2) zeigt vertikal ausgerichtet das Netz der Neuronen (Nervenzellen) mit ihren Verzweigungen. In einer vertikalen Säule von 1 mm 2 befinden sich etwa 10 5 Neuronen, insgesamt gibt es etwa Neuronen im Gehirn. Dies entspricht in der Größenordnung etwas der Anzahl der Sterne in einer typischen Spiral- 7
2 8 Kapitel 2. Natürliche und künstliche neuronale Netze galaxis wie der Milchstraße. Die zahlenmäßige Vergleichbarkeit dieser doch sehr unterschiedlichen Systeme ist wohl eher zufällig. Bevor wir uns mit dem Aufbau der Nervenzellen befassen, soll zunächst ein Überblick über den Aufbau und die Organisation der Hirnrinde gegeben werden Organisation der Hirnrinde Vertikale Schichten: wie folgt aufgebaut: Beginnend in Abb. 2.2 in der untersten Schicht ist die Hirnrinde 6. Eingabeschicht und z.t. Ursprung von langreichweitigen Assoziationsfasern 5. Hauptausgabeschicht 4. Ursprung von Fasern, die zur Eingabe zurückkoppeln 3. Hauptursprung kurzreichweitiger Assoziationsfasern, das sind Verbindungen zwischen Neuronen aus verschiedenen Feldern. 2. dito 1. Schicht enthält die Assoziationsfasern Experimentelle Untersuchungen des Gehirns werden mit Mikroelektroden, SQUIDs, NMR etc. durchgeführt, wobei die invasiven Methoden eher auf Tiere beschränkt bleiben. Experimentell konnten Gedanken, Reize etc. im Gehirn nicht in einzelnen Neuronen lokalisiert werden. Vielmehr sind immer größere Bereiche involviert. Andererseits ist aber auch bei einem Prozess nicht das ganze Gehirn beteiligt. Es werden Zusammenschlüsse von Neuronen zu funktionellen Einheiten (mit unscharfen Übergängen) beobachtet, zum Beispiel: Rindenfelder, davon sind etwa 80 verschiedene bekannt, z.b. gibt es im Sehkortex Felder, die die Analyse von Kantenorientierungen, Farbtönen oder Geschwindigkeiten durchführen. Vertikale Mikrosäulen mit einem Durchmesser von etwa 0.1 mm übernehmen z.b. die Analyse einer einzelnen Bildkante oder die Ansteuerung eines Muskels. Rezeptive Felder: ein Lichtpunkt auf der Retina erregt z.b. nicht nur ein einzelnes Neuron sondern auch Nachbarn. Ein typisches Erregungsmuster ist der Sombrero in Abb. 2.3: Das Erregungszentrum wird durch eine hemmende Umgebung eingekreist ( laterale Inhibition ). Dieses gleichzeitige Auftreten von Erregung und Hemmung dient wahrscheinlich der Stabilisierung. Einzelne Felder sind untereinander und mit anderen Gehirn- und Nervenstrukturen über Assoziationsfasern verbunden. Strukturbildung: Mit den etwa Synapsen ergeben sich etwa mögliche Konfigurationen des Gehirns. Das kann nicht alles genetisch festgelegt sein! Genetisch kodiert sind wahrscheinlich nur Organisationsschemata und ein Strukturbildungsmechanismus. Die Verbindungen zwischen den Neuronen werden z.t. evolutionär aufgrund sensorischer Reize gebildet und können meistens auch später noch verändert werden.
3 2.1. Informationsverarbeitung im Gehirn 9 Abbildung 2.2: Vertikaler Schnitt durch die Hirnrinde. Die Dichte der Neuronen ist um einen Faktor 100 untersetzt
4 10 Kapitel 2. Natürliche und künstliche neuronale Netze Abbildung 2.3: Anregungsstruktur eines rezeptiven Feldes Abbildung 2.4: Struktur der Rindenfelder im somatosensorischen Kortex. Topographische Abbildungen: Der Lernvorgang führt offensichtlich zu Strukturen im Gehirn, die vorgegebene topographische Zusammenhänge bei den einlaufenden Sinnesreizen intakt lassen. Beispielsweise wird im somatosensorischen Kortex der Tastsinn der Hautoberfläche so abgebildet, dass benachbarte Körperbereiche benachbart bleiben (Abb. 2.4, links). Eine wesentliche Eigenschaft der Abbildung ist die Anpassung der Größe der Bildbereiche entsprechend der Wichtigkeit (oder Sensibilität) und das jeweils benötigte Auflösungsvermögen. Dieser Sachverhalt ist in der Abbildung 2.4 rechts dargetellt: Die Größenverhältnisse im Körperbau des so genannten Homunculus entspricht einem Sensibilitätsdiagramm verschiedener Bereiche seiner Körperoberfläche Aufbau und Funktion der Neuronen Die eigentlichen Informationsverarbeitungseinheiten des Gehirns sind die Nervenzellen oder Neuronen. Es gibt viele unterschiedliche Neuron-Typen. Um die uns interessierenden wesentlichen Eigenschaften von Neuronen zu beleuchten, konzentrieren wir uns auf die schematische Darstellung eines typischen Neurons in Abb Solch ein Neuron besteht aus dem Zellkörper, Durchmesser 5-80 µm,
5 2.1. Informationsverarbeitung im Gehirn 11 Abbildung 2.5: Schematische Darstellung von Nervenzellen (Neuronen) und ihrer Verbindungen zu anderen Nervenzellen. den Dendriten, die sich zu Dendritenbäumen mit einer Reichweite von mm verzweigen, dem Axon, das bis zu 1 m lang sein kann. Funktionsweise eines Neurons: Die Dendriten sammeln in einer Umgebung bis zu etwa 400 µm Signale von benachbarten Neuronen oder von den Axonen weiter entfernter Neuronen. Die Signalübertragung auf die Dendriten oder direkt auf den Zellkörper erfolgt über chemische Kontakte (Neurotransmitter) an den Synapsen innerhalb von O(1 ms). In der Hirnrinde hat jedes Neuron O(10 3 ) Synapsen (allgemein im Gehirn O(1) bis O(10 5 )). Die Zeitskala für die Übertragung ist 1 ms, d.h. dass z.b. die visuelle Erkennung eines Bildes mit nicht mehr als O(10) serielle Schritten erfolgen muss. Das Summensignal aller Dendriten verändert das elektrische Potential des Zellkörpers. Bei Überschreiten einer Schwelle erzeugt diese Potentialänderung einen Nadelpuls (Spike) auf dem Axon. Das Axonsignal wird durch eine Erhöhung des elektrischen Potenials innerhalb des Axons relativ zum umgebenden Medium gebildet. Das Signal hat eine zeitliche Dauer von etwa 2 Millisekunden und breitet sich mit einer Geschwindigkeit von etwa 10 m/s aus. Die geringe Signalgeschwindigkeit ist durch die zugrunde liegenden chemischen Prozesse begründet, die das elektrische Potenzial entlang der Nervenleitungen (im Inneren des Zellkörpers der Axonen und Dendriten) vom Ruhezustand (etwa -70 mv ) auf den Anregungszustand (etwa +20 mv )
6 .. 12 Kapitel 2. Natürliche und künstliche neuronale Netze anheben. Diese Prozesse sind im Wesentlichen Ionenaustauschprozesse (Kalium, Natrium, Chlor und einige weitere) durch die semipermeable Zellwand der Axonen und Dendriten. Ruckkopplung y 1 y y 2 3 Ausgang Abbildung 2.6: Beispiel für ein neuronales Netz. Im Allgemeinen sind Verbindungen auch von einer höheren Schicht zu einer tieferen Schicht zulässig (Rückkopplung). x x x Eingang Neuronale Vernetzung: Wesentlich für die Funktion des Gehirns und daher auch für eine angemessene Simulation ist das kollektive Verhalten eines Systems von nichtlinear gekoppelten Neuronen. Im Beispiel Abb. 2.6 werden die Eingangsreize x i (z.b. visuelle Signale) in Ausgangssignale y i (z.b. zur Bewegung eines Muskels) transformiert. x ( t ) 1 w1 x ( t ) 2 x ( t ) 3... w 2 w y( t + 1) 3 s Abbildung 2.7: Neuron als logisches Schaltelement Einfaches Modell: das McCulloch-Pitts-Neuron: Um die Funktionsweise des Gehirns zu simulieren, muss man zunächst ein mathematisches Modell des Neurons entwerfen. Ein erster Versuch in dieser Richtung wurde schon 1949 von Warren McCullcoch und Walter Pitts gestartet. Abbildung 2.7 zeigt das McCulloch-Pitts-Neuron [1], das einem logischen Schaltelement entspricht. Die binären Eingangssignale x i erzeugen ein binäres
7 2.2. Künstliche neuronale Netze (KNN) 13 Ausgangssignal y (x i, y = 0 oder 1) nach der Vorschrift: y(t + 1) = Θ j w j (t)x j s (2.1) Dabei ist t eine diskrete Zeitvariable. Die Heaviside-Funktion ist definiert als: Θ(a) = 1 a 0 0 sonst Die Gewichte w i entsprechen den Synapsenstärken, s ist der Schwellenwert. Das Neuron feuert also, wenn die gewichtete Summe der Eingangssignale die Schwelle s überschreitet. Die Gewichte können > 0 (erregend) oder < 0 (hemmend) sein, wie es auch tatsächlich für Synapsen beobachtet wird Lernen und Selbstorganisation Aus eigener Erfahrung wissen wir, dass das Gedächtnis auf unterschiedlichen Zeitskalen arbeitet. Manches ist bereits nach Sekunden verflogen, wie zum Beispiel die dauernd einwirkenden visuellen und sensorischen Reize, anderes behalten wir für Minuten oder Tage, manches für Jahre. Das Speicherung von Information im Gedächtnis ist also ähnlich einem evolutionären Prozess. Generell scheint zu gelten, dass die Stärke und Häufigkeit eines Reizes das Lernen wesentlich beeinflusst. Man beachte, dass wir zum Lernen offensichtlich in der Regel nicht zu wissen brauchen, ob das Gelernte richtig ist ( Lernen ohne Lehrer ). Auf diese Beobachtungen ist die Lernregel von Donald Hebb [2] begründet: Die Synapsenstärke ändert sich proportional zu der Korrelation zwischen prä- und postsynaptischem Signal, oder mathematisch ausgedrückt: w i = η y(x i ) x i, mit 0 < η < 1 (2.2) Der Lernparameter η legt die Lerngeschwingigkeit fest. Es ist ein besonders empfindlicher Parameter: Einerseits möchte man schnell lernen, andererseits birgt zu schnelles Lernen die Gefahr, dass bisweilen auch Unsinn abgespeichert wird. 2.2 Künstliche neuronale Netze (KNN) Künstliche neuronale Netze und neuronale Algorithmen sind in den letzten Jahren intensiv theoretisch untersucht, auf Computern simuliert und -seltener- als Hardware realisiert worden. Bei der Entwicklung von NN-Modellen wird man sich natürlich von den biologischen Befunden inspirieren lassen. Für die Anwendung ist es aber nicht wichtig, ob ein Modell tatsächlich in der Natur realisiert wird. Hier ist der praktische Erfolg ausschlaggebend. Ausgehend von den im vorigen Abschnitt entwickelten Vorstellungen über natürliche neuronale Netze definieren wir im Folgenden, welches die gemeinsamen Elemente der KNN-Modelle sein sollen. Diese Aufstellung ist nicht strikt, sondern soll eher der Orientierung dienen. Prozessorelement: (formales) Neuron, Netzwerk-Knoten (Abb. 2.8).
8 14 Kapitel 2. Natürliche und künstliche neuronale Netze y i g a i w i1 w i2 w i3 x 1 x 2 x 3 Abbildung 2.8: Struktur eines künstlichen Neurons Eingabeaktivitäten x j (Signale auf den Dendriten) sind reelle Zahlen (oder Spannungen, Ströme), eventuell binär (-1,1) oder (0,1). Gewichte (entspricht den Synapsen) w ij, > 0 (erregend), < 0 (hemmend) Aktivitätsfunktion a, z.b.: a i = j w ij x j s i Ausgabefunktion (oder Transferfunktion) g: y i = g(a i ) Im Allgemeinen liegt y i im Intervall [-1,1] oder [0,1] und hat häufig ein Schwellwertverhalten mit Sättigung an den Intervallgrenzen. Neben der Θ-Funktion werden häufig folgende sigmoide Funktionen gewählt (Abb. 2.9): σ(a) = e a/t, bekannt auch als Fermi-Dirac-Funktion (2.3) σ(a) = tanh(a/t ) (2.4) σ(a) = 1/2(1 + tanh(a/t )) (2.5) Die Funktionen (2.3) und (2.5) haben Werte im Intervall [0,1] und die Funktion (2.4) im Intervall [-1,1]. Sigmoide Funktionen haben den Vorteil im Bereich der Schwelle differenzierbar zu sein. Die Temperatur T bestimmt den Bereich mit variabler Verstärkung: Für T 0 geht σ in die Θ-Funktion über (binäres Neuron). T groß: weiche Entscheidung (siehe später). Netzwerk-Architektur: Netzwerk mit Neuronen ( Knoten ) und Verbindungen (Verknüpfungen zwischen den Neuronen) Vollständige Verknüpfung ( jeder mit jedem )
9 2.2. Künstliche neuronale Netze (KNN) 15 Stufe linear sigmoid Abbildung 2.9: Beispiele von Schwellenfunktionen Nachbarschaftsverknüpfung (zellulare Automaten) Verknüpfung uni- oder bi-direktional Schicht-Struktur der Neuronenverbindungen mit hierarchischer Anordnung (z.b. feed-forward) Verknüpfungen zwischen Neuronen mit oder ohne Rückkopplung Lernen: Anpassung der Gewichte Anpassung der Architektur: Erzeugen und Löschen von Neuronen und Verbindungen Lernregel: angeleitet (mit Lehrer, supervised ) Vergleich des Netzwerk-Outputs mit der (vom Lehrer vorgegebenen) Erwartung, Anpassung durch Fehlerminimierung (z.b. Backpropagation- Algorithmus). selbständig (ohne Lehrer, unsupervised ) z.b. Hebb-Regel Update-Regel: Neubestimmung eines Netzzustandes kann synchron (für alle Neuronen gleichzeitig), sequentiell oder iterativ (wegen nichtlinearer Kopplungen) gemacht werden. Netzwerk-Phasen: Trainingsphase (Verwendung eines Trainings-Datensatzes) Generalisierungsphase (Anwendung auf unbekannte Daten)
10 16 Kapitel 2. Natürliche und künstliche neuronale Netze
Künstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
Mehr7. Vorlesung Neuronale Netze
Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrBACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON
BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe
MehrPerzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004
Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron
MehrAdaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich
MehrUniversität Klagenfurt
Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
MehrKünstliche Neuronale Netze
Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze
MehrMustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12
Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrAbbildungen Schandry, 2006 Quelle: www.ich-bin-einradfahrer.de Abbildungen Schandry, 2006 Informationsvermittlung im Körper Pioniere der Neurowissenschaften: Santiago Ramón y Cajal (1852-1934) Camillo
MehrEin selbstmodellierendes System für die Wasserwirtschaft
Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme
MehrPraktikum Simulationstechnik Rene Schneider, Benjamin Zaiser
Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM
MehrDas visuelle System. Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems!
Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems! Kanten definieren die Ausdehnung und die Position von Objekten! Eine visuelle
MehrDatenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?
Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic
MehrNeuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011
Neuronale Netzwerke Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp Betreuer: Michael Wilczek 7. Februar 2011 1 Wiederholung 2 Modell 3 spikeabhängige Plastizität 4 Anwendung 5 Literatur Biologischer
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrC1/4 - Modellierung und Simulation von Neuronen
C 1 /4 - Modellierung und Simulation von Neuronen April 25, 2013 Motivation Worum geht es? Motivation Worum geht es? Um Neuronen. Motivation Worum geht es? Um Neuronen. Da ist u.a. euer Gehirn draus Motivation
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
MehrMachine Learning - Maschinen besser als das menschliche Gehirn?
Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrAdaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrWas sind Neuronale Netze?
Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk
Mehr1. Kommunikation Informationsweiterleitung und -verarbeitung
1. Kommunikation Informationsweiterleitung und -verarbeitung Sinnesorgane, Nervenzellen, Rückenmark, Gehirn, Muskeln und Drüsen schaffen die Grundlage um Informationen aus der Umgebung aufnehmen, weiterleiten,
MehrInhaltsfeld: IF 4: Neurobiologie
Unterrichtsvorhaben IV (Grundkurs): Thema/Kontext: Molekulare und zellbiologische Grundlagen der Informationsverarbeitung und Wahrnehmung Wie wird aus einer durch einen Reiz ausgelösten Erregung eine Wahrnehmung?
MehrProseminar Neuronale Netze Frühjahr 2004
Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die
Mehr6 Neuronale Modellierung: Der STAA-Ansatz
Bernd J. Kröger: Neuronale Sprachverarbeitung (Version 1.0.4) Seite 150 6 Neuronale Modellierung: Der STAA-Ansatz 6.1 Knoten: die STAA-Neuronensembles 6.1.1 Aktivierungslevel, Aktivierungsfunktion und
MehrInhaltsfeld: IF 4: Neurobiologie
Unterrichtsvorhaben IV: Thema/Kontext: Molekulare und zellbiologische Grundlagen der neuronalen Informationsverarbeitung Wie ist das Nervensystem Menschen aufgebaut und wie ist organisiert? Inhaltsfeld:
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrNeuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrBK07_Vorlesung Physiologie. 05. November 2012
BK07_Vorlesung Physiologie 05. November 2012 Stichpunkte zur Vorlesung 1 Aktionspotenziale = Spikes Im erregbaren Gewebe werden Informationen in Form von Aktions-potenzialen (Spikes) übertragen Aktionspotenziale
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrBiopsychologie als Neurowissenschaft Evolutionäre Grundlagen Genetische Grundlagen Mikroanatomie des NS
1 1 25.10.06 Biopsychologie als Neurowissenschaft 2 8.11.06 Evolutionäre Grundlagen 3 15.11.06 Genetische Grundlagen 4 22.11.06 Mikroanatomie des NS 5 29.11.06 Makroanatomie des NS: 6 06.12.06 Erregungsleitung
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrNeuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.
Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles
MehrNeuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrZwei Modelle retinaler Verarbeitung
Zwei Modelle retinaler Verarbeitung 8.1.2006 http://www.uni-oldenburg.de/sinnesphysiologie/15247.html Vorlesungsprogramm 17.10.05 Motivation 24.10.05 Passive Eigenschaften von Neuronen 31.10.05 Räumliche
Mehr2.4.4 Die Fraktale Dimension
2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die
MehrKönnen neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie
Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler
MehrSeminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex
Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex Benedikt Gierlichs, 13. Mai 2004 Gliederung Wiederholung Die Hauptsehbahn Das Gesichtsfeld Chiasma Opticum Corpus Geniculatum
MehrMatthias Birnstiel Modul Nervensystem Medizinisch wissenschaftlicher Lehrgang Wissenschaftliche Lehrmittel, Medien, Aus- und Weiterbildung
Matthias Birnstiel Modul Nervensystem Medizinisch wissenschaftlicher Lehrgang CHRISANA Wissenschaftliche Lehrmittel, Medien, Aus- und Weiterbildung Inhaltsverzeichnis des Moduls Nervensystem Anatomie des
MehrAnalogie als Kern der Kognition
17. Januar 2008 Betreuerin: Prof. Dr. Ute Schmid Professur für Angewandte Informatik / Kognitive Systeme Otto-Friedrich-Universität Bamberg Analogie von griechischen: ana(anˆ) auseinander, zusammen, wieder,
MehrModul MED-CNS008: Grundlagen der Modellierung neuronaler Systeme. VL4, , Uhr, PC-Pool, IMSID, Bachstr.18, Gebäude 1
Modul MED-CNS008: Grundlagen der Modellierung neuronaler Systeme VL4, 11.5.2012, 10.00 Uhr, PC-Pool, IMSID, Bachstr.18, Gebäude 1 Lehrender: Dirk Hoyer, dirk.hoyer@med.uni-jena.de, Tel. 9325795 2.2 Rückgekoppelte
MehrAdaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1
Adaptive Systeme Prof. Rüdiger Brause WS 2013 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags 10-12 Uhr, SR11 Übungen Donnerstags 12-13 Uhr, SR 9 Adaptive Systeme M-AS-2
MehrEinführung in Neuronale Netze
Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche
MehrM 3. Informationsübermittlung im Körper. D i e N e r v e n z e l l e a l s B a s i s e i n h e i t. im Überblick
M 3 Informationsübermittlung im Körper D i e N e r v e n z e l l e a l s B a s i s e i n h e i t im Überblick Beabeablog 2010 N e r v e n z e l l e n ( = Neurone ) sind auf die Weiterleitung von Informationen
MehrSchematische Übersicht über das Nervensystem eines Vertebraten
Schematische Übersicht über das Nervensystem eines Vertebraten Die Integration des sensorischen Eingangs und motorischen Ausgangs erfolgt weder stereotyp noch linear; sie ist vielmehr durch eine kontinuierliche
Mehr1 Bau von Nervenzellen
Neurophysiologie 1 Bau von Nervenzellen Die funktionelle Einheit des Nervensystems bezeichnet man als Nervenzelle. Dendrit Zellkörper = Soma Zelllkern Axon Ranvier scher Schnürring Schwann sche Hüllzelle
MehrGrundlagen Neuronaler Netze
Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht
MehrLernregeln. Künstliche neuronale Netze. Professur Psychologie digitaler Lernmedien. Institut für Medienforschung Philosophische Fakultät
Professur Psychologie digitaler Lernmedien Institut für Medienforschung Philosophische Fakultät Künstliche neuronale Netze Lernregeln Überblick Definition Lernregeln Hebb-Regel Delta-Regel Gradientenabstiegsverfahren
Mehrabiweb NEUROBIOLOGIE 17. März 2015 Webinar zur Abiturvorbereitung
abiweb NEUROBIOLOGIE 17. März 2015 Webinar zur Abiturvorbereitung Bau Nervenzelle Neuron (Nervenzelle) Dentrit Zellkörper Axon Synapse Gliazelle (Isolierung) Bau Nervenzelle Bau Nervenzelle Neurobiologie
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
MehrUnterschied zwischen aktiver und passiver Signalleitung:
Unterschied zwischen aktiver und passiver Signalleitung: Passiv: Ein kurzer Stromimpuls wird ohne Zutun der Zellmembran weitergeleitet Nachteil: Signalstärke nimmt schnell ab Aktiv: Die Zellmembran leitet
MehrErregungsübertragung an Synapsen. 1. Einleitung. 2. Schnelle synaptische Erregung. Biopsychologie WiSe Erregungsübertragung an Synapsen
Erregungsübertragung an Synapsen 1. Einleitung 2. Schnelle synaptische Übertragung 3. Schnelle synaptische Hemmung chemische 4. Desaktivierung der synaptischen Übertragung Synapsen 5. Rezeptoren 6. Langsame
MehrNeuronale Neize. Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke ADDISON-WESLEY PUBLISHING COMPANY
Helge Ritter/Thomas Marrineiz/Klaus Schulten Neuronale Neize Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke Technische Hochschule Darmstadt FACHBEREICH INFORMATIK B! B k±ojjtlus
MehrVom Reiz zum Aktionspotential. Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden?
Vom Reiz zum Aktionspotential Wie kann ein Reiz in ein elektrisches Signal in einem Neuron umgewandelt werden? Vom Reiz zum Aktionspotential Primäre Sinneszellen (u.a. in den Sinnesorganen) wandeln den
MehrZentrales Nervensystem
Zentrales Nervensystem Funktionelle Neuroanatomie (Struktur und Aufbau des Nervensystems) Neurophysiologie (Ruhe- und Aktionspotenial, synaptische Übertragung) Fakten und Zahlen (funktionelle Auswirkungen)
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
MehrProseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger
Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale
MehrInhaltsverzeichnis. Einführung
Inhaltsverzeichnis Einführung 1 Das biologische Paradigma 3 1.1 Neuronale Netze als Berechnungsmodell 3 1.1.1 Natürliche und künstliche neuronale Netze 3 1.1.2 Entstehung der Berechenbarkeitsmodelle 5
MehrImplementierung von Neuronalen Netzen mit LabVIEW und LabVIEW FPGA
Virtuelle Instrumente in der Praxis VIP 2017 Implementierung von Neuronalen Netzen mit LabVIEW und LabVIEW FPGA Prof. Dr.-Ing. Alfred Rozek, Dirk Naparty Beuth Hochschule für Technik Berlin Kurzfassung
MehrNeuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back )
Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) A: Schrittweise vorwärts-gerichtete Abbildung: Eingangssignal (Input) r in Ausgansgsignal (Output) r out Überwachtes Lernen (wie z.b.
MehrGrundlagen Künstlicher Neuronaler Netze
FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher
Mehr11. Neuronale Netze 1
11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form
MehrMartin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr
Statistische und neuronale Lernverfahren Martin Stetter WS 03/04, 2 SWS VL: Dienstags 8:30-0 Uhr PD Dr. Martin Stetter, Siemens AG Statistische und neuronale Lernverfahren Behandelte Themen 0. Motivation
MehrNeuronale Netze. Seminar aus Algorithmik Stefan Craß,
Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze
MehrKlassifikationsverfahren und Neuronale Netze
Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
Mehrauch: Konnektionismus; subsymbolische Wissensverarbeitung
10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrModellbildung und Simulation
Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?
MehrEinführung in Neuronale Netze
Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme
Mehr6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
MehrSeminarvortrag: Visual Cortex
Seminarvortrag: Visual Cortex Sören Schwenker 13. Januar 2013 Visual Cortex Inhaltsverzeichnis 13. Januar 2013 Inhaltsverzeichnis 1 Einleitung 2 2 Conductance based models 2 3 Rate-based neural network
MehrSoftcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003
Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung
MehrÜbertragung zwischen einzelnen Nervenzellen: Synapsen
Übertragung zwischen einzelnen Nervenzellen: Synapsen Kontaktpunkt zwischen zwei Nervenzellen oder zwischen Nervenzelle und Zielzelle (z.b. Muskelfaser) Synapse besteht aus präsynaptischen Anteil (sendendes
MehrTopologische Objektrepräsentationen und zeitliche Korrelation
Topologische Objektrepräsentationen und zeitliche Korrelation Frank Michler Fachbereich Physik, AG NeuroPhysik Outline 1 2 Stimuli -Neuron und Architektur Lernregel 3 Selektivitäts-Karten Invariante Repräsentation
MehrAdaptive Systeme. Neuronale Netze: der Backward Propagation Algorithmus. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Neuronale Netze: der Backward Propagation Algorithmus Prof. Dr. rer. nat. Nikolaus Wulff Neuronen Schicht x 1 x 2 x 3.. θ 1 θ 2. y 1 y 2 n y j = k =1 w jk x k j y j = n k =0 w jk x k x
MehrPostsynaptische Potenziale
Postsynaptisches Potenzial Arbeitsblatt Nr 1 Postsynaptische Potenziale Links ist eine Versuchsanordnung zur Messung der Membranpotenziale an verschiedenen Stellen abgebildet. Das Axon links oben wurde
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?
MehrNeuronale Kodierung. Jutta Kretzberg. Lehrprobe Oldenburg,
Neuronale Kodierung Jutta Kretzberg Lehrprobe Oldenburg, 2.10.2008 http://www.uni-oldenburg.de/sinnesphysiologie/download/lehrprobe.pdf Vorlesung zum Master-Modul Neurobiologie Neuroanatomie Neurophysiologie
MehrWie funktioniert unser Gehirn?
Wie funktioniert unser Gehirn? Wie funktioniert unser Gehirn? Was passiert, wenn wir denken? Was passiert, wenn wir unser Denken verändern? Unser Gehirn Das im Kopf liegende Gehirn steuert nahezu alle
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:
MehrForschungsmodul: Komplexe Systeme
Forschungsmodul: Komplexe Systeme Bericht zur Vorlesung vom 25. Oktober 2007 von Jan-Philip Gehrcke Anatomie des Nervensystems Bei der Maus, beim Wolf und auch beim Menschen zeigt sich, dass der anatomische
MehrRingvorlesung - Teil Neurobiologie Übungsfragen und Repetitorium
Ringvorlesung - Teil Neurobiologie Übungsfragen und Repetitorium Termin 1: Neuronen, Synapsen und Signalgebung (Kapitel 48) 1. Wie unterscheiden sich funktionell Dendriten vom Axon? 2. Wo wird ein Aktionspotenzial
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen
MehrDas Modell von McCulloch und Pitts
Humboldt Universität Berlin Institut für Informatik Dr. Kock Seminar Künstliche Neuronale Netze Das Modell von McCulloch und Pitts Alexandra Rostin 24..25 SE Künstliche Neuronale Netze Das Modell von McCulloch
MehrExkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
Mehrpostsynaptische Potentiale graduierte Potentiale
postsynaptische Potentiale graduierte Potentiale Postsynaptische Potentiale veraendern graduierte Potentiale aund, wenn diese Aenderungen das Ruhepotential zum Schwellenpotential hin anheben, dann entsteht
MehrAufbau und Funktion von Neuronen Neuronale Informationsverarbeitung und Grundlagen der Wahrnehmung Plastizität und Lernen
Grundkurs Q 2: Inhaltsfeld: IF 4 (Neurobiologie) Unterrichtsvorhaben V: Molekulare und zellbiologische Grundlagen der neuronalen Informationsverarbeitung Wie ist das Nervensystem des Menschen aufgebaut
MehrGehirn und Lernen Prof. Dr. Christian Willems Fachhochschule Gelsenkirchen Abteilung Recklinghausen
Gehirn und Lernen Prof. Dr. Christian Willems Fachhochschule Gelsenkirchen Abteilung Recklinghausen Gehirn und Lernen Christian Willems - 25.03.2003 Seite 1 Gehirn und Lernen I Aufgaben des menschlichen
MehrNeuroinformatik II Theorie neuronaler Netze
Neuroinformati II Theorie neuronaler Netze Günther Palm und Friedhelm Schwener Institut für Neuroinformati Vorlesung (3h) Übungen (1h): Di 12.00-13.30 und Fr 10.15-11.45 Uhr H21 (1.Übung: 7.5.) Schein:
MehrNeuronale Netze. Tilo Buschmann 5. März 2003
Neuronale Netze Tilo Buschmann 5. März 2003 1 1 Grenzen herkömmlicher Programmiermethoden bisher kennen und benutzen wir nur herkömmliche Algorithmen hauptsächlich binär orientiert eingeschränkt in Programmiersprachen
Mehr