Wie fängt eine Eule eine Maus in der Nacht: eine biologisch motivierte Simulation

Größe: px
Ab Seite anzeigen:

Download "Wie fängt eine Eule eine Maus in der Nacht: eine biologisch motivierte Simulation"

Transkript

1 Wie fängt eine Eule eine Maus in der Nacht: eine biologisch motivierte Simulation Peer Ueberholz, Philipp Pricken IMH - Institut für Modellbildung und Hochleistungsrechnen FB Juni 2016

2 1 Einführung in Neuronale Netze Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen 2 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie 3 Das Modell Nengo Stand der Simulation 4

3 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen 1.1. Wie ich zu dem Thema gekommen bin Anfang der 90er Jahre Zu dieser Zeit habe ich alles gemacht, was in war und mit Computersimulationen zu tun hatte: Feldtheorie, Chaos-Theorie, Supraleiter,..., Neuronale Netze. Dabei entstanden Veröffentlichung auf den verschiedensten Gebieten, unter anderem

4 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen Zur Zeit ist Anthony Burkitt Director of NeuroEngineering Laboratory und Director of Bionic Vision Australia an der University of Melbourne, Department auf Electrical & Electronic Engineering

5 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen Arbeiten an der HSNR Es folgte ab Mitte der 90er eine lange Pause, da wenige gute Algorithmen existierten und enorme Rechenzeiten benötigt werden. Fortsetzung der Arbeiten an der HSNR erst in 2013 mit einer Bachelorarbeit Implementation eines Neuronalen Netzes auf Graphikkarten für Anwendungen in der Hochenergiephysik Seitdem 3 weitere Arbeiten auf diesem Gebiet In 2016 kommt noch eine Bachelorarbeit zu sogenannten tiefen Netzen.

6 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen 1.2. Ein künstliches Neuronales Netz Ein Neuronales Netz besteht aus verbundenen Neuronen (ca Neuronen bei einem Menschen mit ca Verbindungen). Ein Neuron hat Dendriten Soma Axon Synapsen Abbildung aus Wikipedia: de.wikipedia.org/wiki/neuronales Netz

7 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen Modell eines Neurons Die Ausgabe führt zur Ausschüttung von Neurotransmittern und damit zu einer Eingabe der nachfolgenden Zellen. In den Aktivitäten der Neuronen ist die Information codiert.

8 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen Ein paar interessante Fragen: Wie sehen die einzelnen Schritte genau aus, welche Funktionen werden verwendet? Wie genau sollte die Biologie berücksichtigt werden, um die wesentlichen Eigenschaften eines biologischen Netzes beizubehalten? Was ist die Topologie des Netzes, also welche Neuronen sind mit welchen verbunden? Wie stark sind die Gewichte, mit denen die einzelnen Neuronen verbunden sind? Wie lernt ein Neuronales Netz, also z.b. wieso findet eine Schleiereule eine Maus in der Nacht oder trifft ein Fussballer im Laufen einen rollenden Ball?

9 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen 1.3. Zwei aktuelle Forschungs- und Anwendungsrichtungen 1 Klassische künstliche Neuronale Netze Grundlage sind biologische Neuronen, jedoch in einer starken Vereinfachung, so dass sie mathematisch einfach und schnell zu behandeln sind. Heute werden sogenannte tiefe Netze (deep neural networks) verwendet, bei denen Neuronen über viele Schichten verbunden sind. Sie werden z.b. von Google, Apple, Facebook, NSA, BND und vielen anderen verwendet z.b. zur Bild- und Spracherkennung, in der Robotik, für Optimierungsprobleme usw. Fast täglich gibt es neue Meldungen über neue Anwendungen. Ein paar aktuelle Beispiele:

10 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen Mit zwei tiefen Netzen, eins für die Vorhersage guter Züge und eins für den Wert einer Stellung, ist es im März 2016 gelungen, einen Go-Meister zu schlagen. Hardware: 1202 CPUs mit 176 GPUs. Facebook sagt, das neue System Deep Text versteht Texte genauso gut wie Menschen. Google Photo oder die Translater-App, auf Clustern trainiert, laufen jetzt auf dem Smartphone. Immer mehr Firmen entwickeln Empathiemodule. Google hat gerade für Neuronale Netze eine Tensor Processing Unit (TPU) entwickelt. In der MKL (Mathematical Kernel Library) von Intel gibt es jetzt ein Modul DNN (Deep Neural Network).

11 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen 2 Neuronale Netze, nahe an der Biologie Größtes Beispiel: Das Human Brain Project Gestartet in 2013, Fördersumme 1,2 Milliarden Euro 6 Segmente: Neuroinformatik, Medizinische Informatik, Gehirnsimulation, Supercomputing, Neuronales Rechnen und Neurorobotik. Beispiel SpiNNaker-Projekt, Manchester Prozessoren mit 18 ARM-Kernen. Jeder Prozessor simuliert Neuronen und 8 Millionen Synapsen. Beispiel BrainScaleS-System, Heidelberg. 20 Silizium-Wafer mit je knapp Neuronen und ca. 58 Millionen Synapsen. Siehe Unabhängig von diesem Projekt gibt es jede Menge kleine Arbeiten, z.b. unsere hier.

12 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Klassische künstliche Neuronale Netze Die klassischen künstlichen Neuronalen Netze vereinfachen das biologische Vorbild so stark, dass viele biologische Eigenschaften verloren gehen, aber die Grundidee erhalten bleibt und eine schnelle Berechnung möglich ist. Mathematisch heißt das, der Weg von der Eingabe eines Neurons zur Eingabe des damit verbundenen Neurons wird durch sehr einfache Funktionen beschrieben.

13 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Zwei verbreitete Architekturen Feed Forward Networks (FFN), in Bildverarbeitung z.b. in der Form von Convolution Neural Networks (CNN) (überlappende Teilbereiche). Rekurrent Neuronal Networks (RNN), also solche mit Rückwärtsverbindungen, z.b. in der Form von Long Short Term Memory Networks (LSTM) für handgeschriebene Zeichen oder auch in der Spracherkennung. Diese beiden Architekturen und deren Anwendung werden in den letzten Jahren fast überall diskutiert, siehe z.b. C t 2016, Heft 6

14 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Eingabe kommt von außen oder ist die Ausgabe o i eines Neurons i: x i = o i Die Ausgabe ergibt sich einfach z.b. über o j = exp ( n i=1 x iω i,j Θ j )

15 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Feed Forward Network Eingabe z.b. Pixel eines Bildes (Gesicht, Zahl, Tier... Ausgabe ein Neuron pro Name, Zahl, Art des Tiers...

16 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Das Schöne an einem solchen Netz ist folgendes: Wenn die Parameter, also die Gewichte w i,j und die Schwellwerte Θ i gut bestimmt wurden, gilt: kleine Änderungen des Netzes (Verbindungen defekt) oder kleine Eingabeänderungen (Bild verrauscht) kleine Änderung der Ausgabewerte Bild wird höchst wahrscheinlich trotzdem erkannt, da das gleiche Neuron den größten Wert haben wird.

17 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Problem: Lernen Wie werden gute Parameter bestimmt oder woher weiß ein Netz, welches Neuron bei welchem Bild aktiv sein soll? 2 wesentliche Arten von Lernverfahren: 1 Überwachtes Lernen, bei dem einem Netzwerk zu einer Eingabe eine gewünschte Ausgabe gegeben wird, nach dem es sich einstellt. 2 Unüberwachtes Lernen, bei dem sich das Netz selbst organisiert. Am häufigsten ist das überwachte Lernen, beruhend auf dem Backpropagation-Algorithmus.

18 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Backpropagation Minimierung des Fehlerfunktionals zwischen gewünschter Neuronenaktivität t p,j in der Ausgabeschicht und tatsächlicher Neuronenaktivität o p,j, summiert über alle p Eingaben: E = p E p, E p = 1 n out (o p,j (ω l,k, Θ k ) t p,j ) 2 2 j Bestimmt wird das Minimum mit einem Gradientenverfahren. Dann ist ein Neuronales Netz nichts anderes als nicht-lineare Ausgleichsrechnung!

19 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Backpropagation Probleme: 1. Hohe Rechenzeiten, um ein Minimum zu finden 2. Das Verfahren bleibt leicht in einem lokalen Minimum hängen Lösung: Gute Vorinitialisierung + schnelle Hardware Frage: Was lernt das Netz Neuer Ansatz: Rückverfolgung des Gelernten über einzelne Schichten Bei diesen Versuchen hat Google direkt eine neue Kunstrichtung ins Leben gerufen: Inceptionism 1 1 siehe z.b. Computer-Halluzinationen in Spektrum der Wissenschaft, 12/2015 von Brian Hayes.

20 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie 2.2 Neuronale Netze, nahe an der Biologie Neuronen generieren charakteristische elektrische Impulse, sogenannte Aktionspotentiale oder Spikes. Sie repräsentieren und vermitteln Informationen durch das Feuern von Spikes. Spikes führen zur Ausschüttung von Neurotransmittern. Wie Neuronen auf einen Stimulus reagieren, ist das Gebiet der neuronalen Codierung (neural encoding). Neuronale Decodierung (neural decoding) beschäftigt sich damit, wie ein Stimulus oder Aspekte davon aus den Spikes rekonstruiert werden können.

21 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Die Eingabe an Neuronen kommt über die Synapsen von Dendriten durch Ionenkanäle und depolarisieren die Zellmembran. In den Ionenkanälen spielen die Elemente Natrium, Kalium, Calium und Chlor eine Rolle. Wenn diese Eingaben ein Potential von ungefähr 100 mv erzeugt haben, wandert die Spannung in ca. 1 msec über die Zellmembran und entlädt sich über ein Axon an den Synapsen. Nach so einen Spike kann das Neuron für einige Millisekunden nicht wieder feuern. Die Feuerrate ist eine Funktion von charakteristischen Parametern s eines Stimulus, z.b. hängt die Feuerrate im auditivem System von der Lautstärke und der Frequenz ab. Diese Funktionen werden als Tuningkurven bezeichnet.

22 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Neuronen-Modelle Das bekannteste Modell ist das Hodgkin-Huxley-Modell von Es bildet die probabilistischen Dynamiken der Ionenkanäle nach. Es enthält einen Satz von Differentialgleichungen für die spannungsabhängigen Membranwiderstände und für die Ionenströme. Wichtig sind zwei wesentliche Erweiterungen zu klassischen Netzen: Spikes Rauschen Meist werden nur diese Erweiterungen in großen Netzwerken berücksichtigt.

23 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Noch Nahe an der Biologie ist eine einfache Approximation, die Leaky integrate-and-fire Neuronen. Die Eingabeströme werden aufsummiert. Wird ein Schwellwert überschritten, kommt es zu einem Spike. Wird der Schwellwert nicht erreicht, fällt die Spannung im Neuron wieder ab. Nach einem Spike bleibt das Neuron eine kurze Zeit inaktiv.

24 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie LIF-Neuron mit konstantem Eingabestrom

25 Das Modell Nengo Stand der Simulation Das Modell Eine Eule kann die Richtung, in der sich eine Maus befindet, mit einer Genauigkeit von 2 Grad hören! Der Laufzeitunterschied zwischen den Ankunftszeiten eines Tons in beiden Ohren wird für die Bestimmung des horizontalen Winkels verwendet. Über den Lautstärkeunterschied in den unsymmetrischen Ohren wird der vertikale Winkel bestimmt. Eine junge Eule fliegt in Richtung des Tons und folgt dem Ton. Eine alte Eule fliegt in die Richtung, in der sich die Maus höchst wahrscheinlich befinden wird!

26 Das Modell Nengo Stand der Simulation Für diesen Ablauf gibt es in den letzten 10 Jahren zahlreiche Veröffentlichungen Offen sind drei Punkte: Ein Teil des Ablaufs der Bestimmung der horizontalen Richtung, eng an der Biologie angelehnt. Die Einbeziehung der Bewegung der Maus. Die Bestimmung der Entfernung der Maus. Für diese Punkte wollen wir ein sehr einfaches Modell mit Hilfe der Simulationssoftware Nengo entwerfen. Wir beschränken uns auf die horizontale Richtung, die Lautstärke soll für die Entfernungsbestimmung verwendet werden.

27 Das Modell Nengo Stand der Simulation Richtungsbestimmung 2 Zwei parallele Wege, getrennt für einzelne Frequenzbereiche: Zeitinformation: Nucleus magnocellularis, Lamellenkern, vorderer Kern der lateralen Schleife, zentrales Gebiet der Hörregion im Mittelhirn, seitliche Schleife, äußerer Kern. Lautstärkeinformation: Nucleus angularis, hinterer Kern der lateralen Schleife, seitliche Schale äußerer Kern. Zusammenführung in der lateralen Schale im äußeren Kern 2 Die folgenden vier Abbildungen stammen aus M. Konishi: Die Schallortung der Schleiereule, Spektrum der Wissenschaft, Juni 1993, pp

28 Das Modell Nengo Stand der Simulation Bestimmung der horizontalen Richtung Eine Reihe von Verzögerungsneuronen halten ein Signal unterschiedlich lang auf. Diejenigen Neuronen feuern, bei denen die Signale gleichzeitig ankommen, also die Neuronen, bei denen die Summe aus Verzögerungen und Ankunftszeiten von beiden Ohren gleich ist.

29 Das Modell Nengo Stand der Simulation Richtungsorientierung

30 Das Modell Nengo Stand der Simulation Wir beschränken uns auf die Erfassung des horizontalen Winkels. Aus der Aktivität der Neuronen wollen wir die Information der horizontalen Richtung als Funktion der Zeit an eine Neuronengruppe weiter geben. Diese Richtungsinformationen werden weiter geleitet, um eine Abschätzung für die Geschwindigkeit und damit für den Ort zu gewinnen, wo sich die Maus voraussichtlich nach einer bestimmten Flugzeit befinden wird. Im letzten Schritt soll die Eule aus Misserfolgen lernen, in welcher Richtung sie losfliegen muss, um die Maus sicher in kürzester Zeit, d.h. in gerade Flugbahn zu fangen. Das Ganze wird mit Hilfe der Software Nengo implementiert.

31 Das Modell Nengo Stand der Simulation 3.2 Nengo Grundlage von Nengo sind 3 Prinzipien des Neural Engineering: 1 Alle neuronalen Repräsentationen werden definiert über eine Kombination von nicht-linearen Codierungen und gewichteten linearen Decodierungen. 2 Transformationen von neuronalen Repräsentationen sind Funktionen von Variablen, die in der neuronalen Repräsentation codiert sind. Transformationen werden bestimmt durch gewichtete lineare Decodierungen. 3 Zur Beschreibung neuronaler Dynamik können die neuronalen Repräsentationen als Zustandsvariablen einer Regelungstheorie aufgefasst werden. Hinzu kommt, dass jedes System mit Rauschen behaftet ist.

32 Das Modell Nengo Stand der Simulation Wir verwenden LIF-Neuronen. Nicht-lineare Codierung: a i (x) = G i [J i (x)] { ( )) = τ ref i τi RC ln (1 J thr 1 i J i (x), falls αi x + Ji bias > Ji thr 0 sonst. a i (x): τ ref : τ RC : J (x): J thr : mittlere Feuerrate (Spikes/Sekunde) refractory Zeit; Zeit, bis das Neuron wieder aktiv werden kann charakteristische Anstiegszeit (RC) Eingangsstrom Schwellwert

33 Das Modell Nengo Stand der Simulation Die Koeffizienten für eine lineare Decodierung werden über das Minimum des Fehlerfunktionals bestimmt. Fehlerfunktional ohne Rauschen: [ ] 2 N E = x a i φ i i=1 x: Eingabe a i : Mittlere Feuerrate φ: Optimal zu bestimmende Koeffizienten x.

34 Das Modell Nengo Stand der Simulation Beispiel: 8 Tuning Kurven (Mittlere Feuerrate als Funktion der Eingabe) von 8 Neuronen der Neuronen reagieren auf eine Eingabe zwischen -1 und 1. Aufgabe: Codiere (nicht-linear) und decodiere (linear) eine linear steigende Funktion. 3 Die folgenden 3 Abbildung stammen aus summary.html

35 Das Modell Nengo Stand der Simulation Spikes Ein- und Ausgabe der Neuronen Eine Erweiterung auf einfache Rechenoperationen wie lineare Abbildungen oder Polynomberechnungen ist leicht möglich!

36 Das Modell Nengo Stand der Simulation Kann die Decodierung nicht direkt bestimmt werden, muss gelernt werden! Lernregel: Eine Kombination aus überwachtem und unüberwachtem Lernen ω ij = α j a i [κ 1 e j E + κ 2 a j (a i Θ)] Die Parameter bedeuten ω : Gewicht zwischen den Neuronen κ: Lernrate a: Aktivität Θ: gemittelter Schwellwert über alle Eingaben α: Gewinn eines Neurons e: Codierter Vektor E: Fehlerterm

37 Das Modell Nengo Stand der Simulation 3.3 Stand der Simulation Implementation und Aufteilung Die Simulation der Richtungsbestimmung enthält viele verschiedene Problemstellungen, daher bietet es sich an diese in einige Teilmodule aufzusplitten 1 Winkelbestimmung 2 Geschwindigkeitsberechnung 3 Lernprozess des Abflugwinkels Außerdem wird die Berechnung der Entfernung noch hinzu kommen.

38 Das Modell Nengo Stand der Simulation Winkelbestimmung Als Eingabe werden phasenverschobene Schallwellen gegeben. Es werden Verzögerungsknoten genutzt, um die Verzögerungen im Gehirn zu simulieren. Die Ensembles addieren die verzögerten Signale und berechnen die Amplituden. Jedes Ensemble repräsentiert einen bestimmen Winkel, aus der ein Geräusch stammen kann.

39 Das Modell Nengo Stand der Simulation Winkelbestimmung - Problemstellungen Die Eule kann eine Frequenz in khz auflösen, bei uns momentan 5Hz. Um eine Genauigkeit von 2 Grad zu erhalten, werden 90 Ensembles benötigt (momentan 36 Ensembles). Es muss die maximale Amplitude bestimmt und isoliert werden. Der dazu gehörige Winkel soll für die Weiterverarbeitung genutzt werden.

40 Das Modell Nengo Stand der Simulation Geschwindigkeit Aus dem ermittelten Winkel soll die Eule nun die Geschwindigkeit der Maus berechnen. Es wird die Änderung eines eingehenden Winkels berechnet. Die Neuronenanzahl in den Ensembles spielt hier eine wichtige Rolle.

41 Das Modell Nengo Stand der Simulation Geschwindigkeit - Auswertung 500 Neuronen 5000 Neuronen Die mittlere Geschwindigkeit betrug 0.5. Frage: Wie viele Neuronen sind sinnvoll?

42 Das Modell Nengo Stand der Simulation Lernprozess des Abflugwinkels Nachdem die Eule nun erkannt hat, wie schnell sich ihr Ziel bewegt, möchte Sie dieses abfangen. Dieser Vorgang wird durch einen Lernprozess simuliert. Die Eule wählt einen Abflugwinkel und lernt durch den Fehler, wie sie diesen Winkel bei unterschiedlichen Geschwindigkeiten wählen muss. Für den Lernprozess wird die Geschwindigkeit und die Abflugposition durch eine verrauschte Funktion modelliert und die damit berechnete korrekte Position der Maus für den Fehlerterm verwendet. Nach einer festen Zeit wird dieses System abgekoppelt und es werden die gelernten Verbindungen verwendet.

43 Das Modell Nengo Stand der Simulation Lernprozess des Abflugwinkels - Auswertung Abweichung nach 10 Sekunden Lernzeit bei einem durchschnittlichen Laufwinkel der Maus von 1,6 rad.

44 Das Modell Nengo Stand der Simulation 3.4 Ausblick und offene Fragestellungen Benötigt wird noch eine Division, die durch die lineare Dekodierung der Neuronen nur auf kleinem Raum angenähert werden kann. Es gibt verschiedene Herangehensweisen dieses Problem umzusetzen: Division auf kleinen Raum beschränken Division durch Subtraktion des Logarithmus ersetzen Division erlernen Nach einigen Tests erscheint das Erlernen der Division am vielversprechendsten.

45 (1) Künstliche Intelligenz und insbesondere Neuronal Netze sind wieder sehr populär. Die heutigen Möglichkeiten eröffnen viele interessante Perspektiven für Anwendungen. Es gibt aber auch einige kritisch zu verfolgende Anwendungen. Zwei Beispiele: Human Rights Watch und andere haben einen Aufruf zur Problematik autonomer Waffen 4 verfasst, von mehr als Personen (20000 KI-Forschern) mittlerweile unterschrieben Das Digital-Manifest: 9 führende Experten warnen vor einer Aushöhlung der Demokratie durch Algorithmen 5 4 futureoflife.org/open-letter-autonomous-weapons/ 5 Spektrum de Wissenschaft 1/16

46 (2) Die eng an die Biologie angelehnten Netze haben im medizinischen Bereich etliche sinnvolle Anwendungen. Ziel ist es, bis Ende 2016 die Simulation so weit am Laufen zu haben, dass erste Ergebnisse auf einer Konferenz in 2017 vorgestellt werden können. Die University of Melbourne ist eine hervorragende Universität und ich hoffe die Zusammenarbeit darüber hinaus fortsetzen zu können. Und da mein Arbeitsgebiet Parallele Systeme heißt: Neuronal Netze sind hochgradig parallel!

47 Literatur R. Dayan and L.F. Abbott: Theoretical Neuroscience, MIP Press, Cambridge, 2001 Ch. Eliasmith and Ch.H. Anderson: Neural Engineering, MIP Press, Cambridge, 2003 Ch. Eliasmith: How to Build a Brain, Oxford University Press, New York, 2013 B.J. Fischer, A model of the computations leading to a representation of auditory space in the midbrain of the barn owl, PhD Thesis, Washington University, 2005 W. Cox, and B.J. Fischer, Optimal Prediction of Moving Sound Source Direction in the Owl, PLoS Comput. Biol. 11(7), dx.doi.org/ /journal.pcbi , 2015

10. Neuronale Netze 1

10. Neuronale Netze 1 10. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

C1/4 - Modellierung und Simulation von Neuronen

C1/4 - Modellierung und Simulation von Neuronen C 1 /4 - Modellierung und Simulation von Neuronen April 25, 2013 Motivation Worum geht es? Motivation Worum geht es? Um Neuronen. Motivation Worum geht es? Um Neuronen. Da ist u.a. euer Gehirn draus Motivation

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Intelligente Algorithmen Einführung in die Technologie

Intelligente Algorithmen Einführung in die Technologie Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

11. Neuronale Netze 1

11. Neuronale Netze 1 11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Neuronale Kodierung sensorischer Reize. Computational Neuroscience Jutta Kretzberg

Neuronale Kodierung sensorischer Reize. Computational Neuroscience Jutta Kretzberg Neuronale Kodierung sensorischer Reize Computational Neuroscience 30.10.2006 Jutta Kretzberg (Vorläufiges) Vorlesungsprogramm 23.10.06!! Motivation 30.10.06!! Neuronale Kodierung sensorischer Reize 06.11.06!!

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011 Neuronale Netzwerke Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp Betreuer: Michael Wilczek 7. Februar 2011 1 Wiederholung 2 Modell 3 spikeabhängige Plastizität 4 Anwendung 5 Literatur Biologischer

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung

Mehr

Neuronale Signalverarbeitung

Neuronale Signalverarbeitung neuronale Signalverarbeitung Institut für Angewandte Mathematik WWU Münster Abschlusspräsentation am 08.07.2008 Übersicht Aufbau einer Nervenzelle Funktionsprinzip einer Nervenzelle Empfang einer Erregung

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Bielefeld Graphics & Geometry Group. Brain Machine Interfaces Reaching and Grasping by Primates

Bielefeld Graphics & Geometry Group. Brain Machine Interfaces Reaching and Grasping by Primates Reaching and Grasping by Primates + 1 Reaching and Grasping by Primates Inhalt Einführung Theoretischer Hintergrund Design Grundlagen Experiment Ausblick Diskussion 2 Reaching and Grasping by Primates

Mehr

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock. Seite 1 Optimierung der Verbindungsstrukturen in Digitalen Neuronalen Netzwerken Workshop on Biologically Inspired Methods on Modelling and Design of Circuits and Systems 5.10.2001 in Ilmenau, Germany

Mehr

Modelle zur Beschreibung von Schwellwertphänomenen in Nervenmembranen Fitzhugh-Nagumo-Gleichungen

Modelle zur Beschreibung von Schwellwertphänomenen in Nervenmembranen Fitzhugh-Nagumo-Gleichungen Modelle zur Beschreibung von Schwellwertphänomenen in Nervenmembranen Fitzhugh-Nagumo-Gleichungen Katrin Schmietendorf Vortrag im Rahmen der Veranstaltung Numerische Methoden für Dynamische Systeme SoSe

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Big Data Künstliche Intelligenz Und das Ich

Big Data Künstliche Intelligenz Und das Ich Big Data Künstliche Intelligenz Und das Ich Überblick Big data 2 Beispiele David Kriesel: Spiegel Mining Cambridge Analytics: Ocean Diagramm Intelligenz Wie funktioniert das? Neuronale Netze Zukunktsperspektiven/Kaffeesatzleserei

Mehr

Computational Neuroscience

Computational Neuroscience Computational Neuroscience Vorlesung WS 2005/2006 Josef Ammermüller Jutta Kretzberg http://www.uni-oldenburg.de/sinnesphysiologie/ 14508.html Begriffsdefinitionen Computational Neuroscience Churchland

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz

Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung - zur Veröffentlichung bei LuxJunior 2003 - Krzyzanowski, J., Rosemann, A., Kaase, H. Technische Universität Berlin Fachgebiet Lichttechnik,

Mehr

Parallele Algorithmen in der Bildverarbeitung

Parallele Algorithmen in der Bildverarbeitung Seminar über Algorithmen - SoSe 2009 Parallele Algorithmen in der Bildverarbeitung von Christopher Keiner 1 Allgemeines 1.1 Einleitung Parallele Algorithmen gewinnen immer stärker an Bedeutung. Es existieren

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08

Mehr

Visuelle Vorwärtsmodelle für einen Roboter-Kamera- Kopf

Visuelle Vorwärtsmodelle für einen Roboter-Kamera- Kopf Visuelle Vorwärtsmodelle für einen Roboter-Kamera- Kopf Diplomvortrag 10.11.2004 Diplomand Silvio Große Inhalt Einleitung Ziele Projektbeschreibung Theoretischer Hintergrund Vorwärtsmodelle adaptive Architektur:

Mehr

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang

Grundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Sozialwissenschaftliche Modelle und Daten SoSe 2010

Sozialwissenschaftliche Modelle und Daten SoSe 2010 Sozialwissenschaftliche Modelle und Daten SoSe 2010 LS Sozialwissenschaftliche Methodenlehre und Sozialstatistik C. Dudel C. Dudel Sozialwissenschaftliche Modelle und Daten SoSe 2010 1 23 1 Formalia 2

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Artificial Intelligence. Deep Learning Neuronale Netze

Artificial Intelligence. Deep Learning Neuronale Netze Artificial Intelligence Deep Learning Neuronale Netze REVOLUTION Lernende Maschinen Mit lernenden Maschinen/Deep Learning erleben wir aktuell eine Revolution in der Informationsverarbeitung. Neue Methoden

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

Einfache Modelle der Neurodynamik.

Einfache Modelle der Neurodynamik. Vorlesung Einfache Modelle der Neurodynamik. Anregbarkeit und canards. Wintersemester 2015/16 12.01.2016 M. Zaks Aufbau eines Neurons: Gesamtbild 2 / 16 neuron Aufbau eines Neurons: Axon und Dendriten

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Bildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17

Bildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Bildverarbeitung: Filterung D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Allgemeines Klassische Anwendung: Entrauschung (Fast) jeder Filter basiert auf einem Modell (Annahme): Signal + Rauschen

Mehr

EVC Repetitorium Blender

EVC Repetitorium Blender EVC Repetitorium Blender Michael Hecher Felix Kreuzer Institute of Computer Graphics and Algorithms Vienna University of Technology INSTITUTE OF COMPUTER GRAPHICS AND ALGORITHMS Filter Transformationen

Mehr

Seminar Künstliche Intelligenz Wintersemester 2013/14

Seminar Künstliche Intelligenz Wintersemester 2013/14 Seminar Künstliche Intelligenz Wintersemester 2013/14 Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 31.10.2013 2 / 13 Überblick Teilgebiete der KI Problemlösen,

Mehr

Proseminar Neuronale Netze Frühjahr 2004

Proseminar Neuronale Netze Frühjahr 2004 Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Einführung in Support Vector Machines (SVMs)

Einführung in Support Vector Machines (SVMs) Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation

Mehr

Kopplung von Neuronen

Kopplung von Neuronen Katharina Ritter, Friedrich Bach, Felix Tabbert, Walter Tewes, Matthias Walther 12.06.2012 Inhalt Einführung Lighthouse-Modell Numerische Ergebnisse Schlussbemerkungen Unterschiede zum 1 Neuronenmodell

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

PP Physikalisches Pendel

PP Physikalisches Pendel PP Physikalisches Pendel Blockpraktikum Frühjahr 2007 (Gruppe 2) 25. April 2007 Inhaltsverzeichnis 1 Einführung 2 2 Theoretische Grundlagen 2 2.1 Ungedämpftes physikalisches Pendel.......... 2 2.2 Dämpfung

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Universität Klagenfurt

Universität Klagenfurt Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.

Mehr

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler

Mehr

Exkurs: Method of multiple scales (Mehrskalen Methode)

Exkurs: Method of multiple scales (Mehrskalen Methode) Exkurs: Method of multiple scales (Mehrskalen Methode) dr. karin mora* Im folgenden betrachten wir nichtlineare dynamische Systeme (NDS) mit sogenannten kleinen nichtlinearen Termen. Viele mathematische

Mehr

Numerische Methoden. Thomas Huckle Stefan Schneider. Eine Einführung für Informatiker, Naturwissenschaftler, Ingenieure und Mathematiker.

Numerische Methoden. Thomas Huckle Stefan Schneider. Eine Einführung für Informatiker, Naturwissenschaftler, Ingenieure und Mathematiker. Thomas Huckle Stefan Schneider Numerische Methoden Eine Einführung für Informatiker, Naturwissenschaftler, Ingenieure und Mathematiker 2. Auflage Mit 103 Abbildungen und 9 Tabellen 4Q Springer Inhaltsverzeichnis

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Support Vector Machines (SVM)

Support Vector Machines (SVM) Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

Distributed Algorithms. Image and Video Processing

Distributed Algorithms. Image and Video Processing Chapter 7 High Dynamic Range (HDR) Distributed Algorithms for Quelle: wikipedia.org 2 1 High Dynamic Range bezeichnet ein hohes Kontrastverhältnis in einem Bild Kontrastverhältnis bei digitalem Bild: 1.000:1

Mehr

Schnecke auf expandierendem Ballon

Schnecke auf expandierendem Ballon Schnecke auf expandierendem Ballon Kann in einem sich expandierenden Uniersum das Licht einer Galaxie auch die Punkte erreichen, die sich on ihr mit mehr als Lichtgeschwindigkeit entfernen? 1 Als einfaches

Mehr

RL und Funktionsapproximation

RL und Funktionsapproximation RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht

Mehr

KNN für XOR-Funktion. 6. April 2009

KNN für XOR-Funktion. 6. April 2009 KNN für XOR-Funktion G.Döben-Henisch Fachbereich Informatik und Ingenieurswissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Eine Vorlesung für Hörer aller Fakultäten

Eine Vorlesung für Hörer aller Fakultäten Ideen der Informatik Eine Vorlesung für Hörer aller Fakultäten Kurt Mehlhorn Meine drei Ziele Grundbegriffe der Informatik: Was ist ein Computer (Hardware, Software)? Sind alle Computer gleich? Was ist

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen

Mehr

2.7 Der Shannon-Fano-Elias Code

2.7 Der Shannon-Fano-Elias Code 2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.

Mehr

Modul SiSy: Einleitung

Modul SiSy: Einleitung Modul SiSy: Einleitung SiSy, Einleitung, 1 Grobe Signaleinteilung Signale können Information tragen Hilfreich ist die Unterscheidung nach der Informationsquelle: Nachrichtensignal, Mess-/Sensorsignal,

Mehr

Mathematische Aspekte der Modellbildung und Simulation in den Neurowissenschaften

Mathematische Aspekte der Modellbildung und Simulation in den Neurowissenschaften Mathematische Aspekte der Modellbildung und Simulation in den Neurowissenschaften Stefan Lang Interdisziplinäres Zentrum für wissenschaftliches Rechnen, Universität Heidelberg SS 2010 Lang (IWR) Numer.

Mehr

Biologische Übungen III Donnerstag, Kurs 5 Hören. Susanne Duncker Anja Hartmann Kristin Hofmann

Biologische Übungen III Donnerstag, Kurs 5 Hören. Susanne Duncker Anja Hartmann Kristin Hofmann Arbeitsgruppe D 6 Dees Duncker Hartmann Hofmann Protokoll Einleitung Im heutigen Kurs führten wir drei Versuche zum Hören durch. Der erste beschäftigte sich mit der Bestimmung der Hörschwellenkurve der

Mehr

Praktikum I PP Physikalisches Pendel

Praktikum I PP Physikalisches Pendel Praktikum I PP Physikalisches Pendel Hanno Rein Betreuer: Heiko Eitel 16. November 2003 1 Ziel der Versuchsreihe In der Physik lassen sich viele Vorgänge mit Hilfe von Schwingungen beschreiben. Die klassische

Mehr

Implementierung von Neuronalen Netzen mit LabVIEW und LabVIEW FPGA

Implementierung von Neuronalen Netzen mit LabVIEW und LabVIEW FPGA Virtuelle Instrumente in der Praxis VIP 2017 Implementierung von Neuronalen Netzen mit LabVIEW und LabVIEW FPGA Prof. Dr.-Ing. Alfred Rozek, Dirk Naparty Beuth Hochschule für Technik Berlin Kurzfassung

Mehr

1.2 Schwingungen von gekoppelten Pendeln

1.2 Schwingungen von gekoppelten Pendeln 0 1. Schwingungen von gekoppelten Pendeln Aufgaben In diesem Experiment werden die Schwingungen von zwei Pendeln untersucht, die durch eine Feder miteinander gekoppelt sind. Für verschiedene Kopplungsstärken

Mehr