Wie fängt eine Eule eine Maus in der Nacht: eine biologisch motivierte Simulation
|
|
- Ulrich Acker
- vor 7 Jahren
- Abrufe
Transkript
1 Wie fängt eine Eule eine Maus in der Nacht: eine biologisch motivierte Simulation Peer Ueberholz, Philipp Pricken IMH - Institut für Modellbildung und Hochleistungsrechnen FB Juni 2016
2 1 Einführung in Neuronale Netze Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen 2 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie 3 Das Modell Nengo Stand der Simulation 4
3 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen 1.1. Wie ich zu dem Thema gekommen bin Anfang der 90er Jahre Zu dieser Zeit habe ich alles gemacht, was in war und mit Computersimulationen zu tun hatte: Feldtheorie, Chaos-Theorie, Supraleiter,..., Neuronale Netze. Dabei entstanden Veröffentlichung auf den verschiedensten Gebieten, unter anderem
4 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen Zur Zeit ist Anthony Burkitt Director of NeuroEngineering Laboratory und Director of Bionic Vision Australia an der University of Melbourne, Department auf Electrical & Electronic Engineering
5 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen Arbeiten an der HSNR Es folgte ab Mitte der 90er eine lange Pause, da wenige gute Algorithmen existierten und enorme Rechenzeiten benötigt werden. Fortsetzung der Arbeiten an der HSNR erst in 2013 mit einer Bachelorarbeit Implementation eines Neuronalen Netzes auf Graphikkarten für Anwendungen in der Hochenergiephysik Seitdem 3 weitere Arbeiten auf diesem Gebiet In 2016 kommt noch eine Bachelorarbeit zu sogenannten tiefen Netzen.
6 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen 1.2. Ein künstliches Neuronales Netz Ein Neuronales Netz besteht aus verbundenen Neuronen (ca Neuronen bei einem Menschen mit ca Verbindungen). Ein Neuron hat Dendriten Soma Axon Synapsen Abbildung aus Wikipedia: de.wikipedia.org/wiki/neuronales Netz
7 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen Modell eines Neurons Die Ausgabe führt zur Ausschüttung von Neurotransmittern und damit zu einer Eingabe der nachfolgenden Zellen. In den Aktivitäten der Neuronen ist die Information codiert.
8 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen Ein paar interessante Fragen: Wie sehen die einzelnen Schritte genau aus, welche Funktionen werden verwendet? Wie genau sollte die Biologie berücksichtigt werden, um die wesentlichen Eigenschaften eines biologischen Netzes beizubehalten? Was ist die Topologie des Netzes, also welche Neuronen sind mit welchen verbunden? Wie stark sind die Gewichte, mit denen die einzelnen Neuronen verbunden sind? Wie lernt ein Neuronales Netz, also z.b. wieso findet eine Schleiereule eine Maus in der Nacht oder trifft ein Fussballer im Laufen einen rollenden Ball?
9 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen 1.3. Zwei aktuelle Forschungs- und Anwendungsrichtungen 1 Klassische künstliche Neuronale Netze Grundlage sind biologische Neuronen, jedoch in einer starken Vereinfachung, so dass sie mathematisch einfach und schnell zu behandeln sind. Heute werden sogenannte tiefe Netze (deep neural networks) verwendet, bei denen Neuronen über viele Schichten verbunden sind. Sie werden z.b. von Google, Apple, Facebook, NSA, BND und vielen anderen verwendet z.b. zur Bild- und Spracherkennung, in der Robotik, für Optimierungsprobleme usw. Fast täglich gibt es neue Meldungen über neue Anwendungen. Ein paar aktuelle Beispiele:
10 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen Mit zwei tiefen Netzen, eins für die Vorhersage guter Züge und eins für den Wert einer Stellung, ist es im März 2016 gelungen, einen Go-Meister zu schlagen. Hardware: 1202 CPUs mit 176 GPUs. Facebook sagt, das neue System Deep Text versteht Texte genauso gut wie Menschen. Google Photo oder die Translater-App, auf Clustern trainiert, laufen jetzt auf dem Smartphone. Immer mehr Firmen entwickeln Empathiemodule. Google hat gerade für Neuronale Netze eine Tensor Processing Unit (TPU) entwickelt. In der MKL (Mathematical Kernel Library) von Intel gibt es jetzt ein Modul DNN (Deep Neural Network).
11 Wie ich zu dem Thema gekommen bin Ein künstliches Neuronales Netz Zwei aktuelle Forschungs- und Anwendungsrichtungen 2 Neuronale Netze, nahe an der Biologie Größtes Beispiel: Das Human Brain Project Gestartet in 2013, Fördersumme 1,2 Milliarden Euro 6 Segmente: Neuroinformatik, Medizinische Informatik, Gehirnsimulation, Supercomputing, Neuronales Rechnen und Neurorobotik. Beispiel SpiNNaker-Projekt, Manchester Prozessoren mit 18 ARM-Kernen. Jeder Prozessor simuliert Neuronen und 8 Millionen Synapsen. Beispiel BrainScaleS-System, Heidelberg. 20 Silizium-Wafer mit je knapp Neuronen und ca. 58 Millionen Synapsen. Siehe Unabhängig von diesem Projekt gibt es jede Menge kleine Arbeiten, z.b. unsere hier.
12 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Klassische künstliche Neuronale Netze Die klassischen künstlichen Neuronalen Netze vereinfachen das biologische Vorbild so stark, dass viele biologische Eigenschaften verloren gehen, aber die Grundidee erhalten bleibt und eine schnelle Berechnung möglich ist. Mathematisch heißt das, der Weg von der Eingabe eines Neurons zur Eingabe des damit verbundenen Neurons wird durch sehr einfache Funktionen beschrieben.
13 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Zwei verbreitete Architekturen Feed Forward Networks (FFN), in Bildverarbeitung z.b. in der Form von Convolution Neural Networks (CNN) (überlappende Teilbereiche). Rekurrent Neuronal Networks (RNN), also solche mit Rückwärtsverbindungen, z.b. in der Form von Long Short Term Memory Networks (LSTM) für handgeschriebene Zeichen oder auch in der Spracherkennung. Diese beiden Architekturen und deren Anwendung werden in den letzten Jahren fast überall diskutiert, siehe z.b. C t 2016, Heft 6
14 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Eingabe kommt von außen oder ist die Ausgabe o i eines Neurons i: x i = o i Die Ausgabe ergibt sich einfach z.b. über o j = exp ( n i=1 x iω i,j Θ j )
15 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Feed Forward Network Eingabe z.b. Pixel eines Bildes (Gesicht, Zahl, Tier... Ausgabe ein Neuron pro Name, Zahl, Art des Tiers...
16 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Das Schöne an einem solchen Netz ist folgendes: Wenn die Parameter, also die Gewichte w i,j und die Schwellwerte Θ i gut bestimmt wurden, gilt: kleine Änderungen des Netzes (Verbindungen defekt) oder kleine Eingabeänderungen (Bild verrauscht) kleine Änderung der Ausgabewerte Bild wird höchst wahrscheinlich trotzdem erkannt, da das gleiche Neuron den größten Wert haben wird.
17 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Problem: Lernen Wie werden gute Parameter bestimmt oder woher weiß ein Netz, welches Neuron bei welchem Bild aktiv sein soll? 2 wesentliche Arten von Lernverfahren: 1 Überwachtes Lernen, bei dem einem Netzwerk zu einer Eingabe eine gewünschte Ausgabe gegeben wird, nach dem es sich einstellt. 2 Unüberwachtes Lernen, bei dem sich das Netz selbst organisiert. Am häufigsten ist das überwachte Lernen, beruhend auf dem Backpropagation-Algorithmus.
18 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Backpropagation Minimierung des Fehlerfunktionals zwischen gewünschter Neuronenaktivität t p,j in der Ausgabeschicht und tatsächlicher Neuronenaktivität o p,j, summiert über alle p Eingaben: E = p E p, E p = 1 n out (o p,j (ω l,k, Θ k ) t p,j ) 2 2 j Bestimmt wird das Minimum mit einem Gradientenverfahren. Dann ist ein Neuronales Netz nichts anderes als nicht-lineare Ausgleichsrechnung!
19 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Backpropagation Probleme: 1. Hohe Rechenzeiten, um ein Minimum zu finden 2. Das Verfahren bleibt leicht in einem lokalen Minimum hängen Lösung: Gute Vorinitialisierung + schnelle Hardware Frage: Was lernt das Netz Neuer Ansatz: Rückverfolgung des Gelernten über einzelne Schichten Bei diesen Versuchen hat Google direkt eine neue Kunstrichtung ins Leben gerufen: Inceptionism 1 1 siehe z.b. Computer-Halluzinationen in Spektrum der Wissenschaft, 12/2015 von Brian Hayes.
20 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie 2.2 Neuronale Netze, nahe an der Biologie Neuronen generieren charakteristische elektrische Impulse, sogenannte Aktionspotentiale oder Spikes. Sie repräsentieren und vermitteln Informationen durch das Feuern von Spikes. Spikes führen zur Ausschüttung von Neurotransmittern. Wie Neuronen auf einen Stimulus reagieren, ist das Gebiet der neuronalen Codierung (neural encoding). Neuronale Decodierung (neural decoding) beschäftigt sich damit, wie ein Stimulus oder Aspekte davon aus den Spikes rekonstruiert werden können.
21 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Die Eingabe an Neuronen kommt über die Synapsen von Dendriten durch Ionenkanäle und depolarisieren die Zellmembran. In den Ionenkanälen spielen die Elemente Natrium, Kalium, Calium und Chlor eine Rolle. Wenn diese Eingaben ein Potential von ungefähr 100 mv erzeugt haben, wandert die Spannung in ca. 1 msec über die Zellmembran und entlädt sich über ein Axon an den Synapsen. Nach so einen Spike kann das Neuron für einige Millisekunden nicht wieder feuern. Die Feuerrate ist eine Funktion von charakteristischen Parametern s eines Stimulus, z.b. hängt die Feuerrate im auditivem System von der Lautstärke und der Frequenz ab. Diese Funktionen werden als Tuningkurven bezeichnet.
22 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Neuronen-Modelle Das bekannteste Modell ist das Hodgkin-Huxley-Modell von Es bildet die probabilistischen Dynamiken der Ionenkanäle nach. Es enthält einen Satz von Differentialgleichungen für die spannungsabhängigen Membranwiderstände und für die Ionenströme. Wichtig sind zwei wesentliche Erweiterungen zu klassischen Netzen: Spikes Rauschen Meist werden nur diese Erweiterungen in großen Netzwerken berücksichtigt.
23 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie Noch Nahe an der Biologie ist eine einfache Approximation, die Leaky integrate-and-fire Neuronen. Die Eingabeströme werden aufsummiert. Wird ein Schwellwert überschritten, kommt es zu einem Spike. Wird der Schwellwert nicht erreicht, fällt die Spannung im Neuron wieder ab. Nach einem Spike bleibt das Neuron eine kurze Zeit inaktiv.
24 Klassische künstliche Neuronale Netze Neuronale Netze, nahe an der Biologie LIF-Neuron mit konstantem Eingabestrom
25 Das Modell Nengo Stand der Simulation Das Modell Eine Eule kann die Richtung, in der sich eine Maus befindet, mit einer Genauigkeit von 2 Grad hören! Der Laufzeitunterschied zwischen den Ankunftszeiten eines Tons in beiden Ohren wird für die Bestimmung des horizontalen Winkels verwendet. Über den Lautstärkeunterschied in den unsymmetrischen Ohren wird der vertikale Winkel bestimmt. Eine junge Eule fliegt in Richtung des Tons und folgt dem Ton. Eine alte Eule fliegt in die Richtung, in der sich die Maus höchst wahrscheinlich befinden wird!
26 Das Modell Nengo Stand der Simulation Für diesen Ablauf gibt es in den letzten 10 Jahren zahlreiche Veröffentlichungen Offen sind drei Punkte: Ein Teil des Ablaufs der Bestimmung der horizontalen Richtung, eng an der Biologie angelehnt. Die Einbeziehung der Bewegung der Maus. Die Bestimmung der Entfernung der Maus. Für diese Punkte wollen wir ein sehr einfaches Modell mit Hilfe der Simulationssoftware Nengo entwerfen. Wir beschränken uns auf die horizontale Richtung, die Lautstärke soll für die Entfernungsbestimmung verwendet werden.
27 Das Modell Nengo Stand der Simulation Richtungsbestimmung 2 Zwei parallele Wege, getrennt für einzelne Frequenzbereiche: Zeitinformation: Nucleus magnocellularis, Lamellenkern, vorderer Kern der lateralen Schleife, zentrales Gebiet der Hörregion im Mittelhirn, seitliche Schleife, äußerer Kern. Lautstärkeinformation: Nucleus angularis, hinterer Kern der lateralen Schleife, seitliche Schale äußerer Kern. Zusammenführung in der lateralen Schale im äußeren Kern 2 Die folgenden vier Abbildungen stammen aus M. Konishi: Die Schallortung der Schleiereule, Spektrum der Wissenschaft, Juni 1993, pp
28 Das Modell Nengo Stand der Simulation Bestimmung der horizontalen Richtung Eine Reihe von Verzögerungsneuronen halten ein Signal unterschiedlich lang auf. Diejenigen Neuronen feuern, bei denen die Signale gleichzeitig ankommen, also die Neuronen, bei denen die Summe aus Verzögerungen und Ankunftszeiten von beiden Ohren gleich ist.
29 Das Modell Nengo Stand der Simulation Richtungsorientierung
30 Das Modell Nengo Stand der Simulation Wir beschränken uns auf die Erfassung des horizontalen Winkels. Aus der Aktivität der Neuronen wollen wir die Information der horizontalen Richtung als Funktion der Zeit an eine Neuronengruppe weiter geben. Diese Richtungsinformationen werden weiter geleitet, um eine Abschätzung für die Geschwindigkeit und damit für den Ort zu gewinnen, wo sich die Maus voraussichtlich nach einer bestimmten Flugzeit befinden wird. Im letzten Schritt soll die Eule aus Misserfolgen lernen, in welcher Richtung sie losfliegen muss, um die Maus sicher in kürzester Zeit, d.h. in gerade Flugbahn zu fangen. Das Ganze wird mit Hilfe der Software Nengo implementiert.
31 Das Modell Nengo Stand der Simulation 3.2 Nengo Grundlage von Nengo sind 3 Prinzipien des Neural Engineering: 1 Alle neuronalen Repräsentationen werden definiert über eine Kombination von nicht-linearen Codierungen und gewichteten linearen Decodierungen. 2 Transformationen von neuronalen Repräsentationen sind Funktionen von Variablen, die in der neuronalen Repräsentation codiert sind. Transformationen werden bestimmt durch gewichtete lineare Decodierungen. 3 Zur Beschreibung neuronaler Dynamik können die neuronalen Repräsentationen als Zustandsvariablen einer Regelungstheorie aufgefasst werden. Hinzu kommt, dass jedes System mit Rauschen behaftet ist.
32 Das Modell Nengo Stand der Simulation Wir verwenden LIF-Neuronen. Nicht-lineare Codierung: a i (x) = G i [J i (x)] { ( )) = τ ref i τi RC ln (1 J thr 1 i J i (x), falls αi x + Ji bias > Ji thr 0 sonst. a i (x): τ ref : τ RC : J (x): J thr : mittlere Feuerrate (Spikes/Sekunde) refractory Zeit; Zeit, bis das Neuron wieder aktiv werden kann charakteristische Anstiegszeit (RC) Eingangsstrom Schwellwert
33 Das Modell Nengo Stand der Simulation Die Koeffizienten für eine lineare Decodierung werden über das Minimum des Fehlerfunktionals bestimmt. Fehlerfunktional ohne Rauschen: [ ] 2 N E = x a i φ i i=1 x: Eingabe a i : Mittlere Feuerrate φ: Optimal zu bestimmende Koeffizienten x.
34 Das Modell Nengo Stand der Simulation Beispiel: 8 Tuning Kurven (Mittlere Feuerrate als Funktion der Eingabe) von 8 Neuronen der Neuronen reagieren auf eine Eingabe zwischen -1 und 1. Aufgabe: Codiere (nicht-linear) und decodiere (linear) eine linear steigende Funktion. 3 Die folgenden 3 Abbildung stammen aus summary.html
35 Das Modell Nengo Stand der Simulation Spikes Ein- und Ausgabe der Neuronen Eine Erweiterung auf einfache Rechenoperationen wie lineare Abbildungen oder Polynomberechnungen ist leicht möglich!
36 Das Modell Nengo Stand der Simulation Kann die Decodierung nicht direkt bestimmt werden, muss gelernt werden! Lernregel: Eine Kombination aus überwachtem und unüberwachtem Lernen ω ij = α j a i [κ 1 e j E + κ 2 a j (a i Θ)] Die Parameter bedeuten ω : Gewicht zwischen den Neuronen κ: Lernrate a: Aktivität Θ: gemittelter Schwellwert über alle Eingaben α: Gewinn eines Neurons e: Codierter Vektor E: Fehlerterm
37 Das Modell Nengo Stand der Simulation 3.3 Stand der Simulation Implementation und Aufteilung Die Simulation der Richtungsbestimmung enthält viele verschiedene Problemstellungen, daher bietet es sich an diese in einige Teilmodule aufzusplitten 1 Winkelbestimmung 2 Geschwindigkeitsberechnung 3 Lernprozess des Abflugwinkels Außerdem wird die Berechnung der Entfernung noch hinzu kommen.
38 Das Modell Nengo Stand der Simulation Winkelbestimmung Als Eingabe werden phasenverschobene Schallwellen gegeben. Es werden Verzögerungsknoten genutzt, um die Verzögerungen im Gehirn zu simulieren. Die Ensembles addieren die verzögerten Signale und berechnen die Amplituden. Jedes Ensemble repräsentiert einen bestimmen Winkel, aus der ein Geräusch stammen kann.
39 Das Modell Nengo Stand der Simulation Winkelbestimmung - Problemstellungen Die Eule kann eine Frequenz in khz auflösen, bei uns momentan 5Hz. Um eine Genauigkeit von 2 Grad zu erhalten, werden 90 Ensembles benötigt (momentan 36 Ensembles). Es muss die maximale Amplitude bestimmt und isoliert werden. Der dazu gehörige Winkel soll für die Weiterverarbeitung genutzt werden.
40 Das Modell Nengo Stand der Simulation Geschwindigkeit Aus dem ermittelten Winkel soll die Eule nun die Geschwindigkeit der Maus berechnen. Es wird die Änderung eines eingehenden Winkels berechnet. Die Neuronenanzahl in den Ensembles spielt hier eine wichtige Rolle.
41 Das Modell Nengo Stand der Simulation Geschwindigkeit - Auswertung 500 Neuronen 5000 Neuronen Die mittlere Geschwindigkeit betrug 0.5. Frage: Wie viele Neuronen sind sinnvoll?
42 Das Modell Nengo Stand der Simulation Lernprozess des Abflugwinkels Nachdem die Eule nun erkannt hat, wie schnell sich ihr Ziel bewegt, möchte Sie dieses abfangen. Dieser Vorgang wird durch einen Lernprozess simuliert. Die Eule wählt einen Abflugwinkel und lernt durch den Fehler, wie sie diesen Winkel bei unterschiedlichen Geschwindigkeiten wählen muss. Für den Lernprozess wird die Geschwindigkeit und die Abflugposition durch eine verrauschte Funktion modelliert und die damit berechnete korrekte Position der Maus für den Fehlerterm verwendet. Nach einer festen Zeit wird dieses System abgekoppelt und es werden die gelernten Verbindungen verwendet.
43 Das Modell Nengo Stand der Simulation Lernprozess des Abflugwinkels - Auswertung Abweichung nach 10 Sekunden Lernzeit bei einem durchschnittlichen Laufwinkel der Maus von 1,6 rad.
44 Das Modell Nengo Stand der Simulation 3.4 Ausblick und offene Fragestellungen Benötigt wird noch eine Division, die durch die lineare Dekodierung der Neuronen nur auf kleinem Raum angenähert werden kann. Es gibt verschiedene Herangehensweisen dieses Problem umzusetzen: Division auf kleinen Raum beschränken Division durch Subtraktion des Logarithmus ersetzen Division erlernen Nach einigen Tests erscheint das Erlernen der Division am vielversprechendsten.
45 (1) Künstliche Intelligenz und insbesondere Neuronal Netze sind wieder sehr populär. Die heutigen Möglichkeiten eröffnen viele interessante Perspektiven für Anwendungen. Es gibt aber auch einige kritisch zu verfolgende Anwendungen. Zwei Beispiele: Human Rights Watch und andere haben einen Aufruf zur Problematik autonomer Waffen 4 verfasst, von mehr als Personen (20000 KI-Forschern) mittlerweile unterschrieben Das Digital-Manifest: 9 führende Experten warnen vor einer Aushöhlung der Demokratie durch Algorithmen 5 4 futureoflife.org/open-letter-autonomous-weapons/ 5 Spektrum de Wissenschaft 1/16
46 (2) Die eng an die Biologie angelehnten Netze haben im medizinischen Bereich etliche sinnvolle Anwendungen. Ziel ist es, bis Ende 2016 die Simulation so weit am Laufen zu haben, dass erste Ergebnisse auf einer Konferenz in 2017 vorgestellt werden können. Die University of Melbourne ist eine hervorragende Universität und ich hoffe die Zusammenarbeit darüber hinaus fortsetzen zu können. Und da mein Arbeitsgebiet Parallele Systeme heißt: Neuronal Netze sind hochgradig parallel!
47 Literatur R. Dayan and L.F. Abbott: Theoretical Neuroscience, MIP Press, Cambridge, 2001 Ch. Eliasmith and Ch.H. Anderson: Neural Engineering, MIP Press, Cambridge, 2003 Ch. Eliasmith: How to Build a Brain, Oxford University Press, New York, 2013 B.J. Fischer, A model of the computations leading to a representation of auditory space in the midbrain of the barn owl, PhD Thesis, Washington University, 2005 W. Cox, and B.J. Fischer, Optimal Prediction of Moving Sound Source Direction in the Owl, PLoS Comput. Biol. 11(7), dx.doi.org/ /journal.pcbi , 2015
10. Neuronale Netze 1
10. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form
MehrC1/4 - Modellierung und Simulation von Neuronen
C 1 /4 - Modellierung und Simulation von Neuronen April 25, 2013 Motivation Worum geht es? Motivation Worum geht es? Um Neuronen. Motivation Worum geht es? Um Neuronen. Da ist u.a. euer Gehirn draus Motivation
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrBACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON
BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe
MehrKünstliche Neuronale Netze
Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrIntelligente Algorithmen Einführung in die Technologie
Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrWas sind Neuronale Netze?
Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
Mehr11. Neuronale Netze 1
11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form
MehrNeuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.
Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles
MehrSoftcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003
Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrNeuronale Kodierung sensorischer Reize. Computational Neuroscience Jutta Kretzberg
Neuronale Kodierung sensorischer Reize Computational Neuroscience 30.10.2006 Jutta Kretzberg (Vorläufiges) Vorlesungsprogramm 23.10.06!! Motivation 30.10.06!! Neuronale Kodierung sensorischer Reize 06.11.06!!
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrNeuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011
Neuronale Netzwerke Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp Betreuer: Michael Wilczek 7. Februar 2011 1 Wiederholung 2 Modell 3 spikeabhängige Plastizität 4 Anwendung 5 Literatur Biologischer
MehrKünstliche Neuronale Netze
Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung
MehrNeuronale Signalverarbeitung
neuronale Signalverarbeitung Institut für Angewandte Mathematik WWU Münster Abschlusspräsentation am 08.07.2008 Übersicht Aufbau einer Nervenzelle Funktionsprinzip einer Nervenzelle Empfang einer Erregung
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrThema 3: Radiale Basisfunktionen und RBF- Netze
Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
Mehr6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
MehrVom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung
Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:
MehrDatenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?
Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrBielefeld Graphics & Geometry Group. Brain Machine Interfaces Reaching and Grasping by Primates
Reaching and Grasping by Primates + 1 Reaching and Grasping by Primates Inhalt Einführung Theoretischer Hintergrund Design Grundlagen Experiment Ausblick Diskussion 2 Reaching and Grasping by Primates
MehrInstitut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.
Seite 1 Optimierung der Verbindungsstrukturen in Digitalen Neuronalen Netzwerken Workshop on Biologically Inspired Methods on Modelling and Design of Circuits and Systems 5.10.2001 in Ilmenau, Germany
MehrModelle zur Beschreibung von Schwellwertphänomenen in Nervenmembranen Fitzhugh-Nagumo-Gleichungen
Modelle zur Beschreibung von Schwellwertphänomenen in Nervenmembranen Fitzhugh-Nagumo-Gleichungen Katrin Schmietendorf Vortrag im Rahmen der Veranstaltung Numerische Methoden für Dynamische Systeme SoSe
MehrNeuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
Mehr1 Einleitung. 2 Clustering
Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrBig Data Künstliche Intelligenz Und das Ich
Big Data Künstliche Intelligenz Und das Ich Überblick Big data 2 Beispiele David Kriesel: Spiegel Mining Cambridge Analytics: Ocean Diagramm Intelligenz Wie funktioniert das? Neuronale Netze Zukunktsperspektiven/Kaffeesatzleserei
MehrComputational Neuroscience
Computational Neuroscience Vorlesung WS 2005/2006 Josef Ammermüller Jutta Kretzberg http://www.uni-oldenburg.de/sinnesphysiologie/ 14508.html Begriffsdefinitionen Computational Neuroscience Churchland
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrStrukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz
Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung - zur Veröffentlichung bei LuxJunior 2003 - Krzyzanowski, J., Rosemann, A., Kaase, H. Technische Universität Berlin Fachgebiet Lichttechnik,
MehrParallele Algorithmen in der Bildverarbeitung
Seminar über Algorithmen - SoSe 2009 Parallele Algorithmen in der Bildverarbeitung von Christopher Keiner 1 Allgemeines 1.1 Einleitung Parallele Algorithmen gewinnen immer stärker an Bedeutung. Es existieren
MehrKohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
MehrFortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Dr. Hanjo Täubig Lehrstuhl für Eziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester 2007/08
MehrVisuelle Vorwärtsmodelle für einen Roboter-Kamera- Kopf
Visuelle Vorwärtsmodelle für einen Roboter-Kamera- Kopf Diplomvortrag 10.11.2004 Diplomand Silvio Große Inhalt Einleitung Ziele Projektbeschreibung Theoretischer Hintergrund Vorwärtsmodelle adaptive Architektur:
MehrGrundlagen Kondition Demo. Numerisches Rechnen. (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang
Numerisches Rechnen (für Informatiker) M. Grepl P. Esser & G. Welper & L. Zhang Institut für Geometrie und Praktische Mathematik RWTH Aachen Wintersemester 2011/12 IGPM, RWTH Aachen Numerisches Rechnen
MehrNeuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrSozialwissenschaftliche Modelle und Daten SoSe 2010
Sozialwissenschaftliche Modelle und Daten SoSe 2010 LS Sozialwissenschaftliche Methodenlehre und Sozialstatistik C. Dudel C. Dudel Sozialwissenschaftliche Modelle und Daten SoSe 2010 1 23 1 Formalia 2
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz
MehrSchwellenwertelemente. Rudolf Kruse Neuronale Netze 8
Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrArtificial Intelligence. Deep Learning Neuronale Netze
Artificial Intelligence Deep Learning Neuronale Netze REVOLUTION Lernende Maschinen Mit lernenden Maschinen/Deep Learning erleben wir aktuell eine Revolution in der Informationsverarbeitung. Neue Methoden
MehrEin selbstmodellierendes System für die Wasserwirtschaft
Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme
MehrEinfache Modelle der Neurodynamik.
Vorlesung Einfache Modelle der Neurodynamik. Anregbarkeit und canards. Wintersemester 2015/16 12.01.2016 M. Zaks Aufbau eines Neurons: Gesamtbild 2 / 16 neuron Aufbau eines Neurons: Axon und Dendriten
MehrWissensbasierte Systeme
Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrBildverarbeitung: Filterung. D. Schlesinger () Bildverarbeitung: Filterung 1 / 17
Bildverarbeitung: Filterung D. Schlesinger () Bildverarbeitung: Filterung 1 / 17 Allgemeines Klassische Anwendung: Entrauschung (Fast) jeder Filter basiert auf einem Modell (Annahme): Signal + Rauschen
MehrEVC Repetitorium Blender
EVC Repetitorium Blender Michael Hecher Felix Kreuzer Institute of Computer Graphics and Algorithms Vienna University of Technology INSTITUTE OF COMPUTER GRAPHICS AND ALGORITHMS Filter Transformationen
MehrSeminar Künstliche Intelligenz Wintersemester 2013/14
Seminar Künstliche Intelligenz Wintersemester 2013/14 Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 31.10.2013 2 / 13 Überblick Teilgebiete der KI Problemlösen,
MehrProseminar Neuronale Netze Frühjahr 2004
Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrEinführung in Support Vector Machines (SVMs)
Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation
MehrKopplung von Neuronen
Katharina Ritter, Friedrich Bach, Felix Tabbert, Walter Tewes, Matthias Walther 12.06.2012 Inhalt Einführung Lighthouse-Modell Numerische Ergebnisse Schlussbemerkungen Unterschiede zum 1 Neuronenmodell
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrPP Physikalisches Pendel
PP Physikalisches Pendel Blockpraktikum Frühjahr 2007 (Gruppe 2) 25. April 2007 Inhaltsverzeichnis 1 Einführung 2 2 Theoretische Grundlagen 2 2.1 Ungedämpftes physikalisches Pendel.......... 2 2.2 Dämpfung
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrUniversität Klagenfurt
Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.
MehrKlassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
MehrKapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp
Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.
MehrKönnen neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie
Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler
MehrExkurs: Method of multiple scales (Mehrskalen Methode)
Exkurs: Method of multiple scales (Mehrskalen Methode) dr. karin mora* Im folgenden betrachten wir nichtlineare dynamische Systeme (NDS) mit sogenannten kleinen nichtlinearen Termen. Viele mathematische
MehrNumerische Methoden. Thomas Huckle Stefan Schneider. Eine Einführung für Informatiker, Naturwissenschaftler, Ingenieure und Mathematiker.
Thomas Huckle Stefan Schneider Numerische Methoden Eine Einführung für Informatiker, Naturwissenschaftler, Ingenieure und Mathematiker 2. Auflage Mit 103 Abbildungen und 9 Tabellen 4Q Springer Inhaltsverzeichnis
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrSupport Vector Machines (SVM)
Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-
MehrProseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger
Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale
MehrDistributed Algorithms. Image and Video Processing
Chapter 7 High Dynamic Range (HDR) Distributed Algorithms for Quelle: wikipedia.org 2 1 High Dynamic Range bezeichnet ein hohes Kontrastverhältnis in einem Bild Kontrastverhältnis bei digitalem Bild: 1.000:1
MehrSchnecke auf expandierendem Ballon
Schnecke auf expandierendem Ballon Kann in einem sich expandierenden Uniersum das Licht einer Galaxie auch die Punkte erreichen, die sich on ihr mit mehr als Lichtgeschwindigkeit entfernen? 1 Als einfaches
MehrRL und Funktionsapproximation
RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht
MehrKNN für XOR-Funktion. 6. April 2009
KNN für XOR-Funktion G.Döben-Henisch Fachbereich Informatik und Ingenieurswissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de
MehrNeuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
MehrEine Vorlesung für Hörer aller Fakultäten
Ideen der Informatik Eine Vorlesung für Hörer aller Fakultäten Kurt Mehlhorn Meine drei Ziele Grundbegriffe der Informatik: Was ist ein Computer (Hardware, Software)? Sind alle Computer gleich? Was ist
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen
Mehr2.7 Der Shannon-Fano-Elias Code
2.7 Der Shannon-Fano-Elias Code Die Huffman-Codierung ist ein asymptotisch optimales Verfahren. Wir haben auch gesehen, dass sich die Huffman-Codierung gut berechnen und dann auch gut decodieren lassen.
MehrModul SiSy: Einleitung
Modul SiSy: Einleitung SiSy, Einleitung, 1 Grobe Signaleinteilung Signale können Information tragen Hilfreich ist die Unterscheidung nach der Informationsquelle: Nachrichtensignal, Mess-/Sensorsignal,
MehrMathematische Aspekte der Modellbildung und Simulation in den Neurowissenschaften
Mathematische Aspekte der Modellbildung und Simulation in den Neurowissenschaften Stefan Lang Interdisziplinäres Zentrum für wissenschaftliches Rechnen, Universität Heidelberg SS 2010 Lang (IWR) Numer.
MehrBiologische Übungen III Donnerstag, Kurs 5 Hören. Susanne Duncker Anja Hartmann Kristin Hofmann
Arbeitsgruppe D 6 Dees Duncker Hartmann Hofmann Protokoll Einleitung Im heutigen Kurs führten wir drei Versuche zum Hören durch. Der erste beschäftigte sich mit der Bestimmung der Hörschwellenkurve der
MehrPraktikum I PP Physikalisches Pendel
Praktikum I PP Physikalisches Pendel Hanno Rein Betreuer: Heiko Eitel 16. November 2003 1 Ziel der Versuchsreihe In der Physik lassen sich viele Vorgänge mit Hilfe von Schwingungen beschreiben. Die klassische
MehrImplementierung von Neuronalen Netzen mit LabVIEW und LabVIEW FPGA
Virtuelle Instrumente in der Praxis VIP 2017 Implementierung von Neuronalen Netzen mit LabVIEW und LabVIEW FPGA Prof. Dr.-Ing. Alfred Rozek, Dirk Naparty Beuth Hochschule für Technik Berlin Kurzfassung
Mehr1.2 Schwingungen von gekoppelten Pendeln
0 1. Schwingungen von gekoppelten Pendeln Aufgaben In diesem Experiment werden die Schwingungen von zwei Pendeln untersucht, die durch eine Feder miteinander gekoppelt sind. Für verschiedene Kopplungsstärken
Mehr