Grundlagen Künstlicher Neuronaler Netze
|
|
- Silvia Nora Lange
- vor 7 Jahren
- Abrufe
Transkript
1 FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher Neuronaler Netze Guido Breuer Matr.-Nr.: Inhaltsverzeichnis 1 Einleitung Biologisches Vorbild Historische Entwicklung Ausgewählte Netztypen und zugehörige Lernverfahren Multilayer Perceptron Kohonen-Modell der selbstorganisierenden Karten Literatur Einleitung In der Prozessautomatisierung werden in steigendem Maße Methoden der Computational Intelligence eingesetzt. Neben Fuzzy Logic und Evolutionären Algorithmen sind Künstliche Neuronale Netze einer der Teilbereiche der Computational Intelligence. Künstliche Neuronale Netze (KNN) orientieren sich an der Informationsverarbeitung in Gehirnen. Sie zeichnen sich dadurch aus, dass durch geeignete Lernverfahren die Netzparameter trainiert werden können. Die Netze sind somit im Hinblick auf den jeweiligen Anwendungsfall lernfähig. Ein klassisches Einsatzgebiet Künstlicher Neuronaler Netze ist die Mustererkennung. Es soll zunächst auf das biologische Vorbild Künstlicher Neuronaler Netze eingegangen werden. Anschließend wird die historische Entwicklung skizziert. Danach werden einige ausgewählte Netztypen sowie die zugehörigen Lernverfahren erläutert. 1
2 2 Biologisches Vorbild Die Grundzüge Künstlicher Neuronaler Netze entstammen den Erkenntnissen der Hirnforschung. Sitz der intelligenten Leistungen des Gehirns ist die Hirnrinde (Neokortex). Die Hirnrinde ist eine beim Menschen etwa 0,2 m 2 große und im Durchschnitt 2 bis 3 mm dicke Schicht aus Nervenzellengewebe, die, aus Platzgründen stark gefaltet, die Außenseite der beiden Gehirnhälften bildet. Beim Menschen liegen unter jedem Quadratmillimeter Hirnrinde circa Neuronen (Nervenzellen). Das zentrale Nervensystem besteht aus mehreren Milliarden von Neuronen. Diese sind netzartig miteinander verbunden; jedes Neuron mit im Durchschnitt zehntausend anderen Neuronen. Die menschliche Informationsverarbeitung ist im Wesentlichen auf die Übertragung von Erregungen zwischen den Neuronen zurückzuführen. Abbildung 1 zeigt schematisch ein typisches Neuron. Dendrit Zellkörper Axon Synapse Fremd-Dendrit Abbildung 1: Schematische Darstellung eines Neurons Bei einem typischen Neuron sind drei Hauptstrukturen zu unterscheiden, nämlich Dendriten, Zellkörper und Axon, denen man die Aufgaben Eingabe, Verarbeitung und Ausgabe zuordnen kann. Die Dendriten, eine verästelte Struktur dünner Zellfortsätze, bilden den Haupteingabepfad des Neurons. Sie summieren die Ausgabesignale der umgebenden Neuronen in Form eines elektrischen Signals, das dem Zellkörper zugeleitet wird. Überschreitet dieses Signal einen, dem Zellkörper inhärenten und für jeden Zellkörper individuellen Schwellwert, erzeugt der Zellkörper einen kurzen elektrischen Impuls, der vom Axon weitergeleitet wird. Das Axon verzweigt sich, und führt so den Impuls bis zu mehreren Tausend Zielneuronen zu. Die Kontaktstellen eines Axons befinden sich in der Regel auf den Dendriten des Zielneurons und heißen Synapsen. Die Übertragung geschieht dabei auf biochemischem Wege, d.h. der elektrische Impuls des Axons bewirkt das Ausschütten eines Überträgerstoffes (Neurotransmitter), der zu einer Potentialänderung an den Dendriten des Zielneurons führt. Je nach Art der Synapse führt der elektrische Impuls des Axons zu einer Potentialerhöhung oder zu einer Potentialerniedrigung am Zielneuron. Man unterscheidet hier erregende (exzitatorische) Synapsen und hemmende (inhibitorische) Synapsen. Die Synapsen wirken also wie Analogschalter, die die Kommunikation zwischen den Neuronen regeln und somit wichtige Informationsträger darstellen. Man geht heute davon aus, dass ein Lernvorgang im Gehirn auf der Veränderung dieser Kopplungsverhältnisse zwischen den Neuronen beruht. 2
3 3 Historische Entwicklung Die ersten Modelle Künstlicher Neuronaler Netze gehen bereits auf die vierziger Jahre des vergangenen Jahrhunderts zurück. Im Jahre 1943 schlugen die beiden Mathematiker Warren S. McCulloch und Walter Pitts vor, ein Neuron durch ein logisches Schwellwertelement zu beschreiben. Abbildung 2 zeigt das Prinzip eines McCulloch-Pitts-Neurons. x 1 w 1 x 2 w 2 Σ a f(a-s) y - x n w n s y = f(σw i x i s) Abbildung 2: Künstliches Neuron nach McCulloch und Pitts Ein solches Schwellwertelement besitzt n Eingabeleitungen, die entweder aktiv (logisch 1 ) oder ruhig (logisch 0 ) sein können. Der Zustand des Neurons ergibt sich durch Summation aller mit synaptischen Gewichtungsfaktoren w i gewichteten Eingangssignale x i und Vergleich der Summe mir dem Schwellwert s. Beim McCulloch-Pitts-Neuron dient als Aktivierungsfunktion f eine Sprungfunktion. McCulloch und Pitts zeigten, dass sich durch geeignete Kombination dieser Elemente UND-Gatter oder Inverter aufbauen lassen. Ungeklärt war die Frage, wie ein solches Netz lernt. Hier gab 1949 der Psychologe Donald O. Hebb Hilfe. Er legte Lernen neurophysiologisch auf das Wachstum von Synapsen bei gleichzeitiger Aktivität der gekoppelten Neuronen fest. Das heißt: die Verbindung zwischen zwei Neuronen wird verstärkt, wenn beide Neuronen zur gleichen Zeit aktiv sind. Diese sogenannte Hebbsche Lernregel findet, mathematisch formuliert, auch heute noch in zahlreichen Typen Künstlicher Neuronaler Netze Anwendung. Mit dem Aufkommen des Computers bot sich die Möglichkeit, die Lernfähigkeit von Künstlichen Neuronalen Netzen unter Regeln wie die Hebbsche Lernregel zu erproben und Anwendungsmöglichkeiten zu demonstrieren. Einen wichtigen Schritt machte hier der Neuropsychologe Frank Rosenblatt mit seinem 1958 vorgeschlagenen Perzeptron (Perceptron). Dieses besteht aus einer festen Anzahl von Elementen (Neuronen), denen über eine Anzahl Leitungen Eingabemuster zugeführt werden. Das Perzeptron soll die korrekte Klassifikation der Muster anhand bekannter Klassifikationsbeispiele während einer Lernphase erlernen. Im Laufe dieser Lernphase, bei der zu jeder Eingangsinformation die zugehörige Ausgangsentscheidung von einem menschlichen Überwacher getroffen werden muss, passt jedes Element seine Koeffizienten w so an, dass es nur auf die Eingabemuster seiner Klasse mit einem Ausgabewert y = 1 reagiert. Das erste lauffähige Perzeptron, das Mark I Perzeptron, war in der Lage, nach einer Lernphase Buchstaben zu erkennen. 3
4 Das Perzeptron ist heute nur noch von historischem Wert. Im Übrigen war es nicht in der Lage, beispielsweise eine XOR-Entscheidung zu fällen. Auf diesen Nachteil wiesen 1969 Marvin Minsky und Seymour Papert nachdrücklich hin. Damit hatten sie maßgeblich Anteil an der Tatsache, dass den Künstlichen Neuronalen Netzen in der Forschung weniger Aufmerksamkeit geschenkt wurde. Nur das 1959 von Bernard Widrow und Marcian Hoff entwickelte ADALINE-Netz (Adaptive Linear Elements), ein 3-Schichten-Netz mit Fehlerkorrektur, hat überleben können. Es wird beispielsweise als adaptiver Filter zur Verminderung von Übertragungsfehlern in Modems benutzt. Größere Aufmerksamkeit erhielten Künstliche Neuronale Netze erst wieder, nachdem 1982 der Physiker John Hopfield sein Hopfield-Netz vorgeschlagen hatte. Eine wichtige Neuerung war hier die Einführung von Rückkopplungen in das Modell von McCulloch und Pitts. Wie das Perzeptron, muss auch das Hopfield-Netz in der Lernphase supervidiert werden. Das 1982 von Teuvo Kohonen vorgestellte Modell der selbstorganisierenden Karten, auch Kohonen-Modell oder Self Organizing Feature Map genannt, ist, aufgrund seiner biologischen Orientierung und seiner einfachen Struktur, ein in der Praxis oft verwendetes Modell Künstlicher Neuronaler Netze. Das Multilayer Perceptron (MLP), auch Backpropagation-Netzwerk genannt, wurde erstmals 1972 von Paul Werbos vorgestellt. Auf Basis des Backpropagation-Algorithmus, einer Verallgemeinerung der Delta-Lernregel, wurde es 1983 von David Rumelhart mit anhaltendem Erfolg präsentiert. 4 Ausgewählte Netztypen und zugehörige Lernverfahren Es gibt heute eine Vielzahl unterschiedlicher Modellansätze für Künstliche Neuronaler Netze. Die verschiedenen Modelle unterscheiden sich durch ihre unterschiedlichen Netzstrukturen und unterschiedliche Lernverfahren. Als Netzstrukturen lassen sich beispielsweise vorwärtsgerichtete Netze (Feedforward-Netze) und rückgekoppelte Netze (Feedback-Netze) unterscheiden. Bei den vorwärtsgerichteten Netzen breitet sich die Information ausgehend von der Eingangsschicht durch die verdeckten Schichten zur Ausgabeschicht aus. Zu den vorwärtsgerichteten Netzen gehört beispielsweise das Multilayer Perceptron. Bei den rückgekoppelten Netzen werden die Ausgangsinformationen von Neuronen auf eine vorherige Schicht rückgekoppelt. Rückgekoppelte Netze haben ein nichtdeterministisches Verhalten der Ausgabe, das heißt sie benötigen eine nicht genau bestimmbare Zeit, bis sich an ihrem Ausgang ein stabiler Zustand einstellt. Zu ihnen gehört beispielsweise das Hopfield-Netz. Bei den Lernverfahren kann man die überwachten Lernverfahren (Supervised Learning), die selbstorganisierenden oder nichtüberwachten Lernverfahren (Unsupervised Learning), das Reinforcement Learning und die stochastischen Lernverfahren unterscheiden. Bei den überwachten Lernverfahren werden den Netzen ein Eingangsmuster und das dazugehörige Ausgangsmuster vorgegeben. Das Netz berechnet ein Ausgangsmuster zu dem gegebenen Eingangsmuster. Stimmt das Ausgangsmuster nicht mit dem gegebenen Ausgangsmuster überein, wird der Fehler berechnet und korrigiert. Dazu werden die 4
5 Gewichtungsfaktoren durch ein Lerngesetz, zum Beispiel dem Backpropagation-Algorithmus, so angepasst, bis das gewünschte Ausgangsmuster erreicht ist. Bei einem selbstorganisierenden Lernverfahren wird als Lernmuster nur das Eingangsmuster vorgegeben. Das Netz organisiert seine Reaktion auf das Eingangsmuster selbst. Diese Lernverfahren basieren auf dem konkurrierenden Verhalten der einzelnen Künstlichen Neuronen. Dasjenige Neuron, das am stärksten durch ein Eingangsmuster erregt wird, erhält eine Gewichtungsänderung. Während der Lernphase bilden so die einzelnen Künstlichen Neuronen selbständig bestimmte Musterklassen und werden zu Musterdetektoren. Das Reinforcement Learning ist ein Sonderfall eines überwachten Lernverfahrens. Allerdings wird dem Netz kein Ausgabemuster, sondern nach jeder Aktion eine Bewertung derselben errechnet. Daraufhin werden durch das Netz die Gewichtungsfaktoren für gute Aktionen verstärkt und für schlechte Aktionen vermindert. Stochastische Lernverfahren sind Lernverfahren mit einem Zufallsanteil. Das Netzwerk hat hier die Freiheit, nach dem Prinzip Versuch und Irrtum selbständig nach Lösungen zu suchen. Nachfolgend wird mit dem Multilayer Perceptron ein Modell mit überwachtem Lernverfahren und mit dem Kohonen-Modell der selbstorganisierenden Karten ein Modell mit selbstorganisierendem Lernverfahren beschrieben. Beide Modelle sind in der praktischen Anwendung weit verbreitet. 4.1 Multilayer Perceptron Das Multilayer Perceptron, nach seinem Lernverfahren auch Backpropagation-Netz genannt, besteht aus einer Eingangsschicht (Input Layer), einer Ausgangsschicht (Output Layer) und einer oder mehreren Zwichenschichten (Hidden Layer). Abbildung 3 zeigt ein Multilayer Perceptron mit einer aus drei Neuronen bestehenden Eingangsschicht, einer aus vier Neuronen bestehenden Ausgangsschicht und einer aus zwei Neuronen bestehenden Zwischenschicht. N 6 y 1 x 1 N 1 x 2 N 2 N 4 N 7 y 2 N 5 N 8 y 3 x 3 N 3 N 9 y 4 Abbildung 3: Multilayer Perceptron Die einzelnen Elemente (Neuronen) entsprechen dabei der Beschreibung aus Abbildung 2, allerdings wird statt der Sprungfunktion meist eine sigmoide (s-förmige) Funktion als Aktivierungsfunktion verwendet, da diese die für den Backpropagation-Algorithmus 5
6 erforderlichen Voraussetzungen, Stetigkeit und Differenzierbarkeit, erfüllt. Die einzelnen Schichten sind vorwärts gerichtet und in der Regel vollständig miteinander verknüpft. Der Erfolg des Multilayer Perceptrons ist auf die Effektivität der Backpropagation-Lernregel zurückzuführen. Dieser Algorithmus ist eine Verallgemeinerung der Delta-Lernregel. Bei der Delta-Lernregel wird die Differenz zwischen dem gewünschten und dem tatsächlichen Ausgangssignal eines Netzes zur Anpassung der Gewichte verwendet. Das Lernen erfolgt beim Backpropagation-Algorithmus in zwei Phasen. In der ersten Phase wird dem Netz ein Eingangsmuster präsentiert. Die Aktivierung eines jeden Elements N i wird Schicht für Schicht berechnet, bis die Ausgangsschicht erreicht ist. Das errechnete Ausgangsmuster wird dem zum gegebenen Eingangsmuster gehörenden Ausgangsmuster verglichen und der Fehler berechnet. In der zweiten Phase erfolgt die Veränderung der Gewichte anhand dieses Fehlers. Dabei wird das Fehlersignal von der Ausgangsschicht zurückgesandt. In jeder Schicht werden die Gewichte anhand des Fehlersignals von der jeweils vorherigen Schicht geändert. Ein Lernfaktor bestimmt, wie stark die Änderung ist. Dann wird ein korrigiertes Fehlersignal an die nächste Schicht weitergeleitet, bis die letzte Schicht erreicht ist. Mit den veränderten Gewichtsfaktoren kann ein weiteres Eingabemuster bearbeitet und der gesamte Prozess erneut durchlaufen werden. Lernen definiert sich hier als die Minimierung der über alle Paare von tatsächlichen und gewünschten Ausgangsmustern gebildeten quadratischen Fehler. Diese Lernregel wird auch Error Back Propagation genannt, weil die Berechnung des Fehlergradienten, ausgehend von der Ausgabeschicht rückwärts durch das Netz, durch Weiterreichen von Fehlerwerten erfolgt. 4.2 Kohonen-Modell der selbstorganisierenden Karten Das Kohonen-Modell der selbstorganisierenden Karten ist aufgrund seiner biologischen Orientierung und seiner einfachen Struktur ein in der Praxis oft verwendetes Modell eines Künstlichen Neuronalen Netzes. Die Basis des Kohonen-Modells beruht auf einem Grundgedanken der Neurologie, nachdem die Anordnung von Neuronen häufig in Relation zu äußeren physikalischen Merkmalen steht. Zum Beispiel ist die Anordnung der Neuronen im Innenohr nicht anatomisch willkürlich, sondern steht in Relation zur Frequenz. Eine bestimmte Frequenz bewirkt an einem ihr zugeordneten Neuron die größte Erregung. k NB k (t 3 ) NB k (t 2 ) NB k (t 1 ) Abbildung 4: Kohonen-Modell mit Nachbarschaftsbeziehungen NB k eines Elements k zu unterschiedlichen Zeiten t (t 1 < t 2 < t 3 ) Bei der praktischen Implementierung des Kohonen-Modells sind die einzelnen Elemente (Neuronen) auf einer zweidimensionalen Fläche angeordnet. Dabei erhält jedes Element das gleiche Eingangsmuster und interagiert mit seinem Ausgangssignal mit anderen Elementen in 6
7 seiner Nachbarschaft. Die Ausdehnung dieser nachbarschaftlichen Beziehungen werden im Laufe der Lernphase kleiner. Ihre geometrische Form ist für das Ergebnis irrelevant. Abbildung 4 zeigt ein Netz mit Nachbarschaftsbeziehungen zu unterschiedlichen Zeiten. Für dieses Modell werden Elemente benutzt, bei denen das Ausgangssignal das Maß der Ähnlichkeit zwischen Eingangs- und Gewichtsvektor ist. Als Ähnlichkeitsmaß wird dabei die euklidische Distanz zwischen Eingangs- und Gewichtungsvektor berechnet. Die Gewichtsfaktoren werden wie bei allen Künstlichen Neuronalen Netzen während einer Lernphase bestimmt. Allerdings handelt es sich hier um ein nichtüberwachtes Lernverfahren. Das Netz organisiert selbst sensitive Bereiche für bestimmte Merkmale in den Eingangsvektoren. Dies geschieht durch Verändern der Gewichtungsfaktoren nach der folgenden Lernregel: Zu Beginn werden die Gewichtungsfaktoren der einzelnen Elemente mit kleinen Werten initialisiert. Danach werden dem Netz Eingangsmuster präsentiert und dabei für jedes Element die euklidische Distanz zwischen seinem Eingangsvektor und seinem Gewichtungsvektor berechnet. Das Element mit der kleinsten Distanz gewinnt. Nach dem Prinzip the winner takes it all werden bei diesem Element und den Elementen, die momentan mit ihm in Nachbarschaftsbeziehung stehen, die Gewichtungsfaktoren angepasst. Dabei bestimmt ein Lernfaktor, der mit steigender Lernzeit abnimmt, wie stark die Änderung ist. Alle anderen Elemente bleiben unverändert. Die Lernphase wird beendet, wenn die Gewichtungsfaktoren konvergieren. 5 Literatur Callan Robert: Neuronale Netze im Klartext. München: Pearson Studium, Haffner Sigrid, Geiger Hans und Kreßel Ulrich H.-G.: Anwendungsstand Künstlicher Neuronaler Netze. Teil 1: Einführung, in atp Automatisierungstechnische Praxis 34/10. München u.a.: Oldenbourg, Hamilton Patrick: Künstliche Neuronale Netze. Grundprinzipien, Hintergründe, Anwendungen. Berlin u.a.: VDE-Verlag, Patterson Dan W.: Künstliche Neuronale Netze. Das Lehrbuch. München u.a.: Prentice Hall, Rigoll Gerhard: Neuronale Netze. Eine Einführung für Ingenieure, Informatiker und Naturwissenschaftler. Renningen-Malmsheim: Expert-Verlag, 1994 Rojas Raul: Theorie der neuronalen Netze. Eine systematische Einführung. Korr. Nachdruck Berlin u.a.: Springer, Ritter Helge, Martinetz Thomas und Schulten Klaus: Neuronale Netze. Eine Einführung in die Neuroinformatik selbstorganisierender Netzwerke. Bonn u.a.: Addison-Wesley, Scherer Andreas: Neuronale Netze. Grundlagen und Anwendungen. Braunschweig u.a.: Vieweg,
Konzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrPerzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004
Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
Mehr7. Vorlesung Neuronale Netze
Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrProseminar Neuronale Netze Frühjahr 2004
Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die
MehrBACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON
BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe
MehrComputational Intelligence 1 / 31. Computational Intelligence Künstliche Neuronale Netze Geschichte 3 / 31
1 / 31 Gliederung 1 Künstliche Neuronale Netze Geschichte Natürliches Neuron Künstliches Neuron Typen von Neuronen Geschichte Künstliche Neuronale Netze Geschichte 3 / 31 1943 Warren McCulloch (Neurologe),
Mehrauch: Konnektionismus; subsymbolische Wissensverarbeitung
10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache
MehrKünstliche Neuronale Netze
Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrAdaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich
MehrEin selbstmodellierendes System für die Wasserwirtschaft
Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme
MehrWas sind Neuronale Netze?
Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche
MehrEinführung in Neuronale Netze
Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrNeuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrUniversität Klagenfurt
Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.
MehrNeuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien
in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???
MehrDatenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?
Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic
MehrEinführung in Neuronale Netze
Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Proseminar Ausgewählte Themen über Agentensysteme 11.07.2017 Institut für Informatik Selbstorganisierende Karten 1 Übersicht Motivation Selbstorganisierende Karten Aufbau &
MehrNeuronale Netze. Seminar aus Algorithmik Stefan Craß,
Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrPraktikum Simulationstechnik Rene Schneider, Benjamin Zaiser
Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM
Mehr2.4.4 Die Fraktale Dimension
2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
Mehr1 Einleitung. 2 Clustering
Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick
MehrAutomatische Spracherkennung
Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
MehrKünstliche Intelligenz. Neuronale Netze
Künstliche Intelligenz Neuronale Netze Richard Schorpp Version. -- 3.8.7 INHALTVERZEICHNIS Inhaltverzeichnis...2. Versionsverwaltung...2 2 Das Neuron... 3 2. Naturbeobachtung...3 2.2 Nachbildung der Natur...4
MehrNeuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.
Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrKönnen neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie
Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen
MehrAdaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}
MehrKünstliche Intelligenz
Künstliche Intelligenz Bearbeitet von Uwe Lämmel, Jürgen Cleve 4., aktualisierte Auflage 2012. Buch. 336 S. ISBN 978 3 446 42758 7 Format (B x L): 18 x 24,5 cm Gewicht: 717 g Weitere Fachgebiete > EDV,
MehrNeuronale Netze (I) Biologisches Neuronales Netz
Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrNeuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back )
Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) A: Schrittweise vorwärts-gerichtete Abbildung: Eingangssignal (Input) r in Ausgansgsignal (Output) r out Überwachtes Lernen (wie z.b.
Mehr1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.
Stephan Ruttloff 1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Verwendungsweise 6. Quellen Was sind neuronale
MehrKleines Handbuch Neuronale Netze
Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
Mehr11. Neuronale Netze 1
11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrAdaptive Resonance Theory
Adaptive Resonance Theory Jonas Jacobi, Felix J. Oppermann C.v.O. Universität Oldenburg Adaptive Resonance Theory p.1/27 Gliederung 1. Neuronale Netze 2. Stabilität - Plastizität 3. ART-1 4. ART-2 5. ARTMAP
MehrNeuronale Neize. Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke ADDISON-WESLEY PUBLISHING COMPANY
Helge Ritter/Thomas Marrineiz/Klaus Schulten Neuronale Neize Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke Technische Hochschule Darmstadt FACHBEREICH INFORMATIK B! B k±ojjtlus
MehrObjekt Attributwerte Klassifizierung X Y
AUFGABE : Entscheidungsbäume Betrachten Sie das folgende Klassifizierungsproblem: bjekt Attributwerte Klassifizierung X Y A 3 B 2 3 + C 2 D 3 3 + E 2 2 + F 3 G H 4 3 + I 3 2 J 4 K 2 L 4 2 ) Bestimmen Sie
MehrInhaltsverzeichnis. Einführung
Inhaltsverzeichnis Einführung 1 Das biologische Paradigma 3 1.1 Neuronale Netze als Berechnungsmodell 3 1.1.1 Natürliche und künstliche neuronale Netze 3 1.1.2 Entstehung der Berechenbarkeitsmodelle 5
MehrNeuroinformatik. Übung 1
Neuroinformatik Übung 1 Fabian Bürger Raum: BC419, Tel.: 0203-379 - 3124, E-Mail: fabian.buerger@uni-due.de Fabian Bürger (fabian.buerger@uni-due.de) Neuroinformatik: Übung 1 1 / 27 Organisatorisches Neuroinformatik:
MehrUniversität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini
Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung
Mehr6 Neuronale Modellierung: Der STAA-Ansatz
Bernd J. Kröger: Neuronale Sprachverarbeitung (Version 1.0.4) Seite 150 6 Neuronale Modellierung: Der STAA-Ansatz 6.1 Knoten: die STAA-Neuronensembles 6.1.1 Aktivierungslevel, Aktivierungsfunktion und
MehrStrukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz
Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung - zur Veröffentlichung bei LuxJunior 2003 - Krzyzanowski, J., Rosemann, A., Kaase, H. Technische Universität Berlin Fachgebiet Lichttechnik,
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrSimulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.
Simulation Neuronaler Netze Eine praxisorientierte Einführung Matthias Haun Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen expert Inhaltsverzeichnis 1 Einleitung 1.1 Über das Projekt 1 1.2 Über das
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Selbstorganisierende Karten Seminar Kognitive Robotik (SS12) Thomas Hoffmann Betreuer: Dr. Florian Röhrbein
MehrMartin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr
Statistische und neuronale Lernverfahren Martin Stetter WS 03/04, 2 SWS VL: Dienstags 8:30-0 Uhr PD Dr. Martin Stetter, Siemens AG Statistische und neuronale Lernverfahren Behandelte Themen 0. Motivation
MehrSeminar K nowledge Engineering und L ernen in Spielen
K nowledge Engineering und Lernen in Spielen Neural Networks Seminar K nowledge Engineering und L ernen in Spielen Stefan Heinje 1 Inhalt Neuronale Netze im Gehirn Umsetzung Lernen durch Backpropagation
MehrSelbstorganisierende Karten
Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales
MehrKohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
MehrKünstliche Neuronale Netze
Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung
MehrNeuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011 Hinweis: Alle Projekte sind angemessen zu dokumentieren. Die Dokumentation
MehrEinführung in. Neuronale Netze
Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:
MehrModellbildung und Simulation
Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:
MehrEinführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt
Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Vorlesung Maschinelles Lernen II Dr. Theo Lettmann Oliver Kramer 22. Mai 2006 Überblick Grundlagen SOMs Anwendungen 2D-SOMs Neuronales Gas 2 Grundlagen der Neuronalen Informationsverarbeitung
MehrKapitel VI Neuronale Netze
Agenda Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1. - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene Netzwerktypen 2. 3. 4. Beispiele
MehrGrundlagen neuronaler Netzwerke
AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)
MehrDer Sprung in die Zukunft! Einführung in neuronale Netzwerke
Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale
MehrProseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger
Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale
MehrTeil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze
Vorlesung Künstliche Intelligenz Wintersemester 2008/09 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrIntelligente Algorithmen Einführung in die Technologie
Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen
MehrInstitut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.
Seite 1 Implementierung Neuronaler Netze mittels Digit-Online Algorithmen Vortrag im Rahmen des 10. Symposium Maritime Elektronik 2001 M.Haase, A.Wassatsch, D.Timmermann Seite 2 Gliederung Was sind Neuronale
MehrRekurrente / rückgekoppelte neuronale Netzwerke
Rekurrente / rückgekoppelte neuronale Netzwerke Forschungsseminar Deep Learning 2018 Universität Leipzig 12.01.2018 Vortragender: Andreas Haselhuhn Neuronale Netzwerke Neuron besteht aus: Eingängen Summenfunktion
MehrStatistical Learning
Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in
Mehr2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren
2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4.1. Einführung neuronale Netze (konnektionistische Modelle): Systeme, die einige der im menschlichen Gehirn bekannten oder vermuteten
MehrNeuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.
Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches
MehrComputational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
MehrAuch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck:
Diplomprüfung Informatik Kurs 1830 Neuronale Netze Prüfer: Prof. Dr. Helbig Beisitzer: Prodekan Prof. Dr. Hackstein Datum: 01.10.08 Note: 2,7 Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt,
MehrSoftcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003
Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung
MehrKapitel VI Neuronale Netze
Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1 Agenda 1. Einführung & Grundbegriffe - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene
MehrNatürliche und künstliche neuronale Netze
Kapitel 2 Natürliche und künstliche neuronale Netze 2.1 Informationsverarbeitung im Gehirn In diesem Abschnitt soll ein sehr knapper und durchaus unvollständiger Überblick gegeben werden, um den Bezug
MehrTechnische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt
MehrGrundlagen Neuronaler Netze
Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Unsupervised Learning Seminar Kognitive Robotik (SS12) Sebastian Fröhlich Betreuer: Florian Röhrbein Leitung:
MehrFacharbeit. Ratsgymnasium Bielefeld Schuljahr 2004/2005. aus dem Fach Biologie. Thema: Künstliche neuronale Netze
Ratsgymnasium Bielefeld Schuljahr 2004/2005 Facharbeit aus dem Fach Biologie Thema: Künstliche neuronale Netze Verfasser: Joa Ebert Leistungskurs: Biologie Kursleiter: Herr Bökamp Abgabetermin: 25.02.2005
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrMulti-Layer Neural Networks and Learning Algorithms
Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung
Mehr