Grundlagen Künstlicher Neuronaler Netze

Größe: px
Ab Seite anzeigen:

Download "Grundlagen Künstlicher Neuronaler Netze"

Transkript

1 FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher Neuronaler Netze Guido Breuer Matr.-Nr.: Inhaltsverzeichnis 1 Einleitung Biologisches Vorbild Historische Entwicklung Ausgewählte Netztypen und zugehörige Lernverfahren Multilayer Perceptron Kohonen-Modell der selbstorganisierenden Karten Literatur Einleitung In der Prozessautomatisierung werden in steigendem Maße Methoden der Computational Intelligence eingesetzt. Neben Fuzzy Logic und Evolutionären Algorithmen sind Künstliche Neuronale Netze einer der Teilbereiche der Computational Intelligence. Künstliche Neuronale Netze (KNN) orientieren sich an der Informationsverarbeitung in Gehirnen. Sie zeichnen sich dadurch aus, dass durch geeignete Lernverfahren die Netzparameter trainiert werden können. Die Netze sind somit im Hinblick auf den jeweiligen Anwendungsfall lernfähig. Ein klassisches Einsatzgebiet Künstlicher Neuronaler Netze ist die Mustererkennung. Es soll zunächst auf das biologische Vorbild Künstlicher Neuronaler Netze eingegangen werden. Anschließend wird die historische Entwicklung skizziert. Danach werden einige ausgewählte Netztypen sowie die zugehörigen Lernverfahren erläutert. 1

2 2 Biologisches Vorbild Die Grundzüge Künstlicher Neuronaler Netze entstammen den Erkenntnissen der Hirnforschung. Sitz der intelligenten Leistungen des Gehirns ist die Hirnrinde (Neokortex). Die Hirnrinde ist eine beim Menschen etwa 0,2 m 2 große und im Durchschnitt 2 bis 3 mm dicke Schicht aus Nervenzellengewebe, die, aus Platzgründen stark gefaltet, die Außenseite der beiden Gehirnhälften bildet. Beim Menschen liegen unter jedem Quadratmillimeter Hirnrinde circa Neuronen (Nervenzellen). Das zentrale Nervensystem besteht aus mehreren Milliarden von Neuronen. Diese sind netzartig miteinander verbunden; jedes Neuron mit im Durchschnitt zehntausend anderen Neuronen. Die menschliche Informationsverarbeitung ist im Wesentlichen auf die Übertragung von Erregungen zwischen den Neuronen zurückzuführen. Abbildung 1 zeigt schematisch ein typisches Neuron. Dendrit Zellkörper Axon Synapse Fremd-Dendrit Abbildung 1: Schematische Darstellung eines Neurons Bei einem typischen Neuron sind drei Hauptstrukturen zu unterscheiden, nämlich Dendriten, Zellkörper und Axon, denen man die Aufgaben Eingabe, Verarbeitung und Ausgabe zuordnen kann. Die Dendriten, eine verästelte Struktur dünner Zellfortsätze, bilden den Haupteingabepfad des Neurons. Sie summieren die Ausgabesignale der umgebenden Neuronen in Form eines elektrischen Signals, das dem Zellkörper zugeleitet wird. Überschreitet dieses Signal einen, dem Zellkörper inhärenten und für jeden Zellkörper individuellen Schwellwert, erzeugt der Zellkörper einen kurzen elektrischen Impuls, der vom Axon weitergeleitet wird. Das Axon verzweigt sich, und führt so den Impuls bis zu mehreren Tausend Zielneuronen zu. Die Kontaktstellen eines Axons befinden sich in der Regel auf den Dendriten des Zielneurons und heißen Synapsen. Die Übertragung geschieht dabei auf biochemischem Wege, d.h. der elektrische Impuls des Axons bewirkt das Ausschütten eines Überträgerstoffes (Neurotransmitter), der zu einer Potentialänderung an den Dendriten des Zielneurons führt. Je nach Art der Synapse führt der elektrische Impuls des Axons zu einer Potentialerhöhung oder zu einer Potentialerniedrigung am Zielneuron. Man unterscheidet hier erregende (exzitatorische) Synapsen und hemmende (inhibitorische) Synapsen. Die Synapsen wirken also wie Analogschalter, die die Kommunikation zwischen den Neuronen regeln und somit wichtige Informationsträger darstellen. Man geht heute davon aus, dass ein Lernvorgang im Gehirn auf der Veränderung dieser Kopplungsverhältnisse zwischen den Neuronen beruht. 2

3 3 Historische Entwicklung Die ersten Modelle Künstlicher Neuronaler Netze gehen bereits auf die vierziger Jahre des vergangenen Jahrhunderts zurück. Im Jahre 1943 schlugen die beiden Mathematiker Warren S. McCulloch und Walter Pitts vor, ein Neuron durch ein logisches Schwellwertelement zu beschreiben. Abbildung 2 zeigt das Prinzip eines McCulloch-Pitts-Neurons. x 1 w 1 x 2 w 2 Σ a f(a-s) y - x n w n s y = f(σw i x i s) Abbildung 2: Künstliches Neuron nach McCulloch und Pitts Ein solches Schwellwertelement besitzt n Eingabeleitungen, die entweder aktiv (logisch 1 ) oder ruhig (logisch 0 ) sein können. Der Zustand des Neurons ergibt sich durch Summation aller mit synaptischen Gewichtungsfaktoren w i gewichteten Eingangssignale x i und Vergleich der Summe mir dem Schwellwert s. Beim McCulloch-Pitts-Neuron dient als Aktivierungsfunktion f eine Sprungfunktion. McCulloch und Pitts zeigten, dass sich durch geeignete Kombination dieser Elemente UND-Gatter oder Inverter aufbauen lassen. Ungeklärt war die Frage, wie ein solches Netz lernt. Hier gab 1949 der Psychologe Donald O. Hebb Hilfe. Er legte Lernen neurophysiologisch auf das Wachstum von Synapsen bei gleichzeitiger Aktivität der gekoppelten Neuronen fest. Das heißt: die Verbindung zwischen zwei Neuronen wird verstärkt, wenn beide Neuronen zur gleichen Zeit aktiv sind. Diese sogenannte Hebbsche Lernregel findet, mathematisch formuliert, auch heute noch in zahlreichen Typen Künstlicher Neuronaler Netze Anwendung. Mit dem Aufkommen des Computers bot sich die Möglichkeit, die Lernfähigkeit von Künstlichen Neuronalen Netzen unter Regeln wie die Hebbsche Lernregel zu erproben und Anwendungsmöglichkeiten zu demonstrieren. Einen wichtigen Schritt machte hier der Neuropsychologe Frank Rosenblatt mit seinem 1958 vorgeschlagenen Perzeptron (Perceptron). Dieses besteht aus einer festen Anzahl von Elementen (Neuronen), denen über eine Anzahl Leitungen Eingabemuster zugeführt werden. Das Perzeptron soll die korrekte Klassifikation der Muster anhand bekannter Klassifikationsbeispiele während einer Lernphase erlernen. Im Laufe dieser Lernphase, bei der zu jeder Eingangsinformation die zugehörige Ausgangsentscheidung von einem menschlichen Überwacher getroffen werden muss, passt jedes Element seine Koeffizienten w so an, dass es nur auf die Eingabemuster seiner Klasse mit einem Ausgabewert y = 1 reagiert. Das erste lauffähige Perzeptron, das Mark I Perzeptron, war in der Lage, nach einer Lernphase Buchstaben zu erkennen. 3

4 Das Perzeptron ist heute nur noch von historischem Wert. Im Übrigen war es nicht in der Lage, beispielsweise eine XOR-Entscheidung zu fällen. Auf diesen Nachteil wiesen 1969 Marvin Minsky und Seymour Papert nachdrücklich hin. Damit hatten sie maßgeblich Anteil an der Tatsache, dass den Künstlichen Neuronalen Netzen in der Forschung weniger Aufmerksamkeit geschenkt wurde. Nur das 1959 von Bernard Widrow und Marcian Hoff entwickelte ADALINE-Netz (Adaptive Linear Elements), ein 3-Schichten-Netz mit Fehlerkorrektur, hat überleben können. Es wird beispielsweise als adaptiver Filter zur Verminderung von Übertragungsfehlern in Modems benutzt. Größere Aufmerksamkeit erhielten Künstliche Neuronale Netze erst wieder, nachdem 1982 der Physiker John Hopfield sein Hopfield-Netz vorgeschlagen hatte. Eine wichtige Neuerung war hier die Einführung von Rückkopplungen in das Modell von McCulloch und Pitts. Wie das Perzeptron, muss auch das Hopfield-Netz in der Lernphase supervidiert werden. Das 1982 von Teuvo Kohonen vorgestellte Modell der selbstorganisierenden Karten, auch Kohonen-Modell oder Self Organizing Feature Map genannt, ist, aufgrund seiner biologischen Orientierung und seiner einfachen Struktur, ein in der Praxis oft verwendetes Modell Künstlicher Neuronaler Netze. Das Multilayer Perceptron (MLP), auch Backpropagation-Netzwerk genannt, wurde erstmals 1972 von Paul Werbos vorgestellt. Auf Basis des Backpropagation-Algorithmus, einer Verallgemeinerung der Delta-Lernregel, wurde es 1983 von David Rumelhart mit anhaltendem Erfolg präsentiert. 4 Ausgewählte Netztypen und zugehörige Lernverfahren Es gibt heute eine Vielzahl unterschiedlicher Modellansätze für Künstliche Neuronaler Netze. Die verschiedenen Modelle unterscheiden sich durch ihre unterschiedlichen Netzstrukturen und unterschiedliche Lernverfahren. Als Netzstrukturen lassen sich beispielsweise vorwärtsgerichtete Netze (Feedforward-Netze) und rückgekoppelte Netze (Feedback-Netze) unterscheiden. Bei den vorwärtsgerichteten Netzen breitet sich die Information ausgehend von der Eingangsschicht durch die verdeckten Schichten zur Ausgabeschicht aus. Zu den vorwärtsgerichteten Netzen gehört beispielsweise das Multilayer Perceptron. Bei den rückgekoppelten Netzen werden die Ausgangsinformationen von Neuronen auf eine vorherige Schicht rückgekoppelt. Rückgekoppelte Netze haben ein nichtdeterministisches Verhalten der Ausgabe, das heißt sie benötigen eine nicht genau bestimmbare Zeit, bis sich an ihrem Ausgang ein stabiler Zustand einstellt. Zu ihnen gehört beispielsweise das Hopfield-Netz. Bei den Lernverfahren kann man die überwachten Lernverfahren (Supervised Learning), die selbstorganisierenden oder nichtüberwachten Lernverfahren (Unsupervised Learning), das Reinforcement Learning und die stochastischen Lernverfahren unterscheiden. Bei den überwachten Lernverfahren werden den Netzen ein Eingangsmuster und das dazugehörige Ausgangsmuster vorgegeben. Das Netz berechnet ein Ausgangsmuster zu dem gegebenen Eingangsmuster. Stimmt das Ausgangsmuster nicht mit dem gegebenen Ausgangsmuster überein, wird der Fehler berechnet und korrigiert. Dazu werden die 4

5 Gewichtungsfaktoren durch ein Lerngesetz, zum Beispiel dem Backpropagation-Algorithmus, so angepasst, bis das gewünschte Ausgangsmuster erreicht ist. Bei einem selbstorganisierenden Lernverfahren wird als Lernmuster nur das Eingangsmuster vorgegeben. Das Netz organisiert seine Reaktion auf das Eingangsmuster selbst. Diese Lernverfahren basieren auf dem konkurrierenden Verhalten der einzelnen Künstlichen Neuronen. Dasjenige Neuron, das am stärksten durch ein Eingangsmuster erregt wird, erhält eine Gewichtungsänderung. Während der Lernphase bilden so die einzelnen Künstlichen Neuronen selbständig bestimmte Musterklassen und werden zu Musterdetektoren. Das Reinforcement Learning ist ein Sonderfall eines überwachten Lernverfahrens. Allerdings wird dem Netz kein Ausgabemuster, sondern nach jeder Aktion eine Bewertung derselben errechnet. Daraufhin werden durch das Netz die Gewichtungsfaktoren für gute Aktionen verstärkt und für schlechte Aktionen vermindert. Stochastische Lernverfahren sind Lernverfahren mit einem Zufallsanteil. Das Netzwerk hat hier die Freiheit, nach dem Prinzip Versuch und Irrtum selbständig nach Lösungen zu suchen. Nachfolgend wird mit dem Multilayer Perceptron ein Modell mit überwachtem Lernverfahren und mit dem Kohonen-Modell der selbstorganisierenden Karten ein Modell mit selbstorganisierendem Lernverfahren beschrieben. Beide Modelle sind in der praktischen Anwendung weit verbreitet. 4.1 Multilayer Perceptron Das Multilayer Perceptron, nach seinem Lernverfahren auch Backpropagation-Netz genannt, besteht aus einer Eingangsschicht (Input Layer), einer Ausgangsschicht (Output Layer) und einer oder mehreren Zwichenschichten (Hidden Layer). Abbildung 3 zeigt ein Multilayer Perceptron mit einer aus drei Neuronen bestehenden Eingangsschicht, einer aus vier Neuronen bestehenden Ausgangsschicht und einer aus zwei Neuronen bestehenden Zwischenschicht. N 6 y 1 x 1 N 1 x 2 N 2 N 4 N 7 y 2 N 5 N 8 y 3 x 3 N 3 N 9 y 4 Abbildung 3: Multilayer Perceptron Die einzelnen Elemente (Neuronen) entsprechen dabei der Beschreibung aus Abbildung 2, allerdings wird statt der Sprungfunktion meist eine sigmoide (s-förmige) Funktion als Aktivierungsfunktion verwendet, da diese die für den Backpropagation-Algorithmus 5

6 erforderlichen Voraussetzungen, Stetigkeit und Differenzierbarkeit, erfüllt. Die einzelnen Schichten sind vorwärts gerichtet und in der Regel vollständig miteinander verknüpft. Der Erfolg des Multilayer Perceptrons ist auf die Effektivität der Backpropagation-Lernregel zurückzuführen. Dieser Algorithmus ist eine Verallgemeinerung der Delta-Lernregel. Bei der Delta-Lernregel wird die Differenz zwischen dem gewünschten und dem tatsächlichen Ausgangssignal eines Netzes zur Anpassung der Gewichte verwendet. Das Lernen erfolgt beim Backpropagation-Algorithmus in zwei Phasen. In der ersten Phase wird dem Netz ein Eingangsmuster präsentiert. Die Aktivierung eines jeden Elements N i wird Schicht für Schicht berechnet, bis die Ausgangsschicht erreicht ist. Das errechnete Ausgangsmuster wird dem zum gegebenen Eingangsmuster gehörenden Ausgangsmuster verglichen und der Fehler berechnet. In der zweiten Phase erfolgt die Veränderung der Gewichte anhand dieses Fehlers. Dabei wird das Fehlersignal von der Ausgangsschicht zurückgesandt. In jeder Schicht werden die Gewichte anhand des Fehlersignals von der jeweils vorherigen Schicht geändert. Ein Lernfaktor bestimmt, wie stark die Änderung ist. Dann wird ein korrigiertes Fehlersignal an die nächste Schicht weitergeleitet, bis die letzte Schicht erreicht ist. Mit den veränderten Gewichtsfaktoren kann ein weiteres Eingabemuster bearbeitet und der gesamte Prozess erneut durchlaufen werden. Lernen definiert sich hier als die Minimierung der über alle Paare von tatsächlichen und gewünschten Ausgangsmustern gebildeten quadratischen Fehler. Diese Lernregel wird auch Error Back Propagation genannt, weil die Berechnung des Fehlergradienten, ausgehend von der Ausgabeschicht rückwärts durch das Netz, durch Weiterreichen von Fehlerwerten erfolgt. 4.2 Kohonen-Modell der selbstorganisierenden Karten Das Kohonen-Modell der selbstorganisierenden Karten ist aufgrund seiner biologischen Orientierung und seiner einfachen Struktur ein in der Praxis oft verwendetes Modell eines Künstlichen Neuronalen Netzes. Die Basis des Kohonen-Modells beruht auf einem Grundgedanken der Neurologie, nachdem die Anordnung von Neuronen häufig in Relation zu äußeren physikalischen Merkmalen steht. Zum Beispiel ist die Anordnung der Neuronen im Innenohr nicht anatomisch willkürlich, sondern steht in Relation zur Frequenz. Eine bestimmte Frequenz bewirkt an einem ihr zugeordneten Neuron die größte Erregung. k NB k (t 3 ) NB k (t 2 ) NB k (t 1 ) Abbildung 4: Kohonen-Modell mit Nachbarschaftsbeziehungen NB k eines Elements k zu unterschiedlichen Zeiten t (t 1 < t 2 < t 3 ) Bei der praktischen Implementierung des Kohonen-Modells sind die einzelnen Elemente (Neuronen) auf einer zweidimensionalen Fläche angeordnet. Dabei erhält jedes Element das gleiche Eingangsmuster und interagiert mit seinem Ausgangssignal mit anderen Elementen in 6

7 seiner Nachbarschaft. Die Ausdehnung dieser nachbarschaftlichen Beziehungen werden im Laufe der Lernphase kleiner. Ihre geometrische Form ist für das Ergebnis irrelevant. Abbildung 4 zeigt ein Netz mit Nachbarschaftsbeziehungen zu unterschiedlichen Zeiten. Für dieses Modell werden Elemente benutzt, bei denen das Ausgangssignal das Maß der Ähnlichkeit zwischen Eingangs- und Gewichtsvektor ist. Als Ähnlichkeitsmaß wird dabei die euklidische Distanz zwischen Eingangs- und Gewichtungsvektor berechnet. Die Gewichtsfaktoren werden wie bei allen Künstlichen Neuronalen Netzen während einer Lernphase bestimmt. Allerdings handelt es sich hier um ein nichtüberwachtes Lernverfahren. Das Netz organisiert selbst sensitive Bereiche für bestimmte Merkmale in den Eingangsvektoren. Dies geschieht durch Verändern der Gewichtungsfaktoren nach der folgenden Lernregel: Zu Beginn werden die Gewichtungsfaktoren der einzelnen Elemente mit kleinen Werten initialisiert. Danach werden dem Netz Eingangsmuster präsentiert und dabei für jedes Element die euklidische Distanz zwischen seinem Eingangsvektor und seinem Gewichtungsvektor berechnet. Das Element mit der kleinsten Distanz gewinnt. Nach dem Prinzip the winner takes it all werden bei diesem Element und den Elementen, die momentan mit ihm in Nachbarschaftsbeziehung stehen, die Gewichtungsfaktoren angepasst. Dabei bestimmt ein Lernfaktor, der mit steigender Lernzeit abnimmt, wie stark die Änderung ist. Alle anderen Elemente bleiben unverändert. Die Lernphase wird beendet, wenn die Gewichtungsfaktoren konvergieren. 5 Literatur Callan Robert: Neuronale Netze im Klartext. München: Pearson Studium, Haffner Sigrid, Geiger Hans und Kreßel Ulrich H.-G.: Anwendungsstand Künstlicher Neuronaler Netze. Teil 1: Einführung, in atp Automatisierungstechnische Praxis 34/10. München u.a.: Oldenbourg, Hamilton Patrick: Künstliche Neuronale Netze. Grundprinzipien, Hintergründe, Anwendungen. Berlin u.a.: VDE-Verlag, Patterson Dan W.: Künstliche Neuronale Netze. Das Lehrbuch. München u.a.: Prentice Hall, Rigoll Gerhard: Neuronale Netze. Eine Einführung für Ingenieure, Informatiker und Naturwissenschaftler. Renningen-Malmsheim: Expert-Verlag, 1994 Rojas Raul: Theorie der neuronalen Netze. Eine systematische Einführung. Korr. Nachdruck Berlin u.a.: Springer, Ritter Helge, Martinetz Thomas und Schulten Klaus: Neuronale Netze. Eine Einführung in die Neuroinformatik selbstorganisierender Netzwerke. Bonn u.a.: Addison-Wesley, Scherer Andreas: Neuronale Netze. Grundlagen und Anwendungen. Braunschweig u.a.: Vieweg,

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

7. Vorlesung Neuronale Netze

7. Vorlesung Neuronale Netze Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Proseminar Neuronale Netze Frühjahr 2004

Proseminar Neuronale Netze Frühjahr 2004 Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die

Mehr

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe

Mehr

Computational Intelligence 1 / 31. Computational Intelligence Künstliche Neuronale Netze Geschichte 3 / 31

Computational Intelligence 1 / 31. Computational Intelligence Künstliche Neuronale Netze Geschichte 3 / 31 1 / 31 Gliederung 1 Künstliche Neuronale Netze Geschichte Natürliches Neuron Künstliches Neuron Typen von Neuronen Geschichte Künstliche Neuronale Netze Geschichte 3 / 31 1943 Warren McCulloch (Neurologe),

Mehr

auch: Konnektionismus; subsymbolische Wissensverarbeitung

auch: Konnektionismus; subsymbolische Wissensverarbeitung 10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Universität Klagenfurt

Universität Klagenfurt Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.

Mehr

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Proseminar Ausgewählte Themen über Agentensysteme 11.07.2017 Institut für Informatik Selbstorganisierende Karten 1 Übersicht Motivation Selbstorganisierende Karten Aufbau &

Mehr

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Neuronale Netze. Seminar aus Algorithmik Stefan Craß, Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM

Mehr

2.4.4 Die Fraktale Dimension

2.4.4 Die Fraktale Dimension 2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

Automatische Spracherkennung

Automatische Spracherkennung Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Künstliche Intelligenz. Neuronale Netze

Künstliche Intelligenz. Neuronale Netze Künstliche Intelligenz Neuronale Netze Richard Schorpp Version. -- 3.8.7 INHALTVERZEICHNIS Inhaltverzeichnis...2. Versionsverwaltung...2 2 Das Neuron... 3 2. Naturbeobachtung...3 2.2 Nachbildung der Natur...4

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

Künstliche Intelligenz

Künstliche Intelligenz Künstliche Intelligenz Bearbeitet von Uwe Lämmel, Jürgen Cleve 4., aktualisierte Auflage 2012. Buch. 336 S. ISBN 978 3 446 42758 7 Format (B x L): 18 x 24,5 cm Gewicht: 717 g Weitere Fachgebiete > EDV,

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back )

Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back ) A: Schrittweise vorwärts-gerichtete Abbildung: Eingangssignal (Input) r in Ausgansgsignal (Output) r out Überwachtes Lernen (wie z.b.

Mehr

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Stephan Ruttloff 1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Verwendungsweise 6. Quellen Was sind neuronale

Mehr

Kleines Handbuch Neuronale Netze

Kleines Handbuch Neuronale Netze Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

11. Neuronale Netze 1

11. Neuronale Netze 1 11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Adaptive Resonance Theory

Adaptive Resonance Theory Adaptive Resonance Theory Jonas Jacobi, Felix J. Oppermann C.v.O. Universität Oldenburg Adaptive Resonance Theory p.1/27 Gliederung 1. Neuronale Netze 2. Stabilität - Plastizität 3. ART-1 4. ART-2 5. ARTMAP

Mehr

Neuronale Neize. Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke ADDISON-WESLEY PUBLISHING COMPANY

Neuronale Neize. Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke ADDISON-WESLEY PUBLISHING COMPANY Helge Ritter/Thomas Marrineiz/Klaus Schulten Neuronale Neize Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke Technische Hochschule Darmstadt FACHBEREICH INFORMATIK B! B k±ojjtlus

Mehr

Objekt Attributwerte Klassifizierung X Y

Objekt Attributwerte Klassifizierung X Y AUFGABE : Entscheidungsbäume Betrachten Sie das folgende Klassifizierungsproblem: bjekt Attributwerte Klassifizierung X Y A 3 B 2 3 + C 2 D 3 3 + E 2 2 + F 3 G H 4 3 + I 3 2 J 4 K 2 L 4 2 ) Bestimmen Sie

Mehr

Inhaltsverzeichnis. Einführung

Inhaltsverzeichnis. Einführung Inhaltsverzeichnis Einführung 1 Das biologische Paradigma 3 1.1 Neuronale Netze als Berechnungsmodell 3 1.1.1 Natürliche und künstliche neuronale Netze 3 1.1.2 Entstehung der Berechenbarkeitsmodelle 5

Mehr

Neuroinformatik. Übung 1

Neuroinformatik. Übung 1 Neuroinformatik Übung 1 Fabian Bürger Raum: BC419, Tel.: 0203-379 - 3124, E-Mail: fabian.buerger@uni-due.de Fabian Bürger (fabian.buerger@uni-due.de) Neuroinformatik: Übung 1 1 / 27 Organisatorisches Neuroinformatik:

Mehr

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung

Mehr

6 Neuronale Modellierung: Der STAA-Ansatz

6 Neuronale Modellierung: Der STAA-Ansatz Bernd J. Kröger: Neuronale Sprachverarbeitung (Version 1.0.4) Seite 150 6 Neuronale Modellierung: Der STAA-Ansatz 6.1 Knoten: die STAA-Neuronensembles 6.1.1 Aktivierungslevel, Aktivierungsfunktion und

Mehr

Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz

Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung - zur Veröffentlichung bei LuxJunior 2003 - Krzyzanowski, J., Rosemann, A., Kaase, H. Technische Universität Berlin Fachgebiet Lichttechnik,

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen. Simulation Neuronaler Netze Eine praxisorientierte Einführung Matthias Haun Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen expert Inhaltsverzeichnis 1 Einleitung 1.1 Über das Projekt 1 1.2 Über das

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Selbstorganisierende Karten Seminar Kognitive Robotik (SS12) Thomas Hoffmann Betreuer: Dr. Florian Röhrbein

Mehr

Martin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr

Martin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr Statistische und neuronale Lernverfahren Martin Stetter WS 03/04, 2 SWS VL: Dienstags 8:30-0 Uhr PD Dr. Martin Stetter, Siemens AG Statistische und neuronale Lernverfahren Behandelte Themen 0. Motivation

Mehr

Seminar K nowledge Engineering und L ernen in Spielen

Seminar K nowledge Engineering und L ernen in Spielen K nowledge Engineering und Lernen in Spielen Neural Networks Seminar K nowledge Engineering und L ernen in Spielen Stefan Heinje 1 Inhalt Neuronale Netze im Gehirn Umsetzung Lernen durch Backpropagation

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011 Hinweis: Alle Projekte sind angemessen zu dokumentieren. Die Dokumentation

Mehr

Einführung in. Neuronale Netze

Einführung in. Neuronale Netze Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:

Mehr

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Vorlesung Maschinelles Lernen II Dr. Theo Lettmann Oliver Kramer 22. Mai 2006 Überblick Grundlagen SOMs Anwendungen 2D-SOMs Neuronales Gas 2 Grundlagen der Neuronalen Informationsverarbeitung

Mehr

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze Agenda Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1. - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene Netzwerktypen 2. 3. 4. Beispiele

Mehr

Grundlagen neuronaler Netzwerke

Grundlagen neuronaler Netzwerke AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)

Mehr

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze Vorlesung Künstliche Intelligenz Wintersemester 2008/09 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Intelligente Algorithmen Einführung in die Technologie

Intelligente Algorithmen Einführung in die Technologie Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen

Mehr

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock. Seite 1 Implementierung Neuronaler Netze mittels Digit-Online Algorithmen Vortrag im Rahmen des 10. Symposium Maritime Elektronik 2001 M.Haase, A.Wassatsch, D.Timmermann Seite 2 Gliederung Was sind Neuronale

Mehr

Rekurrente / rückgekoppelte neuronale Netzwerke

Rekurrente / rückgekoppelte neuronale Netzwerke Rekurrente / rückgekoppelte neuronale Netzwerke Forschungsseminar Deep Learning 2018 Universität Leipzig 12.01.2018 Vortragender: Andreas Haselhuhn Neuronale Netzwerke Neuron besteht aus: Eingängen Summenfunktion

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren

2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4.1. Einführung neuronale Netze (konnektionistische Modelle): Systeme, die einige der im menschlichen Gehirn bekannten oder vermuteten

Mehr

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck:

Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck: Diplomprüfung Informatik Kurs 1830 Neuronale Netze Prüfer: Prof. Dr. Helbig Beisitzer: Prodekan Prof. Dr. Hackstein Datum: 01.10.08 Note: 2,7 Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt,

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1 Agenda 1. Einführung & Grundbegriffe - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene

Mehr

Natürliche und künstliche neuronale Netze

Natürliche und künstliche neuronale Netze Kapitel 2 Natürliche und künstliche neuronale Netze 2.1 Informationsverarbeitung im Gehirn In diesem Abschnitt soll ein sehr knapper und durchaus unvollständiger Überblick gegeben werden, um den Bezug

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Unsupervised Learning Seminar Kognitive Robotik (SS12) Sebastian Fröhlich Betreuer: Florian Röhrbein Leitung:

Mehr

Facharbeit. Ratsgymnasium Bielefeld Schuljahr 2004/2005. aus dem Fach Biologie. Thema: Künstliche neuronale Netze

Facharbeit. Ratsgymnasium Bielefeld Schuljahr 2004/2005. aus dem Fach Biologie. Thema: Künstliche neuronale Netze Ratsgymnasium Bielefeld Schuljahr 2004/2005 Facharbeit aus dem Fach Biologie Thema: Künstliche neuronale Netze Verfasser: Joa Ebert Leistungskurs: Biologie Kursleiter: Herr Bökamp Abgabetermin: 25.02.2005

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Multi-Layer Neural Networks and Learning Algorithms

Multi-Layer Neural Networks and Learning Algorithms Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung

Mehr