Selbstorganisierende Karten
|
|
|
- Ruth Kohl
- vor 9 Jahren
- Abrufe
Transkript
1 Selbstorganisierende Karten Jochen Weiß Inhaltsverzeichnis 1 Das menschliche Gehirn als Vorbild 2 2 Architektur einer SOM Aufbau der Neuronenschichten Gewichts- und Eingabevektor 3 3 Das Training der Karte Bestimmung des Siegerneurons Adaption der Gewichtsvektoren Nachbarschafts- und Lernratenfunktion Der Lernalgorithmus 8 4 Anwendungsbeispiel: das Rundreiseproblem 11 Literatur 13 Zusammenfassung Bei Selbstorganisierenden Karten (nach ihrem Entwickler auch Kohonen-Karten oder Kohonen Feature Maps genannt) handelt es sich um ein spezielles neuronales Netz, das wie der Name schon sagt sich selbst organisiert, also im Gegensatz zum Perzeptron ohne Lehrer auskommt, der nach jeder Eingabe die Ausgabe überprüft und ggf. die Verbindungsgewichte anpaßt, um die Ausgabe zu korrigieren. Ein weiteres spezifisches Merkmal der SOMs (Selforganizing Map) ist, dass auch die räumliche Anordnung der Neuronen untereinander eine wichtige Rolle im Lernverfahren spielt. 27. Mai 2004
2 1 Das menschliche Gehirn als Vorbild Eine SOM erstellt aus den Eingaben eine topographische Karte. Je ähnlicher zwei Eingaben sind, desto näher liegen die dadurch aktivierten Neuronen beieinander. Einander sehr ähnliche Eingabemuster werden von der SOM also auch benachbart dargestellt. Vorbild für diese Topologieerhaltung ist wie so oft bei neuronalen Netzen das menschliche Gehirn. Abbildung 1. Topologieerhaltung im Menschlichen Gehirn In Abbildung 1 ist auf der linken Seite die somatosensorische Hirnrinde zuständig für den Tastsinn und auf der rechten Seite die motorische Rinde zu sehen. Die einzelnen Körperteile sind bei ihrer jeweils zuständigen Hirnregion angeordnet. Es ist gut zu erkennen, dass benachbarte Hirnregionen auch benachbarte bzw. ähnliche Körperteile kontrollieren: z.b. liegt das Areal für den Tastsinn der Arme direkt neben der Hirnregion für die Hände. Wie das menschliche Gehirn Sinneseindrücke wirklich verarbeitet und speichert, ist noch nicht genügend erforscht. Unter anderem ist die selbstorganisierende Karte dazu entwickelt worden, mehr Einblick in die Organisationsweise unseres Gehirns zu geben. 2
3 2 Architektur einer SOM 2.1 Aufbau der Neuronenschichten Eine selbstorganisierende Karte besteht aus zwei Schichten. Die Eingabeschicht (U I ) setzt sich aus den Eingabeneuronen, die Ausgabeschicht (U O ) auch Kohonen- oder Kartenschicht genannt aus den Ausgabe- oder Kohonenneuronen zusammen. Die Eingabeschicht ist mit den Neuronen der Ausgabeschicht voll vernetzt: jedes Neuron der Eingabeschicht ist mit allen Ausgabeneuronen durch Gewichte verbunden. Gewichtete Verbindungen innerhalb der Ausgabeschicht gibt es allerdings nicht, jedoch spielt im späteren Lernverfahren die räumliche Anordnung der Kartenneuronen eine wichtige Rolle. Abbildung 2. Architektur einer SOM Die Ausgabeschicht kann unterschiedliche Dimensionen annehmen. Am häufigsten werden zwei-dimensionale quadratische Neuronengitter eingesetzt. Allerdings sind auch drei- oder mehr-dimensionale Gitter möglich. Die Position jedes Kohonenneurons wird dabei durch den Koordinatenvektor angegeben, der bei der Initialisierung der SOM festgelegt und auch im Laufe des Trainings nicht mehr verändert wird. 2.2 Gewichts- und Eingabevektor Jedes Eingabeneuron schickt einen Eingabewert an alle Neuronen der Kartenschicht. Faßt man die einzelnen Eingaben zusammen, ergibt dies das Eingabemuster bzw. den Eingabevektor: 3
4 x = (x 1, x 2,..., x i ), i =Anzahl der Eingabeneuronen Aus den einzelnen Gewichten, die ein Ausgabeneuron zu jedem Eingabeneuron besitzt, kann jedem Kohonenneuron j ein Gewichtsvektor w j zugewiesen werden: w j = (w (1,j), w (2,j),..., w (i,j) ), i =Anzahl der Eingabeneuronen Die Gewichtsvektoren aller Neuronen bestimmen die sog. Netzstruktur einer SOM. Diese kann über die Gewichtsvektoren visualisiert werden. Für eine SOM mit zwei Eingabeneuronen also zweidimensionalen Gewichtsvektoren und 10x10 Kartenneuronen kann dies z.b. folgendermaßen aussehen: Abbildung 3. Visualisierung der Gewichte Abbildung 3 zeigt ein Koordinatensystem, an deren X-Achse der Wert des Gewichts des Kartenneurons j zum Eingabeneuron 1 und an der Y-Achse das Gewicht zum Eingabeneuron 2 eingetragen ist. Eine solche Darstellung kann jedoch nur bei zweidimensionalen Eingabedaten verwirklicht werden. 3 Das Training der Karte 3.1 Bestimmung des Siegerneurons Eine SOM bewertet für ein Eingabemuster die Ähnlichkeit zu jedem Gewichtsvektor und bestimmt ein sog. Siegerneuron, auch Prototyp genannt. Dieses Siegerneuron repräsentiert die Eingabe von allen Kartenneuronen am besten. Für die Bewertung der Ähnlichkeit gibt es zwei verschiedene Methoden. Am plausibelsten jedoch ist die minimale Euklidische Distanz zwischen Eingabeund Gewichtsvektor: j (X) = arg min j X W j = arg min j i (x i w ij ) 2 n=1 4
5 Wobei j (x) das Siegerneuron des Eingabemusters X, i die Anzahl der Eingabeneuronen, x i der Eingabewert des i-ten Neurons und w ij ein einzelnes Gewicht des Neurons j zum i-ten Eingabeneuron ist. Abbildung 4. Minimale Euklidische Distanz Abbildung 4 zeigt anschaulich die Bestimmung der minimalen Euklidischen Distanz zwischen einem Eingabevektor und einem Gewichtsvektor. Sie ist nichts anderes als die Entfernung zweier Vektoren und damit ein Maß für die Ähnlichkeit dieser. Nun kann es allerdings vorkommen, dass zwei Gewichtsvektoren die gleiche euklidische Distanz zum Eingabevektor aufweisen. In solchen Fällen wird entweder zufällig oder ein beliebiger Vektor aus dieser Gruppe gewählt und dessen Neuron als Sieger bestimmt. Eine weitere Möglichkeit zur Bestimmung des Siegerneurons ist das maximale Skalarprodukt der beiden Vektoren, aber da, wie schon erwähnt, die euklidische Distanz am plausibelsten für die Ähnlichkeit ist, wird diese auch hauptsächlich verwendet. Ist das Siegerneuron bestimmt, wird nach dem Winner-Takes-All-Prinzip die Ausgabe des Siegerneurons auf 1, die aller anderen Kartenneuronen auf 0 gesetzt. 3.2 Adaption der Gewichtsvektoren Jetzt beginnt erst das eigentliche Training der Karte. Die Gewichtsvektoren des Siegerneurons und die seiner umliegenden Neuronen werden an den Eingabevektor mit Hilfe einer Lernvorschrift angepaßt. Dabei spielt der Grad der Nachbarschaft zum Siegerneuron eine große Rolle. Vereinfachend beschränken wir diese Adaption erst einmal auf das Siegerneuron, da dieses sich selbst am nächsten ist und damit zu 100% lernt: w i,j = α(x i w i,j ) Dabei ist α die sog. Lernrate, die nach jeder Epoche verkleinert wird, um den Lernfortschritt der Karte im Laufe des Trainings zu verringern. Sind alle vorhandenen Eingabemuster der Karte einmal präsentiert worden, beginnt eine neue Epoche, in der wieder alle Muster eingegeben werden. Dies wird solange wiederholt bis die Lernrate auf 0 gesunken oder eine andere Abbruchbedingung erfüllt ist. Um die anfangs erwähnte Topologieerhaltung, also die benachbarte Anord- 5
6 nung (Aktivierung des Siegerneurons) ähnlicher Eingabemuster in der Karte, zu gewährleisten, müssen auch Neuronen in der Nachbarschaft des Siegerneurons in den Lernprozess mit einbezogen werden. Dies erfolgt über die Kombination verschiedener Funktionen. 3.3 Nachbarschafts- und Lernratenfunktion Eine Nachbarschaftsfunktion berechnet den Grad der Nachbarschaft, welcher zwischen 0 und 1 liegt, eines Ausgabeneurons zum Siegerneuron. Die Nachbarschaftsfunktion ist von den Werten einer Distanz- und Radiusfunktion abhängig. Letztere bestimmt den Abstand der Ausgabeneuronen zum Siegerneuron und beruht meist auf der Basis der euklidischen Norm. Zu einem gegebenen Koordinatenvektor h (D) j des Neurons j, mit der Dimension D, berechnet diese den Abstand zum Ursprung des Koordinatensystems: D r eukl (h j ) = (h (n) j ) 2 n=1 Der Abstand zum Siegerneuron mit dem Koordinatenvektor h j wird an der Stelle h j h j berechnet. Für das Siegerneuron selbst ist der Wert der Radiusfunktion also 0. Diese kann im übrigen auch auf Basis der Eins- oder Maximumsnorm beruhen: r eins (h j ) = D n=1 h (n) j r max (h j ) = max{ h (1) j... h (D) j } Da im Laufe des Trainings nach jedem Eingabemuster der Einflussbereich des Siegerneurons abnehmen soll, wird eine monoton fallende Distanzfunktion benötigt. Dies ist sinnvoll, da sich die Karte so besser entfalten kann und schneller konvergiert. Mögliche Funktionen sind folgende: c(1 t lineare Distanzfunktion: d lin (t) = ) für t < t t end end 0 sonst exponentielle Distanzfunktion: d exp (t) = c 1 e tc 2 Wurzel-Distanzfunktion: d wurzel (t) = c 1 ( 1 t )c 2 Wobei t die aktuelle, und t end die Epoche, bei der das Training abgebrochen werden soll, darstellt. Die Ergebnisse der Radius- und Distanzfunktion werden der Nachbarschaftsfunktion als Parameter übergeben, welche den Grad der Nachbarschaft liefert. Dieser bestimmt letztendlich wie stark die Gewichte der Neuronen ange- 6
7 paßt werden. Auch hier sind verschiedene Arten von Funktionen, wie z.b. die Gauß sche Glockenkurve oder die Mexican-Hat-Funktion, anwendbar. Die simpelste Nachbarschaftsfunktion ist die Rechtecksfunktion: 1 r < d f rechteck (r, d) = 0 sonst Alle Neuronen im Einflussbereich des Siegerneurons erhalten den Nachbarschaftsgrad 1 lernen also so wie das Siegerneuron alle anderen Neuronen erfahren keine Veränderung ihrer Gewichte. Eine weitere Möglichkeit zur Berechnung des Nachbarschaftsgrads liefert die aus der Wahrscheinlichkeitsrechnung bekannte Gauß sche Glockenkurve: f gauss (r, d) = e ( r d ) Folgende Abbildung zeigt den Nachbarschaftsgrad über die Gaussfunktion für eine zweidimensionale Ausgabeschicht. Das Siegerneuron liegt hier im Koordinatenursprung: Abbildung 5. Gauß sche Glockenkurve Die Mexican-Hat-Funktion ist in Abbildung 6 zu sehen. Sie besitzt einen negativen Wertebereich. Die Gewichte der Neuronen mit einem solchen Nachbarschaftsgrad werden dem Eingabemuster nicht ähnlicher gemacht, sondern noch mehr verfälscht. Laut [Läm01] hat dies jedoch ein Divergieren der Karte zur Folge, weshalb in der Praxis auf diese Abstoßung der Gewichte verzichtet wird. 7
8 Abbildung 6. Mexican-Hat-Funktion Die schon angesprochene Lernratenfunktion verhält sich ähnlich wie die Distanzfunktion, weshalb hier nur eine spezielle Funktion angesprochen werden soll: die Ordering-Phase-Funktion Sei t die aktuelle Epoche, t order eine Epoche, ab der die Lernrate konstant bleibt, und t end die Anzahl der insgesamt zu durchlaufenden Epochen: α = c 0,8c t order c falls t < t order 1 1 t end t 0, 2 falls t order < t 0, 8 t falls 0, 8 t end < t t end 0 sonst 3.4 Der Lernalgorithmus Nachdem nun alle nötigen Funktionen definiert und erklärt wurden, kann nun der Lernalgorithmus formuliert werden. Man unterscheidet bei selbstorganisierenden Karten zwischen zwei verschiedenen Lernmethoden, dem musterweisen und epochenweisen Lernen. Beim musterweisen Lernen erfolgt die Adaption der Gewichtsvektoren nach jedem Eingabemuster, das an die Eingabeschicht angelegt wurde, wohingegen beim epochenweisen Lernen die Gewichtsanpassung erst nach Durchlaufen einer kompletten Epoche, also nach Eingabe aller vorhandenen Eingabemuster, vorgenommen wird. Am häufigsten wird 8
9 jedoch das musterweise Lernen verwendet, weshalb wir uns auf diesen Algorithmus beschränken: Algorithm 1 Musterweises Lernen einer SOM 1: Initialisiere die Verbindungsgewichte w j Erklärung s.u. 2: Bestimme für jedes Eingabemuster X das Siegerneuron j (X) : i j (X) = arg min X W j = arg min (x i w ij ) 2 j j n=1 3: Bestimme für jedes Ausgabeneuron j den Grad der Nachbarschaft λ(j) zum Siegerneuron während der Epoche p: λ(j) = f(r norm (h j h j ), d(p)) 4: Passe die Gewichtsvektoren der betreffenden Neuronen um w j an: w j = (X W j ) λ(j) α(p) 5: Falls eine vorher festgelegte Abbruchbedingung (z.b. Epochenanzahl) erfüllt ist, breche das Training ab, ansonsten iteriere die Epochenzahl p und fahre mit Schritt (2) fort. Über diesen Algorithmus läßt sich nun eine selbstorganisierende Karte trainieren. Bevor allerdings mit dem Training begonnen werden kann, müssen die Eingabedaten korrekt aufbereitet und kodiert werden, um diese überhaupt für die Karte lesbar zu machen. Will man der SOM z.b. Tierdaten (siehe Anwendungsbeispiel) präsentieren, so ist klar, dass die Tiermerkmale passend, d.h. in richtiger Relation zueinander, kodiert werden müssen, da ansonsten das Training fehlerhaft durchgeführt wird. Liegen die Eingabedaten bereits vor, muss die richtige Neuronenanzahl bestimmt werden. Die Anzahl der Eingabeneuronen ist offensichtlich gleich der Dimension der Eingabedaten, aber die Menge der Ausgabeneuronen ist noch ungeklärt. Hier empfiehlt es sich, durch vorhergehende Tests die passende Größe des Neuronengitters ausfindig zu machen. Ein den selbstorganisierenden Karten verwandtes neuronales Netz sind die Growing Cell Structures, die dieses Problem umgehen, indem sie während des Trainings neue Neuronen bilden bzw. alte Neuronen entfernen können. Ist die Größe des Netzes bestimmt, muss nun die Gewichtsinitialisierung geklärt werden (Schritt(1) im Lernalgorithmus). Es bieten sich zwei Möglichkeiten an, die Gewichtsvektoren festzulegen: entweder man initialisiert die Gewichte zufällig klein, oder man setzt die Gewichtsvektoren alle auf einen festen Wert. Dieser kann laut [Uni04] auch in Abhängigkeit von der Anzahl 1 der Eingabeneuronen stehen, z.b. UI Letztendlich müssen jetzt noch Nachbarschafts- und Lernratenfunktion definiert werden. Durch unterschiedliche Kombinationen der Funktionen lassen sich verschiedene Ergebnisse erzielen, wie folgende Abbildungen zeigen. 9
10 Abbildung 7. 8x8 Kohonenkarte nach zufälliger Initialisierung, 20, 50 und 300 Epochen Abbildung 8. 8x8 Kohonenkarte nach zufälliger Initialisierung, 50, 100 und 300 Epochen Abbildung 7 zeigt die Entfaltung einer selbstorganisierenden Karte mit 8x8 Ausgabeneuronen nach zufälliger Gewichtsinitialisierung, und nach jeweils 20, 50 und 300 eingegebenen Epochen. Als Nachbarschaftsfunktion wurde eine 10
11 Kegelfunktion gewählt. Lernraten- und Distanzfunktion verlaufen jeweils exponentiell. Die Radiusfunktion basiert auf der euklidischen Norm. Zum Vergleich ist in Abbildung 8 die Karte mit veränderten Trainingsparamtern zu sehen. Diesmal wurde als Nachbarschaftsfunktion die Gauss-Kurve und als Lernratenfunktion die Ordering-Phase-Funktion gewählt. Es ist deutlich zu erkennen, dass sich Variante 2 zuerst deutlich langsamer entwickelt als Variante 1. Nach 300 Epochen hat sich die Gauss-Variante jedoch vollkommen entfaltet, wohingegen bei Variante 1 noch leichte topologische Defekte erkennbar sind. 4 Anwendungsbeispiel: das Rundreiseproblem Beim Rundreiseproblem geht es darum, die kürzeste Reiseroute zwischen gegebenen Orten zu bestimmen. Der Berechnungsaufwand steigt mit der Anzahl der Orte exponentiell an. Versucht man dieses Problem mit Hilfe einer selbstorganisierenden Karte zu lösen, wird man feststellen, dass die Lösung zwar keine 100%-ige Lösung darstellt, aber in Relation zum Berechnungsaufwand sehr positiv zu bewerten ist. Jedem Ort wird eine Koordinate zugewiesen, welche an die Eingabeschicht angelegt wird. Es werden also zwei Eingabeneuronen benötigt, die diese an die Kartenschicht weiterleiten. Die daraus entstehenden Gewichtsvektoren der Ausgabeneuronen sind zweidimensional und können ebenfalls als Koordinaten betrachtet werden. Jedes Neuron spiegelt also einen Ort wieder. Die Gewichtsinitialisierung wird so gewählt, dass die Neuronen bei einer Visualisierung der Karte einen Kreis mit möglichst kleinem Radius bilden, da dies den Optimalfall für die Anordnung der Orte darstellt. Abbildung 9. Gewichtsinitalisierung beim Rundreiseproblem Legt man nun die Orts-Koordinaten an die Eingabeschicht an, so passen sich die Verbindungsgewichte der Neuronen immer mehr an diese an. Nach mehreren Iterationen verringert sich der Abstand zwischen den Orten und den zugehörigen Siegerneuronen immer mehr bis letztendlich Orts- und Gewichtskoordinaten nahezu identisch sind. Vor Trainingsbeginn müssen die Neuronen noch durchnumeriert werden, so dass nach Ende des Lernvorgangs nur noch der Numerierung gefolgt werden muss, um die Reiseroute zu erhalten. 11
12 Abbildung 10. Karte nach 1900 Iterationen Laut [Läm01] ließ sich eine Rundreise durch 150 Orte mit 750 Kartenneuronen innerhalb weniger Sekunden in 1900 Schritten berechnen. Abbildung 10 zeigt das Ergebnis dieser Eingaben. Selbstorganisierende Karten lassen sich jedoch nicht nur für das Rundreiseproblem benutzen. Sie finden auch Anwendung in der Robotik, z.b. für die Steuerung eines Roboterarms in der Industrie, dessen Position mit Hilfe zweier Kameras erfaßt und an eine Kohonenkarte übergeben wird. Auch eine Klassifizierung von Daten ist mit einer SOM möglich. Abbildung 11 soll die Topologieerhaltung der selbstorganisierenden Karten verdeutlichen. An die Eingabeschicht einer SOM wurden kodierte Tiermerkmale angelegt und an die Stelle des Siegerneurons das jeweilige Tier gesetzt. Das Ergebnis ist gut zu erkennen: verwandte Tierarten wurden auch in der Karte benachbart angeordnet. Abbildung 11. Karte nach Eingabe von Tiermerkmalen 12
13 Literatur [Uni04] Technische Anwendungen von Selbstorganisierenden Karten, Universität Passau; [Läm01] Uwe Lämmel, Jürgen Cleve: Lehr- und Übungsbuch Künstliche Intelligenz, Fachbuchverlag Leipzig, 2001, ISBN: [Roj93] Raul Rojas: Theorie der neuronalen Netze - Eine systematische Einführung, Springer-Lehrbuch, 1993, ISBN: [Neg01] Michael Negnevitsky: Artificial Intelligence: A Guide to Intelligent Systems, Addison Wesley, Band 1, 2001, ISBN:
Selbstorganisierende Karten
Selbstorganisierende Karten Yacin Bessas [email protected] Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-
Selbstorganisierende Karten
Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales
1 Einleitung. 2 Clustering
Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 [email protected] 1 Einleitung Im Folgenden soll zum einen ein Überblick
Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07
Universität Regensburg Naturwissenschaftliche Informatik Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Cluster-Algorithmen II: Neural Gas Vortragender: Matthias Klein Gliederung Motivation:
Selbstorganisierende Karten
Selbstorganisierende Karten Proseminar Ausgewählte Themen über Agentensysteme 11.07.2017 Institut für Informatik Selbstorganisierende Karten 1 Übersicht Motivation Selbstorganisierende Karten Aufbau &
Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining
Kapitel ML:XII XII. Other Unsupervised Learning Nearest Neighbor Strategies Self Organizing Maps Neural Gas Association Analysis Rule Mining Reinforcement Learning ML:XII-1 Unsupervised Others LETTMANN
Künstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
Selbstorganisierende Karten
Selbstorganisierende Karten Vorlesung Maschinelles Lernen II Dr. Theo Lettmann Oliver Kramer 22. Mai 2006 Überblick Grundlagen SOMs Anwendungen 2D-SOMs Neuronales Gas 2 Grundlagen der Neuronalen Informationsverarbeitung
Selbstorganisierende Karten
Selbstorganisierende Karten Marten Jäger 6. August 2007 Zusammenfassung Selbstorganisierte Karten (SOM ) sind ein unüberwachtes Lernverfahren mit dem Ziel eine topologische Darstellung des Eingaberaums
Kohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120
Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene
Neuronale Netze. Prof. Dr. Rudolf Kruse Christoph Doell, M.Sc.
Neuronale Netze Prof. Dr. Rudolf Kruse Christoph Doell, M.Sc. Computational Intelligence Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik [email protected] Rudolf Kruse
2.4.4 Die Fraktale Dimension
2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die
Maschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
Künstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
Klassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze [email protected] (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten
Fachhochschule Brandenburg Fachbereich Informatik und Medien Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Diplomkolloquium Sven Schröder Aufgabenstellung und Motivation Biologisches
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
Adaptive Resonance Theory
Adaptive Resonance Theory Jonas Jacobi, Felix J. Oppermann C.v.O. Universität Oldenburg Adaptive Resonance Theory p.1/27 Gliederung 1. Neuronale Netze 2. Stabilität - Plastizität 3. ART-1 4. ART-2 5. ARTMAP
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber ([email protected]) S. Nguyen ([email protected]) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
Neuronale Netze. Prof. Dr. Rudolf Kruse
Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik [email protected] Rudolf Kruse Neuronale Netze 1 Lernende Vektorquantisierung
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
Hannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8
Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem
Konvergenz von Hopfield-Netzen
Matthias Jauernig 1. August 2006 Zusammenfassung Die nachfolgende Betrachtung bezieht sich auf das diskrete Hopfield-Netz und hat das Ziel, die Konvergenz des Verfahrens zu zeigen. Leider wird dieser Beweis
6 Neuronale Modellierung: Der STAA-Ansatz
Bernd J. Kröger: Neuronale Sprachverarbeitung (Version 1.0.4) Seite 150 6 Neuronale Modellierung: Der STAA-Ansatz 6.1 Knoten: die STAA-Neuronensembles 6.1.1 Aktivierungslevel, Aktivierungsfunktion und
Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke
Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004
Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron
Thema 3: Radiale Basisfunktionen und RBF- Netze
Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung
Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation
Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Hochdimensionaler Eingaberaum {0,1} Z S quadratisch aufgemalt (zwecks besserer Visualisierung) als Retina bestehend
Künstliche Intelligenz
Künstliche Intelligenz Bearbeitet von Uwe Lämmel, Jürgen Cleve 4., aktualisierte Auflage 2012. Buch. 336 S. ISBN 978 3 446 42758 7 Format (B x L): 18 x 24,5 cm Gewicht: 717 g Weitere Fachgebiete > EDV,
Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie
Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler
5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene
Lernende Vektorquantisierung
Lernende Vektorquantisierung (engl. Learning Vector Quantization) Rudolf Kruse Neuronale Netze 5 Motivation Bisher: festes Lernen, jetzt freies Lernen, d.h. es existieren keine festgelegten Klassenlabels
5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften
5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer
5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
Konzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: [email protected] Was sind Neuronale
Adaptive Resonanztheorie
Adaptive Resonanztheorie Proseminar (ISI) 2005 Abt. Neuroinformatik Moritz Gerlach [email protected] 19. April 2005 1 Einleitung 1.1 Problemstellung Neuronale Netze bestehen aus zu Schichten zusammengefassten
Seminar zum Thema Künstliche Intelligenz:
Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden
BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON
BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe
BÜNDELN VON MUSTERN. Grundlagen der linearen Algebra im Anhang A. Kapitel 1.
Neuronale Netze im Klartext ISBN 3-8273-7071-X 3 BÜNDELN VON MUSTERN Lernziele Einführung in das überwachte Lernen. Sie sollten in der Lage sein: Unüberwachtes Lernen und das Prinzip der Bündelung von
Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser
Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM
Aufbau der Eigenimplementierung
Table of contents 1 2 Aufbau... 2 1.1 Feed Forward Netze...3 1.2 Self Organizing Maps... 5 Training... 6 2.1 Feed Forward Netze...7 2.2 Self Organizing Maps... 8 Nachdem wir uns entschlossen hatten, keine
Einführung. Ablesen von einander zugeordneten Werten
Einführung Zusammenhänge zwischen Größen wie Temperatur, Geschwindigkeit, Lautstärke, Fahrstrecke, Preis, Einkommen, Steuer etc. werden mit beschrieben. Eine Zuordnung f, die jedem x A genau ein y B zuweist,
Lineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: [email protected] (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
Wissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
Neuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
Praktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
Wissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel
Einige überwachte Lernverfahren Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel Funktionsweise eines künstlichen Neurons x w k Neuron k x 2 w 2k net k f y k x n- w n-,k x n w n,k
Neuronale Netze. Seminar aus Algorithmik Stefan Craß,
Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze
Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien
in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???
Methoden zur Cluster - Analyse
Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT
Prof. N. Hungerbühler ETH Zürich, Winter 6 Lösungen zur Prüfung Lineare Algebra I/II für D-MAVT. Hinweise zur Bewertung: Jede Aussage ist entweder wahr oder falsch; machen Sie ein Kreuzchen in das entsprechende
kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze [email protected] (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen
Mit Skalarprodukt und Vektorprodukt lässt sich ein weiteres, kombiniertes Produkt, das Spatprodukt
Mit Skalarprodukt und Vektorprodukt lässt sich ein weiteres, kombiniertes Produkt, das Spatprodukt a ( b c) bilden. Aus der geometrischen Interpretation von Skalarprodukt und Vektorprodukt ist sofort ersichtlich,
Anwenderdokumentation Beleg Neuronale Netze
Anwenderdokumentation Beleg Neuronale Netze Analyse von Bilanzen mit Hilfe von Kohonen-Netzwerken Dresden, Dezember 2002 Thorsten Wolfer Michael Wolf Seminargruppe htw8282 htw8222 ai96 Inhaltsverzeichnis
Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?
Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
7. Vorlesung Neuronale Netze
Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation
Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
5.3.5 Abstiegs & Gradientenverfahren
5.3 Iterative Lösungsverfahren für lineare Gleichungssysteme 5.3.5 Abstiegs & Gradientenverfahren Die bisher kennengelernten Iterationsverfahren zur Approximation von linearen Gleichungssystemen haben
Selbstorganisierende Karten
Selbstorganisierende Karten FH Brandenburg Dipl. Inform. I. Boersch FB Informatik und Medien Dez 13 I. Boersch 1 SOM sind Einfach Leistungsfähig Physiologisch motiviert Anschaulich Dez 13 I. Boersch 2
Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart
Institut für maschinelle Sprachverarbeitung Universität Stuttgart [email protected] Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle
Neuronale Neize. Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke ADDISON-WESLEY PUBLISHING COMPANY
Helge Ritter/Thomas Marrineiz/Klaus Schulten Neuronale Neize Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke Technische Hochschule Darmstadt FACHBEREICH INFORMATIK B! B k±ojjtlus
Neuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
TD-Gammon. Michael Zilske
TD-Gammon Michael Zilske [email protected] TD-Gammon Ein Backgammon-Spieler von Gerald Tesauro (Erste Version: 1991) TD-Gammon Ein Neuronales Netz, das immer wieder gegen sich selbst spielt und dadurch
Simulation neuronaler Netzwerke mit TIKAPP
Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?
Neuronalen Netzen. Jens Lehmann. 1. März Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden
Institut für Künstliche Intelligenz Fakultät Informatik Technische Universität Dresden 1. März 2005 Neurosymbolische Integration versucht künstliche neuronale Netze und Logikprogrammierung zu vereinen
3.6 Eigenwerte und Eigenvektoren
3.6 Eigenwerte und Eigenvektoren 3.6. Einleitung Eine quadratische n n Matrix A definiert eine Abbildung eines n dimensionalen Vektors auf einen n dimensionalen Vektor. c A x c A x Von besonderem Interesse
Vortrag 20: Kurze Vektoren in Gittern
Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die
Einfaches Framework für Neuronale Netze
Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.
Abstände und Zwischenwinkel
Abstände und Zwischenwinkel Die folgenden Grundaufgaben wurden von Oliver Riesen, KS Zug, erstellt und von Stefan Gubser, KS Zug, überarbeitet. Aufgabe 1: Bestimme den Abstand der beiden Punkte P( 3 /
Lineare Funktionen. Aufgabe 1. Sei f R 2 R definiert durch. x 1 + 3x Beweisen Sie ausführlich, dass f linear ist.
Lineare Funktionen Aufgabe. Sei f R R definiert durch x f = x x + 3x. Beweisen Sie ausführlich, dass f linear ist. Aufgabe. Die Funktionen (nicht erschrecken sind definiert durch + ( (R n R m (R n R m
Outline. SOMs und verwandte Verfahren. Self-Organizing Map. Outline... Self-Organizing Map. Self-Organizing Map. Architektur:
SOMs und verwandte Verfahren VU Selbst-Organisierende Systeme SOMs und verwandte Verfahren Andreas Rauber http://wwwifstuwienacat/~andi (SOM) (SOM) Physiologische Grundlagen Architekturen Trainingsprozess
