Anleitung zum Praktikum Neuroinformationsverarbeitung - Wintersemester 2016/2017
|
|
- Sofie Hartmann
- vor 5 Jahren
- Abrufe
Transkript
1 Anleitung zum Praktikum Neuroinformationsverarbeitung - Wintersemester 26/27 EINLEITUNG. Sinn und Zweck des Praktikums Neuroinformationsverarbeitung Das Praktikum soll dazu dienen, die in der Vorlesung behandelten Standardnetzwerke auf vorgegebene Problemstellungen zur Musterklassifikation anzuwenden und dabei sowohl das Verständnis der Netze zu vertiefen als auch praktische Erfahrungen beim Einsatz der Netzwerke zu sammeln. Das Vorlesungsmaterial bildet die theoretische Basis für die Anwendung der Netzwerke. Es ist von Vorteil, den enstprechenden Stoff zur Praktikumsvorbereitung zu wiederholen. Nach der Bedienungsanleitung werden die Aspekte des Praktikums beschrieben, die von den in der Vorlesung behandelten Methoden abweichen bzw. diese ergänzen..2 Was ist der JavaNNS? Die Entwicklung des SNNS (Stuttgart Neural Network Simulator), der die Basis für den JavaNNS bildet, wurde Ende der 8er Jahre an der Universität Stuttgart begonnen und umfaßte zunächst ausschließlich Feedforward-Netzwerke. Bis etwa 994 wurden sukzessive fast alle der heute bekannten Netzwerkparadigmen in den SNNS integriert. Der SNNS gehört zu den weltweit am häufigsten eingesetzten Simulatoren für Neuronale Netzwerke. Implementiert wurde der SNNS in C/C++ für Unix bzw. Linux. Um den SNNS auch unter verschiedenen Windowsbetriebssystemen zu nutzen, wurde 2 mit einer Java- Kapselung der wichtigsten SNNS-Funktionen begonnen und 22 abgeschlossen. Im Vergleich zu vielen anderen Simulatoren für Neuronale Netze bietet der SNNS/JavaNNS die Möglichkeit, viele Aspekte der Verarbeitung innerhalb der Netzwerke, wie Aktivierungsund Ausgabefunktionen, Gewichte, Fehlergrafen, Trainingsparameter, Aktivierungsprojektionen etc. zu konfigurieren und zu visualisieren. Dies macht ihn zu einem sehr sinnvollen Simulator für die Lehre. Hinweis: Es ist unbedingt darauf zu achten, daß die Bedienungshinweise und vorgegebenen Abläufe eingehalten werden. Da der JavaNNS wesentlich mehr Möglichkeiten der Netzwerksimulation bietet, als für das Praktikum benötigt werden, ist die Gefahr der Fehlbedienung (sinnlose Parametereinstellungen, falsche Aktivierungs, Lern- oder Initialisierungsfunktionen etc.) sehr groß, was entweder zu nicht interpretierbaren Ergebnissen, massenhaften Fehlermeldungen (Kernel- Error) bzw. im worst case zum Simulatorabsturz führt. Um einen reibungslosen Ablauf zu sichern, bitte keine Buttons betätigen, die nicht explizit in der vorliegenden Anleitung erklärt sind. Es ist unbedingt darauf zu achten, dass alle Fenster nur mit dem jeweiligen Done- Button geschlossen werden dürfen, ansonsten besteht die Gefahr eines Totalabsturzes des JavaNNS. 2 BEDIENUNGSANLEITUNG JAVANNS Zum Starten des JavaNNS bitte folgende Hinweise beachten: Linux: entpacken der Datei JavaNNS-LinuxIntel.tar.gz ausführen der JavaNNS.jar alternativ "java -jar JavaNNS.jar" Windows HTW (Praktikumslabor): entpacken der Datei JavaNNS-Win_HTW.zip ausführen der Datei Start.bat (nutzt installierte Java JRE 32 Bit) Das graphische Nutzerinterface unterstützt alle Funktionen, die für die Netzwerksimulation notwendig sind. Nachfolgend werden alle Fenster und deren Funktionen, soweit sie für das Praktikum eine Rolle spielen, vorgestellt. An dieser Stelle nochmals der Hinweis, dass nur die Funktionen, die in der Anleitung explizit erklärt sind, verwendet werden sollten. 2. Hauptfenster Nach dem Start des Simulators erscheint folgendes Hauptfenster: Abbildung zeigt das Hauptfenster des SNNS. Über dieses Fenster werden die Generierung von Netzwerken, das Laden und Speichern von Netzwerken bzw. Daten und die Visualisierung des Netzwerks sowie der Fehlerverläufe realisiert. Das dargestellte Default-Fenster
2 2 Aktivierungsfunktion _ x Gewichtsvektor w Berechnung des internen Zustandes z & Anwendung einer u.u. nichtlinearen Übertragungsfunktion Ausgabefunktion _ y Figure 3. Modell des formalen Neurons im JavaNNS Figure. Hauptfenster des JavaNNS Figure 2. Laden und Speichern von Datensätzen und Netzwerken übernimmt die Visualisierung des aktuell verwendeten Netzwerk-Topologie. 2.2 Laden und Speichern von Daten und Netzwerken Der JavaNNS bietet die Möglichkeit, Daten und komplette Netzwerke (inkl. der entsprechenden Parameter) zu laden und zu speichern. Die nachfolgende Abbildung 2 illustriert dies. Die Dateiendungen geben an, ob es sich um ein Patternfile (*.pat) oder um ein Netzwerk (*.net) handelt. Beim Speichern eines Netzwerkes ist es hilfreich, wenn aussagekräftige Namen verwendet werden, die den Typ, die Topologie und die Abbildung, für die das Netzwerk trainiert wurden, beinhalten. Bei einem MLP- Netzwerk, das für die Lösung des Doppelspiralproblems mit 2 Eingabe-, zwei Hiddenschichten mit 25 bzw. Neuronen und einer aus einem Neuron bestehenden Ausgabeschicht trainiert wurde, lautet der Name dann: MLP_2_25 spiral.net. 2.3 Erstellen von Netzwerken vom Typ Multilayer- Perceptron und RBF-Netzwerk Zum Erstellen von Netzwerken legt man ebenenweise Neuronen an. Über die Abfolge Tools -> Create - > Layers legt man die einzelnen Ebenen (von links nach rechts darsgestellt im Default-Fenster) an. Begonnen wird mit der Inputschicht, danach folgen ggfs. notwendige Hiddenschichten, und den Abschluss bildet die Ausgabeschicht. Dimensionen (Knotenanzahl) von Ein- und Ausgabeschicht werden durch die vorgegebenen Datensätze bestimmt. Ob und in welchem Umfang Hiddenschichten notwendig sind, hängt vom jeweiligen Problem bzw. von der Komplexität des vorliegenden Abbildungsproblems ab Implementierung des formalen Neuronenmodells im JavaNNS Im Gegensatz zu der in der Lehrveranstaltung verwendeten Modellierung fasst das formale Neuronenmodell des JavaNNS die Berechnung von Aktiviserungs- und Transfer(Übertragungs)funktion in einem Schritt zusammen (siehe Abbildung 3). Die Ausgabefunktion, die im Rahmen des Praktikums IMMER die Identitätsfunktion darstellt, erlaubt eine zusätzliche Modifizierung der Neuronenausgabe, was aber für die Zwecke des Praktikums nicht benötigt wird Neuronenfunktionen beim MLP-Netzwerk Beim ebenenweisen Editieren der Neuronen zur Erstellung eines Netzwerks wird festgelegt, ob es sich um Eingabe-, Hidden- oder Ausgabeneuronen handelt. Zuständig für diese Zuweisung ist die Einstellung des Neuronentyps (unit type). Standardmäßig verwendet der JavaNNS immer eine Zustandsfunktion durch die Bildung des Skalarprodukts von Eingabe- und Gewichtsvektor. Im Fenster activation function muss dann bei den Eingabeneuronen die Funktion act_identity und bei Hidden- und Ausgabeneuronen entsprechend die Funktion act_logistic ausgewählt werden, die die in der Lehrveranstaltung
3 3 Figure 4. Einstellung der Knotenfunktionen beim MLP- Netzwerk für Input- (oben) und Hidden- bzw. Outputneuronen (unten) stets verwendete Sigmoidfunktion implementiert. Die Ausgabefunktion bleibt stets unverändert. Zur Verdeutlichung dient Abbildung 4. Bei den im Praktikum verwendeten Netzwerken (sowohl MLP als auch RBF) wird der Bias für die entsprechenden Netzwerkknoten vom Simulator automatisch erzeugt. Es muss also kein separater Bias- Knoten angelegt werden. Die simulatorinterne Behandlung des vom Biasknoten kommenden Gewichtes, welches als Schwellwert für das entsprechende Neuron dient, erfolgt genau so wie in der Vorlesung bzw. Übung behandelt Neuronenfunktionen beim RBF-Netzwerk Die Einstellung der Knotenfunktionen beim RBF- Netzwerk verdeutlicht Abbildung 5. Die für die Knoten der RBF(Hidden)schicht einzustellende Aktivierungsfunktion act_rbf_gaussian realsiert sowohl die Berechnung des euklidischen Abstandes zwischen Eingabeund Gewichtsvektor als auch die Berechnung der Aus- Figure 5. Netzwerk Einstellung der Knotenfunktionen beim RBF-
4 4 Figure 6. Einstellung zum Generieren eines ebenenweise vollvernetzten Feedforward-Netzwerks gabe durch die Anwendung der Gaussfunktion genau so wie in der Vorlesung behandelt Verbindungen (Links, Gewichte) zwischen den Knotenebenen Im Praktikum sind die verwendeten Feedforward- Netzwerke immer ebenenweise vollvernetzt, d.h. es existiert jeweils ein Gewichtsparameter von einem Knoten der Schicht l zu einem Knoten der nachfolgenden Ebene l+ (siehe Abbildung 6). Figure 7. Netzwerk Initialisierung von MLP- (oben) und RBF- 2.4 Vorgabe der Initialisierungs- und Trainingsparameter bei MLP- und RBF-Netzwerk Entsprechend den in der Vorlesung behandelten Netzwerktypen müssen die Trainingsparameter korrekt eingestellt werden. Deren Eingabe erfolgt über das Control Panel, das man via Menu-Button Tools öffnet Initialisierungsparameter bei MLP- und RBF- Netzwerk Das MPL-Netzwerk wird mittels der Initialisiserungsfunktion Random Weights mit zufälligen Gewichtsparametern aus dem eingestellten Wertebereichsintervall initialisiert. Wählt man für die obere und untere Intervallgrenze den gleichen Wert, bekommen alle Parameter diesen Wert zugewiesen. Beim RBF-Netzwerk nutzt man die Initialisiserungsfunktion RBF Weights. Dabei ist lediglich der bias- Parameter relevant, der die Varianz der Gaußfunktion, die für alle RBF-Knoten gleich initialisiert wird, repräsentiert. Zu beachten ist, dass eine Verkleinerung des bias-parameters zu einer Vergrößerung der Varianz führt und umgekehrt. Beide Aspekte illustriert Abbildung Trainingsparameter bei MLP- und RBF-Netzwerk Das verwendete Trainingsverfahren wird im Menü Learning function ausgewählt. Beim MLP-Netzwerk werden Backpropagation, was den Modus des Direct Learning implementiert, und Batch Backpropagation genutzt. Eta gibt die für alle Parameter gültige Lernrate/Schrittweite an, dmax den Abstand zwischen Teachvorgabe und tatsächlichem Ausgang, ab dem die Ausgabe als korrekt angesehen wird und kein Lernen (Adaption der Netzwerkparameter) mehr erfolgt. Beim RBF-Netzwerk stellen Eta/2 die Lernraten für die Anpassung der Gaußfunktionen, die durch die RBF-Neuronen realisiert werden, dar. Diese werden auf den Wert gesetzt! Hinter weights verbirgt sich die Lernrate zur Anpassung der Gewichte von der RBF- zur Ausgabeschicht. Parameter Cycles gibt an, wie oft der Datensatz zum Training des Netzwerks durchlaufen wird (Trainingsepochen). Parameter Steps verbleibt unverändert auf dem Wert. Zur Illustration dient Abbildung Darstellung des Fehlerverlaufs während des Trainingsprozesses Mit Hilfe des Error Graph (Abbildung 9), der über den Button View ausgewählt werden kann, lässt sich der Fehlerverlauf während des Trainingsprozesses visualisieren. Die Achsen der Darstellung sind skalierbar, ebenso lassen sich verschiedene Fehlermaße einstellen Projektion Möchte man den Aktivierungsverlauf eines Neurons über der Eingabeebene darstellen, nutzt man die Funktion Projection, der ebenfalls über den Button View ausgewählt wird. Wichtig ist dabei, dass die entsprechenden Neuronen VOR der Auswahl des Projektionsfensters in der grafischen Ansicht des Netzwerks
5 5 Figure 8. Trainingsparameter von MLP- (links) und RBF- Netzwerk Figure. Oben: markierte Neuronen (gelb). Unten: Aktivierungsverlauf des Ausgabeneurons über der Eingabeebene # Patternfile: or.pat No. of patterns : 4 No. of input units : 2 No. of output units : Figure 9. Error Graph markiert wurden (ctrl + linke Maustaste), wie dies die Abbildung verdeutlicht. 3 BESCHREIBUNG DER DATENSÄTZE 3. Format der Pattern-Files Am Beispiel der Datei or_train.pat soll das Fileformat der SNNS-Patternfiles kurz erläutert werden, wobei Modifikationen an den Patternfiles im Rahmen des Praktikums nicht vorgesehen sind. SNNS pattern definition file V3.2 generated at Mon Jul 2 6:3:4 997 # Input pattern : # Output pattern : # Input pattern 2: # Output pattern 2: # Input pattern 3: # Output pattern 3: # Input pattern 4: # Output pattern 4: 3.2 Datensätze für die lineare Klassifikation Die Patternfiles and_train.pat und or_train.pat enthalten die Trainingsdaten für die AND-bzw. OR-Abbildung. Anhand dieser beiden Abbildungsprobleme soll der Umgang mit dem Simulator geübt werden. Die Verteilung der Eingangsmuster und die dazugehörigen Klassenzugehörigkeiten sind in Abbildung dargestellt. Die Ausgabe wird in einem einzigen Neuron kodiert, welches für die eine Klasse eine und für die andere Klasse entsprechend eine Null als Ausgabewert aufweisen soll.
6 6 x x x Figure. Trainingsdaten für AND/OR-Abbildung: + entspricht Ausgabe, x entspricht Ausgabe x x Figure 2. Trainingsdaten für XOR-Abbildung: + entspricht Ausgabe, x entspricht Ausgabe Datensätze für die nichtlineare Klassifikation 3.3. XOR-Abbildung Das Patternfile xor_train.pat enthält die Trainingsdaten für die XOR-Abbildung. Die Verteilung der Eingangsmuster und die dazugehörigen Klassenzugehörigkeiten sind in Abbildung 2 dargestellt. Die Ausgabe wird in einem einzigen Neuron kodiert, welches für die eine Klasse eine und für die andere Klasse entsprechend eine Null als Ausgabewert aufweisen soll Klassen-Abbildungen Die Patternfiles 4kl_train.pat, 4klbin_train.pat, 4kl2_train.pat, 4kl2bin_train.pat und 4kl3_train.pat enthalten die Trainingsdaten für verschiedene Realisierungen einer 4-Klassen-Abbildung. Die Beispiele in 4kl/2_train.pat und 4kl/2bin_train.pat unterscheiden sich lediglich in der Art der Kodierung der Klassen (-aus-n-kodierung bzw. Binärkodierung mit 4 bzw. 2 Ausgabeneuronen). Die Verteilung der Eingangsmuster und die dazugehörigen Teacherwerte, die die gewünschte Netzausgabe beinhalten, sind in den Abbildungen 3und 4 dargestellt Doppelspirale Abbildung 5 zeigt die Datenverteilung eines Benchmark-Datensatzes, der zum Vergleich verschiedener Klassifikatoren verwendet wird. Man erkennt, dass es sich um ein kompliziertes Abbildungsproblem handelt, da sich die Entscheidungsregionen, die das Netzwerk ausprägen muss, sehr stark gegenseitig umschließen. Die Ausgabe wird in einem einzigen Neuron kodiert, welches für die eine Klasse eine und für die andere Klasse entsprechend eine Null als Ausgabewert aufweisen soll Figure 3. Trainingsdaten für 4-Klassen-Abbildung 4kl(oben)/4kl2(unten): die grafischen Symbole kodieren die 4 Klassenzugehörigkeiten x Figure 4. Trainingsdaten für 4-Klassen-Abbildung 4kl3: die grafischen Symbole kodieren die 4 Klassenzugehörigkeiten
7 7 x x Figure 5. Trainings- (oben) und Validierungsdaten (unten) der Doppelspiral-Abbildung: + entspricht Ausgabe, x entspricht Ausgabe 4 AUFGABEN ZUM PRAKTIKUM 4. Teil - Perceptron- & Multilayer-Perceptron- Netzwerk 4.. Lernen der logischen Abbildungen AND/OR/XOR Bearbeiten Sie die folgenden Aufgaben möglichst in der angegebenen Reihenfolge. Aufgabe Erstellen Sie ein Netzwerk mit minimaler Topologie (Anzahl der Schichten und Knotenzahl), das die logische AND-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz and_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Erstellen Sie ein Netzwerk mit minimaler Topologie (Anzahl der Schichten und Knotenzahl), das die logische OR-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz or_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Aufgabe Erstellen Sie ein Netzwerk mit minimaler Topologie (Anzahl der Schichten und Knotenzahl), das die logische XOR-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz xor_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Aufgabe 4 Nutzen Sie das in Aufgabe 3 generierte Netzwerk und initialisieren Sie das Netzwerk so, dass das Training für alle Parameter mit einem identischen Wert (z.b. Null) begonnen wird. Geben Sie dazu bei der Angabe des Initialisierungsintervall im control panel identische Werte für die obere und untere Intervallgrenze an. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen. Kann das Netzwerk mit dieser Initialiiserung die gegebene XOR-Abbildung erlernen? Diskutieren Sie anhand der Projektion von der Eingabe- auf die Neuronen der Hiddenschicht des Netzwerks, was die Ursache dafür ist Lernen der 4-Klassen-Abbildungen Bearbeiten Sie die folgenden Aufgaben möglichst in der angegebenen Reihenfolge. Aufgabe Entwerfen und trainieren Sie für alle 3 gegebenen Abbildungen jeweils MLP-Netzwerke. Verwenden Sie dabei die Datensätze 4kl_train.pat, 4kl2_train.pat und 4kl3_train.pat. Die Ausgabeschicht besteht hier aus 4 Neuronen, jeweils ein Neuron pro Klasse (Eins-aus- N-Kodierung). Versuchen Sie, das jeweilige Problem mit möglichst minimalen Netzwerken und minimalem Trainingsaufwand zu lösen! Nutzen Sie dazu die Datensätze 4klbin_train.pat und 4kl2bin_train.pat. Im Vergleich zu den in Aufgabe verwendeten Datensätzen wird die Netzwerkausgabe nicht mit einer Eins-aus-N-Kodierung (jeweils ein Ausgabeneuron pro Klasse), sondern durch eine Binärkodierung an den beiden Ausgabenueronen kodiert (also 2 Neuronen in der Ausgabeschicht). Untersuchen Sie, welchen Einfluss die Kodierung der Ausgabeklassen auf den Trainingsprozess hat! Interpretieren Sie diesen Effekt im Hinblick auf die praktische Anwendung des Netzwerks. Aufgabe 3 Untersuchen Sie, welchen Einfluss die Kodierung der Wertebereiche der Eingangskomponenten auf den Trainingsprozess hat! Nutzen Sie dazu den Datensatz 4kl3_train.pat. Erzeugen Sie ein MLP-Netzwerk mit möglichst optimaler Topologie und dokumentieren Sie den Trainingsverlauf durch die Darstellung des Error Graphen. Welchen Effekt beobachten Sie im Vgl. zu den Trainingsverläufen aus Aufgabe? Interpretieren Sie diesen Effekt im Hinblick auf die praktische Anwendung des Netzwerks. Aufgabe 4
8 8 Figure 6. Einstellungen im control panel zur parallelen Nutzung von Trainings- und Validierungsdaten Figure 8. Parametereinstellungen für RProp im Control Panel Figure 7. Verlauf von Trainings-(schwarz) und Validierungsfehler (rot) Trainieren Sie ein MLP mit dem Datensatz 4kl_train.pat und stellen Sie Lernrate auf einen Wert größer gleich 7 ein! Welcher Effekt lässt sich beobachten? 4..3 Lernen der Doppelspiralabbildung Alle Datensätze zum Doppelspiralproblem enthalten jeweils 94 Datenpunkte. Aufgabe Welche Struktur (Topologie) muß ein MLP aufweisen, damit es das Doppelspiralproblem überhaupt lösen kann? Entwerfen Sie eine entsprechende Netzwerk- Topologie (Anzahl Hiddenschichten; Neuronen pro Schicht)! Trainieren und validieren Sie das in Aufgabe entworfene Netzwerk! Nutzen Sie zum Training den Datensatz spiral_train.pat, zum Validieren den Datensatz spiral_valid.pat. Abbildung 7illustriert die dazu notwendigen Einstellungen im control panel. Dabei kann festgelegt werden, nach wie vielen Trainingsepochen ein Durchlauf durch den Validierungsdatensatz erfolgt (im Beispiel alle Trainingsepochen). Beide Fehlerverläufe werden im Error Graphen angezeigt (Abbildung 7) Training von MLP-Netzwerken mit RProp Wiederholen Sie zunächst die Funktionsweise der Trainingsmethode Resilient Backprpagation (RProp), die in der Vorlesung vorgestellt wurde. Bei deren Anwendung geht es darum, die Konvergenz des Trainings zu beschleunigen und dabei trotzdem gute Generalisierungseigenschaften zu erhalten. Besonders gut kann man diese Aufgabenstellung bei der Lösung des Doppelspiralproblems verdeutlichen. Aufgabe Trainieren Sie dazu im ersten Schritt ein MLP- Netzwerk, dass die Doppelspirale möglichst gut approximiert. Eine geeignete Topologie wurde dazu bereits im Abschnitt 4..3erarbeitet. Ein Maß für gute Generalisierung ist der Validierungsfehler, der ebenso wie der Trainingsfehler möglichst klein ausfallen soll. Notieren Sie nach erfolgreichem Trainingsverlauf die Anzahl der benötigten Trainingsepochen und schätzen Sie ebenfalls anhand des Error-Graphen die erreichten Werte von Trainings- und Validierungsfehler ab. Trainieren Sie das Netzwerk aus Aufgabe erneut mittels RProp. Die dazu notwendigen Parametereinstellungen werden in Abbildung 8veranschaulicht. Delta_null gibt den Initialwert, Delta_max den Maximalwert der Schrittweite pro Parameter an. Der dritte Parameter Alpha wird genutzt, um den Grad des Weight Decay zu steuern. Implementiert wird dies über die Vorschrift hoch minus Alpha. Je größer Alpha gewählt wird, umso kleiner wird also der Einfluss des Weight Decay auf den Trainingsprozess. Während die Parameter Delta_max und Delta_null unverändert belassen werden können, experimentieren Sie mit einem Parameterbereich von Alpha von bis. Beobachten Sie dabei die Verläufe von Trainings- und Validierungsfehler und diskutieren Sie die Ergebnisse Training von MLP-Netzwerken mit Momentum- Term Abbildung 9zeigt die Parametereinstellungen, nachdem man Backpropagation-Momentum als Learning
9 9 Figure 9. Parametereinstellungen für Backprop mit Momentum im Control Panel Figure 2. Einstellungen für die Initialiserung eines RBF- Netzwerks Function ausgewählt hat. Eta ist wieder die Schrittweite/Lernrate (hier wieder einheitlich für alle Parameter!), µrepräsentiert den eigentlichen Momentum-Term, und c stellt einen Parameter dar, mit dem eine sogenannte Flat Spot Elimination erreicht wird. Dabei wird eine sehr kleine Gewichtsänderung ab einem Minimalwert durch den Wert, der in diesem Parameterfenster eingetragen ist, ersetzt. Aufgabe Auch hier beschränken wir uns auf die Lösung des Doppelspiralproblems. Trainieren Sie das MLP-Netzwerk aus Aufgabe 4..3bzw. 4..4mittels Backpropagation-Momentum-Verfahren. Variieren Sie dabei die drei Trainingsparameter und versuchen Sie, eine Parameterkonstellation zu finden, mit der das Training schnell konvergiert (kleine Zahl an Trainingsepochen) und das trainierte Netzwerk gute Generalisierungseigenschaften aufweist. Diskutieren Sie die erreichten Ergebnisse. 4.2 Training von RBF-Netzwerken Beim Entwurf der RBF-Netzwerke gehen wir immer so vor, dass die Anzahl der gegebenen Beispieldaten der Anzahl der Knoten innerhalb der RBF-Schicht entspricht. In diesem Fall spricht man davon, dass das RBF- Netzwerk mit der RBF-Schicht die gegebenen Datenpunkte exakt approximiert! Initialisieren Sie in allen nachfolgenden Aufgaben das Netzwerk, wie dies in Abbildung 2dargestellt ist. Dabei ist ausschließlich der Parameter Bias für das Praktikum relevant (alle anderen Parameter auf ihren Voreinstellungen belassen!). Mit dem Bias lässt sich die Varianz der Gaußfunktionen der RBF-Knoten steuern. Zu beachten ist, dass die für alle RBF-Knoten einheitliche Varianz durch die Vorschrift Eins dividiert durch Bias implementiert ist. Erhöht man den Bias, verringert sich entsprechend die Varianz, verringert man diesen, wird die Varianz größer. Weiterhin gilt es zu bedenken, dass die geeignete Wahl der Varianz (bzw. des Bias) für die Generalisierungseigenschaften des Netzwerks eine wesentliche Rolle spielt. Die einzustellenden Parameter/Funktionen für Figure 2. Knotenfunktionen der RBF-Schicht die Neuronen der RBF-Schicht sind an Abbildung 2dargestellt. Nach erfolgter Initialisierung bleiben die Parameter für das Training der Parameter der RBF-Knoten unverändert, was mit einem Eintrag von Null in den entsprechenden Parameterfenstern erfolgt (siehe Abbildung 8). und variieren Sie dabei den Parameter, der die Varianz der Aktivierungsfunktionen der RBF- Knoten festlegt!was beobachten Sie, wenn Sie sich die Aktivierung der RBF-Knoten für die Eingabemuster anschauen, in Abhängigkeit von diesem Parameter? Nutzen Sie zum Training der RBF-Netzwerke analog zum Training der MLP-Netzwerke die entsprechenden Daten-Files! 4.2. Lernen der logischen Abbildungen AND/OR/XOR Bearbeiten Sie die folgenden Aufgaben möglichst in der angegebenen Reihenfolge. Aufgabe Erstellen Sie ein RBF-Netzwerk mit entsprechender Topologie, das die logische AND-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz and_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht
10 des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Erstellen Sie ein Netzwerk mit entsprechender Topologie (Anzahl der Schichten und Knotenzahl), das die logische OR-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz or_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Aufgabe 3 Erstellen Sie ein Netzwerk mit entsprechender Topologie (Anzahl der Schichten und Knotenzahl), das die logische XOR-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz xor_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Welche Struktur (Topologie) sollte ein RBF-Netzwerk aufweisen, damit es das Doppelspiralproblem überhaupt lösen kann? Entwerfen Sie eine entsprechende Netzwerk-Topologie (Anzahl Neuronen der RBF- Schicht)! Trainieren und validieren Sie das in Aufgabe entworfene Netzwerk! Nutzen Sie zum Training den Datensatz spiral_train.pat, zum Validieren den Datensatz spiral_valid.pat. Ermitteln Sie, welchen Wert der Bias- Parameter (Varianz der RBF-Knoten) aufweisen sollte, damit gute Generalisierungseigenschaften erwartet werden können! Lernen der 4-Klassen-Abbildungen Bearbeiten Sie die folgenden Aufgaben möglichst in der angegebenen Reihenfolge. Aufgabe Entwerfen und trainieren Sie für alle 3 gegebenen Abbildungen jeweils RBF-Netzwerke. Verwenden Sie dabei die Datensätze 4kl_train.pat, 4kl2_train.pat und 4kl3_train.pat. Die Ausgabeschicht besteht hier aus 4 Neuronen, jeweils ein Neuron pro Klasse (Eins-aus-N- Kodierung). Nutzen Sie dazu die Datensätze 4klbin_train.pat und 4kl2bin_train.pat. Im Vergleich zu den in Aufgabe verwendeten Datensätzen wird die Netzwerkausgabe nicht mit einer Eins-aus-N-Kodierung (jeweils ein Ausgabeneuron pro Klasse), sondern durch eine Binärkodierung an den beiden Ausgabenueronen kodiert (also 2 Neuronen in der Ausgabeschicht). Untersuchen Sie, welchen Einfluss die Kodierung der Ausgabeklassen auf den Trainingsprozess hat! Interpretieren Sie diesen Effekt im Hinblick auf die praktische Anwendung des Netzwerks! Aufgabe 3 Untersuchen Sie, welchen Einfluss die Kodierung der Wertebereiche der Eingangskomponenten auf den Trainingsprozess hat! Nutzen Sie dazu den Datensatz 4kl3_train.pat. Erzeugen Sie ein RBF-Netzwerk und dokumentieren Sie den Trainingsverlauf durch die Darstellung des Error Graphen. Welchen Effekt beobachten Sie im Vgl. zu den Trainingsverläufen aus Aufgabe? Interpretieren Sie diesen Effekt im Hinblick auf die praktische Anwendung des Netzwerks Lernen der Doppelspiralabbildung Alle Datensätze zum Doppelspiralproblem enthalten jeweils 94 Datenpunkte. Aufgabe
Anleitung zum Praktikum Künstliche Neuronale Netze. Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik
Anleitung zum Praktikum Künstliche Neuronale Netze Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik Inhaltsverzeichnis Einleitung 2. Sinn und Zweck des Praktikums KNN........................
MehrWeitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff
Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrNeuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrNeuronale Netze Aufgaben 3
Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrTraining von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
MehrAnleitung zum Applet
Anleitung zum Applet Visualisierung des Begriffs erwartungstreu bearbeitet von: Edwin Rohr WS 2004/2005 E/TI - 7 betreut von: Prof. Dr. Wilhelm Kleppmann Edwin Rohr - 1 - Inhaltsverzeichnis 1 Vorwort..
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrNeuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
MehrEinführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt
Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen
MehrNeuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate...
Neuro-Info Notizen Marus Klemm.net WS 6/7 Inhaltsverzeichnis Hebbsche Lernregel. Fälle........................................ Lernrate..................................... Neural Gas. Algorithmus.....................................
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen
MehrGesichtserkennung mit MemBrain. - GIMP starten (ggf. eignen sich auch andere Programme dazu) und ein einzelnes Foto der Trainingsdaten
Gesichtserkennung mit MemBrain A. Daten erheben 1. Eure Gruppe erhält einen Ordner mit den Trainingsdaten (9 Bilder von insgesamt 3 Personen) und einen Ordner mit den Testdaten (3 Bilder von insgesamt
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrEinfaches Framework für Neuronale Netze
Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.
MehrTechnische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrRadiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120
Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrSelbstorganisierende Karten
Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrDatenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?
Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic
MehrKlassifikationsverfahren und Neuronale Netze
Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrGrundlagen zu neuronalen Netzen. Kristina Tesch
Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen
Mehr6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
MehrSTACK Mathematische Aufgaben mit ILIAS testen (Ein Frage-Typ im ILIAS-Objekt Test)
STACK Mathematische Aufgaben mit ILIAS testen (Ein Frage-Typ im ILIAS-Objekt Test) Inhalt: Einleitung Vorteile von STACK-Fragen Beispielaufgabe Generierung einer Zufallsfrage 1. Einleitung Der elektronische
MehrSchwellenwertelemente. Rudolf Kruse Neuronale Netze 8
Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
MehrNeuroinformatik. Übung 1
Neuroinformatik Übung 1 Fabian Bürger Raum: BC419, Tel.: 0203-379 - 3124, E-Mail: fabian.buerger@uni-due.de Fabian Bürger (fabian.buerger@uni-due.de) Neuroinformatik: Übung 1 1 / 27 Organisatorisches Neuroinformatik:
MehrErstellen von graphischen Ausgaben
Erstellen von graphischen Ausgaben Dieses Tutorial behandelt den Postprocessor von DELPHIN 5. Dieser ist auch in DELPHIN 6 enthalten und kann im Dialog >> Edit >> Preferences >> External Tools: External
MehrImplementationsaspekte
Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrEinige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel
Einige überwachte Lernverfahren Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel Funktionsweise eines künstlichen Neurons x w k Neuron k x 2 w 2k net k f y k x n- w n-,k x n w n,k
MehrVirtuelles Labor für Neuronale Netze
Universität Zürich / Wintersemester 2001/2002 Semesterarbeit Virtuelles Labor für Neuronale Netze vorgelegt von Rolf Hintermann, Dielsdorf, ZH, Schweiz, Matrikelnummer: 98-706-575 Angefertigt am Institut
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
MehrStatistical Learning
Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap
MehrKapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp
Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.
Mehr3 Geoverarbeitung mit dem ModelBuilder
3.1 Der ModelBuilder in ArcGIS Mit dem ModelBuilder können schematisch und mithilfe von Grafiken Arbeitsabläufe mit den Werkzeugen von ArcGIS erstellt und bearbeitet werden. Ein solcher Arbeitsablauf (Workflow)
MehrAnleitung zum Applet
Anleitung zum Applet Vertrauensbereich für den Mittelwert bearbeitet von: WS 2004/2005 E/TI-7 betreut von: Prof. Dr. Wilhelm Kleppmann Inhaltsverzeichnis 1 Vorwort...3 2 Graphische Benutzeroberfläche...4
Mehr1 Einleitung. 2 Clustering
Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick
Mehr6.2 Feed-Forward Netze
6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir
MehrDesign und Implementierung eines Tools zur Visualisierung der Schaltfunktionsminimierung
Design und Implementierung eines Tools zur Visualisierung der Schaltfunktionsminimierung mit KV-Diagrammen Design and implementation of an e-learning tool for minimization of boolean functions based on
MehrGrundlagen neuronaler Netzwerke
AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)
MehrEinsatz von CAS im Mathematikunterricht Klasse 8
Einsatz von CAS im Mathematikunterricht Klasse 8 Beispiele für den Einsatz des Voyage 200 im Lernbereich 3 Funktionen und lineare Gleichungssysteme Darstellungsformen von Funktionen Eigenschaften ganz-
MehrCLB Simulator. Inhaltsverzeichnis. Marcel Viehmeier. 30. Oktober Version 1.0.1
CLB Simulator Marcel Viehmeier 30. Oktober 2012 Version 1.0.1 Inhaltsverzeichnis 1 Einleitung 2 1.1 Hintergrund................................. 2 1.2 Technischer Hintergrund..........................
MehrDas Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation
Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Hochdimensionaler Eingaberaum {0,1} Z S quadratisch aufgemalt (zwecks besserer Visualisierung) als Retina bestehend
MehrPerzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004
Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen
MehrCPK-Terminal Bedienungsanleitung
CPK-Terminal Bedienungsanleitung 1. Software Installation Führen Sie die Setup -Datei aus, die sich auf der DYNTEST-CD befindet. Wählen Sie Ihre Sprache und drücken dann den OK -Button, woraufhin die Installationsvorbereitung
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrAm Ende brauchen Sie diese Rechnung nur noch auszudrucken
Schnellstart die erste Rechnung Nachdem Sie die durch die Installation eine Grundkonfiguration vorgenommen haben, können Sie gleich eintauchen und Ihre erste Rechnung erstellen. Dazu müssen Sie im Grunde
MehrAdaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}
MehrXML-Translation Engine
XML-Translation Engine Über die XML-Translation Engine Die XML-Translation Engine ist ein eigenständiges Tool (Add-On), das auf Visual Localize basiert. Die XML-Engine ermöglicht Ihnen die schnelle und
MehrComputational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
MehrDatennahme-Software für den Versuch 'Szintillatoren'
Datennahme-Software für den Versuch 'Szintillatoren' Diese Anleitung beschreibt die Funktionen der Datennahme-Software (Data Acquisition Sofware, kurz DAQ) für die Versuche F80/81 'Szintillatioren' im
MehrMustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12
Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1
MehrNeuronale Netze u. Anwendungen, 17. Jan. 2012
Neuronale Netze u. Anwendungen, 17. Jan. 2012 Backpropagation Implementation Speed, Training Generalization Choice of Architecture Algorithms Backpropagation is Computer Intenstive during Training very
MehrKennen Sie Microsoft s NEWT?
NetWorker - Tests Tip 9, Seite 1/11 Kennen Sie Microsoft s NEWT? 1. Allgemeines Wie können Sie den Durchsatz auf einer Netzwerk-Verbindung beschränken? - Warum sollten Sie das überhaupt tun wollen? - Sollte
MehrNeuronale Netze (I) Biologisches Neuronales Netz
Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung
MehrGrundlagen Neuronaler Netze
Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht
Mehr8. Vorlesung Neuronale Netze
Soft Control (AT 3, RMA) 8. Vorlesung Neuronale Netze Lernverfahren 8. Vorlesung im Aufbau der Vorlesung 1. inführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation
MehrNeuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011 Hinweis: Alle Projekte sind angemessen zu dokumentieren. Die Dokumentation
MehrErstellen von Grafiken in Excel
Erstellen von Grafiken in Excel 1. Geeignetes Tabellenlayout überlegen 2. Einfügen von Mittelwerten und Standardabweichungen Feld, in dem der Mittelwert stehen soll (I6), durch Anklicken markieren Button
MehrAnleitung zum Java - Applet
Anleitung zum Java - Applet Stetige Verteilungen Visualisierung von Wahrscheinlichkeit und Zufallsstreubereich bearbeitet von: WS 2004 / 2005 E/TI 7 betreut von: Prof. Dr. Wilhelm Kleppmann Inhaltsverzeichnis
MehrLernende Vektorquantisierung
Lernende Vektorquantisierung (engl. Learning Vector Quantization) Rudolf Kruse Neuronale Netze 5 Motivation Bisher: festes Lernen, jetzt freies Lernen, d.h. es existieren keine festgelegten Klassenlabels
MehrAnleitung zum Methodenlehre und Statistik LernErfolgsTest (MSLET)
Anleitung zum Methodenlehre und Statistik LernErfolgsTest (MSLET) Wintersemester 2017/18 (update 11.10.17) 2 Methodenlehre und Statistik LernErfolgsKontrolle Inhaltsverzeichnis Der MSLET Was ist das?...
Mehr1. Anleitung: telemed DFÜ Setup Programm
1. Anleitung: telemed DFÜ Setup Programm Nachfolgend finden Sie eine Anleitung zur Verwendung des telemed DFÜ Setup Programms. Dieses Programm gibt es in jeweils einer Version für die Betriebssysteme Windows
MehrKonvergenz von Hopfield-Netzen
Matthias Jauernig 1. August 2006 Zusammenfassung Die nachfolgende Betrachtung bezieht sich auf das diskrete Hopfield-Netz und hat das Ziel, die Konvergenz des Verfahrens zu zeigen. Leider wird dieser Beweis
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrFinanzmarktprognose mit neuronalen Netzen
Reihe: Quantitative Ökonomie Band 131 Herausgegeben von Prof. Dr. Eckart Bomsdorf, Köln, Prof. Dr. Wim Kösters, Bochum, und Prof. Dr. Winfried Matthes, Wuppertal Dr. Christoph A. Hövel Finanzmarktprognose
MehrDer Sprung in die Zukunft! Einführung in neuronale Netzwerke
Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale
MehrTechnische Voraussetzungen zum elektronischen Ausfüllen der Formulare Abrechnungserklärung Leitender Notarzt Einsatzdokumentation Leitender Notarzt
Technische Voraussetzungen zum elektronischen Ausfüllen der Abrechnungserklärung Leitender Notarzt Einsatzdokumentation Leitender Notarzt Inhaltsverzeichnis Allgemeines... 2 Information zum Adobe Reader...
MehrAnleitung zum Applet. Rangwerte
Rangwerte 1 Anleitung zum Applet Rangwerte bearbeitet von: Erwin Wagner WS 2006/2007 E/TI betreut von: Prof. Dr. Wilhelm Kleppmann Rangwerte 2 Inhaltsverzeichnis 1 VORWORT... 3 2 BENUTZEROBERFLÄCHE...
MehrErstellung von Reports mit Anwender-Dokumentation und anderen Textbausteinen
11/17 Erstellung von und anderen Textbausteinen In der ArtemiS SUITE 1 steht eine sehr flexible Report-Funktion zur Verfügung, die Ihnen die übersichtliche Darstellung Ihrer Analyse-Ergebnisse in Reports
MehrAutomatische Spracherkennung
Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.
MehrNeuronale Netze. Seminar aus Algorithmik Stefan Craß,
Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze
MehrSVG Maut Exact. SVG Wir bewegen Logistik
SVG Wir bewegen Logistik Inhaltsverzeichnis Registrierung und Login... 2 Meldung über Programänderungen und administrative Mitteilungen... 4 Menüleiste und Aufteilung des Programms... 4 1. Imports... 4
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrUm einen Drucker mit der Multidoc-Funktion zu erstellen, müssen Sie zu allererst ein eigenständiges Profil erstellen, dass diese Funktion ausführt.
1 of 7 14.06.2015 14:09 Exkurs: Wie richte ich einen Multidoc-Drucker in FreePDF ein? 1. Profil für FreePDF Um einen Drucker mit der Multidoc-Funktion zu erstellen, müssen Sie zu allererst ein eigenständiges
MehrTeil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze
Vorlesung Künstliche Intelligenz Wintersemester 2008/09 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der
MehrFAQ Kommunikation über PROFIBUS
FAQ Kommunikation über PROFIBUS Kommunikation über PROFIBUS FAQ Inhaltsverzeichnis Inhaltsverzeichnis... 2 Frage... 2 Wie konfiguriere ich eine PC-Station als DP-Master zur Anbindung an einen DP-Slave
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrSatChannelListEditor und TitanNit
SatChannelListEditor und TitanNit Diese Anleitung bezieht sich auf die Version 4.8 von SatChannelListEditor. In zukünftigen Versionen werden evtl. neue Features hinzugefügt, wodurch sich die Ansicht des
Mehr