Anleitung zum Praktikum Neuroinformationsverarbeitung - Wintersemester 2016/2017

Größe: px
Ab Seite anzeigen:

Download "Anleitung zum Praktikum Neuroinformationsverarbeitung - Wintersemester 2016/2017"

Transkript

1 Anleitung zum Praktikum Neuroinformationsverarbeitung - Wintersemester 26/27 EINLEITUNG. Sinn und Zweck des Praktikums Neuroinformationsverarbeitung Das Praktikum soll dazu dienen, die in der Vorlesung behandelten Standardnetzwerke auf vorgegebene Problemstellungen zur Musterklassifikation anzuwenden und dabei sowohl das Verständnis der Netze zu vertiefen als auch praktische Erfahrungen beim Einsatz der Netzwerke zu sammeln. Das Vorlesungsmaterial bildet die theoretische Basis für die Anwendung der Netzwerke. Es ist von Vorteil, den enstprechenden Stoff zur Praktikumsvorbereitung zu wiederholen. Nach der Bedienungsanleitung werden die Aspekte des Praktikums beschrieben, die von den in der Vorlesung behandelten Methoden abweichen bzw. diese ergänzen..2 Was ist der JavaNNS? Die Entwicklung des SNNS (Stuttgart Neural Network Simulator), der die Basis für den JavaNNS bildet, wurde Ende der 8er Jahre an der Universität Stuttgart begonnen und umfaßte zunächst ausschließlich Feedforward-Netzwerke. Bis etwa 994 wurden sukzessive fast alle der heute bekannten Netzwerkparadigmen in den SNNS integriert. Der SNNS gehört zu den weltweit am häufigsten eingesetzten Simulatoren für Neuronale Netzwerke. Implementiert wurde der SNNS in C/C++ für Unix bzw. Linux. Um den SNNS auch unter verschiedenen Windowsbetriebssystemen zu nutzen, wurde 2 mit einer Java- Kapselung der wichtigsten SNNS-Funktionen begonnen und 22 abgeschlossen. Im Vergleich zu vielen anderen Simulatoren für Neuronale Netze bietet der SNNS/JavaNNS die Möglichkeit, viele Aspekte der Verarbeitung innerhalb der Netzwerke, wie Aktivierungsund Ausgabefunktionen, Gewichte, Fehlergrafen, Trainingsparameter, Aktivierungsprojektionen etc. zu konfigurieren und zu visualisieren. Dies macht ihn zu einem sehr sinnvollen Simulator für die Lehre. Hinweis: Es ist unbedingt darauf zu achten, daß die Bedienungshinweise und vorgegebenen Abläufe eingehalten werden. Da der JavaNNS wesentlich mehr Möglichkeiten der Netzwerksimulation bietet, als für das Praktikum benötigt werden, ist die Gefahr der Fehlbedienung (sinnlose Parametereinstellungen, falsche Aktivierungs, Lern- oder Initialisierungsfunktionen etc.) sehr groß, was entweder zu nicht interpretierbaren Ergebnissen, massenhaften Fehlermeldungen (Kernel- Error) bzw. im worst case zum Simulatorabsturz führt. Um einen reibungslosen Ablauf zu sichern, bitte keine Buttons betätigen, die nicht explizit in der vorliegenden Anleitung erklärt sind. Es ist unbedingt darauf zu achten, dass alle Fenster nur mit dem jeweiligen Done- Button geschlossen werden dürfen, ansonsten besteht die Gefahr eines Totalabsturzes des JavaNNS. 2 BEDIENUNGSANLEITUNG JAVANNS Zum Starten des JavaNNS bitte folgende Hinweise beachten: Linux: entpacken der Datei JavaNNS-LinuxIntel.tar.gz ausführen der JavaNNS.jar alternativ "java -jar JavaNNS.jar" Windows HTW (Praktikumslabor): entpacken der Datei JavaNNS-Win_HTW.zip ausführen der Datei Start.bat (nutzt installierte Java JRE 32 Bit) Das graphische Nutzerinterface unterstützt alle Funktionen, die für die Netzwerksimulation notwendig sind. Nachfolgend werden alle Fenster und deren Funktionen, soweit sie für das Praktikum eine Rolle spielen, vorgestellt. An dieser Stelle nochmals der Hinweis, dass nur die Funktionen, die in der Anleitung explizit erklärt sind, verwendet werden sollten. 2. Hauptfenster Nach dem Start des Simulators erscheint folgendes Hauptfenster: Abbildung zeigt das Hauptfenster des SNNS. Über dieses Fenster werden die Generierung von Netzwerken, das Laden und Speichern von Netzwerken bzw. Daten und die Visualisierung des Netzwerks sowie der Fehlerverläufe realisiert. Das dargestellte Default-Fenster

2 2 Aktivierungsfunktion _ x Gewichtsvektor w Berechnung des internen Zustandes z & Anwendung einer u.u. nichtlinearen Übertragungsfunktion Ausgabefunktion _ y Figure 3. Modell des formalen Neurons im JavaNNS Figure. Hauptfenster des JavaNNS Figure 2. Laden und Speichern von Datensätzen und Netzwerken übernimmt die Visualisierung des aktuell verwendeten Netzwerk-Topologie. 2.2 Laden und Speichern von Daten und Netzwerken Der JavaNNS bietet die Möglichkeit, Daten und komplette Netzwerke (inkl. der entsprechenden Parameter) zu laden und zu speichern. Die nachfolgende Abbildung 2 illustriert dies. Die Dateiendungen geben an, ob es sich um ein Patternfile (*.pat) oder um ein Netzwerk (*.net) handelt. Beim Speichern eines Netzwerkes ist es hilfreich, wenn aussagekräftige Namen verwendet werden, die den Typ, die Topologie und die Abbildung, für die das Netzwerk trainiert wurden, beinhalten. Bei einem MLP- Netzwerk, das für die Lösung des Doppelspiralproblems mit 2 Eingabe-, zwei Hiddenschichten mit 25 bzw. Neuronen und einer aus einem Neuron bestehenden Ausgabeschicht trainiert wurde, lautet der Name dann: MLP_2_25 spiral.net. 2.3 Erstellen von Netzwerken vom Typ Multilayer- Perceptron und RBF-Netzwerk Zum Erstellen von Netzwerken legt man ebenenweise Neuronen an. Über die Abfolge Tools -> Create - > Layers legt man die einzelnen Ebenen (von links nach rechts darsgestellt im Default-Fenster) an. Begonnen wird mit der Inputschicht, danach folgen ggfs. notwendige Hiddenschichten, und den Abschluss bildet die Ausgabeschicht. Dimensionen (Knotenanzahl) von Ein- und Ausgabeschicht werden durch die vorgegebenen Datensätze bestimmt. Ob und in welchem Umfang Hiddenschichten notwendig sind, hängt vom jeweiligen Problem bzw. von der Komplexität des vorliegenden Abbildungsproblems ab Implementierung des formalen Neuronenmodells im JavaNNS Im Gegensatz zu der in der Lehrveranstaltung verwendeten Modellierung fasst das formale Neuronenmodell des JavaNNS die Berechnung von Aktiviserungs- und Transfer(Übertragungs)funktion in einem Schritt zusammen (siehe Abbildung 3). Die Ausgabefunktion, die im Rahmen des Praktikums IMMER die Identitätsfunktion darstellt, erlaubt eine zusätzliche Modifizierung der Neuronenausgabe, was aber für die Zwecke des Praktikums nicht benötigt wird Neuronenfunktionen beim MLP-Netzwerk Beim ebenenweisen Editieren der Neuronen zur Erstellung eines Netzwerks wird festgelegt, ob es sich um Eingabe-, Hidden- oder Ausgabeneuronen handelt. Zuständig für diese Zuweisung ist die Einstellung des Neuronentyps (unit type). Standardmäßig verwendet der JavaNNS immer eine Zustandsfunktion durch die Bildung des Skalarprodukts von Eingabe- und Gewichtsvektor. Im Fenster activation function muss dann bei den Eingabeneuronen die Funktion act_identity und bei Hidden- und Ausgabeneuronen entsprechend die Funktion act_logistic ausgewählt werden, die die in der Lehrveranstaltung

3 3 Figure 4. Einstellung der Knotenfunktionen beim MLP- Netzwerk für Input- (oben) und Hidden- bzw. Outputneuronen (unten) stets verwendete Sigmoidfunktion implementiert. Die Ausgabefunktion bleibt stets unverändert. Zur Verdeutlichung dient Abbildung 4. Bei den im Praktikum verwendeten Netzwerken (sowohl MLP als auch RBF) wird der Bias für die entsprechenden Netzwerkknoten vom Simulator automatisch erzeugt. Es muss also kein separater Bias- Knoten angelegt werden. Die simulatorinterne Behandlung des vom Biasknoten kommenden Gewichtes, welches als Schwellwert für das entsprechende Neuron dient, erfolgt genau so wie in der Vorlesung bzw. Übung behandelt Neuronenfunktionen beim RBF-Netzwerk Die Einstellung der Knotenfunktionen beim RBF- Netzwerk verdeutlicht Abbildung 5. Die für die Knoten der RBF(Hidden)schicht einzustellende Aktivierungsfunktion act_rbf_gaussian realsiert sowohl die Berechnung des euklidischen Abstandes zwischen Eingabeund Gewichtsvektor als auch die Berechnung der Aus- Figure 5. Netzwerk Einstellung der Knotenfunktionen beim RBF-

4 4 Figure 6. Einstellung zum Generieren eines ebenenweise vollvernetzten Feedforward-Netzwerks gabe durch die Anwendung der Gaussfunktion genau so wie in der Vorlesung behandelt Verbindungen (Links, Gewichte) zwischen den Knotenebenen Im Praktikum sind die verwendeten Feedforward- Netzwerke immer ebenenweise vollvernetzt, d.h. es existiert jeweils ein Gewichtsparameter von einem Knoten der Schicht l zu einem Knoten der nachfolgenden Ebene l+ (siehe Abbildung 6). Figure 7. Netzwerk Initialisierung von MLP- (oben) und RBF- 2.4 Vorgabe der Initialisierungs- und Trainingsparameter bei MLP- und RBF-Netzwerk Entsprechend den in der Vorlesung behandelten Netzwerktypen müssen die Trainingsparameter korrekt eingestellt werden. Deren Eingabe erfolgt über das Control Panel, das man via Menu-Button Tools öffnet Initialisierungsparameter bei MLP- und RBF- Netzwerk Das MPL-Netzwerk wird mittels der Initialisiserungsfunktion Random Weights mit zufälligen Gewichtsparametern aus dem eingestellten Wertebereichsintervall initialisiert. Wählt man für die obere und untere Intervallgrenze den gleichen Wert, bekommen alle Parameter diesen Wert zugewiesen. Beim RBF-Netzwerk nutzt man die Initialisiserungsfunktion RBF Weights. Dabei ist lediglich der bias- Parameter relevant, der die Varianz der Gaußfunktion, die für alle RBF-Knoten gleich initialisiert wird, repräsentiert. Zu beachten ist, dass eine Verkleinerung des bias-parameters zu einer Vergrößerung der Varianz führt und umgekehrt. Beide Aspekte illustriert Abbildung Trainingsparameter bei MLP- und RBF-Netzwerk Das verwendete Trainingsverfahren wird im Menü Learning function ausgewählt. Beim MLP-Netzwerk werden Backpropagation, was den Modus des Direct Learning implementiert, und Batch Backpropagation genutzt. Eta gibt die für alle Parameter gültige Lernrate/Schrittweite an, dmax den Abstand zwischen Teachvorgabe und tatsächlichem Ausgang, ab dem die Ausgabe als korrekt angesehen wird und kein Lernen (Adaption der Netzwerkparameter) mehr erfolgt. Beim RBF-Netzwerk stellen Eta/2 die Lernraten für die Anpassung der Gaußfunktionen, die durch die RBF-Neuronen realisiert werden, dar. Diese werden auf den Wert gesetzt! Hinter weights verbirgt sich die Lernrate zur Anpassung der Gewichte von der RBF- zur Ausgabeschicht. Parameter Cycles gibt an, wie oft der Datensatz zum Training des Netzwerks durchlaufen wird (Trainingsepochen). Parameter Steps verbleibt unverändert auf dem Wert. Zur Illustration dient Abbildung Darstellung des Fehlerverlaufs während des Trainingsprozesses Mit Hilfe des Error Graph (Abbildung 9), der über den Button View ausgewählt werden kann, lässt sich der Fehlerverlauf während des Trainingsprozesses visualisieren. Die Achsen der Darstellung sind skalierbar, ebenso lassen sich verschiedene Fehlermaße einstellen Projektion Möchte man den Aktivierungsverlauf eines Neurons über der Eingabeebene darstellen, nutzt man die Funktion Projection, der ebenfalls über den Button View ausgewählt wird. Wichtig ist dabei, dass die entsprechenden Neuronen VOR der Auswahl des Projektionsfensters in der grafischen Ansicht des Netzwerks

5 5 Figure 8. Trainingsparameter von MLP- (links) und RBF- Netzwerk Figure. Oben: markierte Neuronen (gelb). Unten: Aktivierungsverlauf des Ausgabeneurons über der Eingabeebene # Patternfile: or.pat No. of patterns : 4 No. of input units : 2 No. of output units : Figure 9. Error Graph markiert wurden (ctrl + linke Maustaste), wie dies die Abbildung verdeutlicht. 3 BESCHREIBUNG DER DATENSÄTZE 3. Format der Pattern-Files Am Beispiel der Datei or_train.pat soll das Fileformat der SNNS-Patternfiles kurz erläutert werden, wobei Modifikationen an den Patternfiles im Rahmen des Praktikums nicht vorgesehen sind. SNNS pattern definition file V3.2 generated at Mon Jul 2 6:3:4 997 # Input pattern : # Output pattern : # Input pattern 2: # Output pattern 2: # Input pattern 3: # Output pattern 3: # Input pattern 4: # Output pattern 4: 3.2 Datensätze für die lineare Klassifikation Die Patternfiles and_train.pat und or_train.pat enthalten die Trainingsdaten für die AND-bzw. OR-Abbildung. Anhand dieser beiden Abbildungsprobleme soll der Umgang mit dem Simulator geübt werden. Die Verteilung der Eingangsmuster und die dazugehörigen Klassenzugehörigkeiten sind in Abbildung dargestellt. Die Ausgabe wird in einem einzigen Neuron kodiert, welches für die eine Klasse eine und für die andere Klasse entsprechend eine Null als Ausgabewert aufweisen soll.

6 6 x x x Figure. Trainingsdaten für AND/OR-Abbildung: + entspricht Ausgabe, x entspricht Ausgabe x x Figure 2. Trainingsdaten für XOR-Abbildung: + entspricht Ausgabe, x entspricht Ausgabe Datensätze für die nichtlineare Klassifikation 3.3. XOR-Abbildung Das Patternfile xor_train.pat enthält die Trainingsdaten für die XOR-Abbildung. Die Verteilung der Eingangsmuster und die dazugehörigen Klassenzugehörigkeiten sind in Abbildung 2 dargestellt. Die Ausgabe wird in einem einzigen Neuron kodiert, welches für die eine Klasse eine und für die andere Klasse entsprechend eine Null als Ausgabewert aufweisen soll Klassen-Abbildungen Die Patternfiles 4kl_train.pat, 4klbin_train.pat, 4kl2_train.pat, 4kl2bin_train.pat und 4kl3_train.pat enthalten die Trainingsdaten für verschiedene Realisierungen einer 4-Klassen-Abbildung. Die Beispiele in 4kl/2_train.pat und 4kl/2bin_train.pat unterscheiden sich lediglich in der Art der Kodierung der Klassen (-aus-n-kodierung bzw. Binärkodierung mit 4 bzw. 2 Ausgabeneuronen). Die Verteilung der Eingangsmuster und die dazugehörigen Teacherwerte, die die gewünschte Netzausgabe beinhalten, sind in den Abbildungen 3und 4 dargestellt Doppelspirale Abbildung 5 zeigt die Datenverteilung eines Benchmark-Datensatzes, der zum Vergleich verschiedener Klassifikatoren verwendet wird. Man erkennt, dass es sich um ein kompliziertes Abbildungsproblem handelt, da sich die Entscheidungsregionen, die das Netzwerk ausprägen muss, sehr stark gegenseitig umschließen. Die Ausgabe wird in einem einzigen Neuron kodiert, welches für die eine Klasse eine und für die andere Klasse entsprechend eine Null als Ausgabewert aufweisen soll Figure 3. Trainingsdaten für 4-Klassen-Abbildung 4kl(oben)/4kl2(unten): die grafischen Symbole kodieren die 4 Klassenzugehörigkeiten x Figure 4. Trainingsdaten für 4-Klassen-Abbildung 4kl3: die grafischen Symbole kodieren die 4 Klassenzugehörigkeiten

7 7 x x Figure 5. Trainings- (oben) und Validierungsdaten (unten) der Doppelspiral-Abbildung: + entspricht Ausgabe, x entspricht Ausgabe 4 AUFGABEN ZUM PRAKTIKUM 4. Teil - Perceptron- & Multilayer-Perceptron- Netzwerk 4.. Lernen der logischen Abbildungen AND/OR/XOR Bearbeiten Sie die folgenden Aufgaben möglichst in der angegebenen Reihenfolge. Aufgabe Erstellen Sie ein Netzwerk mit minimaler Topologie (Anzahl der Schichten und Knotenzahl), das die logische AND-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz and_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Erstellen Sie ein Netzwerk mit minimaler Topologie (Anzahl der Schichten und Knotenzahl), das die logische OR-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz or_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Aufgabe Erstellen Sie ein Netzwerk mit minimaler Topologie (Anzahl der Schichten und Knotenzahl), das die logische XOR-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz xor_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Aufgabe 4 Nutzen Sie das in Aufgabe 3 generierte Netzwerk und initialisieren Sie das Netzwerk so, dass das Training für alle Parameter mit einem identischen Wert (z.b. Null) begonnen wird. Geben Sie dazu bei der Angabe des Initialisierungsintervall im control panel identische Werte für die obere und untere Intervallgrenze an. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen. Kann das Netzwerk mit dieser Initialiiserung die gegebene XOR-Abbildung erlernen? Diskutieren Sie anhand der Projektion von der Eingabe- auf die Neuronen der Hiddenschicht des Netzwerks, was die Ursache dafür ist Lernen der 4-Klassen-Abbildungen Bearbeiten Sie die folgenden Aufgaben möglichst in der angegebenen Reihenfolge. Aufgabe Entwerfen und trainieren Sie für alle 3 gegebenen Abbildungen jeweils MLP-Netzwerke. Verwenden Sie dabei die Datensätze 4kl_train.pat, 4kl2_train.pat und 4kl3_train.pat. Die Ausgabeschicht besteht hier aus 4 Neuronen, jeweils ein Neuron pro Klasse (Eins-aus- N-Kodierung). Versuchen Sie, das jeweilige Problem mit möglichst minimalen Netzwerken und minimalem Trainingsaufwand zu lösen! Nutzen Sie dazu die Datensätze 4klbin_train.pat und 4kl2bin_train.pat. Im Vergleich zu den in Aufgabe verwendeten Datensätzen wird die Netzwerkausgabe nicht mit einer Eins-aus-N-Kodierung (jeweils ein Ausgabeneuron pro Klasse), sondern durch eine Binärkodierung an den beiden Ausgabenueronen kodiert (also 2 Neuronen in der Ausgabeschicht). Untersuchen Sie, welchen Einfluss die Kodierung der Ausgabeklassen auf den Trainingsprozess hat! Interpretieren Sie diesen Effekt im Hinblick auf die praktische Anwendung des Netzwerks. Aufgabe 3 Untersuchen Sie, welchen Einfluss die Kodierung der Wertebereiche der Eingangskomponenten auf den Trainingsprozess hat! Nutzen Sie dazu den Datensatz 4kl3_train.pat. Erzeugen Sie ein MLP-Netzwerk mit möglichst optimaler Topologie und dokumentieren Sie den Trainingsverlauf durch die Darstellung des Error Graphen. Welchen Effekt beobachten Sie im Vgl. zu den Trainingsverläufen aus Aufgabe? Interpretieren Sie diesen Effekt im Hinblick auf die praktische Anwendung des Netzwerks. Aufgabe 4

8 8 Figure 6. Einstellungen im control panel zur parallelen Nutzung von Trainings- und Validierungsdaten Figure 8. Parametereinstellungen für RProp im Control Panel Figure 7. Verlauf von Trainings-(schwarz) und Validierungsfehler (rot) Trainieren Sie ein MLP mit dem Datensatz 4kl_train.pat und stellen Sie Lernrate auf einen Wert größer gleich 7 ein! Welcher Effekt lässt sich beobachten? 4..3 Lernen der Doppelspiralabbildung Alle Datensätze zum Doppelspiralproblem enthalten jeweils 94 Datenpunkte. Aufgabe Welche Struktur (Topologie) muß ein MLP aufweisen, damit es das Doppelspiralproblem überhaupt lösen kann? Entwerfen Sie eine entsprechende Netzwerk- Topologie (Anzahl Hiddenschichten; Neuronen pro Schicht)! Trainieren und validieren Sie das in Aufgabe entworfene Netzwerk! Nutzen Sie zum Training den Datensatz spiral_train.pat, zum Validieren den Datensatz spiral_valid.pat. Abbildung 7illustriert die dazu notwendigen Einstellungen im control panel. Dabei kann festgelegt werden, nach wie vielen Trainingsepochen ein Durchlauf durch den Validierungsdatensatz erfolgt (im Beispiel alle Trainingsepochen). Beide Fehlerverläufe werden im Error Graphen angezeigt (Abbildung 7) Training von MLP-Netzwerken mit RProp Wiederholen Sie zunächst die Funktionsweise der Trainingsmethode Resilient Backprpagation (RProp), die in der Vorlesung vorgestellt wurde. Bei deren Anwendung geht es darum, die Konvergenz des Trainings zu beschleunigen und dabei trotzdem gute Generalisierungseigenschaften zu erhalten. Besonders gut kann man diese Aufgabenstellung bei der Lösung des Doppelspiralproblems verdeutlichen. Aufgabe Trainieren Sie dazu im ersten Schritt ein MLP- Netzwerk, dass die Doppelspirale möglichst gut approximiert. Eine geeignete Topologie wurde dazu bereits im Abschnitt 4..3erarbeitet. Ein Maß für gute Generalisierung ist der Validierungsfehler, der ebenso wie der Trainingsfehler möglichst klein ausfallen soll. Notieren Sie nach erfolgreichem Trainingsverlauf die Anzahl der benötigten Trainingsepochen und schätzen Sie ebenfalls anhand des Error-Graphen die erreichten Werte von Trainings- und Validierungsfehler ab. Trainieren Sie das Netzwerk aus Aufgabe erneut mittels RProp. Die dazu notwendigen Parametereinstellungen werden in Abbildung 8veranschaulicht. Delta_null gibt den Initialwert, Delta_max den Maximalwert der Schrittweite pro Parameter an. Der dritte Parameter Alpha wird genutzt, um den Grad des Weight Decay zu steuern. Implementiert wird dies über die Vorschrift hoch minus Alpha. Je größer Alpha gewählt wird, umso kleiner wird also der Einfluss des Weight Decay auf den Trainingsprozess. Während die Parameter Delta_max und Delta_null unverändert belassen werden können, experimentieren Sie mit einem Parameterbereich von Alpha von bis. Beobachten Sie dabei die Verläufe von Trainings- und Validierungsfehler und diskutieren Sie die Ergebnisse Training von MLP-Netzwerken mit Momentum- Term Abbildung 9zeigt die Parametereinstellungen, nachdem man Backpropagation-Momentum als Learning

9 9 Figure 9. Parametereinstellungen für Backprop mit Momentum im Control Panel Figure 2. Einstellungen für die Initialiserung eines RBF- Netzwerks Function ausgewählt hat. Eta ist wieder die Schrittweite/Lernrate (hier wieder einheitlich für alle Parameter!), µrepräsentiert den eigentlichen Momentum-Term, und c stellt einen Parameter dar, mit dem eine sogenannte Flat Spot Elimination erreicht wird. Dabei wird eine sehr kleine Gewichtsänderung ab einem Minimalwert durch den Wert, der in diesem Parameterfenster eingetragen ist, ersetzt. Aufgabe Auch hier beschränken wir uns auf die Lösung des Doppelspiralproblems. Trainieren Sie das MLP-Netzwerk aus Aufgabe 4..3bzw. 4..4mittels Backpropagation-Momentum-Verfahren. Variieren Sie dabei die drei Trainingsparameter und versuchen Sie, eine Parameterkonstellation zu finden, mit der das Training schnell konvergiert (kleine Zahl an Trainingsepochen) und das trainierte Netzwerk gute Generalisierungseigenschaften aufweist. Diskutieren Sie die erreichten Ergebnisse. 4.2 Training von RBF-Netzwerken Beim Entwurf der RBF-Netzwerke gehen wir immer so vor, dass die Anzahl der gegebenen Beispieldaten der Anzahl der Knoten innerhalb der RBF-Schicht entspricht. In diesem Fall spricht man davon, dass das RBF- Netzwerk mit der RBF-Schicht die gegebenen Datenpunkte exakt approximiert! Initialisieren Sie in allen nachfolgenden Aufgaben das Netzwerk, wie dies in Abbildung 2dargestellt ist. Dabei ist ausschließlich der Parameter Bias für das Praktikum relevant (alle anderen Parameter auf ihren Voreinstellungen belassen!). Mit dem Bias lässt sich die Varianz der Gaußfunktionen der RBF-Knoten steuern. Zu beachten ist, dass die für alle RBF-Knoten einheitliche Varianz durch die Vorschrift Eins dividiert durch Bias implementiert ist. Erhöht man den Bias, verringert sich entsprechend die Varianz, verringert man diesen, wird die Varianz größer. Weiterhin gilt es zu bedenken, dass die geeignete Wahl der Varianz (bzw. des Bias) für die Generalisierungseigenschaften des Netzwerks eine wesentliche Rolle spielt. Die einzustellenden Parameter/Funktionen für Figure 2. Knotenfunktionen der RBF-Schicht die Neuronen der RBF-Schicht sind an Abbildung 2dargestellt. Nach erfolgter Initialisierung bleiben die Parameter für das Training der Parameter der RBF-Knoten unverändert, was mit einem Eintrag von Null in den entsprechenden Parameterfenstern erfolgt (siehe Abbildung 8). und variieren Sie dabei den Parameter, der die Varianz der Aktivierungsfunktionen der RBF- Knoten festlegt!was beobachten Sie, wenn Sie sich die Aktivierung der RBF-Knoten für die Eingabemuster anschauen, in Abhängigkeit von diesem Parameter? Nutzen Sie zum Training der RBF-Netzwerke analog zum Training der MLP-Netzwerke die entsprechenden Daten-Files! 4.2. Lernen der logischen Abbildungen AND/OR/XOR Bearbeiten Sie die folgenden Aufgaben möglichst in der angegebenen Reihenfolge. Aufgabe Erstellen Sie ein RBF-Netzwerk mit entsprechender Topologie, das die logische AND-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz and_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht

10 des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Erstellen Sie ein Netzwerk mit entsprechender Topologie (Anzahl der Schichten und Knotenzahl), das die logische OR-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz or_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Aufgabe 3 Erstellen Sie ein Netzwerk mit entsprechender Topologie (Anzahl der Schichten und Knotenzahl), das die logische XOR-Abbildung erlernen kann. Nutzen Sie dazu den Datensatz xor_train.pat. Dokumentieren Sie den Trainingsverlauf mit Hilfe des Error Graphen und zeigen Sie anhand der Projektion von der Eingabe- auf die Neuronen der Ausgabeschicht des Netzwerks, dass die Abbildung durch das trainierte Netzwerk erlernt wurde. Welche Struktur (Topologie) sollte ein RBF-Netzwerk aufweisen, damit es das Doppelspiralproblem überhaupt lösen kann? Entwerfen Sie eine entsprechende Netzwerk-Topologie (Anzahl Neuronen der RBF- Schicht)! Trainieren und validieren Sie das in Aufgabe entworfene Netzwerk! Nutzen Sie zum Training den Datensatz spiral_train.pat, zum Validieren den Datensatz spiral_valid.pat. Ermitteln Sie, welchen Wert der Bias- Parameter (Varianz der RBF-Knoten) aufweisen sollte, damit gute Generalisierungseigenschaften erwartet werden können! Lernen der 4-Klassen-Abbildungen Bearbeiten Sie die folgenden Aufgaben möglichst in der angegebenen Reihenfolge. Aufgabe Entwerfen und trainieren Sie für alle 3 gegebenen Abbildungen jeweils RBF-Netzwerke. Verwenden Sie dabei die Datensätze 4kl_train.pat, 4kl2_train.pat und 4kl3_train.pat. Die Ausgabeschicht besteht hier aus 4 Neuronen, jeweils ein Neuron pro Klasse (Eins-aus-N- Kodierung). Nutzen Sie dazu die Datensätze 4klbin_train.pat und 4kl2bin_train.pat. Im Vergleich zu den in Aufgabe verwendeten Datensätzen wird die Netzwerkausgabe nicht mit einer Eins-aus-N-Kodierung (jeweils ein Ausgabeneuron pro Klasse), sondern durch eine Binärkodierung an den beiden Ausgabenueronen kodiert (also 2 Neuronen in der Ausgabeschicht). Untersuchen Sie, welchen Einfluss die Kodierung der Ausgabeklassen auf den Trainingsprozess hat! Interpretieren Sie diesen Effekt im Hinblick auf die praktische Anwendung des Netzwerks! Aufgabe 3 Untersuchen Sie, welchen Einfluss die Kodierung der Wertebereiche der Eingangskomponenten auf den Trainingsprozess hat! Nutzen Sie dazu den Datensatz 4kl3_train.pat. Erzeugen Sie ein RBF-Netzwerk und dokumentieren Sie den Trainingsverlauf durch die Darstellung des Error Graphen. Welchen Effekt beobachten Sie im Vgl. zu den Trainingsverläufen aus Aufgabe? Interpretieren Sie diesen Effekt im Hinblick auf die praktische Anwendung des Netzwerks Lernen der Doppelspiralabbildung Alle Datensätze zum Doppelspiralproblem enthalten jeweils 94 Datenpunkte. Aufgabe

Anleitung zum Praktikum Künstliche Neuronale Netze. Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik

Anleitung zum Praktikum Künstliche Neuronale Netze. Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik Anleitung zum Praktikum Künstliche Neuronale Netze Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik Inhaltsverzeichnis Einleitung 2. Sinn und Zweck des Praktikums KNN........................

Mehr

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Neuronale Netze Aufgaben 3

Neuronale Netze Aufgaben 3 Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

Anleitung zum Applet

Anleitung zum Applet Anleitung zum Applet Visualisierung des Begriffs erwartungstreu bearbeitet von: Edwin Rohr WS 2004/2005 E/TI - 7 betreut von: Prof. Dr. Wilhelm Kleppmann Edwin Rohr - 1 - Inhaltsverzeichnis 1 Vorwort..

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen

Mehr

Neuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate...

Neuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate... Neuro-Info Notizen Marus Klemm.net WS 6/7 Inhaltsverzeichnis Hebbsche Lernregel. Fälle........................................ Lernrate..................................... Neural Gas. Algorithmus.....................................

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Gesichtserkennung mit MemBrain. - GIMP starten (ggf. eignen sich auch andere Programme dazu) und ein einzelnes Foto der Trainingsdaten

Gesichtserkennung mit MemBrain. - GIMP starten (ggf. eignen sich auch andere Programme dazu) und ein einzelnes Foto der Trainingsdaten Gesichtserkennung mit MemBrain A. Daten erheben 1. Eure Gruppe erhält einen Ordner mit den Trainingsdaten (9 Bilder von insgesamt 3 Personen) und einen Ordner mit den Testdaten (3 Bilder von insgesamt

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Einfaches Framework für Neuronale Netze

Einfaches Framework für Neuronale Netze Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Klassifikationsverfahren und Neuronale Netze

Klassifikationsverfahren und Neuronale Netze Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Grundlagen zu neuronalen Netzen. Kristina Tesch

Grundlagen zu neuronalen Netzen. Kristina Tesch Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

STACK Mathematische Aufgaben mit ILIAS testen (Ein Frage-Typ im ILIAS-Objekt Test)

STACK Mathematische Aufgaben mit ILIAS testen (Ein Frage-Typ im ILIAS-Objekt Test) STACK Mathematische Aufgaben mit ILIAS testen (Ein Frage-Typ im ILIAS-Objekt Test) Inhalt: Einleitung Vorteile von STACK-Fragen Beispielaufgabe Generierung einer Zufallsfrage 1. Einleitung Der elektronische

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Neuroinformatik. Übung 1

Neuroinformatik. Übung 1 Neuroinformatik Übung 1 Fabian Bürger Raum: BC419, Tel.: 0203-379 - 3124, E-Mail: fabian.buerger@uni-due.de Fabian Bürger (fabian.buerger@uni-due.de) Neuroinformatik: Übung 1 1 / 27 Organisatorisches Neuroinformatik:

Mehr

Erstellen von graphischen Ausgaben

Erstellen von graphischen Ausgaben Erstellen von graphischen Ausgaben Dieses Tutorial behandelt den Postprocessor von DELPHIN 5. Dieser ist auch in DELPHIN 6 enthalten und kann im Dialog >> Edit >> Preferences >> External Tools: External

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel

Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel Einige überwachte Lernverfahren Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel Funktionsweise eines künstlichen Neurons x w k Neuron k x 2 w 2k net k f y k x n- w n-,k x n w n,k

Mehr

Virtuelles Labor für Neuronale Netze

Virtuelles Labor für Neuronale Netze Universität Zürich / Wintersemester 2001/2002 Semesterarbeit Virtuelles Labor für Neuronale Netze vorgelegt von Rolf Hintermann, Dielsdorf, ZH, Schweiz, Matrikelnummer: 98-706-575 Angefertigt am Institut

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.

Mehr

3 Geoverarbeitung mit dem ModelBuilder

3 Geoverarbeitung mit dem ModelBuilder 3.1 Der ModelBuilder in ArcGIS Mit dem ModelBuilder können schematisch und mithilfe von Grafiken Arbeitsabläufe mit den Werkzeugen von ArcGIS erstellt und bearbeitet werden. Ein solcher Arbeitsablauf (Workflow)

Mehr

Anleitung zum Applet

Anleitung zum Applet Anleitung zum Applet Vertrauensbereich für den Mittelwert bearbeitet von: WS 2004/2005 E/TI-7 betreut von: Prof. Dr. Wilhelm Kleppmann Inhaltsverzeichnis 1 Vorwort...3 2 Graphische Benutzeroberfläche...4

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

6.2 Feed-Forward Netze

6.2 Feed-Forward Netze 6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir

Mehr

Design und Implementierung eines Tools zur Visualisierung der Schaltfunktionsminimierung

Design und Implementierung eines Tools zur Visualisierung der Schaltfunktionsminimierung Design und Implementierung eines Tools zur Visualisierung der Schaltfunktionsminimierung mit KV-Diagrammen Design and implementation of an e-learning tool for minimization of boolean functions based on

Mehr

Grundlagen neuronaler Netzwerke

Grundlagen neuronaler Netzwerke AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)

Mehr

Einsatz von CAS im Mathematikunterricht Klasse 8

Einsatz von CAS im Mathematikunterricht Klasse 8 Einsatz von CAS im Mathematikunterricht Klasse 8 Beispiele für den Einsatz des Voyage 200 im Lernbereich 3 Funktionen und lineare Gleichungssysteme Darstellungsformen von Funktionen Eigenschaften ganz-

Mehr

CLB Simulator. Inhaltsverzeichnis. Marcel Viehmeier. 30. Oktober Version 1.0.1

CLB Simulator. Inhaltsverzeichnis. Marcel Viehmeier. 30. Oktober Version 1.0.1 CLB Simulator Marcel Viehmeier 30. Oktober 2012 Version 1.0.1 Inhaltsverzeichnis 1 Einleitung 2 1.1 Hintergrund................................. 2 1.2 Technischer Hintergrund..........................

Mehr

Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation

Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Hochdimensionaler Eingaberaum {0,1} Z S quadratisch aufgemalt (zwecks besserer Visualisierung) als Retina bestehend

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen

Mehr

CPK-Terminal Bedienungsanleitung

CPK-Terminal Bedienungsanleitung CPK-Terminal Bedienungsanleitung 1. Software Installation Führen Sie die Setup -Datei aus, die sich auf der DYNTEST-CD befindet. Wählen Sie Ihre Sprache und drücken dann den OK -Button, woraufhin die Installationsvorbereitung

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Am Ende brauchen Sie diese Rechnung nur noch auszudrucken

Am Ende brauchen Sie diese Rechnung nur noch auszudrucken Schnellstart die erste Rechnung Nachdem Sie die durch die Installation eine Grundkonfiguration vorgenommen haben, können Sie gleich eintauchen und Ihre erste Rechnung erstellen. Dazu müssen Sie im Grunde

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

XML-Translation Engine

XML-Translation Engine XML-Translation Engine Über die XML-Translation Engine Die XML-Translation Engine ist ein eigenständiges Tool (Add-On), das auf Visual Localize basiert. Die XML-Engine ermöglicht Ihnen die schnelle und

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Datennahme-Software für den Versuch 'Szintillatoren'

Datennahme-Software für den Versuch 'Szintillatoren' Datennahme-Software für den Versuch 'Szintillatoren' Diese Anleitung beschreibt die Funktionen der Datennahme-Software (Data Acquisition Sofware, kurz DAQ) für die Versuche F80/81 'Szintillatioren' im

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Neuronale Netze u. Anwendungen, 17. Jan. 2012

Neuronale Netze u. Anwendungen, 17. Jan. 2012 Neuronale Netze u. Anwendungen, 17. Jan. 2012 Backpropagation Implementation Speed, Training Generalization Choice of Architecture Algorithms Backpropagation is Computer Intenstive during Training very

Mehr

Kennen Sie Microsoft s NEWT?

Kennen Sie Microsoft s NEWT? NetWorker - Tests Tip 9, Seite 1/11 Kennen Sie Microsoft s NEWT? 1. Allgemeines Wie können Sie den Durchsatz auf einer Netzwerk-Verbindung beschränken? - Warum sollten Sie das überhaupt tun wollen? - Sollte

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

8. Vorlesung Neuronale Netze

8. Vorlesung Neuronale Netze Soft Control (AT 3, RMA) 8. Vorlesung Neuronale Netze Lernverfahren 8. Vorlesung im Aufbau der Vorlesung 1. inführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011 Hinweis: Alle Projekte sind angemessen zu dokumentieren. Die Dokumentation

Mehr

Erstellen von Grafiken in Excel

Erstellen von Grafiken in Excel Erstellen von Grafiken in Excel 1. Geeignetes Tabellenlayout überlegen 2. Einfügen von Mittelwerten und Standardabweichungen Feld, in dem der Mittelwert stehen soll (I6), durch Anklicken markieren Button

Mehr

Anleitung zum Java - Applet

Anleitung zum Java - Applet Anleitung zum Java - Applet Stetige Verteilungen Visualisierung von Wahrscheinlichkeit und Zufallsstreubereich bearbeitet von: WS 2004 / 2005 E/TI 7 betreut von: Prof. Dr. Wilhelm Kleppmann Inhaltsverzeichnis

Mehr

Lernende Vektorquantisierung

Lernende Vektorquantisierung Lernende Vektorquantisierung (engl. Learning Vector Quantization) Rudolf Kruse Neuronale Netze 5 Motivation Bisher: festes Lernen, jetzt freies Lernen, d.h. es existieren keine festgelegten Klassenlabels

Mehr

Anleitung zum Methodenlehre und Statistik LernErfolgsTest (MSLET)

Anleitung zum Methodenlehre und Statistik LernErfolgsTest (MSLET) Anleitung zum Methodenlehre und Statistik LernErfolgsTest (MSLET) Wintersemester 2017/18 (update 11.10.17) 2 Methodenlehre und Statistik LernErfolgsKontrolle Inhaltsverzeichnis Der MSLET Was ist das?...

Mehr

1. Anleitung: telemed DFÜ Setup Programm

1. Anleitung: telemed DFÜ Setup Programm 1. Anleitung: telemed DFÜ Setup Programm Nachfolgend finden Sie eine Anleitung zur Verwendung des telemed DFÜ Setup Programms. Dieses Programm gibt es in jeweils einer Version für die Betriebssysteme Windows

Mehr

Konvergenz von Hopfield-Netzen

Konvergenz von Hopfield-Netzen Matthias Jauernig 1. August 2006 Zusammenfassung Die nachfolgende Betrachtung bezieht sich auf das diskrete Hopfield-Netz und hat das Ziel, die Konvergenz des Verfahrens zu zeigen. Leider wird dieser Beweis

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Finanzmarktprognose mit neuronalen Netzen

Finanzmarktprognose mit neuronalen Netzen Reihe: Quantitative Ökonomie Band 131 Herausgegeben von Prof. Dr. Eckart Bomsdorf, Köln, Prof. Dr. Wim Kösters, Bochum, und Prof. Dr. Winfried Matthes, Wuppertal Dr. Christoph A. Hövel Finanzmarktprognose

Mehr

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale

Mehr

Technische Voraussetzungen zum elektronischen Ausfüllen der Formulare Abrechnungserklärung Leitender Notarzt Einsatzdokumentation Leitender Notarzt

Technische Voraussetzungen zum elektronischen Ausfüllen der Formulare Abrechnungserklärung Leitender Notarzt Einsatzdokumentation Leitender Notarzt Technische Voraussetzungen zum elektronischen Ausfüllen der Abrechnungserklärung Leitender Notarzt Einsatzdokumentation Leitender Notarzt Inhaltsverzeichnis Allgemeines... 2 Information zum Adobe Reader...

Mehr

Anleitung zum Applet. Rangwerte

Anleitung zum Applet. Rangwerte Rangwerte 1 Anleitung zum Applet Rangwerte bearbeitet von: Erwin Wagner WS 2006/2007 E/TI betreut von: Prof. Dr. Wilhelm Kleppmann Rangwerte 2 Inhaltsverzeichnis 1 VORWORT... 3 2 BENUTZEROBERFLÄCHE...

Mehr

Erstellung von Reports mit Anwender-Dokumentation und anderen Textbausteinen

Erstellung von Reports mit Anwender-Dokumentation und anderen Textbausteinen 11/17 Erstellung von und anderen Textbausteinen In der ArtemiS SUITE 1 steht eine sehr flexible Report-Funktion zur Verfügung, die Ihnen die übersichtliche Darstellung Ihrer Analyse-Ergebnisse in Reports

Mehr

Automatische Spracherkennung

Automatische Spracherkennung Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.

Mehr

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Neuronale Netze. Seminar aus Algorithmik Stefan Craß, Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze

Mehr

SVG Maut Exact. SVG Wir bewegen Logistik

SVG Maut Exact. SVG Wir bewegen Logistik SVG Wir bewegen Logistik Inhaltsverzeichnis Registrierung und Login... 2 Meldung über Programänderungen und administrative Mitteilungen... 4 Menüleiste und Aufteilung des Programms... 4 1. Imports... 4

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Um einen Drucker mit der Multidoc-Funktion zu erstellen, müssen Sie zu allererst ein eigenständiges Profil erstellen, dass diese Funktion ausführt.

Um einen Drucker mit der Multidoc-Funktion zu erstellen, müssen Sie zu allererst ein eigenständiges Profil erstellen, dass diese Funktion ausführt. 1 of 7 14.06.2015 14:09 Exkurs: Wie richte ich einen Multidoc-Drucker in FreePDF ein? 1. Profil für FreePDF Um einen Drucker mit der Multidoc-Funktion zu erstellen, müssen Sie zu allererst ein eigenständiges

Mehr

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze Vorlesung Künstliche Intelligenz Wintersemester 2008/09 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der

Mehr

FAQ Kommunikation über PROFIBUS

FAQ Kommunikation über PROFIBUS FAQ Kommunikation über PROFIBUS Kommunikation über PROFIBUS FAQ Inhaltsverzeichnis Inhaltsverzeichnis... 2 Frage... 2 Wie konfiguriere ich eine PC-Station als DP-Master zur Anbindung an einen DP-Slave

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

SatChannelListEditor und TitanNit

SatChannelListEditor und TitanNit SatChannelListEditor und TitanNit Diese Anleitung bezieht sich auf die Version 4.8 von SatChannelListEditor. In zukünftigen Versionen werden evtl. neue Features hinzugefügt, wodurch sich die Ansicht des

Mehr