Neuronale Netze. 11.Januar.2002

Größe: px
Ab Seite anzeigen:

Download "Neuronale Netze. 11.Januar.2002"

Transkript

1 Neuronale Netze Stefan Otto Matrikelnummer: Studiengang: Informatik ProSeminar WS 2001/2002 Institut für Informatik Technische Universität Clausthal 11.Januar

2 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis 1 Einleitung 3 2 Biologisches Vorbild Arbeitsweise von Nervenzellen künstliche Neuronen 6 4 Netztopologien Feedforward-Netze Recurrente Netze Dimensionierung Neuronaler Netze Lernverfahren Lernparadigmen Hebb'sche Lernregel Netztypen Perzeptron Assoziative Netze Backpropagation-Netze Hopeld-Modell Einsatzgebiete Neuronaler Netze Ein Beispiel aus dem medizinischen Bereich

3 1 EINLEITUNG 3 1 Einleitung Die Idee, die hinter der Erschaung künstlicher neuronaler Netze steht, ist dem Computer das Lernen beizubringen. Als Ansatz, um dieses Ziel zu erreichen, ahmt man biologische neuronale Netze nach. Man verspricht sich von dieser Vorgehensweise einige Vorteile: Übertragbarkeit von Lösungsansätzen aus der Natur Parallelisierbarkeit hohe Rechenleistung Redundanz Fehlertoleranz Lernfähigkeit geringer Programmieraufwand Um ein künstliches neuronales Netz herstellen zu können, muÿ man sich erst einmal mit dem Aufbau der biologischen neuronalen Netze auseinandersetzen, wobei man sich über folgende Punkte klar werden muÿ: Wie funktionieren die Neuronen (Nervenzellen)? Wie sind Sie Verbunden (Netzstruktur)? Wie lernen Neuronale Netze? Diese Punkte sollen in den nächsten 4 Abschnitten behandelt werden. Im Anschluÿ werde ich einige Netztypen vorstellen, um dann zum Abschluÿ auf einige Anwendungen neuronaler Netze einzugehen.

4 2 BIOLOGISCHES VORBILD 4 2 Biologisches Vorbild Zunächst einmal möchte ich den Aufbau eines Neurons (Nervenzelle) vorstellen: Ein Neuron besteht aus folgenden Grundkomponenten: - Zellkörper (soma) - Zellkern (Nucleus) - Dendriten - Nervenfaser (Axon) - Synapsen Der Zellkörper enthält neben dem Zellkern diverse andere funktionelle Einheiten (Organellen) die für das Überleben der Zelle wichtig sind, die wir aber in unserer Betrachtung vernachlässigen können, da Sie mit den Funktionen, die uns interessieren, nichts zu tun haben. Der Zellkern hat die Aufgabe, die Eingangssignale zu verarbeiten und unter gewissen Randbedingungen die Weiterleitung von Ausgangssignalen anzustoÿen.

5 2 BIOLOGISCHES VORBILD 5 Die Dendriten sind dünne, röhrenförmige und meist stark verästelte Fortsätze der Zelle, mit denen die Zelle die Eingangssignale aufnimmt. Die Nervenfaser übernimmt die Weiterleitung der Signale. Sie kann sich verästeln um Ausgaben an mehrere Neuronen weiterzuleiten. Die Nervenfasern enden in den Synapsen. Die Synapsen, die Enden der Nervenfaser, bilden über den synaptischen Spalt die Kontaktschwelle zwischen den Enden der Nervenfaser und den Dendriten von weiteren Neuronen. Synapsen können in zwei Arten unterteilt werden, hemmende und erregende Synapsen. 2.1 Arbeitsweise von Nervenzellen Die Arbeitsweise von Neuronen beruht auf relativ komplexen elektro-chemischen Prozessen, auf die ich hier nicht näher eingehen möchte. Interessierten sei [2] empfohlen. Ich möchte hier kurz die Zusammenhänge erläutern die wir zur Simulation neuronaler Netze benötigen. Der Datenuÿ in einem Neuron beginnt in den Dendriten. Über diese kommen die Signale von anderen Neuronen an. Im Zellkern werden diese Signale dann verarbeitet. Die Ausgabe erfolgt über das Axon. Die Verarbeitung besteht aus einer einfachen Schwellwertfunktion. Die ankommenden Signale weden aufsummiert. Sobald diese Summe einen bestimmten Wert (Schwellwert) überschreitet sendet das Neuron ein Signal über sein Axon (das Neuro feuert). Eine Variation der Stärke des Signals ist dabei nicht direkt möglich, kann aber auf zwei Arten erreicht werden: 1. über die Frequenz der Ausgangssignale. 2. an den Synapsen. An den Synapsen kann die Stärke des Signals verändert werden, sowie auch das Signal invertiert werden. Diese invertierten Signale hemmen die folgenden Neuronen, da bei der Summierung dieses invertierte Signal die Summe verkleinert.

6 3 KÜNSTLICHE NEURONEN 6 3 künstliche Neuronen Künstliche Neuronen sind stark idealisiert. Sie bestehen aus: Dem Eingabevektor x ˆ= Den Dendriten Dem Verbindungsgewicht w } ˆ= Den Synapsen Der Aktivierungsfunktion f a ˆ= Dem Zellkörper Der Ausgabefunktion f o Dem Ausgabewert o ˆ= Dem Axon Die Funktion dieser künstlichen Neuronen orientiert sich stark an der Funktion echter Neuronen. Über den Eingabevektor x kommen die Signale der anderen Neuronen an. Diese werden durch das Verbindungsgewicht w, welches den Synapsen entspricht, mit einem Faktor verändert, beziehungsweise invertiert. Die so entstandenen gewichteten Eingangswerte treen nun auf die Aktivierungsfunktion, welche meist eine einfache Summenfunktion der Form: n f a ( x, w) = x i w i. i=1 Das Ergebnis dieser Formel wird wiederum als Eingabe in die Ausgabefunktion gesteckt, die oft eine Schwellwertfunktion ist. n f o (f a ( x, w)) = F o ( x i w i ) = i=1 { 1: falls ni=1 x i w i S 0: sonst. Andere Funktionen die für die Ausgabefunktion f o verwendet weden sind die sogenannten sigmoiden (s-förmige) Funktionen.Einige Beispiele sind: linear bis Sättigung. sin(x) bis Sättigung logistische Funktion f(x) = 1 1+e x. tangens hyperbolicus tanh(x).

7 3 KÜNSTLICHE NEURONEN 7 Die Formale Darstellung eines Neurons ist ein Tupel ( x, w, f a, f o, o) mit: x = Eingangsvektor w = Gewichtsvektor f a ( x, w) = Aktivierungsfunktion f o (f a ( x, w)) = Ausgabefunktion o = Ausgabewert Graphisch lässt sich das folgendermaÿen darstellen:

8 4 NETZTOPOLOGIEN 8 4 Netztopologien Verbindet man mehrere Neuronen, so erhält man ein Neuronales Netz. Ein Neuronales Netz ist deniert als Tupel (N, V ) mit einer Menge von Neuronen N und einer Menge V von Verbindungen. Es besitzt die Struktur eines gerichteten Graphen, mit folgenden Eigenschaften: i. Die Knoten der Graphen sind Neuronen. ii. Die Kanten heiÿen Verbindungen. iii. Jedes Neuron kann beliebig viele Verbindungen empfangen. iv. Jedes Neuron kann eine Ausgabe über beliebig viele Verbindungen aussenden. v. Das neuronale Netz hat Verbindungen die von Auÿen kommen und Verbindungen die nach auÿen gehen. Darstellung eines H-schichtigen künstlichen Neuronalen Netzes mit einer Einund einer Ausgabe-Schicht, sowie H-2 verborgenen Schichten.

9 4 NETZTOPOLOGIEN 9 Die Topologie lässt sich auf zwei Arten recht anschaulich darstellen: 1. graphisch, als kantenbewerteten gerichteten Graph: 2. als Matrix: , 5 0 0, , 2 0 0, 2 0, , , , , , wobei die Zeilen und die Spalten mit den Neuronen identiziert werden. An die Kreuzungspunkte schreibt man die Gewichte der Verbindungen, wobei gilt: w ij = 0 : Keine Verbindung von Neuron i zu Neuron j. w ij < 0 : hemmende Verbindung der Stärke w ij. w ij > 0 : anregende Verbindung der Stärke w ij.

10 4 NETZTOPOLOGIEN Feedforward-Netze Feedforward-Netze sind Netze ohne Rückkopplungen. Bei dieser Netztopologie gibt es nur vorwärtsgerichtete Kanten (von der Eingabe- zur Ausgabe- Schicht), was bedeutet das es ein zyklenfreier Graph ist. Es gibt zwei Arten von Feedforward-Netzen: Schichtenweise verbundene Feedforward-Netze. Bei dieser Topologie werden die einzelnen Neuronen in Schichten eingeteilt, und es existieren nur Verbindungen von einer Schicht zur Nächsten. Allgemeine Feedforward-Netze (mit shortcut connections) sind ebenfalls in Schichten eingeteilt, hier dürfen aber Verbindungen über mehrere Schichten hinweg existieren. 4.2 Recurrente Netze Recurrente Netze sind wiederum Netze mit Rückkopplungen wobei es auch hier mehrere unterscheidbare Arten gibt. 1. direkte Rückkopplungen (direct feedback) Neuronen mit direct feedback nehmen oft Grenzzustände an, da sie sich selbst verstärken oder hemmen. 2. indirekte Rückkopplungen (indirect feedback) Mit diesen Netzen ist eine Aufmerksamkeitssteuerung möglich, da sie Verbindungen haben die mehrere Schichten zurückgehen können. 3. Rückkopplungen in einer Schicht (lateral feedback) werden eingesetzt wenn nur ein Neuron pro Schicht aktiv werden soll. (winner-takes-all Netzwerk) 4. vollständig verbundene Netze Es gibt Verbindungen zwischen allen Neuronen. Ein Beispiel hierfür sind Hopeld-Netze, auf die ich später noch eingehen werde. Rückkopplungen werden eingesetzt um Zeitabhängigkeiten bei Daten, wie z.b. bei Schwingungen, modellieren zu können. Über Die Rückkopplungen erhält man in Bereichen des Neuronalen Netzes nicht nur die neuen Daten, sondern auch wieder die (bereits verarbeiteten) alten Daten.

11 4 NETZTOPOLOGIEN Dimensionierung Neuronaler Netze Beim entwurf Neuronaler Netze stellt sich irgendwann die Frage: Wieviele Neuronen brauche ich? und Wie viele Zwischenschichten benötige ich?. Es wurden vielfach Vorschläge zur Berechnung der Gröÿe der Zwischenschichten gemacht, diese widersprechen sich aber zum Teil und sind praktisch von geringer Bedeutung. Die Entwicklung eines neuronalen Netzes besteht zum groÿen Teil aus experimenteller Arbeit. Häug startet man mit einer bestimmten Anzahl von Neuronen in einer Zwischenschicht und variiert diese solange, bis das Netz die gewünschten Eigenschaften hat. Dazu erzeugt man sich geeignete Mengen von Trainings- und Testdaten, trainiert das Netz und testet die Verallgemeinerungsfähigkeiten mit den Testdaten. Je nach Ergebnis kann man dann die Zahl der Neuronen variieren. Folgende heuristischen Regeln haben sich bewährt: 1. Wenn der Fehler im Trainingszyklus klein ist, der Fehler beim Testen dagegen groÿ, verallgemeinert das Netz nicht. In der Regel bedeutet das, daÿ die Zahl der Gewichte und damit die Zahl der Neuronen in der Zwischenschicht zu groÿ ist. 2. Wenn der Fehler im Trainingszyklus groÿ ist, hat das Netz eventuell zu wenig Neuronen in der Zwischenschicht. 3. Wenn alle Gewichte von etwa der gleichen Gröÿenordnung sind, dann hat das Netz meist zu wenig Neuronen. 4. Man kann immer Neuronen hinzufügen, die Fehler können aber auch andere Ursachen haben! Beispielsweise kann man nicht erwarten, daÿ ein Netz mit einem geringen Fehler vorhersagt, wenn die Rohdaten selbst mit einem höheren statistischen oder systematischen Fehler behaftet sind.

12 5 LERNVERFAHREN 12 5 Lernverfahren Das Lernen innerhalb eines Neuronalen Netzes erfolgt durch Selbstmodikation gemäÿ einer fest vorgegebenen Vorschrift (Lernregel). Prinzipiell kann der Lernprozeÿ bestehen aus Entwicklung neuer Verbindungen Löschen existierender Verbindungen Veränderung der Gewichte der Verbindungen Ändern des Schwellwertes Modikation der Aktivierungs- bzw. Ausgabefunktion Entwickeln neuer Neuronen Entfernen bestehender Neuronen Die derzeit am häugsten verwendete Methode ist die Veränderung der Gewichte, wobei in letzter Zeit auch Verfahren, die eine Veränderung der Topologie beinhalten zunehmend an Bedeutung gewinnen. Desweiteren gibt es verschiedene Zeitpunkten zu denen diese Modikationen ausgeführt werden können: Erfolgt die Anpassung der Gewichte nach jeder Präsentation eines Datensatzes spricht man von online-training. Erfolgt die Anpassung hingegen nach der Präsentation mehrerer Beispiele so spricht man von oine- oder batch-training. Das Training geschieht meist in Zyklen. Unter einem Trainingszyklus (Epoche, sweep) versteht man die vollständige Präsentation eines Trainingsdatensatzes. Beim Training von künstlichen Neuronalen Netzen in mehreren Zyklen ist zu beachten, dass man die Trainingsbeispiele in unterschiedlicher Reihenfolge präsentiert, da das Netz sonst unter Umständen die Reihenfolge lernt (vergleichbar mit dem Eekt der beim Vokabellernen auftritt).

13 5 LERNVERFAHREN Lernparadigmen Weiterhin kann man die Lernparadigmen unterscheiden. Hier lassen sich folgende drei Arten unterscheiden: 1. Überwachtes Lernen (supervised learning) Beim überwachten Lernen gibt ein externer Lehrer dem Netz zu jeder Eingabe die korrekte Ausgabe oder die Dierenz der tatsächlichen Ausgabe zur korrekten Ausgabe an. Anhand dieser Differenz wird dann über die Lernregel das Netz modiziert. Diese Technik setzt Trainingsdaten, deren korrekte Lösung bekannt ist, voraus. Beispiele: Hebb'sche Lernregel δ-regel erweiterte δ-regel 2. Bestärkendes Lernen (reinforcement learning) Der unterschied zum Überwachten Lernen besteht darin, dass dem Netz nur Gesagt ob die Ausgabe korrekt war oder nicht und nicht die Abweichung vom exakten Wert. 3. Unüberwachtes Lernen (unsupervised learning) Bei diesem Lernparadigma (auch self-organized Learning genannt) gibt es keinen Lehrer. Das Netz versucht die Daten selbstständig in Ähnlichkeitsklassen aufzuteilen. Beispiel: Hopeld-Netze

14 5 LERNVERFAHREN Hebb'sche Lernregel Dies war die erste Lernregel. Sie wurde 1949 von dem Psychologen Donald Hebb formuliert, der damit die Lernfähigkeit des Hirns zu erklären versuchte. Der Algorithmus lautete: Wenn ein Axon der Zelle A nahe genug ist, um eine Zelle B zu erregen und wiederholt oder dauerhaft sich am Feuern beteiligt, geschieht ein Wachstumsprozeÿ oder metabolische Änderung in einer oder beiden Zellen dergestalt, dass A's Ezienz, als eine der auf B feuernden Zellen anwächst. In ein mathematisches Modell übertragen heiÿt das: Wenn Neuron j eine Eingabe von Neuron i erhält und beide gleichzeitig stark aktiv sind, dann erhöht sich das Gewicht w ij oder als Formel: mit wobei w t+1 ij = w t ij + w ij w ij = η o i a j w ij : Änderung des Gewichts w ij η : Lernrate o i : Ausgabe der Vorgängerzelle i : Aktivität der Nachfolgerzelle j a j

15 6 NETZTYPEN 15 6 Netztypen 6.1 Perzeptron Das erste eektive künstliche Neuronale Netz wurde 1958 von dem Psychologen F. Rosenblatt entwickelt. Das ursprüngliche Perzeptron bestand aus einer Eingabeschicht und einer einelementigen Ausgabeschicht (Ausgabeneuron). Dieses Prinzip lässt sich ohne Probleme zu einem mehrschichtigen Perzeptron erweitern. Die Mächtigkeit dieser Zweischichtigen, einstugen Perzeptrone ist jedoch begrenzt, so ist es zum Beispiel nicht möglich mit einem solchen Perzeptron, dass XOR Problem zu lösen. Ein einstuges Neuronales Netz kann nur linear separierbare Funktionen darstellen. 6.2 Assoziative Netze Assoziative Netze sind dreischichtige Netze, die neben der Ein- und Ausgabeschicht noch eine Arbeitsschicht haben. Sie haben die Aufgabe Vektorpaare aufeinander abzubilden, wobei auch verrauschten Eingaben x k + ɛ die richtigen Ausgaben y k + δ zugeordnet werden soll 6.3 Backpropagation-Netze Das Backpropagation-Verfahren wurde in den 70er Jahren von mehreren Autoren, unabhängig voneinander vorgeschlagen. Anschlieÿend geriet es 10 Jahre in Vergessenheit, bis es - wiederum unabhängig voneinander von meherern Autoren wiederentdeckt wurde. Wie bei den meisten anderen Arten von Neuronalen Netzen gibt es nicht das Backpropagation- Netz. Backpropagation-Netze sind eine Klasse von Neuronalen Netzen, die die im folgenden beschriebenen Eigenschaften haben. Die Basis für Backpropagation-Netze bildet ein mehrschichtiges Feedforward- Netz, bestehend aus einer Eingabeschicht, einer Ausgabeschicht und mindestens einer Verborgenen Schicht. Die Backpropagation-Netze haben auÿerdem noch folgende Gemeinsamkeiten: Die Neuronen sind in H 3 Schichten angeordnet(i bezeichnet die i-te Schicht).

16 6 NETZTYPEN 16 Die nullte Schicht U 0 (Eingabeschicht) besteht aus n Verteilerneuronen(die ihre jeweilige Eingabe unverändert an die nächste Schicht weitergeben). Diese Neuronen besitzen keine Eingangsgewichte. Die nun folgenden H 2 Schichten sind verborgene Schichten. Die (H 1).-Schicht U H 1 ist die Ausgabeschicht. Das Besondere bei den Backpropagation-Netzen ist aber das Lernverfahren. Dieses erfolgt bei Backpropagation-Netzen mit dem Backpropagation- Algorithmus. Dieser Algorithmus besteht aus drei Abschnitten, arbeitet nach dem Prinzip des Überwachten Lernens und benutzt als Lernregel eine erweiterte δ-regel. 1. Forward-Pass Dem Netz wird ein Eingabevektor aus der Trainingsmenge präsentiert (eingegeben), dieser passiert das Netz und ergibt an der Ausgabeschicht den Ausgabevektor o. 2. Bestimmung des Fehlers Die von Netz gelieferte Ausgabe o wird mit der korrekten Lösung o verglichen. Liegt der Fehler unterhalb einer vorgegebenen Güteschwelle, so wird das Training abgebrochen und gegebenenfalls eine Testphase eingeleitet, andernfalls folgt eine Selbstmodikation nach Schritt Backward-Pass Der Backward-Pass erfolgt in umgekehrter Richtung wie der Forward- Pass. In ihm werden die Gewichte der Verbindungen von der Ausgabeschicht U H 1 beginnend Schichtenweise nach einer Vorgegebenen Lernregel verändert. Dabei wird für die Veränderung der Gewichte in der Ausgabeschicht (U H 1 ) die Dierenz o o verwendet. In der Schicht U H 2 dienen die Gewichte der H 1. Schicht, bzw. deren Änderung als Grundlage für die Änderung der Gewichte.

17 6 NETZTYPEN Hopeld-Modell Hopeld-Netze sind vollständig vernetzte Neuronale Netze. Sie müssen allerdings noch zwei zusätzliche Bedingungen bezüglich der Vernetzung erfüllen. Erstens müssen sie symmetrisch sein und zweitens dürfen sie keine direkten Rückkopplungen haben. Diese Voraussetzungen müssen gemacht werden, damit das Netz gegen einen stabilen Zustand konvergiert. Die Arbeit mit Hopeld-Netzen unterscheidet sich im Ansatz von anderen Neuronalen Netzen, da es hier keine Eingabe- bzw. Ausgabeschicht gibt. Hier wird alles über die Zustände der Neuronen bestimmt. Man gibt die Eingabe als Zustände in die Neuronen, dann lässt man das Netz die Zustände der Neuronen so lange neu berechnen bis sich nichts mehr ändert. Die Neuronenzustände zu diesem Zeitpunkt repräsentieren das Ergebnis. Diese Netze haben keine vorgeschaltete Lernphase, sondern sie unterteilen die Eingaben in Äquivalenzklassen. Bei Hopeld-Netzen gibt es zwei Arbeitsweisen: 1. Asynchrone Aktivierung Es wird immer zufällig ein Neuron ausgewählt und dessen Zustand neu berechnet. Bei dieser Methode konvergiert das Netz immer gegen einen Endzustand. 2. Synchrone Aktivierung Bei dieser Aktivierungsmethode werden die Zustände aller Neuronen gleichzeitig neu berechnet. Hierbei kann es zu Schwingungen zwischen mehreren Endzuständen kommen, die ein identisches Energieniveau haben. Diese bilden eine Aquivalenzklasse, die das Ergebnis beschreiben. Bei der Asynchronen Aktivierung kommt eines der zu dieser Äquivalenzklasse gehörenden Ergebnisse heraus. Welches hängt von der Reihenfolge der Zustandsänderungen ab. Hopeld-Netze werden benutzt um Näherungslösungen für aufwendige Probleme zu bekommen, oder zur Untersuchung physikalischer Modelle.

18 7 EINSATZGEBIETE NEURONALER NETZE 18 7 Einsatzgebiete Neuronaler Netze Neuronale Netze werden dort eingesetzt, wo die Zusammenhänge zwischen Ein- und Ausgabedaten nicht erkennbar sind. Wobei aber zu beachten ist, dass ein solcher Zusammenhang trotzdem existieren muÿ. Zum Beispiel ist es nicht möglich, ein Neuronales Netz mit den Lottozahlen der vergangenen Monate zu trainieren und zu erwarten, dass das Neuronale Netz einem dannach die Lottozahlen der nächsten Woche verraten kann. Hingegen ist es schon möglich, ein Neurales Netz mit den Wetterdaten der letzten Monate zu trainieren und es das Wetter von Morgen vorherbestimmen zu lassen. Einige Bereiche, in denen neuronale Netze verwendet werden, sind: Mustererkennung Sprachanalyse Spracherzeugung Bildverarbeitung realisierung von Assoziativspeichern Näherungslösungen von aufwendigen Problemen Bei der Arbeit mit Neuronalen Netzen ist aber zu beachten, dass man das Netz für einen vernünftigen Einsatz richtig trainieren muÿ. Man benötigt groÿe Trainingsdatensätze und Testdatensätze, die ungleich den Trainingsdatensätzen sind, um eine Fehlerabschätzung der Ausgaben vornehmen zu können.

19 7 EINSATZGEBIETE NEURONALER NETZE Ein Beispiel aus dem medizinischen Bereich Dieses Beispiel soll einen kleinen Einblick in die Arbeit mit Neuralen Netzen vermitteln. Es ist in [1] zu nden. 1. Beschreibung des Projekts Im Rahmen einer medizinischen Studie zur aktiv-spezischen Immuntherapie (ASI) für Krebs werden Patienten mit dieser Therapie behandelt und gleichzeitig werden von diesen Patienten eine Reihe von klinischen Daten und Immundaten bestimmt. Im Rahmen der Therapie erhält ein Patient bis zu drei Impfungen. Vor und nach jeder Impfung wird ein Immunstatus des Patienten erstellt. Es ist sehr schwer, aus diesen Daten Schlüsse zu ziehen, da die Bedeutung der einzelnen Immundaten für die Therapie nicht klar ist. Daher soll mit Hilfe eines neuronalen Netzes versucht werden, den Therapiefortschritt in Abhängigkeit von den klinischen Daten und den Immundaten zu erhalten. Langfristig besteht das Ziel, aus den Patientendaten einen Index zu berechnen, der angibt, welchen Erfolg man von einer Immuntherapie für einen einzelnen Patienten erwarten kann. Dieser Index kann aus den klinischen Daten und dem anfänglichen Immunstatus oder eventuell aus der Reaktion auf die erste Impfung ermittelt werden. 2. Vorarbeiten Bevor die Entwicklung eines neuronalen Netzes möglich ist, ist es notwendig, den gesuchten Index zu denieren. Diese Denition benötigt man, da das neuronale Netz mit vollständigen Datensätzen trainiert werden muÿ. Die Patienten sind über einen unterschiedlich langen Zeitraum beobachtet worden. Das Hauptproblem besteht darin, daÿ der Fortschritt der Therapie natürlich vom Beobachtungszeittraum abhängt. Man muÿ deshalb für eine unterschiedliche Gewichtung der einzelnen Datensätze beim Training des Netzes und beim Test sorgen, wobei sich die Gewichtung nach dem Beobachtungszeitraum richtet. Natürlich werden auch alle Eingabedaten kodiert, denn Sie müssen für die Verarbeitung geeignet normiert werden.

20 7 EINSATZGEBIETE NEURONALER NETZE Implementierung eines neuronalen Netzes Zu Beginn des Projekts standen von etwa 200 Patienten Daten zur Verfügung. Da diese Daten nicht immer systematisch aufgenommen worden waren, waren nicht alle Datensätze vollständig. Ein Dilemma bestand also darin, daÿ die Rechnung zum Beispiel mit einem reduzierten Datensatz und mehr Patienten, oder mit einem vollständigen Datensatz und weniger Patienten durchgeführt werden konnte. Da a priori nicht klar ist, welche Daten besonders relevant sind, wurden zunächst Rechungen mit vollständigen Datensätzen durchgeführt. Da die Zahl der Patienten aber sehr klein war, waren die statistischen Fehler relativ groÿ. Es deutete sich aber an, daÿ von den Immundaten und den klinischen Daten nicht alle wichtig sind, so daÿ anschlieÿend mit kleineren Datensätzen von mehr Patienten weitergerechnet werden konnte. Das Ergebnis dieser Rechnungen war, daÿ ein Mehr-Schicht Perceptron mit einer Zwischenschicht in der Lage ist, die Daten zu lernen und mit einem gewissen Fehler auch Vorhersagen zu machen. Der Fehler lag bei diesen Rechnungen allerdings noch zu hoch. Der Grund dafür waren zu groÿe statistische Fehler bei den Eingabedaten. Um die Fehler bei den Eingabedaten zu minimieren, wurde die Bestimmung der Immunstaten automatisiert und standardisiert. Seit einiger Zeit läuft eine neue Studie zur ASI, an der 600 Patienten teilnehmen sollen. Die statistischen Fehler der Immundaten sind für diese Patienten geringer, die Zahl der Patienten ist zudem gröÿer, so daÿ man erwarten kann, daÿ mit diesen neuen Daten ein neuronales Netz erfolgreich trainiert werden kann. Dabei sind die bisher gewonnenen Erfahrung natürlich von groÿem Nutzen. 4. Ausblick Die Dauer der Studie ist auf mehrere Jahre angelegt. Auch wird man erst nach mehreren Jahren den Erfolg der Therapie an den an der neuen Studie teilnehmenden Patienten wirklich beurteilen können. Erste Voruntersuchungen mit einem Teil der neuen Patientendaten sollten aber in naher Zukunft schon möglich sein.

21 LITERATUR 21 Literatur [1] Homepage zu Neuralen Netzen [2] Skript zur Einführung in neuronale Netze Uni Münster SS [3] Alois Heinz, Neuronale Netze für Kombinatorische Optimierung Uni Freiburg heinz/nnko/ [4] DUDEN Informatik Brockhaus AG Mannheim 2001 [5] Hendrik Lübben, Träumende Netze TU Berlin compuman/nn/ [6] Anderas Zell Neuronale Netze auf MasPar, Paragon & Neurocomputer Uni Stuttgart

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

11. Neuronale Netze 1

11. Neuronale Netze 1 11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

Universität Klagenfurt

Universität Klagenfurt Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.

Mehr

Neuroinformatik. Übung 1

Neuroinformatik. Übung 1 Neuroinformatik Übung 1 Fabian Bürger Raum: BC419, Tel.: 0203-379 - 3124, E-Mail: fabian.buerger@uni-due.de Fabian Bürger (fabian.buerger@uni-due.de) Neuroinformatik: Übung 1 1 / 27 Organisatorisches Neuroinformatik:

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Rekurrente / rückgekoppelte neuronale Netzwerke

Rekurrente / rückgekoppelte neuronale Netzwerke Rekurrente / rückgekoppelte neuronale Netzwerke Forschungsseminar Deep Learning 2018 Universität Leipzig 12.01.2018 Vortragender: Andreas Haselhuhn Neuronale Netzwerke Neuron besteht aus: Eingängen Summenfunktion

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze

Mehr

Proseminar Neuronale Netze Frühjahr 2004

Proseminar Neuronale Netze Frühjahr 2004 Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

7. Vorlesung Neuronale Netze

7. Vorlesung Neuronale Netze Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

auch: Konnektionismus; subsymbolische Wissensverarbeitung

auch: Konnektionismus; subsymbolische Wissensverarbeitung 10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Automatische Spracherkennung

Automatische Spracherkennung Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.

Mehr

Neuronale Netze zur Dokumentenklassifikation

Neuronale Netze zur Dokumentenklassifikation Neuronale Netze zur Dokumentenklassifikation Manuel Ihlenfeld 10. Mai 2005 Überblick Neuronale Netze können zum Erkennen und Klassifizieren von Mustern eingesetzt werden. Bei der Dokumentenklassifikation

Mehr

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???

Mehr

Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz

Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung - zur Veröffentlichung bei LuxJunior 2003 - Krzyzanowski, J., Rosemann, A., Kaase, H. Technische Universität Berlin Fachgebiet Lichttechnik,

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

Computational Intelligence 1 / 31. Computational Intelligence Künstliche Neuronale Netze Geschichte 3 / 31

Computational Intelligence 1 / 31. Computational Intelligence Künstliche Neuronale Netze Geschichte 3 / 31 1 / 31 Gliederung 1 Künstliche Neuronale Netze Geschichte Natürliches Neuron Künstliches Neuron Typen von Neuronen Geschichte Künstliche Neuronale Netze Geschichte 3 / 31 1943 Warren McCulloch (Neurologe),

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Grundlagen Künstlicher Neuronaler Netze

Grundlagen Künstlicher Neuronaler Netze FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Intelligente Algorithmen Einführung in die Technologie

Intelligente Algorithmen Einführung in die Technologie Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche

Mehr

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1 Adaptive Systeme Prof. Rüdiger Brause WS 2013 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags 10-12 Uhr, SR11 Übungen Donnerstags 12-13 Uhr, SR 9 Adaptive Systeme M-AS-2

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008

Mehr

6.2 Feed-Forward Netze

6.2 Feed-Forward Netze 6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir

Mehr

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40 Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler

Mehr

Konvergenz von Hopfield-Netzen

Konvergenz von Hopfield-Netzen Matthias Jauernig 1. August 2006 Zusammenfassung Die nachfolgende Betrachtung bezieht sich auf das diskrete Hopfield-Netz und hat das Ziel, die Konvergenz des Verfahrens zu zeigen. Leider wird dieser Beweis

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Andreas Scherer Überarbeitung: Hermann Helbig, Wolfram Schiffmann Kurs 01834 Künstliche Neuronale Netze LESEPROBE Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere das

Mehr

10. Neuronale Netze 1

10. Neuronale Netze 1 10. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Einführung in. Neuronale Netze

Einführung in. Neuronale Netze Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07

Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Universität Regensburg Naturwissenschaftliche Informatik Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Cluster-Algorithmen II: Neural Gas Vortragender: Matthias Klein Gliederung Motivation:

Mehr

Objekt Attributwerte Klassifizierung X Y

Objekt Attributwerte Klassifizierung X Y AUFGABE : Entscheidungsbäume Betrachten Sie das folgende Klassifizierungsproblem: bjekt Attributwerte Klassifizierung X Y A 3 B 2 3 + C 2 D 3 3 + E 2 2 + F 3 G H 4 3 + I 3 2 J 4 K 2 L 4 2 ) Bestimmen Sie

Mehr

CV12. Deep Learning für Computer Vision

CV12. Deep Learning für Computer Vision Einführung in Visual Computing CV12, Vs.1.9 Robert Sablatnig, Sebastian Zambanini, TU Wien CV12. Deep Learning für Computer Vision CV-46 Maschinelles Lernen Maschinelles Lernen ist ein Teilgebiet der künstlichen

Mehr

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock. Seite 1 Implementierung Neuronaler Netze mittels Digit-Online Algorithmen Vortrag im Rahmen des 10. Symposium Maritime Elektronik 2001 M.Haase, A.Wassatsch, D.Timmermann Seite 2 Gliederung Was sind Neuronale

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz

Mehr

Universität Hamburg. Grundlagen und Funktionsweise von Künstlichen Neuronalen Netzen. Fachbereich Wirtschaftswissenschaften

Universität Hamburg. Grundlagen und Funktionsweise von Künstlichen Neuronalen Netzen. Fachbereich Wirtschaftswissenschaften Universität Hamburg Fachbereich Wirtschaftswissenschaften Institut für Wirtschaftsinformatik Hausarbeit zum Thema 0 Grundlagen und Funktionsweise von Künstlichen Neuronalen Netzen Prof. Dr. D. B. Preßmar

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

Prüfungsprotokoll Diplomprüfung Mathematische Aspekte neuronaler Netze

Prüfungsprotokoll Diplomprüfung Mathematische Aspekte neuronaler Netze Prüfungsprotokoll Diplomprüfung Mathematische Aspekte neuronaler Netze Prüfer: Prof.Dr.Johann Boos Datum: 29.08.2001 Dauer: 30min Note: 1.0 So Sie wollten uns was über zweischichtige neuronale Feed-Forward

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2010 / 2011 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Feedback-Netze Rekurrentes Netze. Jordan- und Elman-Netze, Bidirektionaler assoziativer Speicher, Hopfield-Netz und Boltzmann-Maschine.

Feedback-Netze Rekurrentes Netze. Jordan- und Elman-Netze, Bidirektionaler assoziativer Speicher, Hopfield-Netz und Boltzmann-Maschine. Feedback-Netze Rekurrentes Netze Jordan- und Elman-Netze, Bidirektionaler assoziativer Speicher, Hopfield-Netz und Boltzmann-Maschine. Übung 2 zur Vorlesung Neuronale Netze Institut für Informatik, TU

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Neuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate...

Neuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate... Neuro-Info Notizen Marus Klemm.net WS 6/7 Inhaltsverzeichnis Hebbsche Lernregel. Fälle........................................ Lernrate..................................... Neural Gas. Algorithmus.....................................

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Grundlagen neuronaler Netzwerke

Grundlagen neuronaler Netzwerke AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2014 / 2015 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung

Mehr

Lernregeln. Künstliche neuronale Netze. Professur Psychologie digitaler Lernmedien. Institut für Medienforschung Philosophische Fakultät

Lernregeln. Künstliche neuronale Netze. Professur Psychologie digitaler Lernmedien. Institut für Medienforschung Philosophische Fakultät Professur Psychologie digitaler Lernmedien Institut für Medienforschung Philosophische Fakultät Künstliche neuronale Netze Lernregeln Überblick Definition Lernregeln Hebb-Regel Delta-Regel Gradientenabstiegsverfahren

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze Vorlesung Künstliche Intelligenz Wintersemester 2008/09 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der

Mehr

Einfaches Framework für Neuronale Netze

Einfaches Framework für Neuronale Netze Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.

Mehr