Künstliche Intelligenz. Neuronale Netze

Ähnliche Dokumente
Hannah Wester Juan Jose Gonzalez

Einführung in neuronale Netze

Künstliche neuronale Netze

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Computational Intelligence I Künstliche Neuronale Netze

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

5. Lernregeln für neuronale Netze

Modellbildung und Simulation

Was sind Neuronale Netze?

Kleines Handbuch Neuronale Netze

Praktische Optimierung

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze mit mehreren Schichten

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Grundlagen Künstlicher Neuronaler Netze

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Theoretische Informatik 1

Genetische Algorithmen von der Evolution lernen

Einführung in Neuronale Netze

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS Neuronale Netze. Von Deasy Sukarya & Tania Bellini

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Neuronale Netze in der Robotik

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Big Data Künstliche Intelligenz Und das Ich

auch: Konnektionismus; subsymbolische Wissensverarbeitung

Künstliche neuronale Netze

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Lernverfahren von Künstlichen Neuronalen Netzwerken

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Universität Klagenfurt

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren Thomas Brox, Fabian Kuhn

Exkurs Modelle und Algorithmen

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Reinforcement Learning

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.

Simulation neuronaler Netzwerke mit TIKAPP

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Technische Universität. Fakultät für Informatik

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Hopfield Netze. Neuronale Netze WS 2016/17

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Verbesserungsheuristiken

Machine Learning - Maschinen besser als das menschliche Gehirn?

1 Singulärwertzerlegung und Pseudoinverse

Thema 3: Radiale Basisfunktionen und RBF- Netze

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

KNN für XOR-Funktion. 6. April 2009

3. Das Reinforcement Lernproblem

Künstliche Neuronale Netze (KNN)

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Aufgabe 1: Berechnen Sie für den in Abbildung 1 gegebenen Graphen den. Abbildung 1: Graph für Flussproblem in Übungsaufgabe 1

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN

Künstliche neuronale Netze

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Grundlagen Neuronaler Netze

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Einführung in Neuronale Netze

Kapitel VI Neuronale Netze

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

3 Matrizenrechnung. 3. November

Künstliche Neuronale Netze. 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5.

( ) ( ). Dann heißt die Zahl

Zyklen: break und continue

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Kohonennetze Selbstorganisierende Karten

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

Computational Intelligence 1 / 31. Computational Intelligence Künstliche Neuronale Netze Geschichte 3 / 31

Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung

Euklidische Distanzmatrizen. Andrei Grecu

Einführung in Support Vector Machines (SVMs)

Optimieren unter Nebenbedingungen

2. Optimierungsprobleme 6

l p h (x) δw(x) dx für alle δw(x).

Eine kleine Einführung in neuronale Netze

Selbstorganisierende Karten

Bestimmung einer ersten

Übersicht. 20. Verstärkungslernen

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht

Transkript:

Künstliche Intelligenz Neuronale Netze Richard Schorpp Version. -- 3.8.7

INHALTVERZEICHNIS Inhaltverzeichnis...2. Versionsverwaltung...2 2 Das Neuron... 3 2. Naturbeobachtung...3 2.2 Nachbildung der Natur...4 2.2. Das Perceptron...4 2.2.2 Lösung des EXOR-Problem...7 3 Neuronale Netze...8 3. Vernetzung von Perceptronen...8 3.. Analyse...9 4 Lernfähigkeit... 4. Prinzipien... 4.2 Lernregeln... 4.2. Hebb sche Regel... 4.2.2 erweiterte Hebb'sche Regel... 4.2.3 Delta-Regel... 4.2.4 verallgemeinerte Delta-Regel, Fehlerrückvermittlung... 4.2.5 Instar-Regel... 4.2.6 Outstar-Regel... 4.3 Lernbeispiele... 4.3. Perceptron... 4.3.2 Verallgemeinerte Delta-Regel (Fehlerrückvermittlung)...2 4.4 Alle Eingänge sind Null...3 4.5 Konvergenz... 3 4.5. Momentfaktor...4 4.5.2 Schütteln... 4 4.5.3 Genetischer Algorithmus...4 4.6 Ueberanpassung... 6 5 Topologie der neuronalen Netze...7 5. Perceptron... 7 5.2 Mehrschicht-Perceptron...8 5.3 Rückvermittlungsnetz...9 5.4 Hopfield-Netz... 2 5.5 Beziehungsnetz... 2 5.6 Rekurente Perceptron...22 5.7 Netz zur Zeitreihenverarbeitung...23 6 Andere Anwendungen...24 6. Linearer Prädikator...24 6.. Blockschema...24 6..2 Prinzip... 24 6.2 Simulation einer linearen Regelstrecke...24 6.2. Blockschema...24 6.2.2 Prinzip... 25 6.3 Verteilte Speicherung...25. Versionsverwaltung Version. Datum 2..3 Aenderungen Ursprung -2-3.8.7

2 2. DAS NEURON Naturbeobachtung -3-3.8.7

2.2 Nachbildung der Natur 2.2. Das Perceptron Eine künstliche Zelle ist in der Lage, das Neuron zu simulieren. Bei der Suche nach einem System zur Buchstabenerkennung wurde das Perceptron durch Rosenblatt (958) erfunden. Die Werte von x sind kontinuierlich oder diskret, die Werte von w sind kontinuierlich. Der Ausgang y kann je nach Entscheidungsfunktion kontinuierlich oder diskret sein. Wenn mehrere Ausgänge vorhanden sind, kann die Aktualisierung: Synchron (alle gleichzeitig) Asynchron (in beliebiger Reihenfolge) erfolgen 2.2.. Entscheidungsfunktionen y Funktion Signum: y= wenn ( wx + w n x n ) + wenn ( wx + w n x n ) > -4-3 -2 - zwischen - und + 2 3 4 2 3 4 - y oder y= x wenn ( wx + w n x n ).5 wenn ( wx + w n x n ) >.5.5 zwischen und -4-4- -3-2 - x 3.8.7

y Der harte Begrenzer -4-3 -2 - x 2 3 4 y = cut ( wx + + w n x n + b,,+ ) - y.5-3 -2 - x Die Sigmoide zwischen - und + 2 3 -.5 y = tanh( wx + + w n x n ) - Oder zwischen und y.8 y= + e x.6.4.2-4 -5- -3-2 - x 2 3 4 3.8.7

2.2..2 Analyse Nachbildung der logischen Funktion AND x x2 x AND x2 Entscheidung (*)+(*) -.5 = -.5 < (*)+(*) -.5 = -.5 < (*)+(*) -.5 = -.5 < (*)+(*)-.5 =.5 > Y Durch Aenderung der Gewichte wn und des Wertes b kann die Gerade so positioniert werden, dass alle Punkte für Ausgang sich auf einer Seite und diejenigen für Ausgang auf der anderen Seite befinden. Es erfolgt eine Sortierung in 2 Klassen. Das Perceptron erlaubt also: Sortierung in zwei Klassen: der Ausgang (Klasse oder ) ist bekannt (überwachtes System) Interpolation oder Regression: dabei ist der Ausgang nicht bekannt (unüberwachtes System). Regression Sortierung http://alphard.ethz.ch/gerber/approx/default.html -6-3.8.7

2.2..3 Anwendungsgrenze Die Funktion EXOR ist mit dieser Konfiguration nicht lösbar. In der Tat kann keine einzige Gerade die schwarzen von den weissen Punkten trennen. EXOR ist ein nicht lineares Problem. Das Perceptron kann nur lineare Probleme lösen! 2.2.2 Lösung des EXOR-Problem Durch den Einbau einer Zwischenschicht können auch nicht lineare Problem gelöst werden. Beispiel EXOR: x w.6.6 w2 x2 x x2 Aktivierung der Zwischenzelle (*.6)+(*.6)-= - (*.6)+(*.6)-= -.4 (*.6)+(*.6)-= -.4 (*.6)+(*.6)-=.2 - -2 y Zustand der Zwischenzelle -7- Aktivierung der Ausgangszelle (*)+(*)+(*(-2))= (*)+(*)+(*(-2))= (*)+(*)+(*(-2))= (*)+(*)+(*(-2))= y 3.8.7

3 3. NEURONALE NETZE Vernetzung von Perceptronen Generalisierung von 2.2.2. Beispiel; EXOR Eingangsschicht versteckte Schicht hidden Layer x z - -.5 - x2 x Ausgangsschicht x2 (*)+(*)-.5= -.5 (*)+(-*)-.5= -.5 (*)+(-*)-.5=.5 (*)+(-*)-,5= -.5 z -.5 y t (-*)+(*)-.5= -.5 (-*)+(*)-.5=.5 (-*)+(*)-.5= -.5 (-*)+(*)-.5= -.5 t (*)+(*)-.5= -.5 (*)+(*)-.5=.5 (*)+(*)-.5=.5 (*)+(*)-.5= -.5 y Wieviel Zwischenschichten sind notwendig, um allgemeine Sortierungsprobleme zu lösen? -8-3.8.7

3.. Analyse Was sind die Funktionen der Zwischenschichten? Die oben angegebenen Richtwerte beruhen auf Faustregeln, welche die Grösse des Netzes im Rahmen halten. Durch die klare Zuordnung der Schichten nach Funktionen ist es ersichtlich, dass es nie mehr als 2 Zwischenschichten braucht. -9-3.8.7

4 LERNFÄHIGKEIT Durch gezielte Aenderung der Gewichte und anderer Parameter kann ein neuronales Netzwerk eine bestimmte Funktion erfüllen. Wenn diese Aenderungen nach bestimmten Vorgaben automatisch erfolgt, ist es lernfähig. 4. Prinzipien Für jede Verbindung im Netz: ändere (verstärke oder schwäche) Gewicht so, daß die Verbindung zum gewünschten Verhalten besser beiträgt. Dabei wird die folgende Eigenschaft gewünscht: lokal, keine (wenig) Zerstörung des bereits Gelernten Es gibt 3 Haupttypen von Lernregeln: Korrelation (Hebb) Fehlerminimierung (Delta) Angleichung (Instar, Outstar) 4.2 Lernregeln 4.2. Hebb sche Regel Die folgende Grundstruktur ist gegeben: xj wij xj Annahme: binäre Eingänge (, ) Die einfachste Regel ist: Verstärke, wenn beide Zellen auf sind w ij ( k + ) = w ij ( k ) + w ij w ij = η wenn x i = x j = wobei η = Schrittweite sonst angelehnt an Verhalten von Synapsen Nachteil: keine negative Änderung möglich 4.2.2 erweiterte Hebb'sche Regel Annahme: beliebige Eingänge Verstärke proportional zum Produkt der Eingänge (Korrelation) - - 3.8.7

w ij = η x i x j 4.2.3 Delta-Regel Annahme: Lehrer (Vorgabe d) vorhanden (überwachtes System) Verstärke proportional zum Produkt der Eingänge (Korrelation) mit Berücksichtigung des Fehlers w ij = η x i (d j x j ) Bei nichtlinearen Systemen wird die Ableitung der Entscheidungsfunktion f '(yj) eingeführt: w ij = η x i (d j x j ) f ' ( y j ) Somit wird die Tendenz auch berücksichtigt. 4.2.4 verallgemeinerte Delta-Regel, Fehlerrückvermittlung Annahme: Auch die Zellen der Zwischenschicht müssen lernen xe wij wei xi wij xj Verstärke wie oben und gebe den Fehler zur Zwischenschicht zurück (Rückvermittlung = Backpropagation) δ j = (d j x j ) f ' ( y j ) w ij = η x i δ j n δ i = f ' ( y i ) w ij δ j= wn j Verstärke wie oben mit Pseudofehler δi w ei = η x e δ i 4.2.5 Instar-Regel Annahme: nur eine Zelle soll aktiv sein Gleiches Gewicht an i-te Aktivierung (zur erneuten Aktivierung) w ij = η ( x i w ij ) x j 4.2.6 Outstar-Regel Annahme: nur eine Zelle soll aktiv sein Gleiches Gewicht an j-te Aktivierung (zur Reproduktion) w ij = η x i ( x j w ij ) 4.3 Lernbeispiele http://home.cc.umanitoba.ca/~umcorbe9/anns.html 4.3. Perceptron Annahme: es handelt sich um eine Sortierung in 2 Klassen oder um eine Interpolation. Die Schritte sind: () Kleine Zufallswerte den Gewichten wn(k) zuordnen (2) Muster (Vektor) am Eingang anlegen (3) Ausgang berechnen (4) Neue Gewichte wn(k+) nach der Delta-Regel berechnen: w n ( k + ) = w n ( k ) + η (d y) x n wobei - - 3.8.7

d: gewünschter Ausgang k: Iterationsnummer η: Schrittweite =... (5) Schritte (2) bis (4) wiederholen bis: - die maximale Anzahl Iteration erreicht ist oder - der restliche Fehler kleiner als eine Vorgabe ist. Der Fehler kann als quadratischer Summe gebildet werden: E= p (yi di )2 2 i= wobei p = Anzahl Paare Eingang/Ausgang Die Lernphase konvergiert schneller, wenn am Anfang η gross ist und mit k immer kleiner wird. 4.3.2 Verallgemeinerte Delta-Regel (Fehlerrückvermittlung) Die meist gebrauchte Entscheidungsfunktion ist die Sigmoide: f (x ) = + e x Eingänge Gewünschte Funktion: Eingangsschicht Gew. Matrix Input output Zwischenschicht Gew. Matrix 2 Ausgangsschicht Ausgänge () Die Gewichte werden zufällig gewählt.62,.42,.55, -.7 für Matrix und.35,.8 für Matrix 2. (2) Die Schrittweite wird gewählt.25 (3) Das Muster (,) wird am Eingang gelegt (4) Berechnung der Aktivierung Eingang hidden neuron : *.62 + *.55 =.55 Eingang hidden neuron 2: *.42 + * (-.7) = -.7 Ausgang hidden neuron : / ( + exp(-.55) ) =.6343559 Ausgang hidden neuron 2: / ( + exp(+.7) ) =.4576259 Input of output neuron: 6343559 *.35 +.4576259 *.8 =.5926524 Output of output neuron: / ( + exp(-.5926524) ) =.643962658 (5) Fehler berechnen: -.643962658 = -.643962658 (6) Neue Gewichte der Matrix 2 berechenen: w :.25*(-.643962658)*.6343559*.643962658*(-.643962658) = -.2346638 w 2;.25 * (-.643962658) *.4576259*.643962658 * (-.643962658) = -.689593 neues Gewicht :.35 + (-.2346638) =.326593362 neues Gewicht 2:.8 + (-.689593) =.793947-2 - 3.8.7

(7) Fehler rückvermitteln und neue Gewichte der Matrix berechnen w :.25 * (-.643962658) * *.6343559 * (-.6343559) = w 2:.25 * (-.643962658) * *.4576259 * (-.4576259) = w 3:.25 * (-.643962658) * *.6343559 * (-.6343559) = -.373564 w 4:.25 * (-.643962658) * *.4576259 * (-.4576259) = -.3995827 neues Gewicht :.62 + =.62 neues Gewicht 2:.42 + =.42 neues Gewicht 3:.55 + (-.373564) =.52648936 neues Gewicht 4: -.7+ (-.3995827) = -.2995827 (8) Der gleiche Vorgang wird mit dem Muster (,) aber mit den neuen Gewichten wiederholt. (9) Die Schritte (3) bis (8) mit den neuen Gewichten wiederholen, bis der Fehler minimal wird. 4.4 Alle Eingänge sind Null In diesem Fall können keine Gewichte berechnet werden. Es werden sogenannte "bias" eingeführt. Eingänge Eingangsschicht Gew. Matrix Zwischenschicht Gew. Matrix 2 Ausgangsschicht Ausgänge 4.5 Konvergenz Da man eine Minimierung des Fehlers sucht, kann es vorkommen, dass ein lokales Minimum gefunden wird. Dies ist von der Parameterauswahl am Anfang der Optimierung abhängig. Sind sie zufälligerweise in der Nähe eines lokalen Minimums gewählt worden, wird die Optimierung zwangsläufig dorthin führen. Verschiedene Methoden sind geeignet, um das absolute Minimum zu finden. - 3-3.8.7

4.5. Momentfaktor Die Delta-Regel wird mit einem Momentfaktor ergänzt. w ij = ( mf ) η x i (d j x j ) + mf w ij Bei mf= hat dieser Faktor keinen Einfluss Bei mf= wird der neue Wert ignoriert und der alte Wert beibehalten. 4.5.2 Schütteln lokalen Minima entkommen durch schütteln Die Methode heisst "simulated annealing": für alle Gewichte: () zufällige Gewichtsänderung (2) wenn Verbesserung, behalte den Wert (3) wenn Verschlechterung um c, behalte den Wert mit Wahrscheinlichkeit c p(c) = exp kt T: künstliche Temperatur Im Laufe der Lernphase wird die Temperatur reduziert, so dass ein präzises Minimum gefunden wird. 4.5.3 Genetischer Algorithmus Der genetische Algorithmus wird durch die Natur in der Evolution angewendet. In einer vereinfachten Form kann er für die Bestimmung und Optimierung der Parameter in der Technik benutzt werden. 4.5.3. Schritt 2 3 4 Prinzip Natur Bevölkerung definieren Selektion einer Gruppe von Lebewesen mit guten Ueberlebenschancen aussuchen Reproduktion innerhalb dieser Gruppe Mutation unter den Kindern erzeugt Vielfalt. Weiter nach Technik Parametersatz definieren Auswahl einer Gruppe von Parametern, die eine Vorgabe am besten erfüllt Vermischung der Parameter nach bestimmten Regeln Transformation der Parameter nach bestimmten Regeln Weiter nach 4.5.3.2 Schritt : Parameter definieren Es geht darum ein Phänotyp (Gen) mit den Startparametern zu bilden: Zum Beispiel: - 4-3.8.7

4.5.3.3 Schritt : Selektion Die Selektion sucht die Parameter aus, welche die Vorgabe am besten erfüllt. Die entsprechende Verteilung ist sehr schmal. 4.5.3.4 Schritt 2: Vermischung Zwei Parametersätze werden dadurch vermischt, dass ab eine Kreuzungsstelle ein Austausch der Bits stattfindet. Kreuzungsstelle Werden die schon gut angepassten Parameter unter sich vermischt und nochmals selektiert, wird die Verteilung immer schmäler. Eine Anpassung zu einem lokalen Optimum könnte daraus erfolgen. Um dies zu vermeiden wird der nächste Schritt eingeführt. - 5-3.8.7

4.5.3.5 Schritt 3: Transformation (Mutation) Durch diesen Schritt werden die Parameter leicht verändert. Die Verteilung wird dadurch breiter, so dass auch nicht ganz optimale Parameter berücksichtigt werden. Das lokale Optimum kann somit gemieden werden. Mit diesen neu erzeugten Parametern wird den Ausgang des neuronalen Netzes berechnet und mit dem Schritt weitergefahren. Das Verfahren wird solange wiederholt, bis alle Parameter optimal sind. http://glauserweb.ch/gentore.htm 4.6 Ueberanpassung Bei einer gegebenen Struktur können bestimmte Gewichte nah bei Null sein. Es bedeutet, dass einige Zellen weggelassen werden könnten. Es gibt verschiedene Möglichkeiten diese Ueberanpassung zu vermeiden. Faustregel anwenden, um die Anzahl benötigten Zellen im Voraus zu begrenzen Im Laufe der Lernphase die Gewichte mit Werten innerhalb einer um Null liegenden, kleinen Bereich auf Null zwingen. Die Struktur mitoptimieren (aufwendig, die Lernzeit wird erhöht) Diese Methoden führen zur Begrenzung der Freiheitsgrade. - 6-3.8.7

5 5. TOPOLOGIE DER NEURONALEN NETZE Perceptron Das einfachste Netz mit zwei Schichten. Es bearbeitet nur logische Ein- und Ausgänge. Das Lernprozess erfolgt nach Vorgabe des gewünschten Ausgangs. Komplexere Aufgaben als AND OR sind nicht lösbar (siehe EXOR-Problem 2.2..3) Perceptron Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Vorwärts gerichtet Eingangsschicht Ausgangsschicht binär Begrenzer Überwacht (mit Vorgabe) Hebbsche Regel Einfache logische Operationen Linearitätstest Musterklassifizierug - 7-3.8.7

5.2 Mehrschicht-Perceptron Das Mehrschicht-Perceptron wurde eingeführt ducrch M. Minsky and S. Papert in 969. Es besitzt eine oder mehrere Schichten zwischen den Eingangs- und den Ausgangsschichten. Dieses Netz löst alle logischen Aufgaben (inkl. EXOR-Problem). MehrschichtPerceptron Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Vorwärts gerichtet Eingangsschicht oder mehrere Zwischenschichten Ausgangsschicht binär Begrenzer / Sigmoide überwacht Delta-Regel / Fehlerrückvermittlung (am meisten gebraucht) Komplexe logische Operationen Funktionsapproximation mit Sigmoide Musterklassifizierung - 8-3.8.7

5.3 Rückvermittlungsnetz Das Rückvermittlungsnetz wurde eingeführt durch G.E. Hinton, E. Rumelhart and R.J. Williams in 986 und ist ein der leistungsfähigsten Netztypen. Es hat die gleiche Struktur wie das Mehrschicht-Perceptron benutzt aber der Rückvermittlungsalgorithmus. Rückvermittlungsnetz Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Vorwärts gerichtet Eingangsschicht oder mehrere Zwischenschichten Ausgangsschicht binär Sigmoide überwacht Fehlerrückvermittlung Komplexe logische Operationen Musterklassifizierung Sprachanalyse - 9-3.8.7

5.4 Hopfield-Netz Das Hopfield-Netz wurde eingeführt durch den Mediziner J.J. Hopfield in 982 und gehören zu den sogenannten "thermodynamical models". Es besteht aus einem Satz von Neuronen, wobei jedes mit jeden anderen verknüpft sind. Es gibt keine Differenz zwischen Ein- und Ausgangsneuronen. Die Hauptanwendung eines Hopfield Netz ist die Speicherung und die Erkennung von Bildmustern. Hopfield-Netz Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen rückgekoppelt Matrix binär Signum / Begrenzer unüberwacht Delta-Regel simulated annealing (am meisten gebraucht) Musterkorrelation Optimierungsprobleme - 2-3.8.7

5.5 Beziehungsnetz Das Beziehungsnetz (Feature Map) wurde eingeführt durch den Finischen Professor Teuvo Kohonen (University of Helsinki) in 982. Es ist wahrscheinlich das meist nützliche, neuronale Netz zur Simulation der Gehirnfunktionen. Das Herz dieses Netz ist die Beziehungsschicht, eine Neuronenschicht, welche sich in Abhängigkeit des Eingangsmusters selbst organisiert. Der Typ ist vorwärtsgerichtet zwischen Eingangsschicht und Beziehungsschicht und rückgekoppelt in der Beziehungsschicht. Beziehungsnetz Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Vorwärts gerichtet / rückgekoppelt Eingangsschicht Beziehungsschicht Binär, real Sigmoide unüberwacht Instar-Regel Musterklassifizierung Optimierungsprobleme Simulation - 2-3.8.7

5.6 Rekurente Perceptron Diese Struktur wurde eingeführt durch Jordan und Elmann. Das Netz besitzt Rückverbindungen (Rekurrenz) und dadurch ein Gedächtnis. Das Netz kann Information aus der Vorgeschichte anwenden. Es wird benutzt, um Mustersequenzen zu vervollständigen oder vorherzusagen. Erkennung ganzer Sequenzen > Monitoring Rekurente Perceptoren Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Rückgekoppelt Eingangsschicht Zwischenschicht Ausgangsschicht binär, real Sigmoide unüberwacht Fehlerrückvermittlung in der Zeit Musterklassifizierung Optimierungsprobleme Simulation - 22-3.8.7

5.7 Netz zur Zeitreihenverarbeitung Das Eingangsmuster variiert mit der Zeit. Zeitreihenverarbeitun g Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Vorwärts gerichtet Eingangsschicht oder mehrere Zwischenschichten Ausgangsschicht binär Begrenzer / Sigmoide überwacht Delta-Regel / Fehlerrückvermittlung (am meisten gebraucht) Transformation von Zeitmuster in Raummuster Voraussage an der Börse - 23-3.8.7

6 ANDERE ANWENDUNGEN 6. Linearer Prädikator 6.. Blockschema x(k) t x(k-) t x(k-2) w + w2 xp(k) w3 F w4 t t xp(k+) x(k-3) 6..2 Prinzip Die Gewichte wn werden in Abhängigkeit vom Fehler x(k) - xp(k) verändert, bis der Fehler minimal wird. Nach einer kleineren Lernzeit sagt das Ausgangssignal xp(k+) den nächsten Wert des Eingangssignals voraus. Mit komplexeren neuronalen Netzen können auch nicht lineare Prädikatoren aufgebaut werden. 6.2 Simulation einer linearen Regelstrecke 6.2. Blockschema x(k) D x A y(k-3) t x(k-) w4 Regelsrtecke y(k-2) t w3 y A y(k-) t w2 y(k) D t + w w5 t x(k-2) t w6 F w7 s(k) x(k-3) - 24-3.8.7

6.2.2 Prinzip Die Gewichte wn werden in Abhängigkeit vom Fehler y(k) - s(k) verändert, bis der Fehler minimal wird. Das neuronale Netz lernt so die Reaktion y(k) der Regelstrecke kennen. Es kann nach der Lernphase als Modell für die Regelstrecke eingesetzt werden. Mit komplexeren neuronalen Netzen können auch nicht lineare Regelstrecke modelliert werden. 6.3 Verteilte Speicherung Dieses Beispiel ist zu didaktischen Zwecken stark vereinfacht. Zwei Vektoren sind in einem Assoziativspeicher zu speichern: e = e2 = Nehmen wir ein Netzwerk an, das 5 Eingänge und 5 Ausgänge besitzt, wobei jeder Eingang mit allen Ausgängen durch die Gewichte wij (Matrix) verbunden ist. Das Netzwerk soll nach folgender Regel das Speichern lernen: w = w + ei ei.schritt: w= Lernen mit e: w = e e = w2 = e 2 e 2 = 2,Schritt: Lernen mit e2: w3 = w + e2 e2 = w + w2 2 w3 = 2 2 3.Schritt: mit e am Eingang gibt das durch w3 definierte Netzwerk den Ausgang: - 25-3.8.7

2 w3 e = 2 5 3 = 2 2 5 4.Schritt: Mit einer Feuerungsschwelle bei n 5+ 3+ 2+ 5 ai = = 3 n i= 5 wird der Ausgang: e = Dieser Vektor ist identisch mit dem Eingang, d.h. der Eingang ist durch das Netzwerk erkannt worden (es erinnert sich!). Dieses Netzwerk erkennt auch ähnliche Eingänge wie z.b. e3 = in der Tat: 2 w3 e3 = 2 3 2 = 2 3 mit der Feuerungsschwelle bei: 3 + 2 + + 3 =.8 5 ist der Ausgang: e = Diese assoziative Erkennung hat aber seine Grenze. Zum Beispiel sei der Eingang: - 26-3.8.7

e4 = 2 w3 e4 = 2 5 2 = 2 2 5 mit der Feuerungsschwelle bei: 5+ 2+ 2+ 5 = 2.8 5 ist der Ausgang: e5 = Dieses Muster wird also nicht erkannt. - 27-3.8.7