Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Ähnliche Dokumente
Neuronale Netze. Prof. Dr. Rudolf Kruse

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Hopfield-Netze. Rudolf Kruse Neuronale Netze 192

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Neuronale Netze. Prof. Dr. Rudolf Kruse

Künstliche Neuronale Netze

Aufbau und Beschreibung Neuronaler Netzwerke

Lernende Vektorquantisierung

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Thema 3: Radiale Basisfunktionen und RBF- Netze

Neuronale Netze. Prof. Dr. Rudolf Kruse

Massive Parallelität : Neuronale Netze

Neuronale Netze. Prof. Dr. Rudolf Kruse Christoph Doell, M.Sc.

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Selbstorganisierende Karten

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Rekurrente Neuronale Netze. Rudolf Kruse Neuronale Netze 227

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite 1/7

Hannah Wester Juan Jose Gonzalez

Künstliche neuronale Netze

15. Elementare Graphalgorithmen

Neuroinformatik. Übung 1

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Klassifikationsverfahren und Neuronale Netze

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

11. Neuronale Netze 1

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Neuronale Netze und PyTorch

Graphen Jiri Spale, Algorithmen und Datenstrukturen - Graphen 1

Ein Graph ist ein Paar (V,E), wobei V eine Menge von Knoten und E eine Menge von Kanten (v,w) mit v,w in V ist.

Universität des Saarlandes

Grundlagen zu neuronalen Netzen. Kristina Tesch

Klausur Algorithmentheorie

Teil 2: Graphenalgorithmen

Rekurrente / rückgekoppelte neuronale Netzwerke

Bayes-Netze (2) Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

9 Minimum Spanning Trees

Neuronale Netze. Prof. Dr. Rudolf Kruse

DisMod-Repetitorium Tag 3

Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Graphentheorie Graphentheorie. Grundlagen Bäume Eigenschaften von Graphen Graphen-Algorithmen Matchings und Netzwerke

Was sind Neuronale Netze?

Model Checking mit Büchi Automaten

ij. , d (k 1) + d (k 1)

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

Universität Basel Wirtschaftswissenschaftliches Zentrum. Zufallsvariablen. Dr. Thomas Zehrt

Implementationsaspekte

Randomisierte Algorithmen

Seminar K nowledge Engineering und L ernen in Spielen

Statistical Learning

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Minimal spannende Bäume

Grundlagen neuronaler Netzwerke

Konzepte der AI Neuronale Netze

Wissensentdeckung in Datenbanken

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Neuronale Netze. Anna Wallner. 15. Mai 2007

Einführung in die Mathematik des Operations Research

Neuronale Netze. Prof. Dr. Rudolf Kruse

Algorithmik WS 07/ Vorlesung, Andreas Jakoby Universität zu Lübeck. 10 Matching-Probleme

10. Übung zur Linearen Algebra I -

Kapitel VII. Einige spezielle stetige Verteilungen

Bayesianische Netzwerke - Lernen und Inferenz

1.Aufgabe: Minimal aufspannender Baum

6 Flüsse und Matchings

7. Vorlesung Neuronale Netze

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Name:... Vorname:... Matr.-Nr.:... Studiengang:...

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

ADS: Algorithmen und Datenstrukturen 2

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

5.2 Endliche Automaten

Algorithmische Mathematik I

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze mit mehreren Schichten

Zyklen als Matching-Verfahren in FTL-Netzwerken

Simulation neuronaler Netzwerke mit TIKAPP

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Beweis: Färbe jede Kante zufällig und unabhängig mit Ws 1 2. Ereignis A i : i-te Clique K (i), i = 1,..., ( n K (i)

Woche 2: Zufallsvariablen

10 Kürzeste Pfade SSSP-Problem

Petri-Netze. Teil 2. Chandran Goodchild. Department of Automata Theory University of Freiburg. Pro Seminar, 2017

Grundlagen der Theoretischen Informatik

6.2 Feed-Forward Netze

Objekt Attributwerte Klassifizierung X Y

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

2.6 Verdeutlichung verwendeter Begriffe

Vorlesung 8a. Kovarianz und Korrelation

Analysis II. Vorlesung 47

Künstliche Neuronale Netze

Algorithmische Methoden zur Netzwerkanalyse

Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung

Algorithmen I. Tutorium 1-8. Sitzung. Dennis Felsing

Transkript:

Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40

Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen) MengeV von Knoten oder Ecken und einer (endlichen) MengeE V V von Kanten. Wir nennen eine Kantee=(u,v) E gerichtet von Knotenuzu Knotenv. SeiG = (V,E) ein (gerichteter) Graph undu V ein Knoten. Dann werden die Knoten der Menge pred(u) ={v V (v,u) E} die Vorgänger des Knotens u und die Knoten der Menge succ(u) ={v V (u,v) E} die Nachfolger des Knotens u genannt. Rudolf Kruse Neuronale Netze 41

Allgemeine Neuronale Netze Allgemeine Definition eines neuronalen Netzes Ein (künstliches) neuronales Netz ist ein (gerichteter) Graph G = (U, C), dessen Knotenu U Neuronen oder Einheiten und dessen Kanten c C Verbindungen genannt werden. Die Menge U der Knoten wird partitioniert in die MengeU in der Eingabeneuronen, die MengeU out der Ausgabeneuronen, die MengeU hidden der versteckten Neuronen. und Es gilt: U =U in U out U hidden, U in, U out, U hidden (U in U out ) =. Rudolf Kruse Neuronale Netze 42

Allgemeine Neuronale Netze Jede Verbindung (v,u) C besitzt ein Gewichtw uv und jedes Neuron u U besitzt drei (reellwertige) Zustandsvariablen: die Netzwerkeingabe net u, die Aktivierung act u, die Ausgabe out u. und Jedes Eingabeneuronu U in besitzt weiterhin eine vierte reellwertige Zustandsvariable, die externe Eingabe ex u. Weiterhin besitzt jedes Neuron u U drei Funktionen: die Netzwerkeingabefunktion die Aktivierungsfunktion die Ausgabefunktion f net (u) : IR2 pred(u) +κ1(u) IR, f act (u) : IRκ 2(u) IR, und f out (u) : IR IR, die benutzt werden, um die Werte der Zustandsvariablen zu berechnen. Rudolf Kruse Neuronale Netze 43

Allgemeine Neuronale Netze Typen (künstlicher) neuronaler Netze Falls der Graph eines neuronalen Netzes azyklisch ist, wird das Netz Feed-Forward-Netzwerk genannt. Falls der Graph eines neuronalen Netzes Zyklen enthält, (rückwärtige Verbindungen), wird es rekurrentes Netzwerk genannt. Darstellung der Verbindungsgewichte als Matrix u 1 u 2... u r w u1 u 1 w u1 u 2... w u1 u r w u2 u 1 w u2 u 2 w u2 u r.. w ur u 1 w ur u 2... w ur u r u 1 u 2. u r Rudolf Kruse Neuronale Netze 44

Allgemeine Neuronale Netze: Beispiel Ein einfaches rekurrentes neuronales Netz: 2 x 1 u 1 u 3 4 1 3 y x 2 u 2 Gewichtsmatrix dieses Netzes: u 1 u 2 u 3 0 0 4 1 0 0 2 3 0 u 1 u 2 u 3 Rudolf Kruse Neuronale Netze 45

Structure of a Generalized Neuron Ein verallgemeinertes Neuron verarbeitet numerische Werte ex u out v1 = in uv1 u w uv1... f (u) net f (u) net u act f (u) act u out out u out vn = in uvn w uvn σ 1,...,σ l θ 1,...,θ k Rudolf Kruse Neuronale Netze 46

Allgemeine Neuronale Netze: Beispiel x 1 u 1 1 2 u 3 1 y 4 1 3 x 2 1 u 2 f (u) net (w u, in u ) = v pred(u) w uvin uv = v pred(u) w uv out v f (u) act (net u,θ) = 1, falls net u θ, 0, sonst. f (u) out (act u) = act u Rudolf Kruse Neuronale Netze 47

Allgemeine Neuronale Netze: Beispiel Aktualisierung der Neuronenaktivierungen u 1 u 2 u 3 Eingabephase 1 0 0 Arbeitsphase 1 0 0 net u3 = 2 0 0 0 net u1 = 0 0 0 0 net u2 = 0 0 0 0 net u3 = 0 0 0 0 net u1 = 0 Aktualisierungsreihenfolge: u 3,u 1,u 2,u 3,u 1,u 2,u 3,... Eingabephase: Aktivierungen/Ausgaben im Startzustand (erste Zeile) Die Aktivierung des gerade zu aktualisierenden Neurons (fettgedruckt) wird mit Hilfe der Ausgaben der anderen Neuronen und der Gewichte neu berechnet. Ein stabiler Zustand mit eindeutiger Ausgabe wird erreicht. Rudolf Kruse Neuronale Netze 48

Allgemeine Neuronale Netze: Beispiel Aktualisierung der Neuronenaktivierungen Aktualisierungsreihenfolge: u 3,u 2,u 1,u 3,u 2,u 1,u 3,... u 1 u 2 u 3 Eingabephase 1 0 0 Arbeitsphase 1 0 0 net u3 = 2 1 1 0 net u2 = 1 0 1 0 net u1 = 0 0 1 1 net u3 = 3 0 0 1 net u2 = 0 1 0 1 net u1 = 4 1 0 0 net u3 = 2 Es wird kein stabiler Zustand erreicht (Oszillation der Ausgabe). Rudolf Kruse Neuronale Netze 49

Allgemeine Neuronale Netze: Training Definition von Lernaufgaben für ein neuronales Netz Eine feste LernaufgabeL fixed für ein neuronales Netz mit n Eingabeneuronen, d.h.u in ={u 1,...,u n }, m Ausgabeneuronen, d.h.u out ={v 1,...,v m }, and ist eine Menge von Trainingsbeispielenl= ( ı (l),o (l)), bestehend aus einem Eingabevektorı (l) = ( ex (l) u 1,...,ex (l) ) u n einem Ausgabevektoro (l) = ( o (l) v 1,...,o (l) v m ). and Eine feste Lernaufgabe gilt als gelöst, wenn das NN für alle Trainingsbeispiele l L fixed aus den externen Eingaben im Eingabevektorı (l) eines Trainingsmustersldie Ausgaben berechnet, die im entsprechenden Ausgabevektoro (l) enthalten sind. Rudolf Kruse Neuronale Netze 50

Allgemeine Neuronale Netze: Training Lösen einer festen Lernaufgabe: Fehlerbestimmung Bestimme, wie gut ein neuronales Netz eine feste Lernaufgabe löst. Berechne Differenzen zwischen gewünschten und berechneten Ausgaben. Summiere Differenzen nicht einfach, da sich die Fehler gegenseitig aufheben könnten. Quadrieren liefert passende Eigenschaften, um die Anpassungsregeln abzuleiten. e = e (l) = l L fixed e v = v U out l L fixed e (l) v, v U out wobei e (l) v = ( o (l) v out (l) ) 2 v Rudolf Kruse Neuronale Netze 51

Allgemeine Neuronale Netze: Training Definition von Lernaufgaben für ein neuronales Netz Eine freie LernaufgabeL free für ein neuronales Netz mit n Eingabeneuronen, d.h.u in ={u 1,...,u n }, ist eine Menge von Trainingsbeispielenl= ( ı (l)), wobei jedes aus einem Eingabevektorı (l) = ( ex (l) u 1,...,ex (l) u n ) besteht. Eigenschaften: Es gibt keine gewünschte Ausgabe für die Trainingsbeispiele. Ausgaben können von der Trainingsmethode frei gewählt werden. Lösungsidee: Ähnliche Eingaben sollten zu ähnlichen Ausgaben führen. (Clustering der Eingabevektoren) Rudolf Kruse Neuronale Netze 52

Allgemeine Neuronale Netze: Vorverarbeitung Normalisierung der Eingabevektoren Berechne Erwartungswert und Standardabweichung jeder Eingabe: µ k = 1 L l L ex(l) u k and σ k = 1 L (l) ex l L u k µ k 2, Normalisiere die Eingabevektoren auf Erwartungswert 0 und Standardabweichung 1: u k µ k ex (l)(neu) u k = ex(l)(alt) σ k Vermeidet Skalierungsprobleme. Rudolf Kruse Neuronale Netze 53