Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.
|
|
- Tomas Salzmann
- vor 7 Jahren
- Abrufe
Transkript
1 Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012
2 Was ist ein neuronales Netz? eigentlich: künstliches neuronales Netz (Artificial Neural Network) bildet biologisches Nervensystem nach Neuronale Netze = dichte Verknüpfung einfacher Einheiten überwachtes Lernverfahren Definition (Neuronales Netz [Haykin, 1999]) A neural network is a massively parallel distributed processor made up of simple processing units, which has a natural propensity for storing experiential knowledge and making it available for use. It resembles the brain in two respects: 1 Knowledge is acquired by the network from its environment through a learning process. 2 Interneuron connection strengths, known as synaptic weights, are used to store the acquired knowledge. Neuronale Netze Michael Baumann 1/62
3 Vorteile neuronaler Netze Fähigkeit zur Generalisierung: Nach dem Training können ähnliche unbekannte Beispiele erkannt werden. Selbstorganisation: Neuronale Netze erzeugen eigene Darstellung der gelernten Informationen. Fehler-Toleranz: Fähigkeit, mit verrauschten Daten umzugehen. Generischer Ansatz, neuronales Netz lernt aus Beispielen. Die Nichtlinearität ermöglicht Verarbeitung von beliebigen Funktionen. Ausgabe kann so modelliert werden, dass Rückschlüsse auf Sicherheit der Zuordnung gezogen werden können. Neuronale Netze Michael Baumann 2/62
4 Klassifikation von Lernverfahren Beim überwachten Lernen (supervised learning) gibt es zu jedem Beispiel die korrekte Lösung als Vergleich. Das unüberwachte Lernen (unsupervised learning) hat keine Informationen über die korrekte Lösung zur Verfügung; hier müssen Ähnlichkeiten herausgefunden werden. Bestärkendes Lernen (reinforcement learning) nutzt eine Rückmeldung, ob ein Ergebnis richtig oder falsch war ohne die korrekte Lösung zu kennen. Neuronale Netze Michael Baumann 3/62
5 Lernprobleme Klassifizierung (classification) Ziel: Durch Merkmale kodierte Eingabe in eine der gegebenen diskreten Klassen einordnen Ausgabe: Vektor mit Klassenzugehörigkeit Beispiele: Kreditvergabe, Gesichtserkennung, Schrifterkennung,... Regression (function approximation) Ziel: Funktionswert an der durch Merkmale angegebenen Stelle approximieren Ausgabe: Zahlenwert Beispiele: mathematische Funktionen, Trends in Börsenkursen,... Neuronale Netze Michael Baumann 4/62
6 Notationen und Begriffe Merkmale sind Eigenschaften, die zur Beschreibung von Objekten verwendet werden Beispiele für Merkmale Personen: Größe, Alter, Geschlecht,... Autos: Typ, Farbe, Länge, Breite,... Pilze: Farbe, Größe,... X R d ist ein Merkmalsraum über endlich vielen Merkmalen C ist eine Menge von Klassen c : X C ist der ideale Klassifikator für X ein Beispiel (x, c(x)) besteht aus einem Merkmalsvektor x X und der korrekten Klassenzugehörigkeit c(x) die Trainingsmenge T := {(x 1, c(x 1 )),..., (x n, c(x n ))} X C ist eine Menge von Beispielen Neuronale Netze Michael Baumann 5/62
7 Geschichte 1943 McCulloch und Pitts stellen formales Modell eines Neurons mit all-or-none Charakter vor Hebb formuliert Lernregel: synaptische Verbindung zwischen zwei Neuronen wird bei häufiger Aktivierung verstärkt Rosenblatt modelliert Perzeptron Formulierung des Least mean square Algorithmus und Beschreibung von Adaline durch Widrow und Hoff Minsky und Papert zeigen Grenzen des Perzeptrons und postulieren ähnliche Beschränkungen für mehrschichtige Perzeptronen Rumelhart, Hinton und Williams präsentieren den Backpropagation Algorithmus. Neuronale Netze Michael Baumann 6/62
8 Biologisches Vorbild: Nervenzellen Dendrit Synapse Axon Zellkörper Neuronale Netze Michael Baumann 7/62
9 Biologisches Vorbild: Nervenzellen Dendrit Synapse Axon Zellkörper Dendriten: Eingänge für elektrische Impulse Synapsen: Kontaktstellen für Übertragung der Erregung können unterschiedlich starke Impulse auslösen Zellkörper: summiert eingehende Impulse Wird eine bestimmte Reizschwelle überschritten, so entsteht im Zellkörper ein Signal, das durch das Axon weitergeleitet wird. Axon: gibt Signal weiter gerichtete Signalverarbeitung Neuronale Netze Michael Baumann 7/62
10 Modell eines Neurons x 1 w 1 w 2 x 2. w d g( ) y x d x i sind die Komponenten des Eingabevektors x R d (Dentriten) w i R sind die Gewichte der Verbindungen, wobei w i den Anteil von x i an der Ausgabe quantifiziert (Synapsen) d berechnet gewichtete Summe w i x i der Eingänge (Zellkörper) i=1 g( ) ist die Aktivierungsfunktion, beschränkt Ausgabewert (Zellkörper, Axonhügel) y ist die Ausgabe (Axon) Neuronale Netze Michael Baumann 8/62
11 Perzeptron erhält einen Vektor mit reell-wertigen Zahlen als Eingabe berechnet eine binäre Ausgabe (z.b. C = {0, 1} oder C = { 1, +1}) soll genau dann feuern, wenn der berechnete Wert größer als die Reizschwelle ist minimales neuronales Netz, das nur aus einem Neuron besteht Codierung x R 2, z.b. 1 = true und 0 = false C = {1, 0} binäre Aktivierungsfunktion, abhängig von Schwellwert θ Neuronale Netze Michael Baumann 9/62
12 Berechnung im Perzeptron Schwellwert θ R bestimmt, ob das Perzeptron feuert wenn d i=1 w i x i θ dann soll y = 1 gelten, sonst soll y = 0 sein 1 0 θ also: wenn d i=1 w i x i θ 0 dann soll y = 1 gelten, sonst soll y = 0 sein Erweitern Perzeptron um einen Eingang mit w 0 = θ und x 0 = 1 Nutzen der Heaviside-Funktion für die Ausgabe: ( d ) { 1, wenn di=0 w i x i 0 y(x) = heaviside w i x i = i=0 0, sonst Neuronale Netze Michael Baumann 10/62
13 Angepasstes Neuronenmodell x 0 x 1 w 1 w 2 w 0 x 2. w d g( ) y x d x 0 wird auch als Bias bezeichnet Bias modelliert die Reizschwelle, ab der ein Neuron feuert diese Modellierung unterwirft den Bias ebenfalls dem Lernprozess Neuronale Netze Michael Baumann 11/62
14 Beispiel: Berechnung im Perzeptron x 0 = 1 x g( ) y x x 1 x 2 c(x) Neuronale Netze Michael Baumann 12/62
15 Entscheidungsfläche x 1 C = {, } Gesucht: Entscheidungsregel für T Neuronale Netze Michael Baumann 13/62
16 Entscheidungsfläche x 1 C = {, } Gesucht: Entscheidungsregel für T Beispielsweise: { x1 1.5 y(x 1 ) = sonst Neuronale Netze Michael Baumann 13/62
17 Entscheidungsfläche im R 2 4 x x 1 Neuronale Netze Michael Baumann 14/62
18 Entscheidungsfläche im R 2 4 x x 1 x 2 = x Neuronale Netze Michael Baumann 14/62
19 Entscheidungsfläche im R 2 Geradengleichungen x x 1 Verschiedene Schreibweisen, u.a.: y = m x + b w T x = θ x 2 = x ( ) T 1 1 ( ) x1 x 2 = 3.5 Neuronale Netze Michael Baumann 15/62
20 Entscheidungsfläche im R 2 Geradengleichungen 4 3 x 2 y(x) = x 1 + x y(x) = = 0 y(x) = = 0.5 y(x) = = x 1 Neuronale Netze Michael Baumann 15/62
21 Entscheidungsfläche im R 2 Geradengleichungen x y(x) > 0 y(x) = 0 y(x) < 0 x 1 Verwenden folgende Schreibweise für Geraden: hier: w T x = θ w 1 x 1 + w 2 x 2 θ = 0 }{{} y(x) ( ) T 1 1 ( ) x1 x = 0 x 1 + x = 0 Neuronale Netze Michael Baumann 15/62
22 Entscheidungsflächen im R d Entscheidungsfläche (im R 2 Gerade) definert durch w T x θ = 0 d w i x i θ = 0 i=1 wollen Entscheidungsfläche lernen d w i x i = 0 i=0 mit w 0 = θ und x 0 = 1 Neuronale Netze Michael Baumann 16/62
23 Perzeptron als Hyperebene Perzeptron definiert eine Hyperebene als Entscheidungsfläche Hyperebene steht senkrecht (normal) zu w w 0 = θ beschreibt orthogonalen Abstand zum Ursprung x 2 (w 1,..., w d ) T θ x 1 Neuronale Netze Michael Baumann 17/62
24 Beispiele für Entscheidungsflächen Beispiel: AND Beispiel: OR x 1 x 2 AND x x 1 x 1 x 2 OR x x 1 Neuronale Netze Michael Baumann 18/62
25 Trainieren von neuronalen Netzen Wie kann man neuronale Netze (oder hier ein Perzeptron) trainieren? verschiedene Möglichkeiten Neuronen hinzufügen / entfernen Verbindungen hinzufügen / entfernen Verbindungsgewichte anpassen Normalerweise: Anpassen der Gewichte w. Hypothesenraum: Menge aller Gewichtsvektoren w = (w 0, w 1,..., w d ) T Neuronale Netze Michael Baumann 19/62
26 Perzeptron-Lernalgorithmus PerceptronTraining 1 initialize all w i randomly 2 t = 0 3 repeat 4 t = t choose random (x, c(x)) T 6 error = c(x) y(x) 7 for i = 0 to d do T Trainingsmenge η > 0 Lernrate t Zeitschritt y(x) = heaviside(w T x) Ausgabe des Perzeptrons c(x) korrekte Klasse 8 w i = η error x i 9 w i = w i + w i 10 until (Konvergenz t > t max ) Neuronale Netze Michael Baumann 20/62
27 Beispielablauf des Algorithmus gegeben: Trainingsmenge T x 1 x 2 c(x) x gesucht: Gewichtsvektor für Perzeptron, das die Trainingsmenge korrekt klassifiziert x 1 Neuronale Netze Michael Baumann 21/62
28 Beispielablauf des Algorithmus Initialisierung x x 1 Lernrate η = 0.1 x 0 = 1 (fest) C = {0, 1}, 1 für, 0 für nach Initialisierung: t = 0 w 0 = 0.4 w 1 = 1.2 w 2 = 1 Trennfläche: x 1 x 2 = 0 Neuronale Netze Michael Baumann 22/62
29 Beispielablauf des Algorithmus t = 1 x x 1 zufälliges Beispiel x = (1.1, 0.3) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside(1.42) = 1 = y(x) error = c(x) y(x) = 1 1 = 0 w i = η error x i : w 0 = 0 w 1 = 0 w 2 = 0 Neuronale Netze Michael Baumann 22/62
30 Beispielablauf des Algorithmus t = 2 x x 1 zufälliges Beispiel x = (3.1, 2.7) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside(1.42) = 1 = y(x) error = c(x) y(x) = 0 1 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 Neuronale Netze Michael Baumann 22/62
31 Beispielablauf des Algorithmus t = 2 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 neue Gewichte: w i = w i + w i w 0 = = 0.3 w 1 = = 0.89 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62
32 Beispielablauf des Algorithmus t = 3 x x 1 zufälliges Beispiel x = (1.5, 3) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 2.175) = 0 = y(x) error = c(x) y(x) = 0 0 = 0 w i = η error x i : w 0 = 0 w 1 = 0 w 2 = 0 Neuronale Netze Michael Baumann 22/62
33 Beispielablauf des Algorithmus t = 4 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.665) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62
34 Beispielablauf des Algorithmus t = 4 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.4 w 1 = = 0.91 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62
35 Beispielablauf des Algorithmus t = 5 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.48) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62
36 Beispielablauf des Algorithmus t = 5 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.5 w 1 = = 0.93 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62
37 Beispielablauf des Algorithmus t = 6 x x 1 zufälliges Beispiel x = (3.1, 2.7) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside(0.24) = 1 = y(x) error = c(x) y(x) = 0 1 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 Neuronale Netze Michael Baumann 22/62
38 Beispielablauf des Algorithmus t = 6 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 neue Gewichte: w i = w i + w i w 0 = = 0.4 w 1 = = 0.62 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62
39 Beispielablauf des Algorithmus t = 7 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.7) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62
40 Beispielablauf des Algorithmus t = 7 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.5 w 1 = = 0.64 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62
41 Beispielablauf des Algorithmus t = 8 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.515) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62
42 Beispielablauf des Algorithmus t = 8 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.6 w 1 = = 0.66 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62
43 Beispielablauf des Algorithmus t = 9 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.33) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62
44 Beispielablauf des Algorithmus t = 9 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.7 w 1 = = 0.68 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62
45 Beispielablauf des Algorithmus t = 10 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.145) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62
46 Beispielablauf des Algorithmus t = 10 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.8 w 1 = = 0.7 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62
47 Beispielablauf des Algorithmus t = 11 x x 1 Beispiel x = (3.1, 2.7) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside(0.27) = 1 = y(x) error = c(x) y(x) = 0 1 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 Neuronale Netze Michael Baumann 22/62
48 Beispielablauf des Algorithmus t = 11 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 neue Gewichte: w i = w i + w i w 0 = = 0.7 w 1 = = 0.39 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62
49 Beispielablauf des Algorithmus t = 12 x x 1 zufälliges Beispiel x = (3.1, 2.7) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0, 062) = 0 = y(x) error = c(x) y(x) = 0 0 = 0 w i = η error x i : w 0 = 0 w 1 = 0 w 2 = 0 Neuronale Netze Michael Baumann 22/62
50 Beispielablauf des Algorithmus t = 12 x x 1 alle Beispiele der Trainingsmenge werden korrekt klassifiziert Übung: Rechnerische Überprüfung für die übrigen Elemente der Trainingsmenge. trennende Hyperebene: 0.7 x x x 2 = 0 mit x 0 = 1 Neuronale Netze Michael Baumann 22/62
51 Betrachtung des Lernalgorithmus Hebb sches Lernen Gewichtsanpassung hängt von η, x i und error ab error = c(x) heaviside(w T x) Neuron feuert fälschlicherweise: alle w i verringern Neuron feuert nicht, obwohl es feuern soll: alle w i vergrößern Verwendet Abweichung der korrekten Klasse von der durch Perzeptron berechneten Klasse Keine Berücksichtigung des Abstands von x zur Entscheidungsfläche! Lernrate η bestimmt Größe des Lernschritts, z.b. η = 0.1. η kann auch zeitabhängig sein: η 0 für t anfangs stärkere Anpassung am Ende nur noch Feinjustierung Neuronale Netze Michael Baumann 23/62
52 Lineare Separierbarkeit Definition (lineare Separierbarkeit) Zwei Mengen M 1 und M 2 von Vektoren eines d-dimensionalen Raums heißen linear separierbar, falls d + 1 reelle Zahlen θ, w 1,..., w d existieren, so dass d i=1 w i x i θ für jeden Vektor in M 1 und d i=1 w i x i < θ für jeden Vektor in M 2 gilt. Beispiel Seien Vektoren aus M 1 und Vektoren aus M 2. linear separierbar nicht linear separierbar Neuronale Netze Michael Baumann 24/62
53 Perzeptron-Konvergenztheorem Theorem (Perzeptron-Konvergenztheorem (Rosenblatt 1962)) Seien M 1, M 2 zwei nicht-leere, endliche Mengen von Vektoren x = ( 1, x 1,..., x d ) T, wobei M 1 und M 2 linear separierbar sind. Sei T die Menge der Beispiele der Form (x, 0) für x M 1 oder (x, 1) für x M 2 und sei η genügend klein. Dann gilt: Werden die Vektoren aus T dem Perzeptron-Lernalgorithmus präsentiert, so konvergiert der Gewichtsvektor w des Perzeptrons innerhalb endlich vieler Iterationen so, dass alle Beispiele aus T korrekt klassifiziert werden. w entspricht einer trennenden Hyperebene Sind die Daten der Trainingsmenge nicht linear separierbar, kann die Konvergenz nicht garantiert werden! Neuronale Netze Michael Baumann 25/62
54 Lernfehler Betrachten Perzeptron ohne Schwellwertfunktion: d y(x) = w i x i i=0 Err(w) Trainingsfehler von w in Abhängigkeit von T : Err(w) = 1 2 (x,c(x)) T (c(x) y(x)) w 2 0 Abb.: Fehlerfläche [Folien Neuronale Netze ] w 1 Neuronale Netze Michael Baumann 26/62
55 Gradientenabstieg Konvergenz von PerceptronTraining bei nicht linear separierbaren Beispielen nicht garantiert. Bestimmen Gradient des Lernfehlers: ( ) Err Err(w) = w 0,..., Err w d ist die Richtung des steilsten Anstiegs Err(w) ist die Richtung des steilsten Abstiegs Verschieben w in Richtung des steilsten Abstiegs: w = w + w mit w = η Err(w) Neuronale Netze Michael Baumann 27/62
56 Gradientenabstieg Herleitung der Gewichtsanpassung Err w i = w i 1 2 (x,c(x)) T (c(x) y(x)) 2 Neuronale Netze Michael Baumann 28/62
57 Gradientenabstieg Herleitung der Gewichtsanpassung Err w i = w i 1 2 = 1 2 (x,c(x)) T (x,c(x)) T (c(x) y(x)) 2 w i (c(x) y(x)) 2 Neuronale Netze Michael Baumann 28/62
58 Gradientenabstieg Herleitung der Gewichtsanpassung Err w i = w i 1 2 = 1 2 = 1 2 (x,c(x)) T (x,c(x)) T (x,c(x)) T (c(x) y(x)) 2 w i (c(x) y(x)) 2 2 (c(x) y(x)) w i (c(x) y(x)) Neuronale Netze Michael Baumann 28/62
59 Gradientenabstieg Herleitung der Gewichtsanpassung Err w i = w i 1 2 = 1 2 = 1 2 = (x,c(x)) T (x,c(x)) T (x,c(x)) T (x,c(x)) T (c(x) y(x)) 2 w i (c(x) y(x)) 2 2 (c(x) y(x)) (c(x) y(x)) w i (c(x) y(x)) w i (c(x) w T x) Neuronale Netze Michael Baumann 28/62
60 Gradientenabstieg Herleitung der Gewichtsanpassung Err w i = w i 1 2 = 1 2 = 1 2 = Err w i = (x,c(x)) T (x,c(x)) T (x,c(x)) T (x,c(x)) T (x,c(x)) T (c(x) y(x)) 2 w i (c(x) y(x)) 2 2 (c(x) y(x)) (c(x) y(x)) (c(x) y(x)) ( x i ) w i (c(x) y(x)) w i (c(x) w T x) Neuronale Netze Michael Baumann 28/62
61 Gradientenabstieg Komponentenweise Gewichtsanpassung w i = w i + w i mit w i = η w i = η w i = η Err w i (x,c(x)) T (x,c(x)) T (c(x) y(x)) ( x i ) (c(x) y(x)) x i Neuronale Netze Michael Baumann 29/62
62 Delta-Regel andere Bezeichnungen: Widrow-Hoff-Regel Adaline-Regel w i = η (c(x) y(x)) x i Neuronale Netze Michael Baumann 30/62
63 Gradientenabstieg mengenbasierter Algorithmus GradientDescent 1 choose random w 2 t = 0 3 repeat 4 t = t set all w i to zero 6 foreach (x, c(x)) T do 7 present x and compute y(x) 8 for i = 0 to d do 9 w i = w i + η (c(x) y(x)) x i 10 for i = 0 to d do 11 w i = w i + w i 12 until (Konvergenz t > t max ) Neuronale Netze Michael Baumann 31/62
64 Gradientenabstieg Eigenschaften Gradientenabstieg minimiert Fehler minimiert nicht zwangsläufig Anzahl der fehlklassifizierten Beispiele Fehlerfläche hat nur ein globales Minimum Konvergenz mit genügend kleinem η Neuronale Netze Michael Baumann 32/62
65 Gradientenabstieg Anpassungsmöglichkeit mengenbasiertes Verfahren summmiert alle Fehler der Trainingsmenge und passt w einmal am Ende der Lerniteration an Längere Berechnungszeit pro Gewichtsanpassung! inkrementeller Gradientenabstieg passt w i nach jedem Beispiel um w i an inkrementeller Gradientenabstieg wird auch stochastischer Gradientenabstieg genannt beim Vorhandensein mehrerer lokaler Minima kann inkrementeller Gradientenabstieg ein Hängenbleiben eher verhindern als das mengenbasierte Verfahren Neuronale Netze Michael Baumann 33/62
66 Gradientenabstieg inkrementeller Algorithmus IncrementalGradientDescent 1 choose random w 2 t = 0 3 repeat 4 t = t foreach (x, c(x)) T do 6 present x and compute y(x) 7 for i = 0 to d do 8 w i = η (c(x) y(x)) x i 9 w i = w i + w i 10 until (Konvergenz t > t max ) Neuronale Netze Michael Baumann 34/62
67 Gradientenabstieg Vergleich zu Perceptron Training PerceptronTraining passt Gewicht nur in Abhängigkeit vom Fehler in der Ausgabe an (Einfluss der Aktivierungsfunktion!) GradientDescent berücksichtigt Abweichung der Linearkombination der Eingabe zur gewünschten Ausgabe PerceptronTraining konvergiert nach endlich vielen Schritten gegen eine perfekte Hyperebene, wenn die Trainingsbeispiele linear separierbar sind Gradientenabstiegs-Methode konvergiert asymptotisch gegen eine Hyperebene, die den Lernfehler minimiert Gradientenabstieg hat keine Garantie der Konvergenz in endlich vielen Schritten, aber Trainingsbeispiele müssen nicht linear separierbar sein! Neuronale Netze Michael Baumann 35/62
68 Nicht linear separierbare Trainingsbeispiele XOR-Problem x 1 x 2 XOR x die XOR-Funktion definiert ein kleinstes Beispiel für nicht linear separierbare Mengen benötigen mindestens zwei Hyperebenen, um die Beispiele zu trennen x 1 Neuronale Netze Michael Baumann 36/62
69 Multi-Layer Netzwerke Motivation Erweiterung von Perzeptron statt nur Ausgabe 0 oder 1 auch Werte dazwischen Aktivierungsfunktion anpassen Architektur anpassen Finden der Architektur? Lernen? feste Struktur nehmen und Gewichte anpassen 1 Schicht k Schichten Neuronale Netze Michael Baumann 37/62
70 Multi-Layer Netzwerke Einführung einzelne Perzeptronen können nur lineare Entscheidungsflächen lernen mehrere Perzeptronen kombinieren benötigen Neuronen die nicht-lineare Funktion ihrer Eingabe berechnen, da ein Netz aus linearen Neuronen nur lineare Funktionen erkennen kann die Aktivierungsfunktion der Neuronen in der Ausgabeschicht wird entsprechend der zu lernenden Funktion gewählt Neuronale Netze Michael Baumann 38/62
71 XOR revisited x 1 = Σ, θ Σ, θ y x 2 = Σ, θ x 1 xor x 2 (x 1 x 2 ) ( x 1 x 2 ) die Hidden-Neuronen erkennen jeweils ein AND das Output-Neuron erkennt das OR Neuronale Netze Michael Baumann 39/62
72 Aktivierungsfunktionen Aktivierungsfunktion berechnet die Erregung des Neurons in Abhängigkeit vom Schwellwert und der Eingabe einfachste Form: Heaviside-Funktion, aber Ableitung 0 und am Schwellwert nicht differenzierbar aber: Aktivierungsfunktion für Backpropagation muss differenzierbar sein! Sigmoid Funktion kontinuierlich und nichtlinear: 1 0 σ(z) = 1 1+e mit dσ(z) z dz = σ(z) (1 σ(z)). Alternative: tanh-funktion o.a. Neuronale Netze Michael Baumann 40/62
73 Begriffe und Notationen x 0 N I N H N O = x 1 x d =. =.. N I, N H, N O x u v w u v, w u v δ u y u Mengen von Input-, Hidden- und Output-Neuronen Eingangswert für Neuron v, bereitgestellt von Neuron u Gewicht und Gewichtsanpassung für Kante zwischen Neuron u und Neuron v Lernfehler für Neuron u Ausgabe von Neuron u Neuronale Netze Michael Baumann 41/62
74 Beispiel: Berechnung im Multilayer-Netzwerk x A C x B D x 1 x 2 c C (x) c D (x) Neuronale Netze Michael Baumann 42/62
75 Lernfehler Lernfehler summiert jetzt Fehler aller Ausgänge: Err(w) = 1 (c v (x) y v (x)) 2 2 v N O (x,c(x)) T Err(w) Abb.: Fehlerfläche [Folien Neuronale Netze ] Neuronale Fehlerfläche Netze hat jetzt i.a. viele lokale Minima! Michael Baumann 43/62
76 Beispiel: Berechnung des Lernfehlers x A C x B D x 1 x 2 c C (x) c D (x) y C = 0.46 y D = 0.57 Neuronale Netze Michael Baumann 44/62
77 Backpropagation Überblick benutzt Delta-Regel und minimiert den Lernfehler Fehlerfläche kann mehrere lokale Minima haben, Backpropagation konvergiert nur gegen ein lokales Optimum Neuronen der Eingabeschicht führen keine Berechnungen aus, sie verteilen lediglich die Eingabedaten Algorithmus läuft über Trainingsmenge und berechnet für jedes Beispiel den Lernfehler betrachten Netz mit einer versteckten Schicht Neuronale Netze Michael Baumann 45/62
78 Backpropagation Gewichtsanpassung Fehler der Output-Neuronen o: w h o1 o 1 δ o = y o (1 y o ) (c o (x) y o ) o 2 Fehler der Hidden-Neuronen h: δ h = y h (1 y h ) w h o δ o o N O h w h o2 w h ok. o k Es gibt nur die korrekte Klassenzuordnung für die Ausgabe des Netzes aber keine Vergleichswerte für die Ausgaben der Hidden-Neuronen! Fehlerterm für Hidden-Neuron h berechnet sich als Summe aller Fehlerterme von Output-Neuronen o, auf die h Einfluss hat Gewicht w h o als Maß für die Stärke des Einfluss Neuronale Netze Michael Baumann 46/62
79 Backpropagation Algorithmus (für zweischichtiges Netzwerk) Backpropagation 1 choose random w 2 t = 0 3 repeat 4 t = t foreach (x, c(x)) T do 6 propagate x forward and compute output of each neuron 7 foreach o N O do 8 calculate error δ o = y o (1 y o ) (c o (x) y o ) 9 foreach h N H do 10 calculate error δ h = y h (1 y h ) w h o δ o o N O 11 foreach w u v do w u v = w u v + η δ v x u v 12 until (Konvergenz t > t max ) Neuronale Netze Michael Baumann 47/62
80 Beispiel: Backpropagation x A C x B D x 1 x 2 c C (x) c D (x) y C = 0.46 y D = 0.57 Neuronale Netze Michael Baumann 48/62
81 Backpropagation Informationsfluss schwarze Pfeile kennzeichnen den Informationsfluss der Eingabe rote Pfeile kennzeichnen die Information über den Fehler. Informationen jedes Beispiels werden vorwärts durch das Netz propagiert Lernfehler wird zurückpropagiert Neuronale Netze Michael Baumann 49/62
82 Backpropagation Anmerkungen Herleitung der Backpropagation-Regel: gleicher Ansatz wie bei Gradientenabstieg y u (1 y u ) ist Ableitung der Sigmoid Funktion Verallgemeinerung für beliebige Anzahl Schichten: δ u für ein Neuron u in Schicht m wird aus den δ-werten der nächst tieferen Schicht m + 1 berechnet δ u = y u (1 y u ) v Schicht m+1 w u v δ v Neuronale Netze Michael Baumann 50/62
83 Verbesserungsheuristiken Einführen eines Momentums Gewichtsupdate in Iteration t hängt von Gewichtsupdate in t 1 ab: w u v (t) = η δ v x u v + α w u v (t 1) Analogie: Ball rollt über Fehlerfläche und versucht, seine Richtung beizubehalten. Effekt: kleine lokale Minima können überwunden werden Trainiere mehrere Netzwerke mit den gleichen Beispielen um ggf. verschiedene (lokale) Minima zu finden Nutzung des Netzes, das auf Validierungsmenge das beste Ergebnis erzielt Verwendung von allen Netzen und Bestimmung des Outputs als (gewichteten) Durchschnitt der Outputs aller Netze Neuronale Netze Michael Baumann 51/62
84 Bewertung der Güte eines Netzes Trainingsfehler eines Netzes trifft nur eine Aussage darüber, wie gut die Beispiele aus der Trainingsmenge erkannt werden es ist sinnvoll, die Beispiele in zwei Mengen aufzuteilen: Trainingsmege und Validierungsmenge das Netz wird auf der Trainingsmenge trainiert Beispiele der Validierungsmenge sind für das Netz unbekannt und können zur Bewertung der Fähigkeit zur Generalisierung verwendet werden Neuronale Netze Michael Baumann 52/62
85 Overfitting Err(w) auf Validierungsmenge auf Trainingsmenge Iterationen Von Overfitting spricht man, wenn ein Lernalgorithmus auf bekannten Beispielen immer besser wird, während er auf unbekannten Beispielen schlechter wird. Netz passt sich dann Ausprägungen an, die nicht repräsentativ für alle möglichen Beispiele sind Neuronale Netze Michael Baumann 53/62
86 Overfitting Möglichkeiten zur Vermeidung nach jeder i-ten Iteration auf Validierungsmenge testen, w mit minimalem Fehler auf Validierungsmenge verwenden, Abbruch, wenn Fehler auf Validierungsmenge deutlich größer bei kleiner Beispielmenge: k-fache Kreuzvalidierung zur Bestimmung der besten Anzahl Iterationen i, dann Training auf allen Beispielen für i Iterationen k-fache Kreuzvalidierung (k-fold cross-validation) Aufteilen der n Trainingsdaten in k Teilmengen der Größe n k k Durchläufe je eine der k Teilmengen ist Validierungsmenge die restlichen k 1 Teilmegen werden vereinigt als Trainingsmenge verwendet Neuronale Netze Michael Baumann 54/62
87 Abbruchkriterien Wahl der Abbruchbedingung ist wichtig zu wenige Iterationen des Lernalgorithmus reduzieren Trainingsfehler nicht ausreichend zu viele Iterationen führen zu auswendig lernen der Trainingsmenge Möglichkeiten für Abbruchkriterien nach bestimmter Anzahl Iterationen Fehler auf Trainingsmenge erfüllt festgelegte Kriterien (z.b. kleiner als Schranke) führt meist zu Overfitting verringert Fähigkeit zur Generalisierung Fehler auf Validierungsmenge erfüllt Kriterien Neuronale Netze Michael Baumann 55/62
88 Netzstrukturen Single-Layer Netzwerk: Eingabe wird direkt an die Ausgabeschicht übergeben. Multi-Layer Netzwerk: Es gibt versteckte Ebenen (hidden layer) zwischen der Eingabe- und der Ausgabeschicht. Rekurrentes Netzwerk: Hat mindestens eine Feedback-Verbindung, bei der ein Neuron die Ausgabe eines Neurons vor sich als Eingabe bekommt. Neuronale Netze Michael Baumann 56/62
89 Festlegung der Größe des Netzes Normalerweise zwei oder drei Schichten Dimension des Merkmalsraum bestimmt Anzahl Input-Neuronen Wahl der Ausgabe bestimmt Anzahl Output-Neuronen Bei Klassifizierung meist ein Output-Neuron pro Klasse! Festlegung der Anzahl Hidden-Neuronen erfolgt meist durch trial and error beginnend mit großen Netzwerk solange Neuronen und Verbindungen entfernen, bis Leistung absinkt beginnend mit kleinem Netzwerk solange Neuronen und Verbindungen hinzufügen, bis Leistung ausreichend Neuronale Netze Michael Baumann 57/62
90 Verschiedene Darstellungen der Ausgabe Meist ein Output-Neuron pro Klasse 1-of-n Encoding Das Output-Neuron, das am stärksten feuert, legt die Klasse fest Differenz zwischen höchsten und zweit-höchstem Output als Konfidenzmaß c(x) für ein Beispiel der Klasse i hat an i-ter Stelle eine 1 im Vektor, an allen anderen eine 0 häufig 0.1 statt 0 und 0.9 statt 1 da Sigmoid Funktion nicht 0 bzw. 1 wird Neuronale Netze Michael Baumann 58/62
91 Geeignete Probleme für neuronale Netze Beispiele werden durch (reell-wertige) Merkmalvektoren beschrieben Ausgabe kann durch diskrete oder kontinuierliche Werte oder durch einen Vektor dargestellt werden Trainingsmenge kann fehlerhafte Beispiele enthalten lange Trainingszeiten sind akzeptabel aber die gelernte Funktion muss schnell auswertbar sein Struktur der gelernten Funktion muss nicht von Menschen verstanden werden (vgl. Entscheidungsbäume) Neuronale Netze Michael Baumann 59/62
92 Leistungsfähigkeit einzelne Perzeptronen können die boolschen Funktionen AND, OR, NAND, NOR repräsentieren jede boolsche Funktion kann durch ein Netzwerk mit maximal zwei Schichten repräsentiert werden, wobei die Anzahl der Hidden-Nodes exponentiell in der Größe der Eingabe sein kann stetige Funktionen können mit beliebig kleinem Fehler durch ein Zwei-Schichten-Netzwerk erkannt werden, wobei die Anzahl der Hidden-Nodes von der Funktion abhängt beliebige Funktionen können mit beliebiger Genauigkeit durch ein Drei-Schichten-Netzwerk approximiert werden; die Anzahl der Hidden-Nodes hängt von der Funktion ab Neuronale Netze Michael Baumann 60/62
93 Links und Tools Applet: ch/13/vlu/daten/neuronalenetze/perzeptron.vlu.html Simulator: JavaNNS/welcome_e.html API: API: FAQ: Neuronale Netze Michael Baumann 61/62
94 Literatur Theodor Lettmann & Benno Stein. Unterlagen zum Thema Neuronale Netze. teaching/lecture-notes.html. Simon Haykin. Neural Networks: A Comprehensive Foundation. (2nd edition) Prentice Hall, Tom Mitchell. Machine Learning. McGraw Hill, David Kriesel. Ein kleiner Überblick über Neuronale Netze. erhältlich unter http: // www. dkriesel. com. Neuronale Netze Michael Baumann 62/62
Neuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrPerzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004
Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrAdaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich
MehrNeuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrKapitel LF: IV. IV. Neuronale Netze
Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c
MehrTeil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze
Vorlesung Künstliche Intelligenz Wintersemester 2008/09 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrKapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06
Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
Mehr6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
MehrNeuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien
in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen
MehrTeil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze
Vorlesung Künstliche Intelligenz Wintersemester 2006/07 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der
MehrProseminar Neuronale Netze Frühjahr 2004
Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrProseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger
Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale
MehrTeil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze. Was sind künstliche Neuronale Netze?
Was sind künstliche Neuronale Netze? Vorlesung Künstliche Intelligenz Wintersemester 2006/07 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Künstliche Neuronale Netze sind massiv parallel
MehrGrundlagen zu neuronalen Netzen. Kristina Tesch
Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrNeuronale Netze Aufgaben 3
Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap
MehrKünstliche Neuronale Netze
Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
MehrAdaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}
MehrCV12. Deep Learning für Computer Vision
Einführung in Visual Computing CV12, Vs.1.9 Robert Sablatnig, Sebastian Zambanini, TU Wien CV12. Deep Learning für Computer Vision CV-46 Maschinelles Lernen Maschinelles Lernen ist ein Teilgebiet der künstlichen
MehrWeitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff
Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization
MehrSchwellenwertelemente. Rudolf Kruse Neuronale Netze 8
Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem
MehrKlassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
MehrStatistical Learning
Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in
MehrEinige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel
Einige überwachte Lernverfahren Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel Funktionsweise eines künstlichen Neurons x w k Neuron k x 2 w 2k net k f y k x n- w n-,k x n w n,k
Mehr6.2 Feed-Forward Netze
6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir
MehrLinear nichtseparable Probleme
Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
MehrReinforcement Learning
Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrDer Sprung in die Zukunft! Einführung in neuronale Netzwerke
Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
Mehrauch: Konnektionismus; subsymbolische Wissensverarbeitung
10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache
MehrKapitel VI Neuronale Netze
Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1 Agenda 1. Einführung & Grundbegriffe - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene
MehrNichtlineare Klassifikatoren
Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
Mehr7. Vorlesung Neuronale Netze
Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation
MehrTraining von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
Mehr8. Vorlesung Neuronale Netze
Soft Control (AT 3, RMA) 8. Vorlesung Neuronale Netze Lernverfahren 8. Vorlesung im Aufbau der Vorlesung 1. inführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
MehrRL und Funktionsapproximation
RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht
MehrTechnische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt
MehrGrundlagen Neuronaler Netze
Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht
MehrWas sind Neuronale Netze?
Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrKapitel VI Neuronale Netze
Agenda Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1. - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene Netzwerktypen 2. 3. 4. Beispiele
MehrEine kleine Einführung in neuronale Netze
Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch
MehrMustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12
Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?
MehrThema 3: Radiale Basisfunktionen und RBF- Netze
Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung
MehrGrundlagen neuronaler Netzwerke
AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?
MehrAusarbeitung zum Hauptseminar Machine Learning
Ausarbeitung zum Hauptseminar Machine Learning Matthias Seidl 8. Januar 2004 Zusammenfassung single-layer networks, linear separability, least-squares techniques Inhaltsverzeichnis 1 Einführung 2 1.1 Anwendungen
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrWissensbasierte Systeme
Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten
MehrKlassifikationsverfahren und Neuronale Netze
Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrNeuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate...
Neuro-Info Notizen Marus Klemm.net WS 6/7 Inhaltsverzeichnis Hebbsche Lernregel. Fälle........................................ Lernrate..................................... Neural Gas. Algorithmus.....................................
MehrIntelligente Algorithmen Einführung in die Technologie
Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrDas Perzeptron. Volker Tresp
Das Perzeptron Volker Tresp 1 Einführung Das Perzeptron war eines der ersten ernstzunehmenden Lernmaschinen Die wichtigsten Elemente Sammlung und Vorverarbeitung der Trainingsdaten Wahl einer Klasse von
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
MehrNeuronale Netze. Seminar aus Algorithmik Stefan Craß,
Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Probleme des Backpropagation-Algorithmus und Alternativen Seminar
MehrNeuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.
Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles
MehrBACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON
BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe
MehrDatenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?
Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic
MehrKapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen
Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen
MehrEin selbstmodellierendes System für die Wasserwirtschaft
Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme
MehrMULTILAYER-PERZEPTRON
Einleitung MULTILAYER-PERZEPTRON Die Ausarbeitung befasst sich mit den Grundlagen von Multilayer-Perzeptronen, gibt ein Beispiel für deren Anwendung und zeigt eine Möglichkeit auf, sie zu trainieren. Dabei
MehrEinführung in Neuronale Netze
Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche
MehrEinführung in die Computerlinguistik
Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:
MehrStrukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz
Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung - zur Veröffentlichung bei LuxJunior 2003 - Krzyzanowski, J., Rosemann, A., Kaase, H. Technische Universität Berlin Fachgebiet Lichttechnik,
Mehr2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren
2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4.1. Einführung neuronale Netze (konnektionistische Modelle): Systeme, die einige der im menschlichen Gehirn bekannten oder vermuteten
Mehr