Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Größe: px
Ab Seite anzeigen:

Download "Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr."

Transkript

1 Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012

2 Was ist ein neuronales Netz? eigentlich: künstliches neuronales Netz (Artificial Neural Network) bildet biologisches Nervensystem nach Neuronale Netze = dichte Verknüpfung einfacher Einheiten überwachtes Lernverfahren Definition (Neuronales Netz [Haykin, 1999]) A neural network is a massively parallel distributed processor made up of simple processing units, which has a natural propensity for storing experiential knowledge and making it available for use. It resembles the brain in two respects: 1 Knowledge is acquired by the network from its environment through a learning process. 2 Interneuron connection strengths, known as synaptic weights, are used to store the acquired knowledge. Neuronale Netze Michael Baumann 1/62

3 Vorteile neuronaler Netze Fähigkeit zur Generalisierung: Nach dem Training können ähnliche unbekannte Beispiele erkannt werden. Selbstorganisation: Neuronale Netze erzeugen eigene Darstellung der gelernten Informationen. Fehler-Toleranz: Fähigkeit, mit verrauschten Daten umzugehen. Generischer Ansatz, neuronales Netz lernt aus Beispielen. Die Nichtlinearität ermöglicht Verarbeitung von beliebigen Funktionen. Ausgabe kann so modelliert werden, dass Rückschlüsse auf Sicherheit der Zuordnung gezogen werden können. Neuronale Netze Michael Baumann 2/62

4 Klassifikation von Lernverfahren Beim überwachten Lernen (supervised learning) gibt es zu jedem Beispiel die korrekte Lösung als Vergleich. Das unüberwachte Lernen (unsupervised learning) hat keine Informationen über die korrekte Lösung zur Verfügung; hier müssen Ähnlichkeiten herausgefunden werden. Bestärkendes Lernen (reinforcement learning) nutzt eine Rückmeldung, ob ein Ergebnis richtig oder falsch war ohne die korrekte Lösung zu kennen. Neuronale Netze Michael Baumann 3/62

5 Lernprobleme Klassifizierung (classification) Ziel: Durch Merkmale kodierte Eingabe in eine der gegebenen diskreten Klassen einordnen Ausgabe: Vektor mit Klassenzugehörigkeit Beispiele: Kreditvergabe, Gesichtserkennung, Schrifterkennung,... Regression (function approximation) Ziel: Funktionswert an der durch Merkmale angegebenen Stelle approximieren Ausgabe: Zahlenwert Beispiele: mathematische Funktionen, Trends in Börsenkursen,... Neuronale Netze Michael Baumann 4/62

6 Notationen und Begriffe Merkmale sind Eigenschaften, die zur Beschreibung von Objekten verwendet werden Beispiele für Merkmale Personen: Größe, Alter, Geschlecht,... Autos: Typ, Farbe, Länge, Breite,... Pilze: Farbe, Größe,... X R d ist ein Merkmalsraum über endlich vielen Merkmalen C ist eine Menge von Klassen c : X C ist der ideale Klassifikator für X ein Beispiel (x, c(x)) besteht aus einem Merkmalsvektor x X und der korrekten Klassenzugehörigkeit c(x) die Trainingsmenge T := {(x 1, c(x 1 )),..., (x n, c(x n ))} X C ist eine Menge von Beispielen Neuronale Netze Michael Baumann 5/62

7 Geschichte 1943 McCulloch und Pitts stellen formales Modell eines Neurons mit all-or-none Charakter vor Hebb formuliert Lernregel: synaptische Verbindung zwischen zwei Neuronen wird bei häufiger Aktivierung verstärkt Rosenblatt modelliert Perzeptron Formulierung des Least mean square Algorithmus und Beschreibung von Adaline durch Widrow und Hoff Minsky und Papert zeigen Grenzen des Perzeptrons und postulieren ähnliche Beschränkungen für mehrschichtige Perzeptronen Rumelhart, Hinton und Williams präsentieren den Backpropagation Algorithmus. Neuronale Netze Michael Baumann 6/62

8 Biologisches Vorbild: Nervenzellen Dendrit Synapse Axon Zellkörper Neuronale Netze Michael Baumann 7/62

9 Biologisches Vorbild: Nervenzellen Dendrit Synapse Axon Zellkörper Dendriten: Eingänge für elektrische Impulse Synapsen: Kontaktstellen für Übertragung der Erregung können unterschiedlich starke Impulse auslösen Zellkörper: summiert eingehende Impulse Wird eine bestimmte Reizschwelle überschritten, so entsteht im Zellkörper ein Signal, das durch das Axon weitergeleitet wird. Axon: gibt Signal weiter gerichtete Signalverarbeitung Neuronale Netze Michael Baumann 7/62

10 Modell eines Neurons x 1 w 1 w 2 x 2. w d g( ) y x d x i sind die Komponenten des Eingabevektors x R d (Dentriten) w i R sind die Gewichte der Verbindungen, wobei w i den Anteil von x i an der Ausgabe quantifiziert (Synapsen) d berechnet gewichtete Summe w i x i der Eingänge (Zellkörper) i=1 g( ) ist die Aktivierungsfunktion, beschränkt Ausgabewert (Zellkörper, Axonhügel) y ist die Ausgabe (Axon) Neuronale Netze Michael Baumann 8/62

11 Perzeptron erhält einen Vektor mit reell-wertigen Zahlen als Eingabe berechnet eine binäre Ausgabe (z.b. C = {0, 1} oder C = { 1, +1}) soll genau dann feuern, wenn der berechnete Wert größer als die Reizschwelle ist minimales neuronales Netz, das nur aus einem Neuron besteht Codierung x R 2, z.b. 1 = true und 0 = false C = {1, 0} binäre Aktivierungsfunktion, abhängig von Schwellwert θ Neuronale Netze Michael Baumann 9/62

12 Berechnung im Perzeptron Schwellwert θ R bestimmt, ob das Perzeptron feuert wenn d i=1 w i x i θ dann soll y = 1 gelten, sonst soll y = 0 sein 1 0 θ also: wenn d i=1 w i x i θ 0 dann soll y = 1 gelten, sonst soll y = 0 sein Erweitern Perzeptron um einen Eingang mit w 0 = θ und x 0 = 1 Nutzen der Heaviside-Funktion für die Ausgabe: ( d ) { 1, wenn di=0 w i x i 0 y(x) = heaviside w i x i = i=0 0, sonst Neuronale Netze Michael Baumann 10/62

13 Angepasstes Neuronenmodell x 0 x 1 w 1 w 2 w 0 x 2. w d g( ) y x d x 0 wird auch als Bias bezeichnet Bias modelliert die Reizschwelle, ab der ein Neuron feuert diese Modellierung unterwirft den Bias ebenfalls dem Lernprozess Neuronale Netze Michael Baumann 11/62

14 Beispiel: Berechnung im Perzeptron x 0 = 1 x g( ) y x x 1 x 2 c(x) Neuronale Netze Michael Baumann 12/62

15 Entscheidungsfläche x 1 C = {, } Gesucht: Entscheidungsregel für T Neuronale Netze Michael Baumann 13/62

16 Entscheidungsfläche x 1 C = {, } Gesucht: Entscheidungsregel für T Beispielsweise: { x1 1.5 y(x 1 ) = sonst Neuronale Netze Michael Baumann 13/62

17 Entscheidungsfläche im R 2 4 x x 1 Neuronale Netze Michael Baumann 14/62

18 Entscheidungsfläche im R 2 4 x x 1 x 2 = x Neuronale Netze Michael Baumann 14/62

19 Entscheidungsfläche im R 2 Geradengleichungen x x 1 Verschiedene Schreibweisen, u.a.: y = m x + b w T x = θ x 2 = x ( ) T 1 1 ( ) x1 x 2 = 3.5 Neuronale Netze Michael Baumann 15/62

20 Entscheidungsfläche im R 2 Geradengleichungen 4 3 x 2 y(x) = x 1 + x y(x) = = 0 y(x) = = 0.5 y(x) = = x 1 Neuronale Netze Michael Baumann 15/62

21 Entscheidungsfläche im R 2 Geradengleichungen x y(x) > 0 y(x) = 0 y(x) < 0 x 1 Verwenden folgende Schreibweise für Geraden: hier: w T x = θ w 1 x 1 + w 2 x 2 θ = 0 }{{} y(x) ( ) T 1 1 ( ) x1 x = 0 x 1 + x = 0 Neuronale Netze Michael Baumann 15/62

22 Entscheidungsflächen im R d Entscheidungsfläche (im R 2 Gerade) definert durch w T x θ = 0 d w i x i θ = 0 i=1 wollen Entscheidungsfläche lernen d w i x i = 0 i=0 mit w 0 = θ und x 0 = 1 Neuronale Netze Michael Baumann 16/62

23 Perzeptron als Hyperebene Perzeptron definiert eine Hyperebene als Entscheidungsfläche Hyperebene steht senkrecht (normal) zu w w 0 = θ beschreibt orthogonalen Abstand zum Ursprung x 2 (w 1,..., w d ) T θ x 1 Neuronale Netze Michael Baumann 17/62

24 Beispiele für Entscheidungsflächen Beispiel: AND Beispiel: OR x 1 x 2 AND x x 1 x 1 x 2 OR x x 1 Neuronale Netze Michael Baumann 18/62

25 Trainieren von neuronalen Netzen Wie kann man neuronale Netze (oder hier ein Perzeptron) trainieren? verschiedene Möglichkeiten Neuronen hinzufügen / entfernen Verbindungen hinzufügen / entfernen Verbindungsgewichte anpassen Normalerweise: Anpassen der Gewichte w. Hypothesenraum: Menge aller Gewichtsvektoren w = (w 0, w 1,..., w d ) T Neuronale Netze Michael Baumann 19/62

26 Perzeptron-Lernalgorithmus PerceptronTraining 1 initialize all w i randomly 2 t = 0 3 repeat 4 t = t choose random (x, c(x)) T 6 error = c(x) y(x) 7 for i = 0 to d do T Trainingsmenge η > 0 Lernrate t Zeitschritt y(x) = heaviside(w T x) Ausgabe des Perzeptrons c(x) korrekte Klasse 8 w i = η error x i 9 w i = w i + w i 10 until (Konvergenz t > t max ) Neuronale Netze Michael Baumann 20/62

27 Beispielablauf des Algorithmus gegeben: Trainingsmenge T x 1 x 2 c(x) x gesucht: Gewichtsvektor für Perzeptron, das die Trainingsmenge korrekt klassifiziert x 1 Neuronale Netze Michael Baumann 21/62

28 Beispielablauf des Algorithmus Initialisierung x x 1 Lernrate η = 0.1 x 0 = 1 (fest) C = {0, 1}, 1 für, 0 für nach Initialisierung: t = 0 w 0 = 0.4 w 1 = 1.2 w 2 = 1 Trennfläche: x 1 x 2 = 0 Neuronale Netze Michael Baumann 22/62

29 Beispielablauf des Algorithmus t = 1 x x 1 zufälliges Beispiel x = (1.1, 0.3) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside(1.42) = 1 = y(x) error = c(x) y(x) = 1 1 = 0 w i = η error x i : w 0 = 0 w 1 = 0 w 2 = 0 Neuronale Netze Michael Baumann 22/62

30 Beispielablauf des Algorithmus t = 2 x x 1 zufälliges Beispiel x = (3.1, 2.7) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside(1.42) = 1 = y(x) error = c(x) y(x) = 0 1 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 Neuronale Netze Michael Baumann 22/62

31 Beispielablauf des Algorithmus t = 2 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 neue Gewichte: w i = w i + w i w 0 = = 0.3 w 1 = = 0.89 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62

32 Beispielablauf des Algorithmus t = 3 x x 1 zufälliges Beispiel x = (1.5, 3) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 2.175) = 0 = y(x) error = c(x) y(x) = 0 0 = 0 w i = η error x i : w 0 = 0 w 1 = 0 w 2 = 0 Neuronale Netze Michael Baumann 22/62

33 Beispielablauf des Algorithmus t = 4 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.665) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62

34 Beispielablauf des Algorithmus t = 4 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.4 w 1 = = 0.91 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62

35 Beispielablauf des Algorithmus t = 5 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.48) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62

36 Beispielablauf des Algorithmus t = 5 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.5 w 1 = = 0.93 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62

37 Beispielablauf des Algorithmus t = 6 x x 1 zufälliges Beispiel x = (3.1, 2.7) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside(0.24) = 1 = y(x) error = c(x) y(x) = 0 1 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 Neuronale Netze Michael Baumann 22/62

38 Beispielablauf des Algorithmus t = 6 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 neue Gewichte: w i = w i + w i w 0 = = 0.4 w 1 = = 0.62 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62

39 Beispielablauf des Algorithmus t = 7 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.7) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62

40 Beispielablauf des Algorithmus t = 7 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.5 w 1 = = 0.64 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62

41 Beispielablauf des Algorithmus t = 8 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.515) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62

42 Beispielablauf des Algorithmus t = 8 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.6 w 1 = = 0.66 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62

43 Beispielablauf des Algorithmus t = 9 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.33) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62

44 Beispielablauf des Algorithmus t = 9 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.7 w 1 = = 0.68 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62

45 Beispielablauf des Algorithmus t = 10 x x 1 zufälliges Beispiel x = (0.2, 0.9) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0.145) = 0 = y(x) error = c(x) y(x) = 1 0 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 Neuronale Netze Michael Baumann 22/62

46 Beispielablauf des Algorithmus t = 10 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.02 w 2 = = 0.09 neue Gewichte: w i = w i + w i w 0 = = 0.8 w 1 = = 0.7 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62

47 Beispielablauf des Algorithmus t = 11 x x 1 Beispiel x = (3.1, 2.7) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside(0.27) = 1 = y(x) error = c(x) y(x) = 0 1 = 1 w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 Neuronale Netze Michael Baumann 22/62

48 Beispielablauf des Algorithmus t = 11 x w i = η error x i : w 0 = = 0.1 w 1 = = 0.31 w 2 = = 0.27 neue Gewichte: w i = w i + w i w 0 = = 0.7 w 1 = = 0.39 w 2 = = x 1 Neuronale Netze Michael Baumann 22/62

49 Beispielablauf des Algorithmus t = 12 x x 1 zufälliges Beispiel x = (3.1, 2.7) T heaviside(w 0 x 0 + w 1 x 1 + w 2 x 2 ) heaviside( ) heaviside( 0, 062) = 0 = y(x) error = c(x) y(x) = 0 0 = 0 w i = η error x i : w 0 = 0 w 1 = 0 w 2 = 0 Neuronale Netze Michael Baumann 22/62

50 Beispielablauf des Algorithmus t = 12 x x 1 alle Beispiele der Trainingsmenge werden korrekt klassifiziert Übung: Rechnerische Überprüfung für die übrigen Elemente der Trainingsmenge. trennende Hyperebene: 0.7 x x x 2 = 0 mit x 0 = 1 Neuronale Netze Michael Baumann 22/62

51 Betrachtung des Lernalgorithmus Hebb sches Lernen Gewichtsanpassung hängt von η, x i und error ab error = c(x) heaviside(w T x) Neuron feuert fälschlicherweise: alle w i verringern Neuron feuert nicht, obwohl es feuern soll: alle w i vergrößern Verwendet Abweichung der korrekten Klasse von der durch Perzeptron berechneten Klasse Keine Berücksichtigung des Abstands von x zur Entscheidungsfläche! Lernrate η bestimmt Größe des Lernschritts, z.b. η = 0.1. η kann auch zeitabhängig sein: η 0 für t anfangs stärkere Anpassung am Ende nur noch Feinjustierung Neuronale Netze Michael Baumann 23/62

52 Lineare Separierbarkeit Definition (lineare Separierbarkeit) Zwei Mengen M 1 und M 2 von Vektoren eines d-dimensionalen Raums heißen linear separierbar, falls d + 1 reelle Zahlen θ, w 1,..., w d existieren, so dass d i=1 w i x i θ für jeden Vektor in M 1 und d i=1 w i x i < θ für jeden Vektor in M 2 gilt. Beispiel Seien Vektoren aus M 1 und Vektoren aus M 2. linear separierbar nicht linear separierbar Neuronale Netze Michael Baumann 24/62

53 Perzeptron-Konvergenztheorem Theorem (Perzeptron-Konvergenztheorem (Rosenblatt 1962)) Seien M 1, M 2 zwei nicht-leere, endliche Mengen von Vektoren x = ( 1, x 1,..., x d ) T, wobei M 1 und M 2 linear separierbar sind. Sei T die Menge der Beispiele der Form (x, 0) für x M 1 oder (x, 1) für x M 2 und sei η genügend klein. Dann gilt: Werden die Vektoren aus T dem Perzeptron-Lernalgorithmus präsentiert, so konvergiert der Gewichtsvektor w des Perzeptrons innerhalb endlich vieler Iterationen so, dass alle Beispiele aus T korrekt klassifiziert werden. w entspricht einer trennenden Hyperebene Sind die Daten der Trainingsmenge nicht linear separierbar, kann die Konvergenz nicht garantiert werden! Neuronale Netze Michael Baumann 25/62

54 Lernfehler Betrachten Perzeptron ohne Schwellwertfunktion: d y(x) = w i x i i=0 Err(w) Trainingsfehler von w in Abhängigkeit von T : Err(w) = 1 2 (x,c(x)) T (c(x) y(x)) w 2 0 Abb.: Fehlerfläche [Folien Neuronale Netze ] w 1 Neuronale Netze Michael Baumann 26/62

55 Gradientenabstieg Konvergenz von PerceptronTraining bei nicht linear separierbaren Beispielen nicht garantiert. Bestimmen Gradient des Lernfehlers: ( ) Err Err(w) = w 0,..., Err w d ist die Richtung des steilsten Anstiegs Err(w) ist die Richtung des steilsten Abstiegs Verschieben w in Richtung des steilsten Abstiegs: w = w + w mit w = η Err(w) Neuronale Netze Michael Baumann 27/62

56 Gradientenabstieg Herleitung der Gewichtsanpassung Err w i = w i 1 2 (x,c(x)) T (c(x) y(x)) 2 Neuronale Netze Michael Baumann 28/62

57 Gradientenabstieg Herleitung der Gewichtsanpassung Err w i = w i 1 2 = 1 2 (x,c(x)) T (x,c(x)) T (c(x) y(x)) 2 w i (c(x) y(x)) 2 Neuronale Netze Michael Baumann 28/62

58 Gradientenabstieg Herleitung der Gewichtsanpassung Err w i = w i 1 2 = 1 2 = 1 2 (x,c(x)) T (x,c(x)) T (x,c(x)) T (c(x) y(x)) 2 w i (c(x) y(x)) 2 2 (c(x) y(x)) w i (c(x) y(x)) Neuronale Netze Michael Baumann 28/62

59 Gradientenabstieg Herleitung der Gewichtsanpassung Err w i = w i 1 2 = 1 2 = 1 2 = (x,c(x)) T (x,c(x)) T (x,c(x)) T (x,c(x)) T (c(x) y(x)) 2 w i (c(x) y(x)) 2 2 (c(x) y(x)) (c(x) y(x)) w i (c(x) y(x)) w i (c(x) w T x) Neuronale Netze Michael Baumann 28/62

60 Gradientenabstieg Herleitung der Gewichtsanpassung Err w i = w i 1 2 = 1 2 = 1 2 = Err w i = (x,c(x)) T (x,c(x)) T (x,c(x)) T (x,c(x)) T (x,c(x)) T (c(x) y(x)) 2 w i (c(x) y(x)) 2 2 (c(x) y(x)) (c(x) y(x)) (c(x) y(x)) ( x i ) w i (c(x) y(x)) w i (c(x) w T x) Neuronale Netze Michael Baumann 28/62

61 Gradientenabstieg Komponentenweise Gewichtsanpassung w i = w i + w i mit w i = η w i = η w i = η Err w i (x,c(x)) T (x,c(x)) T (c(x) y(x)) ( x i ) (c(x) y(x)) x i Neuronale Netze Michael Baumann 29/62

62 Delta-Regel andere Bezeichnungen: Widrow-Hoff-Regel Adaline-Regel w i = η (c(x) y(x)) x i Neuronale Netze Michael Baumann 30/62

63 Gradientenabstieg mengenbasierter Algorithmus GradientDescent 1 choose random w 2 t = 0 3 repeat 4 t = t set all w i to zero 6 foreach (x, c(x)) T do 7 present x and compute y(x) 8 for i = 0 to d do 9 w i = w i + η (c(x) y(x)) x i 10 for i = 0 to d do 11 w i = w i + w i 12 until (Konvergenz t > t max ) Neuronale Netze Michael Baumann 31/62

64 Gradientenabstieg Eigenschaften Gradientenabstieg minimiert Fehler minimiert nicht zwangsläufig Anzahl der fehlklassifizierten Beispiele Fehlerfläche hat nur ein globales Minimum Konvergenz mit genügend kleinem η Neuronale Netze Michael Baumann 32/62

65 Gradientenabstieg Anpassungsmöglichkeit mengenbasiertes Verfahren summmiert alle Fehler der Trainingsmenge und passt w einmal am Ende der Lerniteration an Längere Berechnungszeit pro Gewichtsanpassung! inkrementeller Gradientenabstieg passt w i nach jedem Beispiel um w i an inkrementeller Gradientenabstieg wird auch stochastischer Gradientenabstieg genannt beim Vorhandensein mehrerer lokaler Minima kann inkrementeller Gradientenabstieg ein Hängenbleiben eher verhindern als das mengenbasierte Verfahren Neuronale Netze Michael Baumann 33/62

66 Gradientenabstieg inkrementeller Algorithmus IncrementalGradientDescent 1 choose random w 2 t = 0 3 repeat 4 t = t foreach (x, c(x)) T do 6 present x and compute y(x) 7 for i = 0 to d do 8 w i = η (c(x) y(x)) x i 9 w i = w i + w i 10 until (Konvergenz t > t max ) Neuronale Netze Michael Baumann 34/62

67 Gradientenabstieg Vergleich zu Perceptron Training PerceptronTraining passt Gewicht nur in Abhängigkeit vom Fehler in der Ausgabe an (Einfluss der Aktivierungsfunktion!) GradientDescent berücksichtigt Abweichung der Linearkombination der Eingabe zur gewünschten Ausgabe PerceptronTraining konvergiert nach endlich vielen Schritten gegen eine perfekte Hyperebene, wenn die Trainingsbeispiele linear separierbar sind Gradientenabstiegs-Methode konvergiert asymptotisch gegen eine Hyperebene, die den Lernfehler minimiert Gradientenabstieg hat keine Garantie der Konvergenz in endlich vielen Schritten, aber Trainingsbeispiele müssen nicht linear separierbar sein! Neuronale Netze Michael Baumann 35/62

68 Nicht linear separierbare Trainingsbeispiele XOR-Problem x 1 x 2 XOR x die XOR-Funktion definiert ein kleinstes Beispiel für nicht linear separierbare Mengen benötigen mindestens zwei Hyperebenen, um die Beispiele zu trennen x 1 Neuronale Netze Michael Baumann 36/62

69 Multi-Layer Netzwerke Motivation Erweiterung von Perzeptron statt nur Ausgabe 0 oder 1 auch Werte dazwischen Aktivierungsfunktion anpassen Architektur anpassen Finden der Architektur? Lernen? feste Struktur nehmen und Gewichte anpassen 1 Schicht k Schichten Neuronale Netze Michael Baumann 37/62

70 Multi-Layer Netzwerke Einführung einzelne Perzeptronen können nur lineare Entscheidungsflächen lernen mehrere Perzeptronen kombinieren benötigen Neuronen die nicht-lineare Funktion ihrer Eingabe berechnen, da ein Netz aus linearen Neuronen nur lineare Funktionen erkennen kann die Aktivierungsfunktion der Neuronen in der Ausgabeschicht wird entsprechend der zu lernenden Funktion gewählt Neuronale Netze Michael Baumann 38/62

71 XOR revisited x 1 = Σ, θ Σ, θ y x 2 = Σ, θ x 1 xor x 2 (x 1 x 2 ) ( x 1 x 2 ) die Hidden-Neuronen erkennen jeweils ein AND das Output-Neuron erkennt das OR Neuronale Netze Michael Baumann 39/62

72 Aktivierungsfunktionen Aktivierungsfunktion berechnet die Erregung des Neurons in Abhängigkeit vom Schwellwert und der Eingabe einfachste Form: Heaviside-Funktion, aber Ableitung 0 und am Schwellwert nicht differenzierbar aber: Aktivierungsfunktion für Backpropagation muss differenzierbar sein! Sigmoid Funktion kontinuierlich und nichtlinear: 1 0 σ(z) = 1 1+e mit dσ(z) z dz = σ(z) (1 σ(z)). Alternative: tanh-funktion o.a. Neuronale Netze Michael Baumann 40/62

73 Begriffe und Notationen x 0 N I N H N O = x 1 x d =. =.. N I, N H, N O x u v w u v, w u v δ u y u Mengen von Input-, Hidden- und Output-Neuronen Eingangswert für Neuron v, bereitgestellt von Neuron u Gewicht und Gewichtsanpassung für Kante zwischen Neuron u und Neuron v Lernfehler für Neuron u Ausgabe von Neuron u Neuronale Netze Michael Baumann 41/62

74 Beispiel: Berechnung im Multilayer-Netzwerk x A C x B D x 1 x 2 c C (x) c D (x) Neuronale Netze Michael Baumann 42/62

75 Lernfehler Lernfehler summiert jetzt Fehler aller Ausgänge: Err(w) = 1 (c v (x) y v (x)) 2 2 v N O (x,c(x)) T Err(w) Abb.: Fehlerfläche [Folien Neuronale Netze ] Neuronale Fehlerfläche Netze hat jetzt i.a. viele lokale Minima! Michael Baumann 43/62

76 Beispiel: Berechnung des Lernfehlers x A C x B D x 1 x 2 c C (x) c D (x) y C = 0.46 y D = 0.57 Neuronale Netze Michael Baumann 44/62

77 Backpropagation Überblick benutzt Delta-Regel und minimiert den Lernfehler Fehlerfläche kann mehrere lokale Minima haben, Backpropagation konvergiert nur gegen ein lokales Optimum Neuronen der Eingabeschicht führen keine Berechnungen aus, sie verteilen lediglich die Eingabedaten Algorithmus läuft über Trainingsmenge und berechnet für jedes Beispiel den Lernfehler betrachten Netz mit einer versteckten Schicht Neuronale Netze Michael Baumann 45/62

78 Backpropagation Gewichtsanpassung Fehler der Output-Neuronen o: w h o1 o 1 δ o = y o (1 y o ) (c o (x) y o ) o 2 Fehler der Hidden-Neuronen h: δ h = y h (1 y h ) w h o δ o o N O h w h o2 w h ok. o k Es gibt nur die korrekte Klassenzuordnung für die Ausgabe des Netzes aber keine Vergleichswerte für die Ausgaben der Hidden-Neuronen! Fehlerterm für Hidden-Neuron h berechnet sich als Summe aller Fehlerterme von Output-Neuronen o, auf die h Einfluss hat Gewicht w h o als Maß für die Stärke des Einfluss Neuronale Netze Michael Baumann 46/62

79 Backpropagation Algorithmus (für zweischichtiges Netzwerk) Backpropagation 1 choose random w 2 t = 0 3 repeat 4 t = t foreach (x, c(x)) T do 6 propagate x forward and compute output of each neuron 7 foreach o N O do 8 calculate error δ o = y o (1 y o ) (c o (x) y o ) 9 foreach h N H do 10 calculate error δ h = y h (1 y h ) w h o δ o o N O 11 foreach w u v do w u v = w u v + η δ v x u v 12 until (Konvergenz t > t max ) Neuronale Netze Michael Baumann 47/62

80 Beispiel: Backpropagation x A C x B D x 1 x 2 c C (x) c D (x) y C = 0.46 y D = 0.57 Neuronale Netze Michael Baumann 48/62

81 Backpropagation Informationsfluss schwarze Pfeile kennzeichnen den Informationsfluss der Eingabe rote Pfeile kennzeichnen die Information über den Fehler. Informationen jedes Beispiels werden vorwärts durch das Netz propagiert Lernfehler wird zurückpropagiert Neuronale Netze Michael Baumann 49/62

82 Backpropagation Anmerkungen Herleitung der Backpropagation-Regel: gleicher Ansatz wie bei Gradientenabstieg y u (1 y u ) ist Ableitung der Sigmoid Funktion Verallgemeinerung für beliebige Anzahl Schichten: δ u für ein Neuron u in Schicht m wird aus den δ-werten der nächst tieferen Schicht m + 1 berechnet δ u = y u (1 y u ) v Schicht m+1 w u v δ v Neuronale Netze Michael Baumann 50/62

83 Verbesserungsheuristiken Einführen eines Momentums Gewichtsupdate in Iteration t hängt von Gewichtsupdate in t 1 ab: w u v (t) = η δ v x u v + α w u v (t 1) Analogie: Ball rollt über Fehlerfläche und versucht, seine Richtung beizubehalten. Effekt: kleine lokale Minima können überwunden werden Trainiere mehrere Netzwerke mit den gleichen Beispielen um ggf. verschiedene (lokale) Minima zu finden Nutzung des Netzes, das auf Validierungsmenge das beste Ergebnis erzielt Verwendung von allen Netzen und Bestimmung des Outputs als (gewichteten) Durchschnitt der Outputs aller Netze Neuronale Netze Michael Baumann 51/62

84 Bewertung der Güte eines Netzes Trainingsfehler eines Netzes trifft nur eine Aussage darüber, wie gut die Beispiele aus der Trainingsmenge erkannt werden es ist sinnvoll, die Beispiele in zwei Mengen aufzuteilen: Trainingsmege und Validierungsmenge das Netz wird auf der Trainingsmenge trainiert Beispiele der Validierungsmenge sind für das Netz unbekannt und können zur Bewertung der Fähigkeit zur Generalisierung verwendet werden Neuronale Netze Michael Baumann 52/62

85 Overfitting Err(w) auf Validierungsmenge auf Trainingsmenge Iterationen Von Overfitting spricht man, wenn ein Lernalgorithmus auf bekannten Beispielen immer besser wird, während er auf unbekannten Beispielen schlechter wird. Netz passt sich dann Ausprägungen an, die nicht repräsentativ für alle möglichen Beispiele sind Neuronale Netze Michael Baumann 53/62

86 Overfitting Möglichkeiten zur Vermeidung nach jeder i-ten Iteration auf Validierungsmenge testen, w mit minimalem Fehler auf Validierungsmenge verwenden, Abbruch, wenn Fehler auf Validierungsmenge deutlich größer bei kleiner Beispielmenge: k-fache Kreuzvalidierung zur Bestimmung der besten Anzahl Iterationen i, dann Training auf allen Beispielen für i Iterationen k-fache Kreuzvalidierung (k-fold cross-validation) Aufteilen der n Trainingsdaten in k Teilmengen der Größe n k k Durchläufe je eine der k Teilmengen ist Validierungsmenge die restlichen k 1 Teilmegen werden vereinigt als Trainingsmenge verwendet Neuronale Netze Michael Baumann 54/62

87 Abbruchkriterien Wahl der Abbruchbedingung ist wichtig zu wenige Iterationen des Lernalgorithmus reduzieren Trainingsfehler nicht ausreichend zu viele Iterationen führen zu auswendig lernen der Trainingsmenge Möglichkeiten für Abbruchkriterien nach bestimmter Anzahl Iterationen Fehler auf Trainingsmenge erfüllt festgelegte Kriterien (z.b. kleiner als Schranke) führt meist zu Overfitting verringert Fähigkeit zur Generalisierung Fehler auf Validierungsmenge erfüllt Kriterien Neuronale Netze Michael Baumann 55/62

88 Netzstrukturen Single-Layer Netzwerk: Eingabe wird direkt an die Ausgabeschicht übergeben. Multi-Layer Netzwerk: Es gibt versteckte Ebenen (hidden layer) zwischen der Eingabe- und der Ausgabeschicht. Rekurrentes Netzwerk: Hat mindestens eine Feedback-Verbindung, bei der ein Neuron die Ausgabe eines Neurons vor sich als Eingabe bekommt. Neuronale Netze Michael Baumann 56/62

89 Festlegung der Größe des Netzes Normalerweise zwei oder drei Schichten Dimension des Merkmalsraum bestimmt Anzahl Input-Neuronen Wahl der Ausgabe bestimmt Anzahl Output-Neuronen Bei Klassifizierung meist ein Output-Neuron pro Klasse! Festlegung der Anzahl Hidden-Neuronen erfolgt meist durch trial and error beginnend mit großen Netzwerk solange Neuronen und Verbindungen entfernen, bis Leistung absinkt beginnend mit kleinem Netzwerk solange Neuronen und Verbindungen hinzufügen, bis Leistung ausreichend Neuronale Netze Michael Baumann 57/62

90 Verschiedene Darstellungen der Ausgabe Meist ein Output-Neuron pro Klasse 1-of-n Encoding Das Output-Neuron, das am stärksten feuert, legt die Klasse fest Differenz zwischen höchsten und zweit-höchstem Output als Konfidenzmaß c(x) für ein Beispiel der Klasse i hat an i-ter Stelle eine 1 im Vektor, an allen anderen eine 0 häufig 0.1 statt 0 und 0.9 statt 1 da Sigmoid Funktion nicht 0 bzw. 1 wird Neuronale Netze Michael Baumann 58/62

91 Geeignete Probleme für neuronale Netze Beispiele werden durch (reell-wertige) Merkmalvektoren beschrieben Ausgabe kann durch diskrete oder kontinuierliche Werte oder durch einen Vektor dargestellt werden Trainingsmenge kann fehlerhafte Beispiele enthalten lange Trainingszeiten sind akzeptabel aber die gelernte Funktion muss schnell auswertbar sein Struktur der gelernten Funktion muss nicht von Menschen verstanden werden (vgl. Entscheidungsbäume) Neuronale Netze Michael Baumann 59/62

92 Leistungsfähigkeit einzelne Perzeptronen können die boolschen Funktionen AND, OR, NAND, NOR repräsentieren jede boolsche Funktion kann durch ein Netzwerk mit maximal zwei Schichten repräsentiert werden, wobei die Anzahl der Hidden-Nodes exponentiell in der Größe der Eingabe sein kann stetige Funktionen können mit beliebig kleinem Fehler durch ein Zwei-Schichten-Netzwerk erkannt werden, wobei die Anzahl der Hidden-Nodes von der Funktion abhängt beliebige Funktionen können mit beliebiger Genauigkeit durch ein Drei-Schichten-Netzwerk approximiert werden; die Anzahl der Hidden-Nodes hängt von der Funktion ab Neuronale Netze Michael Baumann 60/62

93 Links und Tools Applet: ch/13/vlu/daten/neuronalenetze/perzeptron.vlu.html Simulator: JavaNNS/welcome_e.html API: API: FAQ: Neuronale Netze Michael Baumann 61/62

94 Literatur Theodor Lettmann & Benno Stein. Unterlagen zum Thema Neuronale Netze. teaching/lecture-notes.html. Simon Haykin. Neural Networks: A Comprehensive Foundation. (2nd edition) Prentice Hall, Tom Mitchell. Machine Learning. McGraw Hill, David Kriesel. Ein kleiner Überblick über Neuronale Netze. erhältlich unter http: // www. dkriesel. com. Neuronale Netze Michael Baumann 62/62

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c

Mehr

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze Vorlesung Künstliche Intelligenz Wintersemester 2008/09 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06 Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze Vorlesung Künstliche Intelligenz Wintersemester 2006/07 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der

Mehr

Proseminar Neuronale Netze Frühjahr 2004

Proseminar Neuronale Netze Frühjahr 2004 Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze. Was sind künstliche Neuronale Netze?

Teil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze. Was sind künstliche Neuronale Netze? Was sind künstliche Neuronale Netze? Vorlesung Künstliche Intelligenz Wintersemester 2006/07 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Künstliche Neuronale Netze sind massiv parallel

Mehr

Grundlagen zu neuronalen Netzen. Kristina Tesch

Grundlagen zu neuronalen Netzen. Kristina Tesch Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Neuronale Netze Aufgaben 3

Neuronale Netze Aufgaben 3 Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

CV12. Deep Learning für Computer Vision

CV12. Deep Learning für Computer Vision Einführung in Visual Computing CV12, Vs.1.9 Robert Sablatnig, Sebastian Zambanini, TU Wien CV12. Deep Learning für Computer Vision CV-46 Maschinelles Lernen Maschinelles Lernen ist ein Teilgebiet der künstlichen

Mehr

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel

Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel Einige überwachte Lernverfahren Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel Funktionsweise eines künstlichen Neurons x w k Neuron k x 2 w 2k net k f y k x n- w n-,k x n w n,k

Mehr

6.2 Feed-Forward Netze

6.2 Feed-Forward Netze 6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

auch: Konnektionismus; subsymbolische Wissensverarbeitung

auch: Konnektionismus; subsymbolische Wissensverarbeitung 10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache

Mehr

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1 Agenda 1. Einführung & Grundbegriffe - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

7. Vorlesung Neuronale Netze

7. Vorlesung Neuronale Netze Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation

Mehr

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

8. Vorlesung Neuronale Netze

8. Vorlesung Neuronale Netze Soft Control (AT 3, RMA) 8. Vorlesung Neuronale Netze Lernverfahren 8. Vorlesung im Aufbau der Vorlesung 1. inführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

RL und Funktionsapproximation

RL und Funktionsapproximation RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze Agenda Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1. - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene Netzwerktypen 2. 3. 4. Beispiele

Mehr

Eine kleine Einführung in neuronale Netze

Eine kleine Einführung in neuronale Netze Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Grundlagen neuronaler Netzwerke

Grundlagen neuronaler Netzwerke AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Ausarbeitung zum Hauptseminar Machine Learning

Ausarbeitung zum Hauptseminar Machine Learning Ausarbeitung zum Hauptseminar Machine Learning Matthias Seidl 8. Januar 2004 Zusammenfassung single-layer networks, linear separability, least-squares techniques Inhaltsverzeichnis 1 Einführung 2 1.1 Anwendungen

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

Klassifikationsverfahren und Neuronale Netze

Klassifikationsverfahren und Neuronale Netze Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Neuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate...

Neuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate... Neuro-Info Notizen Marus Klemm.net WS 6/7 Inhaltsverzeichnis Hebbsche Lernregel. Fälle........................................ Lernrate..................................... Neural Gas. Algorithmus.....................................

Mehr

Intelligente Algorithmen Einführung in die Technologie

Intelligente Algorithmen Einführung in die Technologie Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Das Perzeptron. Volker Tresp

Das Perzeptron. Volker Tresp Das Perzeptron Volker Tresp 1 Einführung Das Perzeptron war eines der ersten ernstzunehmenden Lernmaschinen Die wichtigsten Elemente Sammlung und Vorverarbeitung der Trainingsdaten Wahl einer Klasse von

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Neuronale Netze. Seminar aus Algorithmik Stefan Craß, Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Probleme des Backpropagation-Algorithmus und Alternativen Seminar

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

MULTILAYER-PERZEPTRON

MULTILAYER-PERZEPTRON Einleitung MULTILAYER-PERZEPTRON Die Ausarbeitung befasst sich mit den Grundlagen von Multilayer-Perzeptronen, gibt ein Beispiel für deren Anwendung und zeigt eine Möglichkeit auf, sie zu trainieren. Dabei

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz

Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung. 1 Vom biologischen zum künstlichen neuronalen Netz Strukturen für neuronale Netze in der Tageslicht-/ Kunstlichtregelung - zur Veröffentlichung bei LuxJunior 2003 - Krzyzanowski, J., Rosemann, A., Kaase, H. Technische Universität Berlin Fachgebiet Lichttechnik,

Mehr

2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren

2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4.1. Einführung neuronale Netze (konnektionistische Modelle): Systeme, die einige der im menschlichen Gehirn bekannten oder vermuteten

Mehr