6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

Größe: px
Ab Seite anzeigen:

Download "6.4 Neuronale Netze zur Verarbeitung von Zeitreihen"

Transkript

1 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1 MLPs: x(t) z 1 x(t) x(t 1) z 1 x(t 2) x(t+1) z 1 x(t m) MLP Schwenker NI1 114

2 Training und Prognose von ˆx = f(x(t 1),..., x(t m)): x(t) z 1 z 1 x(t 1) x(t 2) x(t) Σ + x(t) z 1 z 1 Schalter x(t 1) x(t 2) x(t) z 1 x(t m) NN z 1 x(t m) trainiertes NN Probleme: m ist fester Architekturparameter, zwei gleiche Teilfolgen bewirken unabhängig vom Kontext immer die gleiche Ausgabe Schwenker NI1 115

3 Architekturen partiell rekurrenter Netze Jordan Netzwerk [Jordan 1986]: y(t) x(t) s(t) Schwenker NI1 116

4 Elman Netzwerk [Elman 1990]: y(t) c ij s(t+1) x(t) w ki v ki s(t) Vorteile des Elman-Netzwerks: interne Repräsentation einer Sequenz ist unabhängig von der Ausgabe y, Zahl der Kontextzellen ist unabhängig von der Ausgabedimension! Schwenker NI1 117

5 Training eines partiell rekurrenten Netzes Möglichkeit A: Modifikation eines Lernverfahrens für nichtrekurrente Netze (z.b. Error Backpropagation, RPROP, Quickprop) Algorithmus (für Elman-Netzwerk): Seien w ki und v ki die Gewichte von Eingabeknoten u k bzw. Kontextknoten s k zum verdeckten Neuron i und c ij die Gewichte der zweiten Netzwerkschicht 1) Setze t = t 0, initialisiere Kontextzellen s(t 0 ) = 0 2) Berechne w ki (t), v ki (t) und c ij (t) gemäß Lernregel für eine Eingabe x(t) mit Sollwert T(t) ohne Beachtung rekurrenter Verbindungen 3) Setze t = t + 1, aktualisiere die Ausgabe s(t) der Kontextzellen und gehe zu 2) Eigenschaften: Fehler von y(t) = f(x(t)) wird minimiert, keine Klassifikation von Sequenzen möglich. Schwenker NI1 118

6 Möglichkeit B: Verwendung eines Lernverfahrens für rekurrente Netze (z.b. BPTT [Rumelhart 86], RTRL [Willliams 89]) Idee von BPTT ( Backpropagation Through Time ): Entfaltung des Netzwerks in der Zeit! Gradientenabstieg zur Minimierung von E = t max t=t 0 E(t) mit E(t) = { T(t) y(t) falls T(t) zum Zeitpunkt t vorliegt 0 sonst Eigenschaften: Fehler von y(t max ) = f(x(t 0 ),..., x(t max )) wird minimiert, auch Klassifikation von Sequenzen variabler Länge möglich! Schwenker NI1 119

7 BPTT Algorithmus für Elman Netzwerk Gegeben sei ein (m + h) h n Elman Netzwerk mit: w ki : Gewichte von Eingabeknoten u k zum verdeckten Neuron i v ki : Gewichte von Kontextknoten s k zum verdeckten Neuron i c ij : Gewichte vom verdeckten Neuron i zum Ausgabeneuron j : Fehler am Ausgabeneuron j δ (y) j δ (s) i : Fehler am verdeckten Neuron i Lineare Ausgabeneuronen j = 1,..., n : Annahme: für t = t max gilt: für t < t max gilt: E(t) = 0 für t t max δ (y) j (t) = T j (t) y j (t) c ij = s i (t + 1) δ (y) j (t) δ (y) j (t) = 0 c ij = 0 Schwenker NI1 120

8 Sigmoide verdeckte Neuronen i = 1,..., h : n für t = t max δ (s) i (t) = c ij δ (y) j (t) s i(t + 1) für t 0 t < t max j=1 v ki (t) = s k (t) δ (s) i (t) w ki (t) = x k (t) δ (s) i (t) δ (s) i (t) = h k=1 v ki (t) = s k (t) δ (s) i (t) w ki (t) = x k (t) δ (s) i (t) v ki δ (s) k (t + 1) s i(t + 1) Resultierende Lernregeln: t max t max c ij = c ij + η 1 c ij, w ki = w ki + η 2 w ki (t), v ki = v ki + η 2 v ki (t) t=t 0 t=t 0 Schwenker NI1 121

9 6.5 Radiale Basisfunktionen Motivation: Es wird eine Lösung für das folgende Interpolationsproblem gesucht: Gegeben sei eine Menge M = {(x µ, T µ ) : µ = 1,..., p} mit x µ R m und T µ R n. Gibt es eine Funktion g : R m R n mit g(x µ ) = T µ µ = 1,..., p? Idee: Annäherung von g durch eine Linearkombination von p Funktionen h ν (x) = h( x ν x ) mit (beliebig oft differenzierbarer) radialsymmetrischer Funktion h : R + R + Das Interpolationsproblem hat (hier für n = 1) die Form p p g(x µ ) = w ν h ν (x µ ) = w ν h( x ν x µ ) µ = 1,..., p ν=1 ν=1 Schwenker NI1 122

10 w ν können analytisch bestimmen werden: p g(x µ ) = w ν h( x ν x µ ) = T µ, µ = 1,..., p. ν=1 In Matrixnotation gilt: Hw = T mit H := (H µν ) und H µν := h µ (x ν ) Falls H invertierbar ist, so gilt: w = H 1 T, mit den Vektoren w = (w 1,... w p ) t und T = (T 1,..., t p ) t. einige radialsymmetrische Basisfunktionen (mit r = x x µ ): Gauss-Funktion: h(r) = exp( r2 2σ2) mit σ 0 Inverse multiquadratische Funktionen: 1 h(r) = mit c 0 und α > 0 (r 2 + c 2 ) α Multiquadratische Funktionen: h(r) = (r 2 + c 2 ) β mit c 0 und 0 < β 1 Schwenker NI1 123

11 Radiales Basisfunktionen-Netzwerk (RBF) Aufbau eines m-h-n RBF-Netzwerks: m Eingabeknoten h RBF-Neuronen n lineare Neuronen C x c ki Berechnung der Netzausgabe z: m u i = (x k c ki ) 2 = x c i k=1 u y W w ij y i = h(u i ) h z j = y i w ij [ + bias j ] z i=1 Schwenker NI1 124

12 Herleitung der Lernregel für RBF-Netzwerk Es soll eine auf Gradientenabstieg basierende Lernregel für das RBF- Netzwerk hergeleitet werden. Für die Gewichte w ij der Ausgabeschicht gilt: E µ w ij = = w ij T z 2 (T j z j ) 2 w ij = 2(T j z j ) j = 2 y i δ j w ij ĩ yĩwĩj wobei δ j = (T j z j ) den Fehler von Neuron j der Ausgabeschicht für ein Muster bezeichnet Schwenker NI1 125

13 resultierende Lernregeln für Gewichte w ij der Ausgabeschicht: im Online-Modus: w ij = w ij η 1 E µ w ij = w ij + η 1 y i δ j [bias j = bias j η 1 E µ w ij = bias j + η 1 δ j ] im Batch-Modus: w ij = w ij η 1 [bias j = bias j η 1 E = w ij + η 1 w ij µ y µ i δµ j E = bias j + η 1 w ij µ δ µ j ] Schwenker NI1 126

14 Für Gewichte c ki der Eingabeschicht gilt: E µ c ki = E µ y i = 2 j = 2 j = 2 j y i c ki (T j z j ) y i (T j z j ) w ij h (u i ) ĩ yĩ wĩj c ki h(u i ) c ki (x k c ki ) 2 (T j z j ) w ij h (u i ) 1 2u i ( 2) (x k c ki ) k = 2 j δ j w ij h (u i ) 1 u i (x k c ki ) Speziell für h(u) = e u2 /2σ 2 = e u2s ergibt sich: E µ c ki = 2 j = 4 j (T j z j ) w ij e u2 i s 2s(x k c ki ) δ j w ij y i s (x k c ki ) Schwenker NI1 127

15 resultierende Lernregeln für Gewichte c ki der Eingabeschicht bei Verwendung der radialen Basisfunktion h(u) = e u2 /2σ 2 = e u2s : im Online-Modus: c ki = c ki η 2 E µ c ki = c ki + η 2 (x k c ki ) y i s j δ j w ij im Batch-Modus: E c ki = c ki η 2 = c ki + η 2 (x µ k c c ki) y µ i s ki µ j δ µ j w ij Schwenker NI1 128

16 Lernalgorithmus (online) für RBF-Netzwerk Gegeben: m-h-n RBF-Netzwerk verwendete radiale Basisfunktion: y = h(u) = e u2 /2σ 2 := e u2 s Menge von p gelabelten Mustern (x µ, T µ ) R m R n Schritt 1: Initialisierung Setze w ij für i = 1,..., h, j = 1,..., n auf kleine Zufallswerte und wähle c ki für k = 1,..., m, i = 1,..., h derart, dass die Daten im Eingaberaum überdecken Schritt 2: Berechnung der Netzausgabe z Wähle nächstes gelabeltes Musterpaar (x, T) und berechne: u 2 i = m (x k c ki ) 2 für i = 1,..., h k=1 Schwenker NI1 129

17 y i = e u2 i /2σ2 = e u2 i s für i = 1,..., h h z j = y i w ij für j = 1,..., n i=1 Schritt 3: Bestimmung des Fehlers am Netzausgang Berechne δ j = (T j z j ) für j = 1,..., n Schritt 4: Lernen Adaptiere Gewichte: w ij = w ij + η 1 y i δ j c ki = c ki + η 2 (x k c ki ) y i s für k = 1,..., m, i = 1,..., h, j = 1,..., n n δ j w ij j=1 Schritt 5: Ende Falls Endekriterium nicht erfüllt, gehe zurück zu 2 Schwenker NI1 130

18 Bemerkungen zum RBF-Netzwerk Anzahl der RBF-Neuronen ist kleiner als Anzahl Trainingsmuster Vektor c i wird auch als Prototyp bzw. Zentrum bezeichnet Initialisierung der Gewichte c ki z.b. durch äquidistante Verteilung in einem Intervall [min,max] m durch Clusteranalyse (vgl. Kapitel 8) Verhalten des RBF-Netzwerks stark abhängig von der Wahl eines guten Wertes für σ bzw. s z.b.: σ [d min, 2 d min ] (mit d min = kleinster Abstand zwischen zwei Zentren) Parameter σ i bzw. s i kann auch für jedes RBF-Neuron i individuell gewählt und adaptiert werden ( Übung) Adaption von c ki, w ij und σ i bzw. s i ist simultan oder sequentiell möglich! Schwenker NI1 131

19 Approximation einer verrauschten Funktion mit RBF-Netz: (mit 5 RBF-Neuronen bei σ = 10, mit σ = 0.4, σ = 0.08) Schwenker NI1 132

20 Unterschiede MLP und RBF bei Klassifikation: MLP: Trennung durch Hyperebenen RBF: Hyperkugeln umfassen Punkte einer Klasse bei MLP ist Repräsentation in verdeckter Schicht verteilt, bei RBF lokal Initialisierung der Gewichte bei MLP zufällig, bei RBF datenabhängig MLP und RBF können Funktionen beliebig genau approximieren i.a. schnellere Konvergenz mit RBF bei guter Initialisierung Schwenker NI1 133

21 6.6 Konstruktive Lernverfahren Problem: In allen bisherigen neuronalen Netzmodellen wird die Architektur vor Start des Lernverfahrens festgelegt während des Trainings ist keine Anpassung der Architektur an das zu lernende Problem möglich. Idee: Man startet mit einem kleinen neuronalen Netzwerk und fügt während des Trainings bei Bedarf noch weitere Neuronen oder Neuronenschichten hinzu. Beispiele: 1. Upstart Algorithmus (konstruiert Binärbaum aus Perzeptronen) 2. Cascade Correlation (konstruiert pyramidenartige Architektur aus sigmoiden Neuronen) Schwenker NI1 134

22 Upstart Algorithmus [Frean 1990] rekursiver Algorithmus zum Erlernen beliebiger binärer Abbildungen mit Schwellwertneuronen: upstart(t 0, T 1 ) { trainiere ein Perzeptron Z mit T 0 T 1 wenn mind. 1 Muster aus T 0 falsch klassifiziert wird: bilde T0 T 0 generiere neues Perzeptron X trainiere X mit upstart(t 1, T0 ) wenn mind. 1 Muster aus T 1 falsch klassifiziert wird: bilde T1 T 1 generiere neues Perzeptron Y trainiere Y mit upstart(t 0, T1 ) berechne MAX= max µ i w iu (µ) i von Z verbinde X mit Z durch w < MAX und Y mit Z durch w > MAX } mit: T 0, T 1 Trainingsmenge für Ausgabe 0 bzw. 1 T0 1 Menge falsch klassifizierter Muster aus T 0 bzw. T 1 Schwenker NI1 135

23 Cascade Correlation Motivation : bei großem Fehler am Ausgang für ein Muster A werden alle Gewichte adaptiert aufgrund fehlender Absprache zwischen den Neuronen der verdeckten Schicht kann Fehler für ein Muster B wachsen ( moving target problem ) Idee : Gewichte v ij eines jedes verdeckten Neurons j werden separat trainiert, indem die Korrelation zwischen der Ausgabe des Neurons und dem Fehler maximiert wird anschließend werden die Gewichte v ij von Neuron j eingefroren Hinzufügen weiterer verdeckter Neuronen (als Kandidatenzellen bezeichnet), bis Fehler am Ausgang ausreichend klein ist automatische Bestimmung einer guten Topologie! Schwenker NI1 136

24 Cascade Correlation Architektur [Fahlman 90]: n sigmoide oder lineare Neuronen (enthalten θ ) k z sigmoide Neuronen (Kandidatenzellen, enthalten θ j ) j y j m Eingabe knoten 1 2 V W x Ziel: Maximierung der Korrelation S j = k p (y pj y j )(δ pk δ k ) mit y pj Ausgabe der Kandidatenzelle j für Muster p y j mittlere Ausgabe der Kandidatenzelle j δ pk Fehler der Ausgangszelle k für Muster p mittlerer Fehler der Ausgangszelle k δ k Schwenker NI1 137

25 Für Eingangsgewichte v ij der j-ten Kandidatenzelle gilt: S j v ij = k = k = k = k = k (y pj y j )(δ pk δ k ) v ij p σ k (y pj y j )(δ pk δ k ) v p ij σ k y pj (δ pk δ k ) v p ij σ k f( I pi v ij )(δ pk δ k ) v p ij i σ k f (x pj )I pi (δ pk δ k ) p mit σ k = sgn( p (y pj y j )(δ pk δ k )) I pi = { upi für externen Eingang i für Kandidatenzelle i < j y pi Schwenker NI1 138

26 Lernalgorithmus für Cascade Correlation Schritt 1: Trainiere die Gewichte w ik und θ k der Ausgangsknoten mit einem geeigneten Algorithmus: - Perzeptron-Lernalgorithmus oder - Delta-Lernregel: w ik = u i (T k y k )f (x k ) - Quickprop-Verfahren bis Fehler E am Netzausgang nicht weiter sinkt Schritt 2: - Stop, wenn Fehler E ausreichend klein - Ansonsten generiere eine neue Kandidatenzelle j und initialisiere v ij zufällig Schwenker NI1 139

27 Schritt 3: Bestimme Gewichte v ij und θ j der Kandidatenzelle j derart, daß Korrelation S j maximiert wird. Adaptiere hierzu v ij und θ j durch Gradientenaufstieg gemäß v ij = v ij + η σ k f (x pj )I pi (δ pk δ k ) k p θ j = θ j + η σ k f (x pj )(δ pk δ k ) k p bis Korrelation S j nicht weiter steigt Schritt 4: Friere alle Gewichte v ij und θ j der Kandidatenzelle j ein Schritt 5: Gehe nach (1) Schwenker NI1 140

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

1. Computer und neuronale Netze

1. Computer und neuronale Netze 1. Computer und neuronale Netze 1. Was ist die Neuroinformatik? 2. Aufgaben für neuronale Systeme 3. Computer vs. neuronale Netze NI1 1 Neuroinformatik ist die Wissenschaft, die sich mit der Informationsverarbeitung

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Klassifikationsverfahren und Neuronale Netze

Klassifikationsverfahren und Neuronale Netze Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Neuronale Netze. Volker Tresp

Neuronale Netze. Volker Tresp Neuronale Netze Volker Tresp 1 Einführung Der Entwurf eines guten Klassifikators/Regressionsmodells hängt entscheidend von geeigneten Basisfunktion en ab Manchmal sind geeignete Basisfunktionen (Merkmalsextraktoren)

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Grundlagen neuronaler Netzwerke

Grundlagen neuronaler Netzwerke AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)

Mehr

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind

Mehr

11. Neuronale Netze 1

11. Neuronale Netze 1 11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Theorie neuronaler Netze

Theorie neuronaler Netze Theorie neuronaler Netze Friedhelm Schwenker October 16, 2012 Organisation Vorlesung (3h) mit Übung (1h) Mi 12-14 H21 und Fr 10-12 Uhr 123 MatLab: 19.10.2012 1. Übung: 9.11.2012 Schein: 50% der Punkte

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Hierarchische neuronale Netze zur Klassifikation von 3D-Objekten

Hierarchische neuronale Netze zur Klassifikation von 3D-Objekten Hierarchische neuronale Netze zur Klassifikation von D-Objekten Masterarbeit an der Universität Ulm Fakultät für Informatik vorgelegt von: Rebecca Fay. Gutachter: Prof. Dr. Günther Palm. Gutachter: Dr.

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Einführung in die Neuroinformatik (vormals Neuroinformatik I) WiSe 10/11

Einführung in die Neuroinformatik (vormals Neuroinformatik I) WiSe 10/11 Einführung in die Neuroinformatik (vormals Neuroinformatik I) WiSe 10/11 Günther Palm und Friedhelm Schwenker Institut für Neuroinformatik Universität Ulm Organisation im WS 10/11 Vorlesung: Mi 12-14 Uhr

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Künstliche Intelligenz. Neuronale Netze

Künstliche Intelligenz. Neuronale Netze Künstliche Intelligenz Neuronale Netze Richard Schorpp Version. -- 3.8.7 INHALTVERZEICHNIS Inhaltverzeichnis...2. Versionsverwaltung...2 2 Das Neuron... 3 2. Naturbeobachtung...3 2.2 Nachbildung der Natur...4

Mehr

Spline-Interpolation

Spline-Interpolation Spline-Interpolation Tim Schmölzer 20 November 2009 Tim Schmölzer Spline-Interpolation 20 November 2009 1 / 38 Übersicht 1 Vorbemerkungen 2 Lösbarkeit des Interpolationsproblems 3 Stabilität der Interpolation

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Rekurrente Neuronale Netze. Rudolf Kruse Neuronale Netze 227

Rekurrente Neuronale Netze. Rudolf Kruse Neuronale Netze 227 Rekurrente Neuronale Netze Rudolf Kruse Neuronale Netze 227 Rekurrente Netze: Abkühlungsgesetz Ein Körper der Temperaturϑ wird in eine Umgebung der Temperaturϑ A eingebracht. Die Abkühlung/Aufheizung des

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung

Mehr

Neuronale Netze. Volker Tresp

Neuronale Netze. Volker Tresp Neuronale Netze Volker Tresp 1 Einführung Der Entwurf eines guten Klassifikators/Regressionsmodells hängt entscheidend von geeigneten Basisfunktion en ab Manchmal sind geeignete Basisfunktionen (Merkmalsextraktoren)

Mehr

RL und Funktionsapproximation

RL und Funktionsapproximation RL und Funktionsapproximation Bisher sind haben wir die Funktionen V oder Q als Tabellen gespeichert. Im Allgemeinen sind die Zustandsräume und die Zahl der möglichen Aktionen sehr groß. Deshalb besteht

Mehr

Lineare Klassifikatoren. Volker Tresp

Lineare Klassifikatoren. Volker Tresp Lineare Klassifikatoren Volker Tresp 1 Klassifikatoren Klassifikation ist die zentrale Aufgabe in der Mustererkennung Sensoren liefern mir Informationen über ein Objekt Zu welcher Klasse gehört das Objekt:

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

1. XOR: Mit folgender Architektur geht es. x 1. x n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen ...

1. XOR: Mit folgender Architektur geht es. x 1. x n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen ... 1. XOR: Mit folgender Architektur geht es x 1 x 2 2. n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen x 1 x 2... x 2 Loading-Problem: Für eine endliche Liste binärer Trainingspaare (x(1),d(1)),l,(x(k)d(k))

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Basisfunktionen. und Neuronale Netze. Volker Tresp

Basisfunktionen. und Neuronale Netze. Volker Tresp Basisfunktionen und Neuronale Netze Volker Tresp 1 I am an AI optimist. We ve got a lot of work in machine learning, which is sort of the polite term for AI nowadays because it got so broad that it s not

Mehr

Aufgabe 1 Probabilistische Inferenz

Aufgabe 1 Probabilistische Inferenz Seite 1 von 8 Aufgabe 1 Probabilistische Inferenz (28 Punkte) Die BVG will besser auf Ausfälle im S-Bahn-Verkehr eingestellt sein. Sie geht dabei von folgenden Annahmen aus: An 20% der Tage ist es besonders

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales

Mehr

Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck:

Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck: Diplomprüfung Informatik Kurs 1830 Neuronale Netze Prüfer: Prof. Dr. Helbig Beisitzer: Prodekan Prof. Dr. Hackstein Datum: 01.10.08 Note: 2,7 Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt,

Mehr

Backpropagation. feedforward Netze

Backpropagation. feedforward Netze Backpropagation Netze ohne Rückkopplung, überwachtes Lernen, Gradientenabstieg, Delta-Regel Datenstrom (Propagation) Input Layer hidden Layer hidden Layer Output Layer Daten Input Fehler Berechnung Fehlerstrom

Mehr

Support Vector Machines (SVM)

Support Vector Machines (SVM) Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:

Mehr

weitere Modelle und Methoden

weitere Modelle und Methoden weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion

Mehr

10. Neuronale Netze 1

10. Neuronale Netze 1 10. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Teil VIII. Künstliche Neuronale Netze MUSTERERKENNUNG. Das menschliche Zentralnervensystem Die nassen Neuronen der anthropomorphen Blaupause

Teil VIII. Künstliche Neuronale Netze MUSTERERKENNUNG. Das menschliche Zentralnervensystem Die nassen Neuronen der anthropomorphen Blaupause MUSTERERKENNUNG Vorlesung im Sommersemester 207 Teil VIII Künstliche Neuronale Netze Prof. E.G. Schukat-Talamazzini Stand: 7. März 207 Modellneuronen und ihre Verschaltung Das menschliche Zentralnervensystem

Mehr

Spline-Räume - B-Spline-Basen

Spline-Räume - B-Spline-Basen Spline-Räume - B-Spline-Basen René Janssens 4. November 2009 René Janssens () Spline-Räume - B-Spline-Basen 4. November 2009 1 / 56 Übersicht 1 Erster Abschnitt: Räume von Splinefunktionen Grundlegende

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008

Mehr

Klassifizierungsverfahren und neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik

Klassifizierungsverfahren und neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Hauptseminar WS 2011/2012 Klassifizierungsverfahren und neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck t.keck@online.de Karlsruher Institut für Technologie, 09.12.2011

Mehr

Methoden der Statistik Markov Chain Monte Carlo Methoden

Methoden der Statistik Markov Chain Monte Carlo Methoden Methoden der Statistik Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 08.02.2013 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Adaptive Behavior from Fixed Weight Networks

Adaptive Behavior from Fixed Weight Networks Adaptive Behavior from Fixed Weight Networks Jonas Zilles, 11. Juni 007 Betreuer: Dr. Mohamed Oubbati 1 Inhaltsverzichnis 1. Abstrakt Seite 3. Einführung Seite 3 3. Problem. Seite 5 3.1. Training. Seite

Mehr

2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren

2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4.1. Einführung neuronale Netze (konnektionistische Modelle): Systeme, die einige der im menschlichen Gehirn bekannten oder vermuteten

Mehr

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.

Mehr

6. Polynom-Interpolation

6. Polynom-Interpolation 6. Polynom-Interpolation 1 6.1. Klassische Polynom-Interpolation 2 6.2. Lösung mit Hilfe Lagrange scher Basisfunktionen 3 6.3. Lösung mit Hilfe Newton scher Basisfunktionen 4 6.4. Fehlerabschätzung für

Mehr

Universität Hamburg. Grundlagen und Funktionsweise von Künstlichen Neuronalen Netzen. Fachbereich Wirtschaftswissenschaften

Universität Hamburg. Grundlagen und Funktionsweise von Künstlichen Neuronalen Netzen. Fachbereich Wirtschaftswissenschaften Universität Hamburg Fachbereich Wirtschaftswissenschaften Institut für Wirtschaftsinformatik Hausarbeit zum Thema 0 Grundlagen und Funktionsweise von Künstlichen Neuronalen Netzen Prof. Dr. D. B. Preßmar

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Exkurs Modelle und Algorithmen

Exkurs Modelle und Algorithmen Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Von schwachen zu starken Lernern

Von schwachen zu starken Lernern Von schwachen zu starken Lernern Wir nehmen an, dass ein schwacher Lernalgorithmus L mit vielen Beispielen, aber großem Fehler ε = 1 2 θ gegeben ist. - Wie lässt sich der Verallgemeinerungsfehler ε von

Mehr

Neuronale Netze Aufgaben 3

Neuronale Netze Aufgaben 3 Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07

Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Universität Regensburg Naturwissenschaftliche Informatik Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Cluster-Algorithmen II: Neural Gas Vortragender: Matthias Klein Gliederung Motivation:

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

70 Wichtige kontinuierliche Verteilungen

70 Wichtige kontinuierliche Verteilungen 70 Wichtige kontinuierliche Verteilungen 70. Motivation Zufallsvariablen sind nicht immer diskret, sie können oft auch jede beliebige reelle Zahl in einem Intervall [c, d] einnehmen. Beispiele für solche

Mehr

Hopfield-Netze. Rudolf Kruse Neuronale Netze 192

Hopfield-Netze. Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Ein Hopfield-Netz ist ein neuronales Netz mit einem Graphen G = (U, C), das die folgenden Bedingungen erfüllt: (i)u hidden =,U in =U out =U,

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Stochastik Praktikum Markov Chain Monte Carlo Methoden Stochastik Praktikum Markov Chain Monte Carlo Methoden Humboldt-Universität zu Berlin 14.10.2010 Problemstellung Wie kann eine Zufallsstichprobe am Computer simuliert werden, deren Verteilung aus einem

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Vektorräume und lineare Abbildungen

Vektorräume und lineare Abbildungen Kapitel 11. Vektorräume und lineare Abbildungen 1 11.1 Vektorräume Sei K ein Körper. Definition. Ein Vektorraum über K (K-Vektorraum) ist eine Menge V zusammen mit einer binären Operation + einem ausgezeichneten

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr