Künstliche neuronale Netze

Ähnliche Dokumente
Künstliche neuronale Netze

Konzepte der AI Neuronale Netze

Künstliche Neuronale Netze

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Einführung in Neuronale Netze

Künstliche Neuronale Netze

Künstliche neuronale Netze

Neuronale Netze. Anna Wallner. 15. Mai 2007

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

11. Neuronale Netze 1

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Praktische Optimierung

Wissensentdeckung in Datenbanken

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

auch: Konnektionismus; subsymbolische Wissensverarbeitung

Künstliche Intelligenz

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Rekurrente / rückgekoppelte neuronale Netzwerke

Grundlagen neuronaler Netzwerke

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS Neuronale Netze. Von Deasy Sukarya & Tania Bellini

Inhaltsverzeichnis. Einführung

Künstliche Neuronale Netze

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze Aufgaben 3

Lernverfahren von Künstlichen Neuronalen Netzwerken

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Einfaches Framework für Neuronale Netze

Neuronale Netze (Konnektionismus)

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Grundlagen Künstlicher Neuronaler Netze

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Konnektionismus und Kognition

Einführung in Neuronale Netze

MULTILAYER-PERZEPTRON

Einführung in die Computerlinguistik

Neuroinformatik. Übung 1

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Was sind Neuronale Netze?

Einsatz Neuronale Netze

6.2 Feed-Forward Netze

7. Vorlesung Neuronale Netze

Universität Klagenfurt

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Aufbau der Eigenimplementierung

Neuronale Netze mit mehreren Schichten

Hannah Wester Juan Jose Gonzalez

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Grundlagen zu neuronalen Netzen. Kristina Tesch

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.

Klassifikationsverfahren und Neuronale Netze

Aufbau und Beschreibung Neuronaler Netzwerke

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Thema 3: Radiale Basisfunktionen und RBF- Netze

10. Neuronale Netze 1

Proseminar Neuronale Netze Frühjahr 2004

Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck:

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Neuronale Neize. Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke ADDISON-WESLEY PUBLISHING COMPANY

Künstliche Neuronale Netze

Von der Bestimmung zur Vorhersage: Wie sagt man den Netzzustand vorher?

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Facharbeit. Ratsgymnasium Bielefeld Schuljahr 2004/2005. aus dem Fach Biologie. Thema: Künstliche neuronale Netze

Kohonennetze Selbstorganisierende Karten

Finanzmarktprognose mit neuronalen Netzen

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Eine kleine Einführung in neuronale Netze

2.4.4 Die Fraktale Dimension

GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen

Effiziente Näherungsverfahren 2

Künstliche Neuronale Netze

Künstliche neuronale Netze

Einführung in neuronale Netze

Neuronale Netze I. Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München

Computational Intelligence 1 / 31. Computational Intelligence Künstliche Neuronale Netze Geschichte 3 / 31

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel

Transkript:

Künstliche neuronale Netze Sebastian Morr 4. Juni 2008

Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche Intelligenz Netz künstlicher Nervenzellen erzeugt aus Eingabe eine passende Ausgabe

Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche Intelligenz Netz künstlicher Nervenzellen erzeugt aus Eingabe eine passende Ausgabe

Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche Intelligenz Netz künstlicher Nervenzellen erzeugt aus Eingabe eine passende Ausgabe

Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche Intelligenz Netz künstlicher Nervenzellen erzeugt aus Eingabe eine passende Ausgabe

Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche Intelligenz Netz künstlicher Nervenzellen erzeugt aus Eingabe eine passende Ausgabe

Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung

Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung

Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung

Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung

Geschichte Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung

Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!

Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!

Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!

Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!

Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!

Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!

Theorie Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung

Theorie Neuronen Biologisches Neuron Grundeinheit eines Nervensystems Aufnahme und Weitergabe von Erregungen in Sinnesorganen, Rückenmark und Gehirn

Theorie Neuronen Biologisches Neuron Grundeinheit eines Nervensystems Aufnahme und Weitergabe von Erregungen in Sinnesorganen, Rückenmark und Gehirn

Theorie Neuronen Biologisches Neuron Grundeinheit eines Nervensystems Aufnahme und Weitergabe von Erregungen in Sinnesorganen, Rückenmark und Gehirn

Theorie Neuronen Künstliches Neuron Neuron n o 1 o 2... o j Eingabeinformationen o 1, o 2,... Gewichte w 1n, w 2n,... Propagierungsfunktion net n addiert Eingaben Aktivierungsfunktion f act

Theorie Neuronen Künstliches Neuron Neuron n o 1 o 2... o j Eingabeinformationen o 1, o 2,... Gewichte w 1n, w 2n,... Propagierungsfunktion net n addiert Eingaben Aktivierungsfunktion f act

Theorie Neuronen Künstliches Neuron Neuron n o 1 w 1n o 2 w 2n... w jn o j Eingabeinformationen o 1, o 2,... Gewichte w 1n, w 2n,... Propagierungsfunktion net n addiert Eingaben Aktivierungsfunktion f act

Theorie Neuronen Künstliches Neuron Neuron n o 1 w 1n o 2 w 2n net n = j w jn o j... w jn o j Eingabeinformationen o 1, o 2,... Gewichte w 1n, w 2n,... Propagierungsfunktion net n addiert Eingaben Aktivierungsfunktion f act

Theorie Neuronen Künstliches Neuron Neuron n o 1 w 1n o 2 w 2n net n = j w jn o j o n = f act (net n ) o n... w jn o j Eingabeinformationen o 1, o 2,... Gewichte w 1n, w 2n,... Propagierungsfunktion net n addiert Eingaben Aktivierungsfunktion f act

Theorie Neuronen Künstliches Neuron f (x) 1 f (x) = 1 1+e x 0,5 0 x sigmoide Aktivierungsfunktion z.b.: Logistische Funktion oder Tangens Hyperbolicus

Theorie Neuronen Künstliches Neuron f (x) 1 f (x) = 1 1+e x 0,5 0 x sigmoide Aktivierungsfunktion z.b.: Logistische Funktion oder Tangens Hyperbolicus

Theorie Architekturen Allgemeines Verknüpfung der Neuronen zum Netz Eingabe Verarbeitung Ausgabe

Theorie Architekturen Allgemeines Verknüpfung der Neuronen zum Netz Eingabe Verarbeitung Ausgabe

Theorie Architekturen Allgemeines Verknüpfung der Neuronen zum Netz Eingabe Verarbeitung Ausgabe

Theorie Architekturen Allgemeines Verknüpfung der Neuronen zum Netz Eingabe Verarbeitung Ausgabe

Theorie Architekturen Perzeptron Eingabeschicht Ausgabeschicht einfachste Netzarchitektur zwei vollvernetzte Schichten von percept, wahrnehmen

Theorie Architekturen Perzeptron Eingabeschicht Ausgabeschicht einfachste Netzarchitektur zwei vollvernetzte Schichten von percept, wahrnehmen

Theorie Architekturen Perzeptron Eingabeschicht Ausgabeschicht einfachste Netzarchitektur zwei vollvernetzte Schichten von percept, wahrnehmen

Theorie Architekturen Mehrschichtige vorwärts verkettete Netze Eingabeschicht Innere Schicht Ausgabeschicht für komplexere Aufgaben zusätzliche innere Schicht

Theorie Architekturen Mehrschichtige vorwärts verkettete Netze Eingabeschicht Innere Schicht Ausgabeschicht für komplexere Aufgaben zusätzliche innere Schicht

Theorie Architekturen Sonstige Netztypen Rückgekoppelte Netze mit Erinnerungsvermögen Selbstorganisierende Karten lernen eigenständig

Theorie Architekturen Sonstige Netztypen Rückgekoppelte Netze mit Erinnerungsvermögen Selbstorganisierende Karten lernen eigenständig

Theorie Lernverfahren Unterteilung überwachtes Lernen: Vergleich mit Trainingsdaten bestärkendes Lernen: Unterscheidung richtig/falsch unüberwachtes Lernen: eigenständiges Erarbeiten von Regeln

Theorie Lernverfahren Unterteilung überwachtes Lernen: Vergleich mit Trainingsdaten bestärkendes Lernen: Unterscheidung richtig/falsch unüberwachtes Lernen: eigenständiges Erarbeiten von Regeln

Theorie Lernverfahren Unterteilung überwachtes Lernen: Vergleich mit Trainingsdaten bestärkendes Lernen: Unterscheidung richtig/falsch unüberwachtes Lernen: eigenständiges Erarbeiten von Regeln

Theorie Lernverfahren Backpropagation verbreiteter Algorithmus zum überwachten Lernen zwei Durchläufe: Bestimmung der Ausgabe, dann Vergleich und Anpassung Fehlersignal: bzw. δ n = (t n o n ) f act(net n ) δ n = o Anpassung der Gewichte: (δ o w no ) f act(net n ) w mn = δ n o n η

Theorie Lernverfahren Backpropagation verbreiteter Algorithmus zum überwachten Lernen zwei Durchläufe: Bestimmung der Ausgabe, dann Vergleich und Anpassung Fehlersignal: bzw. δ n = (t n o n ) f act(net n ) δ n = o Anpassung der Gewichte: (δ o w no ) f act(net n ) w mn = δ n o n η

Theorie Lernverfahren Backpropagation verbreiteter Algorithmus zum überwachten Lernen zwei Durchläufe: Bestimmung der Ausgabe, dann Vergleich und Anpassung Fehlersignal: bzw. δ n = (t n o n ) f act(net n ) δ n = o Anpassung der Gewichte: (δ o w no ) f act(net n ) w mn = δ n o n η

Theorie Lernverfahren Backpropagation verbreiteter Algorithmus zum überwachten Lernen zwei Durchläufe: Bestimmung der Ausgabe, dann Vergleich und Anpassung Fehlersignal: bzw. δ n = (t n o n ) f act(net n ) δ n = o Anpassung der Gewichte: (δ o w no ) f act(net n ) w mn = δ n o n η

Praxis Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung

Praxis Anwendungsbereiche Mustererkennung und -zuordnung (Schrift, Sprache, Bilder) Sensoren (Geruchssensoren) Vorhersage (Wetter, Aktien, Medizin) Steuerung (Roboter, Autopiloten) Computerspiele (Creatures)

Praxis Anwendungsbereiche Mustererkennung und -zuordnung (Schrift, Sprache, Bilder) Sensoren (Geruchssensoren) Vorhersage (Wetter, Aktien, Medizin) Steuerung (Roboter, Autopiloten) Computerspiele (Creatures)

Praxis Anwendungsbereiche Mustererkennung und -zuordnung (Schrift, Sprache, Bilder) Sensoren (Geruchssensoren) Vorhersage (Wetter, Aktien, Medizin) Steuerung (Roboter, Autopiloten) Computerspiele (Creatures)

Praxis Anwendungsbereiche Mustererkennung und -zuordnung (Schrift, Sprache, Bilder) Sensoren (Geruchssensoren) Vorhersage (Wetter, Aktien, Medizin) Steuerung (Roboter, Autopiloten) Computerspiele (Creatures)

Praxis Anwendungsbereiche Mustererkennung und -zuordnung (Schrift, Sprache, Bilder) Sensoren (Geruchssensoren) Vorhersage (Wetter, Aktien, Medizin) Steuerung (Roboter, Autopiloten) Computerspiele (Creatures)

Praxis Vorteile Lernfähigkeit Generalisierungsfähigkeit Fehlertoleranz Anpassungsfähigkeit Modellfreiheit

Praxis Vorteile Lernfähigkeit Generalisierungsfähigkeit Fehlertoleranz Anpassungsfähigkeit Modellfreiheit

Praxis Vorteile Lernfähigkeit Generalisierungsfähigkeit Fehlertoleranz Anpassungsfähigkeit Modellfreiheit

Praxis Vorteile Lernfähigkeit Generalisierungsfähigkeit Fehlertoleranz Anpassungsfähigkeit Modellfreiheit

Praxis Vorteile Lernfähigkeit Generalisierungsfähigkeit Fehlertoleranz Anpassungsfähigkeit Modellfreiheit

Praxis Nachteile Überanpassung Ineffektivität keine Garantie auf das bestmögliche Ergebnis

Praxis Nachteile Überanpassung Ineffektivität keine Garantie auf das bestmögliche Ergebnis

Praxis Nachteile Überanpassung Ineffektivität keine Garantie auf das bestmögliche Ergebnis

Implementierung Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung

Implementierung Ziel Bibliothek + Beispielanwendung trainierbare virtuelle Agenten Ameisensimulation!

Implementierung Ziel Bibliothek + Beispielanwendung trainierbare virtuelle Agenten Ameisensimulation!

Implementierung Ziel Bibliothek + Beispielanwendung trainierbare virtuelle Agenten Ameisensimulation!

Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]

Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]

Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]

Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]

Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]

Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]

Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]

Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]

Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]

Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor

Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor

Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor

Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor

Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor

Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor

Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!

Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!

Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!

Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!

Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!

Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!

Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!

Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?

Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?

Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?

Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?

Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?

Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?

Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?

Fazit Diskussion Fragt mich aus!

Fazit Ende! Danke für eure Aufmerksamkeit! Diese Präsentation ist frei verfügbar unter der Lizenz CC-by-nc-sa-2.0