Künstliche neuronale Netze
|
|
|
- Hennie Salzmann
- vor 9 Jahren
- Abrufe
Transkript
1 Künstliche neuronale Netze Sebastian Morr 4. Juni 2008
2 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche Intelligenz Netz künstlicher Nervenzellen erzeugt aus Eingabe eine passende Ausgabe
3 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche Intelligenz Netz künstlicher Nervenzellen erzeugt aus Eingabe eine passende Ausgabe
4 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche Intelligenz Netz künstlicher Nervenzellen erzeugt aus Eingabe eine passende Ausgabe
5 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche Intelligenz Netz künstlicher Nervenzellen erzeugt aus Eingabe eine passende Ausgabe
6 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche Intelligenz Netz künstlicher Nervenzellen erzeugt aus Eingabe eine passende Ausgabe
7 Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung
8 Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung
9 Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung
10 Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung
11 Geschichte Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung
12 Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!
13 Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!
14 Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!
15 Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!
16 Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!
17 Geschichte Geschichte erste Idee 1943: Warren McCulloch McCulloch-Pitts-Neuron Frank Rosenblatt: Perzeptron zur Buchstabenerkennung John Hopfield: Hopfield-Netz Paul Werbos: Lernverfahren Backpropagation Inzwischen unüberschaubar. Computereinsatz!
18 Theorie Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung
19 Theorie Neuronen Biologisches Neuron Grundeinheit eines Nervensystems Aufnahme und Weitergabe von Erregungen in Sinnesorganen, Rückenmark und Gehirn
20 Theorie Neuronen Biologisches Neuron Grundeinheit eines Nervensystems Aufnahme und Weitergabe von Erregungen in Sinnesorganen, Rückenmark und Gehirn
21 Theorie Neuronen Biologisches Neuron Grundeinheit eines Nervensystems Aufnahme und Weitergabe von Erregungen in Sinnesorganen, Rückenmark und Gehirn
22 Theorie Neuronen Künstliches Neuron Neuron n o 1 o 2... o j Eingabeinformationen o 1, o 2,... Gewichte w 1n, w 2n,... Propagierungsfunktion net n addiert Eingaben Aktivierungsfunktion f act
23 Theorie Neuronen Künstliches Neuron Neuron n o 1 o 2... o j Eingabeinformationen o 1, o 2,... Gewichte w 1n, w 2n,... Propagierungsfunktion net n addiert Eingaben Aktivierungsfunktion f act
24 Theorie Neuronen Künstliches Neuron Neuron n o 1 w 1n o 2 w 2n... w jn o j Eingabeinformationen o 1, o 2,... Gewichte w 1n, w 2n,... Propagierungsfunktion net n addiert Eingaben Aktivierungsfunktion f act
25 Theorie Neuronen Künstliches Neuron Neuron n o 1 w 1n o 2 w 2n net n = j w jn o j... w jn o j Eingabeinformationen o 1, o 2,... Gewichte w 1n, w 2n,... Propagierungsfunktion net n addiert Eingaben Aktivierungsfunktion f act
26 Theorie Neuronen Künstliches Neuron Neuron n o 1 w 1n o 2 w 2n net n = j w jn o j o n = f act (net n ) o n... w jn o j Eingabeinformationen o 1, o 2,... Gewichte w 1n, w 2n,... Propagierungsfunktion net n addiert Eingaben Aktivierungsfunktion f act
27 Theorie Neuronen Künstliches Neuron f (x) 1 f (x) = 1 1+e x 0,5 0 x sigmoide Aktivierungsfunktion z.b.: Logistische Funktion oder Tangens Hyperbolicus
28 Theorie Neuronen Künstliches Neuron f (x) 1 f (x) = 1 1+e x 0,5 0 x sigmoide Aktivierungsfunktion z.b.: Logistische Funktion oder Tangens Hyperbolicus
29 Theorie Architekturen Allgemeines Verknüpfung der Neuronen zum Netz Eingabe Verarbeitung Ausgabe
30 Theorie Architekturen Allgemeines Verknüpfung der Neuronen zum Netz Eingabe Verarbeitung Ausgabe
31 Theorie Architekturen Allgemeines Verknüpfung der Neuronen zum Netz Eingabe Verarbeitung Ausgabe
32 Theorie Architekturen Allgemeines Verknüpfung der Neuronen zum Netz Eingabe Verarbeitung Ausgabe
33 Theorie Architekturen Perzeptron Eingabeschicht Ausgabeschicht einfachste Netzarchitektur zwei vollvernetzte Schichten von percept, wahrnehmen
34 Theorie Architekturen Perzeptron Eingabeschicht Ausgabeschicht einfachste Netzarchitektur zwei vollvernetzte Schichten von percept, wahrnehmen
35 Theorie Architekturen Perzeptron Eingabeschicht Ausgabeschicht einfachste Netzarchitektur zwei vollvernetzte Schichten von percept, wahrnehmen
36 Theorie Architekturen Mehrschichtige vorwärts verkettete Netze Eingabeschicht Innere Schicht Ausgabeschicht für komplexere Aufgaben zusätzliche innere Schicht
37 Theorie Architekturen Mehrschichtige vorwärts verkettete Netze Eingabeschicht Innere Schicht Ausgabeschicht für komplexere Aufgaben zusätzliche innere Schicht
38 Theorie Architekturen Sonstige Netztypen Rückgekoppelte Netze mit Erinnerungsvermögen Selbstorganisierende Karten lernen eigenständig
39 Theorie Architekturen Sonstige Netztypen Rückgekoppelte Netze mit Erinnerungsvermögen Selbstorganisierende Karten lernen eigenständig
40 Theorie Lernverfahren Unterteilung überwachtes Lernen: Vergleich mit Trainingsdaten bestärkendes Lernen: Unterscheidung richtig/falsch unüberwachtes Lernen: eigenständiges Erarbeiten von Regeln
41 Theorie Lernverfahren Unterteilung überwachtes Lernen: Vergleich mit Trainingsdaten bestärkendes Lernen: Unterscheidung richtig/falsch unüberwachtes Lernen: eigenständiges Erarbeiten von Regeln
42 Theorie Lernverfahren Unterteilung überwachtes Lernen: Vergleich mit Trainingsdaten bestärkendes Lernen: Unterscheidung richtig/falsch unüberwachtes Lernen: eigenständiges Erarbeiten von Regeln
43 Theorie Lernverfahren Backpropagation verbreiteter Algorithmus zum überwachten Lernen zwei Durchläufe: Bestimmung der Ausgabe, dann Vergleich und Anpassung Fehlersignal: bzw. δ n = (t n o n ) f act(net n ) δ n = o Anpassung der Gewichte: (δ o w no ) f act(net n ) w mn = δ n o n η
44 Theorie Lernverfahren Backpropagation verbreiteter Algorithmus zum überwachten Lernen zwei Durchläufe: Bestimmung der Ausgabe, dann Vergleich und Anpassung Fehlersignal: bzw. δ n = (t n o n ) f act(net n ) δ n = o Anpassung der Gewichte: (δ o w no ) f act(net n ) w mn = δ n o n η
45 Theorie Lernverfahren Backpropagation verbreiteter Algorithmus zum überwachten Lernen zwei Durchläufe: Bestimmung der Ausgabe, dann Vergleich und Anpassung Fehlersignal: bzw. δ n = (t n o n ) f act(net n ) δ n = o Anpassung der Gewichte: (δ o w no ) f act(net n ) w mn = δ n o n η
46 Theorie Lernverfahren Backpropagation verbreiteter Algorithmus zum überwachten Lernen zwei Durchläufe: Bestimmung der Ausgabe, dann Vergleich und Anpassung Fehlersignal: bzw. δ n = (t n o n ) f act(net n ) δ n = o Anpassung der Gewichte: (δ o w no ) f act(net n ) w mn = δ n o n η
47 Praxis Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung
48 Praxis Anwendungsbereiche Mustererkennung und -zuordnung (Schrift, Sprache, Bilder) Sensoren (Geruchssensoren) Vorhersage (Wetter, Aktien, Medizin) Steuerung (Roboter, Autopiloten) Computerspiele (Creatures)
49 Praxis Anwendungsbereiche Mustererkennung und -zuordnung (Schrift, Sprache, Bilder) Sensoren (Geruchssensoren) Vorhersage (Wetter, Aktien, Medizin) Steuerung (Roboter, Autopiloten) Computerspiele (Creatures)
50 Praxis Anwendungsbereiche Mustererkennung und -zuordnung (Schrift, Sprache, Bilder) Sensoren (Geruchssensoren) Vorhersage (Wetter, Aktien, Medizin) Steuerung (Roboter, Autopiloten) Computerspiele (Creatures)
51 Praxis Anwendungsbereiche Mustererkennung und -zuordnung (Schrift, Sprache, Bilder) Sensoren (Geruchssensoren) Vorhersage (Wetter, Aktien, Medizin) Steuerung (Roboter, Autopiloten) Computerspiele (Creatures)
52 Praxis Anwendungsbereiche Mustererkennung und -zuordnung (Schrift, Sprache, Bilder) Sensoren (Geruchssensoren) Vorhersage (Wetter, Aktien, Medizin) Steuerung (Roboter, Autopiloten) Computerspiele (Creatures)
53 Praxis Vorteile Lernfähigkeit Generalisierungsfähigkeit Fehlertoleranz Anpassungsfähigkeit Modellfreiheit
54 Praxis Vorteile Lernfähigkeit Generalisierungsfähigkeit Fehlertoleranz Anpassungsfähigkeit Modellfreiheit
55 Praxis Vorteile Lernfähigkeit Generalisierungsfähigkeit Fehlertoleranz Anpassungsfähigkeit Modellfreiheit
56 Praxis Vorteile Lernfähigkeit Generalisierungsfähigkeit Fehlertoleranz Anpassungsfähigkeit Modellfreiheit
57 Praxis Vorteile Lernfähigkeit Generalisierungsfähigkeit Fehlertoleranz Anpassungsfähigkeit Modellfreiheit
58 Praxis Nachteile Überanpassung Ineffektivität keine Garantie auf das bestmögliche Ergebnis
59 Praxis Nachteile Überanpassung Ineffektivität keine Garantie auf das bestmögliche Ergebnis
60 Praxis Nachteile Überanpassung Ineffektivität keine Garantie auf das bestmögliche Ergebnis
61 Implementierung Gliederung 1 Geschichte 2 Theorie Neuronen Netzarchitekturen Lernverfahren 3 Praxis 4 Implementierung
62 Implementierung Ziel Bibliothek + Beispielanwendung trainierbare virtuelle Agenten Ameisensimulation!
63 Implementierung Ziel Bibliothek + Beispielanwendung trainierbare virtuelle Agenten Ameisensimulation!
64 Implementierung Ziel Bibliothek + Beispielanwendung trainierbare virtuelle Agenten Ameisensimulation!
65 Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]
66 Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]
67 Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]
68 Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]
69 Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]
70 Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]
71 Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]
72 Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]
73 Implementierung Bibliothek programmiert in Ruby objektorientiert leicht schreib- und lesbar freie Lizenz ( Open Source ) Anwenung in 3 Schritten: net = Net.new [2, 4, 3] net.train [3.14, 42], [0, 0, 1] output = net.eval [1, 2] => [0.168, 0.171, 0.829]
74 Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor
75 Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor
76 Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor
77 Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor
78 Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor
79 Implementierung Neuroants Netz für jede Ameise Eingabe: Position des Zieles (2 Neuronen) Ausgabe: Bewegungsgeschwindigkeit und Drehung (2 Neuronen) innere Schicht mit 5 Neuronen Lernmechanismus: Backpropagation-Verfahren Steuerung des Benutzers gibt gewünschtes Verhalten vor
80 Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!
81 Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!
82 Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!
83 Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!
84 Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!
85 Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!
86 Implementierung Resultat Trainigsmöglichkeiten: Futter vorwärts- oder rückwärts einsammeln Futter umkreisen auf der Stelle drehen nur Rechtskurven benutzen Bewegung in Schleifen ausprobieren!
87 Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?
88 Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?
89 Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?
90 Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?
91 Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?
92 Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?
93 Fazit Fazit Künstliche neuronale Netze: Erzeugung Künstlicher Intelligenz flexibel, lernfähig zahlreiche Anwendungsgebiete Ausblick Erweiterung des Programms Steuerung von Robotern Ausweichen technische Grenzen bald überwindbar?
94 Fazit Diskussion Fragt mich aus!
95 Fazit Ende! Danke für eure Aufmerksamkeit! Diese Präsentation ist frei verfügbar unter der Lizenz CC-by-nc-sa-2.0
Künstliche neuronale Netze
Facharbeit Informatik Künstliche neuronale Netze Sebastian Morr Fachlehrer: Herr Ebeling Eingereicht am 4. April 2008 Inhaltsverzeichnis 1 Einleitung 3 2 Geschichte 3 3 Theorie 4 3.1 Biologisches Neuron.....................
Konzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: [email protected] Was sind Neuronale
Künstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004
Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron
Einführung in Neuronale Netze
Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme
Künstliche Neuronale Netze
Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung
Künstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
Neuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger
Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale
11. Neuronale Netze 1
11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form
Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
Praktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
Wissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze [email protected] (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
auch: Konnektionismus; subsymbolische Wissensverarbeitung
10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache
Künstliche Intelligenz
Künstliche Intelligenz Bearbeitet von Uwe Lämmel, Jürgen Cleve 4., aktualisierte Auflage 2012. Buch. 336 S. ISBN 978 3 446 42758 7 Format (B x L): 18 x 24,5 cm Gewicht: 717 g Weitere Fachgebiete > EDV,
Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON
BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe
Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?
Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic
Rekurrente / rückgekoppelte neuronale Netzwerke
Rekurrente / rückgekoppelte neuronale Netzwerke Forschungsseminar Deep Learning 2018 Universität Leipzig 12.01.2018 Vortragender: Andreas Haselhuhn Neuronale Netzwerke Neuron besteht aus: Eingängen Summenfunktion
Grundlagen neuronaler Netzwerke
AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann [email protected]) WS 00/03 Timo Glaser [email protected]) 0.. 003 Marco Kunze [email protected]) Sebastian Nowozin [email protected])
Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini
Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung
Inhaltsverzeichnis. Einführung
Inhaltsverzeichnis Einführung 1 Das biologische Paradigma 3 1.1 Neuronale Netze als Berechnungsmodell 3 1.1.1 Natürliche und künstliche neuronale Netze 3 1.1.2 Entstehung der Berechenbarkeitsmodelle 5
Künstliche Neuronale Netze
Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze
Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
Neuronale Netze Aufgaben 3
Neuronale Netze Aufgaben 3 [email protected] (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus
Lernverfahren von Künstlichen Neuronalen Netzwerken
Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.
(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: [email protected] (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
Einfaches Framework für Neuronale Netze
Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.
Neuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
Grundlagen Künstlicher Neuronaler Netze
FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008
Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser
Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM
Konnektionismus und Kognition
Markus Pospeschill Konnektionismus und Kognition Ein Einführung Verlag W. Kohlhammer Inhalt 3 Inhalt Prolog 7 1 Kognitive Prozesse 9 1.1 Modellansätze zur Erforschung kognitiver Prozesse 9 1.1.1 Kognitionspsychologie
Einführung in Neuronale Netze
Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche
MULTILAYER-PERZEPTRON
Einleitung MULTILAYER-PERZEPTRON Die Ausarbeitung befasst sich mit den Grundlagen von Multilayer-Perzeptronen, gibt ein Beispiel für deren Anwendung und zeigt eine Möglichkeit auf, sie zu trainieren. Dabei
Einführung in die Computerlinguistik
Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:
Neuroinformatik. Übung 1
Neuroinformatik Übung 1 Fabian Bürger Raum: BC419, Tel.: 0203-379 - 3124, E-Mail: [email protected] Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 1 / 27 Organisatorisches Neuroinformatik:
Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie
Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler
Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.
Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles
Was sind Neuronale Netze?
Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk
Einsatz Neuronale Netze
1 Einsatz Neuronale Netze Funktionsweise und Anwendungen Mainz, 14. Oktober 2005 2 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze Modellbildung, Datenvorbereitung
6.2 Feed-Forward Netze
6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir
7. Vorlesung Neuronale Netze
Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation
Universität Klagenfurt
Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.
Der Sprung in die Zukunft! Einführung in neuronale Netzwerke
Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale
Aufbau der Eigenimplementierung
Table of contents 1 2 Aufbau... 2 1.1 Feed Forward Netze...3 1.2 Self Organizing Maps... 5 Training... 6 2.1 Feed Forward Netze...7 2.2 Self Organizing Maps... 8 Nachdem wir uns entschlossen hatten, keine
Neuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
Hannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich
Grundlagen zu neuronalen Netzen. Kristina Tesch
Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc
1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.
Stephan Ruttloff 1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Verwendungsweise 6. Quellen Was sind neuronale
Klassifikationsverfahren und Neuronale Netze
Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
Aufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
Thema 3: Radiale Basisfunktionen und RBF- Netze
Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung
10. Neuronale Netze 1
10. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form
Proseminar Neuronale Netze Frühjahr 2004
Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, [email protected] Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die
Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck:
Diplomprüfung Informatik Kurs 1830 Neuronale Netze Prüfer: Prof. Dr. Helbig Beisitzer: Prodekan Prof. Dr. Hackstein Datum: 01.10.08 Note: 2,7 Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt,
Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.
Simulation Neuronaler Netze Eine praxisorientierte Einführung Matthias Haun Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen expert Inhaltsverzeichnis 1 Einleitung 1.1 Über das Projekt 1 1.2 Über das
Neuronale Neize. Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke ADDISON-WESLEY PUBLISHING COMPANY
Helge Ritter/Thomas Marrineiz/Klaus Schulten Neuronale Neize Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke Technische Hochschule Darmstadt FACHBEREICH INFORMATIK B! B k±ojjtlus
Künstliche Neuronale Netze
Andreas Scherer Überarbeitung: Hermann Helbig, Wolfram Schiffmann Kurs 01834 Künstliche Neuronale Netze LESEPROBE Das Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere das
Von der Bestimmung zur Vorhersage: Wie sagt man den Netzzustand vorher?
Janosch Henze Von der Bestimmung zur Vorhersage: Wie sagt man den Netzzustand vorher? mit Unterstützung vom Fachgebiet Intelligente Eingebettete Systeme Universität Kassel Elektrotechnik / Informatik 07.
Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien
in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???
Facharbeit. Ratsgymnasium Bielefeld Schuljahr 2004/2005. aus dem Fach Biologie. Thema: Künstliche neuronale Netze
Ratsgymnasium Bielefeld Schuljahr 2004/2005 Facharbeit aus dem Fach Biologie Thema: Künstliche neuronale Netze Verfasser: Joa Ebert Leistungskurs: Biologie Kursleiter: Herr Bökamp Abgabetermin: 25.02.2005
Kohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
Finanzmarktprognose mit neuronalen Netzen
Reihe: Quantitative Ökonomie Band 131 Herausgegeben von Prof. Dr. Eckart Bomsdorf, Köln, Prof. Dr. Wim Kösters, Bochum, und Prof. Dr. Winfried Matthes, Wuppertal Dr. Christoph A. Hövel Finanzmarktprognose
Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
Eine kleine Einführung in neuronale Netze
Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch
2.4.4 Die Fraktale Dimension
2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die
GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen
Rheinische Friedrich-Wilhelms-Universität Bonn Institut für Informatik VI Dominik Scherer GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen 8. Juni 2009 Diplomarbeit Erstgutachter: Prof.
Effiziente Näherungsverfahren 2
Effiziente Näherungsverfahren 2 D. Rücker S. Major Hochschule Zittau-Görlitz 21. Juni 2009 Überblick DNA Computing evolutionäre Algorithmen Neuronale Netze Effiziente Näherungsverfahren 2 DNA Computing
Künstliche Neuronale Netze
Künstliche Neuronale Netze Modul Informatik Seminar Simon Krenger, Frühlingssemester 2015 Studiengang: Informatik Autor: Simon Krenger Betreuer: Prof. Dr. Jürgen Eckerle Datum: 25.05.2015 Berner Fachhochschule
Künstliche neuronale Netze
Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ [email protected] SS 2011 1 Softcomputing Einsatz
Einführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
Neuronale Netze I. Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München
Neuronale Netze I Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München Email: [email protected] Zusammenfassung Neuronale Netze werden im Bereich Data Mining
Computational Intelligence 1 / 31. Computational Intelligence Künstliche Neuronale Netze Geschichte 3 / 31
1 / 31 Gliederung 1 Künstliche Neuronale Netze Geschichte Natürliches Neuron Künstliches Neuron Typen von Neuronen Geschichte Künstliche Neuronale Netze Geschichte 3 / 31 1943 Warren McCulloch (Neurologe),
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel
Einige überwachte Lernverfahren Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel Funktionsweise eines künstlichen Neurons x w k Neuron k x 2 w 2k net k f y k x n- w n-,k x n w n,k
