Neuronale Netze R. Neubecker, WS 2016 / 2017

Größe: px
Ab Seite anzeigen:

Download "Neuronale Netze R. Neubecker, WS 2016 / 2017"

Transkript

1 Mustererkennung Neuronale Netze R. Neubecker, WS 2016 / 2017

2 Übersicht 2 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Convolutional Neural Networks

3 Historisches 3 Die Anfänge 1943 McCulloch & Pitts: erstes Modell für ein neuronales Netzwerk 1947 McCuloch & Pitts: Erkennung räumlicher Muster als erste praktische Anwendung 1949 Hebb: erste klassische Lernregel 1951 Minsky: erster Neurocomputer Snarc, mit automatisch justierten Gewichten 1957/78 Rosenblatt et al.: Mark I Perceptron, Ziffernerkennung mit 20x20 Bildsensor 1959 Rosenblatt: neue Perceptron-Varianten, Konvergenz-Theorem, Lernregel 1960 Widrow & Hoff: erstes kommerziell verbreitet eingesetztes System ADALINE (Echounterdrückung in Analogtelefonen) 1969 Minsky & Papert: genaue mathematische Analyse der Perceptrons, Beweis, dass nur linear separierbare Probleme lösbar sind (XOR-Problem) vorläufiger Stopp des Forschungsgebietes ab dann auf kleiner Flamme, dennoch einige relevante Beiträge (darunter 1974 Werbos: erstes Backpropagation-Lernen) Die Renaissance 1985 Hopfield: Lösung des Travelling Salesman Problems 1986: mehrschichtige Neuronale Netze lösen nichtlinear-separierbare Probleme, Backpropagation-Verfahren wird verallgemeinert bis heute rege Aktivität, in jüngster Zeit besondere Erfolge

4 Biologische Hardware 4 Biologischer Hintergrund Neuronen sind informationsverarbeitende (Nerven-) Zellen Typisches Säugetier-Neuron Zellkörper (Signalverarbeitung) Dendriten (Eingänge) Axon (Ausgang) Signaltransport innerhalb Dendriten / Axon = elektrische Erregung Kontaktstellen zu anderen Neuronen: Synapsen (chemische Signalstoffe, Ionenströme) Einwegverbindung Verbindungsstärke ist regulierbar Dendrite Zellkörper Axonterminale Funktionsweise: wenn die Summe aller über die Dendriten zusammengeführten und gewichteten Anregungen eine Schwelle überschreitet, wird das Neuron aktiv, es feuert = gibt Signal über Axon ab Bildquelle: Wikipedia

5 Biologische Hardware 5 Neuronale Netze Menschliches Hirn enthält geschätzte 100 Mrd. bis 1 Billionen Neuronen Fadenwurm: ~ 300 Neuronen Ameise: ~ 10 4 Neuronen Hund: ~ 1,6 x 10 8 Neuronen, Katze: ~ 3 x 10 8 Reaktionszeit nur ~ 1ms, aber sehr stark vernetzt hoch-parallele Informationsverarbeitung (Künstliche) Neuronale Netze = Technisches System mit biologischem Vorbild Bottom-Up-Ansatz zum Verständnis von Intelligenz (dagegen Top-Down: Nachbildung von intelligentem Verhalten in Algorithmen, Artificial Intelligence) Hier implementiert als Computeralgorithmus (alternativ spez. Hardware); Ziel ist Ausnutzung besonderer Eigenschaften, nicht Simulation des Gehirns. Neuron = einzelnes informationsverarbeitendes Element, zusammengeschaltet in größerem Netzwerk Große Vielfalt von künstlichen Neuronalen Netzen, im Folgenden nur Grundlagen

6 Elektronische Hardware 6 Die Masse macht s? Transistor Count: Spitzenwerte (2016) in Altera-FPGA = 30 Mrd Transistoren, bzw. GPU (NVIDIA GP100 Pascal)= 15,3 Mrd Transistoren Eine logische Einheit (NOT, AND, XOR, ) benötigt 2 8 Transistoren + 1 Transistor für Speicher (DRAM) Taktraten > 1GHz ~ 10 9 /s Aber: CPUs: serielle Abarbeitung von-neumann-bottleneck beim Speicherzugriff Bildquelle: Wgsimon, CC BY-SA 3.0,

7 Elektronische Hardware 7 Die Architektur macht s! August 2014: IBM stellt TrueNorth vor = Prozessor mit der Struktur Neuronaler Netze ( Chip enthält 4096 Kerne (Cores), mit je 256 Neuronen und Synapsen zusammen 1 Mio. Neuronen und 256 Mio. Synapsen Energieverbrauch 70 mw, 5.4 Mrd. Transistoren, skalierbares System Ergebnis eines 10-jährigen Forschungsprogramms mit 53 Mio US$ Kosten (staatliche Förderung durch das DARPA) Weitere Ansätze für Spezial-Prozessoren Neural Processing Unit (Qualcomm 2015) Tensor Processing Unit (Google 2016) Bildquelle: IBM

8 Übersicht 8 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Convolutional Neural Networks

9 Aufbau: das Neuron 9 Künstliches Neuron ein Modell Drastische Vereinfachung der biologischen Vorgänge Eingabe Mehrere Eingangsgrößen x i (in der Natur ) Ausgabe Eine Ausgangsgröße x y x, w, θ = φ w i x i θ, kann auf beliebige viele Eingänge verteilt werden Parameter Gewichte w i w Schwellwert θ, lässt sich über einen konstant aktiven Eingang mit eigenem Gewicht darstellen (Bias-Neuron, θ = w 0 1), dadurch alle Parameter w Freiheitsgrad: Aktivierungsfunktion φ() Bildquelle: Wikipedia

10 Aufbau: das Neuron 10 Aktivierungsfunktion Schwellwertverhalten im einfachsten Fall Sprungfunktion (Heaviside-Funktion) 0 für x < 0 y x = H(x) = { 1 für x 0 Nachteil: nicht differenzierbar Approximation durch glatte Funktionen (Sigmoid-Funktionen) Logistische oder Fermifunktion 1 φ x = 1 + e x/ x Tangens hyperbolicus y x = tanh x x = ex/ x e x/ x e x/ x + e x/ x x Steilheitsparameter y y x x

11 Aufbau: das Netz 13 Netzwerke Netzwerke sind als Graphen darstellbar Typische Topologie neuronaler Netze: azyklische gerichtete Graphen (gerichtet: Unterscheidung Ein-/Ausgänge) Meist Schichtstruktur (Layer) Eingabeschicht (formale Schicht, ohne Verarbeitungsfähigkeit) Verdeckte Schicht(en) (Hidden Layer(s)) = eigentliche Informationsverarbeitung Eingabeschicht Ausgabeschicht Am weitesten verbreitet sind Feedforward-Netz: Ausgänge jedes Neurons sind nur mit der nächsten Schicht (in Richtung Ausgabeschicht) verbunden Andere Topologien auch möglich. Z.B. Rekurrente Netze = Rückkopplung ggf. Gedächtnis/Speicher

12 Aufbau: das Neuronale Netz 14 Lernfähigkeit Fähigkeit zur Informationsverarbeitung Neuronaler Netze ist bestimmt durch Anzahl der Neuronen Netzwerktopologie (Verbindungen, Anzahl Schichten, ) Aktivierungsfunktion (ggf. für jede Schicht eine eigene) Trainingsverfahren (Art der Bestimmung Gewichtsfaktoren) Gewichtsfaktoren Training Lernen (wie bei anderen Klassifikatoren auch): Gegeben Trainingsdaten x und Zielwerte t, Variation der Gewichte w so, dass Ausgabewerte = Zielwerte: y! (überwachtes Lernen) Lernen ist meist iterativer Prozess. Typischer Ansatz: Minimierung des Fehlers (Soll-Ist-Abweichung) Optimierungsproblem (deshalb auch Notwendigkeit von differenzierbaren Aktivierungsfunktionen) t Design

13 Aufbau: das Neuronale Netz 15 Neuronale Netze für Klassifikationsaufgaben In-/Output von Neuronalen Netzen sind i.a. kontinuierliche Größen sehr vielfältige Probleme lösbar (z.b. Fitten von Messwerten) Bei Klassifikation: Input = Merkmale Anzahl Inputs = Dimension Merkmalsraum Output = Klassen Verschiedene Realisierungsmöglichkeiten: Anzahl Outputs = Anzahl Klassen digitale Output-Werte und immer nur 1 Output aktiv 1 Output und Zuordnung Output-Signal zu Klassen diskrete Output-Werte Anzahl verborgener Schichten, Anzahl Neuronen darin, Form der Aktivierungsfunktion(en)? Try & Error / erfahrungsbasiert

14 Übersicht 16 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Convolutional Neural Networks

15 Das Perzeptron: Die Anfänge Neuronaler Netze 17 Single-Layer Perceptron Einfachste Realisierung (Rosenblatt): Eingabeschicht + 1 Neuron = Ausgabe Aktivierungsfunktion = Sprungfunktion x 1 x 2 x 3 x 4 y = Linearer Klassifikator y = H w i x i + w 0 = H(w t x + w 0 ) Lernalgorithmus konvergiert immer (sofern eine Lösung existiert)

16 Das Perzeptron: Die Anfänge Neuronaler Netze 18 Single-Layer Perceptron: Boolsche Funktionen Einfache logische Funktionen, 2 Eingänge, 1 Ausgang AND OR x 1 x 2 y x 1 x 2 y x 2 x 2 x 1 x 1

17 Das Perzeptron: Die Anfänge Neuronaler Netze 19 Single-Layer Perceptron: Boolsche Funktionen Einfache logische Funktionen, 2 Eingänge, 1 Ausgang AND OR x 1 x 2 y x 1 x 2 y x 2 x 2 x 1 x 1 x 2 = 1.5 x 1 w 0 = 1.5, w 1 = 1, w 2 = 1 x 2 = 0.5 x 1 w 0 = 0.5, w 1 = 1, w 2 = 1

18 Das Perzeptron: Die Anfänge Neuronaler Netze 20 Single-Layer Perceptron: Boolsche Funktionen Einfache logische Funktionen, 2 Eingänge, 1 Ausgang AND x 1 x 2 y x 2 x 1 x y x 1 x 2 = 1.5 x 1 w 0 = 1.5, w 1 = 1, w 2 = 1 OR x 1 x 2 y x 2 x 1 x y x 1 x 2 = 0.5 x 1 w 0 = 0.5, w 1 = w 2 = 1

19 Das Perzeptron: Die Anfänge Neuronaler Netze 21 Single-Layer Perceptron: Das XOR-Problem XOR x 1 x 2 y x XOR-Problem ist nicht linear separierbar x 1?

20 Das Perzeptron: Die Anfänge Neuronaler Netze 22 Single-Layer Perceptron: Das XOR-Problem XOR x 1 x 2 y x XOR-Problem ist nicht linear separierbar x 1? Neuronale Netze können nur langweilige Probleme lösen

21 Das Perzeptron: Vielschichtigkeit 23 Single-Layer Perceptron: Das XOR-Problem XOR x 1 x 2 y x 2? XOR-Problem ist nicht linear separierbar Aber: Alle Boolschen Funktionen lassen sich durch Kombination von Grundfunktionen darstellen: x 1 x 1 x 2 = x 1 x 2 x 1 x 2 Kaskadierung von Neuronen x 1 x 2 y

22 Das Perzeptron: Vielschichtigkeit 24 Single-Layer Perceptron: Das XOR-Problem XOR x 1 x 2 y x 2 XOR-Problem ist nicht linear separierbar Aber: Alle Boolschen Funktionen lassen sich durch Kombination von Grundfunktionen darstellen: x 1 x 1 x 2 = x 1 x 2 x 1 x 2 Kaskadierung von Neuronen x 1 x y

23 Das Perzeptron: Vielschichtigkeit 25 Multi-Layer Perzeptron Hinzufügen zusätzlicher verborgener Schichten (Hidden Layers) zwischen Eingabe und Ausgabeschicht Simpelste Realisierung = 2 Lagen: In Hidden Out Keine Aktivierungsfunktion für Ausgabeschicht (φ out = 1), nur Summation Eingabe -schicht Jede Boolesche oder binäre Funktion y = f(x 1, x 2, x n ) mit y, x k ε {0, 1} lässt sich durch ein mehrstufiges Perzeptron mit einer verborgenen Schicht realisieren Jede stetige reellwertige Funktion y = f(x 1, x 2, x n ) mit y, x k ε R lässt sich durch ein mehrstufiges Perzeptron mit höchstens 2 verborgenen Schichten realisieren

24 Übersicht 26 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Convolutional Neural Networks

25 Lernen: eine Optimierungsaufgabe 27 Lernen durch Fehler Trainieren Neuronaler Netze = Bestimmung der Gewichte w i Geg.: Trainingsdaten x k + entsprechende Soll-Werte t k der Ausgänge Konzept: Fehler = Abweichung zwischen Ist-Werten und Sollwerten berechnen und diesen Fehler durch Variation der Gewichte w minimieren Für diese Optimierungsaufgabe verschiedene Zielfunktionen möglich, klassisch: Summe der quadratischen Abweichungen E = 1 2 k,l y k,l t k,l 2 Summe über alle Ausgänge l und über alle Trainingsvektoren x k I.A. iterative Optimumssuche w ij n+1 = w ij n + Δw ij z.b. über Gradientenverfahren: Δw ij = η E w ij = δ j x i

26 Lernen: Backpropagation 28 Rückwärtsgewandt Information über den Fehler (Abweichung von der gewünschten Klassifizierung) liegt am Ausgang des Neuronalen Netzes vor Geändert werden müssen aber die Gewichte der Neuronen in den davor liegenden Layern (Error) Back-Propagation φ 2 x i w ji φ 1 v lj z l y j E(Δ) Δ= Ist Soll Nur Gewichtsfaktoren in letztem Layer wirken direkt auf Zielfunktion, alle davor liegenden wirken nur mittelbar schrittweise von hinten nach vorne durch die Layer arbeiten. Ziel ist Minimum der Zielfunktion: E w n = 0. Dazu benötigt wird Abhängigkeit der Zielfunktion von jedem Gewichtsfaktor w n.

27 Lernen: Backpropagation 29 (Error) Backpropagation: Beispiel Beispiel: Zweilagiges Perzeptron Fehler für einen festen Trainingsvektor x t, der zum Soll-Ausgang t l führen soll E k = 1 2 l z l t l 2 Trainieren der Ausgabeschicht E k v lj = z l t l φ 2 y j δ l y j Trainieren der verborgenen Schicht E k = z w l t l φ 2 v lj φ 1 x i δ j x i ji l δ j = φ 1 l v lj δ l φ 2 x i w φ z ji 1 v lj l y j y j = φ 1 i w ji x i z l = φ 2 j v lj y j Änderungen der Gewichte in verborgener Schicht ~ Änderungen der Gewichte in der dahinter liegenden Ausgabeschicht der Fehler wird rückwärts durch das Netz gereicht Error Backpropagation

28 Lernen: Backpropagation 30 Backpropagation, Grenzen der - Keine Konvergenzgarantie Lokale Minima Diskretisierter Gradient keine monotone Abnahme des Fehlers

29 Lernen: Backpropagation 31 Backpropagation-Variante: Backpropagation mit Trägheitsterm Verwendung eines (variablen) Trägheitsterms (Momentum) α aktuelle Änderung der Gewichte hängt zusätzlich von vorangegangener Änderung ab Δ w ij n+1 Analogie: Kugel, die Berg hinunter rollt. = η δ j x i + α Δ w ij (n) Backpropagation-Variante: Alternative Zielfunktion Cross-Entropy E = [y k ln t k + 1 y k ln(1 ln t k )] Bessere Konvergenz bei Gradientenverfahren k

30 Lernen: Training und Test 32 Trainieren Neuronaler Netze Neuronale Netze können viele Freiheitsgrade haben (~ Anzahl Gewichtsfaktoren) Gefahr der Überanpassung (Overfitting) Anzahl Merkmalsvektoren im Trainingssatz Anzahl zu trainierender Gewichte! Option für Trainieren: Trainings- und Validierungsdatensatz verwenden. Konvergenz auf Validierungsatz beobachten: Fehler E kann zwar mit Anzahl Lernschritte auf Trainingssatz immer weiter abnehmen, auf Validierungssatz nach Durchlaufen eines Minimums wieder zunehmen vorzeitiger Abbruch Option: Mehrere Trainingsdurchläufe mit unterschiedlichen (Zufalls-) Startwerten Identifikation von lokalen Minima Bildquelle: Duda, Hart, Stork, Pattern Classification

31 Übersicht 33 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Convolutional Neural Networks

32 Convolutional Neural Networks (CNN) 34 Deep Learning Fähigkeit eines Neuronalen Netzes wächst mit Anzahl der Layer / - der Neuronen Problem der Implementierung (Hardware) extrem hohe Anzahl an Gewichtsfaktoren (= Freiheitsgrade) zu trainieren Moderne GPUs und billiger Speicher ermöglichen Parallelverarbeitung Revival der Neuronalen Netze in den letzten Jahren "Deep Neural Nets" = Neuronale Netze mit vielen Layers, "Deep Learning" (allgemein: moderne Verfahren des Machine Learning) März 2016: AlphaGo schlägt einen der weltbesten Go-Spieler

33 CNN: Aufbau 35 Convolutional Neural Networks (CNN) Bildverarbeitung ist DIE Anwendung für CNN CNN enthalten meist auch viele Layer ( Deep Neural Networks) Input eines CNN = alle Pixel eines Bildes (Grauwerte der -) Output = je ein Neuron für jede Klasse Layer-Arten Convolution-Layer Pooling-Layer (Subsampling) Voll-vernetzte Layer Bildquelle: Aphex34, CC-BY-SA 4.0,

34 CNN: Aufbau 36 Convolution-Layer CNNs sind nicht komplett voll-vernetzt. Wenn jedes Neuron des 1. Layers mit allen N M Pixeln eines Bildes vernetzt wäre, hätte dieser Layer bereits N M Gewichtsfaktoren. Statt dessen: Jedes Neuron nutzt als Input eine lokale Umgebung eines Pixels = Faltung mit Filtermaske

35 CNN: Aufbau 37 Convolution-Layer CNNs sind nicht komplett voll-vernetzt. Wenn jedes Neuron des 1. Layers mit allen N M Pixeln eines Bildes vernetzt wäre, hätte dieser Layer bereits N M Gewichtsfaktoren. Statt dessen: Jedes Neuron nutzt als Input eine lokale Umgebung eines Pixels = Faltung mit Filtermaske Analogie zur Retina, wo Zellen lokal interagieren

36 CNN: Aufbau 38 Convolution-Layer 1 Neuron (mit k 2 -Inputs) = 1 Filter (der Kantenlänge k) für eine feste Position im Bild (Gewichtsfaktoren = Einträge Filtermaske), d.h. pro Bildpixel ein Neuron Alle "Filtermasken" werden gleich gewählt (tanslationsinvariant) sehr viel weniger zu trainierende Gewichtsfaktoren Filter werden automatisch "gelernt", d.h. Neuronales Netz wählt entsprechend der Aufgabe (der Trainingsdaten) selbst geeignete Filtermaskeneinträge Parallel mehrere (alternative) Filter unterschiedliche Bildmerkmale (z.b. Kanten in untersch. Orientierungen) Ausgabe jedes Convolution-Layers = mehrere gefilterte Input-Bilder weiterhin hohe Informationsmenge

37 CNN: Aufbau 39 Pooling-Layer Pooling = Subsampling zur Datenreduktion (z.b. über max-filter) Klassifizierungs-Layer Am Ende voll vernetzte Layer (fully connected) 1 Output-Neuron / Klasse Ausgabewert = Wahrscheinlichkeit Training CNN haben extrem viele Freiheitsgrade, d.h. Gefahr des Overfitting ist groß Trainingsvarianten um robustes Klassifikationsverhalten zu erreichen Dropout: während des Trainings werden zufällig einzelne Neuronen (in den Hidden-Layers) abgeschaltet Stochastic Pooling: zufällige Wahl der Pooling-Bereiche

38 CNN: Beispiele 40 Interaktives Beispiel im Netz: Erkennung handschriftlicher Ziffern

39 CNN: Beispiele 41 Beispiel Bilderkennung Large Scale Visual Recognition Challenge 2010 (ImageNet LSVRC-2010) : davon 1.2 Millionen Bilder (256x256 Pixel) 1000 Klassen Neuronales Netz mit Neuronen, 5 Convolutional Layer 60 Millionen freie Parameter. Implementiert auf 2 GPUs. Fehlklassifikationsrate 37.5% - Spitzenwert für Convolutional Layer mit 96 Filtermasken (11 x 11 x 3): A. Krizhevsky et al., "ImageNet Classification with Deep Convolutional Neural Networks", NIPS 2012: Neural Information Processing Systems, Lake Tahoe, Nevada

40 CNN: Beispiele 42 Beispiel: Lächelt er? Bildquelle: M. Matsugu et al, Neural Networks 16 (2003)

41 CNN: Beispiele 43 Beispiel: Inspektion von heißen Stahlprodukten Quelle: A. Alvarez-Gila et al., "Deep Convolutional Neural Networks for surface quality inspection, EMVA Forum 2016

42 Convolutional Neural Networks (CNN) 44 Diskussion CNN müssen Segmentierung und Merkmalsextraktion selbst bewältigen, sowie translations- und rotationsinvariant reagieren! Andere Sichtweise: Millionen von Gewichtsfaktoren festzulegen sehr große Trainingsstichprobe notwendig Bei CNN gibt beim Design mehr zu entscheiden: Anzahl der Filter Größe der Filter (-masken) Art des Pooling / Subsampling Anzahl / Abfolge der verschiedenen Layer In letzter Zeit große Erfolge im Vergleich zu anderen (Bild-) Klassifikatoren Aktuelle Diskussion über Einsatz von CNN in der Machine Vision Klassifikationssicherheit? Robustheit gegen variierende Bildeigenschaften? Eignung für industrielle Anwendungen? Eignung für sicherheitskritische Anwendungen (z.b. Autonomes Fahren)?

43 Neuronale Netze 45 Fazit Künstliche Neuronale Netze bestehen aus vielen, untereinander vernetzten, nichtlinearen Verarbeitungselementen (Neuronen) Sie sind trainierbar, das Trainingsergebnis wird in den Gewichten der Verbindungen untereinander gespeichert Sehr großes Spektrum unterschiedlicher Neuronaler Netze. Klassifikation und Bildverarbeitung sind nur ein Teil aktueller Anwendungen. Kritik Keine Konvergenzgarantie für das Training (auch wenn das betrachtete Problem mit gewählter Konfiguration nachgewiesenermaßen prinzipiell lösbar ist) Training muss nicht zu optimaler Lösung führen Overfitting muss vermieden werden Umsetzung macht vor allem Sinn mit parallelisierter Hardware Black Box, Klassifikationsverhalten undurchsichtig

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

auch: Konnektionismus; subsymbolische Wissensverarbeitung

auch: Konnektionismus; subsymbolische Wissensverarbeitung 10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Neuronale Netze. Seminar aus Algorithmik Stefan Craß, Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Eine kleine Einführung in neuronale Netze

Eine kleine Einführung in neuronale Netze Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung

Mehr

Grundlagen Künstlicher Neuronaler Netze

Grundlagen Künstlicher Neuronaler Netze FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher

Mehr

Einführung in. Neuronale Netze

Einführung in. Neuronale Netze Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.

Mehr

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Internationale Energiewirtschaftstagung Wien - 12.02.2015 Maike Hasselmann, Simon Döing Einführung Wärmeversorgungsanlagen

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Multi-Layer Neural Networks and Learning Algorithms

Multi-Layer Neural Networks and Learning Algorithms Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:

Mehr

Neuronale Netze. Prof. Dr. Rudolf Kruse Christoph Doell, M.Sc.

Neuronale Netze. Prof. Dr. Rudolf Kruse Christoph Doell, M.Sc. Neuronale Netze Prof. Dr. Rudolf Kruse Christoph Doell, M.Sc. Computational Intelligence Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik kruse@iws.cs.uni-magdeburg.de Christoph Doell,

Mehr

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c

Mehr

Neuronale Netze. Volker Tresp

Neuronale Netze. Volker Tresp Neuronale Netze Volker Tresp 1 Einführung Der Entwurf eines guten Klassifikators/Regressionsmodells hängt entscheidend von geeigneten Basisfunktion en ab Manchmal sind geeignete Basisfunktionen (Merkmalsextraktoren)

Mehr

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse -

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Development of Methods to Detect Products Made from Organic Salmon FKZ: 02OE073/1

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Innovative Information Retrieval Verfahren

Innovative Information Retrieval Verfahren Thomas Mandl Innovative Information Retrieval Verfahren Hauptseminar Wintersemester 2004/2005 Letzte Sitzung Grundlagen Heterogenität Ursachen Beispiele Lösungsansätze Visualisierung 2D-Karten heute Maschinelles

Mehr

GRUNDLAGEN DER INFORMATIONSTECHNIK / TEIL BILDVERARBEITUNG. Übungen

GRUNDLAGEN DER INFORMATIONSTECHNIK / TEIL BILDVERARBEITUNG. Übungen GRUNDLAGEN DER INFORMATIONSTECHNIK / TEIL BILDVERARBEITUNG Übungen Otto-von-Guericke-Universität Magdeburg Fakultät für Elektrotechnik und Informationstechnik Institut für Elektronik, Signalverarbeitung

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen, Einsatz z.b. für Klassifizierungsaufgaben

Mehr

2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren

2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4.1. Einführung neuronale Netze (konnektionistische Modelle): Systeme, die einige der im menschlichen Gehirn bekannten oder vermuteten

Mehr

Neuronale Netze. Literatur: J. Zupan, J. Gasteiger: Neural Networks in Chemistry and Drug Design, VCH, Weinheim, 2nd Ed. 1999, ISBN 978-3-527-29779-5

Neuronale Netze. Literatur: J. Zupan, J. Gasteiger: Neural Networks in Chemistry and Drug Design, VCH, Weinheim, 2nd Ed. 1999, ISBN 978-3-527-29779-5 Neuronale Netze Eine Reihe von ganz verschiedenen Methoden werden als Neuronale Netze (NN) bezeichnet. Die wichtigsten sind: - Feed forward, back propagation -NN (am meisten verwendet) - Kohonen-Netze:

Mehr

Merkmalbasierte Zeichenerkennung mittels neuronaler Netze

Merkmalbasierte Zeichenerkennung mittels neuronaler Netze UNIVERSITÄT BAYREUTH MATHEMATISCHES INSTITUT Merkmalbasierte Zeichenerkennung mittels neuronaler Netze Diplomarbeit von Lisa Sammer Datum: 10. Mai 2005 Aufgabenstellung / Betreuung: Prof. Dr. Lars Grüne

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)

Mehr

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06 Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und

Mehr

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen. Simulation Neuronaler Netze Eine praxisorientierte Einführung Matthias Haun Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen expert Inhaltsverzeichnis 1 Einleitung 1.1 Über das Projekt 1 1.2 Über das

Mehr

Exkurs Modelle und Algorithmen

Exkurs Modelle und Algorithmen Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen

Mehr

GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen

GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen Rheinische Friedrich-Wilhelms-Universität Bonn Institut für Informatik VI Dominik Scherer GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen 8. Juni 2009 Diplomarbeit Erstgutachter: Prof.

Mehr

Künstliche Neuronale Netze (KNN)

Künstliche Neuronale Netze (KNN) Künstliche Neuronale Netze (KNN) Die von Neuronalen Netzen ausgehende Faszination besteht darin, dass sie in der Lage sind, in einigen Fällen Probleme von hoher Kompleität mit einfachen Mitteln zu lösen.

Mehr

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1 Agenda 1. Einführung & Grundbegriffe - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene

Mehr

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze Agenda Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1. - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene Netzwerktypen 2. 3. 4. Beispiele

Mehr

Einführung in die Methoden der Künstlichen Intelligenz

Einführung in die Methoden der Künstlichen Intelligenz www.is.cs.uni-fra ankfurt.de Einführung in die Methoden der Künstlichen Intelligenz Vorlesung 7 Künstliche Neuronale Netze 2. Mai 2009 Andreas D. Lattner, Ingo J. Timm, René Schumann? Aldebaran Robotics

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc

Mehr

Kleines Handbuch Neuronale Netze

Kleines Handbuch Neuronale Netze Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie

Mehr

Herzlich Willkommen. Spielstrategien. gehalten von Nils Böckmann

Herzlich Willkommen. Spielstrategien. gehalten von Nils Böckmann Herzlich Willkommen Spielstrategien gehalten von Nils Böckmann Agenda 1. Einführung 2. Problemstellung 3. Abgrenzung 4. Zielstellung / grober Überblick 5. Vorstellen der Konzepte 1. Umgebungslogik 2. Spielbäume

Mehr

Künstliche Neuronale Netze. 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5.

Künstliche Neuronale Netze. 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5. Künstliche Neuronale Netze Wolfram Schiffmann FernUniversität Hagen Rechnerarchitektur 1. Einführung 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5. Zusammenfassung

Mehr

Bielefeld Graphics & Geometry Group. Brain Machine Interfaces Reaching and Grasping by Primates

Bielefeld Graphics & Geometry Group. Brain Machine Interfaces Reaching and Grasping by Primates Reaching and Grasping by Primates + 1 Reaching and Grasping by Primates Inhalt Einführung Theoretischer Hintergrund Design Grundlagen Experiment Ausblick Diskussion 2 Reaching and Grasping by Primates

Mehr

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Vortrag Seminararbeit David Pogorzelski Aachen, 22.01.2015 Agenda 1 2 3 4 5 Ziel der

Mehr

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind

Mehr

1 Neuronale Netze Historisches

1 Neuronale Netze Historisches 1 Neuronale Netze Historisches Literatur, erste Modelle 1 begleitende Literatur T.Kohonen: Associative Memory: A system theoretic approach. New York, Springer 1977 D.E.Rumelhart, J.L.McLelland: Parallel

Mehr

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil

Mehr

Zellulare Neuronale Netzwerke

Zellulare Neuronale Netzwerke Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Zellulare Neuronale Netzwerke Florian Bilstein Dresden, 13.06.2012 Gliederung 1.

Mehr

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Stephan Ruttloff 1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Verwendungsweise 6. Quellen Was sind neuronale

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Facharbeit. Ratsgymnasium Bielefeld Schuljahr 2004/2005. aus dem Fach Biologie. Thema: Künstliche neuronale Netze

Facharbeit. Ratsgymnasium Bielefeld Schuljahr 2004/2005. aus dem Fach Biologie. Thema: Künstliche neuronale Netze Ratsgymnasium Bielefeld Schuljahr 2004/2005 Facharbeit aus dem Fach Biologie Thema: Künstliche neuronale Netze Verfasser: Joa Ebert Leistungskurs: Biologie Kursleiter: Herr Bökamp Abgabetermin: 25.02.2005

Mehr

Natürliche und künstliche neuronale Netze

Natürliche und künstliche neuronale Netze Kapitel 2 Natürliche und künstliche neuronale Netze 2.1 Informationsverarbeitung im Gehirn In diesem Abschnitt soll ein sehr knapper und durchaus unvollständiger Überblick gegeben werden, um den Bezug

Mehr

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren Holger Rahlf; Reiner Schubert www.baw.de Künstlich Neuronales Netz Gliederung Einleitung Grundlagen Möglichkeit und Grenzen Anwendung

Mehr

Neuronale Kodierung sensorischer Reize. Computational Neuroscience Jutta Kretzberg

Neuronale Kodierung sensorischer Reize. Computational Neuroscience Jutta Kretzberg Neuronale Kodierung sensorischer Reize Computational Neuroscience 30.10.2006 Jutta Kretzberg (Vorläufiges) Vorlesungsprogramm 23.10.06!! Motivation 30.10.06!! Neuronale Kodierung sensorischer Reize 06.11.06!!

Mehr

Neuronale Netze. 11.Januar.2002

Neuronale Netze. 11.Januar.2002 Neuronale Netze Stefan Otto Matrikelnummer: 301127 Studiengang: Informatik ProSeminar WS 2001/2002 Institut für Informatik Technische Universität Clausthal 11.Januar.2002 1 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze Modul Informatik Seminar Simon Krenger, Frühlingssemester 2015 Studiengang: Informatik Autor: Simon Krenger Betreuer: Prof. Dr. Jürgen Eckerle Datum: 25.05.2015 Berner Fachhochschule

Mehr

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Computer Vision: AdaBoost D. Schlesinger () Computer Vision: AdaBoost 1 / 10 Idee Gegeben sei eine Menge schwacher (einfacher, schlechter) Klassifikatoren Man bilde einen guten durch eine geschickte Kombination

Mehr

Optimierung für Nichtmathematiker

Optimierung für Nichtmathematiker Optimierung für Nichtmathematiker Prof. Dr. R. Herzog WS/ / Inhaltsübersicht 3Einführung in die freie Optimierung 4Orakel und Modellfunktionen 5Optimalitätsbedingungen der freien Optimierung 6Das Newton-Verfahren

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

Basisfunktionen. und Neuronale Netze. Volker Tresp

Basisfunktionen. und Neuronale Netze. Volker Tresp Basisfunktionen und Neuronale Netze Volker Tresp 1 I am an AI optimist. We ve got a lot of work in machine learning, which is sort of the polite term for AI nowadays because it got so broad that it s not

Mehr

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.

Mehr

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40 Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)

Mehr

Backpropagation. feedforward Netze

Backpropagation. feedforward Netze Backpropagation Netze ohne Rückkopplung, überwachtes Lernen, Gradientenabstieg, Delta-Regel Datenstrom (Propagation) Input Layer hidden Layer hidden Layer Output Layer Daten Input Fehler Berechnung Fehlerstrom

Mehr

Neuronale Netze in der Robotik

Neuronale Netze in der Robotik Seminarvortrag Neuronale Netze in der Robotik Datum: 18.01.2002 Vortragende: Elke von Lienen Matrikelnummer: 302489 Studiengang: Informatik Inhaltsverzeichnis Einleitung 3 Biologisches Vorbild 4 Künstliche

Mehr

Jan Parthey, Christin Seifert. 22. Mai 2003

Jan Parthey, Christin Seifert. 22. Mai 2003 Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.

Mehr