Mustererkennung. Neuronale Netze. R. Neubecker, WS 2019 / Moritz Sperling, OBV-Preis-Vortrag Worum geht es bei Künstlicher Intelligenz?

Größe: px
Ab Seite anzeigen:

Download "Mustererkennung. Neuronale Netze. R. Neubecker, WS 2019 / Moritz Sperling, OBV-Preis-Vortrag Worum geht es bei Künstlicher Intelligenz?"

Transkript

1 Mustererkennung Neuronale Netze R. Neubecker, WS 2019 / 2020 Moritz Sperling, OBV-Preis-Vortrag Worum geht es bei Künstlicher Intelligenz? Quelle: Website (supervise), URL: 1

2 3 Warum ist KI so attraktiv für BV-Anwendungen? Coding Saved experts, saved time = saved $ What customers hope Übersicht 4 Historisches. Biologische und andere Hardware Aufbau: Neuronen und Netze Das Perzeptron Lernen Convolutional Neural Networks 2

3 Historisches 5 Die Anfänge 1943 McCulloch & Pitts: erstes Modell für ein neuronales Netzwerk 1947 McCuloch & Pitts: Erkennung räumlicher Muster als erste praktische Anwendung 1949 Hebb: erste klassische Lernregel 1951 Minsky: erster Neurocomputer Snarc, mit automatisch justierten Gewichten 1957/78 Rosenblatt et al.: Mark I Perceptron, Ziffernerkennung mit 20x20 Bildsensor 1959 Rosenblatt: neue Perceptron-Varianten, Konvergenz-Theorem, Lernregel 1960 Widrow & Hoff: erstes kommerziell verbreitet eingesetztes System ADALINE (Echounterdrückung in Analogtelefonen) 1969 Minsky & Papert: genaue mathematische Analyse der Perceptrons, Beweis, dass nur linear separierbare Probleme lösbar sind (XOR-Problem) vorläufiger Stopp des Forschungsgebietes ab dann auf kleiner Flamme, dennoch einige relevante Beiträge (darunter 1974 Werbos: erstes Backpropagation-Lernen) Die Renaissance 1985 Hopfield: Lösung des Travelling Salesman Problems 1986: mehrschichtige Neuronale Netze lösen nichtlinear-separierbare Probleme, Backpropagation-Verfahren wird verallgemeinert bis heute rege Aktivität, in jüngster Zeit besondere Erfolge Biologische Hardware 6 Biologischer Hintergrund Neuronen sind informationsverarbeitende (Nerven-) Zellen Typisches Säugetier-Neuron Zellkörper (Signalverarbeitung) Dendriten (Eingänge) Axon (Ausgang) Signaltransport zwischen Dendriten und Axon = elektrische Erregung Kontaktstellen zu anderen Neuronen: Synapsen (chemische Signalstoffe, Ionenströme) Einwegverbindung Verbindungsstärke ist regulierbar Dendrite Zellkörper Axonterminale Funktionsweise: wenn die Summe aller über die Dendriten zusammengeführten und gewichteten Anregungen eine Schwelle überschreitet, wird das Neuron aktiv, es feuert = gibt Signal über Axon ab Bildquelle: Wikipedia 3

4 Biologische Hardware 7 Neuronale Netze Menschliches Hirn enthält geschätzte 100 Milliarden Neuronen mit je ~7000 Synapsen Fadenwurm: ~ 300 Neuronen Ameise: ~ 10 4 Neuronen Hund: ~ 1,6 0 8 Neuronen, Katze: ~ Reaktionszeit nur ~ 1ms, aber sehr stark vernetzt hoch-parallele Informationsverarbeitung (Künstliche) Neuronale Netze = Technisches System mit biologischem Vorbild Bottom-Up-Ansatz zum Verständnis von Intelligenz (im Unterschied zu Top-Down: Nachbildung von intelligentem Verhalten in Algorithmen) Hier implementiert als Computeralgorithmus (alternativ in spez. Hardware); Ziel ist Ausnutzung besonderer Eigenschaften, nicht Simulation des Gehirns. Neuron = einzelnes informationsverarbeitendes Element, zusammengeschaltet in größerem Netzwerk Große Vielfalt von künstlichen Neuronalen Netzen, im Folgenden nur Grundlagen Elektronische Hardware 8 Die Masse macht s? Transistor Count: Spitzenwerte (2019) in GPU: GP100 Pascal (NVIDIA)= 15,3 Mrd Transistoren FPGA: Strati0 (Intel) = 43 Mrd Transistoren Deep-Learning Wafer Scale Engine by Cerebras= 1,2 Billionen Transistoren Eine logische Einheit (NOT, AND, XOR, ) benötigt 2 8 Transistoren + 1 Transistor für Speicher (DRAM) Taktraten > 1GHz ~ 10 9 /s Klassische Rechnerarchitektur mit CPU Serielle Abarbeitung von-neumann-bottleneck beim Speicherzugriff ist ungeeignet GPUs, FPGAs oder andere Parallelarchitekturen viel besser geeignet Bildquelle: Wgsimon, CC BY-SA 3.0, 4

5 Elektronische Hardware 9 Die Architektur macht s! 2014: TrueNorth von IBM = Prozessor mit der Struktur Neuronaler Netze ( Chip enthält 4096 Kerne (Cores), mit je 256 Neuronen und Synapsen zusammen 1 Mio. Neuronen und 256 Mio. Synapsen Energieverbrauch 70 mw, 5.4 Mrd. Transistoren, skalierbares System Seitdem zunehmend weitere Spezial-Prozessoren, u.a.: Neural Processing Unit (Qualcomm 2015) Tensor Processing Unit (Google 2016) Nervana Neural Network Processor (NNP, Intel 2018), NNP-T (Training): 27 Mrd Transistoren, 32 GB, ~200 W, NNP-I (Inference): ~20 W... Bildquellen: IBM, Intel Elektronische Hardware 10 Spezial-Hardware (Stand 2019) Cerebras Wafer Scale Engine: kompletter Wafer mm 2 chip cores mit Transistoren 18 GB on-chip SRAM 100 Pb/s interconnect 20 kw (max) Quelle: ( ) 5

6 Elektronische Hardware 11 Deep Learning Fähigkeit eines Neuronalen Netzes wächst mit Anzahl der Neuronen Problem der Implementierung (Hardware) Extrem hohe Anzahl an Parametern festzulegen (zu trainieren) Moderne GPUs und billiger Speicher ermöglichen Parallelverarbeitung Revival der Neuronalen Netze in den letzten Jahren Deep Neural Networks = Neuronale Netze mit vielen Schichten Deep Learning März 2016: AlphaGo schlägt einen der weltbesten Go-Spieler 2018: Christie's versteigert KI-Gemälde für VISION 2018: Digitalkameras mit integrierten Neuronalen Netzen China 2020: 600 Millionen Überwachungskameras mit automatischer Gesichtserkennung (Zutrittskontrolle, Social Scoring,...) Übersicht 12 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Convolutional Neural Networks 6

7 Aufbau: das Neuron 13 Künstliches Neuron ein Modell Drastische Vereinfachung der biologischen Vorgänge Eingabe Mehrere Eingangsgrößen x i Ԧx (in der Natur ) Ausgabe Eine Ausgangsgröße y Ԧx, w, θ = φ σ w i x i θ, kann auf beliebige viele Eingänge nachfolgender Neuronen verteilt werden Parameter Gewichte w i w Schwellwert θ, lässt sich über einen konstant aktiven Eingang mit eigenem Gewicht darstellen (Bias-Neuron, θ = w 0 1), dadurch alle Parameter w Freiheitsgrad: Aktivierungsfunktion φ() Bildquelle: Wikipedia Aufbau: das Neuron 14 Aktivierungsfunktion Schwellwertverhalten im einfachsten Fall Sprungfunktion (Heaviside-Funktion) 0 für x < 0 y x = H(x) = ቊ 1 für x 0 y x Nachteil: nicht differenzierbar Approximation durch glatte Funktionen (Sigmoid-Funktionen) Logistische oder Fermifunktion 1 φ x = 1 + e x/ x Tangens hyperbolicus y x = tanh x x = ex/ x e x/ x e x/ x + e x/ x... x Steilheitsparameter y x 7

8 Aufbau: das Neuron 15 Künstliches Neuron plausibilisiert Fiktives Problem: Kredit an einen Bankkunden vergeben? Eingabe Eingangsgrößen x i Gehalt Schufa-Auskunft Rating Wohngebiet, Käuferbewertung ebay, Auto Ausgabe Eine Ausgangsgröße: Entscheidung über Kreditvergabe Parameter Gewichte w i : Wie wichtig sind die Eingangsgrößen, wie sehr sollen sie die Entscheidung beeinflussen? Bildquelle: Wikipedia Aufbau: das Netz 16 Netzwerke Verbindung vieler Neuronen Netz(werk) Viele mögliche Verbindungsstrukturen (Topologien) Meist Schichtstruktur (Layer) Eingabeschicht (Puffer ohne Verarbeitungsfähigkeit) Verdeckte Schicht(en) (Hidden Layer(s)) = eigentliche Informationsverarbeitung Ausgabeschicht Eingabeschicht Feedforward-Netze: Ausgänge jedes Neurons sind nur mit der nächsten Schicht (in Richtung Ausgabeschicht) verbunden Informationsfluss nur in Richtung von Eingabe- nach Ausgabeschicht Hier noch offen: jedes Neuron mit allen Eingängen der Folgeschicht verbunden? Andere Topologie z.b. Rekurrente Netze = Rückkopplung u.a. Gedächtnis- / Speicherfunktionalität 8

9 Aufbau: das Neuronale Netz 17 Lernfähigkeit Fähigkeit zur Informationsverarbeitung Neuronaler Netze ist bestimmt durch Anzahl der Neuronen Netzwerktopologie (Verbindungen, Anzahl Schichten, ) Art der Aktivierungsfunktion Trainingsverfahren (Art der Bestimmung Gewichtsfaktoren) Festes Design Gewichtsfaktoren Training Lernen (wie bei anderen Klassifikatoren auch): Gegeben Trainingsdaten Ԧx und Sollwerte (Target) Ԧt, Variation der Gewichte w so, dass Ausgabewerte = Zielwerte: Ԧy! Ԧt Lernen ist meist ein iterativer Prozess Typischer Ansatz: Minimierung des Fehlers (Soll-Ist-Abweichung) Optimierungsproblem Aufbau: das Neuronale Netz 18 Neuronale Netze für Klassifikationsaufgaben In- / Output von Neuronalen Netzen sind i.a. kontinuierliche Größen sehr vielfältige Probleme lösbar (z.b. Fitten von Messwerten) Wertebereich Outputs hängt von Aktivierungsfunktion ab (typ ) Klassifikation Übertragung auf bisherige Klassifikator-Ansatz: Input = Merkmale Anzahl Inputs = Dimension Merkmalsraum Anzahl Outputs = Anzahl Klassen Output ist kontinuierliche Größe Score / Wahrscheinlichkeit für diese Klasse weitere Entscheidung notwendig (Auswahl der Klasse mit dem höchsten Score) Besondere Aktivierungsfunktion für Output-Layer: Softmax-Funktion φ z j = ez j σ e z i Normiert alle Output-Werte auf σ = 1 9

10 Übersicht 19 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Convolutional Neural Networks Das Perzeptron: Die Anfänge Neuronaler Netze 20 Single-Layer Perceptron Einfachste Realisierung (Rosenblatt 1958): Eingabeschicht + 1 Neuron = Ausgabe Aktivierungsfunktion = Sprungfunktion x 2 x 3 x 4 y = Linearer Klassifikator y = H w i x i + w 0 = H(w t Ԧx + w 0 ) Lernalgorithmus konvergiert immer (sofern eine Lösung existiert) 10

11 Das Perzeptron: Die Anfänge Neuronaler Netze 21 Single-Layer Perceptron: Boolsche Funktionen Einfache logische Funktionen, 2 Eingänge, 1 Ausgang AND OR x 2 y x 2 y x 2 x 2 Das Perzeptron: Die Anfänge Neuronaler Netze 22 Single-Layer Perceptron: Boolsche Funktionen Einfache logische Funktionen, 2 Eingänge, 1 Ausgang AND OR x 2 y x 2 y x 2 x 2 x 2 = 1.5 w 0 = 1.5, w 1 = 1, w 2 = 1 x 2 = 0.5 w 0 = 0.5, w 1 = 1, w 2 = 1 11

12 Das Perzeptron: Die Anfänge Neuronaler Netze 23 Single-Layer Perceptron: Boolsche Funktionen Einfache logische Funktionen, 2 Eingänge, 1 Ausgang AND x 2 y x 2 x x 2 = 1.5 w 0 = 1.5, w 1 = 1, w 2 = 1 y OR x 2 y x 2 x 2 x 2 = 0.5 w 0 = 0.5, w 1 = w 2 = y Das Perzeptron: Die Anfänge Neuronaler Netze 24 Single-Layer Perceptron: Das XOR-Problem XOR x 2 y x XOR-Problem ist nicht linear separierbar? 12

13 Das Perzeptron: Die Anfänge Neuronaler Netze 25 Single-Layer Perceptron: Das XOR-Problem XOR x 2 y x XOR-Problem ist nicht linear separierbar? Neuronale Netze können nur langweilige Probleme lösen Das Perzeptron: Vielschichtigkeit 26 Single-Layer Perceptron: Das XOR-Problem XOR x 2 y x 2 XOR-Problem ist nicht linear separierbar Aber: Alle Boolschen Funktionen lassen sich durch Kombination von Grundfunktionen darstellen? x 2 = x 2 ڀ x 2 Kaskadierung von Neuronen x 2 y 13

14 Das Perzeptron: Vielschichtigkeit 27 Single-Layer Perceptron: Das XOR-Problem XOR x 2 y x XOR-Problem ist nicht linear separierbar Aber: Alle Boolschen Funktionen lassen sich durch Kombination von Grundfunktionen darstellen: x 2 = x 2 ڀ x 2 Kaskadierung von Neuronen x y Das Perzeptron: Vielschichtigkeit 28 Multi-Layer Perzeptron Hinzufügen zusätzlicher verborgener Schichten (Hidden Layers) zwischen Eingabe und Ausgabeschicht Simpelste Realisierung = 2 Schichten In Hidden Out Ggf. keine / spezielle Aktivierungsfunktion für Ausgabeschicht (φ out = 1) Eingabe -schicht Jede Boolesche oder binäre Funktion y = f(, x 2, x n ) mit y, x k ε {0, 1} lässt sich durch ein mehrstufiges Perzeptron mit einer verborgenen Schicht realisieren Jede stetige reellwertige Funktion y = f(, x 2, x n ) mit y, x k ε R lässt sich durch ein mehrstufiges Perzeptron mit höchstens 2 verborgenen Schichten realisieren Jede weitere Schicht steigert die Leistungsfähigkeit. Viele Schichten = Tiefes Netz = Deep Neural Network (typ. bei >2 Schichten). Im Verlauf der Schichten ändert sich der Informationsgehalt von Merkmalen zu Klassen (oder z.b. von Bildeigenschaften / Pixeln zu Objekteigenschaften) zunehmende Generalisierung / Abstraktion 14

15 Übersicht 29 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Convolutional Neural Networks Übersicht 30 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Überblick: Lernen durch Fehler Basics: 1 Neuron, 1 Trainingspartner Lernen im Netz, Back-Propagation Die ganze Trainingsstichprobe Vermeiden von Overfitting Abkürzung Convolutional Neural Networks 15

16 Lernen: eine Optimierungsaufgabe 31 Überblick: Lernen durch Fehler (überwachtes Lernen) Trainieren Neuronaler Netze = Festlegung der Gewichte w i Geg.: Trainingsstichprobe Ԧx l und zugehörige Soll-Werte Ԧt l der Ausgänge Konzept Fehler = Abweichung zwischen Ist-Werten und Sollwerten berechnen Diesen Fehler durch Variation der Gewichte w minimieren Optimierungsproblem Zielfunktion mit Gewichten w i als unabhängige Variable Zielfunktion bewertet den Fehler. Verschiedene Zielfunktionen möglich. Klassisch: Quadratische Abweichungen J = Soll Ist 2 Suche nach Optimum iterativ, z.b. über Gradientenverfahren Lernen: eine Optimierungsaufgabe 32 Überwachtes Lernen Trainingsstichprobe Merkmalsvektor Ԧ Ԧx Ԧy Wahre Klasse Ԧt 1 Ԧx 2 Ԧt 2 Ԧx 3 Ԧt 3 Ԧx l Optimierung Anpassung durch der Gewichtsfaktoren Anpassung der w i an Gewichtsfaktoren gegebene Ԧx und wԧt i Ԧt l Allgemeine Struktur Überwachtes Lernen mit Trainings-Stichprobe: Viele Inputs viele Soll-Outputs Lernen aus Fehlern Abweichung zwischen den Sollwerten Ԧt und Reaktion Ԧy des Netzes auf gegebenen Input Ԧx 16

17 Übersicht 33 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Überblick: Lernen durch Fehler Basics: 1 Neuron, 1 Trainingspartner Lernen im Netz, Back-Propagation Die ganze Trainingsstichprobe Vermeiden von Overfitting Abkürzung Convolutional Neural Networks Lernen: Basics 34 Trainingsstichprobe Merkmalsvektor Ԧx 2 x 2 x 3 w 1 w 2 w 3 σ φ σ y Wahre Klasse t 1 t 2 Ԧx 3 x 4 w 4 t 3 Ԧx l t l Vereinfachungen! Nur 1 Neuron mit 1 Ausgang Nur 1 Trainingspartner 17

18 Lernen: Basics 35 Training eines Neurons mit einem Trainingspartner x 2 x 3 w 1 w 2 w 3 σ y Sollwert (Target) t w 4 x 4 Vereinfachungen! Nur 1 Neuron mit 1 Ausgang Nur 1 Trainingspartner Keine Aktivierungsfunktion y = φ σ w i x i Neuron erzeugt Outputwert y, der (noch) von Sollwert t abweicht y = σ w i x i Lernen: Basics 36 Training eines Neurons mit einem Trainingspartner x 2 x 3 w 1 w 2 w 3 σ y = σ w i x i Sollwert (Target) t w 4 x 4 Einzelner Lernschritt Fehler e = t y. Zu minimierende Zielfunktion J = 1 2 e2. Fehler e = t y Anpassung ein Gewicht: w neu i = w i + Δw i = w i + e x i Alle Gewichte: w neu = w + e Ԧx Ggf. mit Lernrate η: w neu = w + η e Ԧx 18

19 Lernen: Basics 37 Training eines Neurons mit einem Trainingspartner x 2 x 3 w 1 w 2 w 3 σ y = σ w i x i Sollwert (Target) t w 4 x 4 Einzelner Lernschritt Fehler e = t y. Zu minimierende Zielfunktion J = 1 2 e2. Fehler e = t y Anpassung ein Gewicht: w neu i = w i + Δw i = w i + e x i Alle Gewichte: w neu = w + e Ԧx Anschaulich: y war zu klein ( e > 0), obwohl x i groß war Ggf. mit Lernrate η: w neu = w + η e Ԧx Einfluss von x i stärken w i vergrößern und zwar um so mehr, je größer e war Lernen: Basics 38 Training eines Neurons mit einem Trainingspartner x 2 x 3 w 1 w 2 w 3 σ φ σ y = φ σ w i x i Sollwert t Einzelner Lernschritt mit Aktivierungsfunktion x 4 w 4 Fehler e = t y Jetzt y = φ σ w i x i Fehler e = t φ σ w i x i. Zielfunktion J = 1 2 e2 = 1 2 t φ σ w ix i 2 Gradientenverfahren 1. Ableitung der Aktivierungsfunktion φ w neu = w + η e φ Ԧx 19

20 Lernen: Basics 39 Training eines Neurons mit einem Trainingspartner x 2 x 3 w 1 w 2 w 3 σ φ σ y = φ σ w i x i Sollwert t Einzelner Lernschritt mit Aktivierungsfunktion x 4 w 4 Fehler e = t y Jetzt y = φ σ w i x i Fehler e = t φ σ w i x i. Zielfunktion J = 1 2 e2 = 1 2 t φ σ w ix i 2 Gradientenverfahren 1. Ableitung der Aktivierungsfunktion φ w neu = w + η e φ Ԧx Von der Aktivierungsfunktion wird nur die lokale Steigung benutzt (für Empfindlichkeit der Gewichtsanpassung) Übersicht 40 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Überblick: Lernen durch Fehler Basics: 1 Neuron, 1 Trainingspartner Lernen im Netz, Back-Propagation Die ganze Trainingsstichprobe Vermeiden von Overfitting Abkürzung Convolutional Neural Networks 20

21 Lernen: Backpropagation 41 Mehrere Neuronen 1 Schicht Gewichte bekommen 2 Indices, w ji verbindet Eingang i mit Neuron j So viele Ausgänge y j wie Neuronen Output-Werte Ԧy, Soll-Werte Ԧt, Fehler Ԧe x 2 x 3 w 11 w 12 w 13 w 21 w 22 φ σ y 1 Ԧy Sollwert Ԧt Fehler Ԧe = Ԧt Ԧy w 14 w 23 φ σ y 2 x 4 w 24 Am Trainingskonzept ändert sich wenig (bleibt für jedes individuelle Neuron gleich) w ji neu = w ji + η e j φ x i Lernen: Backpropagation 42 Mehrere Schichten Beispiel: 2 Schichten Eingang: x i Ausgang Hidden Layer: y j Ausgang Netzwerk: z k Gewichte Input Hidden Layer: w ji verbindet x i mit y j Hidden Layer Ausgang Netz: w kj verbindet y j mit z k x i w ji φ 2 φ w kj 1 y j z k Aktivierungsfunktion (mit Zwischensummen): y j = φ 1 σ i w ji x i z k = φ 2 σ j w kj y j Achtung: w kj wirkt nur auf einen einzelnen Ausgang k aber w ji kann auf viele Ausgänge wirken 21

22 Lernen: Backpropagation 43 Lernen bei 2 Schichten Fehler für einen festen Trainingsvektor Ԧx, der zum Soll-Ausgang t k führen soll: J = 1 2 σ k t k z k 2 φ 2 x i w ji φ 1 w kj z k y j Trainieren der Ausgabeschicht J w kj = t k z k φ 2 y j = e k y j Δw kj Trainieren der verborgenen Schicht J = σ w k t k z k φ ji 2 w kj φ 1 x i = e j Ƹ x i Δw ji mit e j Ƹ =: φ 1 σ k w kj δ k y j = φ 1 (σ i w ji x i ) z k = φ 2 ( σ j w kj y j ) φ φ u =: u Änderungen der Gewichte in verborgener Schicht ~ Änderungen der Gewichte in der dahinter liegenden Ausgabeschicht Notwendig für iteratives Gradientenverfahren: J w mn... also alles andere wie zuvor Lernen: Backpropagation 44 Zusammenfassung: Rückwärtsgewandt Information über den Fehler (Abweichung von der gewünschten Klassifizierung) liegt am Ausgang des Neuronalen Netzes vor Aber: die Gewichte in davor liegenden Schichten müssen angepasst werden (Error) Back-Propagation φ 2 x i w ji φ 1 w kj z k y j Fehler e k Nur die Gewichtsfaktoren der letzten Schicht wirken direkt auf Zielfunktion (Fehler), alle davor liegenden wirken nur mittelbar Schrittweise von hinten nach vorne durch die Schichten arbeiten. Anpassung erfolgt iterativ, z.b. mit Gradientenverfahren oder einem anderen, schneller konvergierenden Optimierungsverfahren 22

23 Lernen: Backpropagation 45 Backpropagation, Probleme der - Keine Konvergenzgarantie Lokale Minima Diskretisierter Gradient keine monotone Abnahme des Fehlers Vanishing Gradient Änderung der Gewichte Δw ~ Gradient ~ 1. Ableitung der Aktivierungsfunktion Gradient kann sehr klein werden keine großen Änderungen Δw sehr langsame Konvergenz Besonders relevant in vorderen Layern (Produkte mehrere Gradienten) Gegenmaßnahmen Nicht-sättigende Aktivierungsfunktionen Geschickte Initialisierung der Gewichte y y ReLU-Funktion (Rectified Linear Unit) x x Lernen: Backpropagation 46 Backpropagation-Varianten Gradientenverfahren mit Trägheitsterm Verwendung eines (variablen) Trägheitsterms (Momentum) α aktuelle Änderung der Gewichte hängt zusätzlich von vorangegangener Änderung ab (Art gleitender Mittelwert) Δ w ji n+1 Analogie: Kugel, die Berg hinunter rollt n = η e j Ƹ x i + α Δ w ji Überwindung lokaler Minima, insgesamt stabileres Konvergenzverhalten Optimierung Nutzung schneller konvergierender Verfahren aus der numerischen Optimierung 23

24 Lernen: Backpropagation 47 Alternative Zielfunktion Allgemeines Ziel: bewerteter Vergleich zwischen Ist-Ausgang y und Sollwerten t Bisher: J = 1 2 e 2 k = 1 2 t k y 2 k k k J(t, y) kann auch anders formuliert werden z.b. Beträge statt Quadrate J = 1 2 k e k = 1 2 k t k y k Oft benutzt: Cross-Entropy J = [y k ln t k + 1 y k ln(1 ln t k )] Bessere Konvergenz bei Gradientenverfahren k Übersicht 48 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Überblick: Lernen durch Fehler Basics: 1 Neuron, 1 Trainingspartner Lernen im Netz, Back-Propagation Die ganze Trainingsstichprobe Vermeiden von Overfitting Abkürzung Convolutional Neural Networks 24

25 Lernen: Die ganze Trainingsstichprobe 49 Leider noch nicht fertig denn bislang wurde nur ein einziges Mitglied der Trainingsstichprobe benutzt. Wie können wir alle Trainingspartner zum Einsatz bringen? Lernen: Die ganze Trainingsstichprobe 50 Benutzen der Trainingsstichprobe Ԧ Ԧx 2 Ԧx 3 Ԧx l Fehler Ԧe 1 Ԧe 2 Ԧe 3 Ԧe l Viele Ԧx l Ԧy l und viele Sollwerte Ԧt (l) viele Fehler Ԧe l = Ԧt (l) Ԧy l 25

26 Lernen: Die ganze Trainingsstichprobe 51 Benutzen der Trainingsstichprobe Ԧ Ԧx 2 Ԧx 3 Ԧx l Trainingsstrategien Individuelle Aktualisierung w für jedes Ԧx l, e l Situativ großer Einfluss jedes Trainingswert, instabiles / unruhiges Lernen Fehler Ԧe 1 Ԧe 2 Ԧe 3 Ԧe l Lernen: Die ganze Trainingsstichprobe 52 Benutzen der Trainingsstichprobe Ԧ Ԧx 2 Ԧx 3 < Ԧe l > l Fehler Ԧe 1 Ԧe 2 Ԧe 3 Ԧx l Trainingsstrategien Alle Trainingswerte Ԧx l nacheinander anbieten, jeweils Fehler Ԧe l berechnen, Anpassung der Gewichte aus mittlerem Gesamtfehler < Ԧe l > l w Wenig Einfluss der Variation innerhalb der Trainingsdaten, aber stabiles Lernen Ԧe l 26

27 Lernen: Die ganze Trainingsstichprobe 53 Benutzen der Trainingsstichprobe Ԧ Ԧx 2 Ԧx 3 Ԧx l Trainingsstrategien Kompromiss Batch-Verfahren: Einen Teil der Trainingsdaten Ԧx m jeweils Fehler Ԧe m berechnen, Anpassung der Gewichte aus Batch-Mittelwert < e m > m w Iterationen 1 Epoche = 1x Durchlaufen aller Trainingsdaten Gesamtes Training = mehrere Epochen < Ԧe m > m anbieten, Fehler Ԧe 1 Ԧe 2 Ԧe 3 Ԧe l Übersicht 54 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen: Überblick: Lernen durch Fehler Basics: 1 Neuron, 1 Trainingspartner Lernen im Netz, Back-Propagation Die ganze Trainingsstichprobe Vermeiden von Overfitting Abkürzung Convolutional Neural Networks 27

28 Daten: Test Valid. Training Lernen: Overfitting 55 Overfitting Neuronale Netze können sehr viele Freiheitsgrade haben, neigen zu Overfitting Unterschiedliche Maßnahmen möglich, meist als Regularisierung bezeichnet Zusatzbedingungen Zusätzliche Bedingungen auferlegen z.b. Summe der Gewichtsfaktoren σ i w ji pro Neuron limitieren oder zusätzliche Bedingung in Zielfunktion aufnehmen, z.b. E E + w 2 Dropout Jedes Neuron mit einer gewissen Wahrscheinlichkeit (pro Trainingsschritt) vorübergehen ausfallen lassen Damit nicht jedes einzelne Neuron kritisch für Gesamtfunktion, Funktionalität wird tendenziell auf mehrere Neuronen verteilt (Redundanz) Steigert zugleich die Robustheit gegen Variationen der Inputdaten Lernen: Overfitting 56 Early Stopping Während des Trainings: Lernerfolg (z.b. Klassifizierungsfehler) an Trainings- und an Validierungsstichprobe beobachten / miteinander vergleichen Neuronales Netz wird immer besser bzgl. Trainingsdaten, sobald es ins Overfitting geht wird Fehler bezgl. Validierungsdaten wieder größer an dieser Stelle Training abbrechen Stichprobe Training Netz Abbruch? = Finaler Test Bildquelle: Duda, Hart, Stork, Pattern Classification 28

29 Übersicht 57 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Überblick: Lernen durch Fehler Basics: 1 Neuron, 1 Trainingspartner Lernen im Netz, Back-Propagation Die ganze Trainingsstichprobe Vermeiden von Overfitting Abkürzung Convolutional Neural Networks Lernen: Abkürzung 58 Mühen Design Netzwerk-Topologie Anzahl der Layer, Anzahl der Neuronen pro Layer Wahl der Aktivierungsfunktion(en) Wahl des Trainingsverfahrens... Training Große Trainingsstichproben notwendig Zeit- / rechenaufwendig Keine Standardregeln, keine Gebrauchsanleitung Abkürzung: Nutzung vortrainierter Netze! Wie in der Schule: Abschreiben Transfer learning = Übernehmen eines bereits gut trainierten Netzes, nur noch nach-trainieren auf eigene Aufgabe / eigenen Datensatz Benutzte Vorlage muss auf eine ähnliche Aufgabe trainiert worden sein Vorzugsweise nur untere Layer kopieren ( ähnliche Verarbeitung der Input-Daten) 29

30 Übersicht 59 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Convolutional Neural Networks CNN: Aufbau 60 Convolutional Neural Networks (CNN) Bildverarbeitung ist DIE Anwendung für (C)NN CNN enthalten meist auch viele Layer ( Deep Neural Networks) Input eines CNN = alle Pixel eines Bildes (Grauwerte der -) Output = je ein Neuron für jede Klasse Layer-Arten Convolution-Layer Pooling-Layer (Subsampling) Voll-vernetzte Layer Bildquelle: Aphex34, CC-BY-SA 4.0, 30

31 CNN: Aufbau 61 Convolution-Layer CNNs sind nicht komplett voll-vernetzt. Wenn jedes Neuron des 1. Layers mit allen N M Pixeln eines Bildes vernetzt wäre, hätte dieser Layer bereits N M Gewichtsfaktoren. Statt dessen: Jedes Neuron nutzt als Input eine lokale Umgebung eines Pixels CNN: Aufbau 62 Convolution-Layer CNNs sind nicht komplett voll-vernetzt. Wenn jedes Neuron des 1. Layers mit allen N M Pixeln eines Bildes vernetzt wäre, hätte dieser Layer bereits N M Gewichtsfaktoren. Statt dessen: Jedes Neuron nutzt als Input eine lokale Umgebung eines Pixels = Faltung (Convolution) mit Filtermaske Biologische Analogie zur Retina, wo Sehzellen auch lokal interagieren 31

32 CNN: Aufbau 63 Convolution-Layer 1 Neuron (mit k 2 -Inputs) = 1 Filter (der Kantenlänge k) für eine feste Position im Bild, d.h. pro Bildpixel ein Neuron Gewichtsfaktoren = Einträge in Filtermaske Alle Filtermasken werden gleich gewählt (=Translationsinvarianz) sehr viel weniger zu trainierende Gewichtsfaktoren Filter werden automatisch "gelernt", d.h. Neuronales Netz wählt entsprechend der Aufgabe (der Trainingsdaten) selbst geeignete Filtermaskeneinträge Jedes Filter hat nur eine Funktionalität Parallel mehrere Filter im Convolutional Layer Ausgabe = unterschiedlich gefilterte Input-Bilder, tragen unterschiedliche Bildmerkmale (z.b. Kanten in untersch. Orientierungen) CNN: Aufbau 64 Pooling-Layer Pooling = Subsampling zur Datenreduktion Vorgegebene Bereiche werden zu einem Pixel zusammen gefasst (z.b. Mittelwert oder Maximum) Keine Filteroperation (i.s.v. keine Faltung), alle Inputs eines Neurons gleich gewichtet Danach weitere Convolution-Layer... Fully connected-layer Als Letztes (mehrere) voll vernetzte Layer für eigentliche Klassifizierung 1 Output-Neuron / Klasse Ausgabewert = Wahrscheinlichkeit 32

33 CNN: Beispiele 65 Interaktives Beispiel im Netz: Erkennung handschriftlicher Ziffern CNN: Beispiele 66 Beispiel Bilderkennung Large Scale Visual Recognition Challenge 2010 (ImageNet LSVRC-2010) : davon 1.2 Millionen Bilder (256x256 Pixel) 1000 Klassen Neuronales Netz mit Neuronen, 5 Convolutional Layer 60 Millionen freie Parameter. Implementiert auf 2 GPUs. Fehlklassifikationsrate 37.5% - Spitzenwert für Convolutional Layer mit 96 Filtermasken (11 1 x 3): A. Krizhevsky et al., "ImageNet Classification with Deep Convolutional Neural Networks", NIPS 2012: Neural Information Processing Systems, Lake Tahoe, Nevada 33

34 CNN: Beispiele 67 Beispiel Bilderkennung ff Entwicklung der Fehlerrate im Large Scale Visual Recognition Challenge durch Deep Neural Networks By Gkrusze - Own work, CC BY-SA 4.0, CNN: Beispiele 68 Beispiel: Lächelt er? Bildquelle: M. Matsugu et al, Neural Networks 16 (2003)

35 CNN: Beispiele 69 Beispiel: Inspektion von heißen Stahlprodukten Quelle: A. Alvarez-Gila et al., "Deep Convolutional Neural Networks for surface quality inspection, EMVA Forum 2016 Convolutional Neural Networks (CNN) 70 Diskussion CNN müssen Segmentierung und Merkmalsextraktion selbst bewältigen, sowie translations- und rotationsinvariant reagieren! Andere Sichtweise: Millionen von Gewichtsfaktoren festzulegen sehr große Trainingsstichprobe notwendig Bei CNN gibt es beim Design mehr zu entscheiden: Anzahl der Filter Größe der Filter (-masken) Art des Pooling / Subsampling Anzahl / Abfolge der verschiedenen Layer In letzter Zeit große Erfolge im Vergleich zu anderen (Bild-) Klassifikatoren Aktuelle Diskussion über Einsatz von CNN in der Machine Vision Klassifikationssicherheit? Robustheit gegen variierende Bildeigenschaften? Eignung für industrielle Anwendungen? Eignung für sicherheitskritische Anwendungen (z.b. Autonomes Fahren)? 35

36 Neuronale Netze 71 Fazit Künstliche Neuronale Netze bestehen aus vielen, untereinander vernetzten, nichtlinearen Verarbeitungselementen (Neuronen) Sie sind trainierbar, das Trainingsergebnis wird in den Gewichten der Verbindungen untereinander gespeichert Sehr großes Spektrum unterschiedlicher Neuronaler Netze. Klassifikation und Bildverarbeitung sind nur ein Teil aktueller Anwendungen. Im Gegensatz zu anderen BV-Lösungen: Keine problemspezifische Algorithmen-Programmierung, keine BV-Expertise notwendig! Kritik Wahl des richtigen Netz-Designs erfordert Deep-Learning-Expertise Viele freie Parameter große Datenmengen zum Training notwendig Training muss nicht konvergieren / muss nicht zu optimaler Lösung führen Kritisch: Balance zwischen Leistungsfähigkeit und Overfitting Umsetzung macht vor allem Sinn mit parallelisierter Hardware Black Box, Klassifikationsverhalten ist undurchsichtig Extras 72 Anhang: Neuronale Matlab 36

37 Neural Matlab 74 Matlab: Neuronale Netze erzeugen und konfigurieren (Flache) Netzwerke können mit net = network()erzeugt werden Es gibt vorgefertigte Netzwerkstrukturen, z.b. feeforwardnet() patternnet() perceptron() net ist ein Objekt, das alle Eigenschaften speichert Design festlegen / abfragen: - net.numinputs: Anzahl der Inputs - net.numlayer: Anzahl der Layer - net.numoutputs: Anzahl der Outputs - - net.biasconnect: xx - net.inputconnect: xx - net.layerconnect: xx - net.outputconnect: xx - (Als logische Arrays. Geben an, welche Inputs/Layer/Outputs miteinander verbunden werden, damit sind auch (Rückwärts-) Verbindungen über Layer hinweg möglich) Neural Matlab 75 Matlab: Neuronale Netze erzeugen und konfigurieren net ist ein Objekt,... Nützliche Methoden - configure: Automatisches Design aufgrund von Trainingsdaten. Legt Anzahl Inputs / Outputs und deren Größe fest - view: Grafische Ausgabe der Netzarchitektur - init: passende Initialwerte für Gewichte und Bias-Gewichte setzen. Führt die (wählbare) net.initfcn aus. - train:... Gewichte (+ Bias) werden gemäß Trainingsdaten optimal gewählt - perform: Berechnet eine bewertete Abweichung des aktuellen Outputs von den Sollwerten (Target). Benutzt dazu die die (wählbare) net.performfcn mit zugehörigen (wählbaren) net.performparam - sim: Wendet das Netz auf gegebenen (Test-) Daten an (mit trainierten Gewichten) 37

38 Neural Matlab 76 Matlab: Neuronale Netze erzeugen und konfigurieren net ist ein Objekt,... Parameter festlegen / abfragen - net.iw: Alle Input-Gewichte - net.lw: Alle Gewichte der jeweiligen Layer - net.b: Bias-Werte - (Geben jeweils cell-arrays zurück) Neural Matlab 77 Matlab: Neuronale Netze erzeugen und konfigurieren net ist ein Objekt,... Trainingseinstellungen festlegen / abfragen... - net.trainfcn: Wahl des numerischen Optimierungsverfahrens, z.b. Backpropagation mit Gradientenverfahren, mit zugehörigen (wählbaren) Parametern net.trainparam - net.performfcn: Funktion zum Bewerten der Abweichung vom Soll-Output (= Zielfunktion ), mit zugehörigen (wählbaren) Parametern net.performparam - net.dividefcn : Funktion, die bestimmt wie die Trainingsstichprobe aufgeteilt wird in Teile zum eigentlichen Trainieren und Teile zum Validieren (Test der Trainingsperformanz, Vermeidung von Overfitting), mit zugehörigen (wählbaren) Parametern net.divideparam und net.dividemode - net.initfcn : Funktion zur Initialisierung der Gewichts und ggf. der Bias-Werte vor Start der Trainingsiterationen - net.plotfcns : Hinterlegt Möglichkeiten, das Training mithilfe verschiedener Plots auszuwerten 38

39 Neural Matlab 78 Grafische Darstellung Neural Matlab 79 Grafische Darstellung Input für N-dimensionale Merkmalsvektoren (hier N=2, optional >1 Inputs) Output (formal) Verborgener Layer mit K Neuronen (hier K=10) Gewichten für jede Verbindung zum Input Bias (optional) Summierung (eigene) Aktivierungsfunktion Output-Layer mit K Neuronen (hier K=2) = 2 Outputs Gewichten für jede Verb. zu vorher. Layer Bias (optional) Summierung (eigene) Aktivierungsfunktion 39

40 Neural Matlab 80 Grafische Darstellung 40

Neuronale Netze R. Neubecker, WS 2016 / 2017

Neuronale Netze R. Neubecker, WS 2016 / 2017 Mustererkennung Neuronale Netze R. Neubecker, WS 2016 / 2017 Übersicht 2 Historisches. Biologische und andere Hardware. Aufbau: Neuronen und Netze Das Perzeptron Lernen Convolutional Neural Networks Historisches

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Intelligente Algorithmen Einführung in die Technologie

Intelligente Algorithmen Einführung in die Technologie Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Faltungsnetzwerke. (Convolutional Neural Networks) Maximilian Schmidt. Faltungsnetzwerke

Faltungsnetzwerke. (Convolutional Neural Networks) Maximilian Schmidt. Faltungsnetzwerke (Convolutional Neural Networks) Maximilian Schmidt 1 Inhalt Deconvolution ConvNet Architektur History Convolution layer Layers ReLu layer Pooling layer Beispiele Feature Engineering 2 Das Ziel Klassifizierung

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

6.2 Feed-Forward Netze

6.2 Feed-Forward Netze 6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

7. Vorlesung Neuronale Netze

7. Vorlesung Neuronale Netze Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Rekurrente / rückgekoppelte neuronale Netzwerke

Rekurrente / rückgekoppelte neuronale Netzwerke Rekurrente / rückgekoppelte neuronale Netzwerke Forschungsseminar Deep Learning 2018 Universität Leipzig 12.01.2018 Vortragender: Andreas Haselhuhn Neuronale Netzwerke Neuron besteht aus: Eingängen Summenfunktion

Mehr

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Grundlagen zu neuronalen Netzen. Kristina Tesch

Grundlagen zu neuronalen Netzen. Kristina Tesch Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks. Master Grundseminar WiSe 2014/2015 Victoria Bibaeva

Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks. Master Grundseminar WiSe 2014/2015 Victoria Bibaeva Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks Master Grundseminar WiSe 2014/2015 Victoria Bibaeva Inhalte Einführung Convolutional Neuronal Networks (Faltungsnetzwerke)

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Neuronale Netze Aufgaben 3

Neuronale Netze Aufgaben 3 Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus

Mehr

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines Mustererkennung R. Neubecker, WS 018 / 019 (SVM) kommen aus der statistischen Lerntheorie gehören zu den optimalen Klassifikatoren = SVMs minimieren nicht nur den Trainingsfehler, sondern auch den (voraussichtlichen)

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks Analyse komplexer Szenen mit Hilfe von Convolutional Anwendungen 1 Vitalij Stepanov HAW-Hamburg 24 November 2011 2 Inhalt Motivation Alternativen Problemstellung Anforderungen Lösungsansätze Zielsetzung

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Automatische Spracherkennung

Automatische Spracherkennung Automatische Spracherkennung 3 Vertiefung: Drei wichtige Algorithmen Teil 3 Soweit vorhanden ist der jeweils englische Fachbegriff, so wie er in der Fachliteratur verwendet wird, in Klammern angegeben.

Mehr

auch: Konnektionismus; subsymbolische Wissensverarbeitung

auch: Konnektionismus; subsymbolische Wissensverarbeitung 10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Neuronale Netze. Automatische Hinderniserkennung Paul Fritsche

Neuronale Netze. Automatische Hinderniserkennung Paul Fritsche 1 Neuronale Netze Automatische Hinderniserkennung 2 Hintergrund Grundlagen Tensorflow Keras Fazit 3 TTBN 4 TTBN 5 TTBN 6 TTBN 7 Biological Neural Network By BruceBlaus - Own work, CC BY 3.0 8 Artificial

Mehr

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung 26.10.2016, TP 2: Arbeiten von A.R.T. TP2: Tracking und Umfelderkennung Markerloses Tracking texturierte Objekte Umfelderkennung

Mehr

Proseminar Neuronale Netze Frühjahr 2004

Proseminar Neuronale Netze Frühjahr 2004 Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

TensorFlow Open-Source Bibliothek für maschinelles Lernen. Matthias Täschner Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig

TensorFlow Open-Source Bibliothek für maschinelles Lernen. Matthias Täschner Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig TensorFlow Open-Source Bibliothek für maschinelles Lernen Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig Motivation Renaissance bei ML und KNN Forschung bei DNN fortgeschrittene

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN

MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN FRANK ORBEN, TECHNICAL SUPPORT / DEVELOPER IMAGE PROCESSING, STEMMER IMAGING GLIEDERUNG Einführung Aufgabe: Klassifikation

Mehr

Image: (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen

Image:   (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen Image: https://pixabay.com/de/netz-netzwerk-programmierung-3706562/ (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen Künstliche Intelligenz Was ist das überhaupt? Was kann sie (nicht)?

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze

Mehr

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche

Mehr

Rekurrente Neuronale Netze

Rekurrente Neuronale Netze Rekurrente Neuronale Netze Gregor Mitscha-Baude May 9, 2016 Motivation Standard neuronales Netz: Fixe Dimensionen von Input und Output! Motivation In viele Anwendungen variable Input/Output-Länge. Spracherkennung

Mehr

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM

Mehr

Adaptive Systeme. Neuronale Netze: der Backward Propagation Algorithmus. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Neuronale Netze: der Backward Propagation Algorithmus. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Neuronale Netze: der Backward Propagation Algorithmus Prof. Dr. rer. nat. Nikolaus Wulff Neuronen Schicht x 1 x 2 x 3.. θ 1 θ 2. y 1 y 2 n y j = k =1 w jk x k j y j = n k =0 w jk x k x

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock. Seite 1 Implementierung Neuronaler Netze mittels Digit-Online Algorithmen Vortrag im Rahmen des 10. Symposium Maritime Elektronik 2001 M.Haase, A.Wassatsch, D.Timmermann Seite 2 Gliederung Was sind Neuronale

Mehr

11. Neuronale Netze 1

11. Neuronale Netze 1 11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen

Mehr

Was denken denkende Maschinen? WI-Award, Crowne Plaza Zürich, Thilo Stadelmann

Was denken denkende Maschinen? WI-Award, Crowne Plaza Zürich, Thilo Stadelmann Was denken denkende Maschinen? WI-Award, Crowne Plaza Zürich, 20.10.2016 Thilo Stadelmann Was? Wie? Wohin? 1 Was ist passiert? (Eine kurze Geschichte der letzten Monate) 2 3 4 5 6 7 Generierte Sprache

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche

Mehr

Neuronale Netze u. Anwendungen, 17. Jan. 2012

Neuronale Netze u. Anwendungen, 17. Jan. 2012 Neuronale Netze u. Anwendungen, 17. Jan. 2012 Backpropagation Implementation Speed, Training Generalization Choice of Architecture Algorithms Backpropagation is Computer Intenstive during Training very

Mehr

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock. Seite 1 Optimierung der Verbindungsstrukturen in Digitalen Neuronalen Netzwerken Workshop on Biologically Inspired Methods on Modelling and Design of Circuits and Systems 5.10.2001 in Ilmenau, Germany

Mehr

DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE

DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE INHALT Einführung Künstliche neuronale Netze Die Natur als Vorbild Mathematisches Modell Optimierung Deep Learning

Mehr

Neuronale Netze I. Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München

Neuronale Netze I. Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München Neuronale Netze I Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München Email: florian.zipperle@tum.de Zusammenfassung Neuronale Netze werden im Bereich Data Mining

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

KALAHA. Erfahrungen bei der Implementation von neuronalen Netzen in APL. Dipl.Math. Ralf Herminghaus, April 2018

KALAHA. Erfahrungen bei der Implementation von neuronalen Netzen in APL. Dipl.Math. Ralf Herminghaus, April 2018 KALAHA Erfahrungen bei der Implementation von neuronalen Netzen in APL Dipl.Math. Ralf Herminghaus, April 2018 1. Die Schlagzeile 2. Die Idee APL ist eine Super-Sprache! Also: So schwierig kann das ja

Mehr

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Neuronale Netze. Seminar aus Algorithmik Stefan Craß, Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze

Mehr

Einfaches Framework für Neuronale Netze

Einfaches Framework für Neuronale Netze Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.

Mehr

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Einführung R. Neubecker, WS 2018 / 2019

Einführung R. Neubecker, WS 2018 / 2019 Mustererkennung Einführung R. Neubecker, WS 2018 / 2019 1 Übersicht Hyperebenen-Mathematik Anmerkungen Zusammenfassung Mustererkennung (Pattern recognition) Mustererkennung ist die Fähigkeit, in einer

Mehr

Finanzmarktprognose mit neuronalen Netzen

Finanzmarktprognose mit neuronalen Netzen Reihe: Quantitative Ökonomie Band 131 Herausgegeben von Prof. Dr. Eckart Bomsdorf, Köln, Prof. Dr. Wim Kösters, Bochum, und Prof. Dr. Winfried Matthes, Wuppertal Dr. Christoph A. Hövel Finanzmarktprognose

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Seminar K nowledge Engineering und L ernen in Spielen

Seminar K nowledge Engineering und L ernen in Spielen K nowledge Engineering und Lernen in Spielen Neural Networks Seminar K nowledge Engineering und L ernen in Spielen Stefan Heinje 1 Inhalt Neuronale Netze im Gehirn Umsetzung Lernen durch Backpropagation

Mehr

Eine kleine Einführung in neuronale Netze

Eine kleine Einführung in neuronale Netze Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch

Mehr

Mustererkennung und Klassifikation

Mustererkennung und Klassifikation Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick

Mehr