6.2 Feed-Forward Netze

Größe: px
Ab Seite anzeigen:

Download "6.2 Feed-Forward Netze"

Transkript

1 6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir sogenannte vorwärtsgerichtete neuronale Netze (feed forward networks), die verwendet werden können, um Regressionsund Klassifikationsprobleme zu lösen Auch wenn vorwärtsgerichtete Netze keine Perzeptren verwenden, heißen sie auch Multilayer Percepton (MLP) 25

2 Sigmoid-Neuron x 0 =1 g, w g Q R mÿ a w j x j b j=0 x m Perzeptron berechnet Linearkombination der Eingaben x j z = mx w j x j j=0 und wendet eine Aktivierungsfunktion g : R æ [0, 1] auf das Ergebnis an, um die Ausgabe zu bestimmen 26

3 Sigmoid-Neuron Bei einem Sigmoid-Neuron kommt die logistische Funktion, die wir bereits bei logistischer Regression gesehen haben, zum Einsatz g(x) = 1 1+e x = ex 1+e x

4 Feed-Forward Netze Ein vorwärtsgerichtetes neuronales Netz besteht aus einer Eingabeschicht (input layer) mit den Eingabewerten einer oder mehrerer verborgener Schichten (hidden layers) bestehend aus mehreren Sigmoid-Neuronen einer Ausgabeschicht (output layer) bestehend aus einem oder mehreren Sigmoid-Neuronen Jede Einheit der l-ten Schicht ist mit jeder Einheit der (l + 1)-ten Schicht verbunden, daher auch die Bezeichnung vorwärtsgerichtet 28

5 Feed-Forward Netze Beispiel: Vorwärtsgerichtetes neuronales Netz mit zwei verborgenen Schichten bestehend aus zwei Neuronen Eingabe Verborgene Schichten Ausgabe x 0 a (1) 0 a (2) 0 a (3) 0 w (1) 1,0 x 1 a (1) 1 a (2) 1 a (3) 1 a (4) 1 x 2 a (1) 2 a (2) 2 a (3) 2 29

6 Feed-Forward Netze Die Ausgaben der Neuronen a (l) 0 werden für die Eingabeschicht und alle inneren Schichten als 1 angenommen Das Gewicht der Verbindung zwischen dem k-ten Neuron der l-ten Schicht a k (l) und dem j-ten Neuron der (l + 1)-ten Schicht a j (l + 1) wird als w j,k (l) bezeichnet 30

7 Feed-Forward Netze Die verborgenen Schichten eines vorwärtsgerichteten neuronalen Netzes können sich in der Anzahl ihrer Neuronen unterscheiden Die Anzahl verborgener Schichten sowie die jeweilige Anzahl von Neuronen sind Hyperparameter, die wir mit den bekannten Validierungsverfahren (z.b. Kreuzvalidierung) optimieren können 31

8 Vorwärtspropagierung Die Ausgabe eines vorwärtsgerichteten neuronalen Netzes berechnen mir mittels Vorwärtspropagierung (d.h. von links nach rechts) berechne die Ausgaben der Neuronen der zweiten Schicht basierend auf den Eingaben berechne die Ausgaben der Neuronen der dritten Schicht basierend auf den Ausgaben der Neuronen der zweiten Schicht 32

9 Vorwärtspropagierung Die Ausgabe des k-ten Neuron der l-ten Schicht a k (l) wird hierbei berechnet als z (l) k = a(l 1) 0 w (l 1) k,0 + a (l 1) 1 w (l 1) k, a (l 1) m w (l 1) k,m a (l) k = g(z(l) k ) mit m als Anzahl von Neuronen in der (l - 1)-ten Schicht 33

10 Vorwärtspropagierung Beispiel: Eingabe Verborgene Schichten Ausgabe 1 x 0 1 a (2) 0 a (3) x 1 x a (2) a (2) a (3) a (3) a (4) a (2) 1 = g( )

11 Logistische Regression als neuronales Netz Eingabe Ausgabe 35

12 Mehrfachklassifikation als neuronales Netz Eingabe Ausgabe Die Ausgaben spiegeln Klassenwahrscheinlichkeiten wider 36

13 6.3 Back-Propagation Wie können wir die Gewichte eines vorwärtsgerichteten neuronalen Netzes anhand von Trainingsdaten lernen? Trainingsdaten bestehen aus Eingaben x (i) und den zugehörigen erwarteten Ausgaben y (i) bei logistischer Regression ist die Ausgabe ein Wert in {0,1} bei Mehrfachklassifikation ist die Ausgabe ein binärer Vektor (one-hot encoding) 37

14 Back-Propagation Wie beim Perzeptron betrachten wir in jeder Epoche jede der Eingaben, in zufälliger Reihenfolge, und berechnen mittels Vorwärtspropagierung die Ausgabe des neuronalen Netzes mit den aktuellen Gewichten Stimmt die Ausgabe des neuronalen Netzes nicht mit der gewünschten Ausgabe überein, müssen wir seine Gewichte derart anpassen, dass seine Ausgabe näher an die gewünschte Ausgabe rückt 38

15 Back-Propagation Das Anpassen der Gewichte erfolgt mittels einer Rückwärtspropagierung (d.h. von rechts nach links) des beobachteten Fehlers durch die Schichten der neuronalen Netzes Ist die l-te Schicht unsere Ausgabeschicht, so erhalten wir den beobachteten Fehler für eine Eingabe als (l) = a (l) y 39

16 Back-Propagation Wir propagieren den Fehler wie folgt rückwärts zur (l - 1)-ten Schicht, indem wir für jedes Neuron seinen Fehler berechnen als (l 1) j = ÿ k w (l 1) k,j (l) k a(l 1) j (1 a (l 1) j ) 40

17 Back-Propagation Das Gewicht der Verbindung zwischen dem i-ten Neuron der (l +1)-ten Schicht a i (l+1) und dem j-ten Neuron der l-ten Schicht a j (l) wird dann wie folgt aktualisiert mit Lernrate η w (l) i,j = w(l) i,j a(l) j (l+1) i 41

18 Back-Propagation Eingabe Verborgene Schichten Ausgabe 1 x 0 1 a (2) 0 a (3) 0 = (3) 1 = x 1 x a (2) a (2) a (3) (3) 2 =0.05 a (3) (3) 2 = a (4) (4) 1 =

19 Andere Architekturen neuronaler Netze Andere Architekturen neuronaler Netze existieren neben den vorwärtsgerichteten Netzen Rekurrente neuronale Netze (recurrent neural networks) enthalten Zyklen, d.h. eine Schicht kann Ausgabe nachgelagerter Schicht als Eingabe erhalten Konvolutionale neuronale Netze (convolutional neural networks) berücksichtigen die räumliche Struktur der Eingabe (z.b. eines Bildes) und fassen diese hierarchisch zusammen 43

20 Implementierung neuronaler Netze Zur Implementierung neuronaler Netze haben sich in den letzten Jahren verschiedene Bibliotheken etabliert TensorFlow ( und Theano ( erlauben das Training von Modellen auf CPU und GPU Keras ( erlaubt die einfache Spezifikation der Architektur eines neuronalen Netzes und kann zum Training auf andere TensorFlow und Theano zurückgreifen 44

21 MNIST-Datensatz Ein häufig verwendeter Datensatz im Bereich Machine Learning sind die sogenannten MNIST-Daten ( Der Datensatz enthält von Hand geschriebene Ziffern (0-9), wobei jede als Bild bestehend aus 28x28 Pixeln mit Grauwerten (0-255) abgelegt ist 45

22 MNIST-Datensatz Insgesamt sind Ziffern als Trainingsdaten und Ziffern als Testdaten enthalten Die Ziffern wurden von 250 verschiedenen Personen geschrieben, 125 davon Studierende und 125 davon Mitarbeiter des National Institute of Standards and Technology (NIST) 46

23 Neuronales Netz zur Klassifikation von Ziffern Wir verwenden nun Keras, um ein neuronales Netz zu implementieren, welches die Ziffern in die Klassen (0-9) klassifiziert Das neuronale Netz soll folgende Architektur haben die Eingabeschicht besteht aus 784 Eingabewerten zwei verborgene Schichten mit jeweils 128 Neuronen die Ausgabeschicht besteht aus 10 Neuronen 47

24 Neuronales Netz zur Klassifikation von Ziffern import numpy as np from keras.datasets import mnist from keras.models import Sequential from keras.layers.core import Dense, Activation from keras.optimizers import SGD from keras.utils import np_utils np.random.seed(1671) # Parameter des neuronalen Netzes und bzgl. Training NB_EPOCH = 100 BATCH_SIZE = 128 VERBOSE = 1 NB_CLASSES = 10 OPTIMIZER = SGD() N_HIDDEN = 128 VALIDATION_SPLIT=0.2 # MNIST-Daten herunterladen und vorbereiten (X_train, y_train), (X_test, y_test) = mnist.load_data() RESHAPED = 784 X_train = X_train.reshape(60000, RESHAPED) X_test = X_test.reshape(10000, RESHAPED) X_train = X_train.astype('float32') X_test = X_test.astype('float32') # MNIST-Daten normalisieren X_train /= 255 X_test /=

25 Neuronales Netz zur Klassifikation von Ziffern # One-Hot Encoding durchführen Y_train = np_utils.to_categorical(y_train, NB_CLASSES) Y_test = np_utils.to_categorical(y_test, NB_CLASSES) # Architektur des neuronalen Netzes beschreiben model = Sequential() model.add(dense(n_hidden, input_shape=(reshaped,))) model.add(activation('sigmoid')) model.add(dense(n_hidden)) model.add(activation('sigmoid')) model.add(dense(nb_classes)) model.add(activation('sigmoid')) model.summary() # Modell umsetzen model.compile(loss='categorical_crossentropy', optimizer=optimizer, metrics=['accuracy']) # Modell trainieren history = model.fit(x_train, Y_train, batch_size=batch_size, epochs=nb_epoch, verbose=verbose, validation_split=validation_split) # Gütemaße ausgeben score = model.evaluate(x_test, Y_test, verbose=verbose) print("test score:", score[0]) print("test accuracy:", score[1]) vgl. A. Gulli und S. Pal: Deep Learning with Keras, Packt Publishing,

26 Neuronales Netz zur Klassifikation von Ziffern Vollständiges Jupyter-Notebook unter: Das trainierte neuronale Netz erreicht auf den Testdaten nach 100 Epochen eine Genauigkeit (accuracy) von 91.85% Die Genauigkeit lässt sich durch Verwendung anderer Aktivierungsfunktionen (Rectified Linear Unit, Softmax) weiter steigern 50

27 Zusammenfassung Sigmoid-Neuron verwendet die logistische Funktion als Aktivierungsfunktion Vorwärtsgerichtete neuronale Netze besitzen mehrere verborgene Schichten, von denen aufeinanderfolgende vollständig miteinander verbunden sind Backpropagation erlaubt das Lernen von Gewichten eines vorwärtsgerichteten neuronalen Netzes Keras als aktuelle Bibliothek zur Implementierung neuronaler Netze und Training auf CPU/GPU 51

28 Literatur [1] S. Raschka: Machine Learning in Python, mitp, 2017 (Kapitel 2 und 12) [2] T. Mitchell: Machine Learning, McGraw Hill, 1997 (Kapitel 4) [3] M. A. Nielsen: Neural Networks and Deep Learning, Determination Press, [4] A. Gulli and S. Pal: Deep Learning with Keras Packt Publishing,

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus 3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos

Mehr

Neuronale Netze. Automatische Hinderniserkennung Paul Fritsche

Neuronale Netze. Automatische Hinderniserkennung Paul Fritsche 1 Neuronale Netze Automatische Hinderniserkennung 2 Hintergrund Grundlagen Tensorflow Keras Fazit 3 TTBN 4 TTBN 5 TTBN 6 TTBN 7 Biological Neural Network By BruceBlaus - Own work, CC BY 3.0 8 Artificial

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Grundlagen zu neuronalen Netzen. Kristina Tesch

Grundlagen zu neuronalen Netzen. Kristina Tesch Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Rekurrente Neuronale Netzwerke

Rekurrente Neuronale Netzwerke Rekurrente Neuronale Netzwerke Benjamin Roth Centrum für Informations- und Sprachverarbeitung Ludwig-Maximilian-Universität München beroth@cis.uni-muenchen.de Benjamin Roth (CIS) Rekurrente Neuronale Netzwerke

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Neuronale Netze Aufgaben 3

Neuronale Netze Aufgaben 3 Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???

Mehr

KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM

KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM KLAUSUR ZUM BACHELORMODUL PROBEKLAUSUR COMPUTERLINGUISTISCHE ANWENDUNGEN PROBEKLAUSUR, DR. BENJAMIN ROTH KLAUSUR AM VOR NACH MATRIKELNUMMER: STUDIENGANG: B.Sc. Computerlinguistik, B.Sc. Informatik, Magister

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Rekurrente / rückgekoppelte neuronale Netzwerke

Rekurrente / rückgekoppelte neuronale Netzwerke Rekurrente / rückgekoppelte neuronale Netzwerke Forschungsseminar Deep Learning 2018 Universität Leipzig 12.01.2018 Vortragender: Andreas Haselhuhn Neuronale Netzwerke Neuron besteht aus: Eingängen Summenfunktion

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders

Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders Kann SAS Ihre Handschrift lesen? Machine Learning am Beispiel von Stacked Denoising Autoencoders Gerhard Svolba SAS Austria Mariahilfer Straße 116 A-1070 Wien Sastools.by.gerhard@gmx.net Zusammenfassung

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Übungssitzung 1: Organisation und Orientierung Julian Hitschler ICL, Universität Heidelberg, WiSe 2016/17 27.10.2016 1 / 1 Inhalt Vorstellung Organisatorisches

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Neural Networks. mit. Tools für Computerlinguist/innen

Neural Networks. mit. Tools für Computerlinguist/innen Neural Networks mit Tools für Computerlinguist/innen WS 17 / 18 Anwendungsbeispiele Anwendungsbeispiele Anwendungsbeispiele Anwendungsbeispiele WaveNet ist ein Voice Synthesizer und ein Projekt von Google

Mehr

TensorFlow Open-Source Bibliothek für maschinelles Lernen. Matthias Täschner Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig

TensorFlow Open-Source Bibliothek für maschinelles Lernen. Matthias Täschner Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig TensorFlow Open-Source Bibliothek für maschinelles Lernen Seminar Deep Learning WS1718 Abteilung Datenbanken Universität Leipzig Motivation Renaissance bei ML und KNN Forschung bei DNN fortgeschrittene

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Klassifikationsverfahren und Neuronale Netze

Klassifikationsverfahren und Neuronale Netze Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

3.5 Entscheidungsbäume

3.5 Entscheidungsbäume 3.5 Entscheidungsbäume Entscheidungsbäume (decision trees) sind diskriminative Verfahren zur Klassifikation in zwei oder mehr Klassen; unabhängige Merkmale der Datenpunkte können nominal, ordinal oder

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung Grundlagen Neuronaler Netze und mxnet

Softwareprojektpraktikum Maschinelle Übersetzung Grundlagen Neuronaler Netze und mxnet Softwareprojektpraktikum Maschinelle Übersetzung Grundlagen Neuronaler Netze und mxnet Julian Schamper, Jan Rosendahl mtprak18@i6.informatik.rwth-aachen.de 2. Mai 2018 Human Language Technology and Pattern

Mehr

MULTILAYER-PERZEPTRON

MULTILAYER-PERZEPTRON Einleitung MULTILAYER-PERZEPTRON Die Ausarbeitung befasst sich mit den Grundlagen von Multilayer-Perzeptronen, gibt ein Beispiel für deren Anwendung und zeigt eine Möglichkeit auf, sie zu trainieren. Dabei

Mehr

2.4 Gradientenabstiegsverfahren

2.4 Gradientenabstiegsverfahren 2.4 Gradientenabstiegsverfahren Optimale Parameter lassen sich bei linearer Regression analytisch bestimmen, dennoch verwendet man in der Regel das sogenannte Gradientenabstiegsverfahren, um diese (näherungsweise)

Mehr

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation

Mehr

4.3 Hierarchisches Clustering

4.3 Hierarchisches Clustering 4.3 Hierarchisches Clustering k-means teilt Daten in disjunkte flache Cluster auf, die in keiner Beziehung zueinander stehen Hierarchische Clusteranalyse erzeugt eine Folge C 1,...,C n von Clusterings,

Mehr

Klassifikationsverfahren haben viele Anwendungen. Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar

Klassifikationsverfahren haben viele Anwendungen. Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar Rückblick Klassifikationsverfahren haben viele Anwendungen Binäres Klassifikationsverfahren auch zur Klassifikation in mehr als zwei Klassen verwendbar Konfusionsmatrix stellt Vorhersagen und Daten gegenüber

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen

Mehr

Intelligente Systeme

Intelligente Systeme Intelligente Systeme Deep Learning Prof. Dr. R. Kruse C. Braune {rudolf.kruse,christian,braune}@ovgu.de Institut für Intelligente Kooperierende Systeme Fakultät für Informatik Otto-von-Guericke Universität

Mehr

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE

DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE INHALT Einführung Künstliche neuronale Netze Die Natur als Vorbild Mathematisches Modell Optimierung Deep Learning

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Leipziger Institut für Informatik. Wintersemester Seminararbeit. im Studiengang Informatik der Universität Leipzig

Leipziger Institut für Informatik. Wintersemester Seminararbeit. im Studiengang Informatik der Universität Leipzig Leipziger Institut für Informatik Wintersemester 2017 Seminararbeit im Studiengang Informatik der Universität Leipzig Forschungsseminar Deep Learning Begriffsbildung, Konzepte und Überblick Verfasser:

Mehr

Einfaches Framework für Neuronale Netze

Einfaches Framework für Neuronale Netze Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.

Mehr

Seminar K nowledge Engineering und L ernen in Spielen

Seminar K nowledge Engineering und L ernen in Spielen K nowledge Engineering und Lernen in Spielen Neural Networks Seminar K nowledge Engineering und L ernen in Spielen Stefan Heinje 1 Inhalt Neuronale Netze im Gehirn Umsetzung Lernen durch Backpropagation

Mehr

Intelligente Algorithmen Einführung in die Technologie

Intelligente Algorithmen Einführung in die Technologie Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche

Mehr

Klassifikation von Multidimensionale Zeitreihen mit Hilfe von Deep Learning

Klassifikation von Multidimensionale Zeitreihen mit Hilfe von Deep Learning Master Informatik - Grundseminar Klassifikation von Multidimensionale Zeitreihen mit Hilfe von Deep Learning Manuel Meyer Master Grundseminar WS 2014 / 2015 Betreuender Professor: Prof. Dr.-Ing. Andreas

Mehr

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren Holger Rahlf; Reiner Schubert www.baw.de Künstlich Neuronales Netz Gliederung Einleitung Grundlagen Möglichkeit und Grenzen Anwendung

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Lösungen zur letzten Stunde & Vorbereitung

Lösungen zur letzten Stunde & Vorbereitung Wiederholung und Vorbereitung: Lösungen zur letzten Stunde & Vorbereitung martin.loesch@kit.edu (0721) 608 45944 Besprechung XOR-Aufgabe Übersicht Besprechung 3-Klassen-Aufgabe Framework für Perzeptron-Lernen

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 01 Julia Kreutzer 25. Oktober 2016 Institut für Computerlinguistik, Heidelberg 1 Übersicht 1. Deep Learning 2. Neuronale Netze 3. Vom Perceptron

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Faltungsnetzwerke. (Convolutional Neural Networks) Maximilian Schmidt. Faltungsnetzwerke

Faltungsnetzwerke. (Convolutional Neural Networks) Maximilian Schmidt. Faltungsnetzwerke (Convolutional Neural Networks) Maximilian Schmidt 1 Inhalt Deconvolution ConvNet Architektur History Convolution layer Layers ReLu layer Pooling layer Beispiele Feature Engineering 2 Das Ziel Klassifizierung

Mehr

Image: (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen

Image:   (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen Image: https://pixabay.com/de/netz-netzwerk-programmierung-3706562/ (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen Künstliche Intelligenz Was ist das überhaupt? Was kann sie (nicht)?

Mehr

Künstliche neuronale Netze am Beispiel der Klassifizierung von Scandaten

Künstliche neuronale Netze am Beispiel der Klassifizierung von Scandaten GYMNASIUM DER STADT MESCHEDE FACHARBEIT Künstliche neuronale Netze am Beispiel der Klassifizierung von Scandaten Autor: Lukas MERTENS Betreuer: C. LÖSER Konzeption und Implementierung künstlicher neuronaler

Mehr

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks Analyse komplexer Szenen mit Hilfe von Convolutional Anwendungen 1 Vitalij Stepanov HAW-Hamburg 24 November 2011 2 Inhalt Motivation Alternativen Problemstellung Anforderungen Lösungsansätze Zielsetzung

Mehr

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Automatische Erkennung und Klassifikation von Körperhaltungen und Aktivitäten

Automatische Erkennung und Klassifikation von Körperhaltungen und Aktivitäten Automatische Erkennung und Klassifikation von Körperhaltungen und Aktivitäten Dipl.-Ing. Daniel Tantinger Fraunhofer Institut für Integrierte Schaltungen IIS, Erlangen, Deutschland Automatische Erkennung

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen

Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Probleme des Backpropagation-Algorithmus und Alternativen Seminar

Mehr

Neuronale Netze. Prof. Dr. Rudolf Kruse

Neuronale Netze. Prof. Dr. Rudolf Kruse Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik rudolf.kruse@ovgu.de Christoph Doell, Rudolf Kruse Neuronale Netze

Mehr

Mann-Whitney-U-Test: Tiefenstufen

Mann-Whitney-U-Test: Tiefenstufen Mann-Whitney-U-Test: Tiefenstufen Variable Al Ca Cl DOC Fe K Mg Mn Na NO3 ph Si SO4 El. Leitfähigkeit Mann-Whitney U-Test (Piezometer.sta) Nach Var.: Tiefe Markierte Tests signifikant ab p

Mehr

Neuronale Netze und PyTorch

Neuronale Netze und PyTorch Neuronale Netze und PyTorch Helmut Schmid Centrum für Informations- und Sprachverarbeitung Ludwig-Maximilians-Universität München Stand: 9. April 2018 Helmut Schmid (CIS, LMU) Neuronale Netze und PyTorch

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Machine Learning. Kurzeinführung Erfahrungen in GIS

Machine Learning. Kurzeinführung Erfahrungen in GIS Machine Learning Kurzeinführung Erfahrungen in GIS Bernd Torchala Anlass advangeo prediction Seit über 10 Jahren entwickelt, angewandt und vertrieben Integriert bislang: Neuronale Netze, Weights of Evidence

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks. Master Grundseminar WiSe 2014/2015 Victoria Bibaeva

Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks. Master Grundseminar WiSe 2014/2015 Victoria Bibaeva Dreidimensionale Objektklassifizierung mithilfe der Convolutional Neuronal Networks Master Grundseminar WiSe 2014/2015 Victoria Bibaeva Inhalte Einführung Convolutional Neuronal Networks (Faltungsnetzwerke)

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Rekurrente Neuronale Netze

Rekurrente Neuronale Netze Rekurrente Neuronale Netze Gregor Mitscha-Baude May 9, 2016 Motivation Standard neuronales Netz: Fixe Dimensionen von Input und Output! Motivation In viele Anwendungen variable Input/Output-Länge. Spracherkennung

Mehr

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe

Mehr

Deep Learning zur Objektdetektion in Bildern mit Region-based Convolutional Neural Networks und GPU-Computing

Deep Learning zur Objektdetektion in Bildern mit Region-based Convolutional Neural Networks und GPU-Computing Fachbereich Informatik und Medien MASTERARBEIT Deep Learning zur Objektdetektion in Bildern mit Region-based Convolutional Neural Networks und GPU-Computing Vorgelegt von: Jonas Preckwinkel am: 14.03.2018

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus 3. Klassifikation Motivation Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus Beispiel: Bestimme die Herkunft eines Autos

Mehr

Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem

Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem Kai Groetenhardt Studiengang: Master Informatik 14. Juli 2012 Abstract Inhalt dieser Arbeit ist die Erläuterung

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc

Mehr

Neuronale Netze. Prof. Dr. Rudolf Kruse

Neuronale Netze. Prof. Dr. Rudolf Kruse Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik rudolf.kruse@ovgu.de Christoph Doell, Rudolf Kruse Neuronale Netze

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Überwachtes Lernen II: Netze und Support-Vektor-Maschinen

Überwachtes Lernen II: Netze und Support-Vektor-Maschinen Überwachtes Lernen II: Klassifikation und Regression - Neuronale Netze und Support-Vektor-Maschinen Praktikum: Data Warehousing und Data Mining Praktikum Data Warehousing und Mining, Sommersemester 2009

Mehr

MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN

MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN MACHINE VISION KLASSIFIKATOREN VORTEILE UND HERAUSFORDERUNGEN AUSGEWÄHLTER METHODEN FRANK ORBEN, TECHNICAL SUPPORT / DEVELOPER IMAGE PROCESSING, STEMMER IMAGING GLIEDERUNG Einführung Aufgabe: Klassifikation

Mehr

Neuronale Netze. Prof. Dr. Rudolf Kruse Christoph Doell, M.Sc.

Neuronale Netze. Prof. Dr. Rudolf Kruse Christoph Doell, M.Sc. Neuronale Netze Prof. Dr. Rudolf Kruse Christoph Doell, M.Sc. Computational Intelligence Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik kruse@iws.cs.uni-magdeburg.de Christoph Doell,

Mehr

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017 10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr