Grundlagen zu neuronalen Netzen. Kristina Tesch

Größe: px
Ab Seite anzeigen:

Download "Grundlagen zu neuronalen Netzen. Kristina Tesch"

Transkript

1 Grundlagen zu neuronalen Netzen Kristina Tesch

2 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen zu neuronalen Netzen 2/27

3 Zielsetzung x f y Kristina Tesch Grundlagen zu neuronalen Netzen 3/27

4 Zielsetzung x f y Neuronales Netz: definiert Abbildung y = f (x, θ) Kristina Tesch Grundlagen zu neuronalen Netzen 3/27

5 Zielsetzung x f y x f y Neuronales Netz: definiert Abbildung y = f (x, θ) θ Kristina Tesch Grundlagen zu neuronalen Netzen 3/27

6 Zielsetzung x f y x f y Neuronales Netz: definiert Abbildung y = f (x, θ) lernt Parameter θ θ Kristina Tesch Grundlagen zu neuronalen Netzen 3/27

7 Zielsetzung x f y x f y θ Neuronales Netz: definiert Abbildung y = f (x, θ) lernt Parameter θ zielt auf Bestapproximation der Funktion f (x) durch f (x, θ) Kristina Tesch Grundlagen zu neuronalen Netzen 3/27

8 Feedforward-Netzwerke approximierende Funktion f wird aus Funktionen zusammengesetzt Beispiel: f (x) = f 2 (f 1 (x)) Kristina Tesch Grundlagen zu neuronalen Netzen 4/27

9 Feedforward-Netzwerke approximierende Funktion f wird aus Funktionen zusammengesetzt Beispiel: f (x) = f 2 (f 1 (x)) x f 1 f 2 y Kristina Tesch Grundlagen zu neuronalen Netzen 4/27

10 Feedforward-Netzwerke approximierende Funktion f wird aus Funktionen zusammengesetzt Beispiel: f (x) = f 2 (f 1 (x)) x f 1 f 2 y x 1 f 1 1 f 2 y x 2 f 1 2 Kristina Tesch Grundlagen zu neuronalen Netzen 4/27

11 Das XOR-Problem x 2 x 1 x 2 x 1 x x 1 Kristina Tesch Grundlagen zu neuronalen Netzen 5/27

12 Lösung mit neuronalem Netz x Matrixmultiplikation Biasaddition elementw. Sigmoid y elementw. Sigmoid Vektormultiplikation Biasaddition Kristina Tesch Grundlagen zu neuronalen Netzen 6/27

13 Features im neuronalen Netz Ausgangsrepräsentation des XOR-Problems: x 2 Repräsentation durch das Hidden-Layer: a 1 2 x 1 a 1 1 Kristina Tesch Grundlagen zu neuronalen Netzen 7/27

14 Training des neuronalen Netzes Ziel: Anpassen der Parameter von f um f möglichst gut zu approximieren Wesentliche Elemente: Trainingsbeispiele Kostenfunktion bewertet die Güte der Approximation entsprechend der Aufgabe zu wählen Optimierungsverfahren Verbesserung der Parameter Kristina Tesch Grundlagen zu neuronalen Netzen 8/27

15 Beispiele für Kostenfunktionen Mittlerer quadratischer Fehler (Mean Square Error (MSE)) Klassifikationsfehler Kreuzentropie (Cross-entropy) Kristina Tesch Grundlagen zu neuronalen Netzen 9/27

16 Kreuzentropie H(P, Q) = E x P [log Q(x)] X : Zufallsvariable P, Q: Wahrscheinlichkeitsverteilungen x P: x unterliegt Wahrscheinlichkeitsverteilung P E: Erwartungswert Kristina Tesch Grundlagen zu neuronalen Netzen 10/27

17 Kreuzentropie H(P, Q) = E x P [log Q(x)] X : Zufallsvariable P, Q: Wahrscheinlichkeitsverteilungen x P: x unterliegt Wahrscheinlichkeitsverteilung P E: Erwartungswert Minimierungsproblem entspricht Maximum-Likelihood Schätzung Kristina Tesch Grundlagen zu neuronalen Netzen 10/27

18 Kreuzentropie als Kostenfunktion H(P, Q) = E y PY X [log Q(y x, θ)] X : Trainingsdaten Y : Label der Trainingsdaten P(y x): Verteilung der beobachteten Daten Q(y x): Verteilung des Modells Kristina Tesch Grundlagen zu neuronalen Netzen 11/27

19 MSE als Kostenfunktion J(θ) = E y PY X y f (x; θ) 2 2 minimiert Abstand zwischen Label und Vorhersage Maximum-Likelihood Schätzer unter Annahme P Y X = N (ˆµ, σ 2 ) feste Varianz Schätzung des Mittelwerts ˆµ = f (x, θ)...using the MSE loss makes sense if the assumption that your outputs are a real-valued function of your inputs, with a certain amount of irreducible Gaussian noise, with constant mean and variance. [1] Kristina Tesch Grundlagen zu neuronalen Netzen 12/27

20 Klassifikationsfehler als Kostenfunktion Anzahl der Klassifikationsfehler nicht stetig Beispiel [2]: Berechnet Label Richtig? ja ja nein Berechnet Label Richtig? ja ja nein Kristina Tesch Grundlagen zu neuronalen Netzen 13/27

21 Optimierungsverfahren Minimieren der Kosten durch Anpassung der Parameter basiert üblichweise auf dem Gradienten z.b. Stochastic Gradient Descent (SGD) Kristina Tesch Grundlagen zu neuronalen Netzen 14/27

22 Ableitung 4 3 f (θ) f (θ 0 ) 2 f (θ 1 ) θ Kristina Tesch Grundlagen zu neuronalen Netzen 15/27

23 Gradient 1,000 p x y 10 Kristina Tesch Grundlagen zu neuronalen Netzen 16/27

24 Backpropagation [3] Berechnen des Gradienten der Kostenfunktion Methode: Zurückpropagieren des Fehlers durch das Netz Betrachte zunächst nur ein Trainingsbeispiel (x, y) Kristina Tesch Grundlagen zu neuronalen Netzen 17/27

25 Backpropagation - Fehler δ l j Layer l 1 Layer l Layer l + 1 Neuron j in Layer l Kristina Tesch Grundlagen zu neuronalen Netzen 18/27

26 Backpropagation - Fehler δ l j Layer l 1 Layer l Layer l + 1 Fehler δ l j := C z l j Neuron j in Layer l Kristina Tesch Grundlagen zu neuronalen Netzen 18/27

27 Backpropagation - Fehler δ l j Layer l 1 Layer l Layer l + 1 Fehler δ l j := C z l j δj l klein Einfluss auf die Kosten ist gering zj l hat nahezu optimalen Wert Neuron j in Layer l Kristina Tesch Grundlagen zu neuronalen Netzen 18/27

28 Backpropagation - Fehler δ l j Layer l 1 Layer l Layer l + 1 Fehler δ l j := C z l j Neuron j in Layer l δj l klein Einfluss auf die Kosten ist gering zj l hat nahezu optimalen Wert δj l groß Einfluss auf die Kosten ist groß zj l sollte einen anderen Wert haben Kristina Tesch Grundlagen zu neuronalen Netzen 18/27

29 Backpropagation - δ L j für die letzte Schicht Ziel: Berechne δ L j = C z L j für alle Ausgabeneuronen Kristina Tesch Grundlagen zu neuronalen Netzen 19/27

30 Backpropagation - δ L j für die letzte Schicht Ziel: Berechne δ L j = C z L j für alle Ausgabeneuronen Annahme: nur ein Ausgabeneuron Kristina Tesch Grundlagen zu neuronalen Netzen 19/27

31 Backpropagation - δ L j für die letzte Schicht Ziel: Berechne δ L j = C z L j für alle Ausgabeneuronen Annahme: nur ein Ausgabeneuron C(a L ) = C(σ(z L )) Kristina Tesch Grundlagen zu neuronalen Netzen 19/27

32 Backpropagation - δ L j für die letzte Schicht Ziel: Berechne δ L j = C z L j für alle Ausgabeneuronen Annahme: nur ein Ausgabeneuron C(a L ) = C(σ(z L )) δ L j = C z L j = C a L σ (z L ) Kristina Tesch Grundlagen zu neuronalen Netzen 19/27

33 Backpropagation - δ L j für die letzte Schicht Ziel: Berechne δ L j = C z L j für alle Ausgabeneuronen Annahme: nur ein Ausgabeneuron C(a L ) = C(σ(z L )) δj L = C zj L = C a L σ (z L ) Erweiterung: k Ausgabeneuronen Kristina Tesch Grundlagen zu neuronalen Netzen 19/27

34 Backpropagation - δ L j für die letzte Schicht Ziel: Berechne δ L j = C z L j für alle Ausgabeneuronen Annahme: nur ein Ausgabeneuron C(a L ) = C(σ(z L )) δ L j = C z L j = C a L σ (z L ) Erweiterung: k Ausgabeneuronen C(a L 1,..., al k ) = C(σ(zL 1 ),..., σ(zl k )) Kristina Tesch Grundlagen zu neuronalen Netzen 19/27

35 Backpropagation - δ L j für die letzte Schicht Ziel: Berechne δ L j = C z L j für alle Ausgabeneuronen Annahme: nur ein Ausgabeneuron C(a L ) = C(σ(z L )) δj L = C zj L = C a L σ (z L ) Erweiterung: k Ausgabeneuronen C(a1 L,..., al k ) = C(σ(zL 1 ),..., σ(zl k )) δj L = C zj L = C k al k zj L = C aj L σ (z L ) a L k Kristina Tesch Grundlagen zu neuronalen Netzen 19/27

36 Backpropagation - δ l j mit Hilfe von δ l+1 k für alle k Ziel: Berechne δ l j = C z l j Kristina Tesch Grundlagen zu neuronalen Netzen 20/27

37 Backpropagation - δ l j mit Hilfe von δ l+1 k für alle k Ziel: Berechne δ l j = C z l j Umschreiben mit der Kettenregel δ l j = C z l j = k C z l+1 k zl+1 k zj l Kristina Tesch Grundlagen zu neuronalen Netzen 20/27

38 Backpropagation - δ l j mit Hilfe von δ l+1 k für alle k Ziel: Berechne δ l j = C z l j Umschreiben mit der Kettenregel δ l j = C z l j = k Einsetzen in z l+1 k C z l+1 k zl+1 k zj l z l+1 k = j w l+1 kj aj l + b l+1 k = j w l+1 kj σ(z l j ) + bl+1 k Kristina Tesch Grundlagen zu neuronalen Netzen 20/27

39 Backpropagation - δ l j mit Hilfe von δ l+1 k für alle k Ziel: Berechne δ l j = C z l j Umschreiben mit der Kettenregel δ l j = C z l j = k Einsetzen in z l+1 k C z l+1 k zl+1 k zj l z l+1 k = j w l+1 kj aj l + b l+1 k = j w l+1 kj Ableitung zl+1 k zj l σ(z l j ) + bl+1 k zl+1 k zj l = zl+1 k aj l al j z l j = w l+1 kj σ (z l j ) Kristina Tesch Grundlagen zu neuronalen Netzen 20/27

40 Backpropagation - δ l j mit Hilfe von δ l+1 k für alle k Ziel: Berechne δ l j = C z l j Umschreiben mit der Kettenregel δ l j = C z l j = k Einsetzen in z l+1 k C z l+1 k zl+1 k zj l z l+1 k = j w l+1 kj aj l + b l+1 k = j w l+1 kj Ableitung zl+1 k zj l = k δl+1 k w l+1 kj σ (z l j ) σ(z l j ) + bl+1 k zl+1 k zj l = zl+1 k aj l al j z l j = w l+1 kj σ (z l j ) Kristina Tesch Grundlagen zu neuronalen Netzen 20/27

41 Backpropagation - partielle Ableitungen C b l j und C w l kj Ziel: Berechne partielle Ableitungen des Gradienten Kristina Tesch Grundlagen zu neuronalen Netzen 21/27

42 Backpropagation - partielle Ableitungen C b l j und C w l kj Ziel: Berechne partielle Ableitungen des Gradienten gewichteter Input z l j eines Neurons z l k = j w l kj al 1 j + b l k Kristina Tesch Grundlagen zu neuronalen Netzen 21/27

43 Backpropagation - partielle Ableitungen C b l j und C w l kj Ziel: Berechne partielle Ableitungen des Gradienten gewichteter Input z l j eines Neurons z l k = j w l kj al 1 j + b l k partielle Ableitung der Kostenfunktion nach dem Bias b l j C b l j = C z l j zl j b l j = δ l j zl j b l j = δ l j Kristina Tesch Grundlagen zu neuronalen Netzen 21/27

44 Backpropagation - partielle Ableitungen C b l j und C w l kj Ziel: Berechne partielle Ableitungen des Gradienten gewichteter Input z l j z l k = j w l kj al 1 j eines Neurons + b l k partielle Ableitung der Kostenfunktion nach dem Bias b l j C bj l = C zj l zl j bj l = δj l zl j bj l = δj l partielle Ableitung der Kostenfunktion nach dem Gewicht w k j l C w l kj = C z l j z l j w l kj = δ l j z l j w l kj = δ l j a l 1 k Kristina Tesch Grundlagen zu neuronalen Netzen 21/27

45 Backpropagation Eingabe: eine Menge von m Trainingsbeispielen für jedes Trainingsbeispiel x Feedforward: berechne z x,l j und a x,l k für alle k und j Fehler in der letzten Schicht: berechne δ x,l j für alle j Backpropagation des Fehlers: berechne δ x,l j für alle l für alle j Gradient der gesamten Menge (gemittelt) Gewichte: Bias: C b l j C w l kj = 1 m = 1 m x δx,l j x δx,l j a x,l 1 k Kristina Tesch Grundlagen zu neuronalen Netzen 22/27

46 Implikationen des Backpropagation-Algorithmus Kostenfunktion ist ein Mittel über die Kosten eines einzelnen Trainingsbeispiels Kostenfunktion ist Funktion der Ausgaben des Netzes Differenzierbarkeit der Aktivierungsfunktion Saturierung der Aktivierungsfunktion führt zu kleinen Gradienten Kristina Tesch Grundlagen zu neuronalen Netzen 23/27

47 Weiterführendes Initialisierung Optimierungsverfahren (z.b. Stochastic Gradient Descent, Adam etc.) Netzarchitektur (z.b. Aktivierungsfunktion, Verbindungen, Rekurrenz etc.) Hyperparameter Regularisierung Kristina Tesch Grundlagen zu neuronalen Netzen 24/27

48 Literatur I R. Varma, Picking Loss Functions - A comparison between MSE, Cross Entropy, and Hinge Loss. Januar J. D. McCaffrey, Why You Should Use Cross-Entropy Error Instead Of Classification Error Or Mean Squared Error For Neural Network Classifier Training. November M. Nielsen, Neural networks and deep learning Kristina Tesch Grundlagen zu neuronalen Netzen 25/27

49 Literatur II Y. B. Ian Goodfellow and A. Courville, Deep learning. Book in preparation for MIT Press, Kristina Tesch Grundlagen zu neuronalen Netzen 26/27

50 Maximum Likelihood Schätzung Ziel: Schätze den gesuchten Parameter so, dass die Beobachtung besonders wahrscheinlich wird Beispiel: Urne mit 20 Kugeln (r schwarze und 20 r weiße Kugeln) ziehe 4 Kugeln ohne Zurücklegen wiederhole das Experiment mehrmals X = [1, 1, 1, 2, 1, 0] Welchen Wert hat r? Kristina Tesch Grundlagen zu neuronalen Netzen 27/27

51 Maximum Likelihood Schätzung Ziel: Schätze den gesuchten Parameter so, dass die Beobachtung besonders wahrscheinlich wird Beispiel: Urne mit 20 Kugeln (r schwarze und 20 r weiße Kugeln) ziehe 4 Kugeln ohne Zurücklegen wiederhole das Experiment mehrmals X = [1, 1, 1, 2, 1, 0] Welchen Wert hat r? r L(X, r) Kristina Tesch Grundlagen zu neuronalen Netzen 27/27

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Der Sprung in die Zukunft! Einführung in neuronale Netzwerke Inhalt 1. Warum auf einmal doch? 2. Welche Einsatzgebiete gibt es? 3. Was sind neuronale Netze und wie funktionieren sie? 4. Wie lernen neuronale

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff

Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2. Tom Schelthoff Weitere Untersuchungen hinsichtlich der Anwendung von KNN für Solvency 2 Tom Schelthoff 30.11.2018 Inhaltsverzeichnis Deep Learning Seed-Stabilität Regularisierung Early Stopping Dropout Batch Normalization

Mehr

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren Lineare Regression Christian Herta Oktober, 2013 1 von 33 Christian Herta Lineare Regression Lernziele Lineare Regression Konzepte des Maschinellen Lernens: Lernen mittels Trainingsmenge Kostenfunktion

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Leipziger Institut für Informatik. Wintersemester Seminararbeit. im Studiengang Informatik der Universität Leipzig

Leipziger Institut für Informatik. Wintersemester Seminararbeit. im Studiengang Informatik der Universität Leipzig Leipziger Institut für Informatik Wintersemester 2017 Seminararbeit im Studiengang Informatik der Universität Leipzig Forschungsseminar Deep Learning Begriffsbildung, Konzepte und Überblick Verfasser:

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

Logistische Regression

Logistische Regression Logistische Regression Christian Herta August, 2013 1 von 45 Christian Herta Logistische Regression Lernziele Logistische Regression Konzepte des maschinellen Lernens (insb. der Klassikation) Entscheidungsgrenze,

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Neuronale Netze u. Anwendungen, 17. Jan. 2012

Neuronale Netze u. Anwendungen, 17. Jan. 2012 Neuronale Netze u. Anwendungen, 17. Jan. 2012 Backpropagation Implementation Speed, Training Generalization Choice of Architecture Algorithms Backpropagation is Computer Intenstive during Training very

Mehr

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017 10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion

Mehr

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta Multivariate Lineare Regression Christian Herta Oktober, 2013 1 von 34 Christian Herta Multivariate Lineare Regression Lernziele Multivariate Lineare Regression Konzepte des Maschinellen Lernens: Kostenfunktion

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Klassifikation und Regression: nächste Nachbarn Katharina Morik, Uwe Ligges 14.05.2013 1 von 24 Gliederung Funktionsapproximation 1 Funktionsapproximation Likelihood 2 Kreuzvalidierung

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Proseminar Data Mining Julian Schmitz Fakultät für Informatik Technische Universität München Email: ga97wuy@mytum.de Zusammenfassung Diese Ausarbeitung will sich als hilfreiches

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell

Mehr

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

6.2 Feed-Forward Netze

6.2 Feed-Forward Netze 6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir

Mehr

Modellanpassung und Parameterschätzung. A: Übungsaufgaben

Modellanpassung und Parameterschätzung. A: Übungsaufgaben 7 Modellanpassung und Parameterschätzung 1 Kapitel 7: Modellanpassung und Parameterschätzung A: Übungsaufgaben [ 1 ] Bei n unabhängigen Wiederholungen eines Bernoulli-Experiments sei π die Wahrscheinlichkeit

Mehr

DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE

DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE INHALT Einführung Künstliche neuronale Netze Die Natur als Vorbild Mathematisches Modell Optimierung Deep Learning

Mehr

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum),

Parameterschätzung. Kapitel 14. Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), Kapitel 14 Parameterschätzung Modell Es sei {P θ θ Θ}, Θ R m eine Familie von Verteilungen auf χ (sog. Stichprobenraum), = ( 1,..., n ) sei eine Realisierung der Zufallsstichprobe X = (X 1,..., X n ) zu

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, May 29, 2017 Dr. Michael O. Distler

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Neuronale Netze Aufgaben 3

Neuronale Netze Aufgaben 3 Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Frequentisten und Bayesianer. Volker Tresp

Frequentisten und Bayesianer. Volker Tresp Frequentisten und Bayesianer Volker Tresp 1 Frequentisten 2 Die W-Verteilung eines Datenmusters Nehmen wir an, dass die wahre Abhängigkeit linear ist, wir jedoch nur verrauschte Daten zur Verfügung haben

Mehr

Universität des Saarlandes

Universität des Saarlandes Universität des Saarlandes FR 6.2 Informatik Prof. Dr. Kurt Mehlhorn Dr. Antonios Antoniadis André Nusser WiSe 2017/18 Übungen zu Ideen der Informatik http://www.mpi-inf.mpg.de/departments/algorithms-complexity/teaching/winter17/ideen/

Mehr

Skipgram (Word2Vec): Praktische Implementierung

Skipgram (Word2Vec): Praktische Implementierung Skipgram (Word2Vec): Praktische Implementierung Benjamin Roth Centrum für Informations- und Sprachverarbeitung Ludwig-Maximilian-Universität München beroth@cis.uni-muenchen.de Benjamin Roth (CIS) Skipgram

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung

Mehr

Varianzkomponentenschätzung

Varianzkomponentenschätzung Qualitas AG Varianzkomponentenschätzung Peter von Rohr Qualitas AG Peter von Rohr Folien ZL I+II LFW C11 October 29, 2015 2 / 23 Multiple Lineare Regression Annahmen Modell y = Xb + e Varianz der Fehler

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

Seminar K nowledge Engineering und L ernen in Spielen

Seminar K nowledge Engineering und L ernen in Spielen K nowledge Engineering und Lernen in Spielen Neural Networks Seminar K nowledge Engineering und L ernen in Spielen Stefan Heinje 1 Inhalt Neuronale Netze im Gehirn Umsetzung Lernen durch Backpropagation

Mehr

Grundlagen neuronaler Netzwerke

Grundlagen neuronaler Netzwerke AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)

Mehr

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Softwareprojektpraktikum Maschinelle Übersetzung Feedforward Modell und Praktische Anmerkungen (zum Training und mxnet)

Softwareprojektpraktikum Maschinelle Übersetzung Feedforward Modell und Praktische Anmerkungen (zum Training und mxnet) Softwareprojektpraktikum Maschinelle Übersetzung Feedforward Modell und Praktische Anmerkungen (zum Training und mxnet) Julian Schamper, Jan Rosendahl mtprak18@i6.informatik.rwth-aachen.de 9. Mai 2018

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Statistics, Data Analysis, and Simulation SS 2015

Statistics, Data Analysis, and Simulation SS 2015 Mainz, 2. Juli 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Konjugierte Prior Konjugierte Prior

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Probleme des Backpropagation-Algorithmus und Alternativen Seminar

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Mainz, 26. Juni 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Sprachtechnologie. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Sprachtechnologie Tobias Scheffer Thomas Vanck Statistik & Maschinelles Lernen Statistik: Deskriptive Statistik: Beschreibung (Tabellen,

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Lineare Regression 2: Gute Vorhersagen

Lineare Regression 2: Gute Vorhersagen Lineare Regression 2: Gute Vorhersagen Markus Kalisch 23.09.2014 1 Big Picture: Statistisches Lernen Supervised Learning (X,Y) Unsupervised Learning X VL 7, 11, 12 Regression Y kontinuierlich VL 1, 2,

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???

Mehr

Modell Komplexität und Generalisierung

Modell Komplexität und Generalisierung Modell Komplexität und Generalisierung Christian Herta November, 2013 1 von 41 Christian Herta Bias-Variance Lernziele Konzepte des maschinellen Lernens Targetfunktion Overtting, Undertting Generalisierung

Mehr

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Machine Learning. Kurzeinführung Erfahrungen in GIS

Machine Learning. Kurzeinführung Erfahrungen in GIS Machine Learning Kurzeinführung Erfahrungen in GIS Bernd Torchala Anlass advangeo prediction Seit über 10 Jahren entwickelt, angewandt und vertrieben Integriert bislang: Neuronale Netze, Weights of Evidence

Mehr

Rekurrente / rückgekoppelte neuronale Netzwerke

Rekurrente / rückgekoppelte neuronale Netzwerke Rekurrente / rückgekoppelte neuronale Netzwerke Forschungsseminar Deep Learning 2018 Universität Leipzig 12.01.2018 Vortragender: Andreas Haselhuhn Neuronale Netzwerke Neuron besteht aus: Eingängen Summenfunktion

Mehr

Projektgruppe. Text Labeling mit Sequenzmodellen

Projektgruppe. Text Labeling mit Sequenzmodellen Projektgruppe Enes Yigitbas Text Labeling mit Sequenzmodellen 4. Juni 2010 Motivation Möglichkeit der effizienten Verarbeitung von riesigen Datenmengen In vielen Bereichen erwünschte automatisierte Aufgabe:

Mehr

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren

Kapitel 9. Schätzverfahren und Konfidenzintervalle. 9.1 Grundlagen zu Schätzverfahren Kapitel 9 Schätzverfahren und Konfidenzintervalle 9.1 Grundlagen zu Schätzverfahren Für eine Messreihe x 1,...,x n wird im Folgenden angenommen, dass sie durch n gleiche Zufallsexperimente unabhängig voneinander

Mehr

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression

Überblick. Grundkonzepte des Bayes schen Lernens. Wahrscheinlichstes Modell gegeben Daten Münzwürfe Lineare Regression Logistische Regression Überblic Grundonepte des Bayes schen Lernens Wahrscheinlichstes Modell gegeben Daten Münwürfe Lineare Regression Logistische Regression Bayes sche Vorhersage Münwürfe Lineare Regression 14 Modell für Münwürfe

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Stochastik Praktikum Parametrische Schätztheorie

Stochastik Praktikum Parametrische Schätztheorie Stochastik Praktikum Parametrische Schätztheorie Thorsten Dickhaus Humboldt-Universität zu Berlin 05.10.2010 Prolog Momentenmethode X : Ω 1 Ω Zufallsgröße, die Experiment beschreibt. Ein statistisches

Mehr

Machine Learning for Visual Computing Zusammenfassung

Machine Learning for Visual Computing Zusammenfassung Machine Learning for Visual Computing Zusammenfassung Ryus October 30, 2018 Im Lernprozess für die Lehrveranstaltung Machine Learning for Visual Computing an der TU Wien habe ich dieses Dokument geschrieben.

Mehr

Übersicht. Definition Daten Problemklassen Fehlerfunktionen

Übersicht. Definition Daten Problemklassen Fehlerfunktionen Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung

Mehr

Die Prognose regionaler Beschäftigung mit Neuronalen Netzen und Genetischen Algorithmen

Die Prognose regionaler Beschäftigung mit Neuronalen Netzen und Genetischen Algorithmen Die Prognose regionaler Beschäftigung mit Neuronalen Netzen und Genetischen Algorithmen Nijkamp P., Reggiani A., Patuelli R., Longhi S. Ziele: Darstellung eines Neuronalen Netzes (NN) zur Prognose regionaler

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

Wahrscheinlichkeitstheorie 2

Wahrscheinlichkeitstheorie 2 Wahrscheinlichkeitstheorie 2 Caroline Sporleder Computational Linguistics Universität des Saarlandes Sommersemester 2011 19.05.2011 Caroline Sporleder Wahrscheinlichkeitstheorie 2 (1) Wiederholung (1):

Mehr

Frequentistische Statistik und Bayessche Statistik. Volker Tresp

Frequentistische Statistik und Bayessche Statistik. Volker Tresp Frequentistische Statistik und Bayessche Statistik Volker Tresp 1 Frequentistische Statistik 2 Herangehensweise Die Naturwissenschaft versucht es, der Natur Gesetzmäßigkeiten zu entringen: F = ma Gesetze

Mehr

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar "Statistische Methoden in der Physik"

Theorie Parameterschätzung Ausblick. Schätzung. Raimar Sandner. Studentenseminar Statistische Methoden in der Physik Studentenseminar "Statistische Methoden in der Physik" Gliederung 1 2 3 Worum geht es hier? Gliederung 1 2 3 Stichproben Gegeben eine Beobachtungsreihe x = (x 1, x 2,..., x n ): Realisierung der n-dimensionalen

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen

Mehr

Neuronale Netze. Volker Tresp

Neuronale Netze. Volker Tresp Neuronale Netze Volker Tresp 1 Einführung Der Entwurf eines guten Klassifikators/Regressionsmodells hängt entscheidend von geeigneten Basisfunktion en ab Manchmal sind geeignete Basisfunktionen (Merkmalsextraktoren)

Mehr

Marina Sedinkina Folien von Benjamin Roth Planen (CIS LMU andmünchen) Evaluieren von Machine Learning Experimenten 1 / 38

Marina Sedinkina Folien von Benjamin Roth Planen (CIS LMU andmünchen) Evaluieren von Machine Learning Experimenten 1 / 38 Planen and Evaluieren von Machine Learning Eperimenten Marina Sedinkina Folien von Benjamin Roth CIS LMU München Evaluieren von Machine Learning Eperimenten 1 / 38 Übersicht 1 Entwickeln von maschinellen

Mehr

Stochastic Processes SS 2010 Prof. Anton Wakolbinger. Klausur am 16. Juli 2010

Stochastic Processes SS 2010 Prof. Anton Wakolbinger. Klausur am 16. Juli 2010 Stochastic Processes SS 2010 Prof. Anton Wakolbinger Klausur am 16. Juli 2010 Vor- und Nachname: Matrikelnummer: Studiengang: Tutor(in): In der Klausur können 100 Punkte erreicht werden. Die Gesamtpunktezahl

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN!

Statistik Klausur Sommersemester 2013 Hamburg, BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Statistik 2 1. Klausur Sommersemester 2013 Hamburg, 26.07.2013 A BITTE LESERLICH IN DRUCKBUCHSTABEN AUSFÜLLEN! Nachname:............................................................................ Vorname:.............................................................................

Mehr

Studiengang Simulation Technology

Studiengang Simulation Technology 1. Institut für Theoretische Physik Studiengang Simulation Technology Bachelorarbeit Selbstoptimierende Neuronale Netze zur Klassifizierung von Reaktanden und Produkten in der Reaktionsdynamik Erstprüfer

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 01 Julia Kreutzer 25. Oktober 2016 Institut für Computerlinguistik, Heidelberg 1 Übersicht 1. Deep Learning 2. Neuronale Netze 3. Vom Perceptron

Mehr

6. Schätzverfahren für Parameter

6. Schätzverfahren für Parameter 6. Schätzverfahren für Parameter Ausgangssituation: Ein interessierender Zufallsvorgang werde durch die ZV X repräsentiert X habe eine unbekannte Verteilungsfunktion F X (x) Wir interessieren uns für einen

Mehr