Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Größe: px
Ab Seite anzeigen:

Download "Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider"

Transkript

1 Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS _CI2_Deckblatt_Kennlinie_JNNS_1.doc

2

3 Inhaltsverzeichnis Inhaltsverzeichnis Release _Kennlinie_Lichtregelung_JNNS_till3_Schn6.doc IV IV.1 IV.1.1 IV.1.2 IV.1.3 IV.1.4 IV.1.5 IV.1.6 IV.2 IV.2.1 Glossar Training eines KNN zur Approximation einer Kennlinie in JavaNNS...IV-5 Versuchsanleitung...IV-5 Lernziele... IV-5 Grundlagen... IV-5 Aufgabe 1... IV-6 Aufgabe 2... IV-7 Aufgabe 3... IV-8 Aufgabe 4... IV-8 Online-Anleitung...IV-9 Training eines KNN zur Approximation einer Kennlinie in JavaNNS... IV-9... IV-29 Abbildungsverzeichnis... IV-32 Sachwortverzeichnis... IV-33 Literaturverzeichnis... IV-34 IV-3

4 Inhaltsverzeichnis IV-4

5 IV.1 Versuchsanleitung IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV.1 Versuchsanleitung IV.1.1 Lernziele Vertiefung des Umgangs mit JavaNNS Datenaufbereitung für das Training von künstlich neuronalen Netzen Auswahl von Trainings-, Validierungs- und Testdaten aus einem vorhandenen Datensatz Erzeugung und Training eines KNN zur Approximation einer unbekannten, aus der Praxis stammenden, Kennlinie Einfluss der Epochen auf das Trainingsergebnis Auswertung der Trainingsergebnisse des KNN in Excel und Fehlerbestimmung IV.1.2 Grundlagen Ein großes Anwendungsgebiet für künstlich neuronale Netze (KNN) ist das Erlernen von nichtlinearem Verhalten. Ein Beispiel dafür ist das statische Verhalten eines technischen Systems das in diesem Versuch untersucht werden soll. Das Verhalten ist gegeben durch eine Kennlinie U a = f(u e ), die nicht durch eine mathematische Funktion beschrieben werden kann. Aus diesem Grund versucht man das Verhalten durch ein KNN abzubilden. Das KNN soll nach dem Training in der Lage sein, aus den vorgegebenen Inputwerten die Outputwerte zu berechnen, ohne dass eine mathematische Modellierung des Systems erforderlich ist. Um solche Aufgabenstellungen zu lösen, verwendet man Multilayer- Perzeptron-Netze (MLP), die je nach Komplexität der Kennlinie zwei bis vier Hiddenlayer aufweisen. Um das nichtlineare Verhalten der Kennlinie zu lernen, müssen die Hiddenlayer mit einer sigmoiden Funktion aktiviert werden. Für die Eingabe- und Ausgabeschicht wird in der Regel als Aktivierungsfunktion die Identität verwendet. IV-5

6 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV.1.3 Aufgabe 1 Diese Kennlinie stellt den mathematisch unbekannten Zusammenhang zwischen der Eingangsspannung U e und der Ausgangsspannung U a dar. Abbildung IV.1: Kennlinie Lichtregelung Die vorgegebenen 20 Messwerte müssen zur Verwendung in JavaNNS zuerst normiert werden. Da das KNN mit der logistischen Funktion aktiviert werden soll, müssten die Datensätze in einem Intervall von [0 1] liegen. Anschließend müssen die 20 vorhandenen Datensätze in Trainings-, Validierungs- und Testdatensätze aufgeteilt werden. Durchführung des Praktikums: 1. Laden Sie aus dem Intranet von der Downloadseite Lehmann/Download/Computational Intelligence 2 - Praktikum die Exceldatei: Kennlinie_Lichtregelung.xls 2. Alle Daten sollen auf ein Intervall von [0,05 0,95] normiert werden. Hierbei wird für eine evtl. Extrapolation des Netzes noch eine Reserve von etwa 5% für den Aussteuerbereich vorgesehen. IV-6

7 IV.1 Versuchsanleitung 3. Aufteilung der Datensätze in einem Verhältnis von 70% für das Training, 20% zur Validierung und 10% der Daten zum Testen des Netzes 4. Aus den Datensätzen sollen die entsprechenden Pattern Dateien für Training, Validierung und Test erzeugt werden o Kennlinie_train.pat o Kennlinie_valid.pat o Kennlinie_test.pat. 5. Speichern Sie die normierte Excel-Tabelle Lichtregelung für die Versuchsausarbeitung mit einem mnemonischen Namen z.b. Kennlinie_Lichtregelung_normiert_autor.xls ab. Bitte speichern Sie Ihre Ergebnisse in Dateien mit mnemonischem Namen (z.b. kennlinie_v4_a1_autor1) auf dem Server. Hinweis: Bei der Erzeugung der Pattern Dateien ist darauf zu achten, dass diese dem von JavaNNS geforderten Format genau entsprechen. Die Pattern Dateien können in einem Texteditor für die normierten und aufgeteilten Datensätze erzeugt werden. IV.1.4 Aufgabe 2 Erzeugung und Training eines KNNs zur Approximation der Kennlinie in der Entwicklungsumgebung JavaNNS Durchführung des Praktikums: 1. Die selbst erzeugten Patterndateien laden Kennlinie_train.pat; Kennlinie_valid.pat; Kennlinie_test.pat 2. Ein KNN der Architektur erzeugen (2 Hiddenlayer) 3. Trainieren des KNNs mit dem Backpropagation- Trainingsverfahren 4. Darstellung der Trainingsergebnisse im Error Graph (RMS) 5. Speichern der Ergebnisse Bitte speichern Sie Ihre Ergebnisse in Dateien mit mnemonischem Namen (z.b. kennlinie_v4_a2_autor1) auf dem Server. IV-7

8 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV.1.5 Aufgabe 3 Auswertung der Ergebnisse des trainierten KNNs nach einem Training über 100, 200, 500, 1000 und 2000 Epochen in Excel. Durchführung des Praktikums: 1. Training des KNNs über 100 Epochen und Speichern der Test-Ergebnisse Out für die Trainingsdatensätze In 2. Denormierung der Werte Out = f(in) in Excel vornehmen 3. Importieren der Trainingsergebnisse in die zur Verfügung gestellte Vorlage Kennlinie_Lichtregelung.xls zur Auswertung der Ergebnisse 4. Gleiches Verfahren mit den Ergebnissen des Trainings nach 200, 500, 1000 und 2000 Epochen 5. Darstellung der Trainingsergebnisse für alle 5 Fälle in einem geeigneten Diagramm 6. Speichern der Ergebnisse Bitte speichern Sie Ihre Ergebnisse in Dateien mit mnemonischem Namen (z.b. kennlinie_v4_a3_autor1) auf dem Server. IV.1.6 Aufgabe 4 Pruning: Reduktion von Neuronen zur Verbesserung der Genauigkeit Durchführung des Praktikums: 1. Reduzieren Sie das KNN auf die Struktur MLP bis 5. Wie unter 1.4 durchführen Bitte speichern Sie Ihre Ergebnisse in Dateien mit mnemonischem Namen (z.b. kennlinie_v4_a4_autor1) auf dem Server. IV-8

9 IV.2 Online-Anleitung IV.2 Online-Anleitung IV.2.1 Training eines KNN zur Approximation einer Kennlinie in JavaNNS Im Folgenden sind die PPT-Folien, die für die Anleitung der Studierenden im Praktikum während der Veranstaltung gezeigt werden, dargestellt. Die aktuelle Version der PPT-Folien inkl. Notizen ist im Intranet unter Lehmann/Download/Computational Intelligence 2- Praktikum zu finden. IV-9

10 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV-10

11 IV.2 Online-Anleitung IV-11

12 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV-12

13 IV.2 Online-Anleitung IV-13

14 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV-14

15 IV.2 Online-Anleitung IV-15

16 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV-16

17 IV.2 Online-Anleitung IV-17

18 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV-18

19 IV.2 Online-Anleitung IV-19

20 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV-20

21 IV.2 Online-Anleitung IV-21

22 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV-22

23 IV.2 Online-Anleitung IV-23

24 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV-24

25 IV.2 Online-Anleitung IV-25

26 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV-26

27 IV.2 Online-Anleitung IV-27

28 IV Training eines KNN zur Approximation einer Kennlinie in JavaNNS IV-28

29 Glossar Glossar Root-Mean-Square (RMS) Mit dem mittleren quadratischen Fehler wird am häufigsten die Qualität des KNN beschrieben. Er ist folgendermaßen definiert: n 1 2 E = ( ti oi) 2 i= 1 mit E Fehler n Anzahl der Datensätze, die dem Netz vorgestellt werden t i gewünschte Sollgeometrie oder Zielwert (target) errechnete Ist-Ausgabe (output) o i Die Fehlerkurve kann in JavaNNS im Fenster Error Graph betrachtet werden. Multi-Layer-Perzeptron (MLP) Ein MLP ist ein KNN mit einer Eingabeschicht (Inputlayer), beliebig vielen verdeckten Schichten (Hiddenlayer) und einer Ausgabeschicht (Outputlayer). MLP Ein MLP ist ein KNN mit einem Inputneuron, einem ersten Hiddenlayer mit 4 Neuronen und einem zweiten mit 2 Neuronen und einem Outputneuron (Abb. IV-2). Abbildung IV.2: MLP Epoche Die Anzahl der Trainingsepochen ist bei fast jeder Entwicklungsumgebung zu Beginn des Trainings anzugeben. In einer Epoche werden dem KNN alle Trainingsdatensätze präsentiert. Nach einer Epoche werden die Gewichte angepasst (Batchtraining). Beim Online- Training werden nach jedem Datensatz die Gewichte angepasst. Trainingsdaten Die Trainingsdaten sind Eingabe- und Ausgabemuster, die dem KNN während des Trainings präsentiert werden. Anhand dieser Trainings- IV-29

30 Glossar daten wird das KNN trainiert. Während des Trainings wird die resultierende Abweichung zwischen erwünschter Ausgabe und tatsächlicher Ausgabe des KNN (Trainingsfehler) ermittelt. Validierungsdaten Die Validierungsdaten sind Eingabe- und Ausgabemuster, die dem KNN während des Trainings präsentiert werden. Anhand der daraus resultierenden Abweichung zwischen erwünschter Ausgabe und tatsächlicher Ausgabe des KNN (Validierungsfehler) wird die Generalisierungsleistung während des Trainings ermittelt. Testdaten Die Testdaten sind Eingabe- und Ausgabemuster, welche dem KNN noch nie zuvor präsentiert wurden. Anhand der daraus resultierenden Abweichung zwischen erwünschter Ausgabe und tatsächlicher Ausgabe des trainierten KNN (Testfehler) wird die Generalisierungsleistung des KNN bewertet. Normierung Vor der sinnvollen Verwendung der Datensätze (Eingabe- und Ausgabemuster) muß eine Normierung (Skalierung) erfolgen, da die meistens verwendeten Backpropagation-Netze Neuronen verwenden, die einen sigmoiden Verlauf der Aktivierung besitzen. Es ist empfehlenswert bei einer Aktivierung durch den tanh auf ein Intervall von [-1,1] zu normieren, bei einer logistischen Aktivierungsfunktion auf das Intervall von [0,1]. Des Weiteren ist zu beachten, dass bei der Normierung der Eingabe- und Ausgabemuster mit einer sigmoiden Aktivierungsfunktion 5-10% an der oberen und unteren Bandgrenze für Extrapolation des KNN zu belassen sind. Aktivierungsfunktion f act Die Aktivierungsfunktion gibt an, wie sich ein neuer Aktivierungszustand a j (t+1) des Neurons j aus der alten Aktivierung a j (t) und der Netzeingabe net j (t) ergibt a ( t+ 1) = f ( a ( t), net ( t), θ ) j act j j j wobei θ j() t der Schwellenwert des Neurons J ist und f act die Aktivierungsfunktion, die aus den angegebenen Parametern die neue Aktivierung berechnet. Sigmoide Aktivierung Sigmoide (S-förmige) Aktivierungsfunktionen lösen das Problem, dass ein Netzwerk häufig sowohl auf Signale kleiner als auch sehr großer Amplitude reagieren muss, wobei es bei kleinen Amplituden wesentlich sensibler sein muss. Sigmoide Aktivierungsfunktionen haben daher ihre höchste Sensibilität, d. h. ihre größte Steigung im Bereich um den Arbeitspunkt (Schwellenwert) θ. Anders als die bi- IV-30

31 Glossar näre Schrittfunktion sind sie aber stetig und überall differenzierbar, so dass ihre Ableitung an jeder Stelle definiert ist. Approximation: Unter Approximation versteht man im mathematischen Sinn eine Näherung. Hiddenlayer: Das ist die verborgene Schicht in einem KNN. Identität: Unter der Aktivierungsfunktion Identität wird eine lineare Aktivierungsfunktion verstanden. Error Graph: Im Error Graph wird die Fehlerkurve für Training und Validierung angezeigt. Meist ist die Fehlerkurve der mittlere quadratische Fehler. Pruning: Unter Pruning versteht man das Herausschneiden von nicht bzw. nur gering aktivierten Neuronen bzw. Verbindungsgewichten. Die Generalisierungsleistung des KNN kann somit vergrößert werden. Nach dem Pruning muss das KNN neu trainiert werden. IV-31

32 Abbildungsverzeichnis Abbildungsverzeichnis Abbildung IV.1: Kennlinie Lichtregelung...IV-6 Abbildung IV.2: MLP IV-29 IV-32

33 Sachwortverzeichnis Sachwortverzeichnis Aktivierungsfunktion... IV-5, IV-31, IV-32 Approximation... IV-3, IV-5, IV-7, IV-9, IV-32 Backpropagation...IV-7, IV-31 Epoche... IV-30 Error Graph... IV-7, IV-30, IV-32 Fehlerkurve...IV-30, IV-32 Hiddenlayer...IV-5, IV-7, IV-30, IV-32 Identität...IV-5, IV-32 Inputlayer... IV-30 JavaNNS... IV-5, IV-6, IV-7 KNN... IV-3, IV-5, IV-6, IV-7, IV-8, IV-9, IV-30, IV-31, IV-32 mittleren quadratischen Fehler... IV-30 MLP...IV-5, IV-8, IV-30, IV-33 Multi-Layer-Perzeptron... IV-30 MultilayerPerzeptron-Netze... IV-5 Normierung... IV-31 Outputlayer... IV-30 Pruning...IV-8, IV-32 RMS...IV-7, IV-30 Root-Mean-Square... IV-30 Sigmoide Aktivierung... IV-32 Testdaten...IV-5, IV-31 Trainingsdaten... IV-31 Validierungsdaten... IV-31 IV-33

34 Literaturverzeichnis Literaturverzeichnis Hinweise zur Bedienung des Entwicklungsumgebung JavaNNS und eine Kurzeinführung in JavaNNS erhalten Sie unter: Software JavaNNS incl. Handbuch : Software Java : A. Zell: Simulation neuronaler Netze U. Lehmann: Vorlesungsskript Computational Intelligence 2 VDI/VDE 3550 Blatt 1: Computational Intelligence, Künstlich Neuronale Netze in der Automatisierungstechnik; Begriffe und Definitionen; September 2001 IV-34

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Künstlich Neuronales Netz (KNN) zur Modellierung der magnetischen Flussdichte 28.01.2008 6_CI2_Deckblatt_Kugel_Matlab_2.doc

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Neuronale Netze Aufgaben 3

Neuronale Netze Aufgaben 3 Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus

Mehr

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe

Mehr

Mann-Whitney-U-Test: Tiefenstufen

Mann-Whitney-U-Test: Tiefenstufen Mann-Whitney-U-Test: Tiefenstufen Variable Al Ca Cl DOC Fe K Mg Mn Na NO3 ph Si SO4 El. Leitfähigkeit Mann-Whitney U-Test (Piezometer.sta) Nach Var.: Tiefe Markierte Tests signifikant ab p

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind

Mehr

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Internationale Energiewirtschaftstagung Wien - 12.02.2015 Maike Hasselmann, Simon Döing Einführung Wärmeversorgungsanlagen

Mehr

11. Neuronale Netze 1

11. Neuronale Netze 1 11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse -

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Development of Methods to Detect Products Made from Organic Salmon FKZ: 02OE073/1

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.

Mehr

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Eine kleine Einführung in neuronale Netze

Eine kleine Einführung in neuronale Netze Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren Holger Rahlf; Reiner Schubert www.baw.de Künstlich Neuronales Netz Gliederung Einleitung Grundlagen Möglichkeit und Grenzen Anwendung

Mehr

Grundlagen neuronaler Netzwerke

Grundlagen neuronaler Netzwerke AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Phase PROJECT NN. Im Rahmen des C++ Praktikums TU Berlin SS2002. Dokumentation der Software

Phase PROJECT NN. Im Rahmen des C++ Praktikums TU Berlin SS2002. Dokumentation der Software Phase 3 PROJECT NN Im Rahmen des C++ Praktikums TU Berlin SS2002 Dokumentation der Software PROJECT NN Vokalerkennung mit Hilfe von neuronalen Netzen Guppe null Franklingebäude FR5539 Berlin. Telefon 00

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Strommarktoptimierter Betrieb eines Stromspeichers

Strommarktoptimierter Betrieb eines Stromspeichers Strommarktoptimierter Betrieb eines Stromspeichers 1. Einleitung 2. Definition eines Strommarktes 3. Definition von Stromspeichern 4. Analyse der Ergebnisse 5. Anhang: Datenimport aus einer Tabelle in

Mehr

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation

Mehr

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40 Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)

Mehr

KNN für XOR-Funktion. 6. April 2009

KNN für XOR-Funktion. 6. April 2009 KNN für XOR-Funktion G.Döben-Henisch Fachbereich Informatik und Ingenieurswissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Klassifikationsverfahren und Neuronale Netze

Klassifikationsverfahren und Neuronale Netze Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche

Mehr

Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung

Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung Günter Faes DyStar GmbH & Co. Deutschland KG Kaiser-Wilhelm-Allee Postfach 10 04 80 D-51304 Leverkusen Telefon:

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Einführung in. Neuronale Netze

Einführung in. Neuronale Netze Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Predictive Modeling mit künstlich neuronalen Netzen

Predictive Modeling mit künstlich neuronalen Netzen München, 22. 24. Juni 2015 Predictive Modeling mit künstlich neuronalen Netzen Technische Universität Bergakademie Freiberg (Sachsen) Institut für Wirtschaftsinformatik Silbermannstraße 2, 09599 Freiberg

Mehr

Modellierung mit künstlicher Intelligenz

Modellierung mit künstlicher Intelligenz Samuel Kost kosts@mailbox.tu-freiberg.de Institut für Numerische Mathematik und Optimierung Modellierung mit künstlicher Intelligenz Ein Überblick über existierende Methoden des maschinellen Lernens 13.

Mehr

E000 Ohmscher Widerstand

E000 Ohmscher Widerstand E000 Ohmscher Widerstand Gruppe A: Collin Bo Urbon, Klara Fall, Karlo Rien Betreut von Elektromaster Am 02.11.2112 Inhalt I. Einleitung... 1 A. Widerstand und ohmsches Gesetz... 1 II. Versuch: Strom-Spannungs-Kennlinie...

Mehr

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Diplomarbeit. IT-basierte Managementunterstützung. Künstliche Neuronale Netze zur quantitativen Prognose. Andreas Wedra. Bachelor + Master Publishing

Diplomarbeit. IT-basierte Managementunterstützung. Künstliche Neuronale Netze zur quantitativen Prognose. Andreas Wedra. Bachelor + Master Publishing Diplomarbeit Andreas Wedra IT-basierte Managementunterstützung Künstliche Neuronale Netze zur quantitativen Prognose Bachelor + Master Publishing Andreas Wedra IT-basierte Managementunterstützung: Künstliche

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Linearisierung einer Funktion Tangente, Normale

Linearisierung einer Funktion Tangente, Normale Linearisierung einer Funktion Tangente, Normale 1 E Linearisierung einer Funktion Abb. 1 1: Die Gerade T ist die Tangente der Funktion y = f (x) im Punkt P Eine im Punkt x = a differenzierbare Funktion

Mehr

CD-AUSGABE (Stand: 1999) HANDBUCH KURSPROGNOSE Quantitative Methoden im Asset Management von Thorsten Poddig 676 Seiten, Uhlenbruch Verlag, 1999 erstmals als Buch publiziert EUR 79,- inkl. MwSt. und Versand

Mehr

Betriebsschwingungsformanalyse in ME scopeves auf der Basis von Analyse-Ergebnissen aus der ArtemiS SUITE

Betriebsschwingungsformanalyse in ME scopeves auf der Basis von Analyse-Ergebnissen aus der ArtemiS SUITE 08/17 Betriebsschwingungsformanalyse in ME scopeves auf der Basis von Analyse-Ergebnissen aus der ArtemiS SUITE ME scopeves von Vibrant Technology ist eine Softwareumgebung für die Betriebsschwingungs-

Mehr

Handbuch OEE Abteilung Rechner. Viktor Bitter

Handbuch OEE Abteilung Rechner. Viktor Bitter Handbuch OEE Abteilung Rechner Viktor Bitter info@oeehelp.de 04.04.2012 Inhaltsverzeichnis 1 Beschreibung... 2 2 Systemvoraussetzungen... 2 3 Erste Schritte... 2 4 Eingabe der Daten... 3 4.1 Normale Eingabe...

Mehr

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf

Monte-Carlo Tests. Diplomarbeit. Wiebke Werft. Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Monte-Carlo Tests Diplomarbeit Wiebke Werft Mathematisches Institut der Heinrich-Heine-Universität Düsseldorf Düsseldorf im Dezember 2003 Betreuung: Prof. Dr. Arnold Janssen Inhaltsverzeichnis Einleitung

Mehr

Neuronale Netze zur Prognose und Disposition im Handel

Neuronale Netze zur Prognose und Disposition im Handel Sven F. Crone Neuronale Netze zur Prognose und Disposition im Handel Mit einem Geleitwort von Prof. Dr. Dr. h. c. Dieter B. Preßmar GABLER RESEARCH Inhalt XI Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis

Mehr

1. XOR: Mit folgender Architektur geht es. x 1. x n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen ...

1. XOR: Mit folgender Architektur geht es. x 1. x n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen ... 1. XOR: Mit folgender Architektur geht es x 1 x 2 2. n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen x 1 x 2... x 2 Loading-Problem: Für eine endliche Liste binärer Trainingspaare (x(1),d(1)),l,(x(k)d(k))

Mehr

Handbuch OEE Anlage. Viktor Bitter

Handbuch OEE Anlage. Viktor Bitter / Handbuch OEE Anlage Viktor Bitter info@oeehelp.de 26.09.2014 Inhaltsverzeichnis 1 Versionshistorie... 2 2 Beschreibung... 2 3 Systemvoraussetzungen... 2 4 Erste Schritte... 3 5 Eingabe der Daten... 4

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

3.3 Absenkungsverlauf

3.3 Absenkungsverlauf 3.3 Absenkungsverlauf 3.3.1 Aufgabe 3.3.1.1 Verzögerungsfunktion Der Absenkungsverlauf des Grundwassers auf Grund einer Entnahme aus einem Brunnen (z.b. durch einen so genannten Pumpversuch) kann in erster

Mehr

Neuronale Netze - Auswertung

Neuronale Netze - Auswertung Analytisch-chemisches Praktikum 1/5 Neuronale Netze - Auswertung (Analytisch-chemisches Praktikum) Für das Beispiel sollten mindestens 20 Standardlösungen hergestellt und mittels Photometer gemessen werden(siehe

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Einführung in QtiPlot

Einführung in QtiPlot HUWagner und Julia Bek Einführung in QtiPlot 1/11 Einführung in QtiPlot Mit Bezug auf das Liebig-Lab Praktikum an der Ludwig-Maximilians-Universität München Bei Fragen und Fehlern: jubech@cup.lmu.de Inhaltsverzeichnis

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung

Mehr

Anleitung: Standardabweichung

Anleitung: Standardabweichung Anleitung: Standardabweichung So kann man mit dem V200 Erwartungswert und Varianz bzw. Standardabweichung bei Binomialverteilungen für bestimmte Werte von n, aber für allgemeines p nach der allgemeinen

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

Automatische Erkennung und Klassifikation von Körperhaltungen und Aktivitäten

Automatische Erkennung und Klassifikation von Körperhaltungen und Aktivitäten Automatische Erkennung und Klassifikation von Körperhaltungen und Aktivitäten Dipl.-Ing. Daniel Tantinger Fraunhofer Institut für Integrierte Schaltungen IIS, Erlangen, Deutschland Automatische Erkennung

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Neuronale Netze. Volker Tresp

Neuronale Netze. Volker Tresp Neuronale Netze Volker Tresp 1 Einführung Der Entwurf eines guten Klassifikators/Regressionsmodells hängt entscheidend von geeigneten Basisfunktion en ab Manchmal sind geeignete Basisfunktionen (Merkmalsextraktoren)

Mehr

Die Tangente als Näherung einer Funktion

Die Tangente als Näherung einer Funktion Die Tangente als Näherung einer Funktion Eine Motivation der Ableitung der Wurzelfunktion Marco Johannes Türk 13. Mai 2014 Marco Johannes Türk Die Tangente als Näherung einer Funktion 13. Mai 2014 1 /

Mehr

Künstliche Neuronale Netze (KNN)

Künstliche Neuronale Netze (KNN) Künstliche Neuronale Netze (KNN) Die von Neuronalen Netzen ausgehende Faszination besteht darin, dass sie in der Lage sind, in einigen Fällen Probleme von hoher Kompleität mit einfachen Mitteln zu lösen.

Mehr

Microsoft PowerPoint für Office 365 Schnellstarter

Microsoft PowerPoint für Office 365 Schnellstarter Hochschulrechenzentrum Justus-Liebig-Universität Gießen Microsoft PowerPoint für Office 365 Schnellstarter Schnellstarter in PowerPoint für Office 365 Seite 1 von 5 Inhaltsverzeichnis Einleitung... 2

Mehr

Anleitung zum Praktikum Künstliche Neuronale Netze. Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik

Anleitung zum Praktikum Künstliche Neuronale Netze. Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik Anleitung zum Praktikum Künstliche Neuronale Netze Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik Inhaltsverzeichnis Einleitung 2. Sinn und Zweck des Praktikums KNN........................

Mehr

Wilhelm Nüsser (Hrsg.) Carsten Weigand (Hrsg.) Raphael Fockel (Autor) Methoden des Data Mining im praktischen Einsatz

Wilhelm Nüsser (Hrsg.) Carsten Weigand (Hrsg.) Raphael Fockel (Autor) Methoden des Data Mining im praktischen Einsatz Wilhelm Nüsser (Hrsg.) Carsten Weigand (Hrsg.) Raphael Fockel (Autor) Methoden des Data Mining im praktischen Einsatz FHDW-Fachbericht Band 1/2009 Raphael Fockel Wilhelm Nüsser (Hrsg.) Carsten Weigand

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr