Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Größe: px
Ab Seite anzeigen:

Download "Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14."

Transkript

1 Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt 14. Juli 2006

2 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen Netzen: Perzeptron-Regel, Delta-Regel Unzulänglichkeiten einschichtiger Netze: XOR-Problem Eigenschaften mehrschichtiger Netze Lernen in mehrschichtigen Netzen: Backpropagation Batch-Verfahren vs. Online-Training 1

3 Typisierung nach Aktivierungsfunktion v.a. Einschichtige Netze (Inputlayer+Outputlayer) lineare Netze: Vorhersage kontinuierlicher Werte, Funktionsapproximation lineare Aktivierungsfunktion: O(I) = I + θ = j a j w j + θ, in Zukunft ist bias θ der Kompaktheit halber in I enthalten. 1 1 als 1 θ (aj = 1, w j = θ). 2

4 Netze mit binärer Heaviside-Funktion: O(I) = { 1 : I < σ 1 : I σ Für Klassifikationsaufgaben (-1 vs. 1) repräsentieren lineare Diskriminationsfunktionen v.a. Mehrschichtige Netze (incl. Hidden Layers) Sigmoide Aktivierungsfunktion (Squashing Function): O(I) = e I zur Vorhersage kontinuierlicher Werte. 3

5 Lernen in einschichtigen Netzen Einschichtige Netze mit Heaviside-Funktion: Perzeptron-Regel initialisiere Gewichte {w j } (zufällig) foreach Vektor x if (Netz gibt falsche Antwort) ändere die Gewichte w j (incl. bias) durch Addition von: w j = t x x j endif endfor 4

6 Einschichtige Lineare Netze: Delta-Regel Ziel: minimiere den quadratischen Fehler E zwischen beobachtetem o x und gewolltem t x Netz-Output für alle Inputvektoren x E = x E x = x (t x o x ) 2 mittels Gradientenabstiegsverfahren: Suche nach einem lokalen Minimum der Fehlerfunktion eines Lernproblems durch Abstieg in der Gradientenrichtung anstelle der Prüfung aller Gewichtskombinationen Gradient (informell): Vektor, der Ausmaß und Richtung des stärksten Gefälles im Fehlerfunktionsgebirge angibt; das Gebirge wird aufgespannt durch ein Koordinatensystem mit so vielen Dimensionen wie es Gewichte im Netz gibt 5

7 verändere jedes Gewicht w j proportional zur partiellen Ableitung des Fehlers nach w j x w j = η E x w j = η(t x o x )x j mit Proportionalitätskonstante η, die der Lernrate entspricht: je höher, desto stärker Gewichtsveränderungen 6

8 XOR-Problem mögliches logisches Zusammenwirken von Features: UND, ODER, EXKLUSIVES ODER (XOR; entweder nur... oder nur... ) x 0 x 1 t x XOR-Wahrheitswerte Problem: einschichtige Netze können für XOR keine Diskrimantionsfunktion repräsentieren: es gibt keine Gerade, die die 4 Punkte mit den Koordinaten x 0 und x 1 aus der XOR-Wahrheitstabelle angemessen trennen kann (d.h. die Punkte mit t x =1 auf die eine Seite und die restlichen Punkte auf die andere Seite bringt). 7

9 Lösung: Hidden Layer In den Knoten sind die Schwellen angetragen. 8

10 Eigenschaften mehrschichtiger Netze enthalten Inputschicht, Hidden Layers und Outputschicht i.d.r. eine Hidden Layer und sigmoide Aktivierungsfunktion Universelles Approximierungstheorem: jede Funktion kann mit nicht-linearen Netzen mit einer Hidden Layer approximiert werden. mächtiger als einschichtige Netze, aber Gefahr des Hängenbleibens in lokalen Optima. 9

11 Lernen in mehrschichtigen Netzen: Backpropagation Backpropagation Verallgemeinerung der Delta-Regel für beliebige Aktivierungsfunktionen und beliebig viele Schichten Problem: direkte Bestimmung von Fehlern in den Hidden Units nicht möglich Forward Pass: Anlegen von Reizen ans Netz, Berechnung der Output-Aktivität Fehlerbestimmung zwischen gewünschter und beobachteter Aktivität (vgl. Delta-Regel) Backward Pass: Ausbreitung des Fehlers zurück zur Inputschicht (Backpropagation), dabei Adjustierung der Gewichte in Abhängigkeit ihres Einflusses auf den Fehler Adjustierung durch Gradientenabstiegsverfahren (s.o.) 10

12 zu minimierender quadratischer Fehler des Netzes: E = x (t x o x ) 2 Berechnung: Input I i und Output a i eines Neurons i: I i = n a j w ij j=1 a i = O(I i ) 11

13 Gewichtsänderung mit Hilfe der partiell abgeleiteten Fehlerfunktion: (η ist die Lernrate) mit w ij = η E w ij = ηδ i a j δ i = { O (I i )(t i o i ) : falls i im Outputlayer O (I i ) k δ kw ki : falls i in Hidden Layer Bei Neuronen der Hidden Layers wird die Gewichtung in Abhängigkeit der Fehler der Neuronen k der nächsten Schicht geändert. 12

14 Batch-Verfahren vs. Online-Training Batch-Verfahren: Gewichte werden erst am Ende eines Lerniterationsschritts modifiziert. w (n) j = x x w (n) j Modifizierung von Gewicht w j nach Iterationsschritt n als Summe der Veränderungen für jeden Inputvektor x. Online-Training: Gewichte werden nach jedem Inputvektor modifiziert; hier ist Präsentationsreihenfolge der Inputvektoren von Belang. 13

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c

Mehr

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06 Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Structurally Evolved Neural Networks for Forecasting

Structurally Evolved Neural Networks for Forecasting Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale

Mehr

Innovative Information Retrieval Verfahren

Innovative Information Retrieval Verfahren Thomas Mandl Innovative Information Retrieval Verfahren Hauptseminar Wintersemester 2004/2005 Letzte Sitzung Grundlagen Heterogenität Ursachen Beispiele Lösungsansätze Visualisierung 2D-Karten heute Maschinelles

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem

Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem Kai Groetenhardt Studiengang: Master Informatik 14. Juli 2012 Abstract Inhalt dieser Arbeit ist die Erläuterung

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Tobias Stähle 23.05.2014 1 Einführung 1.1 Was ist Machine Learning? Während am Anfang Computer noch auf das reine Ausrechnen beschränkt waren

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung

Mehr

Neuronale Netze Eine Einführung

Neuronale Netze Eine Einführung Neuronale Netze Eine Einführung Druckversion der Internetseite www.neuronalesnetz.de Inhaltsverzeichnis Grundlagen Einleitung Units Verbindungen Input Aktivität Training und Test Matrizendarstellung Zfs.

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

Künstliche Neuronale Netze und Data Mining

Künstliche Neuronale Netze und Data Mining Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung

Mehr

Einführung in. Neuronale Netze

Einführung in. Neuronale Netze Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen, Einsatz z.b. für Klassifizierungsaufgaben

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)

Mehr

Beaufsichtigtes Lernen

Beaufsichtigtes Lernen Vortragsausarbeitung Beaufsichtigtes Lernen Seminar NEURONALE NETZE Leiter: Dr. B. Freisleben Sommersemester 1993 Torsten Felzer Matr.-Nr.: 805 768 6. Semester Inf Alexandra Heidger Matr.-Nr.: 810 148

Mehr

Künstliches binäres Neuron

Künstliches binäres Neuron Künstliches binäres Neuron G.Döben-Henisch Fachbereich Informatik und Ingenieurwissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

Protokoll zum Informatik Praktikum. Themenbereich: Neuronale Netze

Protokoll zum Informatik Praktikum. Themenbereich: Neuronale Netze Protokoll zum Informatik Praktikum Themenbereich: Neuronale Netze (1) Gegenstand des Praktikums (2) Beschreibung des Netzwerks (3) Der genetische Lernalgorithmus (4) Codierung der Lerndaten und Kapazität

Mehr

Jan Parthey, Christin Seifert. 22. Mai 2003

Jan Parthey, Christin Seifert. 22. Mai 2003 Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Die Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs

Die Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs Die Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs 1. Klagenfurter KMU Tagung Tanja Schuschnig Alexander Brauneis Institut für Finanzmanagement 25.09.2009

Mehr

Neuronale Steuerungsparadigmen für autonome Roboter realisiert durch ein flexibles Software-Tool

Neuronale Steuerungsparadigmen für autonome Roboter realisiert durch ein flexibles Software-Tool Universität Leipzig Fakultät für Mathematik und Informatik (Institut für Informatik) Neuronale Steuerungsparadigmen für autonome Roboter realisiert durch ein flexibles Software-Tool Diplomarbeit vorgelegt

Mehr

Inhalt. 2. Caffe meets Java

Inhalt. 2. Caffe meets Java Caffe-Einführung Inhalt 1. Caffe a. Installation b. Dateien eines Netzwerks c. Aufbau eines Netzwerks d. Verwendung eines Netzwerks e. Eigenes Beispiel für ein Netzwerk f. MNIST 2. Caffe meets Java Installation

Mehr

IBM SPSS Neural Networks

IBM SPSS Neural Networks IBM SPSS Neural Networks Neue Tools für die Erstellung von Vorhersagemodellen Highlights Untersuchen subtiler oder verdeckter Muster in den Daten Erstellen leistungsfähigerer Modelle Keine Programmierung

Mehr

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse -

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Development of Methods to Detect Products Made from Organic Salmon FKZ: 02OE073/1

Mehr

Skriptum zum ersten Teil der Einführung in die Wissensverarbeitung

Skriptum zum ersten Teil der Einführung in die Wissensverarbeitung Skriptum zum ersten Teil der Einführung in die Wissensverarbeitung Prof. Dr. Wolfgang Maass Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 5. März 2008 Achtung: Dies Skriptum

Mehr

Die Berechnung des Menschen

Die Berechnung des Menschen Munich Center for Technology in Society Die Berechnung des Menschen Wissenschaftstheoretische Grundlagen von Big Data in den Life Sciences und im Gesundheitsbereich Lehrstuhl für Philosophie und Wissenschaftstheorie

Mehr

Fachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller

Fachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller Fachhochschule Köln 07 Fakultät für Informations-, Medien-, und Elektrotechnik Institut für Nachrichtentechnik Studiengang Master Technische Informatik Konzepte des maschinellen Lernens Ausarbeitung vorgelegt

Mehr

GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen

GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen Rheinische Friedrich-Wilhelms-Universität Bonn Institut für Informatik VI Dominik Scherer GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen 8. Juni 2009 Diplomarbeit Erstgutachter: Prof.

Mehr

Text Mining 4. Seminar Klassifikation

Text Mining 4. Seminar Klassifikation Text Mining 4. Seminar Klassifikation Stefan Bordag 1. Klassifikation Stringklassifikation (männliche-weibliche Vornamen) Dokument klassifikation Bayesian Neuronal network (Decision tree) (Rule learner)

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus

Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus Im Unterschied zu den bisher behandelten NNs mit Schwellwertfunktionen sind die NNs mit stetig differenzierbaren nichtlinearen Aktivierungsfunktionen

Mehr

Kapitel 7. Neuronale Netze zur Datenklassifikation. 7.1 Einleitung. 7.1.1 Attraktivität neuronaler Modelle

Kapitel 7. Neuronale Netze zur Datenklassifikation. 7.1 Einleitung. 7.1.1 Attraktivität neuronaler Modelle Kapitel 7 Neuronale Netze zur Datenklassifikation 7.1 Einleitung Die Entwicklung der Neuroinformatik hat seit Beginn der 80er Jahre einen großen Aufschwung erfahren. Der wesentliche Grund dafür ist sicherlich

Mehr

weitere Modelle und Methoden

weitere Modelle und Methoden weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion

Mehr

Grundlagen der Informationverarbeitung

Grundlagen der Informationverarbeitung Grundlagen der Informationverarbeitung Information wird im Computer binär repräsentiert. Die binär dargestellten Daten sollen im Computer verarbeitet werden, d.h. es müssen Rechnerschaltungen existieren,

Mehr

ULM. Intelligenter Greifarm. ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht. Michael Awiszus Niklas Haas

ULM. Intelligenter Greifarm. ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht. Michael Awiszus Niklas Haas ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht ULM Intelligenter Greifarm Michael Awiszus Niklas Haas Schule: GHRS Sontheim Neustraße 60-62 89567 Sontheim Robert-Bosch-Gymnasium Freistegstraße

Mehr

FACHHOCHSCHULE WEDEL SEMINARARBEIT

FACHHOCHSCHULE WEDEL SEMINARARBEIT FACHHOCHSCHULE WEDEL SEMINARARBEIT in der Fachrichtung Medieninformatik Thema: Spielstrategien Eingereicht von: Nils Böckmann Schinkelring 110 22844 Norderstedt Tel. (040) 526 17 44 Erarbeitet im: 6. Semester

Mehr

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht 2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine

Mehr

Artificial Life und Multiagentensysteme

Artificial Life und Multiagentensysteme Vortrag im Rahmen des Seminars: Artificial Life und Multiagentensysteme Prof. Dr. Winfried Kurth Sommersemester 2003 Prognose von Zeitreihen mit GA/GP Mathias Radicke, Informatikstudent, 10. Semester Gliederung

Mehr

Klassifikation und statistisches Lernen

Klassifikation und statistisches Lernen Kapitel 9 Klassifikation und statistisches Lernen 9.1 Einführung In diesem Kapitel soll die Fragestellung behandelt werden, wie Ereignisse einer Stichprobe optimal in Klassen eingeteilt werden können.

Mehr

Technische Universität Chemnitz. Fakultät für Informatik. Professur Künstliche Intelligenz. Studienarbeit

Technische Universität Chemnitz. Fakultät für Informatik. Professur Künstliche Intelligenz. Studienarbeit Technische Universität Chemnitz Fakultät für Informatik Professur Künstliche Intelligenz Studienarbeit Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators

Mehr

Bachelorarbeit. Tobias Hassenklöver Klassifikation hochvarianter Muster mit Faltungsnetzwerken

Bachelorarbeit. Tobias Hassenklöver Klassifikation hochvarianter Muster mit Faltungsnetzwerken Bachelorarbeit Tobias Hassenklöver Klassifikation hochvarianter Muster mit Faltungsnetzwerken Fakultät Technik und Informatik Department Informatik Faculty of Engineering and Computer Science Department

Mehr

Adaptive Behavior from Fixed Weight Networks

Adaptive Behavior from Fixed Weight Networks Adaptive Behavior from Fixed Weight Networks Jonas Zilles, 11. Juni 007 Betreuer: Dr. Mohamed Oubbati 1 Inhaltsverzichnis 1. Abstrakt Seite 3. Einführung Seite 3 3. Problem. Seite 5 3.1. Training. Seite

Mehr

1 Worum es geht Es werden n-dimensionale Hypercubi oder Hyperwürfel in isometrischer Projektion vorgestellt.

1 Worum es geht Es werden n-dimensionale Hypercubi oder Hyperwürfel in isometrischer Projektion vorgestellt. Hans Walser, [20080124a] Hypercubus 1 Worum es geht Es werden n-dimensionale Hypercubi oder Hyperwürfel in isometrischer Projektion vorgestellt. 2 Hintergrund Wir schreiben die Zahlen 0 bis 2 n 1 in n-stelliger

Mehr

Übersicht. 20. Verstärkungslernen

Übersicht. 20. Verstärkungslernen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes

Mehr

Noch für heute: primitive Datentypen in JAVA. Primitive Datentypen. Pseudocode. Dezimal-, Binär- und Hexadezimalsystem. der logische Typ boolean

Noch für heute: primitive Datentypen in JAVA. Primitive Datentypen. Pseudocode. Dezimal-, Binär- und Hexadezimalsystem. der logische Typ boolean 01.11.05 1 Noch für heute: 01.11.05 3 primitie Datentypen in JAVA Primitie Datentypen Pseudocode Name Speichergröße Wertgrenzen boolean 1 Byte false true char 2 Byte 0 65535 byte 1 Byte 128 127 short 2

Mehr

Anleitung zum Praktikum Künstliche Neuronale Netze. Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik

Anleitung zum Praktikum Künstliche Neuronale Netze. Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik Anleitung zum Praktikum Künstliche Neuronale Netze Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik Inhaltsverzeichnis Einleitung 2. Sinn und Zweck des Praktikums KNN........................

Mehr

Lineare Gleichungssysteme

Lineare Gleichungssysteme Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1

Mehr

Java Einführung Operatoren Kapitel 2 und 3

Java Einführung Operatoren Kapitel 2 und 3 Java Einführung Operatoren Kapitel 2 und 3 Inhalt dieser Einheit Operatoren (unär, binär, ternär) Rangfolge der Operatoren Zuweisungsoperatoren Vergleichsoperatoren Logische Operatoren 2 Operatoren Abhängig

Mehr

Seminar zum Thema Künstliche Intelligenz:

Seminar zum Thema Künstliche Intelligenz: Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden

Mehr

Umsetzung von DEA in Excel

Umsetzung von DEA in Excel Umsetzung von DEA in Excel Thorsten Poddig Armin Varmaz 30. November 2005 1 Vorbemerkungen In diesem Dokument, das als Begleitmaterial zum in der Zeitschrift,,Controlling, Heft 10, 2005 veröffentlichten

Mehr

Daten, Informationen, Kodierung. Binärkodierung

Daten, Informationen, Kodierung. Binärkodierung Binärkodierung Besondere Bedeutung der Binärkodierung in der Informatik Abbildung auf Alphabet mit zwei Zeichen, in der Regel B = {0, 1} Entspricht den zwei möglichen Schaltzuständen in der Elektronik:

Mehr

Anwenderdokumentation Beleg Neuronale Netze

Anwenderdokumentation Beleg Neuronale Netze Anwenderdokumentation Beleg Neuronale Netze Analyse von Bilanzen mit Hilfe von Kohonen-Netzwerken Dresden, Dezember 2002 Thorsten Wolfer Michael Wolf Seminargruppe htw8282 htw8222 ai96 Inhaltsverzeichnis

Mehr

Kapitel MK:IV. IV. Modellieren mit Constraints

Kapitel MK:IV. IV. Modellieren mit Constraints Kapitel MK:IV IV. Modellieren mit Constraints Einführung und frühe Systeme Konsistenz I Binarization Generate-and-Test Backtracking-basierte Verfahren Konsistenz II Konsistenzanalyse Weitere Analyseverfahren

Mehr

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009

Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.

Mehr

IBM SPSS Neural Networks 22

IBM SPSS Neural Networks 22 IBM SPSS Neural Networks 22 Hinweis Vor Verwendung dieser Informationen und des darin beschriebenen Produkts sollten die Informationen unter Bemerkungen auf Seite 21 gelesen werden. Produktinformation

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze Modul Informatik Seminar Simon Krenger, Frühlingssemester 2015 Studiengang: Informatik Autor: Simon Krenger Betreuer: Prof. Dr. Jürgen Eckerle Datum: 25.05.2015 Berner Fachhochschule

Mehr

Kontrollstrukturen, Pseudocode und Modulo-Rechnung

Kontrollstrukturen, Pseudocode und Modulo-Rechnung Kontrollstrukturen, Pseudocode und Modulo-Rechnung CoMa-Übung III TU Berlin 29.10.2012 CoMa-Übung III (TU Berlin) Kontrollstrukturen, Pseudocode und Modulo-Rechnung 29.10.2012 1 / 1 Themen der Übung 1

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Katharina Witowski katharina.witowski@dynamore.de Übersicht Beispiel Allgemeines zum LS-OPT Viewer Visualisierung von Simulationsergebnissen

Mehr

Bachelorarbeit. Sven Lund Optimierung von Neuronalen Netzen mit Hilfe Genetischer Algorithmen

Bachelorarbeit. Sven Lund Optimierung von Neuronalen Netzen mit Hilfe Genetischer Algorithmen Bachelorarbeit Sven Lund Optimierung von Neuronalen Netzen mit Hilfe Genetischer Algorithmen Fakultät Technik und Informatik Studiendepartment Informatik Faculty of Engineering and Computer Science Department

Mehr

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 04/05. Musterlösung 9

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 04/05. Musterlösung 9 ALBERT-LUDWIGS-UNIVERSITÄT FREIBURG INSTITUT FÜR INFORMATIK Lehrstuhl für Mustererkennung und Bildverarbeitung Prof. Dr.-Ing. Hans Burkhardt Georges-Köhler-Allee Geb. 52, Zi -29 D-79 Freiburg Tel. 76-23

Mehr

3 Rechnen und Schaltnetze

3 Rechnen und Schaltnetze 3 Rechnen und Schaltnetze Arithmetik, Logik, Register Taschenrechner rste Prozessoren (z.b. Intel 4004) waren für reine Rechenaufgaben ausgelegt 4 4-Bit Register 4-Bit Datenbus 4 Kbyte Speicher 60000 Befehle/s

Mehr

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete

Kapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:

Mehr

Training eines humanoiden Roboters durch maschinelles Lernen

Training eines humanoiden Roboters durch maschinelles Lernen Institut für Eingebettete Systeme und Angewandte Mathematik Training eines humanoiden Roboters durch maschinelles Lernen von Patrick Bouillon Bachelor-Arbeit im Studiengang Mechatronik und Informationstechnologie

Mehr

Probablistic Neural Network

Probablistic Neural Network Hochschule Wismar University of Applied Sciences Technology, Business and Design Fakultät für Ingenieurwissenschaften, Bereich EuI Probablistic Neural Network Betreuer: Prof. Dr.-Ing. Uwe Lämmel Abgabetermin:

Mehr

1 Neuronale Netze Historisches

1 Neuronale Netze Historisches 1 Neuronale Netze Historisches Literatur, erste Modelle 1 begleitende Literatur T.Kohonen: Associative Memory: A system theoretic approach. New York, Springer 1977 D.E.Rumelhart, J.L.McLelland: Parallel

Mehr

Distributed Graph Layout for Sensor Networks

Distributed Graph Layout for Sensor Networks Distributed Graph Layout for Sensor Networks Ausarbeitung zum Seminar Zeichnen von Graphen (WS04/05) Prof. Dr. Ulrik Brandes Basierend auf dem gleichnamigen Artikel von C. Gotsman und Y. Koren, Proceedings

Mehr

Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen

Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen Optimale Echtzeit-Personaleinsatzplanung durch Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen 7.05.2006 Frank Köller koeller@iwi.uni-hannover.de Gliederung Motivation Vorgehensweise

Mehr

Fakultät Wirtschaftswissenschaft

Fakultät Wirtschaftswissenschaft Fakultät Wirtschaftswissenschaft Matrikelnr. Name Vorname KLAUSUR: Entwurf und Implementierung von Informationssystemen (32561) TERMIN: 11.09.2013, 14.00 16.00 Uhr PRÜFER: Univ.-Prof. Dr. Stefan Strecker

Mehr

Merkmalbasierte Zeichenerkennung mittels neuronaler Netze

Merkmalbasierte Zeichenerkennung mittels neuronaler Netze UNIVERSITÄT BAYREUTH MATHEMATISCHES INSTITUT Merkmalbasierte Zeichenerkennung mittels neuronaler Netze Diplomarbeit von Lisa Sammer Datum: 10. Mai 2005 Aufgabenstellung / Betreuung: Prof. Dr. Lars Grüne

Mehr

HEUTE. Datenstrukturen im Computer. Datenstrukturen. Rekursion. Feedback Evaluation. abstrakte Datenstrukturen

HEUTE. Datenstrukturen im Computer. Datenstrukturen. Rekursion. Feedback Evaluation. abstrakte Datenstrukturen 9.2.5 HUT 9.2.5 3 atenstrukturen im omputer atenstrukturen ie beiden fundamentalen atenstrukturen in der Praxis sind rray und Liste Rekursion Feedback valuation rray Zugriff: schnell Umordnung: langsam

Mehr

Was kann die Statistik zur Bankenkrise beitragen?

Was kann die Statistik zur Bankenkrise beitragen? Was kann die Statistik zur Bankenkrise beitragen? Rafael Weißbach Lehrstuhl für Statistik, insbesondere demografischer Wandel Institut für Volkswirtschaftslehre Wirtschafts- und Sozialwissenschaftliche

Mehr

Vorhersage von Energieverbrauch

Vorhersage von Energieverbrauch HOCHSCHULE KONSTANZ TECHNIK, WIRTSCHAFT UND GESTALTUNG Fakultät Informatik Vorhersage von Energieverbrauch Ausarbeitung im Fach Neuronale Netze Prof. Dr. Oliver Bittel Sommersemester 2008 von Max Nagl

Mehr

Growing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012

Growing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012 Growing neural Gas Strukturen lernen Torsten Siedel 23.05.2012 Inhalt 1. Prozess der Selbstorganisation 2. Lernen - momentan oder statistisch? 3. Vektorbasierte Neuronale Netze 4. Klassifizierung der Lernverfahren

Mehr

Reihungen. Martin Wirsing. in Zusammenarbeit mit Matthias Hölzl und Nora Koch 11/03

Reihungen. Martin Wirsing. in Zusammenarbeit mit Matthias Hölzl und Nora Koch 11/03 Reihungen Martin Wirsing in Zusammenarbeit mit Matthias Hölzl und Nora Koch 11/03 2 Ziele Die Datenstruktur der Reihungen verstehen: mathematisch und im Speicher Grundlegende Algorithmen auf Reihungen

Mehr

SNMP- Netzmanagement. Fachhochschule Bonn-Rhein-Sieg. Prof. Dr. Martin Leischner Fachbereich Informatik

SNMP- Netzmanagement. Fachhochschule Bonn-Rhein-Sieg. Prof. Dr. Martin Leischner Fachbereich Informatik SNMP- Netzmanagement M. Leischner Internetkommunikation II WS 2005/06 Folie 1 SNMP.1 Management vernetzter Systeme - Aufgabe und Einordnung M. Leischner Internetkommunikation II WS 2005/06 Folie 2 Begriff

Mehr

Kybernetik Intelligent Agents- Action Selection

Kybernetik Intelligent Agents- Action Selection Kybernetik Intelligent Agents- Action Selection Mohamed Oubbati Institut für Neuroinformatik Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 26. 06. 2012 Intelligent Agents Intelligent Agents Environment

Mehr

Simulation adaptiver Rauschunterdrückung

Simulation adaptiver Rauschunterdrückung Thomas Lohse Matrikel-Nr. 11777 SG 99/041/01 Allgemeine Informatik HTW Dresden Simulation adaptiver Rauschunterdrückung Semesterbeleg im Fach Neuroinformationsverarbeitung Ort, Datum: Dresden, den 31.07.2002

Mehr

Methoden zur Beschreibung der Wolkenentwicklung in Satellitenbildern und ihre Anwendung zur Solarstrahlungsvorhersage

Methoden zur Beschreibung der Wolkenentwicklung in Satellitenbildern und ihre Anwendung zur Solarstrahlungsvorhersage Methoden zur Beschreibung der Wolkenentwicklung in Satellitenbildern und ihre Anwendung zur Solarstrahlungsvorhersage Von der Fakultät Mathematik und Naturwissenschaften der Carl von Ossietzky Universität

Mehr

Modellierung wirtschaftlicher Prozesse mit Neuronalen Netzen

Modellierung wirtschaftlicher Prozesse mit Neuronalen Netzen Computerlinguistik und Künstliche Intelligenz Modellierung wirtschaftlicher Prozesse mit Neuronalen Netzen MAGISTERARBEIT ZUR ERLANGUNG DES MAGISTER ARTIUMS im Fachbereich Sprach- und Literaturwissenschaft

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Lösungen zum Buch: Wissensverarbeitung Kapitel 10 Künstliche neuronale Netze Lösung 10.1 (Maschinelles Lernen) a) Ein Computerprogramm lernt aus einer Erfahrung E bezüglich einer Aufgabenklasse T und einer

Mehr

Positionsbestimmung mittels Wireless LAN auf mobilen Endgeräten

Positionsbestimmung mittels Wireless LAN auf mobilen Endgeräten Positionsbestimmung mittels Wireless LAN auf mobilen Endgeräten Kolloquium von Steve Frohmeyer Referent: Prof. Dr. K. Chantelau Korreferent: Prof. Dr. M. Golz Endgeräten Steve Frohmeyer - Fachbereich Informatik

Mehr

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen

Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel

Mehr

1.4.12 Sin-Funktion vgl. Cos-Funktion

1.4.12 Sin-Funktion vgl. Cos-Funktion .4. Sgn-Funktion Informatik. Semester 36 36.4.2 Sin-Funktion vgl. Cos-Funktion Informatik. Semester 37 37 .4.3 Sqr-Funktion Informatik. Semester 38 38.4.4 Tan-Funktion Informatik. Semester 39 39 .5 Konstanten

Mehr

Neuronale Netze in der Robotik

Neuronale Netze in der Robotik Seminarvortrag Neuronale Netze in der Robotik Datum: 18.01.2002 Vortragende: Elke von Lienen Matrikelnummer: 302489 Studiengang: Informatik Inhaltsverzeichnis Einleitung 3 Biologisches Vorbild 4 Künstliche

Mehr