Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
|
|
- Günther Lorentz
- vor 6 Jahren
- Abrufe
Transkript
1 Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt 14. Juli 2006
2 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen Netzen: Perzeptron-Regel, Delta-Regel Unzulänglichkeiten einschichtiger Netze: XOR-Problem Eigenschaften mehrschichtiger Netze Lernen in mehrschichtigen Netzen: Backpropagation Batch-Verfahren vs. Online-Training 1
3 Typisierung nach Aktivierungsfunktion v.a. Einschichtige Netze (Inputlayer+Outputlayer) lineare Netze: Vorhersage kontinuierlicher Werte, Funktionsapproximation lineare Aktivierungsfunktion: O(I) = I + θ = j a j w j + θ, in Zukunft ist bias θ der Kompaktheit halber in I enthalten. 1 1 als 1 θ (aj = 1, w j = θ). 2
4 Netze mit binärer Heaviside-Funktion: O(I) = { 1 : I < σ 1 : I σ Für Klassifikationsaufgaben (-1 vs. 1) repräsentieren lineare Diskriminationsfunktionen v.a. Mehrschichtige Netze (incl. Hidden Layers) Sigmoide Aktivierungsfunktion (Squashing Function): O(I) = e I zur Vorhersage kontinuierlicher Werte. 3
5 Lernen in einschichtigen Netzen Einschichtige Netze mit Heaviside-Funktion: Perzeptron-Regel initialisiere Gewichte {w j } (zufällig) foreach Vektor x if (Netz gibt falsche Antwort) ändere die Gewichte w j (incl. bias) durch Addition von: w j = t x x j endif endfor 4
6 Einschichtige Lineare Netze: Delta-Regel Ziel: minimiere den quadratischen Fehler E zwischen beobachtetem o x und gewolltem t x Netz-Output für alle Inputvektoren x E = x E x = x (t x o x ) 2 mittels Gradientenabstiegsverfahren: Suche nach einem lokalen Minimum der Fehlerfunktion eines Lernproblems durch Abstieg in der Gradientenrichtung anstelle der Prüfung aller Gewichtskombinationen Gradient (informell): Vektor, der Ausmaß und Richtung des stärksten Gefälles im Fehlerfunktionsgebirge angibt; das Gebirge wird aufgespannt durch ein Koordinatensystem mit so vielen Dimensionen wie es Gewichte im Netz gibt 5
7 verändere jedes Gewicht w j proportional zur partiellen Ableitung des Fehlers nach w j x w j = η E x w j = η(t x o x )x j mit Proportionalitätskonstante η, die der Lernrate entspricht: je höher, desto stärker Gewichtsveränderungen 6
8 XOR-Problem mögliches logisches Zusammenwirken von Features: UND, ODER, EXKLUSIVES ODER (XOR; entweder nur... oder nur... ) x 0 x 1 t x XOR-Wahrheitswerte Problem: einschichtige Netze können für XOR keine Diskrimantionsfunktion repräsentieren: es gibt keine Gerade, die die 4 Punkte mit den Koordinaten x 0 und x 1 aus der XOR-Wahrheitstabelle angemessen trennen kann (d.h. die Punkte mit t x =1 auf die eine Seite und die restlichen Punkte auf die andere Seite bringt). 7
9 Lösung: Hidden Layer In den Knoten sind die Schwellen angetragen. 8
10 Eigenschaften mehrschichtiger Netze enthalten Inputschicht, Hidden Layers und Outputschicht i.d.r. eine Hidden Layer und sigmoide Aktivierungsfunktion Universelles Approximierungstheorem: jede Funktion kann mit nicht-linearen Netzen mit einer Hidden Layer approximiert werden. mächtiger als einschichtige Netze, aber Gefahr des Hängenbleibens in lokalen Optima. 9
11 Lernen in mehrschichtigen Netzen: Backpropagation Backpropagation Verallgemeinerung der Delta-Regel für beliebige Aktivierungsfunktionen und beliebig viele Schichten Problem: direkte Bestimmung von Fehlern in den Hidden Units nicht möglich Forward Pass: Anlegen von Reizen ans Netz, Berechnung der Output-Aktivität Fehlerbestimmung zwischen gewünschter und beobachteter Aktivität (vgl. Delta-Regel) Backward Pass: Ausbreitung des Fehlers zurück zur Inputschicht (Backpropagation), dabei Adjustierung der Gewichte in Abhängigkeit ihres Einflusses auf den Fehler Adjustierung durch Gradientenabstiegsverfahren (s.o.) 10
12 zu minimierender quadratischer Fehler des Netzes: E = x (t x o x ) 2 Berechnung: Input I i und Output a i eines Neurons i: I i = n a j w ij j=1 a i = O(I i ) 11
13 Gewichtsänderung mit Hilfe der partiell abgeleiteten Fehlerfunktion: (η ist die Lernrate) mit w ij = η E w ij = ηδ i a j δ i = { O (I i )(t i o i ) : falls i im Outputlayer O (I i ) k δ kw ki : falls i in Hidden Layer Bei Neuronen der Hidden Layers wird die Gewichtung in Abhängigkeit der Fehler der Neuronen k der nächsten Schicht geändert. 12
14 Batch-Verfahren vs. Online-Training Batch-Verfahren: Gewichte werden erst am Ende eines Lerniterationsschritts modifiziert. w (n) j = x x w (n) j Modifizierung von Gewicht w j nach Iterationsschritt n als Summe der Veränderungen für jeden Inputvektor x. Online-Training: Gewichte werden nach jedem Inputvektor modifiziert; hier ist Präsentationsreihenfolge der Inputvektoren von Belang. 13
Neuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
MehrDas Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell
Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2
MehrHochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer
Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind
MehrMachine Learning - Maschinen besser als das menschliche Gehirn?
Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der
MehrNeuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten
MehrKapitel LF: IV. IV. Neuronale Netze
Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c
MehrKapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06
Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und
MehrNeuronale Netze (I) Biologisches Neuronales Netz
Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung
MehrSoftcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003
Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung
MehrStructurally Evolved Neural Networks for Forecasting
Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale
MehrInnovative Information Retrieval Verfahren
Thomas Mandl Innovative Information Retrieval Verfahren Hauptseminar Wintersemester 2004/2005 Letzte Sitzung Grundlagen Heterogenität Ursachen Beispiele Lösungsansätze Visualisierung 2D-Karten heute Maschinelles
MehrSimulation neuronaler Netzwerke mit TIKAPP
Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?
MehrHandschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem
Handschrifterkennung mittels Multilayer Perceptron und Bagging auf dem Android Betriebssystem Kai Groetenhardt Studiengang: Master Informatik 14. Juli 2012 Abstract Inhalt dieser Arbeit ist die Erläuterung
MehrMachine Learning - Maschinen besser als das menschliche Gehirn?
Machine Learning - Maschinen besser als das menschliche Gehirn? Tobias Stähle 23.05.2014 1 Einführung 1.1 Was ist Machine Learning? Während am Anfang Computer noch auf das reine Ausrechnen beschränkt waren
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische
MehrUniversität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini
Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung
MehrNeuronale Netze Eine Einführung
Neuronale Netze Eine Einführung Druckversion der Internetseite www.neuronalesnetz.de Inhaltsverzeichnis Grundlagen Einleitung Units Verbindungen Input Aktivität Training und Test Matrizendarstellung Zfs.
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrKohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
Mehr(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim
(künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,
MehrKünstliche Neuronale Netze und Data Mining
Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung
MehrEinführung in. Neuronale Netze
Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrNeuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen, Einsatz z.b. für Klassifizierungsaufgaben
Mehr(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim
(künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)
MehrBeaufsichtigtes Lernen
Vortragsausarbeitung Beaufsichtigtes Lernen Seminar NEURONALE NETZE Leiter: Dr. B. Freisleben Sommersemester 1993 Torsten Felzer Matr.-Nr.: 805 768 6. Semester Inf Alexandra Heidger Matr.-Nr.: 810 148
MehrKünstliches binäres Neuron
Künstliches binäres Neuron G.Döben-Henisch Fachbereich Informatik und Ingenieurwissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de
MehrProtokoll zum Informatik Praktikum. Themenbereich: Neuronale Netze
Protokoll zum Informatik Praktikum Themenbereich: Neuronale Netze (1) Gegenstand des Praktikums (2) Beschreibung des Netzwerks (3) Der genetische Lernalgorithmus (4) Codierung der Lerndaten und Kapazität
MehrJan Parthey, Christin Seifert. 22. Mai 2003
Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.
MehrComputational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
MehrDie Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs
Die Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs 1. Klagenfurter KMU Tagung Tanja Schuschnig Alexander Brauneis Institut für Finanzmanagement 25.09.2009
MehrNeuronale Steuerungsparadigmen für autonome Roboter realisiert durch ein flexibles Software-Tool
Universität Leipzig Fakultät für Mathematik und Informatik (Institut für Informatik) Neuronale Steuerungsparadigmen für autonome Roboter realisiert durch ein flexibles Software-Tool Diplomarbeit vorgelegt
MehrInhalt. 2. Caffe meets Java
Caffe-Einführung Inhalt 1. Caffe a. Installation b. Dateien eines Netzwerks c. Aufbau eines Netzwerks d. Verwendung eines Netzwerks e. Eigenes Beispiel für ein Netzwerk f. MNIST 2. Caffe meets Java Installation
MehrIBM SPSS Neural Networks
IBM SPSS Neural Networks Neue Tools für die Erstellung von Vorhersagemodellen Highlights Untersuchen subtiler oder verdeckter Muster in den Daten Erstellen leistungsfähigerer Modelle Keine Programmierung
MehrEntwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse -
Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Development of Methods to Detect Products Made from Organic Salmon FKZ: 02OE073/1
MehrSkriptum zum ersten Teil der Einführung in die Wissensverarbeitung
Skriptum zum ersten Teil der Einführung in die Wissensverarbeitung Prof. Dr. Wolfgang Maass Institut für Grundlagen der Informationsverarbeitung Technische Universität Graz 5. März 2008 Achtung: Dies Skriptum
MehrDie Berechnung des Menschen
Munich Center for Technology in Society Die Berechnung des Menschen Wissenschaftstheoretische Grundlagen von Big Data in den Life Sciences und im Gesundheitsbereich Lehrstuhl für Philosophie und Wissenschaftstheorie
MehrFachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller
Fachhochschule Köln 07 Fakultät für Informations-, Medien-, und Elektrotechnik Institut für Nachrichtentechnik Studiengang Master Technische Informatik Konzepte des maschinellen Lernens Ausarbeitung vorgelegt
MehrGPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen
Rheinische Friedrich-Wilhelms-Universität Bonn Institut für Informatik VI Dominik Scherer GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen 8. Juni 2009 Diplomarbeit Erstgutachter: Prof.
MehrText Mining 4. Seminar Klassifikation
Text Mining 4. Seminar Klassifikation Stefan Bordag 1. Klassifikation Stringklassifikation (männliche-weibliche Vornamen) Dokument klassifikation Bayesian Neuronal network (Decision tree) (Rule learner)
MehrKapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen
Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen
MehrLernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus
Lernstrategien für Neuronale Netze - Der Backpropagation-Algorithmus Im Unterschied zu den bisher behandelten NNs mit Schwellwertfunktionen sind die NNs mit stetig differenzierbaren nichtlinearen Aktivierungsfunktionen
MehrKapitel 7. Neuronale Netze zur Datenklassifikation. 7.1 Einleitung. 7.1.1 Attraktivität neuronaler Modelle
Kapitel 7 Neuronale Netze zur Datenklassifikation 7.1 Einleitung Die Entwicklung der Neuroinformatik hat seit Beginn der 80er Jahre einen großen Aufschwung erfahren. Der wesentliche Grund dafür ist sicherlich
Mehrweitere Modelle und Methoden
weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion
MehrGrundlagen der Informationverarbeitung
Grundlagen der Informationverarbeitung Information wird im Computer binär repräsentiert. Die binär dargestellten Daten sollen im Computer verarbeitet werden, d.h. es müssen Rechnerschaltungen existieren,
MehrULM. Intelligenter Greifarm. ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht. Michael Awiszus Niklas Haas
ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht ULM Intelligenter Greifarm Michael Awiszus Niklas Haas Schule: GHRS Sontheim Neustraße 60-62 89567 Sontheim Robert-Bosch-Gymnasium Freistegstraße
MehrFACHHOCHSCHULE WEDEL SEMINARARBEIT
FACHHOCHSCHULE WEDEL SEMINARARBEIT in der Fachrichtung Medieninformatik Thema: Spielstrategien Eingereicht von: Nils Böckmann Schinkelring 110 22844 Norderstedt Tel. (040) 526 17 44 Erarbeitet im: 6. Semester
Mehr2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht
2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine
MehrArtificial Life und Multiagentensysteme
Vortrag im Rahmen des Seminars: Artificial Life und Multiagentensysteme Prof. Dr. Winfried Kurth Sommersemester 2003 Prognose von Zeitreihen mit GA/GP Mathias Radicke, Informatikstudent, 10. Semester Gliederung
MehrKlassifikation und statistisches Lernen
Kapitel 9 Klassifikation und statistisches Lernen 9.1 Einführung In diesem Kapitel soll die Fragestellung behandelt werden, wie Ereignisse einer Stichprobe optimal in Klassen eingeteilt werden können.
MehrTechnische Universität Chemnitz. Fakultät für Informatik. Professur Künstliche Intelligenz. Studienarbeit
Technische Universität Chemnitz Fakultät für Informatik Professur Künstliche Intelligenz Studienarbeit Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators
MehrBachelorarbeit. Tobias Hassenklöver Klassifikation hochvarianter Muster mit Faltungsnetzwerken
Bachelorarbeit Tobias Hassenklöver Klassifikation hochvarianter Muster mit Faltungsnetzwerken Fakultät Technik und Informatik Department Informatik Faculty of Engineering and Computer Science Department
MehrAdaptive Behavior from Fixed Weight Networks
Adaptive Behavior from Fixed Weight Networks Jonas Zilles, 11. Juni 007 Betreuer: Dr. Mohamed Oubbati 1 Inhaltsverzichnis 1. Abstrakt Seite 3. Einführung Seite 3 3. Problem. Seite 5 3.1. Training. Seite
Mehr1 Worum es geht Es werden n-dimensionale Hypercubi oder Hyperwürfel in isometrischer Projektion vorgestellt.
Hans Walser, [20080124a] Hypercubus 1 Worum es geht Es werden n-dimensionale Hypercubi oder Hyperwürfel in isometrischer Projektion vorgestellt. 2 Hintergrund Wir schreiben die Zahlen 0 bis 2 n 1 in n-stelliger
MehrÜbersicht. 20. Verstärkungslernen
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes
MehrNoch für heute: primitive Datentypen in JAVA. Primitive Datentypen. Pseudocode. Dezimal-, Binär- und Hexadezimalsystem. der logische Typ boolean
01.11.05 1 Noch für heute: 01.11.05 3 primitie Datentypen in JAVA Primitie Datentypen Pseudocode Name Speichergröße Wertgrenzen boolean 1 Byte false true char 2 Byte 0 65535 byte 1 Byte 128 127 short 2
MehrAnleitung zum Praktikum Künstliche Neuronale Netze. Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik
Anleitung zum Praktikum Künstliche Neuronale Netze Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik Inhaltsverzeichnis Einleitung 2. Sinn und Zweck des Praktikums KNN........................
MehrLineare Gleichungssysteme
Lineare Gleichungssysteme Sei K ein Körper, a ij K für 1 i m, 1 j n. Weiters seien b 1,..., b m K. Dann heißt a 11 x 1 + a 12 x 2 +... + a 1n x n = b 1 a 21 x 1 + a 22 x 2 +... + a 2n x n = b 2... a m1
MehrJava Einführung Operatoren Kapitel 2 und 3
Java Einführung Operatoren Kapitel 2 und 3 Inhalt dieser Einheit Operatoren (unär, binär, ternär) Rangfolge der Operatoren Zuweisungsoperatoren Vergleichsoperatoren Logische Operatoren 2 Operatoren Abhängig
MehrSeminar zum Thema Künstliche Intelligenz:
Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden
MehrUmsetzung von DEA in Excel
Umsetzung von DEA in Excel Thorsten Poddig Armin Varmaz 30. November 2005 1 Vorbemerkungen In diesem Dokument, das als Begleitmaterial zum in der Zeitschrift,,Controlling, Heft 10, 2005 veröffentlichten
MehrDaten, Informationen, Kodierung. Binärkodierung
Binärkodierung Besondere Bedeutung der Binärkodierung in der Informatik Abbildung auf Alphabet mit zwei Zeichen, in der Regel B = {0, 1} Entspricht den zwei möglichen Schaltzuständen in der Elektronik:
MehrAnwenderdokumentation Beleg Neuronale Netze
Anwenderdokumentation Beleg Neuronale Netze Analyse von Bilanzen mit Hilfe von Kohonen-Netzwerken Dresden, Dezember 2002 Thorsten Wolfer Michael Wolf Seminargruppe htw8282 htw8222 ai96 Inhaltsverzeichnis
MehrKapitel MK:IV. IV. Modellieren mit Constraints
Kapitel MK:IV IV. Modellieren mit Constraints Einführung und frühe Systeme Konsistenz I Binarization Generate-and-Test Backtracking-basierte Verfahren Konsistenz II Konsistenzanalyse Weitere Analyseverfahren
MehrÜbungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009
Übungen zur Ingenieur-Mathematik III WS 2009/10 Blatt 10 21.12.2009 Aufgabe 35: Thema: Singulärwertzerlegung und assoziierte Unterräume Sei A eine m n Matrix mit Rang r und A = UDV T ihre Singulärwertzerlegung.
MehrIBM SPSS Neural Networks 22
IBM SPSS Neural Networks 22 Hinweis Vor Verwendung dieser Informationen und des darin beschriebenen Produkts sollten die Informationen unter Bemerkungen auf Seite 21 gelesen werden. Produktinformation
MehrKünstliche Neuronale Netze
Künstliche Neuronale Netze Modul Informatik Seminar Simon Krenger, Frühlingssemester 2015 Studiengang: Informatik Autor: Simon Krenger Betreuer: Prof. Dr. Jürgen Eckerle Datum: 25.05.2015 Berner Fachhochschule
MehrKontrollstrukturen, Pseudocode und Modulo-Rechnung
Kontrollstrukturen, Pseudocode und Modulo-Rechnung CoMa-Übung III TU Berlin 29.10.2012 CoMa-Übung III (TU Berlin) Kontrollstrukturen, Pseudocode und Modulo-Rechnung 29.10.2012 1 / 1 Themen der Übung 1
MehrMotivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.
Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später
MehrMethoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien
Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Katharina Witowski katharina.witowski@dynamore.de Übersicht Beispiel Allgemeines zum LS-OPT Viewer Visualisierung von Simulationsergebnissen
MehrBachelorarbeit. Sven Lund Optimierung von Neuronalen Netzen mit Hilfe Genetischer Algorithmen
Bachelorarbeit Sven Lund Optimierung von Neuronalen Netzen mit Hilfe Genetischer Algorithmen Fakultät Technik und Informatik Studiendepartment Informatik Faculty of Engineering and Computer Science Department
MehrÜbungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 04/05. Musterlösung 9
ALBERT-LUDWIGS-UNIVERSITÄT FREIBURG INSTITUT FÜR INFORMATIK Lehrstuhl für Mustererkennung und Bildverarbeitung Prof. Dr.-Ing. Hans Burkhardt Georges-Köhler-Allee Geb. 52, Zi -29 D-79 Freiburg Tel. 76-23
Mehr3 Rechnen und Schaltnetze
3 Rechnen und Schaltnetze Arithmetik, Logik, Register Taschenrechner rste Prozessoren (z.b. Intel 4004) waren für reine Rechenaufgaben ausgelegt 4 4-Bit Register 4-Bit Datenbus 4 Kbyte Speicher 60000 Befehle/s
MehrKapitel 4: Dynamische Datenstrukturen. Algorithmen und Datenstrukturen WS 2012/13. Prof. Dr. Sándor Fekete
Kapitel 4: Dynamische Datenstrukturen Algorithmen und Datenstrukturen WS 2012/13 Prof. Dr. Sándor Fekete 4.4 Binäre Suche Aufgabenstellung: Rate eine Zahl zwischen 100 und 114! Algorithmus 4.1 INPUT: OUTPUT:
MehrTraining eines humanoiden Roboters durch maschinelles Lernen
Institut für Eingebettete Systeme und Angewandte Mathematik Training eines humanoiden Roboters durch maschinelles Lernen von Patrick Bouillon Bachelor-Arbeit im Studiengang Mechatronik und Informationstechnologie
MehrProbablistic Neural Network
Hochschule Wismar University of Applied Sciences Technology, Business and Design Fakultät für Ingenieurwissenschaften, Bereich EuI Probablistic Neural Network Betreuer: Prof. Dr.-Ing. Uwe Lämmel Abgabetermin:
Mehr1 Neuronale Netze Historisches
1 Neuronale Netze Historisches Literatur, erste Modelle 1 begleitende Literatur T.Kohonen: Associative Memory: A system theoretic approach. New York, Springer 1977 D.E.Rumelhart, J.L.McLelland: Parallel
MehrDistributed Graph Layout for Sensor Networks
Distributed Graph Layout for Sensor Networks Ausarbeitung zum Seminar Zeichnen von Graphen (WS04/05) Prof. Dr. Ulrik Brandes Basierend auf dem gleichnamigen Artikel von C. Gotsman und Y. Koren, Proceedings
MehrApproximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen
Optimale Echtzeit-Personaleinsatzplanung durch Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen 7.05.2006 Frank Köller koeller@iwi.uni-hannover.de Gliederung Motivation Vorgehensweise
MehrFakultät Wirtschaftswissenschaft
Fakultät Wirtschaftswissenschaft Matrikelnr. Name Vorname KLAUSUR: Entwurf und Implementierung von Informationssystemen (32561) TERMIN: 11.09.2013, 14.00 16.00 Uhr PRÜFER: Univ.-Prof. Dr. Stefan Strecker
MehrMerkmalbasierte Zeichenerkennung mittels neuronaler Netze
UNIVERSITÄT BAYREUTH MATHEMATISCHES INSTITUT Merkmalbasierte Zeichenerkennung mittels neuronaler Netze Diplomarbeit von Lisa Sammer Datum: 10. Mai 2005 Aufgabenstellung / Betreuung: Prof. Dr. Lars Grüne
MehrHEUTE. Datenstrukturen im Computer. Datenstrukturen. Rekursion. Feedback Evaluation. abstrakte Datenstrukturen
9.2.5 HUT 9.2.5 3 atenstrukturen im omputer atenstrukturen ie beiden fundamentalen atenstrukturen in der Praxis sind rray und Liste Rekursion Feedback valuation rray Zugriff: schnell Umordnung: langsam
MehrWas kann die Statistik zur Bankenkrise beitragen?
Was kann die Statistik zur Bankenkrise beitragen? Rafael Weißbach Lehrstuhl für Statistik, insbesondere demografischer Wandel Institut für Volkswirtschaftslehre Wirtschafts- und Sozialwissenschaftliche
MehrVorhersage von Energieverbrauch
HOCHSCHULE KONSTANZ TECHNIK, WIRTSCHAFT UND GESTALTUNG Fakultät Informatik Vorhersage von Energieverbrauch Ausarbeitung im Fach Neuronale Netze Prof. Dr. Oliver Bittel Sommersemester 2008 von Max Nagl
MehrGrowing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012
Growing neural Gas Strukturen lernen Torsten Siedel 23.05.2012 Inhalt 1. Prozess der Selbstorganisation 2. Lernen - momentan oder statistisch? 3. Vektorbasierte Neuronale Netze 4. Klassifizierung der Lernverfahren
MehrReihungen. Martin Wirsing. in Zusammenarbeit mit Matthias Hölzl und Nora Koch 11/03
Reihungen Martin Wirsing in Zusammenarbeit mit Matthias Hölzl und Nora Koch 11/03 2 Ziele Die Datenstruktur der Reihungen verstehen: mathematisch und im Speicher Grundlegende Algorithmen auf Reihungen
MehrSNMP- Netzmanagement. Fachhochschule Bonn-Rhein-Sieg. Prof. Dr. Martin Leischner Fachbereich Informatik
SNMP- Netzmanagement M. Leischner Internetkommunikation II WS 2005/06 Folie 1 SNMP.1 Management vernetzter Systeme - Aufgabe und Einordnung M. Leischner Internetkommunikation II WS 2005/06 Folie 2 Begriff
MehrKybernetik Intelligent Agents- Action Selection
Kybernetik Intelligent Agents- Action Selection Mohamed Oubbati Institut für Neuroinformatik Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 26. 06. 2012 Intelligent Agents Intelligent Agents Environment
MehrSimulation adaptiver Rauschunterdrückung
Thomas Lohse Matrikel-Nr. 11777 SG 99/041/01 Allgemeine Informatik HTW Dresden Simulation adaptiver Rauschunterdrückung Semesterbeleg im Fach Neuroinformationsverarbeitung Ort, Datum: Dresden, den 31.07.2002
MehrMethoden zur Beschreibung der Wolkenentwicklung in Satellitenbildern und ihre Anwendung zur Solarstrahlungsvorhersage
Methoden zur Beschreibung der Wolkenentwicklung in Satellitenbildern und ihre Anwendung zur Solarstrahlungsvorhersage Von der Fakultät Mathematik und Naturwissenschaften der Carl von Ossietzky Universität
MehrModellierung wirtschaftlicher Prozesse mit Neuronalen Netzen
Computerlinguistik und Künstliche Intelligenz Modellierung wirtschaftlicher Prozesse mit Neuronalen Netzen MAGISTERARBEIT ZUR ERLANGUNG DES MAGISTER ARTIUMS im Fachbereich Sprach- und Literaturwissenschaft
MehrKünstliche neuronale Netze
Lösungen zum Buch: Wissensverarbeitung Kapitel 10 Künstliche neuronale Netze Lösung 10.1 (Maschinelles Lernen) a) Ein Computerprogramm lernt aus einer Erfahrung E bezüglich einer Aufgabenklasse T und einer
MehrPositionsbestimmung mittels Wireless LAN auf mobilen Endgeräten
Positionsbestimmung mittels Wireless LAN auf mobilen Endgeräten Kolloquium von Steve Frohmeyer Referent: Prof. Dr. K. Chantelau Korreferent: Prof. Dr. M. Golz Endgeräten Steve Frohmeyer - Fachbereich Informatik
MehrOptimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen
Optimierung für Wirtschaftsinformatiker: Analytische Optimierung ohne Nebenbedingungen Dr. Nico Düvelmeyer Freitag, 1. Juli 2011 1: 1 [1,1] Inhaltsübersicht für heute 1 Einführung und Wiederholung Beispiel
Mehr1.4.12 Sin-Funktion vgl. Cos-Funktion
.4. Sgn-Funktion Informatik. Semester 36 36.4.2 Sin-Funktion vgl. Cos-Funktion Informatik. Semester 37 37 .4.3 Sqr-Funktion Informatik. Semester 38 38.4.4 Tan-Funktion Informatik. Semester 39 39 .5 Konstanten
MehrNeuronale Netze in der Robotik
Seminarvortrag Neuronale Netze in der Robotik Datum: 18.01.2002 Vortragende: Elke von Lienen Matrikelnummer: 302489 Studiengang: Informatik Inhaltsverzeichnis Einleitung 3 Biologisches Vorbild 4 Künstliche
Mehr