Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07

Größe: px
Ab Seite anzeigen:

Download "Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07"

Transkript

1 Universität Regensburg Naturwissenschaftliche Informatik Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Cluster-Algorithmen II: Neural Gas Vortragender: Matthias Klein

2 Gliederung Motivation: Nachteile der SOMs Das neuronale Gas Neuronales Gas mit Hebbian Competitive Learning Wachsendes Neuronales Gas (Growing( Neural Gas) Beispielprogramme

3 Motivation Self-Organizing Maps (SOMs)) haben bestimmte Nachteile: - Die Dimension des Netzes muss vorab passend zum Problem gewählt werden Eine 1-dim. 1 Kette fügt sich in ein Rechteck Ein 2-dim. 2 Netz füllt das Rechteck nicht aus, da die Neuronen am Rand (wegen fehlender Nachbarn) nicht richtig bewegt werden können

4 Nachteile der SOMs - In der Lernphase können Verknotungen auftreten die sich nicht mehr lösen lassen - Neuronen können an Stellen liegen bleiben an denen keine Eingaben zu Erwarten sind - Bei Strukturen mit verschiedenen Dimensionalitäten versagen SOMs

5 Das Neuronale Gas (Thomas Martinetz, Klaus Schulten 1991) Ein Neuronales Gas ist definiert durch die Gewichtsvektoren w i seiner Neuronen. Diese haben anders als das SOM keine festgelegte Gitterstruktur! Sie können sich frei im Eingaberaum bewegen (-> > neuronales Gas ) Gitter eines SOM Wie im SOM gibt es nicht nur ein Siegerneuron, sondern mehrere Neuronen werden in jedem Lernschritt verändert Aber: Keine Nachbarschaftsbeziehungen mehr

6 Training eines neuronalen Gases Initialisierung: Verteile die Neuronen (grüne Punkte) zufällig im Eingaberaum (In diesem Beispiel eine zwei- dimensionale Fläche)

7 Training eines neuronalen Gases 1. Lernschritt: Berechne den Abstand zwischen dem Trainingswert x (roter Punkt) und den Neuronen w i (grüne Punkte)

8 Training eines neuronalen Gases 2. Lernschritt: Alle Neuronen erhalten einen Rang je nach Abstand zum Trainingswert: k = 1,2,3, Das Siegerneuron erhält k = 1, das zweitbeste k = 2 etc.

9 Training eines neuronalen Gases 3. Lernschritt: Bewege eine bestimmte Anzahl der nächstgelegenen Neuronen in Richtung des Trainingsvektors nach folgender Lernregel: w k (neu) = w k + (x - w k ) * η * exp (- k / λ) w k x η λ Position des Neurons k Position des Trainingswerts Lernrate Nachbarschaftsgröß öße Die e-funktion e entspricht der Nachbarschaftsfunktion des SOM, bezieht sich aber jetzt auf den Eingaberaum!

10 Training eines neuronalen Gases 4. Lernschritt: Verkleinere λ und η in der Formel w k = w k + (x - w k ) * η * exp (- k / λ) Dann zurück zu Schritt 1 mit dem nächsten Trainingswert. λ und η müssen anfangs geeignet gewählt werden; Durch die Absenkung mit der Zeit bzw. mit den Lernschritten lernt das NG am Anfang sehr viel, aber auch ungenau, später immer weniger, aber genauer, bis das Netz schließlich lich einfriert.

11 Neural Gas Vorteile: - Das neuronale Gas kann (fast) immer die Topologie des Problems gut abdecken - Man muss nicht vorab eine geeignete Dimension für das Problem erraten Nachteil: Wegen des fehlenden Netzes (= fehlende Nachbarschaftsbeziehungen zwischen den Neuronen) wird die Topologie des Problems nicht sichtbar gemacht. (Bei höherdimensionalen Topologien, die nicht von selbst anschaulich sind) -> > Zwei Ansätze um eine Topologierepräsentation einzuführen: - Neuronales Gas mit Competitive Hebbian Learning - Das wachsende Neuronale Gas (Growing( Neural Gas)

12 Neural Gas mit Competitive Hebbian Learning Martinetz, Schulten 1991/1994 Prinzipiell der gleiche Mechanismus wie beim Neuronalen Gas Zusätzlich zur Bewegung der Neuronen werden Verbindungen zwischen bestimmten Neuronen erstellt, dadurch entstehen Nachbarschaftsbeziehungen.

13 Neural Gas mit Competitive Hebbian Learning Bei jedem Lernschritt wird eine Verbindungslinie zwischen dem besten und dem zweitbesten Neuron erstellt.

14 Neural Gas mit Competitive Hebbian Learning So entsteht während des Trainings eine Gitterstruktur.

15 Neural Gas mit Competitive Hebbian Learning Außerdem: Jede Linie hat ein Alter ; wird ein Maximalalter überschritten, wird die Linie gelöscht. -> > Linien zwischen Punkten, zwischen denen keine Werte auftauchen, verschwinden. -> > Cluster in den Eingabedatensätzen werden getrennt Im Bild: blau: Orte an denen Eingabevektoren liegen können weiß: keine Eingabevektoren

16 Growing Neural Gas (1994 Bernd Fritzke) - Neuronen können erzeugt und gelöscht werden - Competitive Hebbian Learning wird verwendet Man fängt mit zwei verbundenen Neuronen an, die mit der üblichen Lernregel bewegt werden

17 Growing Neural Gas Bei jedem Lernschritt wird eine Fehlerfunktion berechnet, die um so größer wird, je weiter ein Trainingspunkt von den beiden besten Neuronen entfernt ist. rote Punkte: Trainingsvektoren

18 Growing Neural Gas Es wird für jeden Knoten die Fehlerfunktion aufsummiert. Wenn der Fehler einen bestimmten Wert überschreitet, wird ein neues Neuron geschaffen und mit beiden Nachbarn verbunden

19 Weiteres Lernen Growing Neural Gas

20 Ein neues Neuron entsteht Growing Neural Gas

21 Lernen Growing Neural Gas

22 Growing Neural Gas Weitere Verbindungen werden durch Competitive Hebbian Learning erzeugt. Alle Linien altern und werden bei Überschreiten eines Maximalwerts gelöscht. Wird die letzte Verbindungslinie eines Neurons gelöscht, verschwindet dieses Neuron ebenfalls! -> > Cluster werden getrennt (Hauptvorteil des GNG-Algorithmus Algorithmus!)

23 Growing Neural Gas Beispiel: Auch Strukturen mit mehreren Dimensionalitäten können erfasst werden

24 Growing Neural Gas Beispiel einer Topologievisualisierung: a) Annäherung der Topologie mit zweidimensionalen Growing Cell Structures (Vorläufer des Growing Neural Gas) b) Visualisierung (Der Kreis ist rechts unten)

25 Beispielprogramme ( /netze/applets/)

26 Danke für die Aufmerksamkeit!

27 Quellen und Literatur bochum.de/ini ini/vdm/ /VDM/research/gsn/JavaPaper/node1.html de.wikipedia.org/ en.wikipedia.org/

Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining

Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining Kapitel ML:XII XII. Other Unsupervised Learning Nearest Neighbor Strategies Self Organizing Maps Neural Gas Association Analysis Rule Mining Reinforcement Learning ML:XII-1 Unsupervised Others LETTMANN

Mehr

Growing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012

Growing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012 Growing neural Gas Strukturen lernen Torsten Siedel 23.05.2012 Inhalt 1. Prozess der Selbstorganisation 2. Lernen - momentan oder statistisch? 3. Vektorbasierte Neuronale Netze 4. Klassifizierung der Lernverfahren

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Vorlesung Maschinelles Lernen II Dr. Theo Lettmann Oliver Kramer 22. Mai 2006 Überblick Grundlagen SOMs Anwendungen 2D-SOMs Neuronales Gas 2 Grundlagen der Neuronalen Informationsverarbeitung

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Neuronale Netze. Seminar aus Algorithmik Stefan Craß, Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Jochen Weiß Inhaltsverzeichnis 1 Das menschliche Gehirn als Vorbild 2 2 Architektur einer SOM 3 2.1 Aufbau der Neuronenschichten 3 2.2 Gewichts- und Eingabevektor 3 3 Das Training

Mehr

PROCMON. Performance und Condition Monitoring komplexer verfahrenstechnischer Prozesse. Christian W. Frey. christian.frey@iosb.fraunhofer.

PROCMON. Performance und Condition Monitoring komplexer verfahrenstechnischer Prozesse. Christian W. Frey. christian.frey@iosb.fraunhofer. PROCMON Performance und Condition Monitoring komplexer verfahrenstechnischer Prozesse Christian W. Frey 2011 PROCMON Performance und Condition Monitoring komplexer verfahrenstechnischer Prozesse 1. Motivation

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Katharina Witowski katharina.witowski@dynamore.de Übersicht Beispiel Allgemeines zum LS-OPT Viewer Visualisierung von Simulationsergebnissen

Mehr

weitere Modelle und Methoden

weitere Modelle und Methoden weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Aufbau der Eigenimplementierung

Aufbau der Eigenimplementierung Table of contents 1 2 Aufbau... 2 1.1 Feed Forward Netze...3 1.2 Self Organizing Maps... 5 Training... 6 2.1 Feed Forward Netze...7 2.2 Self Organizing Maps... 8 Nachdem wir uns entschlossen hatten, keine

Mehr

Kohonennetze für Information Retrieval mit User Feedback

Kohonennetze für Information Retrieval mit User Feedback Kohonennetze für Information Retrieval mit User Feedback Georg Ruß Otto-von-Guericke-Universität Magdeburg 06.02.2003 Zusammenfassung Richtig eingesetzt, sind selbstorganisierende Karten (SOM) ein probates

Mehr

Visualisierung hochdimensionaler Daten. Hauptseminar SS11 Michael Kircher

Visualisierung hochdimensionaler Daten. Hauptseminar SS11 Michael Kircher Hauptseminar SS11 Inhalt Einführung zu hochdimensionalen Daten Visualisierungsmöglichkeiten dimensionale Teilmengen dimensionale Schachtelung Achsenumgestaltung Algorithmen zur Dimensionsreduktion Zusammenfassung

Mehr

Seminar zum Thema Künstliche Intelligenz:

Seminar zum Thema Künstliche Intelligenz: Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden

Mehr

BÜNDELN VON MUSTERN. Grundlagen der linearen Algebra im Anhang A. Kapitel 1.

BÜNDELN VON MUSTERN. Grundlagen der linearen Algebra im Anhang A. Kapitel 1. Neuronale Netze im Klartext ISBN 3-8273-7071-X 3 BÜNDELN VON MUSTERN Lernziele Einführung in das überwachte Lernen. Sie sollten in der Lage sein: Unüberwachtes Lernen und das Prinzip der Bündelung von

Mehr

Analysis of Crash Simulation Data using Spectral Embedding with Histogram Distances

Analysis of Crash Simulation Data using Spectral Embedding with Histogram Distances Analysis of Crash Simulation Data using Spectral Embedding with Histogram Distances Luisa Schwartz Universität Bonn Institut für Numerische Simulation Fraunhofer SCAI 25. September 2014 Luisa Schwartz

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Multi-Layer Neural Networks and Learning Algorithms

Multi-Layer Neural Networks and Learning Algorithms Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten

Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Fachhochschule Brandenburg Fachbereich Informatik und Medien Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Diplomkolloquium Sven Schröder Aufgabenstellung und Motivation Biologisches

Mehr

Eine kleine Einführung in neuronale Netze

Eine kleine Einführung in neuronale Netze Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch

Mehr

Selbstorganisierende Merkmalskarten

Selbstorganisierende Merkmalskarten Selbstorganisierende Merkmalskarten Motivation (Gehirn) Architektur Topographische Merkmalskarten Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele (Folien: Holger Arndt) Motivation:

Mehr

Selbstorganisierende Merkmalskarten

Selbstorganisierende Merkmalskarten Selbstorganisierende Merkmalskarten Motivation (Gehirn) Netzwerk-Architektur Topographische Merkmalskarten (Früher: Kohonen-Karten ) Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Anwenderdokumentation Beleg Neuronale Netze

Anwenderdokumentation Beleg Neuronale Netze Anwenderdokumentation Beleg Neuronale Netze Analyse von Bilanzen mit Hilfe von Kohonen-Netzwerken Dresden, Dezember 2002 Thorsten Wolfer Michael Wolf Seminargruppe htw8282 htw8222 ai96 Inhaltsverzeichnis

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40 Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)

Mehr

Lösungen zu den Hausaufgaben zur Analysis II

Lösungen zu den Hausaufgaben zur Analysis II Christian Fenske Lösungen zu den Hausaufgaben zur Analysis II Blatt 6 1. Seien 0 < b < a und (a) M = {(x, y, z) R 3 x 2 + y 4 + z 4 = 1}. (b) M = {(x, y, z) R 3 x 3 + y 3 + z 3 = 3}. (c) M = {((a+b sin

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Kompetenzerwerb beim Entdecken von Mustern und Strukturen

Kompetenzerwerb beim Entdecken von Mustern und Strukturen VL 6/7/8 Kompetenzerwerb beim Entdecken von Mustern und Strukturen Modul 8.2 01./08./15. Dezember 2014 Vorlesung 06 01.12.2014 Intermezzo: Das Haus vom Nikolaus richtig oder falsch? Es gibt mehr als 15

Mehr

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung

Mehr

SYN Grundlagen Algorithmen Anwendung FIN. Anomalieerkennung. UnFUG WS2011/2012. Alexander Passfall <alex@passfall.de> Hochschule Furtwangen

SYN Grundlagen Algorithmen Anwendung FIN. Anomalieerkennung. UnFUG WS2011/2012. Alexander Passfall <alex@passfall.de> Hochschule Furtwangen 1/23 UnFUG WS2011/2012 Alexander Passfall Hochschule Furtwangen 3. November 2011 2/23 Inhalt 1 Grundlagen Typen Funktionsweise 2 Algorithmen Outlier Detection Machine Learning 3 Anwendung

Mehr

2.5. VERBINDUNGSNETZWERKE GESTALTUNGSKRITERIEN DER NETZWERKE TOPOLOGIE ALS GRAPH. Vorlesung 5 TOPOLOGIE: DEFINITIONEN : Sei G = (V, E) ein Graph mit:

2.5. VERBINDUNGSNETZWERKE GESTALTUNGSKRITERIEN DER NETZWERKE TOPOLOGIE ALS GRAPH. Vorlesung 5 TOPOLOGIE: DEFINITIONEN : Sei G = (V, E) ein Graph mit: Vorlesung 5.5. VERBINDUNGSNETZWERKE Kommunikation zwischen den einzelnen Komponenten eines arallelrechners wird i.d.r. über ein Netzwerk organisiert. Dabei unterscheidet man zwei Klassen der Rechner: TOOLOGIE:

Mehr

Routing Algorithmen. Begriffe, Definitionen

Routing Algorithmen. Begriffe, Definitionen Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über

Mehr

Statistische Analyse und Visualisierung der Genauigkeit empirischer und deterministischer Optionspreismodelle am Beispiel von Devisenoptionen

Statistische Analyse und Visualisierung der Genauigkeit empirischer und deterministischer Optionspreismodelle am Beispiel von Devisenoptionen Statistische Analyse und Visualisierung der Genauigkeit empirischer und deterministischer Optionspreismodelle am Beispiel von Devisenoptionen Gewinndiagramm Optionen Beispiel Lufthansa Lufthansa bestellt

Mehr

Erzeugung zufälliger Graphen und Bayes-Netze

Erzeugung zufälliger Graphen und Bayes-Netze Erzeugung zufälliger Graphen und Bayes-Netze Proseminar Algorithmen auf Graphen Georg Lukas, IF2000 2002-07-09 E-Mail: georg@op-co.de Folien: http://op-co.de/bayes/ Gliederung 1. Einleitung 2. einfache

Mehr

Geometrie. in 15 Minuten. Geometrie. Klasse

Geometrie. in 15 Minuten. Geometrie. Klasse Klasse Geometrie Geometrie 6. Klasse in 5 Minuten Winkel und Kreis Zeichne und überprüfe in deinem Übungsheft: a) Wo liegen alle Punkte, die von einem Punkt A den Abstand cm haben? b) Färbe den Bereich,

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Beispielbild. Georouting. Jakob Pfender Institut für Informatik

Beispielbild. Georouting. Jakob Pfender Institut für Informatik Beispielbild Georouting Jakob Pfender Institut für Informatik 28. 01. 2010 Einleitung -Geographische Position statt logischer Adresse -Motivation: Verteilte Netze ohne feste Topologie, bewegliche Knoten

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Definition. Gnutella. Gnutella. Kriterien für P2P-Netzwerke. Gnutella = +

Definition. Gnutella. Gnutella. Kriterien für P2P-Netzwerke. Gnutella = + Definition Gnutella Ein -to--netzwerk ist ein Kommunikationsnetzwerk zwischen Rechnern, in dem jeder Teilnehmer sowohl Client als auch Server- Aufgaben durchführt. Beobachtung: Das Internet ist (eigentlich

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Anleitung zum Java - Applet

Anleitung zum Java - Applet Anleitung zum Java - Applet Stetige Verteilungen Visualisierung von Wahrscheinlichkeit und Zufallsstreubereich bearbeitet von: WS 2004 / 2005 E/TI 7 betreut von: Prof. Dr. Wilhelm Kleppmann Inhaltsverzeichnis

Mehr

Artificial Life und Multiagentensysteme

Artificial Life und Multiagentensysteme Vortrag im Rahmen des Seminars: Artificial Life und Multiagentensysteme Prof. Dr. Winfried Kurth Sommersemester 2003 Prognose von Zeitreihen mit GA/GP Mathias Radicke, Informatikstudent, 10. Semester Gliederung

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

Exploration und Klassifikation von BigData

Exploration und Klassifikation von BigData Exploration und Klassifikation von BigData Inhalt Einführung Daten Data Mining: Vorbereitungen Clustering Konvexe Hülle Fragen Google: Riesige Datenmengen (2009: Prozessieren von 24 Petabytes pro Tag)

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Maschinenbau/Logistik Kommissionierung und Tourenplanung mit SOM

Maschinenbau/Logistik Kommissionierung und Tourenplanung mit SOM Maschinenbau/Logistik Kommissionierung und Tourenplanung mit SOM Dipl.-Phys. M. Wölker Universität Dortmund, Lehrstuhl für Förder- und Lagerwesen 7. Januar 2007 Zusammenfassung In der Logistik sind häufig

Mehr

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht 2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine

Mehr

Erkennung menschlicher Aktionen durch Inferenz stochastischer regulärer Grammatiken

Erkennung menschlicher Aktionen durch Inferenz stochastischer regulärer Grammatiken BTU Cottbus Seminar "Mustererkennung mit syntaktischen und graphbasierten Methoden" Wintersemester 2006/2007 Vortrag zum Thema: Erkennung menschlicher Aktionen durch Inferenz stochastischer regulärer Grammatiken

Mehr

Information Systems Engineering Seminar

Information Systems Engineering Seminar Information Systems Engineering Seminar Algorithmische Prüfung der Planarität eines Graphen Marcel Stüttgen, 22.10.2012 FH AACHEN UNIVERSITY OF APPLIED SCIENCES 1 Planarität - Definition Ein Graph heißt

Mehr

ChangePoint-Analysen - ein Überblick

ChangePoint-Analysen - ein Überblick ChangePoint-Analysen - ein Überblick Gliederung Motivation Anwendungsgebiete Chow Test Quandt-Andrews Test Fluktuations-Tests Binary Segmentation Recursive circular and binary segmentation algorithm Bayesscher

Mehr

Computerviren, Waldbrände und Seuchen - ein stochastisches Modell für die Reichweite einer Epidemie

Computerviren, Waldbrände und Seuchen - ein stochastisches Modell für die Reichweite einer Epidemie Computerviren, Waldbrände und Seuchen - ein stochastisches für die Reichweite einer Epidemie Universität Hildesheim Schüler-Universität der Universität Hildesheim, 21.06.2012 Warum Mathematik? Fragen zum

Mehr

Customer Analytics mit der SOM-Technik

Customer Analytics mit der SOM-Technik Customer Analytics mit der SOM-Technik Basierend auf fortschrittlicher Data-Mining-Technologie hilft Ihnen Synesis Interactive Analyzer, Ihre Kunden besser zu verstehen. Die Software findet homogene Kundengruppen

Mehr

Evolutionäre Algorithmen in der Spracherkennung

Evolutionäre Algorithmen in der Spracherkennung Informatik Alexander Eslava Evolutionäre Algorithmen in der Spracherkennung Studienarbeit Evolutionäre Algorithmen in der Spracherkennung Hauptseminar Einsatz Evolutionärer Strategien in Eingebetteten

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

eingereicht bei Prof. Dr. Peter Roßbach

eingereicht bei Prof. Dr. Peter Roßbach Bewertung von Investmentfonds mittels Self-Organizing Maps Bachelor-Thesis an der HfB Business School of Finance & Management eingereicht bei Prof. Dr. Peter Roßbach von Peter Wirtz Matrikelnummer: 4077437

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Lösungen zum Buch: Wissensverarbeitung Kapitel 10 Künstliche neuronale Netze Lösung 10.1 (Maschinelles Lernen) a) Ein Computerprogramm lernt aus einer Erfahrung E bezüglich einer Aufgabenklasse T und einer

Mehr

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Ideen der Informatik Maschinelles Lernen Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik Übersicht Lernen: Begriff Beispiele für den Stand der Kunst Spamerkennung Handschriftenerkennung

Mehr

Punktbeschriftung in Dynamischen Karten

Punktbeschriftung in Dynamischen Karten Vorlesung Algorithmische Kartografie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK Benjamin Niedermann Martin Nöllenburg 28.05.2015 1 Übungen Nachtrag 1) Überlegen Sie sich, wie man den

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

/ Nur zur privaten Verwendung! Musterausdruck! Skript und Übungsaufgaben Die Satzgruppe des Pythagoras

/  Nur zur privaten Verwendung! Musterausdruck! Skript und Übungsaufgaben Die Satzgruppe des Pythagoras Skript und Übungsaufgaben Die Satzgruppe des Pythagoras DER SATZ DES PYTHAGORAS DEFINITION UND BEWEIS AUFGABEN ZUM SATZ DES PYTHAGORAS MIT MUSTERLÖSUNGEN 5 DER KATHETENSATZ DES EUKLID 7 DEFINITION UND

Mehr

Adaptive Behavior from Fixed Weight Networks

Adaptive Behavior from Fixed Weight Networks Adaptive Behavior from Fixed Weight Networks Jonas Zilles, 11. Juni 007 Betreuer: Dr. Mohamed Oubbati 1 Inhaltsverzichnis 1. Abstrakt Seite 3. Einführung Seite 3 3. Problem. Seite 5 3.1. Training. Seite

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Statistics, Data Analysis, and Simulation SS 2015

Statistics, Data Analysis, and Simulation SS 2015 Mainz, May 12, 2015 Statistics, Data Analysis, and Simulation SS 2015 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Dr. Michael O. Distler

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

Bildsegmentierung mit Level Sets

Bildsegmentierung mit Level Sets Bildsegmentierung mit Level Sets Seminar Bildsegmentierung und Computer Vision im Wintersemester 2005 Übersicht 1 Übersicht 2 Definitionen Ausbreitungsgeschwindigkeit Übersicht 3 Inter-Frame-basierte Modellierung

Mehr

Anleitung zur Erstellung einer Concept-Map

Anleitung zur Erstellung einer Concept-Map Anleitung zur Erstellung einer Concept-Map Was ist eigentlich eine Concept-Map? Eine Concept-Map (ein Begriffs-Netz) ist ein anschauliches Bild, in dem einzelne Begriffe (Concepts) miteinander verbunden

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

Informatik I WS 07/08 Tutorium 24

Informatik I WS 07/08 Tutorium 24 Info I Tutorium 24 Informatik I WS 07/08 Tutorium 24 31.01.08 Bastian Molkenthin E-Mail: infotut@sunshine2k.de Web: http://infotut.sunshine2k.de Organisatorisches Anmeldung Hauptklausur : allerspätestens

Mehr

Theoretische Informatik 1 WS 2007/2008. Prof. Dr. Rainer Lütticke

Theoretische Informatik 1 WS 2007/2008. Prof. Dr. Rainer Lütticke Theoretische Informatik 1 WS 2007/2008 Prof. Dr. Rainer Lütticke Inhalt der Vorlesung Grundlagen - Mengen, Relationen, Abbildungen/Funktionen - Datenstrukturen - Aussagenlogik Automatentheorie Formale

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Principal Component Analysis (PCA)

Principal Component Analysis (PCA) Principal Component Analysis (PCA) Motivation: Klassifikation mit der PCA Berechnung der Hauptkomponenten Theoretische Hintergründe Anwendungsbeispiel: Klassifikation von Gesichtern Weiterführende Bemerkungen

Mehr

Euklidische Distanzmatrizen. Andrei Grecu

Euklidische Distanzmatrizen. Andrei Grecu Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer

Mehr

Kürzeste Wege in Graphen. Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik

Kürzeste Wege in Graphen. Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik Kürzeste Wege in Graphen Maurice Duvigneau Otto-von-Guericke Universität Fakultät für Informatik Gliederung Einleitung Definitionen Algorithmus von Dijkstra Bellmann-Ford Algorithmus Floyd-Warshall Algorithmus

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Übersicht. 20. Verstärkungslernen

Übersicht. 20. Verstärkungslernen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes

Mehr

Projekt Systementwicklung

Projekt Systementwicklung Projekt Systementwicklung Periodische Randbedingungen: Das Leben auf dem Torus Prof. Dr. Nikolaus Wulff Prüfungsanmeldung Die Modulprüfung Projekt Systementwicklung findet am 26. und 25. Juni statt. Es

Mehr

Vorab : Von dem indischen Mathematiker D. R. Kaprekar stammt folgender Zusammenhang :

Vorab : Von dem indischen Mathematiker D. R. Kaprekar stammt folgender Zusammenhang : Seite 1 Algorithmen zur Erzeugung von Kaprekar- Konstanten Autor : Dipl.- Ing. Josef Meiler ; Datum : März 015 Vorab : Von dem indischen Mathematiker D. R. Kaprekar stammt folgender Zusammenhang : a) man

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr