Neuroinformatik. Übung 1
|
|
|
- Britta Krüger
- vor 7 Jahren
- Abrufe
Transkript
1 Neuroinformatik Übung 1 Fabian Bürger Raum: BC419, Tel.: , [email protected] Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 1 / 27
2 Organisatorisches Neuroinformatik: /neuroinformatik_und_organic_computing/ Fabian Bürger: Fabian Bürger Neuroinformatik: Übung 1 2 / 27
3 Aufgabe 1 a) Aufgabenstellung Diskutieren Sie Anwendungsfelder der Neuroinformatik. Welche besondere Bedeutung hat der Aspekt des Lernens? Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 3 / 27
4 Aufgabe 1 a) Anwendungsfelder der Neuroinformatik Die Neuroinformatik ist ein interdisziplinäres Gebiet mit vielfältigen Anwendungsfeldern im Bereich Mustererkennung und Funktionsapproximation. Industrie automatisierte Qualitätskontrolle Steuerung von Maschinen und Robotern Intelligente Systeme Medizin Bildbasierte Systeme: Hinderniserkennung bei Fahrerassistenzsystemen, Handschrifterkennung bei Formularverarbeitung Finanzen Unterstützung bei der Diagnose Wertpapierbewertungen und Versicherungen Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 4 / 27
5 Aufgabe 1 a) Der Aspekt des Lernens Komplexe (Funktions-)zusammenhänge müssen nicht explizit bestimmt werden, sondern werden anhand von bekannten Eingaben und Ausgaben gelernt. Vorteile Merkmale aus Beobachtungen und Messungen können zur Abstraktion verwendet werden, Black Box-Systemmodell möglich Nachteile Schnelle Modellierung von komplexen Funktionen möglich Unter Umständen wenig Erkenntnisgewinn über das Problem und die Zusammenhänge Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 5 / 27
6 Aufgabe 1 b) Aufgabenstellung Diskutieren Sie die Charakteristika eines Neuronalen Netzes. Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 6 / 27
7 Aufgabe 1 b) Anschauliche Definition Neuronale Netze sind informationsverarbeitende Systeme, die aus einer großen Anzahl einfacher Einheiten (Zellen, Neuronen) bestehen, die sich Informationen in Form der Aktivierung der Zelle über gerichtete Verbindungen zusenden. (nach [1], S. 23) Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 7 / 27
8 Aufgabe 1 b) Formale Definition Ein neuronales Netz ist ein gerichteter Graph A := (K,V), der aus einer Menge von Knoten K = {I,O,H}, den neuronalen Einheiten, und einer Menge von gerichteten Kanten V K K, den Verbindungen zwischen den Einheiten besteht. (nach [2], S. 42) Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 8 / 27
9 Aufgabe 1 b) Charakterisierung von neuronalen Netzen durch Netzwerktopologie Knotenfunktion Netzwerkdynamik Neuronales Lernen Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 9 / 27
10 Aufgabe 1 b): Netzwerktopologie Wie ist die "Vernetzung" eines Graphen aufgebaut? Zur Erinnerung: Topologie: aus dem Griechischen; topos = Ort, Stelle; logos = Rede, Kunde Lehre über die "Nachbarschaftsbeziehung" Netzwerk: gerichteter Graph ohne Mehrfachkanten (eine Teilmenge des kartesischen Produkts V V ) Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 10 / 27
11 Aufgabe 1 b): Knotenfunktionen x 1 x 2. x n f p f a y Ausgabe des Neurons: y = f a (f p (x 1,x 2,...,x n )) Propagierungsfunktion f p : "Was nimmt das Neuron an?" Aktivierungsfunktion f a : "Was gibt das Neuron aus?" Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 11 / 27
12 Aufgabe 1 b): Netzwerkdynamik Gerichteter Graph man erhält aus Anordnung der Kanten: Wie fließt die Information im Netz? Hat das Netz ein Gedächtnis? Unterscheidung vorwärtsgerichtetes / rückgekoppeltes Netz x g f f (g (x)) x f f (x t,f (x t 1,f (x t2,...))) Vorwärtsgerichtetes Netz: Komposition von Funktionen Rückgekoppeltes Netz: rekursive Funktionsauswertung Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 12 / 27
13 Aufgabe 1 b): Neuronales Lernen Ablauf des Lernprozesses Modifikation der Gewichte Modifikation der Topologie Lernkonzepte Überwachtes Lernen Belohnungs- / Bestrafunslernen Unüberwachtes Lernen Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 13 / 27
14 Aufgabe 1 b): Beispiele (nach [3]) Netze ohne Rückkopplung (Feedforward-Netze) Ebenenweise verbunden Allgemeine Feedforward-Netze Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 14 / 27
15 Aufgabe 1 b): Beispiele (nach [3]) Netze mit Rückkopplung (rekurrente Netze) Direkte Rückkopplungen (direct feedback): Verstärkung bzw. Abschwächung der eigenen Ausgabe eines Neurons durch Verbindung von der Ausgabe zurück zur Eingabe Indirekte Rückkopplungen indirect feedback): Rückkopplungen von Neuronen höherer Ebenen zu Neuronen niederer Ebenen Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 15 / 27
16 Aufgabe 1 b): Beispiele (nach [3]) Netze mit Rückkopplungen innerhalb einer Schicht (lateral feedback) Einsatzgebiet: Aufgaben, bei denen nur ein Neuron einer Gruppe aktiv werden soll Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 16 / 27
17 Aufgabe 1 b): Beispiele (nach [3]) Vollständig verbundene Netze Paarweise Verbindung aller Neuronen, insbes. bekannt als Hopfield-Netze Hopfield-Netze: Adjazenzmatrix symmetrisch, nur Nullen auf Diagonale Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 17 / 27
18 Aufgabe 2: Netztopologie w 1 1,1 f p f a w 1 0,1 1 w 2 1,1 x w 1 1,2 w 1 1,3 f p f a w 2 2,1 w 1 0,2 1 w 2 3,1 f p f a f ap (x) w 1 1,4 f p f a w 1 0,3 1 f p f a w 2 4,1 1 w 2 0,1 w 1 0,4 1 Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 18 / 27
19 Aufgabe 2: Werte Layer 1: w 1 1,1 = 1.965, w 1 1,2 = 2.204, w 1 1,3 = 2.884, w 1 1,4 = 1.293, w 1 0,1 = 0.193, w 1 0,2 = 1.255, w 1 0,3 = 1.450, w 1 0,4 = 1.179, Layer 2: w 2 1,1 = 0.791, w 2 2,1 = 2.725, w 2 3,1 = 2.567, w 2 4,1 = 1.035, w 2 0,1 = Für Neuron j in Schicht k: Propagierungsfunktion: fj,p k (x) = i wi,j k x i Aktivierungsfunktion: fj,a k 1 exp s (s) = 1+exp s fa(s) Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 19 / 27
20 Aufgabe 2: Beispiele Schicht 1, Neuron 1: u1 1 := f 1,p 1 (1,x) = w 1,1 1 x + w 0,1 1 = 1.965x y 1 := f 1 1,a (u1 1 ) = 1 exp u1 1 1+exp u1 1 Schicht 2, Neuron 1 (Ausgabeneuron): u 1 2 := f 2 1,p (1,y 1,y 2,y 3,y 4 ) = 0.791y y y y f 2 1,a (u2 1 ) = 1 exp u2 1 1+exp u2 1 Vom Netz berechnete Funktion: f ap (x) = f 2 1,a (u2 1 ) Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 20 / 27
21 Aufgabe 2: Funktionen f 1 (x) := cos(x) f 2 (x) := sin(x) f 3 (x) := arctan(x) f 4 (x) := 1 exp( x) f 5 (x) = exp ( x 2 2 ) Für welche der Funktionen gilt f i f ap? Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 21 / 27
22 Aufgabe 2: Eingabe x = 0 f1,p 1 (1,x) = f 1,a 1 (1,x) = f2,p 1 (1,x) = f 2,a 1 (1,x) = f3,p 1 (1,x) = 1.45 f 3,a 1 (1,x) = f4,p 1 (1,x) = f 4,a 1 (1,x) = f 2 1,p (1,y 1,y 2,y 3,y 4 ) = f ap (x) = f 1 (x) = 1 f 2 (x) = 0 f 3 (x) = 0 f 4 (x) = 0 f 5 (x) = 1 Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 22 / 27
23 Aufgabe : Eingabe x = 1.57 f1,p 1 (1,x) = f 1,a 1 (1,x) = f2,p 1 (1,x) = f 2,a 1 (1,x) = f3,p 1 (1,x) = f 3,a 1 (1,x) = f4,p 1 (1,x) = f 4,a 1 (1,x) = f 2 1,p (1,y 1,y 2,y 3,y 4 ) = f ap (x) = f 1 (x) = f 2 (x) = 1 f 3 (x) = f 4 (x) = f 5 (x) = Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 23 / 27
24 Aufgabe 2: Eingabe x = 1.57 f1,p 1 (1,x) = f 1,a 1 (1,x) = f2,p 1 (1,x) = f 2,a 1 (1,x) = f3,p 1 (1,x) = f 3,a 1 (1,x) = f4,p 1 (1,x) = f 4,a 1 (1,x) = f 2 1,p (1,y 1,y 2,y 3,y 4 ) = f ap (x) = f 1 (x) = f 2 (x) = 1 f 3 (x) = f 4 (x) = f 5 (x) = Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 24 / 27
25 Aufgabe 2: Funktionenplot cos(x) sin(x) arctan(x) 1 exp( x) ( ) exp x 2 2 f ap (x) Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 25 / 27
26 Aufgabe 2: f ap f f 5 (x) = exp ( x 2 2 ) f ap (x) Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 26 / 27
27 Literatur 1 A. Zell: Simulation Neuronaler Netze. Oldenbourg, 2003, Wissenschaftsverlag GmbH, 4., unveränderter Nachdruck, ISBN R. Brause: Neuronale Netze. Stuttgart, 1995, B. G. Teubner, ISBN Lippe: Einführung in Neuronale Netze, Skript, lehre/skripte/wwwnnscript/startseite.html Fabian Bürger ([email protected]) Neuroinformatik: Übung 1 27 / 27
Künstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
Aufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40
Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)
Einführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
Neuronale Netze (I) Biologisches Neuronales Netz
Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung
Neuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
Was sind Neuronale Netze?
Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk
Hannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
auch: Konnektionismus; subsymbolische Wissensverarbeitung
10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
Künstliche neuronale Netze
Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche
Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
Künstliche Neuronale Netze. 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5.
Künstliche Neuronale Netze Wolfram Schiffmann FernUniversität Hagen Rechnerarchitektur 1. Einführung 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5. Zusammenfassung
Maschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
Kleines Handbuch Neuronale Netze
Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie
Erzeugung zufälliger Graphen und Bayes-Netze
Erzeugung zufälliger Graphen und Bayes-Netze Proseminar Algorithmen auf Graphen Georg Lukas, IF2000 2002-07-09 E-Mail: [email protected] Folien: http://op-co.de/bayes/ Gliederung 1. Einleitung 2. einfache
Grundlagen Neuronaler Netze
Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht
Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
Computational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund [email protected] Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
Einführung in. Neuronale Netze
Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:
Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.
Simulation Neuronaler Netze Eine praxisorientierte Einführung Matthias Haun Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen expert Inhaltsverzeichnis 1 Einleitung 1.1 Über das Projekt 1 1.2 Über das
Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische
Lernverfahren von Künstlichen Neuronalen Netzwerken
Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.
Theoretische Überlegungen zur Ausbreitung von Infektionserregern auf Kontaktnetzen. Hartmut Lentz, Maria Kasper, Ansgar Aschfalk und Thomas Selhorst
Theoretische Überlegungen zur Ausbreitung von Infektionserregern auf Kontaktnetzen Hartmut Lentz, Maria Kasper, Ansgar Aschfalk und Thomas Selhorst Netzwerke / Graphen verschiedene Typen von Graphen: einfache
Structurally Evolved Neural Networks for Forecasting
Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale
Routing Algorithmen. Begriffe, Definitionen
Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über
Grundbegriffe der Informatik
Grundbegriffe der Informatik Einheit 11: Graphen Thomas Worsch Karlsruher Institut für Technologie, Fakultät für Informatik Wintersemester 2010/2011 1/59 Graphische Darstellung von Zusammenhängen schon
Künstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003
Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung
Neuronale Netze. Seminar aus Algorithmik Stefan Craß,
Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze
Neuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
CLINICAL DECISION SUPPORT SYSTEMS
CLINICAL DECISION SUPPORT SYSTEMS INHALTSVERZEICHNIS 1/2 Diagnosefindung Prävention Medikamente (Auswahl, Dosierung etc.) INHALTSVERZEICHNIS 2/2 Supervised, Unsupervised Bayes-Netzwerke Neuronale Netze
Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke
Neuronale Netze in der Robotik
Seminarvortrag Neuronale Netze in der Robotik Datum: 18.01.2002 Vortragende: Elke von Lienen Matrikelnummer: 302489 Studiengang: Informatik Inhaltsverzeichnis Einleitung 3 Biologisches Vorbild 4 Künstliche
Künstliche neuronale Netze
Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ [email protected] SS 2011 1 Softcomputing Einsatz
Grundbegriffe der Informatik
Grundbegriffe der Informatik Kapitel 15: Graphen Thomas Worsch KIT, Institut für Theoretische Informatik Wintersemester 2015/2016 GBI Grundbegriffe der Informatik KIT, Institut für Theoretische Informatik
Surjektive, injektive und bijektive Funktionen.
Kapitel 1: Aussagen, Mengen, Funktionen Surjektive, injektive und bijektive Funktionen. Definition. Sei f : M N eine Funktion. Dann heißt f surjektiv, falls die Gleichung f(x) = y für jedes y N mindestens
Neokognitron und Hopfield Netz als künstliche neuronale Netze zur Mustererkennung
Raoul Privenau Neokognitron und Hopfield Netz als künstliche neuronale Netze zur Mustererkennung Theorie, computergestützte Simulation und Anwendungen Diplomica Verlag Raoul Privenau Neokognitron und Hopfield
Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
Kohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
Grundlagen und Aufbau von neuronalen Netzen
Grundlagen und Aufbau von neuronalen Netzen Künstliche neuronale Netze (KNN) modellieren auf stark vereinfachte Weise Organisationsprinzipien und Abläufe biologischer neuronaler Netze Jedes KNN besteht
Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.
Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles
Kapitel 7: Flüsse in Netzwerken und Anwendungen Gliederung der Vorlesung
Gliederung der Vorlesung. Fallstudie Bipartite Graphen. Grundbegriffe. Elementare Graphalgorithmen und Anwendungen. Minimal spannende Bäume. Kürzeste Pfade. Traveling Salesman Problem. Flüsse in Netzwerken
Simulation neuronaler Netzwerke mit TIKAPP
Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?
Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten
Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini
Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung
Algorithmen für Computerspiele
Algorithmen für Computerspiele Künstliche Intelligenz von Manuel Bischof 3. Mai 2010 Gliederung Einleitung Was umfasst die KI? Nutzung in verschiedenen Genres Wo sind Verbesserungen notwendig? Möglichkeiten,
Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik
Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik Karl Heinz Hoffmann TU Chemnitz Die Professur Stand: 18.07.11 2 Die Professur Professor: Prof. Dr. Karl Heinz Hoffmann
Grundlagen Künstlicher Neuronaler Netze
FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher
Rekurrente Neuronale Netze. Rudolf Kruse Neuronale Netze 227
Rekurrente Neuronale Netze Rudolf Kruse Neuronale Netze 227 Rekurrente Netze: Abkühlungsgesetz Ein Körper der Temperaturϑ wird in eine Umgebung der Temperaturϑ A eingebracht. Die Abkühlung/Aufheizung des
(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: [email protected] (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
Einführung in Neuronale Netze
Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme
5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
Theoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
Massive Parallelität : Neuronale Netze
Massive Parallelität : Neuronale Netze PI2 Sommer-Semester 2005 Hans-Dieter Burkhard Massive Parallelität : Neuronale Netze Knoten: Neuronen Neuronen können erregt ( aktiviert ) sein Kanten: Übertragung
Minimal spannende Bäume
http://www.uni-magdeburg.de/harbich/ Minimal spannende Fakultät für Informatik Otto-von-Guericke-Universität 2 Inhalt Definition Wege Untergraphen Kantengewichtete Graphen Minimal spannende Algorithmen
Neuronale Netze. 11.Januar.2002
Neuronale Netze Stefan Otto Matrikelnummer: 301127 Studiengang: Informatik ProSeminar WS 2001/2002 Institut für Informatik Technische Universität Clausthal 11.Januar.2002 1 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis
Theoretische Informatik 1 WS 2007/2008. Prof. Dr. Rainer Lütticke
Theoretische Informatik 1 WS 2007/2008 Prof. Dr. Rainer Lütticke Inhalt der Vorlesung Grundlagen - Mengen, Relationen, Abbildungen/Funktionen - Datenstrukturen - Aussagenlogik Automatentheorie Formale
Einführung in Neuronale Netze
Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche
Lernmodul 2 Geometr.-topol. Datenstrukturen. Lernmodul 2: Geoobjekte und ihre Modellierung - Geometr.-topol. Datenstrukturen
Folie 1 von 27 Lernmodul 2 Geometr.-topol. Datenstrukturen Folie 2 von 27 Geometr.-topol. Datenstrukturen Übersicht Überblick/Motivation Fokus Geometrisch-topologische Datenstrukturen Spaghetti Spaghetti
Kapitel 6: Graphalgorithmen Gliederung
Gliederung 1. Grundlagen 2. Zahlentheoretische Algorithmen 3. Sortierverfahren 4. Ausgewählte Datenstrukturen 5. Dynamisches Programmieren 6. Graphalgorithmen 7. String-Matching 8. Kombinatorische Algorithmen
Konzepte der Informatik
Konzepte der Informatik Vorkurs Informatik zum WS 2011/2012 26.09. - 30.09.2011 17.10. - 21.10.2011 Dr. Werner Struckmann / Christoph Peltz Stark angelehnt an Kapitel 1 aus "Abenteuer Informatik" von Jens
1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.
Stephan Ruttloff 1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Verwendungsweise 6. Quellen Was sind neuronale
Graphen. Leonhard Euler ( )
Graphen Leonhard Euler (1707-1783) 2 Graph Ein Graph besteht aus Knoten (nodes, vertices) die durch Kanten (edges) miteinander verbunden sind. 3 Nachbarschaftsbeziehungen Zwei Knoten heissen adjazent (adjacent),
Multi-Layer Neural Networks and Learning Algorithms
Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung
Fortgeschrittene Netzwerk- und Graph-Algorithmen
Fortgeschrittene Netzwerk- und Graph-Algorithmen Prof. Dr. Hanjo Täubig Lehrstuhl für Effiziente Algorithmen (Prof. Dr. Ernst W. Mayr) Institut für Informatik Technische Universität München Wintersemester
Endliche Automaten. Endliche Automaten J. Blömer 1/23
Endliche Automaten Endliche Automaten sind ein Kalkül zur Spezifikation von realen oder abstrakten Maschinen regieren auf äußere Ereignisse (=Eingaben) ändern ihren inneren Zustand produzieren gegebenenfalls
Vorlesung. Vollständige Induktion 1
WS 015/16 Vorlesung Vollständige Induktion 1 1 Einführung Bei der vollständigen Induktion handelt es sich um ein wichtiges mathematisches Beweisverfahren, mit dem man Aussagen, die für alle natürlichen
2. Repräsentationen von Graphen in Computern
2. Repräsentationen von Graphen in Computern Kapitelinhalt 2. Repräsentationen von Graphen in Computern Matrizen- und Listendarstellung von Graphen Berechnung der Anzahl der verschiedenen Kantenzüge zwischen
Formale Grundlagen der Informatik
Formale Grundlagen der Informatik / 2015 1 Die Elemente einer (endlichen) Menge sollen den Elementen einer zweiten, gleichmächtigen Menge zugeordnet werden Problemstellung Bipartite Graphen Zuordnungsprobleme
Zellulare Neuronale Netzwerke
Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Zellulare Neuronale Netzwerke Florian Bilstein Dresden, 13.06.2012 Gliederung 1.
Grundlagen der Informatik
1 Vorlesung Grundlagen der Informatik Dr. Frank Sausen Skript und Folien: Prof. Dr. Wolfgang Ertel 6. Oktober 2008 Hochschule Ravensburg Weingarten Technik Wirtschaft Sozialwesen c W. Ertel 2 Inhaltsverzeichnis
aktive Netzwerk-Komponenten Repeater Hub Bridge Medienkonverter Switch Router
aktive Netzwerk-Komponenten Repeater Hub Bridge Medienkonverter Switch Router Repeater Repeater (Wiederholer) arbeiten auf der Bitübertragungsschicht und regenerieren den Signalverlauf sowie den Pegel
Anmerkungen zur Übergangsprüfung
DM11 Slide 1 Anmerkungen zur Übergangsprüfung Aufgabeneingrenzung Aufgaben des folgenden Typs werden wegen ihres Schwierigkeitsgrads oder wegen eines ungeeigneten fachlichen Schwerpunkts in der Übergangsprüfung
11. Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P
11 Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P 11 Woche: Turingmaschinen, Entscheidbarkeit, P 239/ 333 Einführung in die NP-Vollständigkeitstheorie
Software-Engineering SS03. Zustandsautomat
Zustandsautomat Definition: Ein endlicher Automat oder Zustandsautomat besteht aus einer endlichen Zahl von internen Konfigurationen - Zustände genannt. Der Zustand eines Systems beinhaltet implizit die
Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume?
Vorlesung Diskrete Strukturen Graphen: Wieviele Bäume? Bernhard Ganter Institut für Algebra TU Dresden D-01062 Dresden [email protected] WS 2013/14 Isomorphie Zwei Graphen (V 1, E 1 ) und (V
Lernmodul 2 Graphen. Lernmodul 2: Geoobjekte und ihre Modellierung - Graphen
Folie 1 von 20 Lernmodul 2 Graphen Folie 2 von 20 Graphen Übersicht Motivation Ungerichteter Graph Gerichteter Graph Inzidenz, Adjazenz, Grad Pfad, Zyklus Zusammenhang, Trennende Kante, Trennender Knoten
2.5. VERBINDUNGSNETZWERKE GESTALTUNGSKRITERIEN DER NETZWERKE TOPOLOGIE ALS GRAPH. Vorlesung 5 TOPOLOGIE: DEFINITIONEN : Sei G = (V, E) ein Graph mit:
Vorlesung 5.5. VERBINDUNGSNETZWERKE Kommunikation zwischen den einzelnen Komponenten eines arallelrechners wird i.d.r. über ein Netzwerk organisiert. Dabei unterscheidet man zwei Klassen der Rechner: TOOLOGIE:
Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell
Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2
Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
Algorithmische Mathematik
Algorithmische Mathematik Wintersemester 2013 Prof. Dr. Marc Alexander Schweitzer und Dr. Einar Smith Patrick Diehl und Daniel Wissel Übungsblatt 6. Abgabe am 02.12.2013. Aufgabe 1. (Netzwerke und Definitionen)
Algorithmen und Datenstrukturen Kapitel 10
Algorithmen und Datenstrukturen Kapitel 10 Flüsse Frank Heitmann [email protected] 6. Januar 2016 Frank Heitmann [email protected] 1/8 Flüsse Graphen Grundlagen Definition
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen
Technische Universität Wien Institut für Computergraphik und Algorithmen Arbeitsbereich für Algorithmen und Datenstrukturen 186.172 Algorithmen und Datenstrukturen 1 VL 4.0 Übungsblatt 4 für die Übung
16. All Pairs Shortest Path (ASPS)
. All Pairs Shortest Path (ASPS) All Pairs Shortest Path (APSP): Eingabe: Gewichteter Graph G=(V,E) Ausgabe: Für jedes Paar von Knoten u,v V die Distanz von u nach v sowie einen kürzesten Weg a b c d e
Modellbildung und Simulation
Modellbildung und Simulation Wintersemester 2007/2008 Klaus Kasper Praktikum Mittwochs: 10:15 13:30 (Y) Start: 24.10.2007 Ort: D15/202 Donnerstags: 14:15 17:30 (X) Start: 25.10.2007 Ort: D15/102 Zulassungsvoraussetzung
Graphentheorie 1. Diskrete Strukturen. Sommersemester Uta Priss ZeLL, Ostfalia. Hausaufgaben Graph-Äquivalenz SetlX
Graphentheorie 1 Diskrete Strukturen Uta Priss ZeLL, Ostfalia Sommersemester 2016 Diskrete Strukturen Graphentheorie 1 Slide 1/19 Agenda Hausaufgaben Graph-Äquivalenz SetlX Diskrete Strukturen Graphentheorie
