Künstliche neuronale Netze

Ähnliche Dokumente
Künstliche neuronale Netze

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

Universität Klagenfurt

Konzepte der AI Neuronale Netze

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

auch: Konnektionismus; subsymbolische Wissensverarbeitung

Computational Intelligence 1 / 31. Computational Intelligence Künstliche Neuronale Netze Geschichte 3 / 31

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

7. Vorlesung Neuronale Netze

Was sind Neuronale Netze?

Ein selbstmodellierendes System für die Wasserwirtschaft

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Inhaltsverzeichnis. Einführung

Grundlagen Künstlicher Neuronaler Netze

Proseminar Neuronale Netze Frühjahr 2004

Grundlagen Neuronaler Netze

Neuronale Netze (Konnektionismus)

Praktische Optimierung

Künstliche Neuronale Netze

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Image: (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

11. Neuronale Netze 1

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Künstliche Neuronale Netze

Künstliche Neuronale Netze

Einführung in Neuronale Netze

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Aufbau und Beschreibung Neuronaler Netzwerke

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Seminar Künstliche Intelligenz Wintersemester 2013/14

Künstliche neuronale Netze

Adaptive Resonance Theory

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS Neuronale Netze. Von Deasy Sukarya & Tania Bellini

Neuronale Neize. Eine Einfuhrung in die Neuroinfomnatik selbstorganisierender Netzwerke ADDISON-WESLEY PUBLISHING COMPANY

Künstliche Intelligenz

C1/4 - Modellierung und Simulation von Neuronen

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Einführung in Neuronale Netze

Kohonennetze Selbstorganisierende Karten

5. Lernregeln für neuronale Netze

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1

Neuroinformatik. Übung 1

Neuronale Netze. Anna Wallner. 15. Mai 2007

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

1 Einleitung. 2 Clustering

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.

Martin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr

Hannah Wester Juan Jose Gonzalez

Künstliche Intelligenz. Was ist KI? Was ist Künstliche Intelligenz? Was ist Künstliche Intelligenz? Was erwarten wir von der KI?

Inhaltsfeld: IF 4: Neurobiologie

Case-Based Reasoning und anderen Inferenzmechanismen

Künstliche Intelligenz. Neuronale Netze

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Universität Bamberg Angewandte Informatik. Seminar KI: gestern, heute, morgen. Die Evolution künstlicher neuronaler Netze

Maschinelles Lernen Entwicklung und aktuelle Anwendungen

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Wissensrepräsentation

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008

Effiziente Näherungsverfahren 2

Einführung in das Maschinelle Lernen I

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.

Aufbau und Funktion von Neuronen Neuronale Informationsverarbeitung und Grundlagen der Wahrnehmung Plastizität und Lernen

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Facharbeit. Ratsgymnasium Bielefeld Schuljahr 2004/2005. aus dem Fach Biologie. Thema: Künstliche neuronale Netze

Technische Universität. Fakultät für Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Technische Universität. Fakultät für Informatik

Machine Learning - Maschinen besser als das menschliche Gehirn?

Neuronale Netzwerke: Feed-forward versus recurrent (d.h. feed-back )

Neuronale Netze. Christian Böhm.

Mathematische Grundlagen III

Inhaltliche Planung für die Vorlesung

Konnektionismus und Kognition

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Klassifikationsverfahren und Neuronale Netze

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Vorlesung: Künstliche Intelligenz

Visuelle Vorwärtsmodelle für einen Roboter-Kamera- Kopf

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Intelligente Algorithmen Einführung in die Technologie

Einführung in die Lehrveranstaltung

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Einführung in die Computerlinguistik

Modellbildung und Simulation

Natürliche und künstliche neuronale Netze

Künstliche neuronale Netze

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Evolutionäre Algorithmen Einführung

Teil VIII. Weiterführende Veranstaltungen im FG Wissensverarbeitung

Transkript:

Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1

Softcomputing Einsatz zum Lösen von Problemen, die unvollständig beschrieben sind die keine eindeutige Lösung haben für die keine effizienten exakten Algorithmen bekannt sind einige Ansätze: Fuzzy-Logik, probabilistische Logik Künstliche neuronale Netze Evolutionäre Algorithmen 2

Neuronale Netze Neuron Nerv (griechisch) Modellierung und Simulation der Strukturen und Mechanismen im Nervensystem von Lebewesen Biologisches Vorbild Nervenzellen (Neuronen) Struktur (eines Teiles) eines Nervensystems Aktivierung von Neuronen, Reizübertragung Anpassung (Lernen) Mathematisches Modell künstliche Neuronen künstliche neuronale Netze (KNN) unterschiedlicher Struktur künstlichen Neuronen zugeordnete Funktionen Änderungen verschiedener Parameter des KNN 3

Natürliche Neuronen ZNS besteht aus miteinander verbundenen Nervenzellen (Neuronen) Skizze (Tafel) Struktur eines Neurons: Zellkörper Dendriten Synapsen (verstärkende, hemmende) Axon 4

Natürliche Neuronen Funktionsweise Informationsübertragung durch elektrochemische Vorgänge: aktivierte Zelle setzt an Synapsen Neurotransmitter frei, Neurotransmitter ändern die Durchlässigkeit der Zellmembran für Ionen an den Dendriten der empfangenden Zelle, Potential innerhalb der empfangenden Zelle ändert sich durch diffundierende Ionen, überschreitet die Summe der an allen Synapsen entstandenen Potentiale (Gesamtpotential) der Zelle einen Schwellwert, entsteht ein Aktionsspotential (Zelle feuert), Aktionspotential (Spannungsspitze) durchquert das Axon (Nervenfaser) zu den Synapsen zu Nachbarzellen, aktivierte Zelle setzt an Synapsen Neurotransmitter frei, usw. Stärke der Information durch Häufigkeit der Spannungsspitzen (Frequenzmodulation). 5

Eigenschaften natürlicher neuronaler Netze geringe Taktrate 10 3 s parallele Arbeit sehr vieler (10 11 ) Neuronen Neuronen sehr stark miteinander vernetzt (ca. 10 000 Nachbarn) Verarbeitungseinheit = Speicher Vorteile: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung Ziel: Nutzung dieser Vorteile zum Problemlösen durch Wissensrepräsentation als künstliche neuronale Netze 6

Anwendungen künstlicher neuronaler Netze Anwendungsgebiete: Bildverarbeitung, z.b. Schrifterkennung, Kantenerkennung Medizin, z.b. Auswertung von Langzeit-EKGs automatische Spracherkennung Sicherheit, z.b. Biometrische Identifizierung Wirtschaft, z.b. Aktienprognosen, Kreditrisikoabschätzung Robotik, z.b. Lernen vom Bewegungsabläufen 7

Geschichte künstlicher neuronaler Netze 1943, Warren McCulloch, Walter Pitts: A logical calculus of the ideas immanent in nervous activity 1949, Donald O. Hebb: The organization of behaviour 1958 erster Neurocomputer (Ziffernerkennung in 20 20-Bildsensor) 1960, Frank Rosenblatt: MARK 1 1969, Marvin Minsky, Seymour Papert: Perceptrons 1982, Teuvo Kohonen: selbstorganisierene Karten 1982, John Hopfield: Hopfield-Netze 1985, Backpropagation (Anwendung) 8

Inhalt der Lehrveranstaltung künstliche Neuronen (Aufbau und Funktion) Netz-Topologien: Einschicht-Feed-Forward-Netze Mehrschicht-Feed-Forward-Netze Rückgekoppelte Netze Assoziativspeicher Lernverfahren: überwacht korrigierend bestärkend unüberwacht Anwendungsbeispiele: Klassifizierung Mustererkennung Clustering 9

Literatur Rojas: Theorie der neuronalen Netze Nauck, Klawonn, Kruse: Neuronale Netze und Fuzzy-Systeme Callan: Neuronale Netze Zell: Simulation neuronaler Netze Hoffmann: Neuronale Netze Schöneburg: Neuronale Netzwerke. Einführung, Überblick und Anwendungsmöglichkeiten 10

Organisation der Lehrveranstaltung http://wwwstud.fh-zwickau.de/~sibsc/lehre/ss11/knn Vorlesung Mittwoch 11:20-12:50 in R201 (12 Vorlesungen) Hausaufgaben (zur Vorbereitung auf die Prüfung) zu (fast) jeder Vorlesung eine Übungsserie Besprechung der Lösungen zu Beginn der folgenden Vorlesung praktische Aufgaben (freiwillig) Wer möchte, kann fast alle besprochenen Netze in JavaNNS modellieren und ausprobieren: http://www.ra.cs.uni-tuebingen.de/ software/javanns Prüfung (Klausur) gesamtes Modul Softcomputing 90 min davon ca. 45 min KNN zugelassene Hilfsmittel (für KNN): handgeschriebenes A4-Blatt 11

Intelligente Systeme Umwelt Eindrücke, Reize System Wahrnehmen, Beobachten Daten Erkennen, Verstehen Anwenden, Können Lernen, Reflektieren Information Wissen Intelligenz 12

Lernen (Schrittweise) Änderung eines Systems (Verfahrens zur Problemlösung), so dass es bei der zukünftigen Anwendung dasselbe oder ähnliche Probleme besser löst. Aufgaben (Problem): Menge von Eingaben Aufgabeninstanz: Eingabe Lösung der Instanz: Ausgabe Bewertung der Lösung: Zuordnung Lösung Güte Schritte bei der Lösung einer Aufgabeninstanz: Schüler (System) 1. verwendet ein Lösungsverfahren V für diese Aufgabe 2. bestimmt eine Lösung l der gegebenen Aufgabeninstanz 3. erfährt (oder bestimmt) die Bewertung dieser Lösung l 4. modifiziert das Lösungsverfahren V zu V, um (in Zukunft) Lösungen mit besseren Bewertungen zu finden 5. wendet im nächsten Schritt zur Lösung dieser Aufgabe das Lösungsverfahren V an Lernen: Schritte 3 und 4 13

Lernverfahren Lernen durch Auswendiglernen (gegebener Beispiele) Anleitung (Anweisungen) logische Ableitung neuer Lösungsverfahren Analogie (zu gegebenen Beispielen) anhand Ähnlichkeit Erfahrung (durch gegebene Beispiele) Fähigkeit zur Verallgemeinerung Probieren und Beobachten (Erzeugen eigener Beispiele) nach Art des Lernenden: natürliches Lernen künstliches / maschinelles Lernen 14

Lernen durch gegebene Beispiele nach der zum Lernen verwendbaren Information: überwachtes Lernen (supervised learning) korrigierendes Lernen (corrective learning) bestärkendes Lernen (reinforcement learning) unüberwachtes Lernen (unsupervised learning) gewünschte Eigenschaften des Löseverfahrens: Korrektheit der Lösungen für die gegebenen Beispiele Generalisierung sinnvolle Lösungen für ähnliche Aufgaben 15

Korrigierendes Lernen Trainingsmenge: Paare (Eingabe, Ausgabe) (partielle Funktion an Stützstellen) Lernziel: (möglichst einfache) Funktion, die an den Stützstellen mit der Trainingsmenge übereinstimmt Rückmeldung: Trainer sagt nach jedem Lernschritt die korrekte Ausgabe. Prinzip: Lernen durch Nachahmen (mit Korrektur) Klassizierung (Zuordnung von Objekten zu Klassen, abhängig von den Merkmalen der Objekte) z.b. Zuordnung Sensorwerte Alarmklasse Trainingsmenge: Menge von Paaren (Objekteigenschaften, Klasse) Lernen von Funktionen Trainingsmenge: Menge von Paaren (Parameter, Funktionswert) 16

Bestärkendes Lernen Trainingsmenge: Eingaben Lernziel: (möglichst einfache) Funktion, die den Stützstellen korrekte Werte zuordnet Rückmeldung: Trainer sagt nach jedem Lernschritt, ob die Ausgabe korrekt war. Idee: Lernen durch Probieren Klassifizierung Trainingsmenge: Menge von Objekten (mit ihren Eigenschaften) Bewertung der Lösung: ja, falls Zuordnung zur korrekten Klasse, sonst nein Lernen von Plänen (Anlagestrategien, Bewegungsabläufe usw.) z.b. Aufstehen eines humanoiden Roboters Trainingsmenge: Menge von Parametern (Motorstellung) Bewertung der Lösung: ja, falls Plan zum Erfolg geführt hat (Roboter steht sicher), sonst nein 17

Unüberwachtes Lernen Trainingsmenge: Eingaben Lernziel: Gruppierung ähnliche Muster oft auch topologisch sinnvolle Anordnung Idee: Lernen ohne Trainer (ohne Rückmeldung) Entdecken von Strukturen Selbstorganisation von Objekten zu Gruppen (mit gemeinsamen Merkmalen, typische Vertreter) topologieerhaltende Abbildungen (z.b. Körperteile Gehirnregionen) Assoziation (z.b. in Schrifterkennung) 18

Natürliche Neuronen Lernen Speicherung von Informationen durch Anpassung der Durchlässigkeit (Leitfähigkeit) der Synapsen Regel von Hebb (1949): Synapsen zwischen gleichzeitig aktiven Zellen werden immer durchlässiger (Reizschwelle wird verringert), Verbindung an dieser Synapse wird stärker lange nicht benutzte Synapsen verlieren mit der Zeit ihre Durchlässigkeit Verbindung an dieser Synapse wird schwächer. 19