Einsatz Neuronale Netze

Ähnliche Dokumente
Neuronale Netze. Anna Wallner. 15. Mai 2007

Künstliche neuronale Netze

Hannah Wester Juan Jose Gonzalez

Neuronale Netze mit mehreren Schichten

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Künstliche neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Kleines Handbuch Neuronale Netze

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Technische Universität. Fakultät für Informatik

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Was sind Neuronale Netze?

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Kohonennetze Selbstorganisierende Karten

Selbstorganisierende Karten

Machine Learning - Maschinen besser als das menschliche Gehirn?

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF

Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung

Einführung in neuronale Netze

Neuronale Netze (I) Biologisches Neuronales Netz

Seminar zum Thema Künstliche Intelligenz:

Lernverfahren von Künstlichen Neuronalen Netzwerken

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Multi-Layer Neural Networks and Learning Algorithms

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Exkurs Modelle und Algorithmen

Structurally Evolved Neural Networks for Forecasting

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung

Eine kleine Einführung in neuronale Netze

Realisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien

Grundlagen Neuronaler Netze

5. Lernregeln für neuronale Netze

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Kodierung sensorischer Reize. Computational Neuroscience Jutta Kretzberg

Künstliche Neuronale Netze. 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5.

Rückblick auf die letzte Vorlesung. Bemerkung

Theoretische Informatik Kap 2: Berechnungstheorie

Exemplar für Prüfer/innen

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren

Eine zweidimensionale Stichprobe

Einführung in. Neuronale Netze

3 Optimierung mehrdimensionaler Funktionen f : R n R

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten

Räumliches Data Mining

Einführung in Neuronale Netze

Numerische Ableitung

Numerisches Programmieren, Übungen

Künstliche Neuronale Netze (KNN)

Vorbereitungsaufgaben für den Teil 1 der 3. Klausur am

Einführung in Neuronale Netze

Grundlagen und Aufbau von neuronalen Netzen

Einführungsseminar S1 Elemente der Fehlerrechnung. Physikalisches Praktikum der Fakultät für Physik und Astronomie Ruhr-Universität Bochum

9 Optimierung mehrdimensionaler reeller Funktionen f : R n R

Prototypische Schularbeit für die 7. Klasse (Autor: Gottfried Gurtner)

Simulation neuronaler Netzwerke mit TIKAPP

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert

6 Differentialgleichungen

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

(Unvollständige) Zusammenfassung Analysis Grundkurs

Mathematik für Biologen

Selbstorganisierende Karten

Selbstorganisierende Merkmalskarten

Auswahl von Schätzfunktionen

3.3 Linkskurve, Rechtskurve Wendepunkte

Studientag zur Algorithmischen Mathematik

Polynome im Einsatz: Bézier-Kurven im CAD

Aufbau und Beschreibung Neuronaler Netzwerke

Kapitel 8 Einführung der Integralrechnung über Flächenmaße

Unabhängigkeit KAPITEL 4

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Rekurrente Neuronale Netze. Rudolf Kruse Neuronale Netze 227

Modellbildung und Simulation

Künstliche neuronale Netze

5 Erwartungswerte, Varianzen und Kovarianzen

auch: Konnektionismus; subsymbolische Wissensverarbeitung

Neurobiologische Erkenntnisse im Zusammenhang mit einem kompetenzorientierten Unterricht. Barbara Gerhards

Auswertung und Lösung

Kern- und Schulcurriculum Mathematik Klasse 11/12. Stand Schuljahr 2012/13

Neuronale Netze. Literatur: J. Zupan, J. Gasteiger: Neural Networks in Chemistry and Drug Design, VCH, Weinheim, 2nd Ed. 1999, ISBN

Demo: Mathe-CD. Prüfungsaufgaben Mündliches Abitur. Analysis. Teilbereich 1: Ganzrationale Funktionen 1. März 2002

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Theoretische Informatik 1

WURZEL Werkstatt Mathematik Polynome Grundlagen

Transkript:

1 Einsatz Neuronale Netze Funktionsweise und Anwendungen Mainz, 14. Oktober 2005

2 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze Modellbildung, Datenvorbereitung Anwendungsbeispiele Selbstorganisierende Karten (Kohonen-Netze)

3 (Künstliche) Intelligenz: Individuelle Intelligenz Intelligenz einer Gruppe (Schwarmintelligenz) emotionale Intelligenz Künstliche Intelligenz: Alan Turing 1950: Turing Test: Eine Maschine hat künstliche Intelligenz, wenn ein Beobachter nicht unterscheiden kann, ob er es mit einem Menschen oder einer Maschine zu tun hat. Forschungsziel: Intelligente Leistungen analysieren und berechenbar machen.

4 Problemlösungsprozeß: Algorithmisch: Aufgabenstellung intuitiv lösen In numerische Algorithmen umsetzen Als Programm realisieren Voraussetzungen streng einhalten Expertensystem: Aufgabenstellung intuitiv lösen Regeln aufstellen Regeln anwenden auf ähnliche Probleme anwendbar Neuronale Netze: Aufgabenstellung intuitiv lösen Vorgabe von Beispieldaten auf Basis der Lerndaten verallgemeinern auf ähnliche Probleme anwendbar

5 Physikalisches Wirkverhalten:

6 Physikalisches Wirkverhalten eines Motors: Abstraktion: o = f(e) : Der Ausgang o hängt funktional vom Eingang e ab, dieser Zusammenhang wird durch eine Funktion f beschrieben: o = f(e).

7 Optimieren: herkömmlich: mit neuronal. Netz:

8 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze Modellbildung, Datenvorbereitung Anwendungebeispiele Selbstorganisierende Karten (Kohonen-Netze)

9 Vergleich Gehirn - Rechner: Gehirn: hohe Parallelität Fehlertoleranz Mustererkennung Verallgemeinern Selbstorganisation ca. 10 11 Neuronen Jedes Neuron ist im Schnitt mit 10 4 anderen verbunden Rechner: Präzision Fehlerloses Speichern Schnelles Ausführen eines Algorithmus von Neumann Architektur kaum vernetzt

10 Das biologische Neuron: (Berns, Kolb)

11 Das Rechnerneuron: Eingabe: e = (e 1,..., e n ) Gewichte: w = (w 1,..., w n ) Nettowert: net := <e, w> - Θ = e i w i - Θ Aktivität: a = a(<e, w> - Θ)

12 Die sigmoide Aktivierungsfunktion: Funktion: a(x) = 1 1+e -gx Ableitung: a'(x) = g (1-a(x)) a(x) Steigung in x=0: a'(0) = g/4 Alternativ: - artanh: R -> (-1, 1), - Parabelstücke,...

13 Schwellenwertelement: Aktivierungsfunktion: Schwellenwertfunktion Funktion: a(x) = (x 0) Nettowert: net := <e, w> - Θ 0 Schwellenwertelement trennt Eingabedaten linear, logisch verknüpfte Schwellenwertelemente legen konvexen Simplex fest.

14 Lineare Trennung: Verdeckte Neuronen trennen linear: Ausgabeneuron fast Ergebnisse durch ODER zusammen: Die äußeren Punkte führen zu einer positiven Antwort.

15 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze: Topologie, Lernverfahren, Bewertung Modellbildung, Datenvorbereitung Anwendungsbeispiele Selbstorganisierende Karten (Kohonen-Netze)

16 Neuronale Netze - Schichtenmodell:

17 Schichtenmodell: Ein- und Ausgabe Eingabeschicht: analoge Eingabe: Lineare Transformation auf das Intervall [-1; 1] diskrete Eingabe: Für jeden Wert ein Neuron, Eingabe aus {-1, 1} Ausgabeschicht: Zielaktivitäten der Ausgabeschicht sollen gleichverteilt im Intervall [0.2; 0.8] sein! Umkehrung der Ausgabefunktion kann sein: f(x) = 0.2 + 0.6 ((x-m)/x-m)) s : [m; M] Y[0.2; 0.8]; s>0.

18 Topologie des Schichtenmodells: Kolmogoroff 1957: Jede vektorwertige Funktion f: [0; 1] n R m kann durch ein dreischichtiges neuronales Netz abgebildet werden. Hierzu werden n Eingabeneuronen, 2n+1 verdeckte Neuronen und m Ausgabeneuronen benötigt. Die Aktivierungsfunktionen hängen von f und n ab. Bemerkungen: Der Beweis ist ein nicht-konstruktiver Existenzbeweis. Er enthält keine Angaben über die Aktivierungsfunktion. Der Satz hat keine praktische Bedeutung.

19 Lernen im vorwärtsgerichteten Netz: Gewichte so ändern, dass die Abweichungen in den Lerndaten klein werden: Fehler E w = 1 2 n i = 1 z i o i w 2 minimal: grad E w = E w w 1, E w w 2,, E w w r = 0 weiter: Gradient berechnen, Null setzen??

20 Fehlerrückverfolgung (Back Propagation): Nettofehler: Fehler in den Nettowerten jedes Neurons. Verfahren: Aus den Fehlern in der Ausgabeschicht die Nettofehler Schicht für Schicht in Richtung Eingabeschicht berechnen.

21 Fehlerrückverfolgung (Back Propagation):

22 Fehlerrückverfolgung: Delta-Regel: w t = grad E w w t 1 Geradensuche: Entlang des Gradienten wird das Minimum auf der durch 3 Punkte festgelegten Fehlerparabel bestimmt. Konjugiertenmethode: Nach der Delta-Regel wird eine Richtung orthogonal zum Gradienten gesucht, die den Fehler weiter verkleinert.

23 Lernverfahren Levenberg-Marquardt: (Newton-Raphson mit Näherung für 2. Ableitung) gekoppelt mit Gradientenabstieg:! LGS muss gelöst werden!

24 Beurteilung des Gelernten: Fehler in den Lerndaten: - maximaler Fehler - durchschnittlicher Fehler - Standardabweichung Fehler in Kontrolldaten: - 20% der Lerndaten - max., durchschn. Fehler - Standardabweichung Systemspezialist: - Beurteilung von Trendaussagen Autokorrelation:

25 Modellstatistik: - s-statistik über Anzahl Neuronen - Korrelationen über Anzahl Neuronen - Vergleich Lernund Testdaten

26 Beispiel: Simulation am Rechner

27 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze Modellbildung, Datenvorbereitung: Parameterauswahl, -reduktion, transformation Anwendungsbeispiele Selbstorganisierende Karten (Kohonen-Netze)

28 Modellbildung: Einflussparameter des Systems bestimmen Merkmale extrahieren: - Mittelwerte, geglättete Werte - Differenzen, Korrelationen zwischen Parametern - Zeitreihen: Fourier-, Hadamardkoeffizzienten,... Parameterreduktion durch Dimensionsanalyse: - dimensionslose Ein- und Ausgabeparameter (Ähnlichkeitsmechanik)

29 Datenvorbereitung: Eingabe: - auf Standardverteilung transformieren - Transformation auf [-1, 1] (sensibles Intervall) - Hauptachsenreduktion Ausgabe: - auf [0.2, 0.8] transformieren - gleichverteilen in [0.2, 0.8]

30 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze Modellbildung, Datenvorbereitung Anwendungsbeispiele Selbstorganisierende Karten (Kohonen-Netze)

31 Sensorkorrektur: Dipl-Ing. Th. Froese, Atlan-tec KG MessTec 4/1996 (vereinfacht) Neuronales Netz: Eingabe: S(O 2,T,rL), T, rl Sensor liefert O 2 -Gehalt in Abhängigkeit von Temperatur (T) relativer Luftfeuchtigkeit (rl) Ausgabe: O 2 (wahrer Wert) Lerndaten: mehrere hundert Datensätze

32 Prüfstandunterstützung: Dr. Ing. R. Stricker, BMW AG VDI-Berichte 1283, 1996 Ziel: Reduzierung der Prüfstandläufe typische Aufgaben: Ermittlung der optimierten stationären Kennfelder aus den Roh-Kennfeldern vorhandener Motoren Betriebsverhalten des Motors im Kaltbetrieb Problem-KnowHow-Basis: 9 Schichtennetze 31-65-1 17000 Lerndatensätze Daten von 20 Motoren Task-KnowHow-Basis: Abweichung zu P-KH-Basis Schichtennetze 7-15-1 Experimente und Training bis Fehler klein

33 Mustererkennung: Fahrzeug-, Robotersteuerung: Neuronales Netz steuert Fahrzeug oder Roboter korrekt. Es lernt durch "Probefahren". Potentielle Kündiger: Auf der Grundlage von Verbrauchs- und Kundendaten werden potentielle Kündiger ermittelt und mit Sonderkonditionen gehalten. Insolvenzerkennung: Auf der Grundlage von Jahresbilanzen werden Muster ermittelt, die auf Insolvenzverdacht schließen lassen. Aktienvorhersage: Vorhersage auf der Grundlage des bisherigen Kursverlaufs und betriebswirtschaftlicher Daten.

34 Anwendungen in der (Bio)chemie: Herkunft Olivenöl: Die Konzentrationen von neun Säuren bestimmen die Herkunft (Region) italienischer Olivenölsorten. Olfaktometer: Mikroquarzanlage mit 6 verschiedenen piezoelektrischen Sensoren. Ein neuronales Netz lernt, Duftstoffe zu erkennen. Reaktionsfähigkeit: Aus quantitativen Eigenschaften einer Bindung wird auf ihre Reaktionsfähigkeit geschlossen. Proteinstruktur: Aus der Primärstruktur der Proteine (Aminosäurenfolge) wird auf ihre (räumlich geometrische) Sekundärstruktur geschlossen.

35 Erkennen des Offsets bei Frontal-Crash Diplomarbeit Bremer - 40% Überdeckung - 4 Sensoren: SS, A-S - Offset: -500-500mm Offset-Bestimmung: - 3, 5 ms Intervalle: 60, 100 Datenpunkte - a, v, d: Mittelwert Betrag d - ca. 250 Datensätze - versch. Lernregeln - untersch. Topologien

36 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze Modellbildung, Datenvorbereitung Anwendungsbeispiele Selbstorganisierende Karten (Kohonen-Netze): Optimaler Weg, Klassifizierung

37 Optimaler Bohrerverfahrweg: Anfang

38 Optimaler Bohrerverfahrweg: 1.Schritt

39 Optimaler Bohrerverfahrweg: guter Weg

40 Neuronale Netze klassifizieren (erkennen Muster) lernen Systemverhalten optimieren steuern Autos

41 Neuronale Netze klassifizieren (erkennen Muster) lernen Systemverhalten optimieren steuern Autos Was macht der Mensch noch selbst?

42 Literatur: Kinnebrock, W.: Neuronale Netze. Oldenbourg, München, 1994. Braun, H., J. Feulner und R. Malaka: Praktikum Neuronale Netze. Springer, 1995. Rojas, R.: Neuronal Networks. A Systematic Introduction. Springer, New York, 1996. Theorie neuronaler Netze: eine systematische Einführung. Springer, 1996. Mainzer, K.: Künstliche Intelligenz. Wiss. Buchges., Darmstadt, 2003. URL: http://www.fh-bingen.de/~kilsch pdf: http://www.fh-bingen.de/~kilsch/sw/mainz0510.pdf