Ein selbstmodellierendes System für die Wasserwirtschaft

Ähnliche Dokumente
Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

C1/4 - Modellierung und Simulation von Neuronen

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

7. Vorlesung Neuronale Netze

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

Neuronale Netze (Konnektionismus)

Künstliche neuronale Netze

Neuronale Kodierung sensorischer Reize. Computational Neuroscience Jutta Kretzberg

Neuronale Netze. Anna Wallner. 15. Mai 2007

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Künstliche neuronale Netze

Einführung in die Computerlinguistik

Aufbau und Beschreibung Neuronaler Netzwerke

Künstliche Neuronale Netze

Proseminar Neuronale Netze Frühjahr 2004

Praktische Optimierung

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Künstliche Neuronale Netze

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Konzepte der AI Neuronale Netze

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

2.4.4 Die Fraktale Dimension

Neuronale Netze. Tilo Buschmann 5. März 2003

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Künstliche neuronale Netze

Einführung in Neuronale Netze

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Hannah Wester Juan Jose Gonzalez

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Thema 3: Radiale Basisfunktionen und RBF- Netze

Kohonennetze Selbstorganisierende Karten

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Rekurrente / rückgekoppelte neuronale Netzwerke

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

11. Neuronale Netze 1

Klassifikation linear separierbarer Probleme

Neuronale Netze mit mehreren Schichten

Grundlagen Neuronaler Netze

MULTILAYER-PERZEPTRON

Gehirn und Lernen Prof. Dr. Christian Willems Fachhochschule Gelsenkirchen Abteilung Recklinghausen

Universität Klagenfurt

auch: Konnektionismus; subsymbolische Wissensverarbeitung

Wie funktioniert unser Gehirn?

Intelligente Algorithmen Einführung in die Technologie

Wissensentdeckung in Datenbanken

Statistical Learning

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF

Was ist künstliche Intelligenz?

Intelligenz in Datenbanken. Dr. Stefan Freundt Star512 Datenbank GmbH. star512 datenbank gmbh

Künstliche Intelligenz

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

5. Lernregeln für neuronale Netze

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Einführung in neuronale Netze

Analogie als Kern der Kognition

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

vegetatives Nervensystem Zentrales Nervensystem ZNS Nervenzelle Synapse unwillkürlicher Teil des Nervensystems mit Sympathicus und Parasympathicus;

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim

6.2 Feed-Forward Netze

Von der Bestimmung zur Vorhersage: Wie sagt man den Netzzustand vorher?

Zentrales Nervensystem

Seminar K nowledge Engineering und L ernen in Spielen

1. Kommunikation Informationsweiterleitung und -verarbeitung

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011

Einfaches Framework für Neuronale Netze

Einführung in Neuronale Netze

1 Messfehler. 1.1 Systematischer Fehler. 1.2 Statistische Fehler

Anwendung von neuronalen Netzen, Projection Pursuits und CARTs für die Schätzerkonstruktion unter R

Lichtsinnesorgan Auge. Augentypen und visuelle Fähigkeiten bei Wirbellosen Tieren sind äußerst unterschiedlich.

Artificial Intelligence. Deep Learning Neuronale Netze

Wahrnehmung wie wir die Welt sehen

Finanzmarktprognose mit neuronalen Netzen

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Schriftlicher Test Teilklausur 2

Inhaltsverzeichnis. Einführung

Wie und wo lernen Kinder am besten welche Bedingungen brauchen sie?

Wissensbasierte Systeme

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

Überwachtes Lernen II: Netze und Support-Vektor-Maschinen

in der Versorgungstechnik? Prof. Dr. Michael Krödel

Transkript:

Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1

Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme Intelligenz Der logische Aufbau des Systems Der physische Aufbau des Systems Anwendungsmöglichkeiten Beispiel 2

Einleitung, Motivation und Voraussetzungen Das Problem 1. Informationsüberschuß 2. Unterschiedliche Datenquellen für eine Eingangsgröße Die Datenqualität hängt von Situationen ab Die Klassifikation der Situationen hängt von anderen Parametern ab 3. Temporärer Datenausfall einer Datenquelle 4. Fehlerklassifikation Fehler der 1. Ordnung (Meßfehler) und Fehler der 2. Ordnung (Prognosenfehler) Systematische und unsystematische 5. Das Vorwissen ist nur von Fehler 1. Ordnung beeinflußt Die Prognosenwerte werden von Meßwerten überschrieben 6. Das System hat Meßwerte und Prognosenwerte als Eingangsgröße 3

Einleitung, Motivation und Voraussetzungen Die Lösung soll sein Ein intelligentes System : Die Erkennung und Korrektur der systematischen Fehler Die situationsabhängige Kombination der Eingangsquellen Die Erkennung und Behandlung der Informationsausfälle Die möglichst beste Aussage wird gesucht (Fehler werden minimiert) Abschätzungen für Varianzen werden auch geliefert Das System setzt voraus Gute Systemarchitektur Ausreichender Speicherplatz 4

Künstliche Intelligenz (Konnektionismus) 1. Definition Die Modellierung der menschlichen Denkprozesse Lernen ohne die vollständige Speicherung des Vorwissens 2. Das Gehirn und seine Elemente Eingangselemente - Rezeptoren empfangen und setzen Aktionen in elektrische Signale um Ausgangselemente - Reaktionen Zwischenschicht - Informationen werden verarbeitet 3. Die Nervenzelle Zellkörper besitzt eine Membran - diese feuert bei der Überschreitung eines Schwellwertes (Zustandsveränderung) Synapsen - Rezeptoren empfangen Axone - Ausgangsverbindungen Synapsen - positive oder negative Übertragung des Impulses an nachgeschaltete Neuronen 5

Künstliche Intelligenz (Konnektionismus) 4. Die Hebb sche Hypothese (Donald O. Hebb) Das menschliche Lernen = Das Wachsen von Synapsen 5. Modellierung der Neuronen a = f ( e o g ) e¹ g¹ e² g² e o g Dendriten Zellkörper Aktivierungsfunktion Axon a 6

Künstliche Intelligenz (Konnektionismus) 6. Typische Aktivierungsfunktionen Treppenfunktion Sigmoidfunktion a falls x S chw ellw ert f ( x ) { b falls x Schw ellw ert a b f a b ( x ) 1 1 e x Schwellwert Schwellwert 7

Künstliche Intelligenz (Konnektionismus) 7. Einstufige Netze (Perzeptrons) 1950-1965 Frank Rosenblatt Interpretation visueller Eindrücke 8. Mehrstufige Netze Eingabeschicht verbogene Schichten Ausgabeschicht e¹ e² Verteiler von Eingabewerten Mit oder ohne Rückkopplung e o g e o g e o g Aktivierungsfunktion Aktivierungsfunktion Aktivierungsfunktion a¹ a² 8

Künstliche Intelligenz (Konnektionismus) 9. Tranining Künstlicher Neuronaler Netze 9.1. Eingabe von Testdaten und erwarteten Resultaten 9.2. Verarbeitung der Daten 9.3. Vergleich errechneter Ergebnisse und erwarteter Resultate 9.4. Anpassung der Gewichte 10. Backpropagation delta ( RES AUS ) f '( G EIN ) g g delta EIN i i j 9

Experte Systeme 9. Unterscheidung zwischen Daten und Wissen Das Wissen ist die Fähigkeit Daten richtig interpretieren zu können Beispiel: Daten: Fritz hat_kinder 5 Monika ist_tochter_von Fritz Nikolas ist_sohn_von Monika Sophie ist_tochter_von Monika Matt ist_sohn_von Fritz Frieder ist_sohn_von Fritz Maria ist_tochter_von Fritz Felix ist_sohn_von Fritz Monika Matt Nikolas Sophie Fritz Frieder Felix Maria 10

Experte Systeme Regeln: X ist_vater_von Y, falls Y ist_sohn_von X X ist_vater_von Y, falls Y ist_tochter_von X X ist_bruder_von Y, falls X ist_sohn_von Z und Y ist_sohn_von Z X ist_bruder_von Y, falls X ist_sohn_von Z und Y ist_tochter_von Z X ist_großvater_von Y, falls Y ist_sohn_von Z und Z ist_sohn_von X X ist_großvater_von Y, falls Y ist_tochter_von Z und Z ist_sohn_von X X ist_großvater_von Y, falls Y ist_tochter_von Z und Z ist_tochter_von X X ist_großvater_von Y, falls Y ist_sohn_von Z und Z ist_tochter_von X 11

Intelligenz Der logische Aufbau des Systems Das Netz ist die Menge aller Kenntnis-Zellen weder Anzahl oder Architektur des Netzes ist vorgegeben Kenntnis-Zellen werden die Systemabhängigkeiten lernen Zustände dieser Zelle werden mit der Verarbeitung von Daten (Vorwissen) geändert Durchschnittliche Werte werden gerechnet für jede Dimension werden Anzahl der Punkte, Abschätzung der Varianz und Fehlerdiagnose gerechnet Die Dimensionen sind die Eingangsgröße oder Kombination dessen Der Vermehrungsprozeß wird für eine Zelle gestartet, wenn die maximale Aufnahmefähigkeit der Zelle erreicht wurde 12

Intelligenz Der physische Aufbau des Systems Das Lernen Das Suchalgorithmus findet die entsprechende Zelle nach einen Situationskalkül wird der Zustand der Kenntnis-Zelle verändert diese Veränderung kann einen Vermehrungsprozeß anstoßen Die Anzahl der Kenntnis-Zellen wird von Parametern wie die minimale sinnvolle Größe einer Zelle in jeder Dimension maximale Variationen der partiellen Differenzen-Quotienten die Anzahl der Kenntnis-Zellen selbst gesteuert Das Auswertungstool ist iterativ systematische Fehler der 2. Ordnung werden analysiert und Abschätzungen für die Varianz werden gerechnet 13

Intelligenz Anwendungsmöglichkeiten Validieren bzw. Ergänzen von hydrologischen Modellen Die neuen Zellen werden generiert nur für Situationen wo das Modell versagt Fehleranalyse wird durchgeführt Autonomes System Datenbanktechnologie ist ein wichtiger Faktor 14

Intelligenz Beispiel zxy (, ) 100 2 Sin( 3 x) Cos( 5 y) 1 x 3 und 2 y 3 0 zxy (, ) 400 400 300 200 100 0 1 1.5 2 2.5 3 2 3 2.8 2.6 2.4 2.2 15

Intelligenz Methode anwenden 1. Das Netz mit 3000 zufällig generierten Werten {x,y,z} lernen lassen. 2. Der Vermehrungsprozeß wurde während des Lernens ausgeschaltet => nur eine Kenntnis-Zelle. 3. Zwei Kurven wurden gerechnet, kubische Spline Interpolation wurde angewendet. 4. Für 3000 {x,y} zufällig generierte Werte wurde mit dem Auswertungstool {y} gerechnet. 5. Fehler wurden analysiert. 16

Intelligenz Kurven für Eine Zelle 350 300 250 200 150 x y 100 50 0 1 2 3 4 5 6 ANZAHL Min Max Mittelwert von FEHLERPLUS Mittelwert von FEHLERMINUS 3000-156,587223 184,668319 23,69819197-23,69820049 Mittelwert von FEHLER Standardabweichung von FEHLER -8,5224E-06 58,2681473877 17