Einsatz Neuronale Netze
|
|
|
- Cornelius Wagner
- vor 7 Jahren
- Abrufe
Transkript
1 1 Einsatz Neuronale Netze Funktionsweise und Anwendungen Mainz, 14. Oktober 2005
2 2 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze Modellbildung, Datenvorbereitung Anwendungsbeispiele Selbstorganisierende Karten (Kohonen-Netze)
3 3 (Künstliche) Intelligenz: Individuelle Intelligenz Intelligenz einer Gruppe (Schwarmintelligenz) emotionale Intelligenz Künstliche Intelligenz: Alan Turing 1950: Turing Test: Eine Maschine hat künstliche Intelligenz, wenn ein Beobachter nicht unterscheiden kann, ob er es mit einem Menschen oder einer Maschine zu tun hat. Forschungsziel: Intelligente Leistungen analysieren und berechenbar machen.
4 4 Problemlösungsprozeß: Algorithmisch: Aufgabenstellung intuitiv lösen In numerische Algorithmen umsetzen Als Programm realisieren Voraussetzungen streng einhalten Expertensystem: Aufgabenstellung intuitiv lösen Regeln aufstellen Regeln anwenden auf ähnliche Probleme anwendbar Neuronale Netze: Aufgabenstellung intuitiv lösen Vorgabe von Beispieldaten auf Basis der Lerndaten verallgemeinern auf ähnliche Probleme anwendbar
5 5 Physikalisches Wirkverhalten:
6 6 Physikalisches Wirkverhalten eines Motors: Abstraktion: o = f(e) : Der Ausgang o hängt funktional vom Eingang e ab, dieser Zusammenhang wird durch eine Funktion f beschrieben: o = f(e).
7 7 Optimieren: herkömmlich: mit neuronal. Netz:
8 8 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze Modellbildung, Datenvorbereitung Anwendungebeispiele Selbstorganisierende Karten (Kohonen-Netze)
9 9 Vergleich Gehirn - Rechner: Gehirn: hohe Parallelität Fehlertoleranz Mustererkennung Verallgemeinern Selbstorganisation ca Neuronen Jedes Neuron ist im Schnitt mit 10 4 anderen verbunden Rechner: Präzision Fehlerloses Speichern Schnelles Ausführen eines Algorithmus von Neumann Architektur kaum vernetzt
10 10 Das biologische Neuron: (Berns, Kolb)
11 11 Das Rechnerneuron: Eingabe: e = (e 1,..., e n ) Gewichte: w = (w 1,..., w n ) Nettowert: net := <e, w> - Θ = e i w i - Θ Aktivität: a = a(<e, w> - Θ)
12 12 Die sigmoide Aktivierungsfunktion: Funktion: a(x) = 1 1+e -gx Ableitung: a'(x) = g (1-a(x)) a(x) Steigung in x=0: a'(0) = g/4 Alternativ: - artanh: R -> (-1, 1), - Parabelstücke,...
13 13 Schwellenwertelement: Aktivierungsfunktion: Schwellenwertfunktion Funktion: a(x) = (x 0) Nettowert: net := <e, w> - Θ 0 Schwellenwertelement trennt Eingabedaten linear, logisch verknüpfte Schwellenwertelemente legen konvexen Simplex fest.
14 14 Lineare Trennung: Verdeckte Neuronen trennen linear: Ausgabeneuron fast Ergebnisse durch ODER zusammen: Die äußeren Punkte führen zu einer positiven Antwort.
15 15 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze: Topologie, Lernverfahren, Bewertung Modellbildung, Datenvorbereitung Anwendungsbeispiele Selbstorganisierende Karten (Kohonen-Netze)
16 16 Neuronale Netze - Schichtenmodell:
17 17 Schichtenmodell: Ein- und Ausgabe Eingabeschicht: analoge Eingabe: Lineare Transformation auf das Intervall [-1; 1] diskrete Eingabe: Für jeden Wert ein Neuron, Eingabe aus {-1, 1} Ausgabeschicht: Zielaktivitäten der Ausgabeschicht sollen gleichverteilt im Intervall [0.2; 0.8] sein! Umkehrung der Ausgabefunktion kann sein: f(x) = ((x-m)/x-m)) s : [m; M] Y[0.2; 0.8]; s>0.
18 18 Topologie des Schichtenmodells: Kolmogoroff 1957: Jede vektorwertige Funktion f: [0; 1] n R m kann durch ein dreischichtiges neuronales Netz abgebildet werden. Hierzu werden n Eingabeneuronen, 2n+1 verdeckte Neuronen und m Ausgabeneuronen benötigt. Die Aktivierungsfunktionen hängen von f und n ab. Bemerkungen: Der Beweis ist ein nicht-konstruktiver Existenzbeweis. Er enthält keine Angaben über die Aktivierungsfunktion. Der Satz hat keine praktische Bedeutung.
19 19 Lernen im vorwärtsgerichteten Netz: Gewichte so ändern, dass die Abweichungen in den Lerndaten klein werden: Fehler E w = 1 2 n i = 1 z i o i w 2 minimal: grad E w = E w w 1, E w w 2,, E w w r = 0 weiter: Gradient berechnen, Null setzen??
20 20 Fehlerrückverfolgung (Back Propagation): Nettofehler: Fehler in den Nettowerten jedes Neurons. Verfahren: Aus den Fehlern in der Ausgabeschicht die Nettofehler Schicht für Schicht in Richtung Eingabeschicht berechnen.
21 21 Fehlerrückverfolgung (Back Propagation):
22 22 Fehlerrückverfolgung: Delta-Regel: w t = grad E w w t 1 Geradensuche: Entlang des Gradienten wird das Minimum auf der durch 3 Punkte festgelegten Fehlerparabel bestimmt. Konjugiertenmethode: Nach der Delta-Regel wird eine Richtung orthogonal zum Gradienten gesucht, die den Fehler weiter verkleinert.
23 23 Lernverfahren Levenberg-Marquardt: (Newton-Raphson mit Näherung für 2. Ableitung) gekoppelt mit Gradientenabstieg:! LGS muss gelöst werden!
24 24 Beurteilung des Gelernten: Fehler in den Lerndaten: - maximaler Fehler - durchschnittlicher Fehler - Standardabweichung Fehler in Kontrolldaten: - 20% der Lerndaten - max., durchschn. Fehler - Standardabweichung Systemspezialist: - Beurteilung von Trendaussagen Autokorrelation:
25 25 Modellstatistik: - s-statistik über Anzahl Neuronen - Korrelationen über Anzahl Neuronen - Vergleich Lernund Testdaten
26 26 Beispiel: Simulation am Rechner
27 27 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze Modellbildung, Datenvorbereitung: Parameterauswahl, -reduktion, transformation Anwendungsbeispiele Selbstorganisierende Karten (Kohonen-Netze)
28 28 Modellbildung: Einflussparameter des Systems bestimmen Merkmale extrahieren: - Mittelwerte, geglättete Werte - Differenzen, Korrelationen zwischen Parametern - Zeitreihen: Fourier-, Hadamardkoeffizzienten,... Parameterreduktion durch Dimensionsanalyse: - dimensionslose Ein- und Ausgabeparameter (Ähnlichkeitsmechanik)
29 29 Datenvorbereitung: Eingabe: - auf Standardverteilung transformieren - Transformation auf [-1, 1] (sensibles Intervall) - Hauptachsenreduktion Ausgabe: - auf [0.2, 0.8] transformieren - gleichverteilen in [0.2, 0.8]
30 30 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze Modellbildung, Datenvorbereitung Anwendungsbeispiele Selbstorganisierende Karten (Kohonen-Netze)
31 31 Sensorkorrektur: Dipl-Ing. Th. Froese, Atlan-tec KG MessTec 4/1996 (vereinfacht) Neuronales Netz: Eingabe: S(O 2,T,rL), T, rl Sensor liefert O 2 -Gehalt in Abhängigkeit von Temperatur (T) relativer Luftfeuchtigkeit (rl) Ausgabe: O 2 (wahrer Wert) Lerndaten: mehrere hundert Datensätze
32 32 Prüfstandunterstützung: Dr. Ing. R. Stricker, BMW AG VDI-Berichte 1283, 1996 Ziel: Reduzierung der Prüfstandläufe typische Aufgaben: Ermittlung der optimierten stationären Kennfelder aus den Roh-Kennfeldern vorhandener Motoren Betriebsverhalten des Motors im Kaltbetrieb Problem-KnowHow-Basis: 9 Schichtennetze Lerndatensätze Daten von 20 Motoren Task-KnowHow-Basis: Abweichung zu P-KH-Basis Schichtennetze Experimente und Training bis Fehler klein
33 33 Mustererkennung: Fahrzeug-, Robotersteuerung: Neuronales Netz steuert Fahrzeug oder Roboter korrekt. Es lernt durch "Probefahren". Potentielle Kündiger: Auf der Grundlage von Verbrauchs- und Kundendaten werden potentielle Kündiger ermittelt und mit Sonderkonditionen gehalten. Insolvenzerkennung: Auf der Grundlage von Jahresbilanzen werden Muster ermittelt, die auf Insolvenzverdacht schließen lassen. Aktienvorhersage: Vorhersage auf der Grundlage des bisherigen Kursverlaufs und betriebswirtschaftlicher Daten.
34 34 Anwendungen in der (Bio)chemie: Herkunft Olivenöl: Die Konzentrationen von neun Säuren bestimmen die Herkunft (Region) italienischer Olivenölsorten. Olfaktometer: Mikroquarzanlage mit 6 verschiedenen piezoelektrischen Sensoren. Ein neuronales Netz lernt, Duftstoffe zu erkennen. Reaktionsfähigkeit: Aus quantitativen Eigenschaften einer Bindung wird auf ihre Reaktionsfähigkeit geschlossen. Proteinstruktur: Aus der Primärstruktur der Proteine (Aminosäurenfolge) wird auf ihre (räumlich geometrische) Sekundärstruktur geschlossen.
35 35 Erkennen des Offsets bei Frontal-Crash Diplomarbeit Bremer - 40% Überdeckung - 4 Sensoren: SS, A-S - Offset: mm Offset-Bestimmung: - 3, 5 ms Intervalle: 60, 100 Datenpunkte - a, v, d: Mittelwert Betrag d - ca. 250 Datensätze - versch. Lernregeln - untersch. Topologien
36 36 Überblick: Künstliche Intelligenz, Problemlösungsverfahren Rechnerneuron Vorwärstgerichtete Netze Modellbildung, Datenvorbereitung Anwendungsbeispiele Selbstorganisierende Karten (Kohonen-Netze): Optimaler Weg, Klassifizierung
37 37 Optimaler Bohrerverfahrweg: Anfang
38 38 Optimaler Bohrerverfahrweg: 1.Schritt
39 39 Optimaler Bohrerverfahrweg: guter Weg
40 40 Neuronale Netze klassifizieren (erkennen Muster) lernen Systemverhalten optimieren steuern Autos
41 41 Neuronale Netze klassifizieren (erkennen Muster) lernen Systemverhalten optimieren steuern Autos Was macht der Mensch noch selbst?
42 42 Literatur: Kinnebrock, W.: Neuronale Netze. Oldenbourg, München, Braun, H., J. Feulner und R. Malaka: Praktikum Neuronale Netze. Springer, Rojas, R.: Neuronal Networks. A Systematic Introduction. Springer, New York, Theorie neuronaler Netze: eine systematische Einführung. Springer, Mainzer, K.: Künstliche Intelligenz. Wiss. Buchges., Darmstadt, URL: pdf:
Neuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
Künstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
Hannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
Neuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische
Maschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
Künstliche neuronale Netze
Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche
Computational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund [email protected] Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen
Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Internationale Energiewirtschaftstagung Wien - 12.02.2015 Maike Hasselmann, Simon Döing Einführung Wärmeversorgungsanlagen
(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: [email protected] (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
Kleines Handbuch Neuronale Netze
Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie
Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.
Simulation Neuronaler Netze Eine praxisorientierte Einführung Matthias Haun Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen expert Inhaltsverzeichnis 1 Einleitung 1.1 Über das Projekt 1 1.2 Über das
Technische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2
Was sind Neuronale Netze?
Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk
Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
Kohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
Selbstorganisierende Karten
Selbstorganisierende Karten Yacin Bessas [email protected] Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-
Machine Learning - Maschinen besser als das menschliche Gehirn?
Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der
Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003
Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung
Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung
Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung Günter Faes DyStar GmbH & Co. Deutschland KG Kaiser-Wilhelm-Allee Postfach 10 04 80 D-51304 Leverkusen Telefon:
Einführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
Neuronale Netze (I) Biologisches Neuronales Netz
Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung
Seminar zum Thema Künstliche Intelligenz:
Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden
Lernverfahren von Künstlichen Neuronalen Netzwerken
Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.
Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40
Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)
Multi-Layer Neural Networks and Learning Algorithms
Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung
Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
Exkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
Structurally Evolved Neural Networks for Forecasting
Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale
Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung
Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:
Eine kleine Einführung in neuronale Netze
Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch
Realisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen
Realisierung von CI- Regelalgorithmen auf verschiedenen Hardwareplattformen Prof.Dr.-Ing. K.-D. Morgeneier FH Jena, FB Elektrotechnik und Informationstechnik www.fh-jena.de Gliederung 2. Einführung 3.
Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien
Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Katharina Witowski [email protected] Übersicht Beispiel Allgemeines zum LS-OPT Viewer Visualisierung von Simulationsergebnissen
Grundlagen Neuronaler Netze
Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht
5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten
Neuronale Kodierung sensorischer Reize. Computational Neuroscience Jutta Kretzberg
Neuronale Kodierung sensorischer Reize Computational Neuroscience 30.10.2006 Jutta Kretzberg (Vorläufiges) Vorlesungsprogramm 23.10.06!! Motivation 30.10.06!! Neuronale Kodierung sensorischer Reize 06.11.06!!
Künstliche Neuronale Netze. 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5.
Künstliche Neuronale Netze Wolfram Schiffmann FernUniversität Hagen Rechnerarchitektur 1. Einführung 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5. Zusammenfassung
Rückblick auf die letzte Vorlesung. Bemerkung
Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D
Theoretische Informatik Kap 2: Berechnungstheorie
Gliederung der Vorlesung 0. Grundbegriffe 1. Formale Sprachen/Automatentheorie 1.1. Grammatiken 1.2. Reguläre Sprachen 1.3. Kontextfreie Sprachen 2. Berechnungstheorie 2.1. Berechenbarkeitsmodelle 2.2.
Exemplar für Prüfer/innen
Exemplar für Prüfer/innen Kompensationsprüfung zur standardisierten kompetenzorientierten schriftlichen Reifeprüfung AHS Juni 2015 Mathematik Kompensationsprüfung Angabe für Prüfer/innen Hinweise zur Kompensationsprüfung
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens
Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung
KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren
KNN-Methode zur Einschätzung von Veränderungen des Salzgehaltes in Ästuaren Holger Rahlf; Reiner Schubert www.baw.de Künstlich Neuronales Netz Gliederung Einleitung Grundlagen Möglichkeit und Grenzen Anwendung
Eine zweidimensionale Stichprobe
Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,
Einführung in. Neuronale Netze
Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:
3 Optimierung mehrdimensionaler Funktionen f : R n R
3 Optimierung mehrdimensionaler Funktionen f : R n R 31 Optimierung ohne Nebenbedingungen Optimierung heißt eigentlich: Wir suchen ein x R n so, dass f(x ) f(x) für alle x R n (dann heißt x globales Minimum)
Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer
Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind
Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten
Fachhochschule Brandenburg Fachbereich Informatik und Medien Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Diplomkolloquium Sven Schröder Aufgabenstellung und Motivation Biologisches
Räumliches Data Mining
Räumliches Data Mining Spatial Data Mining Data Mining = Suche nach "interessanten Mustern" in sehr großen Datensätzen => explorative Datenanlyse auch: Knowledge Discovery in Databases (KDD) verbreitete
Einführung in Neuronale Netze
Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche
Numerische Ableitung
Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:
Numerisches Programmieren, Übungen
Technische Universität München SS 2012 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Alexander Breuer Dipl.-Math. Dipl.-Inf. Jürgen Bräckle Dr.-Ing. Markus
Künstliche Neuronale Netze (KNN)
Künstliche Neuronale Netze (KNN) Die von Neuronalen Netzen ausgehende Faszination besteht darin, dass sie in der Lage sind, in einigen Fällen Probleme von hoher Kompleität mit einfachen Mitteln zu lösen.
Vorbereitungsaufgaben für den Teil 1 der 3. Klausur am
Vorbereitungsaufgaben für den Teil 1 der 3. Klausur am 24.2.15 1 NT 2013: Quadratische und lineare Funktionen Die abgebildete Parabel gehört zur Funktion f mit f(x) = x 2 5 x + 4. a) Zeige durch eine Rechnung,
Einführung in Neuronale Netze
Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme
Grundlagen und Aufbau von neuronalen Netzen
Grundlagen und Aufbau von neuronalen Netzen Künstliche neuronale Netze (KNN) modellieren auf stark vereinfachte Weise Organisationsprinzipien und Abläufe biologischer neuronaler Netze Jedes KNN besteht
Einführungsseminar S1 Elemente der Fehlerrechnung. Physikalisches Praktikum der Fakultät für Physik und Astronomie Ruhr-Universität Bochum
Einführungsseminar S1 Elemente der Fehlerrechnung Physikalisches Praktikum der Fakultät für Physik und Astronomie Ruhr-Universität Bochum Literatur Wolfgang Kamke Der Umgang mit experimentellen Daten,
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R
9 Optimierung mehrdimensionaler reeller Funktionen f : R n R 91 Optimierung ohne Nebenbedingungen Ein Optimum zu suchen heißt, den größten oder den kleinsten Wert zu suchen Wir suchen also ein x R n, sodass
Prototypische Schularbeit für die 7. Klasse (Autor: Gottfried Gurtner)
Prototypische Schularbeit für die 7. Klasse (Autor: Gottfried Gurtner) Lernstoff: Grundkompetenzen zu funktionalen Abhängigkeiten der 5. und 6. Klasse (FA1.1 FA5.6) Grundkompetenzen zur Analysis der 7.
Simulation neuronaler Netzwerke mit TIKAPP
Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber ([email protected]) S. Nguyen ([email protected]) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert
Konfidenzintervalle Grundlegendes Prinzip Erwartungswert Bekannte Varianz Unbekannte Varianz Anteilswert Differenzen von Erwartungswert Anteilswert Beispiel für Konfidenzintervall Im Prinzip haben wir
6 Differentialgleichungen
88 6 Differentialgleichungen Eine Differentialgleichung ist eine Gleichung, in der eine unbekannte Funktion y = y(x) und Ableitungen (die erste oder auch höhere) von y vorkommen. Lösungen einer Differentialgleichung
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc
(Unvollständige) Zusammenfassung Analysis Grundkurs
(Unvollständige) Zusammenfassung Analysis Grundkurs. Ableitungs und Integrationsregeln (Folgende 0 Funktionen sind alles Funktionen aus dem Zentralabitur Grundkurs.) a) f(t) = 0,0t e 0,t b) f(t) = t 3
Mathematik für Biologen
Mathematik für Biologen Prof. Dr. Rüdiger W. Braun Heinrich-Heine-Universität Düsseldorf 05. Dezember 2012 1 Datenpaare Korrelation 2 Lineare Regression Problemstellung Beispiel Bleibelastung 3 Regression
Selbstorganisierende Karten
Selbstorganisierende Karten Jochen Weiß Inhaltsverzeichnis 1 Das menschliche Gehirn als Vorbild 2 2 Architektur einer SOM 3 2.1 Aufbau der Neuronenschichten 3 2.2 Gewichts- und Eingabevektor 3 3 Das Training
Selbstorganisierende Merkmalskarten
Selbstorganisierende Merkmalskarten Motivation (Gehirn) Architektur Topographische Merkmalskarten Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele (Folien: Holger Arndt) Motivation:
Auswahl von Schätzfunktionen
Auswahl von Schätzfunktionen Worum geht es in diesem Modul? Überblick zur Punktschätzung Vorüberlegung zur Effizienz Vergleich unserer Schätzer für My unter Normalverteilung Relative Effizienz Einführung
3.3 Linkskurve, Rechtskurve Wendepunkte
166 FUNKTIONSUNTERSUCHUNGEN 3.3 Linkskurve, Rechtskurve Wendepunkte Einführung (1) Anschauliche Erklärung des Begriffs Wendepunkt Bei Motorradrennen lässt sich beobachten, wie sich die Motorradfahrer beim
Studientag zur Algorithmischen Mathematik
Studientag zur Algorithmischen Mathematik Aufgaben zur nicht-linearen Optimierung Teil II Winfried Hochstättler Diskrete Mathematik und Optimierung FernUniversität in Hagen 1. Juli 2012 Aufgabe 5 Bestimmen
Polynome im Einsatz: Bézier-Kurven im CAD
Polynome im Einsatz: Bézier-Kurven im CAD Dipl.-Inform. Wolfgang Globke Institut für Algebra und Geometrie Arbeitsgruppe Differentialgeometrie Universität Karlsruhe 1 / 25 Kurven im Raum Eine Kurve im
Aufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
Kapitel 8 Einführung der Integralrechnung über Flächenmaße
8. Flächenmaße 8.1 Flächenmaßfunktionen zu nicht negativen Randfunktionen Wir wenden uns einem auf den ersten Blick neuen Thema zu, der Ermittlung des Flächenmaßes A von Flächen A, die vom nicht unterhalb
Unabhängigkeit KAPITEL 4
KAPITEL 4 Unabhängigkeit 4.1. Unabhängigkeit von Ereignissen Wir stellen uns vor, dass zwei Personen jeweils eine Münze werfen. In vielen Fällen kann man annehmen, dass die eine Münze die andere nicht
Neuronale Netze. Seminar aus Algorithmik Stefan Craß,
Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze
Rekurrente Neuronale Netze. Rudolf Kruse Neuronale Netze 227
Rekurrente Neuronale Netze Rudolf Kruse Neuronale Netze 227 Rekurrente Netze: Abkühlungsgesetz Ein Körper der Temperaturϑ wird in eine Umgebung der Temperaturϑ A eingebracht. Die Abkühlung/Aufheizung des
Modellbildung und Simulation
Modellbildung und Simulation Wintersemester 2007/2008 Klaus Kasper Praktikum Mittwochs: 10:15 13:30 (Y) Start: 24.10.2007 Ort: D15/202 Donnerstags: 14:15 17:30 (X) Start: 25.10.2007 Ort: D15/102 Zulassungsvoraussetzung
Künstliche neuronale Netze
Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ [email protected] SS 2011 1 Softcomputing Einsatz
5 Erwartungswerte, Varianzen und Kovarianzen
47 5 Erwartungswerte, Varianzen und Kovarianzen Zur Charakterisierung von Verteilungen unterscheidet man Lageparameter, wie z. B. Erwartungswert ( mittlerer Wert ) Modus (Maximum der Wahrscheinlichkeitsfunktion,
auch: Konnektionismus; subsymbolische Wissensverarbeitung
10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache
Neurobiologische Erkenntnisse im Zusammenhang mit einem kompetenzorientierten Unterricht. Barbara Gerhards
Neurobiologische Erkenntnisse im Zusammenhang mit einem kompetenzorientierten Unterricht Barbara Gerhards Was hat kompetenzorientierter Unterricht mit Neurobiologie zu tun? Neurobiologische Forschung ein
Auswertung und Lösung
Dieses Quiz soll Ihnen helfen, Kapitel 4.7 und 4.8 besser zu verstehen. Auswertung und Lösung Abgaben: 71 / 265 Maximal erreichte Punktzahl: 8 Minimal erreichte Punktzahl: 0 Durchschnitt: 5.65 Frage 1
Kern- und Schulcurriculum Mathematik Klasse 11/12. Stand Schuljahr 2012/13
Kern- und Schulcurriculum Mathematik Klasse 11/12 Stand Schuljahr 2012/13 UE 1 Wiederholung Funktionen Änderungsrate Ableitung Ableitung berechnen Ableitungsfunktion Ableitungsregeln für Potenz, Summe
Neuronale Netze. Literatur: J. Zupan, J. Gasteiger: Neural Networks in Chemistry and Drug Design, VCH, Weinheim, 2nd Ed. 1999, ISBN 978-3-527-29779-5
Neuronale Netze Eine Reihe von ganz verschiedenen Methoden werden als Neuronale Netze (NN) bezeichnet. Die wichtigsten sind: - Feed forward, back propagation -NN (am meisten verwendet) - Kohonen-Netze:
Demo: Mathe-CD. Prüfungsaufgaben Mündliches Abitur. Analysis. Teilbereich 1: Ganzrationale Funktionen 1. März 2002
Prüfungsaufgaben Mündliches Abitur Analysis Teilbereich : Ganzrationale Funktionen Hier nur Aufgaben als Demo Datei Nr. 9 März 00 INTERNETBIBLIOTHEK FÜR SCHULMATHEMATIK Vorwort Die in dieser Reihe von
Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke
Theoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
WURZEL Werkstatt Mathematik Polynome Grundlagen
Die WURZEL Werkstatt Mathematik Polynome Grundlagen Wer lange genug über hunderten von Problemen gebrütet hat, kann bei vielen bereits erraten, aus welchem Land sie kommen. So lieben die Briten etwa die
