Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser
|
|
- Karl Schuler
- vor 6 Jahren
- Abrufe
Transkript
1 Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser
2 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / /
3 CSM Master: Praktikum Simulationstechnik, rs034, bz003 3
4 Natürliche Neuronale Netze Struktur/Informationsarchitektur von Gehirn und Nervensystem bei Menschen/Tieren Bestehend aus einzelnen Neuronen, verbunden durch Synapsen Künstliche Neuronale Netze Funktionsweise des menschlichen Gehirns besser verstehen konkrete Anwendungsprobleme lösen Abgebildet durch eine Matrix CSM Master: Praktikum Simulationstechnik, rs034, bz003 4
5 CSM Master: Praktikum Simulationstechnik, rs034, bz003 5 Neuron (natürlich / künstlich)
6 CSM Master: Praktikum Simulationstechnik, rs034, bz003 6
7 Jedes Neuron ist mit anderen Neuronen verknüpft (abhängig vom Netztyp) Neuronen sind mit Kanten (Synapsen) verbunden. Jede Kante hat ein Gewicht. Je höher Absolut-Betrag, desto stärker der Einfluss. positive Gewichte: erregenden Einfluss negative Gewichte: hemmender Einfluss Null: kein Einfluss CSM Master: Praktikum Simulationstechnik, rs034, bz003 7
8 Lernen = Modifizieren des Netzes gemäß einer vorgeschriebenen Lernregel Neue Verbindungen erstellen Verbindungen löschen Neue Neuronen erstellen Neuronen löschen Modifikation des Schwellwertes Modifikation der Aktivierungsfunktion Modifikation der Verbindungsstärke / Gewichte CSM Master: Praktikum Simulationstechnik, rs034, bz003 8
9 CSM Master: Praktikum Simulationstechnik, rs034, bz003 9 Gewichten wird Zufallswert zugewiesen Eingabe von Trainingsmuster Wenn Ausgabe fehlerbehaftet: Anpassung der Gewichte
10 CSM Master: Praktikum Simulationstechnik, rs034, bz003 10
11 1943 entwickelt von Warren McCulloch & Walter Pitts Bewiesen: Logische Operationen (AND, OR, NOT) mit abbildbar 1958 Frank Rosenblatt entwickelt - Modell bis heute Grundlage künstlich neuronaler Netze CSM Master: Praktikum Simulationstechnik, rs034, bz003 11
12 CSM Master: Praktikum Simulationstechnik, rs034, bz vereinfachtes künstliches neuronales Netz besteht aus einem künstlichen Neuron Arbeitsweise: beeinflussbar durch Gewichte Eingabevektor Ausgabevektor
13 CSM Master: Praktikum Simulationstechnik, rs034, bz003 13
14 CSM Master: Praktikum Simulationstechnik, rs034, bz j1 w j x j w 2 x 2 w x 1 1 w x 0 0 a P x 1 x ) P( x y) w ( 2 bzw. 2y w1 x w0 x0 y w w 1 2 x w x 0 w und x 1 0
15 CSM Master: Praktikum Simulationstechnik, rs034, bz w y w a w 1 2 x w0 x w 2 2y w1 x w0 x Ziel: Geradengleichung ( w ) finden, die o und * Punkte trennt : o Punkte: a > 0 : * Punkte: a
16 CSM Master: Praktikum Simulationstechnik, rs034, bz
17 CSM Master: Praktikum Simulationstechnik, rs034, bz Gewichten wird Zufallswert zugewiesen Eingabe von Trainingsmuster Wenn Ausgabe fehlerbehaftet: Anpassung der Gewichte
18 CSM Master: Praktikum Simulationstechnik, rs034, bz
19 CSM Master: Praktikum Simulationstechnik, rs034, bz Gewichten wird Zufallswert zugewiesen Eingabe von Trainingsmuster Wenn Ausgabe fehlerbehaftet: Anpassung der Gewichte
20 CSM Master: Praktikum Simulationstechnik, rs034, bz a = w 2 *-1,6+w 1 *1,8+w 0 *-1 = -0, a = w 2 *1,6+w 1 *1,6+w 0 *-1 = 0, Gewichten wird Zufallswert zugewiesen Eingabe von Trainingsmuster Wenn Ausgabe fehlerbehaftet: Anpassung der Gewichte
21 Lernregel (Anpassung des Gewichtsvektors) Wenn Punkt o falsch zugeordnet wurde: Wenn Punkt * falsch zugeordnet wurde: CSM Master: Praktikum Simulationstechnik, rs034, bz * 2 * 1 * w w w y x x w w w * 2 * 1 * w w w y x x w w w
22 CSM Master: Praktikum Simulationstechnik, rs034, bz
23 / CSM Master: Praktikum Simulationstechnik, rs034, bz003 23
24 CSM Master: Praktikum Simulationstechnik, rs034, bz Erfunden 1982 von John Hopfield sind eine spezielle Unterklasse der neuronalen Netze Sie bilden einen sogenannten Autoassoziativspeicher Normaler Speicher: Zugriff auf Inhalt über Adresse Autoassoziativspeicher: Zugriff auf Inhalt über Bruchstücke des Inhalts selbst
25 CSM Master: Praktikum Simulationstechnik, rs034, bz A C B D
26 CSM Master: Praktikum Simulationstechnik, rs034, bz Bidirektionale Verbindungen Jedes Neuron ist mit jedem Neuron außer A sich selbst verbunden B C Ein Neuron kann zwei Zustände haben: feuert oder 1 feuert nicht oder -1 Die Verbindungen zwischen den Neuronen D (Synapsen) besitzen ein individuelles Gewicht
27 CSM Master: Praktikum Simulationstechnik, rs034, bz Ein Hopfield-Netz muss zur zunächst trainiert werden Dies erfolgt durch Konfiguration der synaptischen Gewichte Die Gewichte werden mittels der Hebbschen Lernregel ermittelt
28 CSM Master: Praktikum Simulationstechnik, rs034, bz w ij a i a j Gewichtsänderung zwischen Neuron i und j Lernrate (konstanter Faktor) Aktivitätslevel von Neuron i Aktivitätslevel von Neuron j Wenn Neuron i und j im gleichen Aktivierungszustand sind, verstärkt sich die Verbindung zwischen ihnen
29 CSM Master: Praktikum Simulationstechnik, rs034, bz Anwendung der Hebbschen Lernregel bei n w ij w ij n w ji n 1 n k1 0 M k i M k j falls i j sonst Gewicht der Verbindung zwischen i und j Anzahl der Muster 1 2 M, M,..., M k Muster mit Aktivierungswerten -1 und 1
30 CSM Master: Praktikum Simulationstechnik, rs034, bz Nach der Ermittlung der synaptischen Gewichte ist das Netz bereit zur Die Eingabe eines (verrauschten oder unvollständigen) Musters zur Erkennung des zugehörigen gelernten Musters erfolgt durch Setzen der Neuronen in den Aktivierungszustand, der dem Muster entspricht
31 CSM Master: Praktikum Simulationstechnik, rs034, bz
32 CSM Master: Praktikum Simulationstechnik, rs034, bz
33 CSM Master: Praktikum Simulationstechnik, rs034, bz
34 CSM Master: Praktikum Simulationstechnik, rs034, bz Die eigentliche besteht aus einem iterativen Verfahren Dabei werden die Neuronen mit folgender Regel aktualisiert: s i 1 1 falls sonst N j1 w ij s j t i Anzahl Neuronen Schwellenwert des Neurons i Zustand des Neurons j
35 CSM Master: Praktikum Simulationstechnik, rs034, bz Asynchrone Änderung Initialisiere Startzustand gemäß zu erkennendem Muster do { wähle zufälliges Neuron i for(neuron j : alle mit i verbundenen Neuronen) { berechne neuen Zustand von i abhängig von j } } while(system nicht in stabilem Endzustand) Synchrone Änderung Initialisiere Startzustand gemäß zu erkennendem Muster do { for(neuron i : alle Neuronen) { for(neuron j : alle mit i verbundenen Neuronen) { berechne neuen Zustand von i abhängig von j } } } while(system nicht in stabilem Endzustand)
36 CSM Master: Praktikum Simulationstechnik, rs034, bz Bei den Iterationen strebt das Hopfield-Netz einen stabilen Zustand an Dieser Zustand entspricht im Idealfall dem erkannten Originalbild Ein Hopfield-Netz erreicht jedoch unabhängig vom Erfolg bei der immer einen stabilen Endzustand
37 CSM Master: Praktikum Simulationstechnik, rs034, bz Die Speicherkapazität eines s ist begrenzt und abhängig von der Anzahl Neuronen L N L N 0,138 Anzahl zu speichernder Muster Anzahl Neuronen
38 Netzen ist die Performance ein kritischer Faktor Da jedes Neuron mit allen anderen Neuronen vernetzt wird, ergeben sich sowohl für den Lernvorgang als auch den Erkennungsvorgang ( n 2 ) Schritte Beim praktischen Einsatz von Hopfield CSM Master: Praktikum Simulationstechnik, rs034, bz003 38
39 CSM Master: Praktikum Simulationstechnik, rs034, bz Auch der Speicherverbrauch für das Netz steigt quadratisch mit der Zahl der Neuronen Die Zahl der Neuronen wiederum steigt quadratisch mit der Auflösung der Muster Die Erkennung von Musterbildern mit höheren Auflösungen (>50x50 Pixel) mittels eines einzelnen Netzes wird daher schnell unmöglich
40 CSM Master: Praktikum Simulationstechnik, rs034, bz003 40
41 CSM Master: Praktikum Simulationstechnik, rs034, bz003 41
42 MATLAB Befehlsübersicht CSM Master: Praktikum Simulationstechnik, rs034, bz003 42
43 CSM Master: Praktikum Simulationstechnik, rs034, bz Zugriff auf ein Element: x(zeile,spalte) o Punkt zeichnen (rot): plot(x, y, 'or'); Zugriff auf alle Zeilen und Spalte 2: x(:,2) Zufallswerte [-2,, 2] für Vektor mit 20 Zeilen, 2 Spalten: -2+(4*(rand(20,2))) For Schleife: for i=1:5 end Benutzereingabe: v = input(['text']); * Punkt zeichnen (grün): plot(x, y, '*g'); If Bedingung: if x>0 else end Gitter anzeigen, Figur beibehalten: grid on; hold on;
44 CSM Master: Praktikum Simulationstechnik, rs034, bz Matrix mit 10 Spalten, 10 Zeilen gefüllt mit 1en: ones(10,10) Jedes Element einer Matrix mit dem zugehörigen Element einer zweiten Matrix multiplizieren: M.*S Matrix in Spaltenvektor mit 100 Zeilen umwandeln: reshape(v, 100, 1) Neues Hopfield-Netz erzeugen: net = newhop( [Spaltenvektor_Muster_1, Spaltenvektor_Muster_2, ]); Hopfield-Netz simulieren: sim(net, 1, [], Spaltenvektor_GestörtesMust er); Matrix zeichnen: imagesc(m)
45 Skript Künstliche Intelligenz ; Prof. Dr. Johannes Maucher; HdM Stuttgart Neuronale Netze: Lässt sich das Denken simulieren? ; Benjamin Polak; Universität Erlangen: Artifical Intelligence Neuronale Netze; Universität für angewandte Kunst Wien Wikipedia: ; (DE, EN) Neuronale Netze: eine Einführung; Günter Daniel Rey CSM Master: Praktikum Simulationstechnik, rs034, bz003 45
46 Vielen Dank für die Aufmerksamkeit! CSM Master: Praktikum Simulationstechnik, rs034, bz003 46
Künstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
MehrNeuronale Netze. Seminar aus Algorithmik Stefan Craß,
Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrWas sind Neuronale Netze?
Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrUniversität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini
Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrExkurs Modelle und Algorithmen
Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche
MehrAdaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2
MehrSimulation neuronaler Netzwerke mit TIKAPP
Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?
MehrSoftcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003
Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung
MehrEinführung in Neuronale Netze
Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme
MehrThomas Behr. 17. November 2011
in in Fakultät für Mathematik und Informatik Datenbanksysteme für neue Anwendungen FernUniversität in Hagen 17. November 2011 c 2011 FernUniversität in Hagen Outline in 1 2 3 4 5 6 - Was ist das? in über
MehrZugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II
Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Matrixzugriff Wir wollen nun unsere Einführung in die Arbeit mit Vektoren und Matrizen in MATLAB
MehrNeuronale Netze in der Robotik
Seminarvortrag Neuronale Netze in der Robotik Datum: 18.01.2002 Vortragende: Elke von Lienen Matrikelnummer: 302489 Studiengang: Informatik Inhaltsverzeichnis Einleitung 3 Biologisches Vorbild 4 Künstliche
MehrSeminar zum Thema Künstliche Intelligenz:
Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden
MehrJürgen Roth Didaktik der Linearen Algebra & Analytischen Geometrie
Jürgen Roth Didaktik der Linearen Algebra und Analytischen Geometrie Modul 12a: Fachdidaktische Bereiche juergen-roth.de/lehre/did_linalg_anageo/ Kapitel 3: Modellieren & Angewandte Mathematik 3.1 Inhalte
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrNeuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten
MehrKapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining
Kapitel ML:XII XII. Other Unsupervised Learning Nearest Neighbor Strategies Self Organizing Maps Neural Gas Association Analysis Rule Mining Reinforcement Learning ML:XII-1 Unsupervised Others LETTMANN
MehrAllgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40
Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)
MehrWissensbasierte Systeme
Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten
MehrComputational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
MehrKapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp
Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Vorlesung Maschinelles Lernen II Dr. Theo Lettmann Oliver Kramer 22. Mai 2006 Überblick Grundlagen SOMs Anwendungen 2D-SOMs Neuronales Gas 2 Grundlagen der Neuronalen Informationsverarbeitung
MehrEinführung in Neuronale Netze
Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrNeuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.
Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles
MehrVom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung
Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrMachine Learning - Maschinen besser als das menschliche Gehirn?
Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der
MehrGrundlagen Neuronaler Netze
Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht
MehrKünstliches binäres Neuron
Künstliches binäres Neuron G.Döben-Henisch Fachbereich Informatik und Ingenieurwissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de
MehrZusammenfassung Mathe III. Themenschwerpunkt 3: Analytische Geometrie / lineare Algebra (ean) 1. Rechenregeln mit Vektoren
Zusammenfassung Mathe III Themenschwerpunkt 3: Analytische Geometrie / lineare Algebra (ean) 1. Rechenregeln mit Vektoren Definition: (1) anschaulich: Ein Vektor ist eine direkt gerichtete Verbindung zweier
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrDas Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell
Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen
MehrÜberführung regulärer Ausdrücke in endliche Automaten
Der Algorithmus von Thompson Karin Haenelt 9.5.2010 1 Inhalt Quelle Prinzip des Algorithmus Algorithmus Konstruktion des Automaten Basisausdrücke Vereinigung, Konkatenation, Hülle Beispiel Implementierung
MehrLernverfahren von Künstlichen Neuronalen Netzwerken
Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.
MehrModul Entscheidungsunterstützung in der Logistik. Einführung in die Programmierung mit C++ Übung 2
Fakultät Verkehrswissenschaften Friedrich List, Professur für Verkehrsbetriebslehre und Logistik Modul Entscheidungsunterstützung in der Logistik Einführung in die Programmierung mit C++ Übung 2 SS 2016
MehrImplementationsaspekte
Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der
MehrTheoretische Informatik 1
Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs
MehrNeuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
MehrMathematik 1, Teil B. Inhalt:
FH Emden-Leer Fachb. Technik, Abt. Elektrotechnik u. Informatik Prof. Dr. J. Wiebe www.et-inf.fho-emden.de/~wiebe Mathematik 1, Teil B Inhalt: 1.) Grundbegriffe der Mengenlehre 2.) Matrizen, Determinanten
MehrFachhochschule Südwestfalen Wir geben Impulse. Vektorrechnung in Octave
Fachhochschule Südwestfalen Wir geben Impulse Vektorrechnung in Octave Inhalt Erzeugung von Vektoren Zugriff auf Vektorelemente Addition und Subtraktion von Vektoren Betrag eines Vektors Berechnung des
Mehr1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.
Stephan Ruttloff 1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Verwendungsweise 6. Quellen Was sind neuronale
MehrFacharbeit. Ratsgymnasium Bielefeld Schuljahr 2004/2005. aus dem Fach Biologie. Thema: Künstliche neuronale Netze
Ratsgymnasium Bielefeld Schuljahr 2004/2005 Facharbeit aus dem Fach Biologie Thema: Künstliche neuronale Netze Verfasser: Joa Ebert Leistungskurs: Biologie Kursleiter: Herr Bökamp Abgabetermin: 25.02.2005
MehrÜbung 4: Einführung in die Programmierung mit MATLAB
Übung 4: Einführung in die Programmierung mit MATLAB AUFGABE 1 Was bewirkt der Strichpunkt? - Der Strichpunkt (Semikola) unterdrück die Anzeige der (Zwischen-) Resultate. Welche Rolle spielt ans? - Wenn
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrCLINICAL DECISION SUPPORT SYSTEMS
CLINICAL DECISION SUPPORT SYSTEMS INHALTSVERZEICHNIS 1/2 Diagnosefindung Prävention Medikamente (Auswahl, Dosierung etc.) INHALTSVERZEICHNIS 2/2 Supervised, Unsupervised Bayes-Netzwerke Neuronale Netze
MehrInformationsverarbeitung im Bauwesen
V14 1 / 30 Informationsverarbeitung im Bauwesen Markus Uhlmann Institut für Hydromechanik WS 2009/2010 Bemerkung: Verweise auf zusätzliche Information zum Download erscheinen in dieser Farbe V14 2 / 30
Mehr(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim
(künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
MehrGrundlagen Künstlicher Neuronaler Netze
FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher
MehrAufgabe 1 Probabilistische Inferenz
Seite 1 von 9 Aufgabe 1 Probabilistische Inferenz (30 Punkte) In einer medizinischen Studie wurden die Auswirkungen von Metastasen bildenden Karzinomen untersucht. Dabei wurde folgendes festgestellt: Bei
MehrSimulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.
Simulation Neuronaler Netze Eine praxisorientierte Einführung Matthias Haun Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen expert Inhaltsverzeichnis 1 Einleitung 1.1 Über das Projekt 1 1.2 Über das
MehrKleines Handbuch Neuronale Netze
Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie
MehrKosten- und Erlösrechnung (Nebenfach) Sommersemester 2012
Kosten- und Erlösrechnung (Nebenfach) Sommersemester 2012 Dr. Markus Brunner Lehrstuhl für Betriebswirtschaftslehre Controlling Technische Universität München Mitschrift der Vorlesung vom 16.05.2012 Primärkostenverteilung
MehrMatlab Einführung. Tobias Wunner
Matlab Einführung Tobias Wunner 16. Oktober 2006 Vorteile Interpreter und interaktive Befehlseingabe Schnelles Implementieren von wissenschaftlichen Methoden Gutes Hilfesystem >> lookfor 'sum' TRACE Sum
MehrSerie 10: Inverse Matrix und Determinante
D-ERDW, D-HEST, D-USYS Mathematik I HS 5 Dr Ana Cannas Serie 0: Inverse Matrix und Determinante Bemerkung: Die Aufgaben dieser Serie bilden den Fokus der Übungsgruppen vom und 5 November Gegeben sind die
MehrFelder (1) Allgemeines
Felder (1) Allgemeines Gleichartige Daten, wie Tabelle von Zahlen, Datumswerten, Namen etc. Felder (engl. Array) stellen einen Verbundtyp dar, in dem mehrere Daten desselben Typs gespeichert werden Oft
MehrÜbungspaket 23 Mehrdimensionale Arrays
Übungspaket 23 Mehrdimensionale Arrays Übungsziele: Skript: Deklaration und Verwendung mehrdimensionaler Arrays Kapitel: 49 Semester: Wintersemester 2016/17 Betreuer: Kevin, Matthias, Thomas und Ralf Synopsis:
Mehrauch: Konnektionismus; subsymbolische Wissensverarbeitung
10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache
MehrJavaScript. Dies ist normales HTML. Hallo Welt! Dies ist JavaScript. Wieder normales HTML.
JavaScript JavaScript wird direkt in HTML-Dokumente eingebunden. Gib folgende Zeilen mit einem Texteditor (Notepad) ein: (Falls der Editor nicht gefunden wird, öffne im Browser eine Datei mit der Endung
MehrNatürliche und künstliche neuronale Netze
Kapitel 2 Natürliche und künstliche neuronale Netze 2.1 Informationsverarbeitung im Gehirn In diesem Abschnitt soll ein sehr knapper und durchaus unvollständiger Überblick gegeben werden, um den Bezug
MehrRouting Algorithmen. Begriffe, Definitionen
Begriffe, Definitionen Routing (aus der Informatik) Wegewahl oder Verkehrslenkung bezeichnet in der Telekommunikation das Festlegen von Wegen für Nachrichtenströme bei der Nachrichtenübermittlung über
MehrMatlab - eine kurze Einführung
Matlab - eine kurze Einführung Helke Karen Hesse, Thomas Dunne helke.hesse@iwr.uni-heidelberg.de, thomas.dunne@iwr.uni-heidelberg.de 13.11.2006 1 / Gliederung Überblick Grundlegende Syntax Variablen Vektoren
MehrLineare Gleichungssysteme (Teschl/Teschl 11.1)
Lineare Gleichungssysteme (Teschl/Teschl.) Ein Lineares Gleichungssystem (LGS) besteht aus m Gleichungen mit n Unbekannten x,...,x n und hat die Form a x + a 2 x 2 +... + a n x n b a 2 x + a 22 x 2 +...
Mehrweitere Modelle und Methoden
weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrIngenieurinformatik Diplom-FA (Teil 2, C-Programmierung)
Hochschule München, FK 03 SS 2014 Ingenieurinformatik Diplom-FA (Teil 2, C-Programmierung) Zulassung geprüft: (Grundlagenteil) Die Prüfung ist nur dann gültig, wenn Sie die erforderliche Zulassungsvoraussetzung
MehrNeuronale Netze. 11.Januar.2002
Neuronale Netze Stefan Otto Matrikelnummer: 301127 Studiengang: Informatik ProSeminar WS 2001/2002 Institut für Informatik Technische Universität Clausthal 11.Januar.2002 1 INHALTSVERZEICHNIS 2 Inhaltsverzeichnis
MehrKorrelationsmatrix. Statistische Bindungen zwischen den N Zufallsgrößen werden durch die Korrelationsmatrix vollständig beschrieben:
Korrelationsmatrix Bisher wurden nur statistische Bindungen zwischen zwei (skalaren) Zufallsgrößen betrachtet. Für den allgemeineren Fall einer Zufallsgröße mit N Dimensionen bietet sich zweckmäßiger Weise
MehrEndliche Automaten. Im Hauptseminar Neuronale Netze LMU München, WS 2016/17
Endliche Automaten Im Hauptseminar Neuronale Netze LMU München, WS 2016/17 RS- Flipflop RS-Flipflop Ausgangszustand 0 1 0 1 0 1 Set Reset neuer Zustand 0 0 0 0 0 1 1 0 1 1 0 1 0 1 0 0 1 0 Was ist ein endlicher
Mehr2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren
2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4.1. Einführung neuronale Netze (konnektionistische Modelle): Systeme, die einige der im menschlichen Gehirn bekannten oder vermuteten
MehrEinführung in. Neuronale Netze
Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:
MehrSuche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche. Suche in Spielbäumen. KI SS2011: Suche in Spielbäumen 1/20
Suche in Spielbäumen Suche in Spielbäumen KI SS2011: Suche in Spielbäumen 1/20 Spiele in der KI Suche in Spielbäumen Spielbäume Minimax Algorithmus Alpha-Beta Suche Einschränkung von Spielen auf: 2 Spieler:
MehrCorinne Schenka Vorkurs Mathematik WiSe 2012/13
4. Lineare Gleichungssysteme Ein lineares Gleichungssystem ist ein System aus Gleichungen mit Unbekannten, die nur linear vorkommen. Dieses kann abkürzend auch in Matrizenschreibweise 1 notiert werden:
MehrMulti-Layer Neural Networks and Learning Algorithms
Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung
MehrAlgorithmus zum Graphen-Matching. und. Anwendung zur inhaltsbasierten Bildersuche
Algorithmus zum Graphen-Matching und Anwendung zur inhaltsbasierten Bildersuche Gliederung 1. Einführung 2. Algorithmus Beschreibung Beispiel Laufzeit 3. Anwendung des Algorithmus Seite 1 von 18 1. Einführung
MehrDynamisches Huffman-Verfahren
Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über
MehrSpezialfall: Die Gleichung ax = b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a = a 1 gelöst werden:
Inverse Matritzen Spezialfall: Die Gleichung ax b mit einer Unbekannten x kann mit Hilfe des Kehrwerts 1 a a 1 gelöst werden: ax b x b a a 1 b. Verallgemeinerung auf Ax b mit einer n nmatrix A: Wenn es
MehrAngewandte Informatik
Angewandte Informatik Analyse des Graphs G zur Bestimmung von Parallel- undreihenschaltung Prof. Dr. Nikolaus Wulff Gewichteter Multigraph Die Adjazenzmatrix eines Graphen eignet sich auch zur Analyse
MehrEinführung in die Programmierung mit VBA
Einführung in die Programmierung mit VBA Vorlesung vom 07. November 2016 Birger Krägelin Inhalt Vom Algorithmus zum Programm Programmiersprachen Programmieren mit VBA in Excel Datentypen und Variablen
MehrHochschule München, FK 03 FA SS 2012. Ingenieurinformatik
Hochschule München, FK 03 FA SS 2012 Ingenieurinformatik Zulassung geprüft vom Aufgabensteller: Teil 1/Aufgabe 1: 30 Minuten ohne Unterlagen, Teil 2/Aufgaben 2-4: 60 Minuten, beliebige eigene Unterlagen
MehrSelbstorganisierende Karten
Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-
MehrMatlab Übersicht. Matlab steht für MATrix LABoratory, die Fa. The Mathworks wurde 1984 gegründet
Matlab Übersicht Ziel: einfacher Zugang zu numerischen (FORTRAN)Bibliotheken [Freeware] Linpack (LINear Algebra Solution PACKage) und Eispack (EIgenvalue Solution PACKage) => aktuelle Version: Lapack (Linear
Mehr(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim
(künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,
MehrALPHA-Synapsen-Programmierung
ALPHA-Synapsen-Programmierung Einfach genial! Die gilt als eine der schnellsten und effektivsten Methoden! Dein Leben im Bereich Gesundheit, Partnerschaft, Beruf und finanzielle Ausgeglichenheit neu auszurichten!
MehrGrowing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012
Growing neural Gas Strukturen lernen Torsten Siedel 23.05.2012 Inhalt 1. Prozess der Selbstorganisation 2. Lernen - momentan oder statistisch? 3. Vektorbasierte Neuronale Netze 4. Klassifizierung der Lernverfahren
Mehr