Einige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel
|
|
- Laura Cornelia Fromm
- vor 5 Jahren
- Abrufe
Transkript
1 Einige überwachte Lernverfahren Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel
2 Funktionsweise eines künstlichen Neurons x w k Neuron k x 2 w 2k net k f y k x n- w n-,k x n w n,k n Eingangssignale Berechnung der Ausgabe: ( net ), k =,2 m yk = f k,..., Ausgangssignal Meist verwendete Netzeingabefunktion: net k = n i= w ik x i Transfer-/Aktivierungsfunktion f Übung Neuronale Netze I - WS24/5 2
3 Einfache Perzeptronen Konzept von F. Rosenblatt (5er Jahre) Einschichtiges Feedforward-Netzwerk (mit Schwellwertlogik): w i x y x 2 y 2 x 3 y m x n binäre Werte (,) für Eingabe- ( x = (x,,x n ) ), Ausgabe- ( y = (y,,y m ) ) und Trainings-/Sollvektoren ( t = (t,,t m ) ) reelle Werte für gerichtete, anpassbare Gewichtungen w i = (w i,,w im ), i=,,n Gewichtsmatrix W = (w,,w n ) Eingabeneuronen wirken passiv (leiten Eingaben direkt weiter) Übung Neuronale Netze I - WS24/5 3
4 Grundidee der Perzeptron-Lernregel Ändere Gewichtungen nur dann, wenn zwischen der berechneten Ausgabe und der gewünschten Ausgabe eine Differenz besteht: Inkrementiere die Gewichtungen auf aktiven Leitungen (Eingabe = ), wenn sie sein sollten, aber tatsächlich (inaktiv) sind Dekrementiere die Gewichtungen auf aktiven Leitungen (Eingabe = ), wenn sie sein sollten, aber tatsächlich (aktiv) sind Inkrement bzw. Dekrement entweder konstant oder proportional zum Produkt von Fehler und Eingabeaktivierung Übung Neuronale Netze I - WS24/5 4
5 Perzeptron-Gewichtsadaption Gewichtsänderung in jedem Lernschritt: W neu = W alt + W mit w ij = α ( p ) ( p ) ( t y ) x j j i = " Lernratenkoeffizient Fehler Eingabe" α > konstanter Lernraten-/Lerngeschwindigkeitskoeffizient i-te Eingabekomponente für das p-te Übungsmuster x i x gewünschte Ausgabe des j-ten Ausgabeneurons bei Eingabe von t j x ( p ) tatsächlich berechnete Ausgabe des j-ten Ausgabeneurons bei Eingabe von y j ( ) p x Übung Neuronale Netze I - WS24/5 5
6 Bsp. (ODER-Verknüpfung): Training eines Perzeptrons x = x 2 = 2 2 w = w 2 =, -,2 Schritt : Zufällige Initialisierung der Gewichte Schritt 2: Anlegen eines Eingabevektors Schritt 3: Berechnen der Ausgabe(n) Schritt 4: Gewichtsadaption ( ) w =.3 ( ). 3 4 w2 =.3 = Schritt 5: Weiter bei Schritt 2 oder Ende, wenn Fehler akzeptabel 4 4 w 2 = k=. 3 y= f(, -,2 ) = f(-.2) = y = f w net ( net ) ij = 2 p Trainingsmenge: x x 2 = 2 ( x, x2 ) i= w i x i, falls net > =, sonst ( p ) ( p ) ( p ) α ( t y ) x j j α t i =.3 y Übung Neuronale Netze I - WS24/5 6
7 Bsp. 2: UND-Verknüpfung x w =? x x 2 t k= y x 2 w 2 =?, falls netk > Θ net k ( x wik x y = f ( net ) =, = i k k, sonst = 2, x2) i= Aufgaben:. Finde geeignete Werte für den Schwellwert Θ und die beiden Gewichte des Netzes, damit das Perzeptrondie logische UND-Verknüpfung durchführt! 2. Entwerfe ein Perzeptron, das die logische Negation vollführt. 3. Entwerfe ein Perzeptron, das die logische XOR-Verknüpfung vollführt. Übung Neuronale Netze I - WS24/5 7
8 Verwendung eines Schwellwerts Im letzten Beispiel: Verwendung eines konstanten Schwellwerts? in der Transferfunktion:, falls net > Θ y = f ( net) =, sonst f(net)? net Äquivalente Darstellung: Verwendung eines weiteren Eingabeneurons mit konstanter Eingabe und konstant anliegendem Gewicht -?: x w y x n w n -? Übung Neuronale Netze I - WS24/5 8
9 Rechnerübung I Starte des Applet unter Mache dich mit der Bedienung vertraut! Versuche, Netze auf die AND-, OR- und XOR-Verknüpfungen zu trainieren! Verwende verschiedene Lernraten und teste, wie viele Lernschritte im Schnitt für ein erfolgreiches Training benötigt werden! Hinweise: Eine Lernrate von.5 ermöglicht ein Betrachten des Trainingsprozesses! Die Abbruchbedingung sollte auf gesetzt werden! Übung Neuronale Netze I - WS24/5 9
10 Konvergenztheorem für das Perzeptron Gibt es eine Menge von Gewichtsvektoren, die die (linear teilbaren) Trainingsmuster korrekt klassifizieren, so findet der Lernalgorithmus eine solche Menge in endlich vielen Iterationsschritten. Lineare Teilbarkeit: Zwei Mengen heißen linear teilbar, wenn sie durch eine lineare Oberfläche abgetrennt werden können. AND x 2 OR x 2 (,) (,) (,) (,) (,) (,) x (,) (,) x Übung Neuronale Netze I - WS24/5
11 Unlösbare Probleme für Perzeptronen XOR XOR x x 2 t (,) (,) (,) (,) Allgemein: Paritätsproblem (Binärwertiger Eingabevektor mit gerader Anzahl Einsen erzeugt Ausgabe Eins, sonst Null) Minsky, Pappert, Perceptrons (969): Elegante mathematische Abhandlung über Vor- und Nachteile von Perzeptronen. Fazit: Zu beschränkt, um irgendeinen praktischen Zweck zu erfüllen! Todesstoß für Forschung auf lange Zeit (~ Jahre) Übung Neuronale Netze I - WS24/5
12 Mehrschichtige Perzeptronen-Netze (MP, MLP): Motivation Approximation beliebiger Funktionen g durch ein künstliches neuronales Netz: n m g: x y, x R, y R Zufallsvektoren mit Wahrscheinlichkeitsverteilung Gegeben: P Musterpaare {( x, t ) p =,2, K, P} Eingabemuster x mit unbekannter Wahrscheinlichkeitsverteilung t gewünschte (bekannte) Sollvektoren für die entsprechenden ( p ) y tatsächlich berechnete Ausgabe des Netzes bei Eingabe von mit ρ x x ( x) Ψ( x, y) Übung Neuronale Netze I - WS24/5 2
13 Mehrschichtige Perzeptronen-Netze (MP, MLP):. Ansatz: Netzarchitektur mit mehreren Schichten Erweiterung des Perzeptron-Modells durch Verwendung mindestens einer weiteren Neuronenschicht: x y x 2 y 2 x 3 x n y m Eingabeschicht Interne Schicht (I) Ausgabeschicht (II) Interne (verborgene) Schicht mit s Neuronen zur Berechnung von Zwischenergebnissen Notation der synaptischen Verbindungen (in Literatur unterschiedlich!): ( I ) Gewicht von Neuron i der Eingabeschicht zum j-ten Neuron der internen Schicht (I) w ij ( II ) Gewicht von Neuron j der internen Schicht (I) zum k-ten Neuron der Ausgabeschicht (II) w jk Übung Neuronale Netze I - WS24/5 3
14 Mehrschichtige Perzeptronen-Netze (MP, MLP): Ziel: Minimierung des gesamten Systemfehlers mit E Fehlerminimierung Fehler bei Präsentation des p-teneingabemusters, meist Ansatz: Der Systemfehler reduziert sich, wenn die einzelnen m = ( tk yk ) reduziert werden. Problem: Wie passe ich die synaptischen Gewichtungen so an, dass das Netz das gewünschte Verhalten zeigt? Lösungsidee: Adaptiere Gewichtungen derart, dass in jedem Trainingsschritt t+ der Fehler gegenüber dem Fehler im vorherigen Trainingsschritt t verringert wird, d.h. E E E tot = P 2 P p= k = E 2 Gewichtsanpassung proportional zur Ableitung des Fehlermaßes ( Richtung des stärksten Abstiegs ): W ( t + ) E = η W t ( ) Anmerkung: Perzeptron-Lernregel unbrauchbar, da nur auf eine Schicht anwendbar Glaubwürdigkeitsproblem: In wie weit sind Gewichte der verborgenen Schicht verantwortlich für Fehler in der Ausgabeschicht? Übung Neuronale Netze I - WS24/5 4
15 Mehrschichtige Perzeptronen-Netze (MP, MLP): Gradientenabstiegsverfahren W ( t + ) E = η W t ( ) E (p) w ij (t+) w ij (t) w ij Prinzip der Gewichtsanpassung (Darstellung: Fehler in Abhängigkeit der Gewichtungsbelegung, hier nur von einer Gewichtung w ij ) Übung Neuronale Netze I - WS24/5 5
16 Mehrschichtige Perzeptronen-Netze (MP, MLP): Backpropagation-Trainingsalgorithmus Gradientenabstiegsverfahren nach diesem Prinzip Die Fehler werden, ausgehend von der Ausgabeschicht, zur Anpassung der Gewichtungen der jeweils vorhergehenden Schicht verwendet: Zurückreichen Herleitung des Verfahrens benötigt partielle Ableitungen der Fehlerfunktion und damit Ableitungen der Transferfunktion: W ( t + ) E = η W t ( ) m p = ( E t ) k yk ( ) 2 k = 2 ( ) y k = f net k => differenzierbare Aktivierungsfunktion f notwendig Außerdem: Mehrschichtige lineare Systeme sind einschichtigen linearen System äquivalent (können keine allgemeinen komplexen Abbildungen realisieren)! Lösung: Verwende nichtlineare (differenzierbare) Aktivierungsfunktionen Übung Neuronale Netze I - WS24/5 6
17 BPP-Algorithmus. Initialisiere Gewichtungen mit kleinen Zufallswerten p 2. Zufällige Auswahl eines Trainingsmusterpaares x,t ( ) ( ) 3. Berechnung der Ausgaben jedes Neurons j jeder Schicht q=,2,,q in einem Vorwärtsdurchlauf: ( q ) ( net ) = f y ( q) ( q ) = f j i 4. Berechne aus den berechneten Ausgaben der Neuronen der Ausgabeschicht Q und den entsprechenden Zielwerten t die Deltas ( Fehlerwerte ): j 5. Berechnung der Deltas für die jeweils vorhergehenden Schichten durch Rückpropagation der Fehlerwerte: q q q ( δ j = i w δ + ji f net j ( q), neu ( q), alt ( q) 6. Aktualisierung aller Gewichte: w = w + w mit y j δ (Q) y j ( Q) ( Q) j = 7. Weiter bei 2. und Wiederholung für jedes Muster p, bis der Gesamtfehler eine akzeptable Größe erreicht hat. i w (Q) ( y t ) f ( net ) j j j ( q ) ij ( ) ( ) ( ) q) ( ) ij ij ij w ( q ) ( q) ( q) ij = η δ j yi Übung Neuronale Netze I - WS24/5 7
18 Rechnerübung II Starte das Applet Ochre! Mache dich mit der Benutzerbedienung vertraut (Anleitung weiter unten auf der Seite)! Trainiere und teste Netze mit unterschiedlich vielen Eingabeneuronen unterschiedlich vielen Neuronen in der versteckten Schicht Breche das Training ab, sobald der Gesamtfehler folgende Werte unterschreitet: < <. <. Betrachte anschließend die erzielbaren Ergebnisse bei der Klassifikation von Zeichen! Trainiere das Netz mit neuen Eingabemustern, z.b. den ersten Zeichen des Alphabets, und untersuche die erzielten Klassifikationsergebnisse! Benutze verrauschte Zeichen ( BLUR ) zur Klassifikation bzw. zur Konditionierung! Übung Neuronale Netze I - WS24/5 8
19 Transferfunktionen (I) A B Θ A, B, falls net > Θ f ( net) = f ( net) = k net+ b sonst Schwellenfunktion (Stufenfunktion) Fehlende Differenzierbarkeit Lineare Funktion Differenzierbar Nicht beschränkt (Overflow möglich) A Θ Θ 2 B f Rampenfunktion Beschränkt fehlende Differenzierbarkeit in A, A B Θ 2 Θ B, ( net ) = ( net Θ ) Θ, Θ A, falls falls falls net Θ net > Θ < Θ 2 net Θ 2 Übung Neuronale Netze I - WS24/5 9
20 Transferfunktionen (II) f net ( net) = ( + e ) ( net β f '( net) = βf ( net) f ( Logistische Funktion ( Sigmoidfunktion ) beschränkt, stetig differenzierbar, Wertebereich (,). Ableitung der logistische Funktion ( Sigmoidfunktion ) f e e β net e + e β net ( net) = β net β net f ' ( ) 2 ( net) = β ( f ( net ) Hyperbolische Tangensfunktion beschränkt, stetig differenzierbar, Wertebereich (-,). Ableitung der hyperbolischen Tangensfunktion Übung Neuronale Netze I - WS24/5 2
21 Probleme bei BPP-Training Symmetriebrechung: Initialisierung aller Gewichte mit identischen Werten => Gewichte werden zwar verändert, aber alle um den gleichen Wert (Symmetrie bleibt erhalten) Lösung: Initialisierung der Gewichte mit Zufallswerten (meist kleine, erhöht Konvergenzgeschwindigkei Keine Konvergenz auf globales Minimum garantiert (im Gegensatz zu Perzeptron- Lernalgorithmus) Langsame Konvergenz auf flachen Plateaus Steckenbleiben in lokalen Minima Oszillationen Verlassen guter Minima Übung Neuronale Netze I - WS24/5 2
22 Probleme bei BPP-Training: Langsame Konvergenz in flachen Plateaus E (p) Globales Minimum w ij Abhilfe: größere Schrittweite => Lernratenkoeffizient (dynamisch) vergrößern Übung Neuronale Netze I - WS24/5 22
23 Probleme bei BPP-Training: Oszillationen E (p) w ij Abhilfe: Einführung lokaler Störungen auf Gewichtungen Übung Neuronale Netze I - WS24/5 23
24 Probleme bei BPP-Training: Steckenbleiben in lokalen Minima E (p) Globales Minimum w ij Abhilfe: Einführung lokaler Störungen auf Gewichtungen (wenn Konvergenzprozess stagniert) (Nachteil: Evtl. Verlassen guter lokaler Minima) Übung Neuronale Netze I - WS24/5 24
25 Probleme bei BPP-Training: Verlassen guter Minima E (p) w ij Abhilfe: Kleinere Schrittweite (Lernratenkoeffizient) wählen (dynamisch) Übung Neuronale Netze I - WS24/5 25
26 Möglichkeiten zur Verbesserung der Konvergenz/Konvergenzgeschwindigkeit Gewichtungen immer mit kleinen Zufallswerten initialisieren Einführung zufälliger Störungen bei Stagnation des Trainingsprozesses Optimale konstante Lernrate finden? Dynamische Lernrate verwenden Momentumterm: Addition eines Bruchteils der vorhergehenden Gewichtungsänderung auf die aktuell berechnete Änderung (kann bei Problemen Flache Plateaus, Oszillationen helfen) Wieviele verborgene Schichten? Theorie: Zwei reichen für Approximation beliebiger Funktionen aus Praxis: Weitere Schichten verbessern evtl. Konvergenzeigenschaften Anzahl Neuronen? Pyramidenaufbau Rautenbaufbau Übung Neuronale Netze I - WS24/5 26
27 Abbildungsfähigkeiten von MLFF-Netzen Struktur Entscheidungsbereichstypen XOR-Problem Klassen mit ineinander verflochtenen Bereichen Allgemeine Bereichsumrisse Halbebene, begrenzt durch Hyperebene A B B A A B Konvex geöffnete oder geschlossene Bereiche A B B A A B Zufällig (Komplexität nur begrenzt durch Anzahl der Knoten) A B B A A B Übung Neuronale Netze I - WS24/5 27
28 Praktische Beispiele Klassifizierung von Zellen für die Krebsdiagnose (Mikroskopische Bildanalyse) Führerloses Landfahrzeug (Bildanalyse: Kamerabild als Eingabe, Einschlagswinkel als Zielwert) Vorhersage finanztechnischer Zeitfolgen (Aktien) Vorhersage von Ergebnissen von Sportereignissen (bzgl. Wetten) Erkennung handschriftlicher Zeichen (U.S. Postal) Erkennung epileptischer Anfälle (Früherkennung, EEG-Signale) Übung Neuronale Netze I - WS24/5 28
Hannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
Mehr6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrTechnische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt
MehrNeuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrAdaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}
MehrProseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger
Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale
MehrThema 3: Radiale Basisfunktionen und RBF- Netze
Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung
MehrMULTILAYER-PERZEPTRON
Einleitung MULTILAYER-PERZEPTRON Die Ausarbeitung befasst sich mit den Grundlagen von Multilayer-Perzeptronen, gibt ein Beispiel für deren Anwendung und zeigt eine Möglichkeit auf, sie zu trainieren. Dabei
MehrPerzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004
Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
Mehr11. Neuronale Netze 1
11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrSchwellenwertelemente. Rudolf Kruse Neuronale Netze 8
Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrGrundlagen neuronaler Netzwerke
AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)
MehrComputational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
MehrNeuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrKlassifikationsverfahren und Neuronale Netze
Klassifikationsverfahren und Neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck 9.12.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
Mehr8. Vorlesung Neuronale Netze
Soft Control (AT 3, RMA) 8. Vorlesung Neuronale Netze Lernverfahren 8. Vorlesung im Aufbau der Vorlesung 1. inführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrEinführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
Mehr5. Lernregeln für neuronale Netze
5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1
MehrNeuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien
in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???
MehrTraining von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
MehrStatistical Learning
Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in
MehrAdaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich
MehrNeuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrNeuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate...
Neuro-Info Notizen Marus Klemm.net WS 6/7 Inhaltsverzeichnis Hebbsche Lernregel. Fälle........................................ Lernrate..................................... Neural Gas. Algorithmus.....................................
MehrRadiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120
Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen
MehrLernverfahren von Künstlichen Neuronalen Netzwerken
Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.
MehrNeuronale Netze I. Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München
Neuronale Netze I Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München Email: florian.zipperle@tum.de Zusammenfassung Neuronale Netze werden im Bereich Data Mining
MehrMustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12
Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1
MehrNeural Networks: Architectures and Applications for NLP
Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap
MehrSelbstorganisierende Karten
Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales
MehrEinfaches Framework für Neuronale Netze
Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.
MehrEinführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt
Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?
MehrPraktikum Simulationstechnik Rene Schneider, Benjamin Zaiser
Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen
MehrKlassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
MehrNeuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.
Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches
MehrKönnen neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie
Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler
MehrGrundlagen zu neuronalen Netzen. Kristina Tesch
Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen
MehrIntelligente Systeme. Einführung. Christian Moewes
Intelligente Systeme Einführung Prof. Dr. Rudolf Kruse Christian Moewes Georg Ruß {kruse,russ,cmoewes}@iws.cs.uni-magdeburg.de Arbeitsgruppe Computational Intelligence Institut für Wissens- und Sprachverarbeitung
MehrProseminar Neuronale Netze Frühjahr 2004
Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die
MehrMulti-Layer Neural Networks and Learning Algorithms
Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung
MehrRekurrente / rückgekoppelte neuronale Netzwerke
Rekurrente / rückgekoppelte neuronale Netzwerke Forschungsseminar Deep Learning 2018 Universität Leipzig 12.01.2018 Vortragender: Andreas Haselhuhn Neuronale Netzwerke Neuron besteht aus: Eingängen Summenfunktion
Mehr2.4.4 Die Fraktale Dimension
2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
Mehr10. Neuronale Netze 1
10. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form
MehrAdaptive Resonance Theory
Adaptive Resonance Theory Jonas Jacobi, Felix J. Oppermann C.v.O. Universität Oldenburg Adaptive Resonance Theory p.1/27 Gliederung 1. Neuronale Netze 2. Stabilität - Plastizität 3. ART-1 4. ART-2 5. ARTMAP
MehrAuch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck:
Diplomprüfung Informatik Kurs 1830 Neuronale Netze Prüfer: Prof. Dr. Helbig Beisitzer: Prodekan Prof. Dr. Hackstein Datum: 01.10.08 Note: 2,7 Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt,
MehrDas Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell
Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen
MehrIntelligente Systeme
Intelligente Systeme Neuronale Netze Prof. Dr. R. Kruse C. Braune {kruse,cbraune}@iws.cs.uni-magdeburg.de Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke Universität
Mehr2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren
2.4. Neuronale Netze: Modellierung von Lernen und Klassifizieren 2.4.1. Einführung neuronale Netze (konnektionistische Modelle): Systeme, die einige der im menschlichen Gehirn bekannten oder vermuteten
MehrHopfield-Netze. Rudolf Kruse Neuronale Netze 192
Hopfield-Netze Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Ein Hopfield-Netz ist ein neuronales Netz mit einem Graphen G = (U, C), das die folgenden Bedingungen erfüllt: (i)u hidden =,U in =U out =U,
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?
MehrIntelligente Systeme
Intelligente Systeme Neuronale Netze Prof. Dr. R. Kruse C. Braune C. Moewes {kruse,cbraune,cmoewes}@iws.cs.uni-magdeburg.de Institut für Wissens- und Sprachverarbeitung Fakultät für Informatik Otto-von-Guericke
MehrNeuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation
Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für
MehrTeil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze
Vorlesung Künstliche Intelligenz Wintersemester 2006/07 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008
MehrObjekt Attributwerte Klassifizierung X Y
AUFGABE : Entscheidungsbäume Betrachten Sie das folgende Klassifizierungsproblem: bjekt Attributwerte Klassifizierung X Y A 3 B 2 3 + C 2 D 3 3 + E 2 2 + F 3 G H 4 3 + I 3 2 J 4 K 2 L 4 2 ) Bestimmen Sie
MehrAdaptive Systeme. Neuronale Netze: der Backward Propagation Algorithmus. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Neuronale Netze: der Backward Propagation Algorithmus Prof. Dr. rer. nat. Nikolaus Wulff Neuronen Schicht x 1 x 2 x 3.. θ 1 θ 2. y 1 y 2 n y j = k =1 w jk x k j y j = n k =0 w jk x k x
MehrKohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
MehrDas Gradientenverfahren
Das Gradientenverfahren - Proseminar: Algorithmen der Nichtlinearen Optimierung - David Beisel December 10, 2012 David Beisel Das Gradientenverfahren December 10, 2012 1 / 28 Gliederung 0 Einführung 1
Mehr6.2 Feed-Forward Netze
6.2 Feed-Forward Netze Wir haben gesehen, dass wir mit neuronalen Netzen bestehend aus einer oder mehreren Schichten von Perzeptren beispielsweise logische Funktionen darstellen können Nun betrachten wir
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
MehrDas Trust-Region-Verfahren
Das Trust-Region-Verfahren Nadine Erath 13. Mai 2013... ist eine Methode der Nichtlinearen Optimierung Ziel ist es, das Minimum der Funktion f : R n R zu bestimmen. 1 Prinzip 1. Ersetzen f(x) durch ein
MehrGrundlagen und Aufbau von neuronalen Netzen
Grundlagen und Aufbau von neuronalen Netzen Künstliche neuronale Netze (KNN) modellieren auf stark vereinfachte Weise Organisationsprinzipien und Abläufe biologischer neuronaler Netze Jedes KNN besteht
MehrKünstliche Intelligenz. Neuronale Netze
Künstliche Intelligenz Neuronale Netze Richard Schorpp Version. -- 3.8.7 INHALTVERZEICHNIS Inhaltverzeichnis...2. Versionsverwaltung...2 2 Das Neuron... 3 2. Naturbeobachtung...3 2.2 Nachbildung der Natur...4
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrTeil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze
Vorlesung Künstliche Intelligenz Wintersemester 2008/09 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der
MehrNeuronale Netze. Prof. Dr. Rudolf Kruse
Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik rudolf.kruse@ovgu.de Rudolf Kruse, Alexander Dockhorn Neuronale
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2014 / 2015 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrNichtlineare Gleichungssysteme
Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian
MehrIntelligente Systeme
Intelligente Systeme Neuronale Netze Prof. Dr. R. Kruse C. Braune {rudolf.kruse,christian.braune}@ovgu.de Institut für Intelligente Kooperierende Systeme Fakultät für Informatik Otto-von-Guericke-Universität
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Probleme des Backpropagation-Algorithmus und Alternativen Seminar
MehrLinear nichtseparable Probleme
Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrAllgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40
Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische
Mehr7. Vorlesung Neuronale Netze
Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation
MehrTeil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze. Was sind künstliche Neuronale Netze?
Was sind künstliche Neuronale Netze? Vorlesung Künstliche Intelligenz Wintersemester 2006/07 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Künstliche Neuronale Netze sind massiv parallel
Mehr