Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron



Ähnliche Dokumente
Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

Jan Parthey, Christin Seifert. 22. Mai 2003

SCHRITT 1: Öffnen des Bildes und Auswahl der Option»Drucken«im Menü»Datei«...2. SCHRITT 2: Angeben des Papierformat im Dialog»Drucklayout«...

Erfahrungen mit Hartz IV- Empfängern

Elternzeit Was ist das?

Handbuch ECDL 2003 Modul 2: Computermanagement und Dateiverwaltung Der Task-Manager

Was meinen die Leute eigentlich mit: Grexit?

GEVITAS Farben-Reaktionstest

Lineare Gleichungssysteme

Künstliche Intelligenz Maschinelles Lernen

Übung - Konfigurieren einer Windows 7-Firewall

Primzahlen und RSA-Verschlüsselung

Elektrische Logigsystem mit Rückführung

Quadratische Gleichungen

Lokales Netzwerk Wie kann ich lokal installierte Drucker im Netzwerk für andere Nutzer freigeben? Frage:

Lichtbrechung an Linsen

Lehrer: Einschreibemethoden

Internet online Update (Mozilla Firefox)

3. Anwendungen Chemische Reaktionen. Aufgabe: Die Gleichung + +

Simulation LIF5000. Abbildung 1

Sichere Anleitung Zertifikate / Schlüssel für Kunden der Sparkasse Germersheim-Kandel. Sichere . der

1. Adressen für den Serienversand (Briefe Katalogdruck Werbung/Anfrage ) auswählen. Die Auswahl kann gespeichert werden.

Informationsblatt Induktionsbeweis

Programmentwicklungen, Webseitenerstellung, Zeiterfassung, Zutrittskontrolle

Wie ist das Wissen von Jugendlichen über Verhütungsmethoden?

Aufgabensammlung Bruchrechnen

Einrichtung Ihres 3 Konto unter MAC OS

Electronic Systems GmbH & Co. KG

AGROPLUS Buchhaltung. Daten-Server und Sicherheitskopie. Version vom b

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin:

Wir machen neue Politik für Baden-Württemberg

A. Ersetzung einer veralteten Govello-ID ( Absenderadresse )

Zeichen bei Zahlen entschlüsseln

Lineare Gleichungssysteme I (Matrixgleichungen)

Arbeit zur Lebens-Geschichte mit Menschen mit Behinderung Ein Papier des Bundesverbands evangelische Behindertenhilfe e.v.

Serienbrieferstellung in Word mit Kunden-Datenimport aus Excel

13. Lineare DGL höherer Ordnung. Eine DGL heißt von n-ter Ordnung, wenn Ableitungen y, y, y,... bis zur n-ten Ableitung y (n) darin vorkommen.

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

FuxMedia Programm im Netzwerk einrichten am Beispiel von Windows 7

Ihr Ideen- & Projektmanagement-Tool

Tipp III: Leiten Sie eine immer direkt anwendbare Formel her zur Berechnung der sogenannten "bedingten Wahrscheinlichkeit".

Installationsanleitung für das KKL bzw. AGV4000 Interface

Grundlagen der Theoretischen Informatik, SoSe 2008

Advoware mit VPN Zugriff lokaler Server / PC auf externe Datenbank

Wo möchten Sie die MIZ-Dokumente (aufbereitete Medikamentenlisten) einsehen?

Auftragsbearbeitung 3.1

Outlook. sysplus.ch outlook - mail-grundlagen Seite 1/8. Mail-Grundlagen. Posteingang

sondern alle Werte gleich behandelt. Wir dürfen aber nicht vergessen, dass Ergebnisse, je länger sie in der Vergangenheit

Fragebogen zur Diplomarbeit von Thomas Friedrich

Einrichtung HBCI mit PIN/TAN in VR-NetWorld-Software

Dateimanagement in Moodle Eine Schritt-für

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Anleitung zum Öffnen meiner Fotoalben bei web.de

Konzepte der Informatik

Modellbildungssysteme: Pädagogische und didaktische Ziele

Die Größe von Flächen vergleichen

MSXFORUM - Exchange Server 2003 > SMTP Konfiguration von Exchange 2003

Professionelle Seminare im Bereich MS-Office

Warum reicht Zähneputzen nicht?

Repetitionsaufgaben Wurzelgleichungen

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken?

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

Skalierung des Ausgangssignals

BANKETTprofi Telefonschnittstelle

Terminabgleich mit Mobiltelefonen

Installation OMNIKEY 3121 USB

NODELOCKED LIZENZ generieren (ab ST4)

Glaube an die Existenz von Regeln für Vergleiche und Kenntnis der Regeln

PHP - Projekt Personalverwaltung. Erstellt von James Schüpbach

Mobiler. Vernetzter. Emotionaler. Wie SBG auf die Entwicklung des Internets reagiert

Eva Douma: Die Vorteile und Nachteile der Ökonomisierung in der Sozialen Arbeit

Daten sammeln, darstellen, auswerten

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Erstellen einer Collage. Zuerst ein leeres Dokument erzeugen, auf dem alle anderen Bilder zusammengefügt werden sollen (über [Datei] > [Neu])

Dazu stellen Sie den Cursor in die Zeile, aus der eine Überschrift werden soll, und klicken auf die gewünschte Überschrift.

Anmerkungen zur Übergangsprüfung

Anspruchsvolle Dreierausdrücke zum selbstständigen Lernen

Statuten in leichter Sprache

Neuronale Netze (I) Biologisches Neuronales Netz

1.Unterschied: Die Übungen sind nicht von deinem Mathe-Lehrer...

Liebe Interessierte an technischen Lösungen für die Sicherheit zu Hause,

Stand: Adressnummern ändern Modulbeschreibung

Grundlagen des Maschinellen Lernens Kap. 4: Lernmodelle Teil II

Handbuch ECDL 2003 Professional Modul 3: Kommunikation Kalender freigeben und andere Kalender aufrufen

Die SPD und die Grünen machen im Niedersächsischen Landtag. Alle Menschen sollen in der Politik mitmachen können.

S/W mit PhotoLine. Inhaltsverzeichnis. PhotoLine

Access [basics] Rechnen in Berichten. Beispieldatenbank. Datensatzweise berechnen. Berechnung im Textfeld. Reporting in Berichten Rechnen in Berichten

Einführung in. Logische Schaltungen

Viele Bilder auf der FA-Homepage

Info-Veranstaltung zur Erstellung von Zertifikaten

Betriebliche Gestaltungsfelder

Umfrage der Klasse 8c zum Thema "Smartphones"

ONLINE-AKADEMIE. "Diplomierter NLP Anwender für Schule und Unterricht" Ziele

Regeln für das Qualitäts-Siegel

Anleitung über den Umgang mit Schildern

NoClick. Eine kurze Anleitung. Kommhelp e.v Vereinsregister. Spendenkonto kommhelp e. V. Konto Horstweg 25

Bedienungsanleitung: Onlineverifizierung von qualifiziert signierten PDF-Dateien

Transkript:

Neuronale Netzwerke

Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung

Biologische Motivation Neuronale Netze bilden die Struktur und Informationsarchitektur von Gehirn und Nervensystem

Was ist ein Neuron? 3 Bestandteile: neuronale Zellkörper (alle ankommenden Signale werden aussummiert, SW, Aktionspotential) Dendriten (verzweigte Erweiterungen, empfangen ankommende Signale) Axon (transportiert die Ausgangssignale des Neurons zu Dendriten anderer Neuronen)

Synapsen Kontaktstellen Elektrische Synapsen Chemische Synapsen: können hemmend oder verstärkend wirken

Können Computer unser Gehirn simulieren?

Künstliche neuronale Netzwerke Künstliche neuronale Netzwerke sind Computerprogramme, die die Architektur und die Funktion des Gehirns als Vorbild haben. Lernen anhand von Beispielen (Anpassung der Synapsenstärke) Verallgemeinern durchs Lernen (konnte aus Beispielen Regeln erkennen) Einfachste neuronale Netz: Perzeptron

Das Perzeptron Frank Rosenblatt 1958 auf Grundlage von Neuronenmodell von McCulloch und Pitts Lernt Tastatureingabe 0 oder 1 vorherzusagen Selbst bei vollkommen zufälliger Eingabe von 0 und 1, Perzeptron wird im Mittel besser als 50% vorhersagen (nicht viel, dennoch beängstigend, weil Rechner in der Lage menschliches Verhalten hervorzusagen.)

Aufbau des Perzeptrons I Eingabeschicht von Neuronen S i N synaptische Gewichte w i i=(1,...,n) Ausgabeneuron S 0 (ist mit allen Eingabeneuronen direkt über Synapsen verkoppelt)

Aufbau des Perzeptrons II

Die Basisfunktion S 0 reagiert auf die Summe der Aktivitäten der Neuronen die über synaptische Verbindungen direkt auf S 0 einwirken. N S0 = sign( j = 1 S j w j )

Die Basisfunktion (biologische Motivation) Neuron S i : ruht = -1, sendet Impuls=1 W i ϵ R gewichtet Stärke, mit der Signal des Neurons S i in ein elektrisches Potential im Kern von S 0 umgewandelt wird (Synapse): hemmend(<0), erregend(>0) Wenn Summe der Potentiale den Schwellenwert 0 überschreiten, dann feuert es (S 0 =+1), sonst ruht (S 0 =-1)

Die Basisfunktion (mathematisch) Boolsche Funktion, klassifiziert jede Eingabe S nach +1 oder -1 Geometrisch: S und w sind Vektoren im N- Dimensionalen Raum. N S0 = sign( j = 1 Lineare Klassifikationsgrenze der Ausgaben von S0 bei S0=0 => (N-1)-Dimensionale Hyperebene w S=0 trennt Eingaben. =>Perzeptron ist linear seperable Boolesche Funktion S j w j )

Aufbau des Perzeptrons

Die Aktivierungsfunktion binäre Klassifikation: y = sign( S 0 )

Lernen und Verallgemeinern Erhält keine Regeln/Programme nur Beispiele Beispiele: Menge von Eingabe-/Ausgabepaaren (x υ,y υ ), υ=1,..,m, y υ ={-1,+1} Lernen durch Anpassung der Gewichtungen an die Beispiele Richtiges klassifizieren durch: y sign w* x ) y = sign( S ) υ = ( υ 0

Lernen 1949: Hebb (Psychologe) postulierte: Synapsen passen sich an Aktivität ihrer Ein- und Ausgabeneuronen an. 1 w = y x, υ υ υ = 1,.., N Bei jedem neuen Beispiel ändert sich die Synapsenstärke w i ein wenig M (proportional zum Produkt aus Eingabe- und Ausgabeaktivität)

Lernen Angenommen es wird nur ein Beispiel gelernt (x,y)=> man erkennt, dass Synapsen die durch das delta w bestimmt werden, die Aktivierungsfkt. erfüllen: = = = = = N j j j N j j j y x x N y x x N y x w 1 1 ) * ( * M x y N w,.., 1, 1 = = υ υ ν ) * ( υ υ x w sign y =

Lernen und Verallgemeinern Nicht mehr möglich, wenn O(N)=M, wobei N=# der Eingabeneuronen und M=#der Beispiele Abänderung der Regel: Jedes Beispiel soll nur gelernt werden, wenn es noch nicht richtig durch das momentane w abgebildet wird

Lernen und Verallgemeinern Perzeptron Lernregel (Rosenblatt, 1960): 1. Lege nacheinander die Eingabesignale an und berechne daraus ein Ausgangssignal. 2. Entspricht das Ausgangssignal dem Sollwert, so bleiben die Gewichte unverändert. 3. Ausgangssignal 0, Sollwert 1 sein, so erhöhe die Gewichte. 4. Ausgangssignal 1, Sollwert 0 sein, so erniedrige die Gewichte. w = 1 N y ν x υ, wenn( w* x υ ) y ν 0, sonst w = 0

Lernen und Verallgemeinern Algorithmus stoppt erst, wenn die M Beispiele richtig abgebildet werden konnten. Dann existiert ein Gewichtsvektor w der für alle Bespiele die Gleichung erfüllt: y υ = sign( w* xυ )

Lernen Für diese Lernregel existiert Konvergenzbeweis Zahl t der durchgeführten Schritte ist endlich der Algorithmus stoppt nach höchstens t* Schritten (endet nur, wenn alle Beispiele richtig abgebildet werden)

Lernen Für diese Lernregel existiert Konvergenzbeweis Zahl t der durchgeführten Schritte ist endlich der Algorithmus stoppt nach höchstens t* Schritten (endet nur, wenn alle Beispiele richtig abgebildet werden)

Lernen Wie viele Beispiele kann ein Perzeptron lernen? Hängt von Abbildung ab, die Beispiele erzeugen Von anderem Perzeptron, nach Konvergenztheorem jede Anzahl M Zufällig gewählt y υ (Tastatureingabe) für M<N können alle Beispiele gelernt werden Für Limes n für M<2N (Mit Wahrscheinlichkeit 1)

Verallgemeinern Bedeutet: Perzeptron kann vorher nicht gelernte Eingabe S trotzdem klassifizieren Liefert Lehrer-Funktion für Eingabe S das Resultat S0 => Verallgemeinerungsfähigkeit g ist wie folgt definiert: g = Θ ( S 0 w S) S

Verfahren des Perzeptrons F=(-1,1,1,1,-1,1,-1,-1,1,1,-1,-1,1,-1) Perzeptron tastet jeweils ein Fenster von N Bits ab, macht Vorhersage für N+1 über: ~ = sign( w* ) Fυ + N x υ lernt Beispiel (x υ,f υ+n ) mit Rosenblatt- Regel schiebt Fenster um ein Bit nach rechts, macht neue Vorhersage für x υ+1 Iteriert und Trefferrate g bestimmt Zufallsfolge: Trefferrate g=50%

Anwendung Perzeptron 20x 0 und 1 Eingabe, Perzeptron greift nur auf letzten 10 zurück, macht Vorraussage für folgende Eingabe Vorraussage nicht angezeigt, erst nach Eingabe ausgegeben Lernvorgang: Änderung d. Synaptischen Gewichtung Trefferrate g>50%: Perzeptron hat Struktur in Bitfolge erkannt

Testergebnisse Test mit Studenten ergab: 1000 mal 0 oder 1 zufällig eingetippt Auswertung: g=60% mit Werten von 50%<g<80% Scheint schwer zu sein Zufallsfolgen per Hand einzutippen

Testergebnisse Schon mit 5 Zeilen Computerprogramm kann man menschliche Reaktionen vorhersagen Überlistung des Perzeptrons: Wenn man jedoch Spieß umdreht, konnte g auf 40% gedrückt werden

Anwendungsbeispiele Frühwarnsystemen Zeitreihenanalyse (Wetter, Aktien etc.) Bildverarbeitung und Mustererkennung Schrifterkennung (OCR) Spracherkennung

Zusammenfassung 3 Schichten: Eingabeschicht S i, synaptische Gewichte w i, Ausgabeneuron S 0 Basisfunktion und Aktivierungsfunktion Lernen durch Änderung der Synapsengewichtung Nach lernen: Verallgemeinern g>50%

Literaturverzeichnis Physik per Computer (Wolfgang Kinzel / Georg Reents) Introduction to the theory of neural computation (John Hertz, Anders Krogh, Richard G. Palmer) http://www.iicm.tu-graz.ac.at/greif/node10.html http://www.gc.ssr.upm.es/inves/neural/ann3 /concepts/biotype.htm