Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06



Ähnliche Dokumente
Kapitel LF: IV. IV. Neuronale Netze

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Neuronale Netze (I) Biologisches Neuronales Netz

Zeichen bei Zahlen entschlüsseln

13 Öffentliche Güter

Neuronale Netze mit mehreren Schichten

Erfahrungen mit Hartz IV- Empfängern

Markus Kühne Seite Digitaltechnik

Eigenwerte und Eigenvektoren von Matrizen

Internet Explorer Version 6

Was meinen die Leute eigentlich mit: Grexit?

Jan Parthey, Christin Seifert. 22. Mai 2003

Kapitel MK:IV. IV. Modellieren mit Constraints

Wie Sie beliebig viele PINs, die nur aus Ziffern bestehen dürfen, mit einem beliebigen Kennwort verschlüsseln: Schritt 1

Basis und Dimension. Als nächstes wollen wir die wichtigen Begriffe Erzeugendensystem und Basis eines Vektorraums definieren.

Webmodule. Informationen zur neuen Version der Online Auftragserfassung / Tracking & Tracing

e-books aus der EBL-Datenbank

Die Gleichung A x = a hat für A 0 die eindeutig bestimmte Lösung. Für A=0 und a 0 existiert keine Lösung.

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Formale Sprachen. Der Unterschied zwischen Grammatiken und Sprachen. Rudolf Freund, Marian Kogler

Künstliches binäres Neuron

1. Man schreibe die folgenden Aussagen jeweils in einen normalen Satz um. Zum Beispiel kann man die Aussage:

How-to: Webserver NAT. Securepoint Security System Version 2007nx

Computational Intelligence I Künstliche Neuronale Netze

Die Invaliden-Versicherung ändert sich

Wichtige Information zur Verwendung von CS-TING Version 9 für Microsoft Word 2000 (und höher)

Social Media Guidelines. Miriam Nanzka, Hohenzollern SIEBEN

Ergebnisse der Umfrage zur Wirtschaftsförderung. Name: Dr. Schulz

Installationsanleitung WibuKey Treiber

Pädagogische Hochschule Thurgau. Lehre Weiterbildung Forschung

Auftrag zum Fondswechsel

Kapitalerhöhung - Verbuchung

Feiertage in Marvin hinterlegen

WS 2009/10. Diskrete Strukturen

Die Online-Meetings bei den Anonymen Alkoholikern. zum Thema. Online - Meetings. Eine neue Form der Selbsthilfe?

Installation Hardlockserver-Dongle

Vermeiden Sie es sich bei einer deutlich erfahreneren Person "dranzuhängen", Sie sind persönlich verantwortlich für Ihren Lernerfolg.

White Paper - Umsatzsteuervoranmeldung Österreich ab 01/2012

SICHERN DER FAVORITEN

AUTOMATISCHE -ARCHIVIERUNG. 10/07/28 BMD Systemhaus GmbH, Steyr Vervielfältigung bedarf der ausdrücklichen Genehmigung durch BMD!

Zahlen und das Hüten von Geheimnissen (G. Wiese, 23. April 2009)

Das Stationsportal der DB Station&Service AG - Das Rollenkonzept. DB Station&Service AG Vertrieb Stationsportal Berlin, Juli 2015

SCHRITT 1: Öffnen des Bildes und Auswahl der Option»Drucken«im Menü»Datei«...2. SCHRITT 2: Angeben des Papierformat im Dialog»Drucklayout«...

1 Kurzanleitung IMAP-Verfahren

Manifest für ein neues Arbeiten

Landes-Arbeits-Gemeinschaft Gemeinsam Leben Gemeinsam Lernen Rheinland-Pfalz e.v.

Anleitung Redmine. Inhalt. Seite 1 von 11. Anleitung Redmine

Integrierte IT Portfolioplanung

AZK 1- Freistil. Der Dialog "Arbeitszeitkonten" Grundsätzliches zum Dialog "Arbeitszeitkonten"

Impulse Inklusion Selbst-bestimmtes Wohnen und Nachbarschaft

Integration verteilter Datenquellen in GIS-Datenbanken

Methodenfehler im Morbi-RSA: Für alte und schwerkranke Menschen wird den Kassen zu wenig Geld zugewiesen

Weiterbildung mit Kind Informationen zur Nutzung der Kindertagesstätte in der Sparkassenakademie. Stuttgart, Juni 2014

Projektsteuerung Projekte effizient steuern. Welche Steuerungsinstrumente werden eingesetzt?

Spiel und Spaß im Freien. Arbeitsblat. Arbeitsblatt 1. Zeichnung: Gisela Specht. Diese Vorlage darf für den Unterricht fotokopiert werden.

«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen

Wie Google Webseiten bewertet. François Bry

Ideen für die Zukunft haben.

Das Schulsystem in Deutschland (Band 2, Lektion 1)

Petri-Netze / Eine Einführung (Teil 2)

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus:

Xerox Color 800/1000 Press Drucken mit Registerseiten

Die Post hat eine Umfrage gemacht

Vulkane oder Die Erde spuckt Feuer

1. Zugriff des Autostarts als Dienst auf eine Freigabe im Netz

IEEE 802.1x Authentifizierung. IEEE 802.1x Authentifizierung IACBOX.COM. Version Deutsch

Theoretische Grundlagen der Informatik WS 09/10

Anleitung zur Einrichtung von Kontoweckern im Online Banking

Was ich als Bürgermeister für Lübbecke tun möchte

Statuten in leichter Sprache

BMW TREUE SERVICE. SRP MARKETING MODUL. ANLEITUNG ZUM EINSPIELEN DER LEUCHTTURMKAMPAGNEN IN DIE KSD.

HIER GEHT ES UM IHR GUTES GELD ZINSRECHNUNG IM UNTERNEHMEN

Aufgabe 1 Berechne den Gesamtwiderstand dieses einfachen Netzwerkes. Lösung Innerhalb dieser Schaltung sind alle Widerstände in Reihe geschaltet.

Schnellanleitung: Verbuchung von Studien- und Prüfungsleistungen

In diesem Tutorial lernen Sie, wie Sie einen Termin erfassen und verschiedene Einstellungen zu einem Termin vornehmen können.

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

ZUKUNFTSVORSORGE mit STEUERPLUS. Zukunftssicherung durch Gehaltsumwandlung. Bedeutet für Sie als Dienstnehmer. In Zusammenarbeit mit Ihrem Dienstgeber

Musterlösungen zur Linearen Algebra II Blatt 5

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

LERNPATEN SAAR Schirmherrin: Ministerpräsidentin Annegret Kramp-Karrenbauer

OLXFil er Anleitung

Bewerbungsformular für das Förderprogramm Teamwork gefragt! Beteiligung von Personen aus anderen Kulturen in der Gemeinde


ASP Dokumentation Dorfstrasse 143 CH Kilchberg Telefon 01 / Telefax 01 / info@hp-engineering.com

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Virtueller Seminarordner Anleitung für die Dozentinnen und Dozenten

(für Grund- und Leistungskurse Mathematik) 26W55DLQHU0DUWLQ(KUHQE UJ*\PQDVLXP)RUFKKHLP

Trainingsplan 21-wöchiger Trainingsplan für einen Langdistanz-Schwimm- Wettkampf

Subpostfächer und Vertretungen für Unternehmen

Warum sich das Management nicht für agile Softwareentwicklung interessieren sollte - aber für Agilität

Online bezahlen mit e-rechnung

LSF-Anleitung für Studierende

Installation und Bedienung von vappx unter ios

BIA-Wissensreihe Teil 4. Mind Mapping Methode. Bildungsakademie Sigmaringen

Das in diesem Werk enthaltene Programm-Material ist mit keiner Verpflichtung oder Garantie irgendeiner Art verbunden.

Gesetz zur Berufskraftfahrerqualifikation (BKrfFQG)

Lokale Installation von DotNetNuke 4 ohne IIS

Automatisches Parallelisieren

Wollen Sie einen mühelosen Direkteinstieg zum Online Shop der ÖAG? Sie sind nur einen Klick davon entfernt!

Transkript:

Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und ackpropagation Definition 6 (lineare Separierbarkeit) Zwei Mengen D und D von Vektoren eines p-dimensionalen Raumes heißen linear separierbar, falls p +reelle Zahlen θ, w,..., w p existieren, so daß p i= wixi θ für jeden Vektor in D und p i= wixi <θfür jeden Vektor in D gilt. 40 Multilayer-Perzeptrons und ackpropagation Definition 6 (lineare Separierbarkeit) Zwei Mengen D und D von Vektoren eines p-dimensionalen Raumes heißen linear separierbar, falls p +reelle Zahlen θ, w,..., w p existieren, so daß p i= wixi θ für jeden Vektor in D und p i= wixi <θfür jeden Vektor in D gilt. x x linear separierbar nicht linear separierbar 40

Multilayer-Perzeptrons und ackpropagation Separierbarkeit Die XOR-Funktion definiert die kleinste, nicht linear separierbare Menge: = x XOR (Klasse) 0 0 0 () 0 () 0 () 0 () x 2 =0 x =0 x = 4 Multilayer-Perzeptrons und ackpropagation Separierbarkeit Die XOR-Funktion definiert die kleinste, nicht linear separierbare Menge: = x XOR (Klasse) 0 0 0 () 0 () 0 () 0 () x 2 =0 x =0 x = Definition mehrerer Geraden (Hyperebenen) Verwendung mehrerer Perzeptrons 4 Multilayer-Perzeptrons und ackpropagation Separierbarkeit (Fortsetzung) Verschaltung von Perzeptrons in mehreren Schichten: Multilayer-Perzeptron. Das einfachste Multilayer-Perzeptron für das XOR-Problem: x = Σ, θ Σ, θ {, } emerkungen: Das Konzept des Multilayer-Perzeptrons wurde 986 von Rumelhart & McClelland vorgeschlagen. Früher aber unbeachtet geblieben waren die rbeiten Werbos und Parker [974, 982]. ei Multilayer-Perzeptrons liegt eine komplexere Lernsituation vor, für die kontinuierliche Schwellwertfunktionen und stärkere Lernverfahren benötigt werden. Marvin Minsky und Seymour Papert zeigten 969 am eispiel des XOR-Problems die Grenzen des einzelnen Perzeptrons. Insbesondere vermuteten sie, daß eine Erweiterung der Perzeptron-rchitektur ähnlichen eschränkungen unterläge wie ein einzelnes Perzeptron. Sie brachten damit die Forschung in diesem ereich für 7 Jahre zum Stillstand. = Σ, θ [Marvin Minsky] 42 42a

Multilayer-Perzeptrons und ackpropagation erechnung im Netzwerk Perzeptron mit kontinuierlicher Schwellwertfunktionen: emerkungen: Die Sigmoid-Funktion eignet sich bei Modellierung der Klassen mit den Werten 0 und. threshold function w 0 = - θ 2 w T x - θ x w. w 2. w p Σ 0 y nstelle der Sigmoid-Funktion kommt auch die tanh-funktion als Schwellwertfunktion zum Einsatz. tanh(x) = ex e x = e 2x e x + e x e 2x + x p Eingänge usgang threshold function Sigmoid-Funktion σ(z) als Schwellwertfunktion: 2 w T x - θ σ(z) = +e z mit der Eigenschaft: erechnung im Perzeptron: y(x) = σ(w T x) = dσ(z) = σ(z) ( σ(z)) dz +e wt x 43 43a Multilayer-Perzeptrons und ackpropagation erechnung im Netzwerk Unterscheidung von Input-, Hidden- und Output-Units (-Perzeptrons): U I U H U O Σ y x = Σ Σ y 2 =......... Σ x p = Σ y k emerkungen: Die Units der Input-Schicht führen keine erechnungen aus; sie dienen lediglich zur Verteilung der Eingangsdaten an die nächste Schicht. Die Nichtlinearität der Sigmoid-Funktion ermöglicht Netzwerke, die jede beliebige Funktion approximieren können. Hierzu sind lediglich drei aktive Schichten notwendig genauer: zwei Schichten mit Hidden-Units und eine Schicht mit Output-Units. Stichwort: Kolmogorov-Theorem uf asis der verallgemeinerten Delta-Regel wird eine Rückwärtspropagierung des Lernfehlers und somit ein Trainieren mehrschichtiger Netzwerke möglich. Stichwort: ackpropagation-lgorithmus Der Gradientenabstieg bzgl. der Fehlerfunktion berücksichtigt den gesamten Netzwerkgewichtsvektor. Multilayer-Perzeptrons werden auch Multilayer-Netzwerke oder (künstliche) neuronale Netze genannt. Eine gebräuchliche bkürzung in diesem Zusammenhang ist NN, für rtificial Neural Network. Feed-Forward U I,U H,U O x u v w uv, w uv δ u y u Mengen von Input-, Hidden- und Output-Units Eingangswert für Unit v, bereitgestellt am usgang von Unit u Gewicht und Gewichtsanpassung für Kante zwischen Unit u und Unit v Lernfehler von Unit u usgangswert von Unit u 44 44a Multilayer-Perzeptrons und ackpropagation Lernfehler Der Lernfehler E(w) summiert sich über die k = U O usgänge des Netzes: E(w) = 2 x,c(x) D v U O (c v(x) y v(x)) 2 Durch die komplexe Form von E(w) gibt es i. d. R. viele lokale Minima: E(w) 6 2 8 4 0 45

Multilayer-Perzeptrons und ackpropagation lgorithmus zur Gewichtsanpassung (Incremental-Mode) Sei D eine Menge von Trainingsbeispielen, η die Lernrate, und U I, U H, U O Mengen von Input-, Hidden- und Output-Units.. initialize_random_weights(u I,U H,U O ), t =0 2. REPET 3. t = t + 4. FORECH x, c(x) D DO 5. FORECH u U H DO y u = propagate(x,u) // layer 6. FORECH v U O DO y v = propagate(y H,v) // layer 2 7. FORECH v U O DO δ v = y v ( y v ) (c v (x) y v ) // backpropagate layer 2 8. FORECH u U H DO δ u = y u ( y u ) w uv δ v v U o // backpropagate layer 9. FORECH w uv, (u, v) (U I U H ) (U H U O ) DO 0. w uv = η δ v x u v. w uv = w uv + w uv 2. ENDDO 3. ENDDO 4. UNTIL(convergence(D, Y O ) t>t max ) 46 Multilayer-Perzeptrons und ackpropagation lgorithmus zur Gewichtsanpassung (Incremental-Mode) Sei D eine Menge von Trainingsbeispielen, η die Lernrate, und U I, U H, U O Mengen von Input-, Hidden- und Output-Units.. initialize_random_weights(u I,U H,U O ), t =0 2. REPET 3. t = t + 4. FORECH x, c(x) D DO 5. FORECH u U H DO y u = propagate(x,u) // layer 6. FORECH v U O DO y v = propagate(y H,v) // layer 2 7. FORECH v U O DO δ v = y v ( y v ) (c v (x) y v ) // backpropagate layer 2 8. FORECH u U H DO δ u = y u ( y u ) w uv δ v v U o // backpropagate layer 9. FORECH w uv, (u, v) (U I U H ) (U H U O ) DO 0. w uv = η δ v x u v. w uv = w uv + w uv 2. ENDDO 3. ENDDO 4. UNTIL(convergence(D, Y O ) t>t max ) 46

Multilayer-Perzeptrons und ackpropagation lgorithmus zur Gewichtsanpassung (Incremental-Mode) Sei D eine Menge von Trainingsbeispielen, η die Lernrate, und U I, U H, U O Mengen von Input-, Hidden- und Output-Units.. initialize_random_weights(u I,U H,U O ), t =0 2. REPET 3. t = t + 4. FORECH x, c(x) D DO 5. FORECH u U H DO y u = propagate(x,u) // layer 6. FORECH v U O DO y v = propagate(y H,v) // layer 2 7. FORECH v U O DO δ v = y v ( y v ) (c v (x) y v ) // backpropagate layer 2 8. FORECH u U H DO δ u = y u ( y u ) w uv δ v v U o // backpropagate layer 9. FORECH w uv, (u, v) (U I U H ) (U H U O ) DO 0. w uv = η δ v x u v. w uv = w uv + w uv 2. ENDDO 3. ENDDO 4. UNTIL(convergence(D, Y O ) t>t max ) 46 Multilayer-Perzeptrons und ackpropagation Gewichtsanpassung mit Momentum-Term Die Gewichtsanpassung in Iteration t wird abhängig von der npassung in Iteration t gemacht: w uv(t) =η δ v x u v + α w uv(t ) mit Momentum α, 0 α< 47 Multilayer-Perzeptrons und ackpropagation Gewichtsanpassung mit Momentum-Term Die Gewichtsanpassung in Iteration t wird abhängig von der npassung in Iteration t gemacht: w uv(t) =η δ v x u v + α w uv(t ) mit Momentum α, 0 α< Effekte: bedingt durch die Trägheit können lokale Minima überwunden werden bei gleichbleibender bstiegsrichtung erhöht sich die Schrittweite und damit die Konvergenzgeschwindigkeit 47

Neuronale Netze Quellen zum Nachlernen und Nachschlagen im Web nwendung und Implementierung: JNNS. Java Neural Network Simulator. http://www-ra.informatik.uni-tuebingen.de/software/javanns SNNS. Stuttgart Neural Network Simulator. http://www-ra.informatik.uni-tuebingen.de/software/snns 48