weitere Modelle und Methoden



Ähnliche Dokumente
Selbstorganisierende Karten

Stellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Zeichen bei Zahlen entschlüsseln

Grundlagen der höheren Mathematik Einige Hinweise zum Lösen von Gleichungen

Professionelle Seminare im Bereich MS-Office

Anwendungsbeispiele Buchhaltung

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test?

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

Einführung in neuronale Netze

Austausch- bzw. Übergangsprozesse und Gleichgewichtsverteilungen

Simulation LIF5000. Abbildung 1

Würfelt man dabei je genau 10 - mal eine 1, 2, 3, 4, 5 und 6, so beträgt die Anzahl. der verschiedenen Reihenfolgen, in denen man dies tun kann, 60!.

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN

ecaros2 - Accountmanager

Benutzerkonto unter Windows 2000

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Übungsaufgaben Tilgungsrechnung

Lichtbrechung an Linsen

Datenaufbereitung in SPSS. Daten zusammenfügen

Lineare Funktionen. 1 Proportionale Funktionen Definition Eigenschaften Steigungsdreieck 3

Anwendungsbeispiele. Neuerungen in den s. Webling ist ein Produkt der Firma:

Konfiguration VLAN's. Konfiguration VLAN's IACBOX.COM. Version Deutsch

Einrichtung des Cisco VPN Clients (IPSEC) in Windows7

Lineare Gleichungssysteme

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

Erfahrungen mit Hartz IV- Empfängern

Was meinen die Leute eigentlich mit: Grexit?

Info zum Zusammenhang von Auflösung und Genauigkeit

Der monatliche Tarif für ein Handy wurde als lineare Funktion der Form f(x) = k x + d modelliert (siehe Grafik).

Informationsblatt Induktionsbeweis

Erstellen von x-y-diagrammen in OpenOffice.calc

L10N-Manager 3. Netzwerktreffen der Hochschulübersetzer/i nnen Mannheim 10. Mai 2016

FastBill Automatic. Dokumentation Versand. FastBill GmbH. Holteyer Straße Essen Telefon Telefax

Im Folgenden werden einige typische Fallkonstellationen beschrieben, in denen das Gesetz den Betroffenen in der GKV hilft:

Wasserzeichen mit Paint-Shop-Pro 9 (geht auch mit den anderen Versionen. Allerdings könnten die Bezeichnungen und Ansichten etwas anders sein)

Outlook. sysplus.ch outlook - mail-grundlagen Seite 1/8. Mail-Grundlagen. Posteingang

Arbeitsblätter. Sinnvolle Finanzberichte. Seite 19

1. Weniger Steuern zahlen

Handbuch. NAFI Online-Spezial. Kunden- / Datenverwaltung. 1. Auflage. (Stand: )

Formelsammlung zur Kreisgleichung

Noten ausrechnen mit Excel/Tabellenkalkulation. 1) Individuellen Notenschlüssel/Punkteschlüssel erstellen

Gratis Excel SVERWEIS Funktions-Anleitung, Tutorial, ebook, PDF-E-Book

Kulturelle Evolution 12

OECD Programme for International Student Assessment PISA Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

Erstellen einer PostScript-Datei unter Windows XP

Berechnung der Erhöhung der Durchschnittsprämien

Was ist das Budget für Arbeit?

14. Minimale Schichtdicken von PEEK und PPS im Schlauchreckprozeß und im Rheotensversuch

ACHTUNG: Es können gpx-dateien und mit dem GP7 aufgezeichnete trc-dateien umgewandelt werden.

Abschlussprüfung Realschule Bayern II / III: 2009 Haupttermin B 1.0 B 1.1

erster Hauptsatz der Thermodynamik,

How to do? Projekte - Zeiterfassung

Mit der Maus im Menü links auf den Menüpunkt 'Seiten' gehen und auf 'Erstellen klicken.

Das Leitbild vom Verein WIR

AGROPLUS Buchhaltung. Daten-Server und Sicherheitskopie. Version vom b

7 Rechnen mit Polynomen

Lineare Gleichungssysteme

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

Online Schulung Anmerkungen zur Durchführung

Erweiterungen Webportal

HIER GEHT ES UM IHR GUTES GELD ZINSRECHNUNG IM UNTERNEHMEN

Primzahlen und RSA-Verschlüsselung

1. Die Maße für ihren Vorbaurollladen müssen von außen genommen werden.

Aber zuerst: Was versteht man unter Stromverbrauch im Standby-Modus (Leerlaufverlust)?

Ist Fernsehen schädlich für die eigene Meinung oder fördert es unabhängig zu denken?

2 Darstellung von Zahlen und Zeichen

Situa?onsbeschreibung aus Sicht einer Gemeinde

Kapitalerhöhung - Verbuchung

Prozentrechnung. Wir können nun eine Formel für die Berechnung des Prozentwertes aufstellen:

Vektoren mit GeoGebra

Kurzanleitung So geht s

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Codex Newsletter. Allgemeines. Codex Newsletter

Lehrer: Einschreibemethoden

Die Größe von Flächen vergleichen

Künstliches binäres Neuron

Lösung. Prüfungsteil 1: Aufgabe 1

Tutorial about how to use USBView.exe and Connection Optimization for VNWA.

GeoPilot (Android) die App

Die Invaliden-Versicherung ändert sich

LPT1 Anschluss mit PCMCIA Karte

Anlegen eines DLRG Accounts

Modellbildungssysteme: Pädagogische und didaktische Ziele

Konzepte der Informatik

Binäre Bäume. 1. Allgemeines. 2. Funktionsweise. 2.1 Eintragen

Mit dem Tool Stundenverwaltung von Hanno Kniebel erhalten Sie die Möglichkeit zur effizienten Verwaltung von Montagezeiten Ihrer Mitarbeiter.

Tutorial -

Was ist Sozial-Raum-Orientierung?

Second Steps in eport 2.0 So ordern Sie Credits und Berichte

Eva Douma: Die Vorteile und Nachteile der Ökonomisierung in der Sozialen Arbeit

Solar Dorf Projekt. Von. Arthegan Sivanesan & Tieu Long Pham

Print2CAD 2017, 8th Generation. Netzwerkversionen

SharePoint Demonstration

Erweiterung der Aufgabe. Die Notenberechnung soll nicht nur für einen Schüler, sondern für bis zu 35 Schüler gehen:

Festigkeit von FDM-3D-Druckteilen

Funktion Erläuterung Beispiel

Bundesverband Flachglas Großhandel Isolierglasherstellung Veredlung e.v. U g -Werte-Tabellen nach DIN EN 673. Flachglasbranche.

Musterlösungen zur Linearen Algebra II Blatt 5

Transkript:

weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion Gewichts-Vektoren können im Input-Raum als Codebook-Vektoren interpretiert werden Output-Neuronen interpretierbar als Punkte im Input-Raum Version 04.1 Heinrich Werner Modelle 2

LVQ Prinzip) Lernende Vektor-Quantisierung Es handelt sich um ein 2-Schichten Netzwerk, in dem jedes Input-Neuron mit jedem Output-Neuron verbunden ist. Die Gewichtsneuronen zum Outputneuron i bilden den Repräsentanten w i, genannt Codebook-Vektor. das Netz soll überwacht eine vorgegebene Klasseneinteilung lernen, deshalb gibt es zu jeder Klasse einen oder mehrere Codebook-Vektoren dieser Klasse. Das Netz realisiert eine nächste-nachbar-klassifikation, d.h. zum Input wird der nächste Codebook-Vektor (Distanz im Input-Raum) gesucht und dessen Klasse zugeordnet. Version 04.1 Heinrich Werner Modelle 3 LVQ Lernen Lernenalgorithmus der Vektor-Quantisierung Zum Input x wird der nächste Codebook-Vektor w i gesucht (bzgl. einer Distanz im Input-Raum). Der Codebook-Vektor w i wird nach der Wettbewerbsregel w i = δ. η. (x-w i ) abgeändert, wobei δ=+1 gewählt wird, wenn die Soll-Klasse von x mit der Klasse von w i übereinstimmt, und sonst δ=-1. Bei korrekter Klassifikation wird der Codebook-Vektor auf den Input zu verändert und andernfalls vom Input weg. Der Lernfaktor η ist nicht konstant, sondern wird mit der Zeit langsam auf 0 gesenkt. x c k +η(c k -x) c k c k -η(c k -x) Version 04.1 Heinrich Werner Modelle 4

LVQ Initialisierung Initialisierung Ähnlich wie bei der Counterpropagation kann man zwischen mehreren Initialisierungsarten (mit denselben Problemen) wählen. zufällig: Die Gefahr besteht, daß einige Codebook-Vektoren nie Sieger werden und daß die zufällige Klassenzuordnung nur unzureichend mit den Inputs übereinstimmt. Input-Auswahl: Die Codebookvektoren samt zugehörigen Klassen werden aus den Inputs ausgewählt, dabei ist darauf zu achten, daß genügend Repräsentanten aus jeder Klasse gewählt werden. Version 04.1 Heinrich Werner Modelle 5 LVQ-Netzwerke Learning Vector Quantization ist ein überwachtes Lernverfahren (T.Kohonen), das sich in an die oben angesprochene selbstorganisierte Vektor Quantisierung anlehnt. Vorgegeben ist eine Funktion, die die Trainingsinputs in k Klassen einteilt und die das Netzwerk lernen soll. Initialisiert wird das System mit zufällig ausgewählten Zentren (Codebook-Vektoren möglichst aus allen Klassen). Für jeden Input wird das nächste Zentrum c k ermittelt und dieses nach der Formel c k := ±η(c k -x) auf x zu bzw. von x wegbewegt, je nachdem ob x zur selben Klasse gehört wie c k oder nicht. Version 04.1 Heinrich Werner Modelle 6

erweiterte Lernenregeln LVQ2, LVQ3 Statt nur einen Sieger zu ermitteln werden die beiden besten Codebook-Vektoren w i, w j ermittelt. LVQ2 :Gelernt wird, wenn w i,w j aus verschiedenen Klassen sind, x der Klasse von w i angehört und x in einem Fenster zwischen den beiden Klassen liegt : 1+v > d(x,w i) > 1- v 1- v d(x,w j ) 1+v v [0.2, 0.3] Lernregel: w i = δ. η. (x-w i ) LVQ3 : zusätzlich lernen, wenn x,w i,w j in derselben Klasse sind. w i x w j Version 04.1 Heinrich Werner Modelle 7 LVQ Anmerkungen (Kohonen) Die Leistungsfähigkeit der LVQ hängt ab von: der Zahl der Codebook-Vektoren pro Klasse der Initialisierung der Codebook-Vektoren der verwendeten Lernregel der richtigen Lernrate für die einzelnen Schritte Eine Optimierung des LVQ ist zu erreichen, wenn man den Neuronen individuelle Lernraten η gibt und diese nach der Regel: η = η/(1+δ. η) mit den Gewichten updated (Optimized LVQ) dem Abbruchkriterium zur Terminierung des Lernens Version 04.1 Heinrich Werner Modelle 8

competetive learning (Rumelhart / Zipser) Ein competitive-learning-network hat eine Input-Ebene und mehrere Cluster-Ebenen, deren Neuronen in disjunkte Cluster eingeteilt sind. In jedem Cluster wird nun das Siegerneuron ermittelt und mit Wettbewerbstraining w i = η.(x-w i ) die in dieses Neuron dieses Clusters führenden Verbindungen abgeändert. Nur das Gewinnerneuron liefert einen Output 0 an die nächste Schicht weiter, die nach demselben Prinzip trainiert wird. Die Arbeitsphase läuft ebenso ab, nur daß keine Gewichtsveränderungen mehr stattfinden. Version 04.1 Heinrich Werner Modelle 9 competetive learning struktur Input-Ebene Wettbewerbstraining Cluster-Ebene(n) Wettbewerbstraining Cluster-Ebene Version 04.1 Heinrich Werner Modelle 10

Counterpropagation Inputschicht Wettbewerbslernen Kohonen-Schicht Grossberg-lernen Outputschicht Version 04.1 Heinrich Werner Modelle 11 Counterpropagation 2 Der Input wird wie üblich in die verborgene (Kohonen-) Schicht propagiert (Skalarproduktregel) und daraus der Sieger (Maximum) ermittelt. Vereinbarungsgemäß gibt nur das Siegerneuron eine 1 an die (Grossberg-) Ausgabeschicht weiter, alle anderen 0. Die Gewichtsveränderung erfolgt nun wieder nach dem Wettbewerbslernen w i = η. (x-w i ) Die Gewichtsveränderung der Gewichte v i vom Sieger zur Ausgabeschicht werden nach der Perceptron-Regel trainiert: v i = α. (t-v i ) (t ist der Target-Output) Im interpolativen Modus gibt es eine Gruppe von Siegern i mit Outputs y i und mit v i = α. y i.(t-v i ) Version 04.1 Heinrich Werner Modelle 12

Counterpropagation 3 Initialisierung und Anpassung der Gewichtsvektoren. zufällig (normiert!): dabei kann es zu Problemen kommen, weil ein Großteil der Repräsentanten nie Sieger wird. konvexe Kombination: Alle Gewichtsvektoren normiert und gleich w. Inputs setzen auf x neu =ax alt +(1-a)w mit langsam von 0 auf 1 wachsendem a. verrauschte Eingaben: Die Inputs werden zunächst stark und später immer geringer verrauscht eingegeben. Veränderung aller Gewichte: Es werden alle Gewichte von Neuronen trainiert, die eine Aktivität nah beim Sieger haben (mit immer kleiner werdendem Abstand). Concience factor: Jedes Neuron zählt die Anzahl der ihn ansprechenden Inputs und mit steigender Anzahl wird die Länge (Siegesmöglichkeit) etwas reduziert. Version 04.1 Heinrich Werner Modelle 13 Motorische Karten(Ritter, Schulten) Um Kohonens Algorithmus auch auf überwachtes Lernen anzuwenden, kann man die SOM (auch sensorische Karte genannt) zur motorischen Karte verallgemeinern. Zu jedem Trainingsinput hat man auch einen Soll-Output. Input Soll-Output Version 04.1 Heinrich Werner Modelle 14

Prinzip motorischer Karten Zu jedem Rasterneuron i gehören zwei Gewichtsvektoren w i (zum Input) und v i (zum Output). Bei der Eingabe von x wird der zu x nächste Repräsentant w i im Inputraum gesucht (i ist der Gewinner). Der zu x gehörige Output u spielt bei der Minimumsuche keine Rolle. Wird nicht trainiert, ist v i der Output des Netzes. Training: In der Nachbarschaft des Gewinners i wird nach der Kohonen-Regel w k = η. (x - w i ). h r (d(i,k)) gelernt. Auch der Ausgaberepräsentant v i und dessen Umgebung wird trainiert : v k = µ. (u - v i ). h r (d(i,k)). Version 04.1 Heinrich Werner Modelle 15 Netz-Output Der Netzoutput v i kann auch als eine echte Netzausgabe realisiert werden, wenn man alle Rasterneuronen außer dem Sieger eine 0 ausgeben läßt und den Sieger i eine 1. Mit dieser Festsetzung kommt in der Ausgabeschicht genau der Vektor v i an. Die gewünschte Augabe in der Rasterschicht läßt sich dadurch realisieren, daß man die Raster-Neuronen mit einer radialen Basisfunktion als Outputfunktion versieht und deren Radius ( 1/Steigung) abhängig von der Dichte der Repräsentanten klein genug wählt. Damit macht der Sieger einen Output nahe bei 1, wogegen die übrigen Neuronen fast 0 ausgeben. Version 04.1 Heinrich Werner Modelle 16

Probleme motorischer Karten Da die Ermittlung des Siegerneurons nur vom Input abhängt, ist die Modellierung von Funktionen, die auf kleinen Distanzen hohe Varianz haben sehr problematisch. Dieses Problem kann abgemildert werden, wenn man beim Training (mit abnehmender Gewichtung) auch die Distanzen der Outputs mit in die Siegerermittlung einbezieht ( x - w i +λ u - v i, λ 0) Dies hat den Effekt, daß sehr nahe beieinander liegende Inputs mit erheblich unterschiedlichen Outputs verschiedene Repräsentanten anziehen und damit an solchen kritischen Stellen die Repräsentanten erheblich dichter liegen als anderswo. Version 04.1 Heinrich Werner Modelle 17 Adaptive Resonance Theory (ART) Das Stabilitäts-Plastizitäts-Dilemma Wie kann ein Netzwerk neue Assoziationen dazulernen, ohne alte Assoziationen zu vergessen? Die Adaptive Resonanztheorie (Carpenter/Grossberg) versucht eine Lösung dieses Problems im Falle der Klassifikation binärer Eingabemuster Das Lernverfahren verbindet ein Wettbewerbslernen mit Aufmerksamkeit-gesteuerter Topologieveränderung: Suche zu einer Eingabe die bestmögliche Klassifikation Ist diese Klassifikation zu schlecht (Abstand des Prototyps vom Input größer als die Aufmerksamkeit) erzeuge ein neues Neuron mit zugehörigen Verbindungen das eine gute Klassifikation abgibt. Ist die Klassifikation gut, verbessere sie mit Wettbewerbslernen. Version 04.1 Heinrich Werner Modelle 18

Aufbau von ART Das Netz hat zwei Schichten, die Eingabeschicht (comparison-layer) mit n Neuronen und die Ausgabeschicht (recognition-layer) Zu jedem Neuron j der Ausgabeschicht gibt es einen reellen Verbindungsvektor w j = (w i1,...,w in ) und einen binären Prototypen b j = (b i1,...,b in ). Es gibt eine Konstante ρ [0,1], die sog. Aufmerksamkeit, die ein Maß dafür ist, wie grob oder fein die Klasseneinteilung werden soll (meistens 0.7<ρ<0.99). Initialisierung: b j = (1,...,1), w j = α. b j mit α = L/(L-1+ b j ) für ein L>1 und x = x i, x ist das Hamming Gewicht (=Anzahl der 1'en)des Vektors x. Version 04.1 Heinrich Werner Modelle 19 Arbeitsweise von ART ART ist konzipiert für binäre Eingabevektoren, es gibt aber auch Erweiterungen (ART2, ART3) auf reelle Eingaben. Nach der Initialisierung arbeitet ART in 4 Phasen: Erkennungsphase (recognition) es wird das zur Eingabe am besten passende Output-Neuron ermittelt. Vergleichsphase (comparison) Die Eingabe wird mit dem Prototyp verglichen. Suchphase (search) Fällt der Vergleich zu schlecht aus, wird das nächst beste Output-Neuron ermittelt (--> Vergleichsphase) Lernphase (training) Es wird nötigenfalls ein neues Neuron in die Ausgabeschicht gesetzt und die Gewichte und Prototypen des Gewinners angepaßt. Version 04.1 Heinrich Werner Modelle 20

ART recognition Der Eingabevektor x wird mit der Gewichtsmatrix W multipliziert a = Wx und liefert für jedes Ausgabeneuron j einen Wert a j. Unter diesen wird das Maximum (der Sieger) gesucht und die (vorläufige) Netzausgabe ist der Einheits-Vektor u mit u j = ( a j maximal)? 1 : 0 Interpretation: Die Eingabe x gehört zu Klasse j! Fällt u bei der Vergleichsphase durch, so wird a j =0 gesetzt und u neu berechnet. Ist u=0, so muß ein neues Ausgabeneuron mit Prototyp b j = (1,...,1), Gewicht w j = L/(L-1+ b j ). b j eingerichtet werden, das dann Gewinner ist. Version 04.1 Heinrich Werner Modelle 21 ART comparison Der momentane Outputvektor u wird mit der Matrix B multiliziert und produziert damit den Prototyp b j. Nun wird der Prototyp b j mit dem aktuellen Input x verglichen: Berechne das Hamming-Gewicht (= Anzahl der 1'en) x und x AND b j der Vektoren x und x AND b j und berechne deren Quotient. (wieviel Prozent der in x besetzten Stellen sind auch in b j besetzt?) Ist x AND b j / x > ρ, so war der Vergleich erfolgreich (z.b. wenn b j = (1,...,1) ist) und es geht weiter zum training. Ist der Vergleich nicht erfolgreich, so wird a j =0 gesetzt und in die recognition-phase zurückgekehrt. Version 04.1 Heinrich Werner Modelle 22

ART training In diesem Schritt werden sowohl der Prototyp wie auch der Gewichtsvektor des Gewinnerneurons angepaßt, dabei ist der Gewichtsvektor immer die "normalisierte" Form des Prototyps. b j neu = x AND b j alt. w j neu = L/(L-1+ b j ). b j. Folgende Eigenschaften des Trainings sind bewiesen: Jeder Trainingsvektor findet seinen Gewinner ohne Suche. Das Training ist stabil: kein Input wechselt seine Klasse. Das Training terminiert Version 04.1 Heinrich Werner Modelle 23