Rekurrente Neuronale Netze. Rudolf Kruse Neuronale Netze 227

Ähnliche Dokumente
Neuronale Netze. Prof. Dr. Rudolf Kruse

Übungen zur Theoretischen Physik 2 Lösungen zu Blatt 13

Vorkurs Mathematik-Physik, Teil 8 c 2016 A. Kersch

1.4 Krummlinige Koordinaten I

Ferienkurs Theoretische Mechanik Sommer 2010 Newton/Koordinaten/Dgl s

Computersimulationen in der Astronomie

Übungen zur Theoretischen Physik 2 Lösungen zu Blatt 2

Differentialgleichungen

Blatt 1. Kinematik- Lösungsvorschlag

J. Neunte Übungseinheit

Ergänzende Materialien zur Vorlesung Theoretische Mechanik, WS 2005/06

(t - t ) (t - t ) bzw. δ ε. θ ε. (t - t ) Theorie A (WS2005/06) Musterlösung Übungsblatt ε= 0.1 ε= t ) = lim.

Übungen zur Theoretischen Physik 2 Lösungen zu Blatt 11

Experimentalphysik 1

1. Grundlagen der ebenen Kinematik

Übungen zu: Theoretische Physik I klassische Mechanik W 2213 Tobias Spranger - Prof. Tom Kirchner WS 2005/06

Klassische Theoretische Physik I WS 2013/ Wegintegrale ( = 50 Punkte)

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Übungen zu: Theoretische Physik I klassische Mechanik W 2213 Tobias Spranger - Prof. Tom Kirchner WS 2005/06

Theoretische Physik: Mechanik

2. Räumliche Bewegung

Theoretische Physik: Mechanik

31. Kurven in Ebene und Raum

T0: Rechenmethoden WiSe 2011/12. Lösungen: Ergänzungsaufgaben zur Klausurvorbereitung Differentialgleichungen

(a) Transformation auf die generalisierten Koordinaten (= Kugelkoordinaten): ẏ = l cos(θ) θ sin(ϕ) + l sin(θ) cos(ϕ) ϕ.

Lösung 05 Klassische Theoretische Physik I WS 15/16. y a 2 + r 2. A(r) =

5. Vorlesung Wintersemester

Kapitel 2. Kinematik des Massenpunktes. 2.1 Einleitung. 2.2 Massenpunkt. 2.3 Ortsvektor

Probestudium der Physik 2011/12

Dierentialgleichungen 2. Ordnung

Serie 8 - Parametrisierte Kurven

2. Räumliche Bewegung

Differentialgleichungen I

D-MAVT/D-MATL Analysis II FS 2017 Dr. Andreas Steiger. Lösung - Serie 26. ẋ 1 = x 1 + 2x ẋ 2 = 2x 1 + x 2

Übungen zur Klassischen Theoretischen Physik I WS 2016/17

Übungen zu Experimentalphysik 1 für MSE

Differentiation nach einem Parameter Kettenregel

Anwendung der Infinitesimalrechnung in der Physik (besonders geeignet für Kernfach Physik Kurshalbjahr Mechanik Anforderung auf Leistungskursniveau)

Theoretische Physik: Mechanik

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Die Lösungen einer autonomen Differentialgleichung zweiter Ordnung,

Formelsammlung: Physik I für Naturwissenschaftler

Beispiele zu Teil 3: Differentialgleichungen

Theoretische Physik: Mechanik

Gewöhnliche Differentialgleichungen

2. Räumliche Bewegung

Hybride Systeme. Wolfgang Kleier. 27. Juni Universität Bayreuth

Theoretische Physik 1 Mechanik

Aufgabe Summe Note Punkte

Übungen zu Theoretische Physik I - Mechanik im Sommersemester 2013 Blatt 7 vom Abgabe:

Theoretische Mechanik

Aufgabe zur Corioliskraft 1. Hier ist es dringend angeraten als erstes eine aussagekräftige Skizze zu machen:

Klassische Theoretische Physik I WS 2013/2014

Ergänzende Materialien zur Vorlesung Theoretische Mechanik, WS 2005/06

Numerische Integration des Schwarzschild Problems mit Hilfe von Lie-Reihen

Differenzialgleichungen

J Zehnte Übungseinheit

Flüsse, Fixpunkte, Stabilität

KLAUSUR ZUR THEORETISCHEN PHYSIK I (LAK) Wintersemester 13/14

Numerik gewöhnlicher Differentialgleichungen (MA2304) Modulprüfung F. Bornemann, C. Ludwig 14. August 2017

Theoretische Physik: Mechanik

1 Lagrange-Formalismus

Theoretische Physik I: Lösungen Blatt Michael Czopnik

Experimentalphysik E1

Ferienkurs Theoretische Mechanik Sommer 2010 Hamiltonformalismus und Schwingungssysteme

2.9 Gedämpfter Harmonischer Oszillator

Gewöhnliche Differentialgleichungen Woche 10. Spezielles für zweite Ordnung

Harmonische Schwingung

Serie 11, Musterlösung

Name: Gruppe: Matrikel-Nummer:

Übungen zur Theoretischen Physik 2 Lösungen zu Blatt 1

A1: Diplomvorprüfung HM II/III WS 2007/

Theoretische Physik: Mechanik

Theoretische Physik: Mechanik

Übungen zur Theoretischen Physik F SS 14. (a) Wenn das System nur aus einem reinen Zustand besteht, dann gilt für die Dichtematrix

c) y = ln( 2x + 5) d) y = 2) Verwandeln Sie die gegebene implizite Funktion in die explizite Form y(x):

3 Kraft als Vektorfeld

Lineare Differenzen- und Differenzialgleichungen

Physik I Übung 13 - Lösungshinweise

Kommentierte Musterlösung zur Klausur HM II für Naturwissenschaftler

3 Räumliche Punktbewegung

Lösung der harmonischen Oszillator-Gleichung

25. Vorlesung Sommersemester

2. VEKTORANALYSIS 2.1 Kurven Definition: Ein Weg ist eine stetige Abbildung aus einem Intervall I = [a; b] R in den R n : f : I R n

Serie 13. Analysis D-BAUG Dr. Cornelia Busch FS 2016

2. Kinematik. 2.1 Modell Punktmasse

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Probestudium der Physik 2011/12

B.1 Lösungsskizzen der Übungsaufgaben zum Kapitel 1

Serie 4: Gradient und Linearisierung

3. Erhaltungsgrößen und die Newton schen Axiome

VDK Allgemeine Chemie I (PC)

TEIL I: KINEMATIK. 1 Eindimensionale Bewegung. 1.1 Bewegungsfunktion und s-t-diagramm

Rotierende Bezugssysteme

Transkript:

Rekurrente Neuronale Netze Rudolf Kruse Neuronale Netze 227

Rekurrente Netze: Abkühlungsgesetz Ein Körper der Temperaturϑ wird in eine Umgebung der Temperaturϑ A eingebracht. Die Abkühlung/Aufheizung des Körpers kann beschrieben werden durch das Newtonsche Abkühlungsgesetz: Exakte analytische Lösung: dϑ dt = ϑ = k(ϑ ϑ A ). ϑ(t) =ϑ A + (ϑ ϑ A )e k(t t ) Ungefähre Lösung mit Hilfe des Euler-Cauchyschen Polygonzuges: ϑ 1 =ϑ(t 1 ) =ϑ(t ) + ϑ(t ) =ϑ k(ϑ ϑ A ). ϑ 2 =ϑ(t 2 ) =ϑ(t 1 ) + ϑ(t 1 ) =ϑ 1 k(ϑ 1 ϑ A ). Allgemeine rekursive Gleichung: ϑ i =ϑ(t i ) =ϑ(t i 1 ) + ϑ(t i 1 ) =ϑ i 1 k(ϑ i 1 ϑ A ) Rudolf Kruse Neuronale Netze 228

Rekurrente Netze: Abkühlungsgesetz Euler Cauchy-Polygonzüge für verschiedene Schrittweiten: ϑ ϑ = 4 ϑ = 2 ϑ = 1 ϑ ϑ ϑ A t 5 1 15 2 ϑ A t 5 1 15 2 ϑ A t 5 1 15 2 Die dünne Kurve ist die genaue analytische Lösung. Rekurrentes neuronales Netz: ϑ(t ) k kϑ A ϑ(t) Rudolf Kruse Neuronale Netze 229

Rekurrente Netze: Abkühlungsgesetz Formale Herleitung der rekursiven Gleichung: Ersetze Differentialquotient durch Differenzenquotient dϑ(t) dt ϑ(t) = ϑ(t + ) ϑ(t) mit hinreichend kleinem. Dann ist ϑ(t + ) ϑ(t) = ϑ(t) k(ϑ(t) ϑ A ), und daher ϑ(t + ) ϑ(t) = ϑ(t) kϑ(t) +kϑ A ϑ i ϑ i 1 kϑ i 1 +kϑ A. Rudolf Kruse Neuronale Netze 23

Rekurrente Netze: Masse an einer Feder x m Zugrundeliegende physikalische Gesetze: Hooke sches Gesetz: F = c l = cx (c ist eine federabhängige Konstante) Zweites Newton sches Gesetz: F = ma = mẍ (Kraft bewirkt eine Beschleunigung) Resultierende Differentialgleichung: mẍ = cx oder ẍ = c m x. Rudolf Kruse Neuronale Netze 231

Rekurrente Netze: Masse an einer Feder Allgemeine analytische Lösung der Differentialgleichung: mit den Parametern x(t) =a sin(ωt) +b cos(ωt) ω = c m, a =x(t ) sin(ωt ) +v(t ) cos(ωt ), b =x(t ) cos(ωt ) v(t ) sin(ωt ). Mit gegebenen Initialwertenx(t ) =x undv(t ) = und der zusätzlichen Annahmet = bekommen wir den einfachen Ausdruck x(t) =x cos Rudolf Kruse Neuronale Netze 232 c m t.

Rekurrente Netze: Masse an einer Feder Wandle Differentialgleichung in zwei gekoppelte Gleichungen um: ẋ =v and v = c m x. Approximiere Differentialquotient durch Differenzenquotient: x =x(t + ) x(t) =v and v =v(t + ) v(t) = c m x Resultierende rekursive Gleichungen: x(t i ) = x(t i 1 ) + x(t i 1 ) = x(t i 1 ) + v(t i 1 ) und v(t i ) = v(t i 1 ) + v(t i 1 ) = v(t i 1 ) c m x(t i 1). Rudolf Kruse Neuronale Netze 233

Rekurrente Netze: Masse an einer Feder x(t ) u 1 x(t) c m v(t ) u 2 v(t) Neuronu 1 : f (u 1) net (v,w u 1 u 2 ) =w u1 u 2 v = c v und m f (u 1) act (act u 1, net u1,θ u1 ) = act u1 + net u1 θ u1, Neuronu 2 : f (u 2) net (x,w u 2 u 1 ) =w u2 u 1 x = x und f (u 2) act (act u 2, net u2,θ u2 ) = act u2 + net u2 θ u2. Rudolf Kruse Neuronale Netze 234

Rekurrente Netze: Masse an einer Feder Einige Berechnungsschritte des neuronalen Netzes: t v x.. 1..1.5.95.2.975.8525.3 1.412.7124.4 1.7574.5366.5 2.258.3341.6 2.1928.1148 x 1 2 3 4 t Die resultierende Kurve ist nah an der analytischen Lösung. Die Annäherung wird mit kleinerer Schrittweite besser. Rudolf Kruse Neuronale Netze 235

Rekurrente Netze: Differentialgleichungen Allgemeine Darstellung expliziter Differentialgleichungen n-ten Grades: Einführung von n 1 Zwischengrößen Gleichungssystem x (n) =f(t,x,ẋ,ẍ,...,x (n 1) ) y 1 =ẋ, y 2 =ẍ,... y n 1 =x (n 1) ẋ = y 1, ẏ 1 = y 2,. ẏ n 2 = y n 1, ẏ n 1 = f(t,x,y 1,y 2,...,y n 1 ) von n gekoppelten Differentialgleichungen ersten Grades. Rudolf Kruse Neuronale Netze 236

Rekurrente Netze: Differential Equations Ersetze Differentialquotient durch Differenzenquotient, um die folgenden rekursiven Gleichungen zu erhalten: x(t i ) = x(t i 1 ) + y 1 (t i 1 ), y 1 (t i ) = y 1 (t i 1 ) + y 2 (t i 1 ),. y n 2 (t i ) = y n 2 (t i 1 ) + y n 3 (t i 1 ), y n 1 (t i ) = y n 1 (t i 1 ) +f(t i 1,x(t i 1 ),y 1 (t i 1 ),...,y n 1 (t i 1 )) Jede dieser Gleichungen beschreibt die Aktualisierung eines Neurons. Das letzte Neuron benötigt eine spezielle Aktivierungsfunktion. Rudolf Kruse Neuronale Netze 237

Rekurrente Netze: Differentialgleichungen x ẋ ẍ. x (n 1). θ x(t) t Rudolf Kruse Neuronale Netze 238

Rekurrente Netze: Schräger Wurf y v cosϕ y ϕ v sinϕ x Schräger Wurf eines Körpers. x Zwei Differentialgleichungen (eine für jede Koordinatenrichtung): wobeig= 9.81 ms 2. ẍ = und ÿ = g, Anfangsbedingungenx(t ) =x,y(t ) =y,ẋ(t ) =v cosϕ undẏ(t ) =v sinϕ. Rudolf Kruse Neuronale Netze 239

Rekurrente Netze: Schräger Wurf Führe Zwischenbedingungen ein: v x =ẋ und v y =ẏ um das System der folgenden Differentialgleichungen zu erhalten: ẋ =v x, v x =, ẏ =v y, v y = g, aus dem wir das System rekursiver Anpassungsformeln erhalten x(t i ) =x(t i 1 ) + v x (t i 1 ), v x (t i ) =v x (t i 1 ), y(t i ) =y(t i 1 ) + v y (t i 1 ), v y (t i ) =v y (t i 1 ) g. Rudolf Kruse Neuronale Netze 24

Rekurrente Netze: Schräger Wurf Bessere Beschreibung: Benutze Vektoren als Eingaben und Ausgaben r = ge y, wobeie y = (, 1). Anfangsbedingungen sindr(t ) =r = (x,y ) undṙ(t ) =v = (v cosϕ,v sinϕ). Führe eine vektorielle Zwischengröße v = ṙ ein, um zu erhalten. ṙ =v, v = ge y Das führt zu den rekursiven Anpassungsregeln r(t i ) = r(t i 1 ) + v(t i 1 ), v(t i ) = v(t i 1 ) ge y Rudolf Kruse Neuronale Netze 241

Rekurrente Netze: Schräger Wurf Die Vorteile vektorieller Netze werden offensichtlich, wenn Reibung mit in Betracht gezogen wird: a = βv = βṙ β ist eine Konstante, die von Größe und Form des Körpers abhängt. Dies führt zur Differentialgleichung Führe die Zwischengrößev=ṙ ein, um r = βṙ ge y. ṙ =v, v = βv ge y, zu erhalten, woraus wir die folgenden rekursiven Anpassungsformeln bekommen: r(t i ) = r(t i 1 ) + v(t i 1 ), v(t i ) = v(t i 1 ) βv(t i 1 ) ge y. Rudolf Kruse Neuronale Netze 242

Rekurrente Netze: Schräger Wurf Sich ergebendes rekurrentes neuronales Netz: y r r(t) 1 2 3 x v ge y β Es gibt keine seltsamen Kopplungen wie in einem nicht-vektoriellen Netz. Man beachte die Abweichung von der Parabel, die durch die Reibung bewirkt wird. Rudolf Kruse Neuronale Netze 243

Rekurrente Netze: Umlaufbahnen der Planeten r = γm r r 3 ṙ =v v = γm r r 3 Rekursive Anpassungsregeln: r(t i ) = r(t i 1 ) + v(t i 1 ) v(t i ) = v(t i 1 ) γm r(t i 1) r(t i 1 ) 3 y r γm v x(t) v(t).5 1.5.5 x Rudolf Kruse Neuronale Netze 244

Rekurrente Netze: Backpropagation über die Zeit Idee: Entfalte das Netzwerk zwischen Trainingsmustern, d.h. lege ein Neuron für jeden Zeitpunkt an. Beispiel: Newton sches Abkühlungsgesetz 1 k 1 k 1 k 1 k ϑ(t ) θ θ θ θ ϑ(t) Entfalten in vier Schritten. Es istθ= kϑ A. Training: Standard-Backpropagation im entfalteten Netzwerk. Alle Anpassungen beziehen sich auf dasselbe Gewicht. Anpassungen werden ausgeführt, wenn das erste Neuron erreicht wird. Rudolf Kruse Neuronale Netze 245