Adaptive Modellierung und Simulation

Größe: px
Ab Seite anzeigen:

Download "Adaptive Modellierung und Simulation"

Transkript

1 Adaptive Modellierung und Simulation Kapitel 2: Black-Box- Modellierung Rüdiger Brause Vorhersagemodelle R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Input-Output-Tabellen Beispiel R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

2 Black-Box- Modellierung Lineare Modellierung Nichtlin. Modellierung: MLP Nichtlin. Modellierung: RBF Eigenschaften von NN R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Lineare Approximation m Messungen f(x) Modellierung als Gerade y = f(x) = y 0 + ax x Beispiel: Ökonomie Konsum y = f(einkommen x) = Konsumsockel + a Einkommen R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Lineare Approximation - rauschfrei Parameterbestimmung 2 Messwerte y 1 (x), y 2 (x) reichen aus für a, y 0 RECHNUNG x,y,y 0 sind n-dim Vektoren, a eine n n-matrix m = n 2 +n Parameter m Datenpunkte bei n Variablen nötig R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

3 Lineare Approximation - verrauscht Modellierung als verrauschte Gerade y t = y 0 + ax t + u t Parameterbestimmung aus Varianz und Kovarianz Rechnung Parameterbestimmung Rechnung mittels Gauß-Methode! R(a) y t f(a)) 2 t min a R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Lineare Approximation - verrauscht Mehrere Variable Multiple Regression y(t) = f(x 1,x 2,,x k ) = a 0 + a 1 x 1 + a 2 x a k x k + u Zusammenfassung zu y t = (1, x 1 (t),, x k (t) ) (a 0, a 1,, a k ) T + u t = xa T + u t. y = (y 1,,y T ) T = Xa T + u T Zeilen für T Messungen, rang(x) = k+1 Parameterbestimmung Rechnung R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Lineare Approximation - verrauscht Minimaler mittlerer Abstand zur Gerade (Hyperebene) im Datenraum x = (y,x i ) d = x T a b = g(x) d x u a a b Hyperebene mit g(x*) = 0 = x* T u/ u b = x* T a b Hessesche Normalform TLMSE = R(a,b) = d 2 Rechnung: Minimum des TLMSE (Kap.2.2) R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung - 9-3

4 Konsum y TLMSE - Parameterschätzung Vorhanden: Messungen x = (y,x ~ ) Gesucht: Eigenvektor von C xx mit min. l 1.Lösung: Fixpunktalgorithmus für EV a(t+1) = Ca(t), a = 1 EV mit max. EW Neuer Eingaberaum x = x aa T x, C x x bilden, nächsten EV lernen. 2. Lösung: Anti-Hebb-Lernalgorithmus a(t) = a(t-1) x(a T x), a = 1 Anti-Hebb Lernregel R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Lineare Approximation - Grenzen Grenzen des linearen Modells linearer Zusammenhang der Daten? Linearisieren! Parameter sind konstant (oder zeitabhängig?) Einflüsse von x 1, x 2,... sind nur eingebildet? R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Lineare Approximation - Grenzen Nichtlineare Modellierung: Beispiel Ökonomie Grossverdiener: Wer alles hat, kauft nichts mehr. Sigmoidaler Zusammenhang ist wahrscheinlicher: Einkommen x R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

5 Linearisierung Linearisieren von nichtlin. Messungen y = y 0 + ax 1/2 + u z = x 1/2 y(z) = y 0 + az + u y = ax a 1 x b 2 e u ( Cobb-Douglas-Produktion ) z = ln(y) z(x) = ln a + aln x 1 + bln x 2 + u = a 0 + a 1 x 1 + a 2 x 2 +u nicht-lin. Kontext, z.b. männlich bei y = y 0 + ax 1 + u x 2 = 1 bei männlich, sonst null y = y 0 + ax 1 + bx u R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Lineare Approximation Parameter konstant? Schätzung â liegt vor. i Parameter a i 0? Oder nur Störung? p(â i ) T T 2 Kriterium erwartungswerttreu (unbiased) â i (t) t a i a i T 1 â i p(â i) T Kriterium konsistent e>0 t limprob a ˆ (t) a e 1 i i T 2 T 1 R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung a i â i Lineare Approximation - Störterm Störterm u t = u 0 0 Was tun? Mittelwert in Konstante verschieben: y t = (a 0 + u 0 ) + a 1 x 1 (t) + a 2 x 2 (t) + + a k x k (t) + (u t u 0 ) = á 0 + a 1 x 1 (t) + a 2 x 2 (t) + + a k x k (t) + ú 0 Forderung: Keine Korrelation des Störterms mit den Variablen x! cov (u t,u t x t ) = 0 t,t = 1,,T tt R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

6 Lineare Approximation - Multikollinearität Test der Abhängigkeit der Variablen unter einander Bilde Korrelationskoeffizienten cov(x, x ) i j r ij = = var(x i ) var(x j) cov(x i i, x j) Bilde Bestimmtheitsmaß R 2 ŷ t y û ŷ t t y = < + = 1 y 2 t y y y 2 y 2 t y Teste: Gilt r 2 ij > R 2? JA: Multikollinearität liegt vor! t j R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Lineare Approximation Test der Einflüsse: Ist Variable x r nötig? Ist der Parameter a r = 0? Nullhypothese H 0 : a r = 0 Linksseitiger Test a p(â r ) a Rechtsseitiger Test: Ist Prob( >p a ) < a? â r JA: H 0 ok. - p a 0 p a Verteilung der beobachteten Parameterwerte Hypothesentest auch für a r = s brauchbar! R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung â r Black-Box- Modellierung Lineare Modellierung Nichtlin. Modellierung: MLP Nichtlin. Modellierung: RBF Eigenschaften von NN R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

7 NichtLineare Approximation Polynomansatz ( Taylorentwicklung) f(x) = f(x 0 )+(x x 0 )f (1) (x 0 )+(x x 0 ) 2 f (2) (x 0 )/2 + (x x 0 ) 3 f (3) (x 0 )/6+... = A + B(x x 0 ) + C(x x 0 ) 2 + D(x x 0 ) f(x) Direkte Bestimmung der Parameter aus den Messwerten x R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung NichtLineare Approximation Polynomansatz mit Messfehlern f(x) = A + B(x x 0 ) + C(x x 0 ) 2 + D(x x 0 ) f(x) Indirekte Bestimmung der Parameter aus den Messwerten: Regression n-ter Ordnung, z.b. mit kleinstem quadr. Fehler x R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Nichtlineare Approximation Reale Welt Eingabe System Ausgabe Parameter Einsatzarten Adaptive Schätzung von Prozeßparametern Nicht-lin. Reaktionen, Produktionsoptimierung,... Adaptive Kontrolle und Regelung Landekontrollsysteme, Roboterkontrolle,.. Adaptive Klassifikation Qualitätskontrolle, med. Diagnose, Bonitätsprüfung,.. R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

8 Nichtlineare Approximation Reale Welt Eingabe System Ausgabe Parameter Einsatzgebiete Echtzeitreaktionen z.b. Stahlwalzstraßen, Flugzeugsteuerung,.. Analytisch unbekannte Abhängigkeiten z.b. Polymerchemie, DNA-Schätzungen,.. Analytisch nicht zugängige Abhängigkeiten z.b. psychische Faktoren, ergebnisverändernde Messungen,.. Analytisch nur unter großem Aufwand bearbeitbare, hochdimensionale Gesetzmäßigkeiten z.b. Wechselkursabhängigkeiten,.. Statistische Analysen durch untrainierte Benutzer (?!) R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Was sind Neuronale Netze? Dendriten Zell körper Synapsen x = (x 1,...,x n ) Eingabe (Dendriten) x x 1 2 x w 3 w 2 1 w 3 Aktivierung Gewichte (Synapsen) z w = (w 1,...,w n ) Axon y Ausgabe (Axon) Quetschfunkion Radiale Basisfunktion Ausgabefunktionen n y = S(z) z = w i x i = w T x i1 Aktivierung R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Was sind Neuronale Netze? DEF Schicht x = (x 1 x 2 x n) neural layer Lineare Schicht w mi x y = (y 1 y 2 y m) y = ( w 1i x i,, ) i T = W x Matrixmultiplikation i i R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

9 26 Buchstaben + 3 Sonderzeichen Backpropagation-Grundidee Netzarchitektur und Lernen Eingabe 1.Schicht 2.Schicht Ausgabe x (1) y (1) = x (2) y (2) hidden Ausgabe units d (1) units d (2) L - y (2) Schichtweise Verbesserung durch Rückführung des Fehlers R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Anwendung - NetTalk Sejnowsky-Rosenberg 1986 Automatisches System Text -> Sprache Vorläufer: DECtalk, 20 Mann-Jahre, 95% Genauigkeit NetTalk: 15 CPU-Stunden, 98% Genauigkeit Eingabe: Texte R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Anwendung - NetTalk Architektur Eingabe: 29 Zeichen, binär (26 Buchstaben+ 3Sonderzeichen: Pkt., Wortgrenze), 7 Buchstaben als Kontext. Ausgabe: /i/ Front back tensed stop nasal hi-freq. low-freq Ausgabeeinheiten hidden units Hidden units: 80 Stück Ausgabe: 26 Merkmale, binär (23 Laut- und drei Artikulationsmerkmale: Continuation, Wortgrenze, Stop) dim(x) =7X29= 203 Eingabevariablen Präkontext Postkontext Eingabe a... e... n... w... - R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

10 Korrekte Ausgabe [%] Anwendung - NetTalk Training protokollierte, von Kindern gesprochenen Sätze, zufallsmäßig eingegebene Worte eines Wörterbuchs aus Einträgen Eingabe x: Buchstabe eines Worts im Kontext Lehrervorgabe L(x): Phonologische Transkription Einfügen eines Sonderzeichens Continuation, wenn Buchstabe nicht gesprochen wird (!) R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Anwendung - NetTalk Ergebnisse: 3 Phasen des Sprachlernens Zuerst wurden die Konsonanten und Vokale als Klassen getrennt. Innerhalb der Klassen blieben die Phoneme aber noch gemischt, so dass sich die Laute wie "Babbeln" anhörten. Dann wurden die Wortgrenzen als Merkmale entwickelt, so dass "Pseudoworte" erkennbar wurden. Zuletzt, nach ca. 10 Durchgängen pro Wort, entstand eine verständliche Sprache, die sich mit fortlaufender Erfahrung weiter verbesserte R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung NetTalk: Training Training transkribiertes Wörterbuch Einträge Protokollierte Kindersätze Ergebnis Trennung der Konsonanten von Vokalen ( Babbeln ) Entwicklung der Wortgrenzen ( Pseudoworte ) Verständliche Sprache (10xTraining pro Wort) Exponentieller Lernerfolg Zahl der eingegebenen Worte [10 4 ] R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

11 Backpropagation-Grundidee Zielfunktion minimieren Ziel = minimaler quadrat. Fehler R(w) = (L(x) -y (2) (x)) 2 x = min w Wie erreichen? R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Lernen mit Zielfunktionen Gradientenalgorithmus zur Optimierung einer Zielfunktion R(w) R Ableitung (Gradient) w w (t+1) = w (t) - g W* w(t+1) w(t) Lernrate R w Lernregel R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Stochastisches Lernen Lernen mit Zielfunktion R(w) = R x (w,x) x w(t) = w(t-1) - g(t) w R x (w(t-1)) wird ersetzt durch Lernen mit stochast. Zielfunktion R x (w,x) w(t) = w(t-1) - g(t) w R x (w(t-1),x(t)) stochastisches Lernen Wieso darf man das? 11

12 Stochastische Approximation Gesucht: Nullstelle einer stochast. Funktion f(x,w) = R x (x,w) F ( w ) a w - w * + b w * w f ( x, w ) Methode 1: Alle Ereignisse x abwarten und dann F(w) = f(x,w) x bilden w(t) = w(t-1) g(t) F(w(t-1)) Methode 2: Einfach f(x,w) verwenden Robbins, Monro 1951 w(t) = w(t-1) g(t) f(w(t-1),x(t)) stochastische Approximation Stochastische Approximation Voraussetzungen das klein Gedruckte... die Funktion F(w) := f(x,w) x ist zentriert, d.h. F(w*) = 0 F(w) ist ansteigend, d.h. F(w<w*) < 0, F(w>w*) > 0 F(w) ist beschränkt mit F(w) < a w-w * +b < a,b > 0 f(x,w) hat endliche Varianz, d.h. 2 (w) = (F(w) - f(x,w)) 2 x < g(t) verschwindet, g(t) 0 g(t) wird nicht zu schnell klein g(t) wird nicht zu groß t1 g(t) = g(t) t1 2 < Dann ex. lim (w(t) w*) 2 = 0 mittl. quadr. Konvergenz Robbins-Monro t P( lim w(t) = w*) = 1 Blum t Backpropagation-Lernregel letzte Schicht Lernziel: R(w*) = min (y(x,w) - L(x)) 2 x min.mittl. quadr. Fehler R w i (t+1) = w i (t) - g w i S( z) w i (t+1) = w i (t) - g (y(w i )-L(x)) w i Gradienten-Lernregel stoch. Approximation Rechnung: Ableitung der Zielfunktion R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

13 Backpropagation-Lernregel letzte Schicht Lernziel: R(w*) = min E(y(w) - L(x)) 2 min.mittl. quadr. Fehler R w i (t+1) = w i (t) - g w i w i (t+1) = w i (t) - g (y(w i )-L(x)) S( z) w i mit S( z) = S'( z) z S'( z) wjx w w w i i i j j Gradienten-Lernregel stoch. Approximation S'( z) x i d i := - (y(w i )-L(x)) S (z) w ij (x) = g d i x j Delta-Regel R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Fehler-Backpropagation Beeinflussung voriger Schichten z (1) i R Delta-Regel für Schicht R x yi di 1 1 y i zi m k d k wki S' zi R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Online vs Offline-Lernen ONLINE-Learning: WHILE NOT Abbruchbedingung erfüllt: Delta := 0 FORALL Trainingsmuster x berechne Delta(W(x)) W(t) := W(t-1) + Delta // Lernen mit jedem Muster END FOR END WHILE R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

14 Online vs Offline-Lernen OFFLINE-Learning: WHILE NOT Abbruchbedingung erfüllt: GesamtDelta := 0 FORALL Trainingsmuster x berechne Delta(W(x)) GesamtDelta := GesamtDelta + Delta(W(x)) END FOR W(t) := W(t-1) + GesamtDelta // Lernen am Schluss! END WHILE R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Arten des Lernens: Beispiel Buchstabenerkennung Überwachtes Lernen Eingabe H! Gewichte W Fehler? On-line learning (Training) E?..., H,... Testmenge A, B, C, D, E, F,..., Z. Lernziel (Zielfunktion) Neuronales System Lehrer Ergebnis E off-line learning Trainingsmenge A, B, C, D, E, F,..., Z. R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Frage: Offline- oder Online-Lernen? Backpropagation- Code REPEAT (* jeweils einen Trainingszyklus *) dw1:=0.0; dw2:=0.0; g:=0.1; REPEAT (* Für alle Trainingsmuster im PatternFile *) Read( PatternFile,x1,L); (*Einlesen der Eingabe, Ausgabe *) (* Ausgabe errechnen *) FOR i:=1 TO p DO x2[i]:= S(z(w1[i],x1)) END (* Für hidden units *) FOR i:=1 TO m DO (* Für alle Ausgabeneuronen*) y2[i]:= S(z(w2[i],x2)) d2[i]:= -(y2[i]-l[i])*(1-y2[i])*y2[i] (* (y-l)(1-s)s *) END FOR i:=1 TO m DO (* Gewichtsveränderungen in 2. Schicht *) FOR j:=1 TO p DO dw2[i,j] := dw2[i,j] + g*d2[i]*x2[j] END; END FOR i:=1 TO p DO (* Gewichtsveränderungen in 1. Schicht *) FOR j:=1 TO n DO (* Für alle Eingabemusterkomp.*) dw1[i,j] := dw1[i,j]+g*sumprod(i,m,d2,w2)*(1-x2[i])*x2[i]*x1[j] END; END UNTIL ( EOF( PatternFile)) w1:=w1+dw1; w2:=w2+dw2; (* Korrektur der Gewichte *) UNTIL Fehler_klein_genug R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

15 Lernen - Probleme Die Konvergenz ist relativ langsam, besonders bei mehreren Schichten Das System kann in einem lokalen Optimum "stecken" bleiben Trotz guter Trainingsleistung zeigt der Test schlechte Ergebnisse R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Verbesserungen des BP-Algorithmus Problem Trotz guter Trainingsleistung zeigt der Test schlechte Ergebnisse f(x) training samples Überanpassung (overfitting)! test samples x R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Verbesserungen des BP-Algorithmus Lösung: Stopped Training error validation result Stop time training result T training step t R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

16 Initialisierung der Neuronengewichte Beispiel Informationskompression n p n Lin. Approximation (1. Glied Taylorentwicklung) Beispiel: n-p-n Netz Kodierer y = B pxn A nxp x.. A. B Min. quadr. Fehler bei globalem Minimum A =? R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Transformation mit minimalem MSE Allgemeine Situation X { x 1 x n l i n. T r a n s f o r m a t i o n W x. y. 1 Y m+1. Y n y m } y min R(W) = min (x- xˆ ) 2 w least mean squared error (LMSE) Wann minimal? Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS Transformation mit minimalem MSE Minimaler Rekonstruktionsfehler min R(W) = min (x- xˆ ) 2 least mean squared error (LMSE) w x = m yi w i i1 + n yi w i im1 m xˆ = yi w i i1 + n ci w i im1 y i = x T w i Was ist die beste Schätzung für die Konstanten c i? min R(c i ) =? Rechnung! Bei welchen Basisvektoren w i ist der Fehler minimal? min R(w i ) =? Rechnung! Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS

17 Analyse der Neuronengewichte Hauptkomponentenanalyse n p n Lin. Approximation (1. Glied Taylorentwicklung) A besteht aus Eigenvektoren der Kovarianzmatrix C xx = (x-x)(x-x) T (C ij ) = N 1 N k 1 k k k k x i x i x j x j.. A R(w) globales Minimum w*. B Sattelpunkte = EV w R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Normierung der Eingangsvariablen Problem: unterschiedliche Skalierungen z.b. x 1 : Weg in [m] x 2 : Grösse in [cm] x 3 : Gewicht in [kg] x 4 : Farbwert in [RGB-Zahl] Normierung aller numerischen Werte auf gleiche Skala! Gleichen Mittelwert, etwa x = 0 Gleiche Varianz = 1 R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Normierung der Eingangsvariablen Abstände bilden nur mit normierten Variablen Mahalanobis-Abstand d 2 = (x c) T C 1 (x c) = (x c) T M T M(x c) Entspricht einer Skalierung, Drehung, Verschiebung mit x Mx = SDVx mit x (x T,1) T 1 S = D = V = s 0, 0 s c1 c2 cos a sina sina, cos a R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

18 Verbesserungen des BP-Algorithmus Problem w ij (x) = g d i x j = g (..)S (z i ) x j Die Konvergenz ist relativ langsam, besonders bei mehreren Schichten Problem Ausgabefunktion Bei Wahl von S = Fermifunktion ist die Ableitung eine Glocken- Funktion mit S (-) = 0 = S () und damit bei sehr großem oder kleinem x d(x) = 0 Kein Lernen mehr möglich! S(z) S (z) z 1 11 e S' z z z 1 e z 1 e 2 1 Sz Sz R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Problem Ausgabefunktion Abhilfen: Andere Ausgabefunktion wählen (z.b. Sinus) Andere Zielfunktion wählen (Information statt quadr.fehler) Andere Lernfunktion wählen, z.b. Ergänzung durch Backpropagation Trägheitsmoment d(t+1) = ad(t) + (1-a)d(t-1) z.b. a = 0.9 R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Black-Box- Modellierung Lineare Modellierung Nichtlin. Modellierung: MLP Nichtlin. Modellierung: RBF Eigenschaften von NN R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

19 Klassifikation und RBF Motivation: lokale Cluster-Klassenbildung i = { x S( x x i ) > w 0 } w o x i Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2013/ Klassifikation und RBF Bessere Klassifikation durch gekrümmte Entscheidungsgebiete Idee: Nichtlineare Abbildung in neuen Raum, in dem die Muster (mit höherer Wahrscheinlichkeit) linear separierbar sind Gaußfunktion Eingaberaum (xy-koordinaten) Neuer Raum (Punkte der Gauß-Funktionswerte) Funktionswert erste Gaußfunktion 1 Trennende Hyperebene (hier: Schwellwert im 1-Dim.) 0 1 Funktionswert der nächsten Gaußfunktion usw. 1 R.Brause, Institut für Informatik Radiale Basisfunktionen Definition Glockenfunktion Funktion S G mit den Eigenschaften S G (z) > 0, S G ( ) = S G () = 0, 0 < (x)dx < S G Es ex. ein c>0 mit S G (z) nicht anwachsend z [c,), nicht abfallend z (,c) Also ist S G (c) globales Maximum. c Rüdiger Brause: Adaptive Systeme, Institut für Informatik

20 RBF maximaler Information Welche Basisfunktionen hat maximale Information? H(p*) = max p H(p(x)) x, p*(x) =? NB1: p(x) dx = 1 oder g 1 (x):= p(x)dx 1 = 0 NB2: 2 = x 2 = - + p(x) x 2 dx oder g 2 (x):= - + p(x)x 2 dx 2 = 0 Ansatz Lagrange-Funktion L(p, 1, 2 ) := H(p) + 1 g 1 (p) + 2 g 2 (p) Lp* Li = 0, = 0 (Rechnung Kap.5.2) p i Ergebnis p*(x) = A exp( x 2 /2 2 ) Gauß'sche Glockenkurve Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2013/ Parzen Window - Methode Approximation durch Überlagerung von Basisfunktionen Perfekte Approximation bei abnehmender Breite, wobei lim N 0, N n lim N N N Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2013/ RBF-Netze Typisch: 2-Schichten Netzwerk x 1 x 2 y 1 y 2 f 1 f 2 Aktivität nicht normiert f i ( x ) = m k 1 w k y mit S k ( c k, x ) = e k m = w k S k k 1 - ( c k - x ) 2 2 s 2 ( x ) x n y normiert f i ( x ) = m k = 1 w k y k = m k = 1 m w S ( x ) j = 1 k k S ( x ) j R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

21 RBF-Netze Aktivität Normiertes RBF-Netzwerk Schicht 1 Schicht 2 S 1 ( X ) / X 1 x n N o r m i e r u n g S i / S n ( X ) y ( X ) y (x) = f(x) = i w i (x,c i ) mit i S ~ S i( xc, i) S ( xc, ) i i S k( xc, k) k Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2013/ Klassifikation mit RBF-Netzen Beste Klassifizierung Bayes-Klassifizierung Suche Klasse w i so, daß p(w i x) = max k p(w k x) Wir wissen: p(w i x) = p( wi, x) p( wi, x) p( x wi)p( wi) p( x) p( wk, ) Situation: x p( x wk)p( wk) k k Gaußvert. Abweichg. vom Klassenprototypen c i : p(x c i ) = A e ( ck x ) = S(c i,x) Bayes-Klassifizierung mit NN: Seien alle Klassen gleichwahrscheinlich p(w i ) = 1/m Suche Klasse i so, dass mit y i = S(c i,x) k S(c k,x) x1 x2 y1 y2 y i = max k y k xn ym winner take all RBF Suche Maximum R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Klassifikation mit winner-take-all Suche Maximum der Aktivität Ein-Schicht-Netzwerk (1 Cluster = 1 Klasse) Suche Klasse i so, dass mit y i = S(c i,x) / S(c k,x) y i = max k y k x 1 x 2 x n y 1 y 2 y n Zwei-Schichten-Netzwerk (mehrere Cluster = 1 Klasse) x 1 x 2 y 1 f 1 y 2 Suche Klasse i so, dass mit f i = i w i y i f 2 f i = max k f k x n y n Lernen nur der Gewichte für y i bzw. f i R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

22 Frage Was ist das Ziel der Bayes-Klassifikation? Antwort 1. Die minimale Fehlerwahrscheinlichkeit 2. Die maximale bedingte Wahrscheinlichkeit für eine Entscheidung 3. Die minimale Abweichung vom korrekten Wert 4. Die maximale Korrelation mit dem korrekten Wert Rüdiger Brause: Adaptive Systeme, Institut für Informatik, WS 2013/ RBF- Lernen Lernmethode: Einzelne Anpassung der Schichten Anpassen der 1. Schicht: Lage c i und Varianz C Anpassen der 2. Schicht: Gewichte w j Pro: schneller, da weniger komplex Contra: Suboptima möglich Lernmethode: Gleichzeitige Anpassung beider Schichten z.b. mit Backpropagation Pro: Globales Optimum leichter erreichbar Contra: langsam, mehr Daten für gegebenen max. Fehler nötig R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung RBF- Lernen: 1.Schicht Erstellen der 1. Schicht Bekannte Trainingsdaten Festlegen der RBF- Zentren und Weiten durch Clusterung (kmean, Kohonen-Netze,...) Initiale Festlegung der Anzahl der Zentren, Iterative Verbesserung von Lage und Weite durch sequentielles Training Unbekannte Daten Feste Unterteilung des Eingaberaumes, z.b. Netz potentieller Zentren bei uniformer, fester Weite für Datenbereich Inkrementeller Aufbau des Netzes: Sequentielle Regression R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

23 RBF-Lernen : 1.Schicht k-means-clusterung Wähle k zufällige Muster x j A als Clusterzentren c j, bilde C j = {c j } REPEAT Ordne alle x i A zu den nächstgelegenen Clusterzentren zu: Suche für x i das Cluster c z so, dass x i -c z = min k x i -c k, und füge x i zu C z zu. Entferne alle Cluster i mit C i < 1 Bilde für jedes Cluster k ein neues Zentrum c k = x als Mittelwert aller Muster in C k UNTIL Iterationszahl > Max R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung RBF- Lernen : 1.Schicht Feste Unterteilung x 2 S(x 1) x 1 c1 c2 c3 c4 c5 x 1 R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung RBF- Lernen : 1.Schicht Adaptive Unterteilung R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

24 RBF-Lernen Erstellen der 1. Schicht: Sequentielle Regression Start mit einem Neuron Füge ein neues Neuron hinzu für jedes Beispiel mit hohem Fehler (Abweichung vom gewünschten Netz- Ausgabewert) Verändere die Parameter bei den Nachbarn so, dass der Fehler verringert wird (Einpassen des neuen Neurons) Das Netzwerk wächst solange, bis der Approximationsfehler auf das gewünschte Maß zurückgegangen ist. R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung RBF-Lernen 2. Schicht: Fehlerminimierung MSE der lin. Schicht z.b. mit Backpropagation-Lernen 2. Schicht w i = g (y i L i ) x Gewichte von S k zu Ausgabe i x := (S 1,..,S n ) und w := (w 1,..,w n ) oder: TLMSE w i (t+1) = w i (t) g 1 xy i und w i (t+1) = 1 Anti-Hebb Lernen x := (S 1,..,S n,l i ) und w := (w 1,..,w n,w n+1 ) oder: Konkurrenz-Lernen y c = max i y i w c = g (y c L c ) x Gewichte von S k zu Ausgabe c R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Anwendung: Industriereaktor Chem. Synthese eines Polymers Eingabe MMA VAc Initiator Lsgsmittel Kettentransferagent Inhibitor Kältemittel Temperatur Ausgabe Temperatur Kopolymer Nicht-reag. Zutaten Lsgsmittel R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

25 Inputgenerierung Strategie RUS: Random uniform sampling Ausgabe Eingabe Strategie RDS: Random distributed sampling Ausgabe Eingabe R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Ergebnisse Schmale vs. breite RBF R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Ergebnisse K-means Clusterung vs. Sequ. Regression R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

26 Black-Box- Modellierung Lineare Modellierung Nichtlin. Modellierung: MLP Nichtlin. Modellierung: RBF Eigenschaften von NN R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Approximationsleistungen Neuronaler Netze Allgemeine Eigenschaften von NN Kann man jede beliebige Funktion approximieren? Wenn ja, mit welcher Architektur? Wie viele Schichten benötigt man? Wie viele Neuronen pro Schicht braucht man? R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Fähigkeiten: Nomenklatur Mehrschichtennetze x 1 y 1 f 1 x 2 y 2 f 2 x n y n Eingabeschicht hidden units Ausgabeschicht m (2) x j w j x ˆf w S, j1 R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

27 Approximationsleistungen Neuronaler Netze Voraussetzungen Sigma-Funktionen (2-Schicht. NN) n S := { ˆ ˆ n f f : mit wobei w (2) j aus, x aus n, und z j z n := { z z(x) = w (1)T x + b } lim S x x 1, lim Sx 0 x x ˆf m 2 w S z j j x } j1 affine Funktionen n R.Brause, Adaptive Modellierung: Kap.2 Black-Box- Modellierung Approximationsleistungen Neuronaler Netze Aussage 1 (diskrete Punkte) Hornik, Stinchkombe, White 1989 Für die Funktionswerte jeder beliebigen Funktion f(x) : n von N Mustern x 1.. x N gibt es eine Sigma-Funktion f, so dass für alle Muster x i mit i = 1..N gilt i ˆf ( x ) = f(x i ) punktweise Übereinstimmung R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Approximationsleistung Neuronaler Netze Aussage 2 (stetige Funktionen) Ein 2-Schichtennetzwerk mit nicht-linearer Ausgabefunktion S(z) kann JEDE beliebige Funktion beliebig dicht approximieren, wenn genügend Neuronen ex. Eingabe z.b. DNA, Patientendaten, Robotersensoren x 1 x 2 x n nicht-linear y 1 y 2 y n linear f 1 f 2 Ausgabe z.b. Struktur, Diagnose, Roboterbewegung R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

28 Fähigkeiten der Multilayer-Netzwerke Satz Jede beliebige, stetige Funktion f(x) in einem kompakten Intervall ("kompakte Teilmenge des n ") kann beliebig dicht (uniform dicht im Sinne der L s -Norm in der Menge C n aller stetigen Funktionen und p - dicht in der Menge der Borel meßbaren Funktionen) durch eine Sigma- Funktion F(x) approximiert werden Anmerkung: Gilt auch für S = stetig, begrenzt, nicht-konstant (RBF) R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung Fähigkeiten der Multilayer-Netzwerke Frage: Wieviel Schichten muss ein Netzwerk mindestens haben, um eine beliebige Funktion beliebig gut zu approximieren?? Antworten: eine zwei drei unendlich viele R.Brause, Adaptive Modellierung: Kap.2 Black-Box-Modellierung

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1 Adaptive Systeme Prof. Rüdiger Brause WS 2013 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags 10-12 Uhr, SR11 Übungen Donnerstags 12-13 Uhr, SR 9 Adaptive Systeme M-AS-2

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Statistische Methoden

Statistische Methoden Modeling of Data / Maximum Likelyhood methods Institut für Experimentelle und Angewandte Physik Christian-Albrechts-Universität zu Kiel 22.05.2006 Datenmodellierung Messung vs Modell Optimierungsproblem:

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Grundlagen zu neuronalen Netzen. Kristina Tesch

Grundlagen zu neuronalen Netzen. Kristina Tesch Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Statistics, Data Analysis, and Simulation SS 2017

Statistics, Data Analysis, and Simulation SS 2017 Statistics, Data Analysis, and Simulation SS 2017 08.128.730 Statistik, Datenanalyse und Simulation Dr. Michael O. Distler Mainz, 4. Mai 2017 Dr. Michael O. Distler

Mehr

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017

Kapitel 10. Maschinelles Lernen Lineare Regression. Welche Gerade? Problemstellung. Th. Jahn. Sommersemester 2017 10.1 Sommersemester 2017 Problemstellung Welche Gerade? Gegeben sind folgende Messungen: Masse (kg) 1.5 2.0 2.5 3.0 3.5 4.0 4.5 5.0 Kraft (N) 1.6 2.2 3.2 3.0 4.9 5.7 7.1 7.3 8.1 Annahme: Es gibt eine Funktion

Mehr

Mehrdimensionale Zufallsvariablen

Mehrdimensionale Zufallsvariablen Mehrdimensionale Zufallsvariablen Im Folgenden Beschränkung auf den diskreten Fall und zweidimensionale Zufallsvariablen. Vorstellung: Auswerten eines mehrdimensionalen Merkmals ( ) X Ỹ also z.b. ω Ω,

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

Prof. Dr. R. Brause Musterlösung zur Klausur zur Vorlesung Adaptive Systeme Wintersemester 2009/2010

Prof. Dr. R. Brause Musterlösung zur Klausur zur Vorlesung Adaptive Systeme Wintersemester 2009/2010 Prof. Dr. R. Brause Musterlösung zur Klausur zur Vorlesung Adaptive Systeme Wintersemester 2009/2010 Datum: 23.02.2010 Vorname: Name: Matrikelnummer: Geburtsdatum: Studiengang: Als BSc bearbeiten Sie bitte

Mehr

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017

Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Mustererkennung Mathematische Werkzeuge R. Neubecker, WS 2016 / 2017 Optimierung: Lagrange-Funktionen, Karush-Kuhn-Tucker-Bedingungen Optimierungsprobleme Optimierung Suche nach dem Maximum oder Minimum

Mehr

Lösungen zu Mathematik I/II

Lösungen zu Mathematik I/II Dr. A. Caspar ETH Zürich, August D BIOL, D CHAB Lösungen zu Mathematik I/II Aufgaben. ( Punkte) a) Wir berechnen lim sin(x ) x 3 + 4x L Hôpital = lim x cos(x ) 3x + 8x = 4. b) Wir benutzen L Hôpital lim

Mehr

1 Multivariate Zufallsvariablen

1 Multivariate Zufallsvariablen 1 Multivariate Zufallsvariablen 1.1 Multivariate Verteilungen Definition 1.1. Zufallsvariable, Zufallsvektor (ZV) Sei Ω die Ergebnismenge eines Zufallsexperiments. Eine (univariate oder eindimensionale)

Mehr

Lernende Vektorquantisierung

Lernende Vektorquantisierung Lernende Vektorquantisierung (engl. Learning Vector Quantization) Rudolf Kruse Neuronale Netze 5 Motivation Bisher: festes Lernen, jetzt freies Lernen, d.h. es existieren keine festgelegten Klassenlabels

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Clusteranalyse: Gauß sche Mischmodelle

Clusteranalyse: Gauß sche Mischmodelle Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse: Gauß sche Mischmodelle iels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Ausgleichungsrechnung - nach der Methode der kleinsten Quadrate -

Ausgleichungsrechnung - nach der Methode der kleinsten Quadrate - Computer Vision Ausgleichungsrechnung - nach der Methode der kleinsten Quadrate -.6.5 Problem Beispiel: Bestimmung der Parameter einer Gerade bei gegebenen x und fehlerhaften y y = ax+ b Beschreibung der

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Eine Firma will den Zusammenhang zwischen Werbungskosten und Absatz untersuchen. Dazu nimmt sie zunächst eine Stichprobe dieser beiden Merkmale

Eine Firma will den Zusammenhang zwischen Werbungskosten und Absatz untersuchen. Dazu nimmt sie zunächst eine Stichprobe dieser beiden Merkmale Wirtschaftswissenschaftliches Zentrum 4 Universität Basel Statistik Dr. Thomas Zehrt Regression Motivation Eine Firma will den Zusammenhang zwischen Werbungskosten und Absatz untersuchen. Dazu nimmt sie

Mehr

Übungsaufgaben zu den mathematischen Grundlagen von KM

Übungsaufgaben zu den mathematischen Grundlagen von KM TUM, Institut für Informatik WS 2003/2004 Prof Dr Thomas Huckle Andreas Krahnke, MSc Dipl-Inf Markus Pögl Übungsaufgaben zu den mathematischen Grundlagen von KM 1 Bestimmen Sie die Darstellung von 1 4

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes-Klassifikator

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind:

Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Themen dieses Kapitels sind: Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die

Mehr

i =1 i =2 i =3 x i y i 4 0 1

i =1 i =2 i =3 x i y i 4 0 1 Aufgabe (5+5=0 Punkte) (a) Bei einem Minigolfturnier traten 6 Spieler gegeneinander an. Die Anzahlen der von ihnen über das gesamte Turnier hinweg benötigten Schläge betrugen x = 24, x 2 = 27, x = 2, x

Mehr

Marcus Hudec. Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Statistik 2 für SoziologInnen 1 Normalverteilung

Marcus Hudec. Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Statistik 2 für SoziologInnen 1 Normalverteilung Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Inhalte Themen dieses Kapitels sind: Das Konzept stetiger Zufallsvariablen Die

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Mathematik 3 für Informatik

Mathematik 3 für Informatik Gunter Ochs Wintersemester 5/6 Mathematik 3 für Informatik Lösungen zum Hausaufgabenblatt Lösungshinweise ohne Garnatie auf Fehlerfreiheit c 5. Berechnen Sie die folgenden unbestimmten Integrale: a x 4

Mehr

Serie 13: Online Test

Serie 13: Online Test D-ERDW, D-HEST, D-USYS Mathematik I HS 13 Dr. Ana Cannas Serie 13: Online Test Einsendeschluss: 31. Januar 214 Bei allen Aufgaben ist genau eine Antwort richtig. Lösens des Tests eine Formelsammlung verwenden.

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 36 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula =

Mehr

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen)

Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) 3 Einfache lineare Regression Einfache lineare Modelle mit R 3.6 Einfache lineare Modelle mit Statistik-Software R Beispiel (Ausgaben in Abhängigkeit vom Einkommen) > summary(lm(y~x)) Call: lm(formula

Mehr

Marcus Hudec. Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Statistik 2 für SoziologInnen 1 Normalverteilung

Marcus Hudec. Statistik 2 für SoziologInnen. Normalverteilung. Univ.Prof. Dr. Marcus Hudec. Statistik 2 für SoziologInnen 1 Normalverteilung Statistik 2 für SoziologInnen Normalverteilung Univ.Prof. Dr. Marcus Hudec Statistik 2 für SoziologInnen 1 Normalverteilung Stetige Zufalls-Variable Erweitert man den Begriff der diskreten Zufallsvariable

Mehr

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr.

Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen. Statistik II. Prof. Dr. Statistik II Fakultät Verkehrswissenschaften Friedrich List Professur für Ökonometrie und Statistik, insb. im Verkehrswesen Statistik II 2. Parameterschätzung: 2.1 Grundbegriffe; 2.2 Maximum-Likelihood-Methode;

Mehr

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Adaptive Modellierung und Simulation

Adaptive Modellierung und Simulation Adaptive Modellierung und Simulation Rüdiger Brause 0 3 1 Speicher 2 4 2.1 2.2 2.3 FB Informatik und Mathematik Institut für Informatik Rüdiger Brause Adaptive Modellierung und Simulation Grundlagen und

Mehr

Anwendungen der Differentialrechnung

Anwendungen der Differentialrechnung KAPITEL 3 Anwendungen der Differentialrechnung 3.1 Lokale Maxima und Minima Definition 16: Sei f : D R eine Funktion von n Veränderlichen. Ein Punkt x heißt lokale oder relative Maximalstelle bzw. Minimalstelle

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist:

Musterlösung. Aufgabe 1 a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [0, 1] R, die folgendermaßen definiert ist: Musterlösung Aufgabe a) Die Aussage ist falsch. Ein Gegenbeispiel ist die Funktion f : [, ] R, die folgendermaßen definiert ist: f(x) := { für x R \ Q für x Q f ist offensichtlich beschränkt. Wir zeigen,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Niels Landwehr Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Niels Landwehr Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer Ansatz:

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Statistik I für Betriebswirte Vorlesung 3

Statistik I für Betriebswirte Vorlesung 3 Statistik I für Betriebswirte Vorlesung 3 Dr. Andreas Wünsche TU Bergakademie Freiberg Institut für Stochastik 15. April 2019 Dr. Andreas Wünsche Statistik I für Betriebswirte Vorlesung 3 Version: 1. April

Mehr

Die Datenmatrix für Überwachtes Lernen

Die Datenmatrix für Überwachtes Lernen Die Datenmatrix für Überwachtes Lernen X j j-te Eingangsvariable X = (X 0,..., X M 1 ) T Vektor von Eingangsvariablen M Anzahl der Eingangsvariablen N Anzahl der Datenpunkte Y Ausgangsvariable x i = (x

Mehr

Neuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate...

Neuro-Info Notizen. Markus Klemm.net WS 2016/2017. Inhaltsverzeichnis. 1 Hebbsche Lernregel. 1 Hebbsche Lernregel Fälle Lernrate... Neuro-Info Notizen Marus Klemm.net WS 6/7 Inhaltsverzeichnis Hebbsche Lernregel. Fälle........................................ Lernrate..................................... Neural Gas. Algorithmus.....................................

Mehr

Lineare Klassifikatoren. Volker Tresp

Lineare Klassifikatoren. Volker Tresp Lineare Klassifikatoren Volker Tresp 1 Einführung Lineare Klassifikatoren trennen Klassen durch eine lineare Hyperebene (genauer: affine Menge) In hochdimensionalen Problemen trennt schon eine lineare

Mehr

Nichtlineare Ausgleichsrechnung

Nichtlineare Ausgleichsrechnung 10. Großübung Nichtlineare Ausgleichsrechnung Allgemeines Problem: Wir betrachten ein nichtlineares System F : R n R m mit (m > n, d.h. das System ist überbestimmt und F i (x g(t i ; x g i! 0 i 1,.., m.

Mehr

Standardnormalverteilung

Standardnormalverteilung Standardnormalverteilung 1720 erstmals von Abraham de Moivre beschrieben 1809 und 1816 grundlegende Arbeiten von Carl Friedrich Gauß 1870 von Adolphe Quetelet als "ideales" Histogramm verwendet alternative

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler. (a) Bestimmen Sie die kartesische Form von Wintersemester 7/8 (..8) z = ( + i)( i) + ( + i). (b) Bestimmen Sie sämtliche komplexen Lösungen

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2

Kapitel 12. Lagrange-Funktion. Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28. f (x, y) g(x, y) = c. f (x, y) = x y 2 Kapitel 12 Lagrange-Funktion Josef Leydold Mathematik für VW WS 2017/18 12 Lagrange-Funktion 1 / 28 Optimierung unter Nebenbedingungen Aufgabe: Berechne die Extrema der Funktion unter der Nebenbedingung

Mehr

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h.

Konvexe Menge. Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, d.h. Konvexe Menge Eine Menge D R n heißt konvex, wenn für zwei beliebige Punkte x, y D auch die Verbindungsstrecke dieser Punkte in D liegt, dh Kapitel Extrema konvex: h x + h y D für alle h [0, ], und x,

Mehr

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede. Daniel Meschenmoser

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede. Daniel Meschenmoser Data Mining und Statistik: Gemeinsamkeiten und Unterschiede Daniel Meschenmoser Übersicht Gemeinsamkeiten von Data Mining und Statistik Unterschiede zwischen Data Mining und Statistik Assoziationsregeln

Mehr

BZQ II: Stochastikpraktikum

BZQ II: Stochastikpraktikum BZQ II: Stochastikpraktikum Block 3: Lineares Modell, Klassifikation, PCA Randolf Altmeyer January 9, 2017 Überblick 1 Monte-Carlo-Methoden, Zufallszahlen, statistische Tests 2 Nichtparametrische Methoden

Mehr

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie

Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen. Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Graphentheorie Differenzialrechnung für Funktionen mit mehreren unabhängigen Variablen Def.: eine Funktion n f :D mit D,x (x,...x

Mehr

13 Grenzwertsätze Das Gesetz der großen Zahlen

13 Grenzwertsätze Das Gesetz der großen Zahlen 13 Grenzwertsätze 13.1 Das Gesetz der großen Zahlen Der Erwartungswert einer zufälligen Variablen X ist in der Praxis meist nicht bekannt. Um ihn zu bestimmen, sammelt man Beobachtungen X 1,X 2,...,X n

Mehr

Übung 5, Analytische Optimierung

Übung 5, Analytische Optimierung Übung 5, 5.7.2011 Analytische Optimierung Aufgabe 5.1 Bei der Herstellung von Konserven werden für Boden und Deckel bzw. für den Konservenmantel verschiedene Materialien verwendet, die g 1 = bzw. g 2 =

Mehr

5 Interpolation und Approximation

5 Interpolation und Approximation 5 Interpolation und Approximation Problemstellung: Es soll eine Funktion f(x) approximiert werden, von der die Funktionswerte nur an diskreten Stellen bekannt sind. 5. Das Interpolationspolynom y y = P(x)

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Einführung in Support Vector Machines (SVMs)

Einführung in Support Vector Machines (SVMs) Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation

Mehr

Technische Universität Berlin

Technische Universität Berlin Technische Universität Berlin Fakultät II Institut für Mathematik WS /5 G. Bärwol, A. Gündel-vom-Hofe..5 Februar Klausur Analysis II für Ingenieurswissenschaften Lösungsskizze. Aufgabe 6Punkte Bestimmen

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp

Dr. Maike M. Burda. Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp Dr. Maike M. Burda Welchen Einfluss hat die Körperhöhe auf das Körpergewicht? Eine Regressionsanalyse. HU Berlin, Econ Bootcamp 8.-10. Januar 2010 BOOTDATA.GDT: 250 Beobachtungen für die Variablen... cm:

Mehr

Mathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle.

Mathematik. für das Ingenieurstudium. 10 Funktionen mit mehreren Variablen. Jürgen Koch Martin Stämpfle. 10 Funktionen mit mehreren Variablen www.mathematik-fuer-ingenieure.de 2010 und, Esslingen Dieses Werk ist urheberrechtlich geschützt. Alle Rechte, auch die der Übersetzung, des Nachdruckes und der Vervielfältigung

Mehr

Prüfungklausur HM 1 (Ing), Lösungshinweise

Prüfungklausur HM 1 (Ing), Lösungshinweise Aufgabe : a Welche komplexen Zahlen erfüllen die Gleichung z + i z =? Skizzieren Sie die Lösungsmenge in der Gaussschen Zahlenebene. 6 Punkte b Für welche komplexen Zahlen z gilt (z + i = 8 e π i? Die

Mehr

Errata zu Goebbels, Ritter: Mathematik verstehen und anwenden

Errata zu Goebbels, Ritter: Mathematik verstehen und anwenden Errata zu Goebbels, Ritter: Mathematik verstehen und anwenden Stand 20. Februar 203 Wir danken allen Lesern, die uns auf Fehler hingewiesen haben. Seite Position gedruckt korrekt 36 Beispiel.26 = 0,22+

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Statistische Methoden in der Wirtschaftsund Sozialgeographie

Statistische Methoden in der Wirtschaftsund Sozialgeographie Statistische Methoden in der Wirtschaftsund Sozialgeographie Ort: Zeit: Multimediapool Rechenzentrum Mittwoch 10.15-11-45 Uhr Material: http://www.geomodellierung.de Thema: Beschreibung und Analyse Wirtschafts-

Mehr

Klausur HM II/III F 2003 HM II/III : 1

Klausur HM II/III F 2003 HM II/III : 1 Klausur HM II/III F 3 HM II/III : Aufgabe : (7 Punkte) Untersuchen Sie die Funktion f : R R gegeben durch x 3 y 3 f(x, y) x + y sin, (x, y) (, ) x + y, (x, y) (, ) auf Stetigkeit und Differenzierbarkeit.

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

Kapitel 7. Differentialrechnung. Josef Leydold Mathematik für VW WS 2017/18 7 Differentialrechnung 1 / 56

Kapitel 7. Differentialrechnung. Josef Leydold Mathematik für VW WS 2017/18 7 Differentialrechnung 1 / 56 Kapitel 7 Differentialrechnung Josef Leydold Mathematik für VW WS 2017/18 7 Differentialrechnung 1 / 56 Differenzenquotient Sei f : R R eine Funktion. Der Quotient f x = f (x 0 + x) f (x 0 ) x = f (x)

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Die gebrochenrationale Funktion

Die gebrochenrationale Funktion Die gebrochenrationale Funktion Definition: Unter einer gebrochenrationalen Funktion versteht man den Quotienten zweier ganzrationaler Funktionen, d.h. Funktionen der Form f :x! a n xn + a n 1 x n 1 +...+

Mehr

Allgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression

Allgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression 1 Einführung Allgemeine Chemie Computer Praktikum Frühjahrssemester Regressions-Tutorial Lineare und nicht-lineare Regression Datenauswertung In einem naturwissenschaftlichen Experiment werden Sie meist

Mehr

Technische Universität München. Aufgaben Mittwoch SS 2012

Technische Universität München. Aufgaben Mittwoch SS 2012 Technische Universität München Andreas Wörfel Ferienkurs Analysis 2 für Physiker Aufgaben Mittwoch SS 2012 Aufgabe 1 Äquivalente Aussagen für Stetigkeit( ) Beweisen Sie folgenden Satz: Seien X und Y metrische

Mehr

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom

K. Eppler, Inst. f. Num. Mathematik Übungsaufgaben. 12. Übung SS 18: Woche vom Übungsaufgaben 12. Übung SS 18: Woche vom 2. 7. 6. 7. 2018 Stochastik VI: Zufallsvektoren; Funktionen von ZG Aufgaben: s. pdf auf der homepage von Dr. Vanselow http://www.math.tu-dresden.de/ vanselow/...

Mehr

Lösungen der Aufgaben zu Kapitel 9

Lösungen der Aufgaben zu Kapitel 9 Lösungen der Aufgaben zu Kapitel 9 Abschnitt 9. Aufgabe a) Wir bestimmen die ersten Ableitungen von f, die uns dann das Aussehen der k-ten Ableitung erkennen lassen: fx) = x + e x xe x, f x) = e x e x

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler

Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Kommentierte Musterlösung zur Klausur HM I für Naturwissenschaftler Wintersemester 26/7 (2.3.27). (a) Bestimmen Sie die kartesische Form von z = 5i 2i und z 2 = ( ) 9 3 2 2 i. (b) Bestimmen Sie sämtliche

Mehr

Statistik I für Betriebswirte Vorlesung 4

Statistik I für Betriebswirte Vorlesung 4 Statistik I für Betriebswirte Vorlesung 4 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 25. April 2016 Prof. Dr. Hans-Jörg Starkloff Statistik I für Betriebswirte Vorlesung

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Modell Komplexität und Generalisierung

Modell Komplexität und Generalisierung Modell Komplexität und Generalisierung Christian Herta November, 2013 1 von 41 Christian Herta Bias-Variance Lernziele Konzepte des maschinellen Lernens Targetfunktion Overtting, Undertting Generalisierung

Mehr

Klausur Mathematik, 1. Oktober 2012, A

Klausur Mathematik, 1. Oktober 2012, A Klausur, Mathematik, Oktober 2012, Lösungen, A 1 Klausur Mathematik, 1. Oktober 2012, A Die Klausureinsicht ist Do, 8.11.2012 um 18:00 in MZG 8.136. Die Klausur ist mit 30 Punkten bestanden. Falls Sie

Mehr

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene

Mehr

Übung 1: Wiederholung Wahrscheinlichkeitstheorie

Übung 1: Wiederholung Wahrscheinlichkeitstheorie Übung 1: Wiederholung Wahrscheinlichkeitstheorie Ü1.1 Zufallsvariablen Eine Zufallsvariable ist eine Variable, deren numerischer Wert solange unbekannt ist, bis er beobachtet wird. Der Wert einer Zufallsvariable

Mehr

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???

Mehr

Statistik für Ingenieure Vorlesung 3

Statistik für Ingenieure Vorlesung 3 Statistik für Ingenieure Vorlesung 3 Prof. Dr. Hans-Jörg Starkloff TU Bergakademie Freiberg Institut für Stochastik 14. November 2017 3. Zufallsgrößen 3.1 Zufallsgrößen und ihre Verteilung Häufig sind

Mehr

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN

EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN 1 EGRESSIONSANALYSE AVID BUCHATZ NIVERSITÄT ZU KÖLN UFBAU 1 Historie 2 Anwendungen / Ziele 3 Lineare Regression/ Beispiel KQ 4 Nichtlineare Regression 5 Eigenschaften der Schätzer istorie früheste Form

Mehr

Neural Networks: Architectures and Applications for NLP

Neural Networks: Architectures and Applications for NLP Neural Networks: Architectures and Applications for NLP Session 02 Julia Kreutzer 8. November 2016 Institut für Computerlinguistik, Heidelberg 1 Overview 1. Recap 2. Backpropagation 3. Ausblick 2 Recap

Mehr

Lineare Regression. Kapitel Regressionsgerade

Lineare Regression. Kapitel Regressionsgerade Kapitel 5 Lineare Regression 5 Regressionsgerade Eine reelle Zielgröße y hänge von einer reellen Einflussgröße x ab: y = yx) ; zb: Verkauf y eines Produkts in Stückzahl] hängt vom Preis in e] ab Das Modell

Mehr