Teil VIII. Künstliche Neuronale Netze MUSTERERKENNUNG. Das menschliche Zentralnervensystem Die nassen Neuronen der anthropomorphen Blaupause

Größe: px
Ab Seite anzeigen:

Download "Teil VIII. Künstliche Neuronale Netze MUSTERERKENNUNG. Das menschliche Zentralnervensystem Die nassen Neuronen der anthropomorphen Blaupause"

Transkript

1 MUSTERERKENNUNG Vorlesung im Sommersemester 207 Teil VIII Künstliche Neuronale Netze Prof. E.G. Schukat-Talamazzini Stand: 7. März 207 Modellneuronen und ihre Verschaltung Das menschliche Zentralnervensystem Die nassen Neuronen der anthropomorphen Blaupause Das Neuron ist die elementare Verarbeitungseinheit. ca. 0 2 Nervenzellen ca. 0 4 Verbindungen MLPs für Prädiktion, Etraktion, Klassifikation Aon Macht die Grundaktivität einer Nervenzelle in Form elektrischer Impulse verfügbar Synapse Übermittlung an andere Neuronen über synaptische Verbindungen unterschiedlicher Stärke Feuern Überschreitet die gesammelte Eingangserregung einen bestimmten Betrag, führt dies zu einer Aktivitätsänderung (erhöhte Impulsfrequenz)

2 i j n Das Modellneuron Grundbaustein des Paradigmas massiv-paralleler Verarbeitung w w w ik jk nk Gewichtung Schwellwert w Summation Parallel-Distributed Processing Ein Künstliches Neuronales Netz (KNN) ist ein Arrangement von Modellneuronen und ihren Verbindungen. 0k σ k Aktivierungsfunktion f ( ) Ausgangs erregung Dynamisches Verhalten bestimmt durch Aktivierungsbegriff Kombination der Eingänge Aktivierungsfunktion Verschaltungstopologie k Neuronales Aktivierungsniveau Das Ausgabesignal des Modellneurons Ausgangserregung Mit k (t) bezeichnen wir die Ausgangserregung des k-ten Modellneurons zum Zeitpunkt t. Der Gesamtsystemzustand ist durch (t) charakterisiert. Wertebereich Feuern oder ruhen k (t), 0} Quantitatives Erregungspotenzial k (t) IR Aktivierung Schwellenwert: Neuron #k aktiv gdw. k (t) θ Feuerrate: Neuron #k aktiv gdw. Anzahl Spikes/Zeiteinheit θ Zeitraster dynamisch stetige Zeitskala dynamisch diskrete Zeitskala nicht-dynamisch t IR t Z k (t) k Neuronales Aktivierungsniveau Die Eingabesignale des Modellneurons Gewichtung der Eingangserregungen Modellierung der Stärke synaptischer Verbindungen w w 2 w N W = w N w N2 w NN Ezitatorische Synapsen w ij > 0 Inhibitorische Synapsen w ij < 0 Kombination der Eingangserregungen Die gesammelte Eingangserregung des k-ten Modellneurons (zur Zeit t) wird mit σ k bzw. mit σ k (t) bezeichnet und akkumuliert gemäß: w jk j (t) (Linearkombination) j σ k (t) = (w jk j (t)) 2 (Unähnlichkeit) j Neuronale Aktivierungsfunktionen Stufenfunktion Sigmoidfunktion Linearität Glockenkurve Lineare Aktivierung k = a σ k + b lineare Netzwerke Sprungfunktion k = σk > θ k 0 σ k θ k klassisches Perzeptron Zielwertaktivierung k = ep C (σ k θ k ) 2} selbstorganisierende Karten Sigmoidfunktion k = + ep( σ k )

3 Neuronale Verschaltung rekurrent nicht rekurrent MLP Ausgabeschicht Modellneuronen und ihre Verschaltung verborgene Schicht Eingabeschicht Verbindungstopologie Die Gewichtmatri W IR N N definiert einen gerichteten Graphen (N, E) über dem Neuronenvorrat N =,..., N} durch: j k (j, k) E w jk 0, ( j, k N ) MLPs für Prädiktion, Etraktion, Klassifikation Die Verschaltung besitzt Zyklen. dynamisches System Die Verschaltung ist zyklenfrei. endliche Berechnung Nichtrekurrente (zyklenfreie) künstliche neuronale Netze Serielle Traversierbarkeit nichtrekurrenter KNNs Definition Ein KNN mit Gewichtmatri W IR N N und zyklenfreier neuronaler Verknüpfungsrelation heißt nichtrekurrentes KNN oder Vorwärtsnetz. EINGABE AUSGABE u() Die Menge N aller Netzknoten zerfällt in die Teilmengen N E = k N j : j k} N A = j N k : j k} N H = N \ (N E N A ) der Eingabe-, der Ausgabe- bzw. der verborgenen Neuronen. Fakt Die Knoten eines zyklenfreien KNN lassen sich in -verträglicher Weise linear anordnen, d.h., es gilt j, k N : j k j < k nach entsprechender Umnummerierung.

4 Spielarten nichtrekurrenter Netzwerke Neuronenschichten & Verbindungsebenen nichtrekurrent Schichten Module keine Anregungszyklen volle Verdrahtung zwischen zyklenfreier Modulgraph benachbarten Schichten Metakanten voll verdrahtet Definition Zerfällt die Knotenmenge N eines zyklenfreien KNNs in eine Folge N 0,..., N L disjunkter Schichten mit der Eigenschaft w jk 0 ( l) j N l k N l (vollständige Verschaltung benachbarter Schichten), so sprechen wir von einem (MLP = multi-layer perceptron). Berechnungsprozeß in nichtrekurrenten Netzwerken Zyklenfreie KNNs kommen ohne eplizite Zeitrechnung aus Lemma Die Ausgangserregungen k (t) der Neuronen eines s sind nicht von der Zeit, sondern nur von den Zuständen E = ( k k N E ) abhängig und berechnen sich durch die Vorwärtsrekursion k = f w jk j j k bzw. k = f w jk j j N l FFN : k =, 2,..., N für alle mit der Aktivierungsfunktion f ( ). MLP : k N l, l =..L Das Netzwerk definiert folglich eine nichtlineare Abbildung IR N E IR u : N A E u( E ) = A = ( k k N A ). Modellneuronen und ihre Verschaltung MLPs für Prädiktion, Etraktion, Klassifikation Rosenblatt 962 Definition Ein einschichtiges KNN mit N Eingabeknoten, K Ausgabeknoten, der Gewichtmatri W IR N K und dem Systemverhalten N y k () = sign w jk j, k =,..., K j= heißt einstufiges (oder klassisches) Perzeptron. Bemerkungen. Das Perzeptron kann zu Klassifikationszwecken für N-dimensionale Merkmalvektoren aus K Musterklassen herangezogen werden; Prüfgrößen sind die Aktivierungsniveaus y k () der Ausgabeneuronen. 2. Das Verhalten der Ausgabeneuronen eines Perzeptrons ist vollständig entkoppelt; es genügt also, Perzeptren mit einem Ausgabeneuron zu betrachten.

5 mit einem Ausgabeneuron ADALINE adaptive linear engine Die Perzeptron-Lernregel Stapelweise versus instantane Auffrischung der Gewichte 3 2 y ( ) 4 y ( ) 3 y ( ) 2 y ( ) 3 2 y ( ) Gradientenabstieg w jk w jk η w jk Eingabeschicht Ausgabeschicht Eingabeschicht Ausgabeneuron Instantan: Schwellenwertneuron Feuerschwelle als Gewicht des -Neurons: y = sign(w θ) ( = θ, w ) ( ) Überwachtes Lernen Ideale Zielgrößenvorgabe y, +} lautet: sign(w )! = y Mit der Hilfsgröße z := y übersetzt in die Bedingung w! z 0 Auffrischungsvorschrift Korrektur von w proportional zur negativen Projektion von w auf z: w w w z > 0 w η (w z) z sonst Der Koeffizient η heißt Lernrate. w jk = (z) w jk Stapelweise: w jk = z ω (z) w jk Was ein Perzeptron lernen kann... und was ein Perzeptron leider nicht lernen kann Inklusive ODER-Funktion y(, 2 ) = + + = 0 = 2 + sonst affin separierbare Muster Eklusive ODER-Funktion y(, 2 ) = = unmöglich durch Gerade zu trennen Bemerkung Nach dieser Hiobsbotschaft (962) ruhte die Perzeptronforschung in Frieden bis zur (Wieder-)Entdeckung des Backpropagation-Algorithmus (972/85). Modellneuronen und ihre Verschaltung MLPs für Prädiktion, Etraktion, Klassifikation

6 Das (MLP) Asymptotisch universeller Funktionsapproimator Satz Mehrschichtennetzwerke mit nichtlinearer Aktivierungsfunktion (z.b. Signum oder Sigmoid) und mindestens zwei verborgenen Neuronenschichten (L 3 Stufen) können asymptotisch mit wachsender Neuronenzahl beliebige Klassengebiete bzw. Funktionen approimieren. Das (MLP) Beispiel: Perzeptron (drei Schichten zwei Stufen) ¹ y²() ² y¹() y³() Eingabeschicht verborgene Schicht Ausgabeschicht Konfiguration eines MLP als Klassifikator Hyperebenen Konvee Gebiete Mehrfach zshg. Gebiete Beweis. Durch genaues Hinschauen.. D Eingabeneuronen und (K ) Ausgabeneuronen D = 2 und K = 4 im Beispiel 2. Wieviele verborgene Schichten? eine verborgene Schicht im Beispiel 3. Wieviele Neuronen in verborgenen Schichten? 3 verborgene Neuronen im Beispiel 4. Maschinelles Lernen der Gewichtmatrizen (3 3) und (4 3) im Beispiel Optimierung der neuronalen Gewichtmatri Quadratischer Vorhersagefehler zwischer idealer und neuronaler Prüfgröße: ε(ω W ) = ω d() y() 2 Stapelweise Auffrischung (batch learning) W = W η W ε(ω W )}, W ε = [/ w jk ] j k Additive Zerlegung des Gesamtfehlers (ω W ) w jk = w jk ω d() y() 2 = ω ( W ) w jk Satz (Werbos 972) Error-Backpropagation-Algorithmus Gegeben sei ein nichtrekurrentes KNN mit Neuronen N, Gewichtmatri W und sigmoider Aktivierungsfunktion f (σ) = / (+e σ ). Dann gilt für die partiellen Ableitungen des quadratischen Fehlers ε(w ) = / 2 d A 2 zwischen der Zielvorgabe d und der Netzausgabe A zur Netzeingabe E die Aussage / w jk = j k ( k ) β k mit den rekursiv berechenbaren Größen ( j d j ) j N A β j = =. j β k k ( k )w jk j N A k j k

7 Algorithmus Beweis. Unsere gewählte Aktivierungsfunktion besitzt eine besonders schöne erste Ableitung: f (σ) = f (σ) ( f (σ)) Für die gesuchte Gewichtableitung ergibt die Kettenregel = j Der rechte Faktor wird wie folgt zerlegt: Wegen j j = j σ j σ j j = f (σ j ) = f (σ j ) = f (σ j ) ( f (σ j )) = j ( j ) σ j σ j Beweis. Der linke Faktor beschreibt die Fehlerkomponente des j-ten Neurons. Für Ausgabeneuronen gilt einfach β j = j = j 2 Für alle anderen Neuronen gilt die Rekursionsformel β j = j = k N A (d k k ) 2 = ( j d j ) k j k = k j k = k j k k k j k k σ k σ k j β k f (σ k ) w jk und folgt unmittelbar σ j = k k j k w kj = i j = f (σ j ) i = j ( j ) i Insgesamt ergibt sich mit diesen Größen der Ausdruck = β j f (σ j ) i für die partiellen Gewichtableitungen. Die Behauptung des Satzes folgt duch Einsetzen der Sigmoidfunktion. Error-Backpropagation-Algorithmus Initialisiere Gewichtmatri W und setze ν = 0. 2 Initialisiere Akkumulatoren (ν) w ij = 0. 3 Für alle Klassen κ =,..., K und für alle Muster E ω κ : a Berechne Eingangserregungen σ( E ). Berechne Ausgangserregungen ( E ). b Für alle Ausgabeneuronen j N A : Neuron j codiert Ωκ β j = j 0 sonst c Für alle anderen Neuronen j N \N A : β j = β k f (σ k ) w jk k j k d Für alle Neuronen i, j N mit i j: (ν) w ij (ν) w ij + β j f (σ j ) i 4 Berechnen der neuen Gewichte W W + η (ν) W Algorithmus Error-Backpropagation-Algorithmus Mächtiges Lernverfahren mit mangelhaften Konvergenzeigenschaften Anwendbarkeit Alle nichtrekurrenten Netzwerke (incl. MLPs und TDNNs) Alle differenzierbaren Aktivierungsfunktionen Alle differenzierbaren Eingabekombinationen (incl. w k und w k ) Konvergenzverhalten Gradientenabstiegsverfahren findet nur lokale Fehlerminima Heuristische Schrittweite (Lernrate η) Oszillation Konvergenzrate Konvergenzbeschleunigung Der Korrekturterm wird durch Momentumterm erweitert: (ν) w ij = η + α (ν) w ij Resilienter EBP-Algorithmus, Gauß-Newton, Levenberg-Marquardt,... 5 Abbruch? Sonst ν ν + und weiter bei 2.

8 Serielle Notation mit abstrakten Verarbeitungsstufen Berechnung der Vorwärtsvariablen Schichtenparallel von Stufe zu Stufe f f 2 f l f l+ f L f L Ω 0 Ω Ω l Ω L Ω L f f 2 f l f l+ f L f L 0 l L L + L Variablenschichten zu je D l Komponenten: Ω l ˆ= IR D l L Verarbeitungsstufen zu je D l Einzelfunktionen: f l,j : Ω l IR für j =,..., D l Beispielverarbeitungsstufen Lineargewichtungsstufe IR n IR m f l : A + b Kompandierungsstufe (z.b. Sigmoid) IR n IR n f l : (ϕ( ),..., ϕ( n )) Softmastufe o.ä. IR n IR k f l : (e j / i e i ) j=..k Eingabe Ausgabe 0 := IR D 0 := f ( 0 ) 2 := f 2 ( ) l := f l ( l ) L := f L ( L ) Zweistufen-MLP zur Klassifikation 0,i = i für i =..N,j = W 0j + i W ij 0,i für j =..M 2,j = ( + e,j ) für j =..M 3,k = V 0k + j V jk 2,j für k =..K 4,k = ( + e 3,k ) für k =..K ŷ k = 4,k f :L () = (f f 2... f L )() = f L (f L (... (f 2 (f ()))...)) Kosten, Lerndaten und Gütefunktion Optimierung der freien MLP-Parameter θ Ableitung nach den Vorwärtsvariablen Fehlerrückführung vom MLP-Ausgang zum MLP-Eingang Kostenfunktional ε(ŷ, y ) für Wunschergebnis y und MLP-Ausgabe ŷ = f :L () Beispiel für Regression/Klassifikation ε(ŷ, y ) = / 2 ŷ y 2 ε(ŷ, k ) = log(ŷ k ) (OLS) (MAP) ξ l,j def } = / l = 0..L l,j für alle j =..D l f f 2 f l f l+ f L f L ξ 0 ξ ξ l ξ L ξ L Stichprobe ω = ( (t), y (t) ) t=..t für überwachtes Lernen T Näherungsziel: E[ε(f θ (X), Y)] ε(f θ ( (t) ), y (t) ) Gradientenabstieg E[ε(f θ (X), Y)] θ T t= t= (f θ ( (t) ), y (t) ) θ (LLN) Rekursionsbeginn ξ L,j = L,j ε( L, y ) OLS-Regression ξ L,j = L,j 2 = L,i y i i ( L,i y i ) 2 Rekursionsschritt ξ l,j = = k = k l,j l,k ξ l,k γ l,j,k l,k l,j

9 Algorithmus Lokale Ableitungen zwischen den Variablen zweier benachbarter MLP-Stufen γ l,j,k } def l =..L = l,k / l,j für alle j =..D l k =..D l f f 2 f l f l+ f L f L ξ 0 ξ ξ l ξ L ξ L Γ Γ 2 Γ l Γ l+ Γ L Γ L Aktivierungsstufe γ l,j,k = Linearkombination γ l,j,k = l,j ϕ( l,k ) = l,j ( b l,k + i ϕ ( l,k ) j = k 0 j k A l,i,k l,i ) = A l,j,k Kompandierungsfunktionen und ihre Ableitungen nichtlineare, monotone Skalentransformationen für Aktivierungsstufen Name Funktion Ableitung Identität id() Stufe 2 sign() 2 I >0 () 0 für 0 Sigmoid 3 σ() / ( + e ) σ() ( σ()) Tangens 4 tanh() (e 2 ) / (e 2 + ) tanh 2 () Ellbogen 5 ϕ + () ma(0, ) I >0 () µ-gesetz φ µ () sign() log( + µ ) ( + /µ) µ-invers ϕ µ () sign() (e )/µ e /µ Softmastufe γ l,j,k = l,j e l,k i e l,i = l,j l,k + l,k j = k l,j l,k + 0 j k Bemerkung Wertebereiche: IR 2, 0, } 3 (0, ) 4 (, ) 5 IR + Ableitung nach den MLP-Parametern Synaptische Gewichte des Neuronennetzes Kompandierungsparameter Fehlerrückführung in Matrischreibweise L-Stufen-MLP Regressionsaufgabe Methode der kleinsten Quadrate Algorithmus θ l,i = k l,k l,k θ l,i = k ξ l,k f l,k ( l ) θ l,i für alle } l =..L i =..I l Initialisiere die Parameterfelder A l und b l für l =..L 2 Initialisiere Akkumulatorfelder A l und b l zu Null f f 2 f l f l+ f L f L ξ 0 ξ ξ l ξ L ξ L Γ Γ 2 Γ l Γ l+ Γ L Γ L θ θ 2 θ l θ l+ θ L θ L Linearkoeffizienten = l,k = ξ l,k A l,j,k l,k A l,j,k Aktivierungschwellen b l,k = l,k l,k b l,k = ξ l,k A l,j,k b l,k ( ( b l,k + i b l,k + i A l,i,k l,i ) A l,i,k l,i ) = ξ l,k l,j = ξ l,k 3 Für alle Lernstichprobenpaare (, y) ω berechne... l = 0 a Vorwärtsvariable l = A l l + b l linear ϕ( l ) skalar L y l = L b Rückwärtsvariable ξ l = A l+ ξ l+ linear diag(ϕ( l )) ξ l+ skalar c Aktualisiere A l und b l um l ξ l bzw. ξ l 4 Verschiebe die alten Parameter in Gradientenrichtung 5 Abbruch oder weiter bei 2

10 Modellneuronen und ihre Verschaltung MLPs für Prädiktion, Etraktion, Klassifikation (MLP) neuralnet::neuralnet (formula, data, hidden=, algorithm= rprop+,...) dist MLP Prädiktion 'cars$dist' aus 'cars$speed' hidden layer sizes: 2 hidden layer sizes: 3 hidden layer sizes: 2 2 hidden layer sizes: speed dist Funktionsargumente formula Output/Input-Variablen data Datensatz hidden Zwischenschichtengrößen } algorithm return backprop, sag, slr rprop+, rprop- Objekt der Klasse nn -Programmcode require (neuralnet) s <- 00 H <- list (2, 3, c(2,2), c(2,3,2)) plot (cars, pch=9) for (j in seq_along(h)) o <- neuralnet ( dist speed, cars/s, H[[j]]) y <- compute(o,cars$speed/s)$net lines (cars$speed, y*s, col=+j) } plot (o, rep="best") Autoassoziatives neuralnet::neuralnet (formula, data, hidden=, algorithm= rprop+,...) Var3 cos Torsionsdatensatz Var Spiraldatensatz sin Var2 AANN(X, 2)[,2] AANN(X, 2)[,2] Autoassoziatives MLP (N,2,N) AANN(X, 2)[,] Autoassoziatives MLP (N,2,N) AANN(X, 2)[,] Funktionsargumente formula Output/Input-Variablen data Datensatz hidden Zwischenschichtengrößen } algorithm return backprop, sag, slr rprop+, rprop- Objekt der Klasse nn -Programmcode AANN <-function (X, k=2, sd=/3,...) require (neuralnet) X <- scale(x) * sd vn <- colnames(x) iv <- paste (vn, collapse="+") ov <- paste (paste ( vn,, sep="."), collapse="+") fo <- formula (paste (iv, " ", ov)) o <- neuralnet (formula=fo, data.frame(x,x), hid=k,...) compute(o,x)$neurons[[2]][,-] } Error:.6225 Steps: 23 Dreischichtenperzeptron (SHLP) nnet::nnet (, y, size, Wts, mask, linout, entropy, softma, censored, skip=false, MaNWts=000,...) guess guess ERROR: 22 [%] SHLP: hidden units = 0 true ERROR: 7 [%] SHLP: hidden units = 20 true guess guess ERROR: 9 [%] SHLP: hidden units = 5 true ERROR: 20 [%] SHLP: hidden units = 25 true Funktionsargumente, y Matri/Dataframe für E/A formula, data (Formelinterface) size verborgene Neuronen skip Kurzschlusskanten? Wts, MaNWts Startwerte, # ma return Objekt der Klasse nnet -Programmcode require (nnet) for (h in 5*2:5) o <- nnet (CLASS., df[[]], Wts=sin(:nwts), MaNWts=nwts, size=h) guess <- predict (o, df[[2]], type="class") plot (data.frame(true,guess), col=3+:4) }

11 Modellneuronen und ihre Verschaltung CAM Content-Addressable Memory Assoziatives Gedächtnis: Zugriffsschlüssel Datensatz Getaktete Neuronen mit diskreten Zuständen k (t), +}, t IN, k N Nichtlineare Systemdynamik t t+ k (t + ) = sign j w jk j (t) MLPs für Prädiktion, Etraktion, Klassifikation Berechnung eines Gleichgewichtszustandes (Äquilibrium) u: u( 0 ) def = lim t (t) Zustandsraum 0, } N zerfällt in Attraktionsbassins: = y u y Hopfield-Netze Vollständig verschaltetes CAM mit symmetrischer Gewichtmatri Hebb sche Lernregel Definition Das dynamische System mit dem Zustandsübergang N k (t + ) = sign w jk j (t), t IN, k =,..., N j= mit der symmetrischen Gewichtmatri W heißt Hopfield-Netz. Es definiert eine (partielle) Abbildung, +} N, +} N u : z lim (t) (0)=z t im Raum der N-dimensionalen Binärmuster. Lemma Zur Speicherung von K Prototypen y,..., y K sind die Gewichte w jk proportional zum Aktivierungsratenprodukt der vernetzten Neuronen zu wählen: Unter der Voraussetzung w jk = K y λ,j y λ,k λ= K 0.38 N hinreichender Kapazität ist dann jeder Prototyp ein Äquilibrium des gelernten Netzwerks.

12 Hopfield-Netze Beispielanwendung (John S. Denker, 986) Beweis. Für Gleichgewichtspunkte = sign(w ) gilt: w jk j j = j Für einen Prototypen = y ν gilt insbesondere w jk y ν,j j = j y λ,j y λ,k y ν,j λ y λ,j y λ,k j λ = N y ν,k + j y λ,j y λ,k y ν,j y ν ist Gleichgewichtspunkt, wenn der rechte Term betragsmäßig kleiner als N ist. λ ν Telefonbucheinträge (25 Zeichen/Zeile, 5 Bit/Zeichen) John Stewart Denker 828 Lawrence David Jackel 7773 Richard Edward Howard 5952 Wayne P. Hubbard 7707 Brian W. Straughn John Henry Scofield 809 Erfolgreicher Zugriff t E = W CAM-Zustand john s john sdewirubneoimv john sdewirtbnenimv john sdewirtbnenimv john sdewirt nenkmv john sdewart denker john stewart denker 828 Erfolgloser Zugriff t E = W CAM-Zustand garbage garbagee lafj naabd garbaged derjd naabd garbaged derjd naabd gasbafed derjd naabd gasbabed derjd naabd fasjebad derjd naabd fasjebad derjd naabd fasjeb d derjd naabd 773 Zeitverzögerungsnetzwerke TDNN time-delayed neural networks W W W W W Simulation rekurrenter Netzwerke Das Verhalten eines rekurrenten Netzwerks mit ausschließlich einfachen Zyklen k k, k N kann im Rahmen eines T -Takte-Gedächtnisses durch ein Feed-Forward-Netz mit T N Neuronen simuliert werden. Zusammenfassung (8). Das Modellneuron kombiniert seine Eingangssignale und berechnet daraus sein Aktivierungsniveau. 2. Die Verschaltung der Modellneuronen ist durch das Nullenmuster der Gewichtmatri synaptischer Verbindungen definiert. 3. sind durch die Eistenz zyklischer Verbindungen charakterisiert und beschreiben dynamische Systeme, deren Verhalten durch die Attraktionsgebiete ihrer Fipunktzustände definiert ist. 4. Nichtrekurrente Netzwerke beschreiben pure Vorwärtsberechnungen und definieren durch die Zustände ihrer Eingabe- und Ausgabeneuronen eine nichtlineare Vektorabbildung. 5. Das einstufige Perzeptron ist nicht in der Lage, die logische XOR-Funktion zu lernen. 6. Ein mehrstufiges Perzeptron (MLP) mit mindestens vier Neuronenschichten gilt als (asymptotisch) universeller Approimator. 7. Jedes MLP mit differenzierbarer Aktivierungsfunktion kann mittels Error-Backpropagation-Algorithmus seine Gewichtmatri im Sinne kleinster Fehlerquadrate auf eine Lerndatenprobe optimieren. 8. Für die numerische Klassifikation verwendet man MLPs mit D Eingabeneuronen, K Ausgabeneuronen und einer der anvisierten Modellkapazität angemessenen Anzahl verborgener Neuronen.

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J} 9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Grundlagen neuronaler Netzwerke

Grundlagen neuronaler Netzwerke AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

11. Neuronale Netze 1

11. Neuronale Netze 1 11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

auch: Konnektionismus; subsymbolische Wissensverarbeitung

auch: Konnektionismus; subsymbolische Wissensverarbeitung 10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind

Mehr

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40 Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung

Mehr

bekannt Analog reduzieren wir die Randwerte im 2d-System. Man erhält dann eine Blocktridia-

bekannt Analog reduzieren wir die Randwerte im 2d-System. Man erhält dann eine Blocktridia- 3.. Jetzt: Eliminiere 1. und 2. wie folgt u 2 + 2u 1 = h 2 f 1 + α }{{} bekannt Nun: Au = b mit A R n,n, b R n, u R n und A hat die Gestalt 2 1 1 2 1 A =......... =: tridiag( 1, 2, 1)...... 1 1 2 Analog

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

3 Nichtlineare Gleichungssysteme

3 Nichtlineare Gleichungssysteme 3 Nichtlineare Gleichungsssteme 3.1 Eine Gleichung in einer Unbekannten Problemstellung: Gegeben sei die stetige Funktion f(). Gesucht ist die Lösung der Gleichung f() = 0. f() f() a) f ( ) 0 b) f ( )

Mehr

1. XOR: Mit folgender Architektur geht es. x 1. x n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen ...

1. XOR: Mit folgender Architektur geht es. x 1. x n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen ... 1. XOR: Mit folgender Architektur geht es x 1 x 2 2. n-dimensionale Lernprobleme mit einer n-2-1-architektur lösen x 1 x 2... x 2 Loading-Problem: Für eine endliche Liste binärer Trainingspaare (x(1),d(1)),l,(x(k)d(k))

Mehr

3 Lineare Algebra Vektorräume

3 Lineare Algebra Vektorräume 3 Lineare Algebra Vektorräume (31) Sei K ein Körper Eine kommutative Gruppe V bzgl der Operation + ist ein Vektorraum über K, wenn eine Operation : K V V (λ, v) λv existiert mit i) v,w V λ,µ K: λ (v +

Mehr

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge

(x, x + y 2, x y 2 + z 3. = e x sin y. sin y. Nach dem Umkehrsatz besitzt f dann genau auf der Menge ÜBUNGSBLATT 0 LÖSUNGEN MAT/MAT3 ANALYSIS II FRÜHJAHRSSEMESTER 0 PROF DR CAMILLO DE LELLIS Aufgabe Finden Sie für folgende Funktionen jene Punkte im Bildraum, in welchen sie sich lokal umkehren lassen,

Mehr

10. Neuronale Netze 1

10. Neuronale Netze 1 10. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Analysis III. Teil I. Rückblick auf das letzte Semester. Themen aus dem SS Inhalt der letzten Vorlesung aus dem SS.

Analysis III. Teil I. Rückblick auf das letzte Semester. Themen aus dem SS Inhalt der letzten Vorlesung aus dem SS. Analysis III für Studierende der Ingenieurwissenschaften Technische Universität Hamburg-Harburg Reiner Lauterbach Teil I Rückblick auf das letzte Semester Fakultät für Mathematik, Informatik und Naturwissenschaften

Mehr

κ Κα π Κ α α Κ Α

κ Κα π Κ α α Κ Α κ Κα π Κ α α Κ Α Ζ Μ Κ κ Ε Φ π Α Γ Κ Μ Ν Ξ λ Γ Ξ Ν Μ Ν Ξ Ξ Τ κ ζ Ν Ν ψ Υ α α α Κ α π α ψ Κ α α α α α Α Κ Ε α α α α α α α Α α α α α η Ε α α α Ξ α α Γ Α Κ Κ Κ Ε λ Ε Ν Ε θ Ξ κ Ε Ν Κ Μ Ν Τ μ Υ Γ φ Ε Κ Τ θ

Mehr

Überwachtes Lernen II: Netze und Support-Vektor-Maschinen

Überwachtes Lernen II: Netze und Support-Vektor-Maschinen Überwachtes Lernen II: Klassifikation und Regression - Neuronale Netze und Support-Vektor-Maschinen Praktikum: Data Warehousing und Data Mining Praktikum Data Warehousing und Mining, Sommersemester 2009

Mehr

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches

Mehr

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011

Zufällige stabile Prozesse und stabile stochastische Integrale. Stochastikseminar, Dezember 2011 Zufällige stabile Prozesse und stabile stochastische Integrale Stochastikseminar, Dezember 2011 2 Stabile Prozesse Dezember 2011 Stabile stochastische Prozesse - Definition Stabile Integrale α-stabile

Mehr

fakultät für physik bernhard emmer mathematik vorkurs für physiker Übungsblatt 1 für beliebiges k N und x 0. a 2 x 1 x 3 y 2 ) 2

fakultät für physik bernhard emmer mathematik vorkurs für physiker Übungsblatt 1 für beliebiges k N und x 0. a 2 x 1 x 3 y 2 ) 2 fakultät für physik bernhard emmer mathematik vorkurs für physiker Übungsblatt Aufgabe Induktion). a) Beweisen Sie, dass + 3 + 5 +... + n )) ein perfektes Quadrat genauer n ) ist. b) Zeigen Sie: + + +...

Mehr

Backpropagation. feedforward Netze

Backpropagation. feedforward Netze Backpropagation Netze ohne Rückkopplung, überwachtes Lernen, Gradientenabstieg, Delta-Regel Datenstrom (Propagation) Input Layer hidden Layer hidden Layer Output Layer Daten Input Fehler Berechnung Fehlerstrom

Mehr

Abbildung 10.1: Das Bild zu Beispiel 10.1

Abbildung 10.1: Das Bild zu Beispiel 10.1 Analysis 3, Woche Mannigfaltigkeiten I. Definition einer Mannigfaltigkeit Die Definition einer Mannigfaltigkeit braucht den Begriff Diffeomorphismus, den wir in Definition 9.5 festgelegt haben. Seien U,

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

KAPITEL 5. Nichtlineare Gleichungssysteme

KAPITEL 5. Nichtlineare Gleichungssysteme KAPITEL 5. Nichtlineare Gleichungssysteme Beispiel 5.1. Gravitationskraft zwischen zwei Punktmassen m 1 und m 2 mit gegenseitigem Abstand r: F = G m 1m 2 r 2, wobei G = 6.67 10 11 Nm 2 /kg. Gravitationsfeld

Mehr

Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck:

Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt, hier ein kurzer Eindruck: Diplomprüfung Informatik Kurs 1830 Neuronale Netze Prüfer: Prof. Dr. Helbig Beisitzer: Prodekan Prof. Dr. Hackstein Datum: 01.10.08 Note: 2,7 Auch wenn Prof. Helbig die Prüfung nicht mehr lange abnimmt,

Mehr

9 Höhere partielle Ableitungen und die Taylorformel

9 Höhere partielle Ableitungen und die Taylorformel Vorlesung SS 29 Analsis 2 Prof Dr Siegfried Echterhoff 9 Höhere partielle Ableitungen und die Talorformel Definition 91 Sei U R n offen, f : U R m eine Funktion Dann heißt f 2-mal partiell differenzierbar,

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Nichtlineare Gleichungssysteme Jetzt: Numerische Behandlung nichtlinearer GS f 1 (x 1,..., x n ) =0. f n (x 1,..., x n ) =0 oder kurz f(x) = 0 mit f : R n R n Bemerkung: Neben dem direkten Entstehen bei

Mehr

Neuronale Netze. Volker Tresp

Neuronale Netze. Volker Tresp Neuronale Netze Volker Tresp 1 Einführung Der Entwurf eines guten Klassifikators/Regressionsmodells hängt entscheidend von geeigneten Basisfunktion en ab Manchmal sind geeignete Basisfunktionen (Merkmalsextraktoren)

Mehr

Klassifizierungsverfahren und neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik

Klassifizierungsverfahren und neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Hauptseminar WS 2011/2012 Klassifizierungsverfahren und neuronale Netze Hauptseminar - Methoden der experimentellen Teilchenphysik Thomas Keck t.keck@online.de Karlsruher Institut für Technologie, 09.12.2011

Mehr

: das Bild von ) unter der Funktion ist gegeben durch

: das Bild von ) unter der Funktion ist gegeben durch % 1.3 Funktionen Seien und Mengen nennt man Funktion oder Abbildung. Beachte: Zuordnung ist eindeutig. Bezeichnungen: : Definitionsbereich : Bildbereich (Zielmenge) von Der Graph einer Funktion: graph!

Mehr

Universität Klagenfurt

Universität Klagenfurt Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.

Mehr

Lineare Algebra: Determinanten und Eigenwerte

Lineare Algebra: Determinanten und Eigenwerte : und Eigenwerte 16. Dezember 2011 der Ordnung 2 I Im Folgenden: quadratische Matrizen Sei ( a b A = c d eine 2 2-Matrix. Die Determinante D(A (bzw. det(a oder Det(A von A ist gleich ad bc. Det(A = a b

Mehr

Vortrag 20: Kurze Vektoren in Gittern

Vortrag 20: Kurze Vektoren in Gittern Seminar: Wie genau ist ungefähr Vortrag 20: Kurze Vektoren in Gittern Kerstin Bauer Sommerakademie Görlitz, 2007 Definition und Problembeschreibung Definition: Gitter Seien b 1,,b k Q n. Dann heißt die

Mehr

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen

Konvergenz gegen einen Prozess mit unabhängigen Zuwächsen - Anwendungen Konvergenz gegen einen rozess mit unabhängigen Zuwächsen - Anwendungen Saskia F. Glaffig 20.07.17 "Wiederholung" Definition (vgl. Jacod, Shiryaev, I.3.26: oissonprozess). Ein erweiterter oissonprozess

Mehr

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c

Mehr

8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n.

8 Interpolation. 8.1 Problemstellung. Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen. x 0 < x 1 <... < x n. 8 Interpolation 81 Problemstellung Gegeben: Diskrete Werte einer Funktion f : R R an n + 1 Stützstellen x 0 < x 1 < < x n Eingabedaten: (x 0, f 0 ),(x 1, f 1 ),,(x n, f n ) Gegebene Daten (x j, f j ) Analysis

Mehr

Reelle Zufallsvariablen

Reelle Zufallsvariablen Kapitel 3 eelle Zufallsvariablen 3. Verteilungsfunktionen esultat aus der Maßtheorie: Zwischen der Menge aller W-Maße auf B, nennen wir sie W B ), und der Menge aller Verteilungsfunktionen auf, nennen

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

1 Formen und äußeres Differential

1 Formen und äußeres Differential 1 Formen und äußeres Differential Wir betrachten den n-dimensionalen reellen Raum R n = { x = x 1,...,x n ) : x i R für i = 1,...,n }. Definition 1.1 Ein Tangentialvektor an R n im Punkt x R n ist ein

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried

Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie. Tobias Ried Lösung zu den Übungsaufgaben zur Lebesgueschen Integrationstheorie Tobias Ried. März 2 2 Aufgabe (Messbarkeit der Komposition zweier Abbildungen). Seien (X, A), (Y, B) und (Z, C) Messräume und f : (X,

Mehr

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe

Taylorreihen. Kapitel 9. Lernziele. Taylorreihe. (x x 0 ) + f (x 0 ) 2! (x x 0 ) f (n) (x 0 ) (x x 0 ) n. Taylorreihe und MacLaurinreihe Kapitel 9 Taylorreihen Josef Leydold c 2006 Mathematische Methoden IX Taylorreihen 1 / 25 Lernziele Taylorreihe und MacLaurinreihe Beispiele Alternative Schreibweisen Approimation der Veränderung einer

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x)

y (k) (0) = y (k) y(z) = c 1 e αz + c 2 e βz. c 1 + c 2 = y 0 k=1 k=1,...,m y k f k (x) 9 Ausgleichsrechnung 9.1 Problemstelllung Eine Reihe von Experimenten soll durchgeführt werden unter bekannten Versuchsbedingungen z Ê m. Es sollen Größen x Ê n bestimmt werden, für die ein Gesetz gelten

Mehr

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1)

In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N. Wenn (mit einem n > 1) 34 Determinanten In diesem Abschnitt betrachten wir nur quadratische Matrizen mit Komponenten aus einem Körper K, also A K n n für ein n N Wenn (mit einem n > 1) a 11 a 12 a 1n a 21 a 22 a 2n A =, (1)

Mehr

Kapitel 4: Nichtlineare Nullstellenprobleme

Kapitel 4: Nichtlineare Nullstellenprobleme Vorlesung Höhere Mathematik: Numerik (für Ingenieure) Kapitel 4: Nichtlineare Nullstellenprobleme Jun.-Prof. Dr. Stephan Trenn AG Technomathematik, TU Kaiserslautern Sommersemester 2015 HM: Numerik (SS

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

4.2 Grenzwerte und Stetigkeit reeller Funktionen

4.2 Grenzwerte und Stetigkeit reeller Funktionen 4. Grenzwerte und Stetigkeit reeller Funktionen 73 4. Grenzwerte und Stetigkeit reeller Funktionen Definition 4.. Gegeben sei eine Funktion y = mit D(f). (i) Sei D(f). heißt stetig in, falls es für alle

Mehr

1.3 Differenzierbarkeit

1.3 Differenzierbarkeit 1 1.3 Differenzierbarkeit Definition Sei B R n offen, a B, f : B R eine Funktion und v 0 ein beliebiger Vektor im R n. Wenn der Grenzwert D v f(a) := lim t 0 f(a + tv) f(a) t existiert, so bezeichnet man

Mehr

Neuronale Netze Aufgaben 3

Neuronale Netze Aufgaben 3 Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Totale Ableitung und Jacobi-Matrix

Totale Ableitung und Jacobi-Matrix Totale Ableitung und Jacobi-Matrix Eine reelle Funktion f : R n R m ist in einem Punkt x differenzierbar, wenn f (x + h) = f (x) + f (x)h + o( h ) für h 0. Totale Ableitung 1-1 Totale Ableitung und Jacobi-Matrix

Mehr