Neuronale Netze I. Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München

Größe: px
Ab Seite anzeigen:

Download "Neuronale Netze I. Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München"

Transkript

1 Neuronale Netze I Proseminar Data Mining Florian Zipperle Fakultät für Informatik Technische Universität München florian.zipperle@tum.de Zusammenfassung Neuronale Netze werden im Bereich Data Mining verwendet, um Muster aus gegebenen Informationen zu erkennen sie zu klassifizieren. Diese Arbeit soll eine allgemeine Einführung in das Thema neuronale Netze geben. Dafür gebe ich eine Einführung zu einfachen Netzen den dazugehörigen Algorithmen für das Lernen (Backpropagation. Der Lernalgorithmus Backpropagation wird genauer betrachtet hergeleitet durch ein Zahlenbeispiel wird die Funktionsweise verdeutlicht. Mögliche Algorithmen für eine Implementierung werden vorgestellt die Ergebnisse meiner Implementierung an einem Beispiel präsentiert. Schlüsselworte Neuronale Netze - Perceptron - Backpropagation - Implementierung I. EINLEITUNG Neuronale Netze sind mathematische Modelle, welche an die biologischen Vorgänge im Gehirn angelehnt sind versuchen sie zu imitieren. Die Erkenntnisse in der Erforschung des Gehirns sollen genutzt werden, um Rechner lernfähig zu machen. Dies soll es ermöglichen einem Rechner Probleme vorzusetzen, die er anschließend selbst durch gelerntes Wissen Erfahrung lösen kann. Bis zu einem bestimmten Grad kann Lernfähigkeit durch neuronale Netze erreicht werden. Es gibt verschiedene Einsatzgebiete von neuronalen Netzen. Ein großes Anwendungsgebiet im Bereich Data Mining ist die Mustererkennung bzw. die Musterklassifizierung. Ein Beispiel dafür wäre die Bildersuche im Internet. Die Suche soll, trotz fehlen einer Bildbeschreibung, gute Ergebnisse liefern. D.h. sie soll in der Lage sein den Inhalt zu klassifizieren anhand dieser Information entscheiden, ob das Bild für den Benutzer relevant ist oder nicht. A. Motivation Warum neuronale Netze so beliebt sind, lässt sich am Problem der Mustererkennung gut nachvollziehen. Das Erkennen von Mustern in einem Bild lässt sich algorithmisch nur sehr schwer lösen, da dafür genaue Kenntnisse über die Eingangsdaten, also die Eingangsmuster, vorhanden sein müssen. Mit neuronalen Netzen wird dieses Problem umgangen, sie haben eine relativ einfache Implementierung, lassen sich einfach berechnen können gut wiederverwendet werden. Außerdem braucht es keine genauen Kenntnisse über die gesuchten Muster. Möchte man als Beispiel eine Buchstabenerkennung realisieren, so müsste der Programmierer jeden einzelnen Buchstabe analysieren seine Merkmale herausfiltern, um mit einem Algorithmus die Unterscheidung zu lösen. Mit einem neuronalen Netz kann er einfach die Buchstaben als Trainingsset vorgeben das Problem vom Computer bzw. vom Netz lösen lassen. B. Geschichte Das mathematische Fament für neuronale Netze wurde schon 943 von Mc-Culloch/Pitts beschrieben. Sie zeigten, dass jede boolesche Funktion von einem endlichen neuronalen Netz berechenbar ist []. Daraus leiten sich auch bis heute die Grlagen der Theorie endlicher Automaten ab. Danach ging die Entwicklung schrittweise weiter, es wurde nach Lerntheorien gesucht. Im Jahr 962 entwickelten Widrow/Hoff einen Algorithmus für das Lernen, der auf der LMS-Methode basiert (least mean square. In den sechziger Jahren präsentierte Frank Rosenblatt ein neuronales Netz namens Perceptron. Das Perceptron stellt bis heute die Grlagen von neuronalen Netzen dar, daher gehe ich in dieser Arbeit speziell auf dieses ein. In den siebziger Jahren entwickelten sich daraus verschiedene Modelle, auch nicht überwachte Lernalgorithmen z.b. durch die Adaptive Resonanz Theory von Grossberg van der Malsburg oder durch das Competitive Learning Model von Kohonen. In den achtziger Jahren erhielten neuronale Netze einen Aufschwung. Hopfield stellte ein Netz vor, welches im Gegensatz zum Perceptron mit Rückkoppelung arbeitet. Rumelhart entwickelt den Backpropagation Algorithmus, auf welchen ich in dieser Arbeit genauer eingehen werde. Dadurch konnten auch Netze mit mehrschichtiger Architektur trainiert werden. [2] C. Neuronales Netz als Blackbox Neuronale Netze sind Computerprogramme, als Blackbox betrachtet haben sie als Eingang einen Vektor mit n Elementen am Ausgang liefern sie einen Vektor mit m Elementen (siehe Abbildung. Am Eingang liegen die Informationen von n verschiedenen Informationsquellen vor. Der Ausgangsvektor gibt an, wie wahrscheinlich ein Muster auftritt.

2 Als Beispiel bei einer Ziffernerkennung in einem digitalen Bild, sind die Elemente des Eingangvektors die Farb- bzw. Grauwerte der einzelnen Pixel. Der Ausgangsvektor besitzt zehn Elemente. Jedes Element gibt an, wie wahrscheinlich die entsprechende Ziffer im Bild dargestellt ist. kontinuierliche Funktion g(x, die für [, ] n, n 2 definiert ist, Funktionen h j f ij existieren, sodass gilt: g(x 2m+ j h j ( d i f ij (x i. (5 Er hat aber nur die Existenz der Funktionen bewiesen, nicht wie sie konkret lauten. Dadurch ist es theoretisch möglich jede Funktion mit einem neuronalen Netz zu approximieren. Neuronales Netz Abbildung : Neuronales Netz als Blackbox für eine Ziffernerkennung D. Neuronales Netz als Formel Die Bezeichnung neuronales Netz ist vielleicht etwas verwirrend, da es sich hierbei eigentlich nur um eine mathemati- sche Formel handelt: ( l n z k (w k, w j, x f w kj f w ji x i + w j + w k j i ( (Notation: fett geschriebene Großbuchstaben entsprechen Matrizen, fett geschriebene Kleinbuchstaben Vektoren. Die sogenannten Biaswerte w k w j bilden einen Offset können mit in die Summenschreibweise gezogen werden. Zu beachten ist, dass dann x y gelten muss. Auf den ersten Blick erscheint ( vielleicht etwas komplex, deshalb werde ich die Formel in kleinere Teile zerlegen, n net j : w ji x i + w j (2 i ist eine Linearkombination aus dem Eingang x i der Gewichtsmatrix w ji. Auf diese Summe wird eine nichtlineare Funktion f angewandt: y j : f (net j. (3 Das Ergebnis aus (3 wird als Ausgabe eines Neurons bezeichnet. Der Wert y j wird als Eingang für die nächste Funktion verwendet, wie (2: net k : l w kj y j + w k. (4 j Auf (4 wird wieder eine nichtlineare Funktion angewandt schließlich der Ausgang z k berechnet. Dieser Wert könnte wieder als Eingang für eine weitere Schicht verwendet werden. Kolmogorov [3] hat aber gezeigt, dass für jede beliebige Die nichtlinearen Funktionen werden Aktivierungsfunktionen genannt. Ein Beispiel dafür wäre die Signum Funktion, welche das Vorzeichen zurückgibt. Eine andere häufig eingesetzte Aktivierungsfunktion ist die Sigmoid Funktion (Abbildung 2, sie ist differenzierbar beschränkt. Die Beschränktheit ist nützlich, da sonst ein Neuron durch einen sehr großen Ausgangswert alle anderen Neuronen überdecken kann. Soll das Netz nicht für eine Klassifikation, sondern für eine Regression eingesetzt werden, müssen eventuell andere nicht beschränkte Aktivierungsfunktionen verwendet werden. Beim Lernen des Netzes werden die Werte w kj w ji auf geeignete Weise angepasst, sodass die Funktion das gewünschte Ergebnis liefert. Der Backpropagation Algorithmus liefert eine Vorschrift zur Lösung dieses Problems. E. Neuronales Netz als Graph Zur bildlichen Darstellung kann das neuronale Netz als Graph interpretiert werden. Dabei besteht das neuronale Netz aus Zellen, welche über gewichtete Kanten verben sind. Eine Zelle im neuronalen Netz verhält sich ähnlich wie ein Neuron im Gehirn, weshalb die Zellen auch Neuronen genannt werden. Die Zelle ist entweder inaktiv oder aktiv. Sie feuert bzw. wird aktiv wenn die Summe der gewichteten Eingangskanten einen bestimmten Schwellwert überschreitet. Positive Gewichte wirken anregend auf die Zelle, hingegen negative Gewichte wirken hemmend. Die Zelle gibt ihrerseits ihren Zustand an ihre benachbarten Zellen weiter, eine einzelne Zelle stellt eine sehr simple Funktion dar. Die komplexe Funktion des gesamten Netzes kommt erst durch das Vernetzen der parallel arbeitenden Zellen zustande. Dabei ist das gelernte Wissen des Netzes in den Gewichten der Kanten gespeichert. F. Netztopologie Die bildliche Darstellung der Netztopologie kann beim Verständnis der Arbeitsweise helfen, vor allem wenn rekursive Funktionen verwendet werden. Das von mir verwendete Netz (Abbildung 4 hat im Gegensatz dazu eine sehr einfache Topologie wird in Schichten eingeteilt. Es gibt dabei mehrere verschiedene Schichten: die Eingangs- Ausgangsschicht, sowie eventuell vorhandene versteckte bzw. verborgene Schichten dazwischen. Die Zwischenschichten werden versteckte Schichten genannt,

3 Sigmoidfunktion Input Hidden Output f(x.8.6 x x w y w y2 y w z 5 5 x Abbildung 2: Eine Sigmoid Funktion mit f(x +e x x... x n w w n x w f(net Abbildung 3: Ein Neuron mit n Eingangswerten. Der Wert x wird Bias genannt ist immer eins. Auf die gewichtete Summe net wird die Aktivierungsfunktion angewandt es ergibt sich als Ausgabe: y f(net. da ihr Verhalten Wirken aus der Blackbox-Sicht nicht erkenntlich ist. Die Neuronen (Abbildung 3 einer Schicht sind bei mir immer nur mit den Neuronen der direkt nachfolgenden Schicht verben. Sie können aber auch rekursiv verben sein oder schichtenübergreifend. Dadurch wird die Berechnung die Formel allerdings komplexer. Wie viele Schichten vorhanden sind wie viele Neuronen eine Schicht enthält, ist von den Anforderungen an das Netz abhängig. Auch wie die Neuronen verben sind, hängt vom Zweck ab. II. LERNEN Lernen ist im Zusammenhang mit einem neuronalen Netz als Prozess zu verstehen, bei welchen versucht wird durch Anpassen der Gewichte eine vorgegebene Funktion zu approximieren, sodass am Ende die Differenz gegen null konvergiert. Dazu müssen Trainingsmuster vorgegeben werden, an denen das Netz trainiert werden kann. Es gibt prinzipiell zwei Arten von Lernalgorithmen, das unüberwachte Lernen im Gegensatz dazu das überwachte Lernen. Beim unüberwachtem Lernen werden dem zufällig initialisiertem Netz beliebige Muster vorgelegt. Das Netz muss diese selbständig klassifizieren in Kategorien einteilen. Dafür muss das Netz die Gemeinsamkeiten der Muster finden erlernen. y w y2 w y22 b y b y2 b z w z2 y 2 z z Abbildung 4: Beispieltopologie für ein 2-2- Netz. Natürlich können in jeder Schicht mehr Neuronen existieren, als hier gezeigt. D.h. auch es kann mehrere Ausgangsneuronen geben. Beim überwachtem Lernen steht dem Netz ein Lehrer beiseite, welcher zu einem bestimmten Eingangsmuster das gewünschte Ergebnis am Ausgang kennt. Mit diesem Wissen passt das Netz schrittweise seine Gewichte an, um die Abweichung vom gewünschten Ergebnis zu minimieren. In dieser Arbeit werde ich näher auf das überwachte Lernen eingehen. Die Lernphase die Arbeitsphase sind getrennte Prozesse. Nachdem das Netz durch das Lernen ausreichend gute Ergebnisse liefert, wird der Lernprozess beendet. Anschließend ist das Netz bereit seine Aufgaben in der Arbeitsphase zu erfüllen. Sollte sich das Ergebnis durch eine veränderte Eingangssituation verschlechtern, kann immer wieder ein neuer Lernprozess gestartet werden, um das Netz den Veränderungen anzupassen. A. Backpropagation Backpropagation [3] ist ein Algorithmus für überwachtes Lernen in einem neuronalem Netz. Dieser Algorithmus heißt so, weil erst die Ausgabe berechnet wird anschließend der Fehler im Netz zurück propagiert wird. Beim Zurückpropagieren werden Schichtenweise vom Ausgang in Richtung Eingang die Gewichte entsprechend angepasst. Der Fehler berechnet sich als die Summe der quadratischen Abweichung vom Sollwert, der durch den Lehrer gegeben ist. Der Fehler ist von den Gewichten abhängig: J(W 2 (t k z k (w k 2. (6 In (6 entspricht w der Gewichtsmatrix, t k dem gewünschten Ausgangswert z k dem tatsächlichen Ausgang. Die Multiplikation mit /2 dient für spätere Vereinfachungen. Beim Lernen wird versucht diese Funktion, also den Fehler, zu minimieren. Dazu bedient man sich dem Gradientenverfahren. Dazu benötigen wir die bereits bekannte Formel (, sowie

4 (6. Die Gewichtsänderung berechnet sich schließlich nach folgender Formel: W η J W. (7 Dabei entspricht η der Lernrate ist ein Faktor, der angibt wie stark sich der Fehler auswirkt. Da die Ableitung in Richtung Aufstieg zeigt, benötigt es den Vorzeichenwechsel durch das Minus, um zum Minimum zu gelangen. Der Lernprozess wird zyklisch ausgeführt die Gewichte werden nach folgender Formel angepasst: W(m + W(m + W, (8 wo m den Zustand vor, m + den Zustand nach der Anpassung repräsentiert. B. Berechnung der Ableitung Jetzt geht es darum wie die Ableitung konkret berechnet wird, zunächst für die Ausgangsschicht danach für die versteckte Schicht. Ausgangsschicht: In (7 benötigen wir den abgeleiteten Fehler nach den Gewichten. Dazu bedienen wir uns den Formeln ( (6. Außerdem ist folgende Formel für das Verständnis hilfreich, welche aus ( folgt: z k (net k (w k, y f (net k (w k, y. (9 Aus diesen drei Formeln der Kettenregel folgt: mit der Sensitivität J J net k w kj net k w kj δ k net k w kj, ( δ k : J. ( net k Die Sensitivität ist ein Indikator, wie der gesamte Fehler von dem Neuron k abhängt. Die Sensitivität kann mit (6 (9 umgeformt werden zu: δ k J J z k (t k z k f (net k. (2 net k z k net k In (2 ist zu erkennen, weshalb in (6 der Faktor /2 eingeführt wurde. Dieser verschwindet nämlich bei der Ableitung der Quadratfunktion. Mit (7, ( (2 ergibt sich für die Ausgangsneuronen folgende Gleichung für die Gewichtsanpassung: w kj ηδ k y j η(t k z k f (net k y j. (3 2 Versteckte Schicht: Für die versteckte Schicht ist die Lösung ein bisschen komplexer. Der erste Schritt ist wieder das Anwenden der Kettenregel mit ( (6: J J y j net j. (4 w ji y j net j w ji Folgende Formel soll für das Verständnis von (4 helfen: z k f (net k (w k, y j (net j (w j, x. (5 Der erste Term von (4 kann mit (6 umgeschrieben werden zu: [ ] J (t k z k 2 (6 y j y j 2 (t k z k z k (7 y j (t k z k z k net k (8 net k y j (t k z k f (net k w kj. (9 Daraus folgt die Sensitivität für das versteckte Neuron j: δ j f (net k (t k z k w kj. (2 Aus (7, (4 (2 folgt schließlich die Gewichtsänderung: [ m ] w ji ηx i δ j η (t k z k f (net k w kj f (net j x i. (2 Diese Formel gilt auch für weitere versteckte Schichten. Es müssen natürlich die Indizes angepasst werden. C. Gewichtsanpassungen Nachdem wir für die Gewichtsanpassung nun die Formeln kennen, fehlt uns noch der Zeitpunkt, zu welchem die Änderungen angewendet werden sollen. Die Anpassung kann nach jedem Berechnen eines Trainingsmuster geschehen, oder direkt Schicht für Schicht. Es kann auch ein Satz von Trainingsmustern trainiert werden erst nachdem alle Muster dem Netz präsentiert wurden, geschieht die Anpassung. Um zu entscheiden welche Variante eingesetzt werden soll, kann man die verschiedenen Methoden ausprobieren, die Variante welche das Netz am besten an die gewünschte Aufgabe anpasst nehmen. D. Praktische Probleme In Abbildung 5 sind Kurven dargestellt, welche auf mögliche Probleme beim Gradientenverfahren hinweisen sollen. Die rote Kurve enthält mehrere lokale Minima, allerdings gilt es das globale Minimum zu finden. Je nachdem wie die Gewichte zu Beginn initialisiert wurden, kann es passieren, dass der Algorithmus in einem nicht optimalen lokalen Minima hängen bleibt. Die blaue Kurve zeigt Probleme, die es bei der Wahl der Lernrate gibt. Um x herum herrscht ein Plateau. Die Ableitung kann null werden es gibt keine Gewichtsänderungen mehr. Durch Erhöhung der Lernrate können eventuell Plateaus übersprungen werden, aber auch das globale Minimum. Es kann bei einer großen Lernrate auch dazu kommen, dass das Tal eines Minimums nicht erreicht wird, sondern dass der Algorithmus ständig hin her springt.

5 J Abbildung 5: Mögliche Probleme beim Gradientenverfahren. Es können mehrere Minima existieren (rote Kurve oder es kann Plateaus (blaue Kurve geben. Die Ableitung wird null das Gradientenverfahren versagt. Es gibt verschiedene Ansätze, um dieses Verhalten zu vermeiden. Ein einfacher ist z.b. eine variable Lernrate, die immer weiter abnimmt. Ein anderer Ansatz ist das Einführen eines Trägheitsterms, wodurch die Gewichtsveränderung auch von den vorhergehenden Änderungen beeinflusst wird. Um das Konvergieren gegen lokale Minima zu verhindern, wird das Training mit vielen verschiedenen zufälligen Initialisierungen gestartet das beste Ergebnis verwendet. W III. ALGORITHMEN Nach dem theoretischem Teil folgt noch ein kurzer praktischer Teil. Es geht darum wie Backpropagation mit Algorithmen implementiert werden kann. Die Algorithmen werde ich als Pseudocode angeben. A. Auswertung Bei der Auswertung wird der Eingangsvektor an das Netz angelegt der Ausgangsvektor berechnet. Dabei habe ich Algorithmus in Pseudocode verwendet, er ist nicht sehr effizient, soll aber noch einmal veranschaulichen wie die Berechnung des Ausgangs möglich ist. Input : Eingangsvektor x Output : Ausgangsvektor z for k.. z do 2 for j.. y do 3 for i.. x do 4 net j w ji x i 5 end 6 y j f(net j + b j 7 net k w kj y j 8 end 9 z k f(net k + b k end Algorithmus : Auswertungsalgorithmus B. Backpropagation Der folgende Algorithmus 2, für das Lernen mit der Backpropagation Methode ist aufwändiger. Er berechnet die Gewichtsänderungen für beide Schichten. Die Biasänderungen werden für k j mitberechnet. Dabei gilt wie bereits erwähnt: x y. Input : Berechnetes Netz, Erwartetes Ergebnis t Output : Die Gewichtsänderungen w for k.. z do 2 for j.. y do 3 w kj η (t k z k f (net k y j 4 end 5 end 6 for i.. x do 7 for j.. y do 8 δ j 9 for k.. z do δ j +(t k z k f (net k w kj end 2 δ j *f (net j 3 end 4 w ji η summe j x i 5 end Algorithmus 2 : Backpropagation Algorithmus C. Gewichtsanpassung Am Ende müssen natürlich noch die Gewichte angepasst werden, um einen Lerneffekt zu erzielen. Die Gewichte werden nach Algorithmus 2 berechnet müssen am Ende nach Algorithmus 3 zu den Gewichtsmatrizen dazuaddiert werden. Nachdem die Gewichte angepasst wurden, kann ein neuer Lernzyklus begonnen werden. Falls das Netz eine genügend gute Güte erreicht hat, kann auch aufgehört werden. Die hier Input : Die Gewichtsänderungen w Output : Die neuen Gewichte w for i.. x do 2 for j.. y do 3 w ji + w ji 4 end 5 end 6 for j.. y do 7 for k.. z do 8 w kj + w kj 9 end end Algorithmus 3 : Gewichtsanpassungsalgorithmus gezeigten Algorithmen lassen sich auch effizient mit linearer Algebra implementieren. Die Gewichte müssen dabei als Matrizen vorliegen. Dies hat den Vorteil, dass die meisten Standardbibliotheken effiziente Methoden für Matrixoperationen bereitstellen. Bei komplexen Netzen, kann die Trainingsdauer sonst zu viel Zeit in Anspruch nehmen.

6 x Input x Hidden y.34. Output 6 y 2 z z Abbildung 6: Beispielwerte für ein zufällig initialisiertes 2-2- Netz. IV. RECHENBEISPIEL Anhand des Beispielnetzes aus Abbildung 6 möchte ich einen Lernschritt ausführlich beschreiben zeigen wie Backpropagation funktioniert. Als Eingabe wähle ich x, das Netz soll die XOR-Funktion berechnen, d.h. die Ausgabe soll z lauten. Die Gewichte können folgendermaßen als Matrizen geschrieben werden: ( ( wy w w y y (22 w y2 w y w z ( w z w z2 (. 6. (23 Die Biaswerte können als Vektoren geschrieben werden: ( ( by b y (24 b y2.9 A. Auswertung b z ( b z (.34. (25 Zu Beginn muss die Ausgabe des Netzes ermittelt werden, damit anschließend der Fehler berechnet werden kann. Als ersten Schritt berechne ich die Eingabe für die verborgene Schicht: 2 net y b y + (x i w yi (26 i net y + ( ( (27 Analog berechnet sich net y2.64. Auf diese Werte wird nun die Aktivierungsfunktion angewandt: y f(net y 45. (28 + e nety Nach der gleichen Formel erhalte ich für y 2.65, damit habe ich die Zwischenschicht komplett berechnet wende mich dem Ausgang zu: 2 net z b z + (y j w zj, (29 j net z (.34 + ( ( (3 Nach dem Anwenden der Aktivierungsfunktion erhalte ich z.35, das Netz weicht also ziemlich stark vom gewünschten Ergebnis ab es muss trainiert werden. B. Backpropagation Da, wie vorhin gezeigt, das Netz schlechte Wert liefert, wende ich den Backpropagation Algorithmus 2 an. Dabei wird mit der Ausgabeschicht begonnen, aus mit ergibt sich: w z η (t z f (net z y (3 f (net z (z ( z (32 w z (.35 (.35 ( (33 Für w z2 wird analog vorgegangen es ergibt sich w z2.. Die Gewichtsänderung für die verborgene Schicht berechnet sich ein bisschen anders: ergibt δ y (t z f (net z w z (34 δ y (.35 (.35 ( (35 Für δ y2 ergibt sich analog δ y2.68. Die Gewichtsdifferenz ergibt sich daraus: w yji η δ yj f (net yj x i (36 w y.6 (45 ( 45.4 (37 Für die restlichen drei Gewichte berechnet sich die Differenz analog. Die Werte w j2 w j22 sind jedoch null, da null ist. Für die Biasänderung gelten die gleichen Formeln, y x sind dabei aber eins. Nachdem alle Werte berechnet wurden die Änderungen aufaddiert wurden, ergeben sich folgende Gewichtsmatrizen: ( w y ( w z ( (39 Die Biaswerte ändern sich zu: ( 4 b y.74 (4 b z (.9. (4

7 J Fehler des Netzes Lernschritte 4 Abbildung 7: Zwei Lernprozesse mit verschieden initialisierten Gewichten x2.6.8 x x (a Ungelerntes Netz (b Gelerntes Netz Abbildung 8: Das XOR-Netz vor nach dem Lernen z z.5 x2 Mit diesen neuen Gewichten dem Eingang x verbessert sich das Netz von z.35 auf z. Mit weiteren Lernschritten passt sich das Netz immer weiter dem geforderten Ausgabewert eins an. Natürlich müssen alle Eingabemuster trainiert werden, nicht nur x, um einen Lernerfolg zu erzielen. In diesem Fall müssen alle vier Kombinationen trainiert werden. V. AUSWERTUNG Ich habe eine Implementierung in Ruby erstellt, auf Basis linearer Algebra. Als einfache Beispielaufgabe für das neuronale Netz habe ich die XOR-Funktion von zwei Bits verwendet. Dies ist eigentlich keine Aufgabe, die an ein neuronales Netz gestellt wird. Für die XOR-Funktion wird die Modulo Funktion verwendet. Die Wirkungsweise lässt sich an diesem Beispiel aber gut erkennen. Konkret habe ich dafür ein dreischichtiges Netz verwendet. Die Eingabe besteht aus zwei Bits ( oder, also ein Vektor der Länge zwei. Die versteckte Schicht besteht ebenfalls aus zwei Zellen die Ausgabeschicht aus einer Zelle. Die Ausgabezelle soll feuern wenn die XOR-Funktion der Eingabebits eins ergibt. VI. ZUSAMMENFASSUNG UND AUSBLICK In dieser Arbeit habe ich versucht neuronale Netze verständlicher zu machen habe kurz einen geschichtlichen Überblick über das Thema neuronale Netze gegeben. Der Schwerpunkt dieser Arbeit liegt auf den Lernalgorithmus Backpropagation. Dazu habe ich ihn mathematisch hergeleitet durch Algorithmen die Funktionsweise gezeigt. Dazu habe ich ein Rechenbeispiel mit konkreten Zahlen eingefügt. Die korrekte Funktionsweise des Algorithmus habe ich durch ein selbst implementiertes Rubyskript nachgeprüft. Der Leser sollte also in der Lage sein mit diesem Wissen selbst ein neuronales Netz zu implementieren zu verstehen wie es funktioniert. Das dazu in dieser Arbeit verwendete Netz, gehört zu den einfacheren neuronalen Netzen, welches aber trotzdem gute Ergebnisse liefert. Für komplexere Aufgaben kann es aber notwendig werden zu anderen besseren Netzen zuzugreifen. LITERATUR [] W. S. McCulloch and W. Pitts, A logical calculus of the ideas immanent in nervous activity, Bulletin of Mathematical Biology, vol. 5, no. 4, pp. 5 33, Dec [2] P. Schmitz, Neuronale Netze. Viviane Wolff Verlag, 99. [3] R. O. Duda, P. E. Hart, and D. G. Stork, Pattern Classification (2nd edition. John Wiley and Sons, 22. In Abbildung 7 sind zwei Lernprozesse mit zufällig initialisierten Gewichten dargestellt. Es ist zu sehen, dass je nach Initialisierung, das Netz schneller oder langsamer eine gewünschte Güte erreicht. In Abbildung 8 ist die Ausgabe vor dem Lernen (Abb. 8a nach dem Lernen (Abb. 8b zu sehen. Da die Gewichte zu Beginn gleich verteilt sind, liefert das Netz als Ausgabe fast eine Ebene. Nach dem Lernen sind die Gewichte nicht mehr gleich verteilt, die Ergebnisebene wird gekrümmt, um die Einteilung in die verschiedenen Klassen zu ermöglichen. Der Sattel der XOR-Funktion ist erkennbar. Bei (, (, ist die Ausgabe nahe Null bei (, (, liefert das Netz fast Eins, so wie es gewünscht ist. Dazwischen ist ein fließender Übergang keine scharfe Grenze.

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Neuronale Netze. Seminar aus Algorithmik Stefan Craß, Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Problemreduktion durch Transformation am Beispiel des. Erweiterten Euklidschen Algorithmus

Problemreduktion durch Transformation am Beispiel des. Erweiterten Euklidschen Algorithmus Problemreduktion durch Transformation am Beispiel des Erweiterten Euklidschen Algorithmus Wolfgang Windsteiger JKU Linz, A 4040 Linz, Austria Kurzfassung Transformation beschreibt im Wesentlichen die algorithmische

Mehr

Universität Klagenfurt

Universität Klagenfurt Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Einführung in die Informatik Turing Machines

Einführung in die Informatik Turing Machines Einführung in die Informatik Turing Machines Eine abstrakte Maschine zur Präzisierung des Algorithmenbegriffs Wolfram Burgard Cyrill Stachniss 1/14 Motivation und Einleitung Bisher haben wir verschiedene

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Eine kleine Einführung in neuronale Netze

Eine kleine Einführung in neuronale Netze Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Numerische Ableitung

Numerische Ableitung Numerische Ableitung Die Ableitung kann angenähert werden durch den Differentenquotient: f (x) f(x + h) f(x) h oder f(x + h) f(x h) 2h für h > 0, aber h 0. Beim numerischen Rechnen ist folgendes zu beachten:

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche

Mehr

8 Extremwerte reellwertiger Funktionen

8 Extremwerte reellwertiger Funktionen 8 Extremwerte reellwertiger Funktionen 34 8 Extremwerte reellwertiger Funktionen Wir wollen nun auch Extremwerte reellwertiger Funktionen untersuchen. Definition Es sei U R n eine offene Menge, f : U R

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J}

f(x, y) = 0 Anschaulich bedeutet das, dass der im Rechteck I J = {(x, y) x I, y J} 9 Der Satz über implizite Funktionen 41 9 Der Satz über implizite Funktionen Wir haben bisher Funktionen g( von einer reellen Variablen immer durch Formelausdrücke g( dargestellt Der Zusammenhang zwischen

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

auch: Konnektionismus; subsymbolische Wissensverarbeitung

auch: Konnektionismus; subsymbolische Wissensverarbeitung 10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

weitere Modelle und Methoden

weitere Modelle und Methoden weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Die Erweiterung vom Satz des Pythagoras anhand der resultierenden Kraft FR

Die Erweiterung vom Satz des Pythagoras anhand der resultierenden Kraft FR Michael B. H. Middendorf 1 Die Erweiterung vom Satz des Pthagoras anhand der resultierenden Kraft FR Bei meinen Überlegungen als Maschinenbauer bzgl. eines Impulsantriebes, stieß ich auf das Problem, ständig

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme

Mehr

Inhalt. 1. Einführung in die Informatik. 2. Algorithmen Definition, Eigenschaften, Entwurf Darstellung von Algorithmen Beispiele.

Inhalt. 1. Einführung in die Informatik. 2. Algorithmen Definition, Eigenschaften, Entwurf Darstellung von Algorithmen Beispiele. 1. Einführung in die Informatik Inhalt 2. Algorithmen Definition, Eigenschaften, Entwurf Darstellung von Algorithmen Beispiele Peter Sobe 1 Einführende Beispiele 2. Algorithmen Täglich werden Verarbeitungsvorschriften

Mehr

Kurvendiskussion. Gesetzmäßigkeiten. Lineare Funktionen. Funktionsgleichung

Kurvendiskussion. Gesetzmäßigkeiten. Lineare Funktionen. Funktionsgleichung Kurvendiskussion Gesetzmäßigkeiten Lineare Funktionen Funktionsgleichung y = mx + c m: Steigung c: y-achsenabschnitt (Funktionswert für y, bei dem der Graph die y-achse schneidet Beispiel : y = x 3 mit

Mehr

Digitale Systeme und Schaltungen

Digitale Systeme und Schaltungen Zusammenfassung meines Vortrages vom 26. Jänner 2017 Digitale Systeme und Schaltungen Andreas Grimmer Pro Scientia Linz Johannes Kepler Universität Linz, Austria andreas.grimmer@jku.at In dieser Zusammenfassung

Mehr

KNN für XOR-Funktion. 6. April 2009

KNN für XOR-Funktion. 6. April 2009 KNN für XOR-Funktion G.Döben-Henisch Fachbereich Informatik und Ingenieurswissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

LOOP-Programme: Syntaktische Komponenten

LOOP-Programme: Syntaktische Komponenten LOOP-Programme: Syntaktische Komponenten LOOP-Programme bestehen aus folgenden Zeichen (syntaktischen Komponenten): Variablen: x 0 x 1 x 2... Konstanten: 0 1 2... Operationssymbole: + Trennsymbole: ; :=

Mehr

Einführung in die Informatik I

Einführung in die Informatik I Einführung in die Informatik I Fortgeschrittene Rekursion Prof. Dr. Nikolaus Wulff Problematische Rekursion Mittels Rekursion lassen sich Spezifikationen recht elegant und einfach implementieren. Leider

Mehr

Die Taylorreihe einer Funktion

Die Taylorreihe einer Funktion Kapitel 6 Die Taylorreihe einer Funktion Dieser Abschnitt beschäftigt sich mit Taylorreihen, Taylorpolynomen und der Restgliedabschätzung für Taylorpolynome. Die Taylorreihe einer reellen Funktion ist

Mehr

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

Multi-Layer Neural Networks and Learning Algorithms

Multi-Layer Neural Networks and Learning Algorithms Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

16. FUNKTIONEN VON MEHREREN VARIABLEN

16. FUNKTIONEN VON MEHREREN VARIABLEN 16. FUNKTIONEN VON MEHREREN VARIABLEN 1 Reelle Funktionen auf dem R 2 Wir betrachten Funktionen f(x 1, x 2 ) von zwei reellen Variablen x 1, x 2, z.b. f(x 1, x 2 ) = x 2 1 + x2 2, g(x 1, x 2 ) = x 2 1

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Lösungsvorschlag Serie 2 Rekursion

Lösungsvorschlag Serie 2 Rekursion (/) Lösungsvorschlag Serie Rekursion. Algorithmen-Paradigmen Es gibt verschiedene Algorithmen-Paradigmen, also grundsätzliche Arten, wie man einen Algorithmus formulieren kann. Im funktionalen Paradigma

Mehr

Informationsverarbeitung auf Bitebene

Informationsverarbeitung auf Bitebene Informationsverarbeitung auf Bitebene Dr. Christian Herta 5. November 2005 Einführung in die Informatik - Informationsverarbeitung auf Bitebene Dr. Christian Herta Grundlagen der Informationverarbeitung

Mehr

Dezimaldarstellung ganzer Zahlen (Division mit Rest) 1 Division mit Rest in der Hochschule

Dezimaldarstellung ganzer Zahlen (Division mit Rest) 1 Division mit Rest in der Hochschule Berufsfeldbezogenes Fachseminar - Zahlentheorie Lisa Laudan Prof. Dr. Jürg Kramer Wintersemester 2014/2015 Dezimaldarstellung ganzer Zahlen (Division mit Rest) 1 Division mit Rest in der Hochschule 1.1

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

Lösung zur Klausur zu Krypographie Sommersemester 2005

Lösung zur Klausur zu Krypographie Sommersemester 2005 Lösung zur Klausur zu Krypographie Sommersemester 2005 1. Bestimmen Sie die zwei letzten Ziffern der Dezimaldarstellung von 12 34 Es gilt: 12 34 = 12 32+2 = 12 32 12 2 = 12 (25) 12 2 = ((((12 2 ) 2 ) 2

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen

Mehr

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen. Simulation Neuronaler Netze Eine praxisorientierte Einführung Matthias Haun Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen expert Inhaltsverzeichnis 1 Einleitung 1.1 Über das Projekt 1 1.2 Über das

Mehr

Das negative Zweierkomplementzahlensystem. Ines Junold 23. Februar 2010

Das negative Zweierkomplementzahlensystem. Ines Junold 23. Februar 2010 Das negative Zweierkomplementzahlensystem Ines Junold 23. Februar 2010 1 Inhaltsverzeichnis 1 Einleitung 3 2 Das konventionelle Zweierkomplement 4 2.1 Definition.......................................

Mehr

18 Höhere Ableitungen und Taylorformel

18 Höhere Ableitungen und Taylorformel 8 HÖHERE ABLEITUNGEN UND TAYLORFORMEL 98 8 Höhere Ableitungen und Taylorformel Definition. Sei f : D R eine Funktion, a D. Falls f in einer Umgebung von a (geschnitten mit D) differenzierbar und f in a

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Jan Parthey, Christin Seifert. 22. Mai 2003

Jan Parthey, Christin Seifert. 22. Mai 2003 Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.

Mehr

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Stephan Ruttloff 1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Verwendungsweise 6. Quellen Was sind neuronale

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $

$Id: linabb.tex,v /01/09 13:27:34 hk Exp hk $ Mathematik für Ingenieure I, WS 8/9 Freitag 9. $Id: linabb.tex,v.3 9//9 3:7:34 hk Exp hk $ II. Lineare Algebra 9 Lineare Abbildungen 9. Lineare Abbildungen Der folgende Satz gibt uns eine einfachere Möglichkeit

Mehr

LINEARE GLEICHUNGSSYSTEME. Wir besprechen hier, wie MathematikerInnen an das Lösen linearer Gleichungssysteme wie. x + y + z = 1

LINEARE GLEICHUNGSSYSTEME. Wir besprechen hier, wie MathematikerInnen an das Lösen linearer Gleichungssysteme wie. x + y + z = 1 LINEARE GLEICHUNGSSYSTEME 1. Ein kurzes Vorwort Wir besprechen hier, wie MathematikerInnen an das Lösen linearer Gleichungssysteme wie 2 x 1 + 2 x 2 = 3 6 a + 4 b = 3 (a) (b) 4 x 1 + 3 x 2 = 8 3 a + 2

Mehr

Die Regeln von de l Hospital

Die Regeln von de l Hospital Die Regeln von de l Hospital Von Florian Modler Guillaume Francois Antoine de l Hospital war ein französischer Mathematiker und Aristokrat. Er wurde 66 geboren und verstarb 704 im Alter von 43 Jahren.

Mehr

Numerisches Programmieren, Übungen

Numerisches Programmieren, Übungen Technische Universität München SS 2012 Institut für Informatik Prof. Dr. Thomas Huckle Dipl.-Inf. Christoph Riesinger Dipl.-Math. Alexander Breuer Dipl.-Math. Dipl.-Inf. Jürgen Bräckle Dr.-Ing. Markus

Mehr

Vorab : Von dem indischen Mathematiker D. R. Kaprekar stammt folgender Zusammenhang :

Vorab : Von dem indischen Mathematiker D. R. Kaprekar stammt folgender Zusammenhang : Seite 1 Algorithmen zur Erzeugung von Kaprekar- Konstanten Autor : Dipl.- Ing. Josef Meiler ; Datum : März 015 Vorab : Von dem indischen Mathematiker D. R. Kaprekar stammt folgender Zusammenhang : a) man

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

Polynome. Michael Spielmann. 1 ganzrationale Funktionen, Polynome 1. 2 Kurvenverlauf 1. 3 Symmetrie 2. 4 Nullstellen und Linearfaktoren 3

Polynome. Michael Spielmann. 1 ganzrationale Funktionen, Polynome 1. 2 Kurvenverlauf 1. 3 Symmetrie 2. 4 Nullstellen und Linearfaktoren 3 Polnome Michael Spielmann Inhaltsverzeichnis ganzrationale Funktionen, Polnome Kurvenverlauf Smmetrie Nullstellen und Linearfaktoren 5 Polnomdivision 6 Kurvenverlauf an Nullstellen 5 7 Nullstellen und

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Neuronale Netze in der Robotik

Neuronale Netze in der Robotik Seminarvortrag Neuronale Netze in der Robotik Datum: 18.01.2002 Vortragende: Elke von Lienen Matrikelnummer: 302489 Studiengang: Informatik Inhaltsverzeichnis Einleitung 3 Biologisches Vorbild 4 Künstliche

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz

Mehr

Dynamisches Huffman-Verfahren

Dynamisches Huffman-Verfahren Dynamisches Huffman-Verfahren - Adaptive Huffman Coding - von Michael Brückner 1. Einleitung 2. Der Huffman-Algorithmus 3. Übergang zu einem dynamischen Verfahren 4. Der FGK-Algorithmus 5. Überblick über

Mehr

Übungen mit dem Applet Interpolationspolynome

Übungen mit dem Applet Interpolationspolynome Interpolationspolynome 1 Übungen mit dem Applet Interpolationspolynome 1 Ziele des Applets... 2 2 Übungen mit dem Applet... 2 2.1 Punkte... 3 2.2 y=sin(x)... 3 2.3 y=exp(x)... 4 2.4 y=x 4 x 3 +2x 2 +x...

Mehr

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle

Mehr

Einführung in die Theorie der Markov-Ketten. Jens Schomaker

Einführung in die Theorie der Markov-Ketten. Jens Schomaker Einführung in die Theorie der Markov-Ketten Jens Schomaker Markov-Ketten Zur Motivation der Einführung von Markov-Ketten betrachte folgendes Beispiel: 1.1 Beispiel Wir wollen die folgende Situation mathematisch

Mehr

1. Einleitung wichtige Begriffe

1. Einleitung wichtige Begriffe 1. Einleitung wichtige Begriffe Da sich meine besondere Lernleistung mit dem graziösen Färben (bzw. Nummerieren) von Graphen (speziell von Bäumen), einem Teilgebiet der Graphentheorie, beschäftigt, und

Mehr

Rückblick auf die letzte Vorlesung. Bemerkung

Rückblick auf die letzte Vorlesung. Bemerkung Bemerkung 1) Die Bedingung grad f (x 0 ) = 0 T definiert gewöhnlich ein nichtlineares Gleichungssystem zur Berechnung von x = x 0, wobei n Gleichungen für n Unbekannte gegeben sind. 2) Die Punkte x 0 D

Mehr

Rand der Fläche = Linie. suggestive Notation. "Zirkulation pro gerichteter Fläche" Vorschau: Eine komplexe Funktion sei nur von der Kombination

Rand der Fläche = Linie. suggestive Notation. Zirkulation pro gerichteter Fläche Vorschau: Eine komplexe Funktion sei nur von der Kombination Zusammenfassung: Satz von Stokes Satz v. Stokes: Flussintegral der Rotation = Linienintegral Fläche Rand der Fläche = Linie Symbolisch: suggestive Notation Geometrische Definition der Rotation: "Zirkulation

Mehr

Bildverarbeitung Herbstsemester. Mustererkennung

Bildverarbeitung Herbstsemester. Mustererkennung Bildverarbeitung Herbstsemester Herbstsemester 2009 2012 Mustererkennung 1 Inhalt Einführung Mustererkennung in Grauwertbildern Ähnlichkeitsmasse Normalisierte Korrelation Korrelationskoeffizient Mustererkennung

Mehr

Technische Universität München Zentrum Mathematik. Übungsblatt 4

Technische Universität München Zentrum Mathematik. Übungsblatt 4 Technische Universität München Zentrum Mathematik Mathematik (Elektrotechnik) Prof. Dr. Anusch Taraz Dr. Michael Ritter Übungsblatt 4 Hausaufgaben Aufgabe 4. Gegeben sei die Funktion f : D R mit f(x) :=

Mehr

Einführung in. Neuronale Netze

Einführung in. Neuronale Netze Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:

Mehr