Adaptive Resonance Theory [ART] - Ein neuer Ansatz lernender Computer -

Größe: px
Ab Seite anzeigen:

Download "Adaptive Resonance Theory [ART] - Ein neuer Ansatz lernender Computer -"

Transkript

1 Pro Seminar im Grundstudium - Neuroinformatik: Adaptive esonance Theory [AT] - Ein neuer Ansatz lernender Computer - Author: Alexander-Marc Merten Fachsemester: 3 Holzsteige Dornstadt am18@informatik.uni-ulm.de Einleitung: AT wurde 1976 von Stephen Grossberg und Gail Carpenter an der Boston University entwickelt. Stephen Grossberg ist Professor der Mathematik, Psychologie und des biomedical Engineering [3]. Der Begriff AT steht nicht für ein einzelnes Modell neuronaler Netze, sondern meint vielmehr eine Familie von Modellen, deren Ziel es, die Art und Weise nachzubilden, wie das menschliche Gehirn Informationen verarbeitet. Von den bisherigen Vorträgen kennen wir die Konzepte des überwachten und des unüberwachten Lernens. AT fällt in letztere Kategorie, und muss sich demzufolge auch mit dem Stabilitäts-Plastizitäts-Dilemma (SPD) auseinandersetzen. Im Folgenden sei diese Problematik noch einmal beschrieben: Ein bereits stabiles System das alle seine Eingabevektoren erkennt und korrekt zuordnet, wird durch die Eingabe eines neuen, noch unbekannten Vektors destabilisiert, so dass alle Vektoren neu geprüft und gegebenenfalls neu erlernt werden müssen. Bezogen auf das Vorbild des menschlichen Lernverhaltens, erkennt man ferner, dass hier eine große Lücke zur Wirklichkeit klafft. In der realen Welt tritt eine einzelne Trainingssituation selten mehr als einmal in derselben Form auf. Eben so wenig wie eine neue Situation altes Wissen völlig zerstören darf. Im Gegensatz zu anderen Modellen, wie zum Beispiel den Perzeptronen, ist es AT Architekturen jedoch möglich, das SPD zu lösen. Es ist ihnen also möglich neue Assoziationen zu erlernen (Plastizität), ohne dabei alte Assoziationen zu vergessen (Stabilität). AT Netzwerke bilden folglich beide Seiten des Lernens nach, ohne dabei zu vergesslich zu werden oder ihre Anpassungsfähigkeit zu verlieren. AT Netze sind Architekturen, die insbesondere geeignet sind, um Aufgaben zu lösen die das Clustern einer Menge von Eingabevektoren verlangen. Die mathematischen Zusammenhänge und Vorgänge innerhalb eines AT Netzwerkes sind relativ komplex und umfangreich. Sie werden im Folgenden vereinfacht dargestellt. 1

2 Übersicht: Hier einige der bekannteren Vertreter der AT Architektur. AT 1 (1976) Die ursprüngliche Version der AT Architektur, welche nur binäre Eingabevektoren verarbeiten kann. AT 2 (1987) Eine Erweiterung der AT 1 Architektur. Es ist nun möglich, analoge Eingabevektoren kontinuierlich zu verarbeiten. Fuzzy AT (1991) Eine Kombination aus Fuzzy Logik und AT. Simplified Fuzzy AT MAP Eine starke Vereinfachung des Fuzzy AT MAP Modells, bei der nur geringfügige Einstellungen von Nöten sind [7]. Weitere bekannte Modelle, die im Weiteren jedoch keine Erwähnung finden werden: AT 2a (1991) Eine Vereinfachung der AT 2 Architektur, um eine schnellere Konvergenz des neuronalen Netzes beim Lernen zu ermöglichen. AT 3 (1990) Zusätzliche Erweiterung der AT 2 Architektur, um zeitliche und chemische Vorgänge besser modellieren zu können. AT MAP (1991) eine alternative Variante des AT Modells, welche ein überwachtes Lernverfahren verwendet. Die Architektur besteht aus 2 miteinander kombinierten AT Netzen. Bis auf AT MAP und dessen Erweiterungen (z.b. simplified fuzzy AT MAP) sind alle bisher vorgestellten Versionen des AT Modells unüberwacht. 1. AT Architekturen Im Folgenden wird nun auf die verschiedenen AT Architekturen, deren Besonderheiten und Arbeitsweisen eingegangen. Dabei soll erklärt werden, wie ein AT Netzwerk in der Lage ist das Stabilitäts-Plastizitäts-Dilemma (SPD) zu lösen. 1.1 AT 1 [5]: Erkennungsschicht (recognition layer), F 2-Schicht + + j - Gain g2 U T eelwertige Gewichtsmatrix B ij Gain g1 Binäre Gewichtsmatrix T ji (Top down Matrix) V i (Bottom up Matrix) S - Vergleichsschicht comparison layer F 1-Schicht eset + Toleranz (vigilance) Eingabevektor (binär) I Abb. 1: Überblick über die AT 1 Architektur 2

3 1.1.1 Allgemeines: Der Lernalgorithmus eines AT 1 Netzes sieht wie folgt aus: Zu Anfang hat jedes neuronale Netz eine gewisse Anzahl an freien Neuronen, die als Knoten für die Klassifizierung der Eingabevektoren dienen. Liegt kein Eingangsvektor an, so verharrt das neuronale Netz in einem passiven uhezustand und wartet auf seine Aktivierung von außerhalb. Sobald ein Eingabevektor anliegt, wird er in das Netz gespeist und eine Suche unter den bereits bestehenden Knoten (Kategorien) gestartet. Sollte ein Vektor keinem Knoten ähnlich genug sein, um sie auswählen zu können, so wird eine neuer Knoten für diese Eingabe erstellt und mit ihr initialisiert. Wird jedoch ein Knoten gefunden, der unter der vorgegebenen Toleranz passend ist, so wird dieser leicht modifiziert um der Eingabe ähnlicher zu werden Sind keine freien Neuronen mehr vorhanden, um eine neue Kategorie einzurichten, so ist es nur noch möglich bereits bestehende Knoten zu modifizieren, aber neues Wissen kann nicht mehr erlernt werden Architektur - Übersicht: Vergleichsschicht comparison layer (F 1 ): Jedes Neuron der Vergleichsschicht besitzt 3 Eingänge, die steuern ob das jeweilige Neuron feuert oder nicht. Dabei wird nach der so genannten 2/3 egel verfahren: Nur wenn 2 der 3 Eingänge aktiv sind, findet eine Aktivierung statt. Wie im Folgenden gezeigt werden wird, ist es nicht möglich, das alle 3 Eingänge gleichzeitig aktiv sein können (s ). Die Eingänge sind, analog zur obigen Abbildung: I i Komponente des Eingabevektors, g1 Verstärkungssignal (liegt bei allen Neuronen gleich an. Siehe Gain und eset ), V j Komponente der gewichteten Summe der Antwort der Erkennungsschicht. Erkennungsschicht recognition layer (F 2 ): Die Erkennungsschicht erhält den Eingabevektor von der Vergleichsschicht, und bestimmt die jeweils passende Kategorie. Dies geschieht durch den direkten Vergleich der Skalarprodukte des Vektors I, der über S nach oben gereicht wird, und der Gewichtsmatrix B i, wobei das Neuron mit dem maximalen Ergebnis gewinnt. Sollten 2 Neuronen dasselbe Skalarprodukt erhalten, wird das Neuron mit dem niedrigsten Index ausgewählt. So wird gewährleistet, dass immer nur ein Neuron gleichzeitig feuern kann, während alle anderen Neuronen unterdrückt werden. Gain (g1, g2) und eset: Das Konzept der Verstärkungsvektoren wurde eingeführt, um eine Synchronisierung im Netz zu erreichen. Während g2 eine Aktivierung der Erkennungsschicht nur gestattet, falls ein Vektor an das Netz angelegt ist, steuert g1 die Aktivierung der Neuronen der Vergleichsschicht, gemäß der oben beschriebener 2/3 egel. Die eset Komponente hingegen widerruft fehlerhafte Zuweisungen. Es gilt: g1 = 1, wenn mindestens eine Komponente von I = 1 und keine Komponente von U = 1, g2 = 1, wenn mindestens eine Komponente von I = 1, eset = 1, wenn S und I (in der Vergleichsphase) um mehr als den Toleranzparameter unterscheiden. Gewichtsmatrizen B und T: Im Gegensatz zu anderen Architekturen auf dem Gebiet der neuronalen Netze, wie zum Beispiel den Perzeptronen, verfügt die AT Architektur über eine Hin- und ückrichtung zwischen den einzelnen Schichten. Die Bottom-Up Matrix B liefert die Verknüpfung der Neuronen in der Vergleichsschicht mit denen der Erkennungsschicht, während die Top- Down Matrix T die Verbindungen in ückrichtung liefert. 3

4 1.1.3 Adaptionsverlauf: Bevor es dem Netz möglich ist zu lernen, muss als erstes eine Initialisierung stattfinden: Setzen des Toleranzwertes ñ (ho) Der Toleranzwert wird zwischen 0 und 1 gewählt. Dabei gilt: je größer der Wert, desto kleiner wird der Bereich den eine Kategorie umfassen kann, die Clusterung wird also feiner. Es werden also mehr Kategorien erstellt. Ein niedriger Wert hingegen sorgt für eine gröbere Klassifizierung. Meist werden hier Werte zwischen 0,7 und 0,99 benutzt. Setzen der Werte der Top-Down Matrix T ji Alle Werte dieser Matrix werden zu Beginn auf 1 gesetzt. Sie werden im späteren Adaptionsverlauf an ihr jeweilig repräsentiertes Muster angepasst. Setzen der Werte der Bottom-Up Matrix B ij Alle Werte dieser Matrix werden auf denselben niedrigen Wert gesetzt, welcher diese Ungleichung erfüllen muss: b ij < L / (L-1+m) < 1 Wobei L eine Konstante > 1 ist (meist 2) und m die Anzahl der Komponenten des Eingabevektors. Wurde das neuronale Netz initialisiert, kann der weitere Adaptionsverlauf in 4 aufeinander folgende Phasen unterteilt werden. 1. Erkennung (recognition) / Matching Zu Begin liegt der Nullvektor an I an, wodurch g1 und g2 null sind. Das Netzwerk ist also inaktiv. Sobald jedoch ein vom Nullvektor verschiedener Eingabevektor angelegt wird, werden beide Gain-Faktoren auf 1 gesetzt. Nach der 2/3 egel können nun alle Neuronen der Vergleichsschicht feuern, deren Komponente des Eingabevektors 1 ist. Es entsteht ein genaues Abbild von I, das über S nach oben propagiert wird. Über S und B J wird nun das Skalarprodukt für jedes Neuron der Erkennungsschicht gebildet. Das Neuron mit dem größten Wert wird als Gewinner ausgewählt und aktiviert, während alle anderen Neuronen unterdrückt, und auf 0 gesetzt werden. Dadurch ist nur eine einzelne Komponente u J des Vektors U gleich Vergleich (comparison) Über die Top-Down Gewichtsmatrix und den Vektor U werden nun genau die binären Gewichte des Neurons an die Vergleichsschicht weitergegeben, das den Vergleich gewonnen hat. Gleichzeitig jedoch fällt g1 auf 0, so das nun nur noch alle Neuronen der Vergleichsschicht feuern können, bei denen gilt: u i = I i = 1 (2/3 egel). Weicht U stark von I ab, so hat S an vielen Stellen eine 0, wo der Eingabevektor I hingegen eine 1 hat. Ist die Abweichung so groß das sie die Toleranz überschreitet, so wird ein eset ausgelöst und das Netz geht in die Such Phase über.. Andernfalls beginnt das Netzwerk direkt mit der Adaptionsphase. Für die Auslösebedingung des esets gilt: S / I < vigilance 3. Suche (search) Durch den eset wird das bisherige Gewinnerneuron permanent unterdrückt, wodurch U auf 0 fällt und g1 damit wieder 1 werden kann. Folglich wird der Eingabevektor wieder unverändert über S nach oben propagiert. Es gewinnt nun ein anderes Neuron, das sein Muster an die Vergleichsschicht zurückliefern kann. Es folgen erneut alle Schritte wie in Phase 2 beschrieben. Dies setzt sich solange fort, bis einer von zwei Fällen eintritt: Ein Muster wird gefunden, das ähnlich genug ist, um der Toleranzanforderung zu genügen: Beginn der Adaptionsphase. Kein Muster wird gefunden, das ähnlich genug ist: ein bisher unbenutztes Neuron der Erkennungsschicht wird ausgewählt und mit den Werten des Eingabevektors initialisiert. Alle permanent unterdrückten Neuronen werden anschließend wieder freigegeben. 4

5 4. Adaption (training) Zwei verschiedene Arten des Lernens werden unterschieden: Slow Learning bezeichnet das Verfahren, bei dem sich die Gewichte anhand von Differentialgleichungen, langsam ihrem asymptotischen Wert annähren. Der Eingabevektor bleibt jedoch nicht lange genug angelegt, so dass es dem Netzwerk möglich wäre diesen Grenzwert bei der Anpassung an einen einzelnen Vektor zu erreichen. Erst nach mehreren Iterationen des gleichen Vektors kann dies geschehen. Dagegen werden die Gewichte beim Fast Learning, direkt auf diesen asymptotischen Wert angepasst. Wir wollen im Folgenden nur diese Art des Lernens betrachten: Die Gewichte der Bottom-Up Matrix werden auf normalisierte Werte des Vektors S gesetzt, während die Gewichte der Top-Down Matrix dem Vektor S angepasst werden. Zudem sorgt der Lernalgorithmus dafür, dass der Top-Down Gewichtsvektor immer das binäre Abbild des reelwertigen Bottom-Up Vektors ist. Sprich W Ji = 1, falls W ij > 0 F 2 F 2 F 1 F 1 I I Abb. 2.1: Phase 1. Vektor wird hochgereicht. Abb. 2.2: Phase 1. Ein Neuron wird aktiviert F 2 F 2 F 1 F 1 I I Abb. 2.3: Phase 1. Das aktivierte Neuron gibt seinen Gewichtsvektor zu F 1 Abb. 2: Verlauf von Phase 1 und Phase 2 Abb 2.4: Phase 2. In F 1 entsteht der Vergleichsvektor und eset wird ausgelöst Im Verlauf des Lernprozesses wird der Ergebnisraum, also die Menge aller möglichen Eingabevektoren, immer besser ausgefüllt, bis die Kategorien zusammen jeden möglichen Vektore klassifizieren Fast Learning vs. Slow Learning: Netzwerke die Fast Learning benutzen, füllen ihren Ergebnisraum wesentlich schneller, als es ein vergleichbares Netzwerk mit Slow Learning schaffen würde. Vektoren die selten anliegen können schneller klassifiziert werden, und der stabile Zustand wird schneller erreicht. Es kann andererseits jedoch, bedingt durch die schnelle Aufteilung des Ergebnisraumes, zu einer unerwünscht groben Clusterung der Eingaben kommen. Hier liegen die Vorteile des Slow Learning: durch die langsame Adaption der Gewichte wird der Ergebnisraum langsamer gefüllt, und es können mehr und feinere Kategorien entstehen. Das fast-commit, slow-recode Verfahren (siehe Fuzzy AT) kombiniert die Vorteile beider Lernalgorithmen. 5

6 1.1.5 Betrachtung zu AT 1: Es konnte bewiesen werden, dass die AT 1 Architektur folgende Eigenschaften erfüllt: Der Trainingsprozess terminiert Das Training ist stabil. Es kann zu keinem Umschalten des Gewinner Neurons während der Trainingsphase kommen. Wiederholte Folgen von Eingabevektoren können das System nicht in einen Zyklus führen. Direct Access: ist das Training stabilisiert, so aktiviert ein bereits bekannter Trainingsvektor immer direkt das richtige Neuron der Erkennungsschicht. Es findet keine Suche statt. 1.2 Fuzzy AT [6]: Um die Funktionsweise von Fuzzy AT zu verstehen, müssen erst zwei neue Hilfsmittel eingeführt werden, die in dieser Architektur zum Einsatz kommen: Theorie der Fuzzy Mengen Die bisher vorgestellte AT 1 Architektur verarbeitet nur binäre Vektoren. Es gibt jedoch viele Problemstellungen die es erforderlich machen, kontinuierliche Werte, also Werte in einem bestimmten Intervall, zuzulassen. Die Theorie der Fuzzy Mengen benutzt als Grundmenge das Intervall [0,1], und formalisiert egeln und Operatoren auf ihr. Damit ist eine mathematische Grundlage für die Anwendung der AT Architektur auf einen kontinuierlichen Wertebereich gegeben. Der Operator Fuzzy AND, der im Folgenden noch eine wichtige olle spielt, wird wie folgt ausgedrückt: (A ^ B) i = min(a i, B i) [4]. Komplementäre Kodierung (complement coding) Das Vorgehen bei der komplementären Kodierung eines Vektors ist wie folgt: Zuerst wird die Länge des Vektors verdoppelt, dann werden die komplementären Werte des ursprünglichen Vektors an die neuen Stellen des kodierten Vektors eingesetzt. Der Vektor wird dabei automatisch normiert. Es gilt: X cc = X X Beispiel: Ein Eingabevektor (0.9, 0.2, 0.0) würde Komplement kodiert wie folgt aussehen: (0.9, 0.2, 0.0, 0.1, 0.8, 1.0) Allgemeines: Die Fuzzy AT Architektur ist eine Kombination aus AT1 und Fuzzy Logik ist. Daher wollen wir uns im Folgenden auf die Erklärung der Unterschiede beschränken. Der erste Unterschied zwischen Fuzzy AT und AT1 besteht darin, dass alle logischen AND Operatoren durch den Fuzzy AND Operator ausgetauscht werden. Zudem sind alle Werte zwischen 0 und 1 (einschließlich) zugelassen. Generell kann man also sagen, dass die binäre Logik vollständig durch die Fuzzy Logik ersetzt wurde. Daraus ergibt sich ein Vorteil der Fuzzy Logik im Bezug auf AT ist: Gewichte können während des Trainings nur gleich bleiben oder kleiner werden können, aufgrund des Fuzzy ANDs. Die Gewichte jeder Kategorie konvergieren also gegen einen Wert, bis sie stabil die Kriterien beschreiben die ihre Kategorie charakterisieren. Graphisch lässt sich dies anhand eines Würfels veranschaulichen. Wird ein neuer Vektor in eine Kategorie eingeordnet, so vergrößert sich deren Würfel, der ihren Erfassungsraum umschreibt. Dies geschieht solange, bis alle Kategorien zusammen den Eingaberaum komplett ausfüllen. 6

7 Die olle des Toleranz Parameters kann dabei als eine Art Beschränkung für die Größe der einzelnen Würfel verstanden werden. 1 E 2 1 E 2 A v E 2 E E 1 XO A A ^ E A Abb. 3.1: Kategorie vor dem Hinzufügen des Vektors A Abb. 3.2: Kategorie nach dem Hinzufügen des Vektors A Abb. 3: geometrische Veränderung einer Kategorie bei Hinzufügen eines Vektors. Ein weiterer Unterschied von Fuzzy AT zu AT 1 ist, dass bei Initialisierung des Netzwerkes alle Einträge der beiden Gewichtungsmatrizen auf 1 gesetzt werden, während bei AT 1 die Werte der Bottom-Up Matrix auf einen gemeinsamen kleineren Wert gesetzt wurden. Zudem gibt es zwei weitere Parameter die das Verhalten des Netzwerkes beeinflussen: Auswahlparameter á (>0): Der Auswahl Parameter soll vor allem verhindern, das eine Division durch Null oder ein Zahlenüberlauf, bei der Auswahl einer Kategorie, stattfindet: N J = ( I ^ B J ) / ( á + B J ) Wobei I ein Eingabevektor ist, und J für eine ausgewählte Kategorie steht. N J bezeichnet den Vergleichswert einer Kategorie J, über den bestimmt wird, welches Neuron ausgewählt wird. Der Auswahlparameter wird auch konservative Grenze genannt. Dies rührt daher, dass in der Theorie oftmals der Fall á 0 betrachtet wird, und beim Schnellen Lernen dazu führt, dass häufiges Umkodieren der gespeicherten Muster vermieden wird. Dies rührt daher, dass die Kategorie gewählt wird, deren Gewichtsvektoren die größte Teilmenge von I besitzen. Diese Teilmengen bleiben dann unverändert während des Lernens. Sollten beim Auswahlvorgang mehr als ein Neuron das gleiche maximale Skalarprodukt errechnen, so wird das Neuron mit dem kleinsten Index aktiviert. Lernrate ç ( 1): Mit diesem Parameter kann die Lernrate des neuronalen Netzes bestimmt werden. Man kann also festlegen wie schnell sich die Gewichte ihren asymptotischen Werten, während der Adaptionsphase, nähren. Dabei ist die Wahl ç = 1 gleichbedeutend mit dem so genannten Fast Learning. Erwähnenswert ist zudem die fast-commit slow-recode Option eines Fuzzy AT Netzes. Dabei wird ç anfangs auf 1 gesetzt, um ein schnelles Zuweisen neuer Kategorien zu erlauben, und später verringert um die Möglichkeit der langsamen Umcodierung zu erhalten. 1.3 Simplified Fuzzy AT MAP (SFAM): Allgemeines: SFAM ist ein Netzwerk mit überwachtem Lernen, das sowohl das Verfahren der komplementären Codierung, als auch die Fuzzy Logik verwendet. Es existiert also ein Lehrersignal, das dem Netzwerk mitteilt, ob seine Entscheidungen bei der Auswahl einer Kategorie richtig waren. 7

8 Im Gegensatz zu den bisher vorgestellten Architekturen, bei denen eine umfangreiche Initialisierung dem eigentlichen Training vorausgehen musste, muss bei SFAM lediglich ein Parameter, die Toleranzschwelle ñ eingestellt werden. Stellt das Netzwerk während des Trainings fest, das der Toleranzparameter zu niedrig eingestellt ist, so dass es zu Fehlklassifizierungen kommt, passt das Netzwerk selbstständig den Toleranzparameter an. Wie sein Vorgänger, ist auch SFAM in der Lage nicht lineare Probleme zu erkennen und zu lösen, und erlernt mit der Zeit das Abbilden von Input zu gewissen Output Knoten Besonderheit: Teilt der Lehrer dem Netzwerk mit, dass eine erfolgreiche Klassifizierung fehlerhaft war, so kommt es zu einem so genannter category mismatch. In diesem Fall passt das System seine Toleranz automatisch auf einen Wert an, der verhindert, dass dieselbe Eingabe noch einmal der ausgewählten Kategorie zugewiesen werden kann. Die Kategorien werden also feiner, und der Eingabevektor muss einem anderen Neuron zugeordnet werden. 2 Einsatzgebiete von AT Netzwerken: Die zentrale Frage bei jeder neuen Technologie stellt sich auch für die AT Architektur. Wozu kann sie eingesetzt werden, und wo liegen ihre Stärken? Da die Stärken der AT Architektur in der Clusterung von Eingabevektoren liegt, können besonders Probleme der Kategorisierung oder Erkennung von Objekten oder Eigenschaften, mit ihrer Hilfe gelöst werden. Daher kommen AT-Netze unter anderem im militärischen Bereich zur Anwendung, z.b. bei der Ziel-, Sonar- und adarerkennung. Auch im Bereich der medizinischen Diagnose und der Analyse von Kardiogrammen und chemischen Stoffen sind sie im Einsatz. Weitere Anwendungsmöglichkeiten bestehen in der Unterschriften- / Gesicht-Erkennung, oboter Steuerung, DNA oder Musik Analyse, der Erkennung von 3D Objekten, seismische Sensoren, Wettervorhersagen und vielen weiteren Gebieten. Zudem kann man mit Hilfe der AT Prinzipien viele Vorgänge des menschlichen Gehirns besser verstehen. Es existieren bereits Studien darüber, inwiefern der Neokortex, ähnlich der AT Architektur, in Schichten unterteilt ist und vergleichbar zu den hier vorgestellten Grundregeln arbeitet. Weiterführende Literatur hierzu kann auf der offiziellen Seite von Stephen Grossberg gefunden werden [1]. 3 Zusammenfassung und Ausblick: Allen AT Netzen ist gemein, das sie das Stabilitäts-Plastizitäts-Dilemma lösen, indem sie den Algorithmus des unüberwachten Lernens anwenden. Mit der Zeit wurde die Grundarchitektur AT 1 um weitere Funktionalitäten erweitert, um so speziellere Aufgaben lösen zu können, dennoch blieb der Kern immer derselbe. Ein Muster wird erkannt, klassifiziert, und das bisher gelernte Wissen erweitert, ohne dabei altes Wissen zu überdecken oder zu zerstören. Doch nicht alleine das Lösen des SPDs macht die AT Architektur besonders. Es gelang mit Hilfe dieses neuen Modells die Mechanismen der Informationsverarbeitung im menschlichen Gehirn wirklichkeitsnäher auf Strukturen innerhalb eines Computers zu übertragen. Alleine die obige Aufzählung von Einsatzmöglichkeiten zeigt, wie vielschichtige die neuen Möglichkeiten und Anwendungsgebiete dieser Technologie sind. Wie vielfältig die Ausbaumöglichkeiten der ursprünglichen Idee sind, zeigen die vielen verschiedenen spezialisierten Modelle wie AT MAP, Fuzzy AT und AT3. So wird es nicht wundern, wenn auch in Zukunft weitere Entwicklungen auf diesem Sektor neue Anwendungsmöglichkeiten erschließen werden, und die Vorgänge innerhalb unserer Neuronen noch genauer nachzubilden vermögen. 8

9 4 Literatur: 1. : Offizielle Seite von Stephan Grossberg : Carpenter, G.A. and Grossberg, S. (2003). Adaptive resonance theory. In M.A. Arbib (Ed.), The Handbook of Brain Theory and Neural Networks, Second Edition, Cambridge, MA: MIT Press, : Vorlesungsskript der Universität Trier SS 2003 zum Thema AT 4. : weitergehende Informationen zum Thema Fuzzy Logik 5. A Zell. Simulation Neuronaler Netze. Addison-Wesley Kap AT-1: Klassifikation binärer Eingabemuster (Seite ) 6. A Zell. Simulation Neuronaler Netze. Addison-Wesley Kap Fuzzy AT (Seite ) 7. T. Kusuba. Simplified Fuzzy AT MAP. AI Expert 8 (Seite 18-25)

weitere Modelle und Methoden

weitere Modelle und Methoden weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Vorlesung Maschinelles Lernen II Dr. Theo Lettmann Oliver Kramer 22. Mai 2006 Überblick Grundlagen SOMs Anwendungen 2D-SOMs Neuronales Gas 2 Grundlagen der Neuronalen Informationsverarbeitung

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme

Ausarbeitung zum Modulabschluss. Graphentheorie. spannende Bäume, bewertete Graphen, optimale Bäume, Verbindungsprobleme Universität Hamburg Fachbereich Mathematik Seminar: Proseminar Graphentheorie Dozentin: Haibo Ruan Sommersemester 2011 Ausarbeitung zum Modulabschluss Graphentheorie spannende Bäume, bewertete Graphen,

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Beispiele zu den Verknüpfungs-Technologien-5.3.0

Beispiele zu den Verknüpfungs-Technologien-5.3.0 5.6.4. Beispiele zu den Verknüpfungs-Technologien-5.3.0 5.6.4. Beispiele zu den Verknüpfungs-Technologien Beispiel 1: Direkte Verknüpfungs-Technologie Wenn Sie diese Verknüpfungs-Technologie zwischen einer

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen. Simulation Neuronaler Netze Eine praxisorientierte Einführung Matthias Haun Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen expert Inhaltsverzeichnis 1 Einleitung 1.1 Über das Projekt 1 1.2 Über das

Mehr

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl.

Donnerstag, 11. Dezember 03 Satz 2.2 Der Name Unterraum ist gerechtfertigt, denn jeder Unterraum U von V ist bzgl. Unterräume und Lineare Hülle 59 3. Unterräume und Lineare Hülle Definition.1 Eine Teilmenge U eines R-Vektorraums V heißt von V, wenn gilt: Unterraum (U 1) 0 U. (U ) U + U U, d.h. x, y U x + y U. (U )

Mehr

Westfählische Wilhelms-Universität. Eulersche Graphen. Autor: Jan-Hendrik Hoffeld

Westfählische Wilhelms-Universität. Eulersche Graphen. Autor: Jan-Hendrik Hoffeld Westfählische Wilhelms-Universität Eulersche Graphen Autor: 21. Mai 2015 Inhaltsverzeichnis 1 Das Königsberger Brückenproblem 1 2 Eulertouren und Eulersche Graphen 2 3 Auffinden eines eulerschen Zyklus

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2009 / 2010 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

(Allgemeine) Vektorräume (Teschl/Teschl 9)

(Allgemeine) Vektorräume (Teschl/Teschl 9) (Allgemeine) Vektorräume (Teschl/Teschl 9) Sei K ein beliebiger Körper. Ein Vektorraum über K ist eine (nichtleere) Menge V, auf der zwei Operationen deniert sind, die bestimmten Rechenregeln genügen:

Mehr

Kleines Handbuch Neuronale Netze

Kleines Handbuch Neuronale Netze Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

1 Mengen. 1.1 Elementare Definitionen. Einige mathematische Konzepte

1 Mengen. 1.1 Elementare Definitionen. Einige mathematische Konzepte Einige mathematische Konzepte 1 Mengen 1.1 Elementare Definitionen Mengendefinition Die elementarsten mathematischen Objekte sind Mengen. Für unsere Zwecke ausreichend ist die ursprüngliche Mengendefinition

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

GEQ - Servermodus (SYNC)

GEQ - Servermodus (SYNC) GEQ - Servermodus (SYNC) 1. Funktionsweise und Grundprinzip Der GEQ Servermodus (SYNC) erlaubt es, Projekte die lokal bearbeitet werden auf dem Server zu sichern (synchronisieren). Zusätzlich können Projekte

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

3.4 Der Gaußsche Algorithmus

3.4 Der Gaußsche Algorithmus 94 34 Der Gaußsche Algorithmus Wir kommen jetzt zur expliziten numerischen Lösung des eingangs als eine Motivierung für die Lineare Algebra angegebenen linearen Gleichungssystems 341 n 1 a ik x k = b i,

Mehr

Elementare Beweismethoden

Elementare Beweismethoden Elementare Beweismethoden Christian Hensel 404015 Inhaltsverzeichnis Vortrag zum Thema Elementare Beweismethoden im Rahmen des Proseminars Mathematisches Problemlösen 1 Einführung und wichtige Begriffe

Mehr

Anforderungen: Management

Anforderungen: Management Anforderungen: Management Anforderungen: Management Der Begriff der Anforderungsanalyse ist grundsätzlich vom Begriff des Anforderungsmanagements zu trennen, obwohl beide Konzepte in vie l- fältiger Weise

Mehr

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data

Mehr

Diskrete und Schnelle Fourier Transformation. Patrick Arenz

Diskrete und Schnelle Fourier Transformation. Patrick Arenz Diskrete und Schnelle Fourier Transformation Patrick Arenz 7. Januar 005 1 Diskrete Fourier Transformation Dieses Kapitel erläutert einige Merkmale der Diskreten Fourier Transformation DFT), der Schnellen

Mehr

Palm conduit Konfigurations-Guide

Palm conduit Konfigurations-Guide Palm conduit Konfigurations-Guide Die Conduits für Termine, Kontakte und Aufgaben werden im Menü Benutzerdefiniert des HotSync-Managers konfiguriert. Bitte wählen Sie eins der drei SLOX Conduits aus und

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Seminar über aktuelle Forschungsthemen in der Algorithmik, Dozent Prof. Dr. Alt;

Seminar über aktuelle Forschungsthemen in der Algorithmik, Dozent Prof. Dr. Alt; Seminar über aktuelle Forschungsthemen in der Algorithmik, Dozent Prof. Dr. Alt Referent Matthias Rost 1 Einleitung Definitionen Maximaler Dynamischer Fluss Algorithmus von Ford-Fulkerson Techniken zur

Mehr

Vorlesung. Vollständige Induktion 1

Vorlesung. Vollständige Induktion 1 WS 015/16 Vorlesung Vollständige Induktion 1 1 Einführung Bei der vollständigen Induktion handelt es sich um ein wichtiges mathematisches Beweisverfahren, mit dem man Aussagen, die für alle natürlichen

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Jan Parthey, Christin Seifert. 22. Mai 2003

Jan Parthey, Christin Seifert. 22. Mai 2003 Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.

Mehr

Seminar zum Thema Künstliche Intelligenz:

Seminar zum Thema Künstliche Intelligenz: Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden

Mehr

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok

Kurs über Lineare Gleichungssysteme. PD Dr. Karin Halupczok Kurs über Lineare Gleichungssysteme PD Dr. Karin Halupczok Mathematisches Institut Albert-Ludwigs-Universität Freiburg http://home.mathematik.unifreiburg.de/halupczok/diverses.html karin.halupczok@math.uni-freiburg.de

Mehr

1.3.5 Clinical Decision Support Systems

1.3.5 Clinical Decision Support Systems Arzneimitteltherapie Thieme Verlag 1.3.5 Clinical Decision Support Systems Marco Egbring, Stefan Russmann, Gerd A. Kullak-Ublick Im Allgemeinen wird unter dem Begriff Clinical Decision Support System (CDSS)

Mehr

Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II

Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Zugriff auf Matrizen. Anhängen von Elementen. Punktweise Operatoren. Vektoren und Matrizen in MATLAB II Matrixzugriff Wir wollen nun unsere Einführung in die Arbeit mit Vektoren und Matrizen in MATLAB

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Jochen Weiß Inhaltsverzeichnis 1 Das menschliche Gehirn als Vorbild 2 2 Architektur einer SOM 3 2.1 Aufbau der Neuronenschichten 3 2.2 Gewichts- und Eingabevektor 3 3 Das Training

Mehr

Angewandte Informatik

Angewandte Informatik Angewandte Informatik Analyse des Graphs G zur Bestimmung von Parallel- undreihenschaltung Prof. Dr. Nikolaus Wulff Gewichteter Multigraph Die Adjazenzmatrix eines Graphen eignet sich auch zur Analyse

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

Problemreduktion durch Transformation am Beispiel des. Erweiterten Euklidschen Algorithmus

Problemreduktion durch Transformation am Beispiel des. Erweiterten Euklidschen Algorithmus Problemreduktion durch Transformation am Beispiel des Erweiterten Euklidschen Algorithmus Wolfgang Windsteiger JKU Linz, A 4040 Linz, Austria Kurzfassung Transformation beschreibt im Wesentlichen die algorithmische

Mehr

FRAKTALE. Eine Dokumentation von Dominik Assmann, Philipp Gewessler und Paul Maier

FRAKTALE. Eine Dokumentation von Dominik Assmann, Philipp Gewessler und Paul Maier FRAKTALE Eine Dokumentation von Dominik Assmann, Philipp Gewessler und Paul Maier I. Fraktale allgemein a. Mathematischer Algorithmus i. Komplexe Zahlen b. Konvergieren und Divergieren i. Bei Mandelbrotmengen

Mehr

Würfelspiele und Zufall

Würfelspiele und Zufall Würfelspiele und Zufall Patrik L. Ferrari 29. August 2010 1 Random horse die Irrfahrt des Pferdchens Betrachte ein Schachbrett mit einem Pferd (Springer), welches sich nach den üblichen Springer-Regeln

Mehr

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme

Newton-Verfahren zur gleichungsbeschränkten Optimierung. 1 Gleichungsbeschränkte Optimierungsprobleme Newton-Verfahren zur gleichungsbeschränkten Optimierung Armin Farmani Anosheh (afarmani@mail.uni-mannheim.de) 3.Mai 2016 1 Gleichungsbeschränkte Optimierungsprobleme Einleitung In diesem Vortrag geht es

Mehr

Triangulierung von einfachen Polygonen

Triangulierung von einfachen Polygonen Triangulierung von einfachen Polygonen Tobias Kyrion Inhaltsverzeichnis 1.1 Die Problemstellung....................... 1 2.1 Ein naiver Algorithmus...................... 2 3.1 Zerlegung in monotone Teilpolygone..............

Mehr

Datenstrukturen & Algorithmen

Datenstrukturen & Algorithmen Datenstrukturen & Algorithmen Matthias Zwicker Universität Bern Frühling 2010 Übersicht Dynamische Programmierung Einführung Ablaufkoordination von Montagebändern Längste gemeinsame Teilsequenz Optimale

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Systematisierungen mit Mindmaps

Systematisierungen mit Mindmaps Systematisierungen mit Mindmaps Neupärtl, A./Bruder, R. TUD 2005 Systematisieren ist für das Lernen von Mathematik von besonderer Bedeutung. In den Unterrichtssituationen der Zielorientierung/Motivierung,

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Im allerersten Unterabschnitt wollen wir uns mit einer elementaren Struktur innerhalb der Mathematik beschäftigen: Mengen.

Im allerersten Unterabschnitt wollen wir uns mit einer elementaren Struktur innerhalb der Mathematik beschäftigen: Mengen. Kapitel 1 - Mathematische Grundlagen Seite 1 1 - Mengen Im allerersten Unterabschnitt wollen wir uns mit einer elementaren Struktur innerhalb der Mathematik beschäftigen: Mengen. Definition 1.1 (G. Cantor.

Mehr

7 KONVERGENTE FOLGEN 35. inf M = Infimum von M. bezeichnet haben. Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt.

7 KONVERGENTE FOLGEN 35. inf M = Infimum von M. bezeichnet haben. Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt. 7 KONVERGENTE FOLGEN 35 und die größe untere Schranke mit bezeichnet haben. inf M = Infimum von M Definition. Sei (a n ) n N eine beschränkte Folge in R. Dann heißt der Limes superior der Folge, und lim

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Topologische Begriffe

Topologische Begriffe Kapitel 3 Topologische Begriffe 3.1 Inneres, Rand und Abschluss von Mengen Definition (innerer Punkt und Inneres). Sei (V, ) ein normierter Raum über K, und sei M V eine Menge. Ein Vektor v M heißt innerer

Mehr

9.2 Invertierbare Matrizen

9.2 Invertierbare Matrizen 34 9.2 Invertierbare Matrizen Die Division ist als Umkehroperation der Multiplikation definiert. Das heisst, für reelle Zahlen a 0 und b gilt b = a genau dann, wenn a b =. Übertragen wir dies von den reellen

Mehr

Skript 7 Kreuztabellen und benutzerdefinierte Tabellen

Skript 7 Kreuztabellen und benutzerdefinierte Tabellen Skript 7 Kreuztabellen und benutzerdefinierte Tabellen Ziel: Analysieren und verdeutlichen von Zusammenhängen mehrerer Variablen, wie z.b. Anzahlen pro Kategorien; Mittelwert und Standardabweichung pro

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Brückenkurs Mathematik

Brückenkurs Mathematik Brückenkurs Mathematik 6.10. - 17.10. Vorlesung 3 Geometrie Doris Bohnet Universität Hamburg - Department Mathematik Mi 8.10.2008 1 Geometrie des Dreiecks 2 Vektoren Länge eines Vektors Skalarprodukt Kreuzprodukt

Mehr

Telemetriemodul MT-021- Anwendung: Serverraumüberwachung

Telemetriemodul MT-021- Anwendung: Serverraumüberwachung Telemetriemodul MT-021- Anwendung: 2013 Welotec GmbH, Alle Rechte vorbehalten. Eine Vervielfältigung ohne Genehmigung ist nicht gestattet. 1. Anwendungsbeschreibung MT-021 Anwendung: Das Monitoring von

Mehr

Wiederholung von Äquivalenzumformungen (Lösen linearer Gleichungen): Wiederholung von Äquivalenzumformungen (Lösen von Ungleichungen):

Wiederholung von Äquivalenzumformungen (Lösen linearer Gleichungen): Wiederholung von Äquivalenzumformungen (Lösen von Ungleichungen): Prof. U. Stephan WiIng 1. Wiederholung von Äquivalenzumformungen (Lösen linearer Gleichungen): Bitte lösen Sie die folgenden Aufgaben und prüfen Sie, ob Sie Lücken dabei haben. Bestimmen Sie jeweils die

Mehr

Data Mining Anwendungen und Techniken

Data Mining Anwendungen und Techniken Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses

Mehr

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.

Mehr

Einführung in die Fuzzy Logic

Einführung in die Fuzzy Logic Einführung in die Fuzzy Logic Entwickelt von L. Zadeh in den 60er Jahren Benutzt unscharfe (fuzzy) Begriffe und linguistische Variablen Im Gegensatz zur Booleschen Logik {0,} wird das ganze Intervall [0,]

Mehr

Whitepaper. Produkt: List & Label. Thema: Verkettung von Objekten. combit GmbH Untere Laube Konstanz

Whitepaper. Produkt: List & Label. Thema: Verkettung von Objekten. combit GmbH Untere Laube Konstanz combit GmbH Untere Laube 30 78462 Konstanz Whitepaper Produkt: List & Label Thema: Verkettung von Objekten Thema: Verkettung von Objekten - 2 - Inhalt Einleitung 3 Die individuelle Verkettung (Positions-

Mehr

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Vortrag Seminararbeit David Pogorzelski Aachen, 22.01.2015 Agenda 1 2 3 4 5 Ziel der

Mehr

37 Gauß-Algorithmus und lineare Gleichungssysteme

37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Gauß-Algorithmus und lineare Gleichungssysteme 37 Motivation Lineare Gleichungssysteme treten in einer Vielzahl von Anwendungen auf und müssen gelöst werden In Abschnitt 355 haben wir gesehen, dass

Mehr

Starthilfe für Homecenter 2 und verschiedene Geräte.

Starthilfe für Homecenter 2 und verschiedene Geräte. Starthilfe für Homecenter 2 und verschiedene Geräte. Inbetriebnahme des Homecenters 1. Schließen Sie das Homecenter 2 an den Strom und verbinden Sie es mit dem LAN-Kabel über den Router oder das Heimnetzwerk

Mehr

Vektoren, Vektorräume

Vektoren, Vektorräume Vektoren, Vektorräume Roman Wienands Sommersemester 2010 Mathematisches Institut der Universität zu Köln Roman Wienands (Universität zu Köln) Mathematik II für Studierende der Chemie Sommersemester 2010

Mehr

1. Einleitung wichtige Begriffe

1. Einleitung wichtige Begriffe 1. Einleitung wichtige Begriffe Da sich meine besondere Lernleistung mit dem graziösen Färben (bzw. Nummerieren) von Graphen (speziell von Bäumen), einem Teilgebiet der Graphentheorie, beschäftigt, und

Mehr

11. Folgen und Reihen.

11. Folgen und Reihen. - Funktionen Folgen und Reihen Folgen Eine Folge reeller Zahlen ist eine Abbildung a: N R Statt a(n) für n N schreibt man meist a n ; es handelt sich also bei einer Folge um die Angabe der Zahlen a, a

Mehr

Microsoft PowerPoint 2013 Folienübergänge

Microsoft PowerPoint 2013 Folienübergänge Hochschulrechenzentrum Justus-Liebig-Universität Gießen Microsoft PowerPoint 2013 Folienübergänge Folienübergänge in PowerPoint 2013 Seite 1 von 8 Inhaltsverzeichnis Einleitung... 2 Einer Folie einen

Mehr

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Katharina Witowski katharina.witowski@dynamore.de Übersicht Beispiel Allgemeines zum LS-OPT Viewer Visualisierung von Simulationsergebnissen

Mehr

Vektoren. Jörn Loviscach. Versionsstand: 11. April 2009, 23:42

Vektoren. Jörn Loviscach. Versionsstand: 11. April 2009, 23:42 Vektoren Jörn Loviscach Versionsstand:. April 29, 23:42 Rechnen mit Pfeilen Bei den komplexen Zahlen haben wir das Rechnen mit Pfeilen schon kennen gelernt. Addition und Subtraktion klappen in drei wie

Mehr

Einstieg in die Informatik mit Java

Einstieg in die Informatik mit Java 1 / 26 Einstieg in die Informatik mit Java Felder Gerd Bohlender Institut für Angewandte und Numerische Mathematik Gliederung 2 / 26 1 Was sind Felder? 2 Vereinbarung von Feldern 3 Erzeugen von Feldern

Mehr

Mathematik Anders Machen. Eine Initiative zur Lehrerfortbildung. Materialien zum Kurs. Knowledge Maps. Referenten

Mathematik Anders Machen. Eine Initiative zur Lehrerfortbildung. Materialien zum Kurs. Knowledge Maps. Referenten Eine Initiative zur Lehrerfortbildung Materialien zum Kurs Knowledge Maps Referenten Dr. Astrid Brinkmann Dr. Ulrike Limke Projektleiter: Prof. Dr. Günter Törner Fachbereich Mathematik Universität Duisburg-Essen

Mehr

Algorithmische Modelle als neues Paradigma

Algorithmische Modelle als neues Paradigma Algorithmische Modelle als neues Paradigma Axel Schwer Seminar über Philosophische Grundlagen der Statistik, WS 2010/11 Betreuer: Prof. Dr. Thomas Augustin München, den 28. Januar 2011 1 / 29 LEO BREIMAN

Mehr

Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix.

Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix. LINEARE ALGEBRA Lösbarkeit von linearen Gleichungssystemen Themenheft mit viel Trainingsmaterial (Siehe Vorwort!) Unabhänge Vektoren und Erzeugung von Vektoren Gauß-Algorithmus Rang einer Matrix Gleichungssysteme

Mehr

Verwaltung Stundensätze

Verwaltung Stundensätze S e i t e 1 Verwaltung Stundensätze 1. Stundensätze anlegen Der in der Tabelle "manueller LE-Eintrag" hinterlegte Stundensatz gilt generell bei Erfassung des Zeithonorars, wenn nicht ein in der Tabelle

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Wie wir die Erkenntnisse der Gehirnforschung für mehr Kreativität und innovative Ideen nutzen können.

Wie wir die Erkenntnisse der Gehirnforschung für mehr Kreativität und innovative Ideen nutzen können. Wie wir die Erkenntnisse der Gehirnforschung für mehr Kreativität und innovative Ideen nutzen können. Kreativität und innovative Ideen sind gefragter als je zuvor. Sie sind der Motor der Wirtschaft, Wissenschaft

Mehr

2. Die SBS Console einfach verwalten

2. Die SBS Console einfach verwalten 2. Die SBS Console einfach verwalten 2.1 Die Features der Startseite 2.2 Benutzer und Gruppen verwalten 2.3 Das Netzwerk optimieren 2.4 Auf freigegebene Ordner und bestimmte Websites zugreifen 2.5 Datensicherung

Mehr

Übersicht. 20. Verstärkungslernen

Übersicht. 20. Verstärkungslernen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes

Mehr

Thematische Karten in Revit Architecture (Anzeigethemen)

Thematische Karten in Revit Architecture (Anzeigethemen) Thematische Karten in Revit Architecture (Anzeigethemen) In Architekturzeichnungen ist es in vielen Fällen notwendig und sinnvoll, Bauteile nach Ihren Eigenschaften auszuwerten. So müssen z.b. Wände und

Mehr