Seminararbeit Thema: Die Anwendung der Kohonen-Karte am Beispiel einer Zuflussregelung an Autobahnen

Größe: px
Ab Seite anzeigen:

Download "Seminararbeit Thema: Die Anwendung der Kohonen-Karte am Beispiel einer Zuflussregelung an Autobahnen"

Transkript

1 Seminararbeit Thema: Die Anwendung der Kohonen-Karte am Beispiel einer Zuflussregelung an Autobahnen Referenten: Louisa Navratiel (Matrikelnr.: ) Maik Buczek (Matrikelnr.: ) Abgabedatum:

2 Inhaltsverzeichnis 1. Beschreibung des Problems Funktionsweise der Kohonen-Karte Aufbau Bildung von Erregungszentren Umsetzung Annahmen Codierung Literatur...9

3 1. Beschreibung des Problems An stark befahrenen Autobahnen wird mit Hilfe von Ampeln der Zufluss auf die Autobahn geregelt. Es gibt drei verschiedene Ampelschaltungen: Bei der ersten Schaltung ist die Ampel komplett aus, bei der zweiten durchläuft die Ampel die normalen rot-gelb-grün Ampelphasen, bei der dritten blinkt die Ampel gelb. Zu der zweiten Ampelschaltung ist zu bemerken, dass hier eine Sonderregelung gilt: Bei grün darf nur ein Auto fahren, die Ampel springt danach direkt wieder auf rot um. Diese Ampel soll den zufließenden Verkehr so regeln, dass ein Stau auf der Autobahn hinausgezögert oder verhindert werden kann, zumindest, dass vor dem Stau gewarnt werden kann. 2. Funktionsweise der Kohonen-Karte Bei der Kohonen-Karte handelt es sich um eine Selbstorganisierende Karte. Dies ist ein Neuronales Netz, das die Fähigkeit des Gehirns zur Selbstorganisation nachahmt und die Verbindungsstruktur gemäß einfacher Regeln selbst organisiert. Die Selbstorganisierende Karte ist vergleichbar mit einer Schicht von Eingabeneuronen, die ihre Signale von Rezeptorneuronen erhalten. 2.1 Aufbau Die Kohonen-Feature-Map besteht aus zwei Schichten, der Eingabe und der Ausgabeschicht. Die Kartenschicht ist rückkoppelnd, dass heisst, dass die Neuronen sich gegenseitig beeinflussen. Die Neuronen sind innerhalb der Kartenschicht eindeutig durch ihre x-und y-position bestimmt. Die Eingabeneuronen werden an die Eingabeschicht angelegt, wobei jedes Neuron der Eingabeschicht mit den Eingabeneuronen verbunden ist Der Ausgabewert o i eines Neurons i der Eingabeschicht entspricht der Komponente xi des externen Eingabesignalvektors x. Die Neuronen der Eingabeschicht werden durch die Eingabeneuronen entweder gehemmt oder erregt. Der Nettoinput net j eines isoliert betrachteten Neurons wird wie folgt berechnet: netj = i w * ij oi + Θ j Θ j : Bias w ij : Gewichtsmatrix Der Aktivierungszustand des Neurons j wird mit Hilfe der Aktivierungsfunktion aj = F berechnet. j( j netj) = 1/(1 + exp( net )) 1

4 Durch die Ausgabefunktion o j = fj( aj) = a j wird der innere Aktivationszustand aj des Neurons j in den Ausgabewert oj transformiert. Aufgrund der Tatsache, dass für die spätere Verwendung der Kohonen-Karte die wechselseitige Beeinflussung der Neuronen vernachlässigt wurde, soll an diese Stelle auf die modifizierte Formel zur Berechnung des Nettoinputs nicht näher eingegangen werden. 2.2 Bildung von Erregungszentren Ein allgemeines Arbeitsprinzip des Nervensystems ist, dass Gruppen von Nervenzellen andere Gruppen in ihrer Umgebung hemmen, um so ihre eigene Wirkung zu erhöhen. Dieser Effekt wird laterale oder Umfeldhemmung genannt. Hierauf basiert die Bildung von Erregungszentren bei der Kohonen-Karte. Die Neuronen die nah am Zentrum liegen, werden stark beeinflusst. Je weiter die Neuronen vom Zentrum weg liegen, desto geringer ist der Einfluss. Diese Beeinflussung lässt sich durch folgende Grafik gut verdeutlichen Beeinflussung erregend hemmend Position Neuron Z Abstand von Neuron Z (Erregungszentrum) nach allen Seiten Abb.2-1 Würde man den Rückkopplungseffekt und die nichtlineare Aktivierungsfunktion berücksichtigen, würde die Berechnung des Erregungszentrums sehr schwierig sein. 2

5 Aufgrund dieser Tatsache, ist das Modell an diese Stelle von Kohonen vereinfacht worden und der Rückkopplungseffekt vernachlässigt worden. Damit der Merkmalsraum der Eingabemuster genau abgebildet werden kann, muss für jedes Eingabesignal ein Erregungszentrum gebildet werden. Für das Erregungszentrum gilt folgendes i w ij * oi = max j wij * oi i Anmerkung: Der Schwellenwert Θ j kann hierbei vernachlässigt werden, da der Nettoinput nicht in die Aktivierungsfunktion F j eingeht 2.3 Das Lernverfahren Wurde nun das Erregungszentrum des Neurons j gefunden, werden die Verbindungsgewichte dementsprechend angepasst. Die Anpassung der Gewichte beeinflusst die Neuronen die innerhalb des Radius σ z liegen. Die Anpassung erfolgt nach folgender Formel: wj( t + 1) = wj( + ( x( wj( ) ; wenn j σz wj ( t + 1) = wj( ; sonst wj ( : Verbindungsstärken wj = ( w1 j, K, wnj) des Neurons j zum Zeitpunkt t x ( : Eingabesignalvektor x = ( x1, K, xn) zum Zeitpunkt t Räumlich gesehen entspricht das einer Verschiebung des x-vektors wj in Richtung des Eingabesignalvektors x hin. Neuronen die näher am Erregungszentrum x liegen werden stärker beeinflusst. Diese Tatsache wurde bei der obigen Formel nicht berücksichtigt. Zur Beschreibung dieser stärkeren Beeinflussung verwendet Kohonen die folgende, so genannte Mexican-Hat- Funktion 2 2 hjz = exp( ( j z) /(2 * σz )) j z : Abstand von Neuron j zum Erregungszentrum z; σ z : Radius innerhalb dessen die Einheiten verändert werden. Der Radius sollte durch eine langsam monoton fallende Funktion dargestellt werden Zusätzlich wird noch ein Lernrate benötigt, die ebenfalls durch eine langsam monoton fallende Funktion dargestellt werden soll. Die Formel für die Anpassung der Verbindungsgewichte sieht nun wie folgt aus: wj( t + 1) = wj( + ε * hjz * ( x( wj( ) ; wenn j σz wj ( t + 1) = wj( ; sonst wj ( : Verbindungsstärken wj = ( w1 j, K, wnj) des Neurons j zum Zeitpunkt t x ( : Eingabesignalvektor x = ( x1, K, xn) zum Zeitpunkt t ε : Lernrate 3

6 Zusammenfassend lässt sich der Ablauf des Algorithmus wie folgt darstellen: 1) Die Anfangsgewichtsverbindungen werden zufällig vergeben 2) Der Eingabesignalvektor x wird zufällig aus den möglichen Eingabesignalvektoren ausgewählt. 3) Das Erregungszentrum wird bestimmt. 4) Die Verbindungsgewichte werden angepasst. 5) Es wird mit Schritt 2 fort gefahren, bis die gewünschte Anzahl an Lernschritten durchgeführt ist. Zwei Punkte sind zusätzlich zu beachten: 1. Die Eingabemuster müssen zufällig ausgewählt werden, damit sich das System stabilisieren kann. 2. Die Funktionen für den Radius und die Lernrate, müssen für die Erreichung eines Gleichgewichtszustandes ebenfalls geeignet gewählt werden. Hier sollten langsam monoton fallende Funktionen, in Abhängigkeit von der Anzahl der Lernschritte genommen werden. 4

7 3. Umsetzung Bevor mit einer detaillierten Beschreibung der Umsetzung begonnen werden kann, müssen zunächst die zugrunde liegenden Annahmen erläutert werden. 3.1 Annahmen Zur Messung der verschiedenen Größen, existiert eine Art Streckenkontrolle, die sich ca. einen km vor der Auffahrt und ebenso ca. einen km hinter der Auffahrt befindet. Diese Kontrolle misst die Anzahl der Autos, den Abstand der Autos sowie die Geschwindigkeit der Autos. Des Weiteren soll davon ausgegangen werden, dass es sich um eine zweispurige Autobahn handelt, bei der jedoch nur eine Spur betrachtet wird. Zur Vereinfachung wird davon ausgegangen, dass alle PKW s gleich lang sind. Auf der Autobahn gilt eine Höchstgeschwindigkeit von 120 km/h. Ebenfalls wird davon ausgegangen, dass der Beschleunigungsstreifen genügt, um sich an die Geschwindigkeit anzupassen. LKW s fahren nicht auf der Autobahn. Wie anfangs schon erwähnt, darf nur ein Auto bei grün fahren. Ist die Ampel aus, dürfen die Autofahrer ungehindert auf die Autobahn auffahren, bei blinkender Ampel ist das ebenfalls der Fall, hier ist jedoch Vorsicht geboten. Es wird von folgenden Bedingungen für die Einstellung der Ampel ausgegangen: Ampel ist aus Normale Ampel Ampelphase blinkt Abstand x > 45 X x > 25 - X - (in m) x X Geschwindigkeit x > 90 X x >50 - X - (in km/h) x<= X x < 20 X - - Anzahl Autos 20 x < 33 - X - x X Tab Codierung Die Codierung erfolgte als Java Applet mit Hilfe des JBuilders 9 von Borland.. Für die Codierung der Eingabesignale wählten wir einen 9-stelligen Vektor, jede Stelle repräsentiert eines der in Tabelle 4-1 abgebildeten Merkmale. Ist dieses Merkmal vorhanden, erhält der Vektor an dieser Stelle eine 1, ist es nicht vorhanden eine 0. Die drei Eingabesignalvektoren sehen dann wie folgt aus: Ampel ist aus : ( 1,0,0,1,0,0,1,0,0) Normale Ampelphase : ( 0,1,0,0,1,0,0,1,0) Ampel blinkt : ( 0,0,1,0,0,1,0,0,1) 5

8 Als nächstes machten wir uns Gedanken über die Darstellung der Kohonen-Karte. Wir entschieden uns für eine 50x50 Matrix als Ausgabe. Jeder einzelne Punkt stellt ein Ausgabeneuron dar, insgesamt erhielten wir damit 2500 Ausgabeneuronen. Jedes dieser Neuronen verfügt über neun Gewichte, entsprechend dem Eingabesignalvektor. Wir haben also 50x50 Neuronen mit jeweils neun Gewichten zu diesen Neuronen. Damit wir diese Gewichte sinnvoll und übersichtlich speichern konnten, entschieden wir uns dafür, sie in einem 50x50x9 Array abzuspeichern. Die ersten zwei Dimensionen des Arrays legen die Position des Neurons fest und die letzte Dimension speichert die neun Gewichtswerte. Dieses 3-dimensionale Array stellt somit unsere Gewichtsmatrix wij dar. Die Gewichte für die einzelnen Neuronen werden per Zufall vergeben und liegen zwischen 0 und 1. Zu Anfang wird für jeden Eingabesignalvektor das Erregungszentrum gebildet. Dies geschieht auf folgende Weise: Für den 1. Eingabesignalvektor wird zunächst der Nettoinput jedes einzelnen Ausgabeneurons berechnet. Diese geschieht mit der Formel zur Berechnung des Nettoinputs: netj = i w ij * oi + Θ j. Zur Verdeutlichung, wie die Formel angewendet wird, wird die Berechnung eines konkreten Nettoinputs gezeigt. Der Eingabesignalvektor x1ist: ( 1,0,0,1,0,0,1,0,0). Wie bei der Erläuterung der Kohonen- Karte erwähnt ist o i = xi. Gehen wir davon aus, wir wollen den Nettoinput des ersten Ausgabeneurons berechnen. Dieses liegt in unserer Gewichtsmatrix an der Stelle (0,0). Die Gewichtswerte liegen an der Stellen (0,0,0), (0,0,1),.,(0,0,8). Es handelt sich um kleine Zahlen zwischen 0 und 1. Beispielhaft seien folgende Werte für die Gewichte angenommen: (0,0,0) = 0,2; (0,0,1) = 0,4; (0,0,2) = 0,3; (0,0,3) = 0,5; (0,0,4) = 0,8; (0,0,5) = 0,3; (0,0,6) = 0,6; (0,0,7) = 0,9; (0,0,8) = 0,5 Da dies nur ein Rechenbeispiel darstellen soll, wurden einfache Zahlen zwischen 0 und 1 gewählt. Die von Jave generierten Zufallszahlen stellen mehrstellige Kommazahlen dar. Für den Nettoinput würde das folgende Rechnung ergeben: net j = 0,2 *1 + 0,4 * 0 + 0,3 * 0 + 0,5 *1 + 0,8 * 0 + 0,3 * 0 + 0,6 *1 + 0,9 * 0 + 0,5 * 0 = 1,3 Diese Berechnung erfolgt nun für jedes Ausgabeneuron. Die Nettoinputs werden in einem 50x50x3 Array abgespeichert. Die ersten zwei Dimensionen, stellen, wie schon bei der Gewichtsmatrix die Position des Neurons dar. Die dritte Dimension kennzeichnet den Eingabevektor zu dem der Nettoinput gehört. Gehört der Nettoinput des Ausgabeneurons der Stelle (x,y) zu dem Eingabevektor ( 1,0,0,1,0,0,1,0,0) steht dieser z.b. an der Stelle (x,y,0). Danach werden die einzelnen Nettoinputs verglichen. Das Neuron mit dem höchsten Nettoinput stellt das Erregungszentrum dar. Das Erregungszentrum wird mit seiner Position in dem Array ZentrumPosition[][][] gespeichert. In diesem Array befinden sich die Positionen aller drei Erregungszentren. Für die anderen zwei Eingabesignalvektoren wird ebenfalls das Erregungszentrum bestimmt. Es entstehen also drei Erregungszentren. Die Verbindungsgewichte werden dann, entsprechende der Zentren, angepasst. Die Anpassung erfolgt mittels der Funktion VerbindungsleitungAnpassen(). Innerhalb dieser Funktion musste zunächst ermittelt werden, welche Neuronen sich im aktuellen Radius des Erregungszentrums befinden, damit danach auch nur deren Gewichte angepasst werden. Die veränderten Gewichtswerte werden in der Gewichtsmatrix wij abgespeichert, um nachher auf dieser veränderten Grundlage weiterarbeiten zu können. 6

9 Für die Anpassung der Gewichte werden zusätzlich zu den oben beschriebenen Formeln, noch eine langsam monoton fallende Funktion für den Radius und eine langsam monoton fallende Funktion für die Lernrate benötigt. Hier wählten wir folgende Funktionen: Lernrate: ε ( t + 1) = ε max * ( ε min / ε max ) t / t t : aktueller Iterationsschritt 1 t t max t max : Gesamtzahl der Iterationsschritte ε max: Anfangslernrate (in unserem Fall 1) ε min : Untergrenze der Lernrate (in unserem Fall 0,001) Mit ε ( gilt: ε min ε ( t ) ε max Radius: max σ ( t 1) / max* ( min/ max) t t z + = σ σ σ t : aktueller Iterationsschritt 1 t t max t max : Gesamtzahl der Iterationsschritte σ max : Anfangsgröße des Radius (in unserem Fall 40) σ min : Untergrenze des Radius (in unserem Fall 2) Mit σz( gilt: σ min σ ( t ) σ max max Nachdem die Erregungszentren gefunden wurden, folgt das eigentliche Lernen, das in der Funktion Lernen() durchgeführt wird. Diese sieht dann wie folgt aus: 1. Einer der drei Eingabesignalvektoren wird zufällig ausgewählt. 2. Der Nettoninput passend zum Eingabevektor für jedes Ausgabeneuron wird bestimmt. 3. Das Erregungszentrum wird bestimmt. 4. Die Verbindungsleitungen werden angepasst. 5. Der Radius wird angepasst. 6. Die Lernrate wird angepasst. Die Funktion wird so oft durchgeführt bis die maximale Anzahl an Lernschritten erreicht ist. Die Lernschritte sind standardmäßig auf 1000 gesetzt, können aber vom Benutzer beliebig geändert werden. Hierbei gilt: Je höher die Anzahl der Lernschritt, desto besser ist die Karte ausgeprägt. Bei einer sehr kleinen Anzahl von Lernschritten kann es passieren, dass sich die Karte nicht richtig ausprägt und zu falschen Ergebnissen führt. Die Anpassung des Radius und der Lernrate muss erfolgen, damit sich die Erregungszentren stabilisieren können und auf eine Position einpendeln können. Nach Ablauf des Lernens hat sich die Kohonen-Karte herausgebildet. Die Karte besteht aus drei farblich voneinander abgegrenzten Bereichen: einem blauen, einem roten und einem gelben Bereich. Der blaue Bereich stellt den Bereich dar, in dem die Ampel aus ist, der roten den, in dem die Ampel die normalen Ampelphasen durchläuft und der gelbe den, in dem die Ampel blinkt. 7

10 Das Neuronale Netz ist nun trainiert und kann auf seine Funktionalität hin überprüft werden. Hierzu ist es dem Benutzer möglich selber den Abstand, die Anzahl der Autos und die Geschwindigkeit der Autos einzugeben. Das Programm nimmt die Eingaben auf und wandelt die eingegeben Werte mit Hilfe der Funktion EingabeUmwandeln() in passende Vektoren um. Diese Vektoren werden mit Hilfe der Funktion ErkennungsmusterZuordnen() einem der drei Bereiche der Kohonen- Karte zugeordnet. Dafür wird für den zu erkennenden Vektor der größte Nettoinput, sowie das zugehörige Ausgabeneuron ermittelt. Je nach dem zu welchem Bereich dieses Neuron gehört, erfolgt die Ausgabe. Gehört das Neuron zum blauen Bereich, wird eine ausgeschaltete Ampel angezeigt. gehört das Neuron zum roten Bereich, wird eine Ampel mit allen drei Farben angezeigt dies steht dafür, dass die Ampel die normalen Ampelphasen durchläuft-, gehört das Neuron zum gelben Bereich wird ein gelbe Ampel angezeigt. Anhand mehrer unterschiedlicher Eingaben, kann überprüft werden, ob das Programm einwandfrei funktioniert. 8

11 4. Literatur Kruse, Programmierung neuronaler Netze, 1991 (1.Auflage) T.Kohonen, Self-Organization and Associative Memory, 1989 (3.Auflage) 9

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Aufbau der Eigenimplementierung

Aufbau der Eigenimplementierung Table of contents 1 2 Aufbau... 2 1.1 Feed Forward Netze...3 1.2 Self Organizing Maps... 5 Training... 6 2.1 Feed Forward Netze...7 2.2 Self Organizing Maps... 8 Nachdem wir uns entschlossen hatten, keine

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining

Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining Kapitel ML:XII XII. Other Unsupervised Learning Nearest Neighbor Strategies Self Organizing Maps Neural Gas Association Analysis Rule Mining Reinforcement Learning ML:XII-1 Unsupervised Others LETTMANN

Mehr

Einfaches Framework für Neuronale Netze

Einfaches Framework für Neuronale Netze Einfaches Framework für Neuronale Netze Christian Silberbauer, IW7, 2007-01-23 Inhaltsverzeichnis 1. Einführung...1 2. Funktionsumfang...1 3. Implementierung...2 4. Erweiterbarkeit des Frameworks...2 5.

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM

Mehr

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene

Mehr

Mathematische Funktionen

Mathematische Funktionen Mathematische Funktionen Viele Schüler können sich unter diesem Phänomen überhaupt nichts vorstellen, und da zusätzlich mit Buchstaben gerechnet wird, erzeugt es eher sogar Horror. Das ist jedoch gar nicht

Mehr

Terminabstimmung Punktspielbetrieb

Terminabstimmung Punktspielbetrieb Terminabstimmung Punktspielbetrieb Ab dem 08.04.2015 sind die Neuerungen in der Terminabstimmung umgesetzt. Ein wesentlicher Vorteil ist, dass gewisse Verstöße gegen die Wettspielordnung ausgeschlossen

Mehr

Konvergenz von Hopfield-Netzen

Konvergenz von Hopfield-Netzen Matthias Jauernig 1. August 2006 Zusammenfassung Die nachfolgende Betrachtung bezieht sich auf das diskrete Hopfield-Netz und hat das Ziel, die Konvergenz des Verfahrens zu zeigen. Leider wird dieser Beweis

Mehr

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40 Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Erstellen eines Referates in Word

Erstellen eines Referates in Word Seite 1 von 9 Erstellen eines Referates in Word Von Antje Borchers Oftmals bekommt man ein Thema zugeteilt über das man ein Referat halten soll. Aber, wie macht man das eigentlich? 1.) Informationen sammeln

Mehr

PREISE UND PREISLISTEN UNTER ORGAMAX BEARBEITEN

PREISE UND PREISLISTEN UNTER ORGAMAX BEARBEITEN PREISE UND PREISLISTEN UNTER ORGAMAX BEARBEITEN Inhalt 1 Einführung... 1 2 Kundenspezifische Preise für bestimmte Artikel hinterlegen... 1 3 Anlegen einer Preisliste... 5 4 Bearbeitung von Preislisten:

Mehr

Verteilungsfunktionen (in Excel) (1)

Verteilungsfunktionen (in Excel) (1) Verteilungsfunktionen (in Excel) () F(x) Veranschaulichung der Sprungstellen: Erst ab x=4 ist F(x) = 0,75! Eine Minimal kleinere Zahl als 4, bspw. 3,9999999999 gehört noch zu F(x)=0,5! 0,75 0,5 0,25 0

Mehr

Updateinfo 1.5.0 edfirma Finanzen vom 14.07.2016. Stand: 07/2016 eurodata Seite 1 von 9

Updateinfo 1.5.0 edfirma Finanzen vom 14.07.2016. Stand: 07/2016 eurodata Seite 1 von 9 Updateinfo 1.5.0 edfirma Finanzen vom 14.07.2016 Stand: 07/2016 eurodata Seite 1 von 9 Inhaltsverzeichnis 1. Allgemeines... 3 1.1. Erfassung von Minusbeträgen... 3 1.2. Nummernkreise... 4 2. Kasse... 5

Mehr

Deskriptive Statistik Kapitel IX - Kontingenzkoeffizient

Deskriptive Statistik Kapitel IX - Kontingenzkoeffizient Deskriptive Statistik Kapitel IX - Kontingenzkoeffizient Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Agenda 1. Untersuchung der Abhängigkeit 2.

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Selbstorganisierende Karten Seminar Kognitive Robotik (SS12) Thomas Hoffmann Betreuer: Dr. Florian Röhrbein

Mehr

Randomisierte Algorithmen

Randomisierte Algorithmen Randomisierte Algorithmen Randomisierte Algorithmen 5. Zwei spieltheoretische Aspekte Thomas Worsch Fakultät für Informatik Karlsruher Institut für Technologie Wintersemester 2015/2016 1 / 36 Überblick

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Jochen Weiß Inhaltsverzeichnis 1 Das menschliche Gehirn als Vorbild 2 2 Architektur einer SOM 3 2.1 Aufbau der Neuronenschichten 3 2.2 Gewichts- und Eingabevektor 3 3 Das Training

Mehr

Mathematische und statistische Methoden I

Mathematische und statistische Methoden I Prof. Dr. G. Meinhardt 6. Stock, Wallstr. 3 (Raum 06-206) Sprechstunde jederzeit nach Vereinbarung und nach der Vorlesung. Mathematische und statistische Methoden I Dr. Malte Persike persike@uni-mainz.de

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Anleitung. Mooy Logistics Servicedesk. Version: 1.2 Date: 07-10-14

Anleitung. Mooy Logistics Servicedesk. Version: 1.2 Date: 07-10-14 Anleitung Mooy Logistics Servicedesk Version: 1.2 Date: 07-10-14 Inhalt 1. Einloggen... 3 2. Nach Dokumenten suchen.... 4 3. Downloaden aller Dokumente zur Rechnungsnummer.... 6 4. Bestellzeilen verfolgen....

Mehr

Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten

Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Fachhochschule Brandenburg Fachbereich Informatik und Medien Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Diplomkolloquium Sven Schröder Aufgabenstellung und Motivation Biologisches

Mehr

Wir sollen erarbeiten, wie man mit Hilfe der Mondentfernung die Entfernung zur Sonne bestimmen kann.

Wir sollen erarbeiten, wie man mit Hilfe der Mondentfernung die Entfernung zur Sonne bestimmen kann. Expertengruppenarbeit Sonnenentfernung Das ist unsere Aufgabe: Wir sollen erarbeiten, wie man mit Hilfe der Mondentfernung die Entfernung zur Sonne bestimmen kann. Konkret ist Folgendes zu tun: Lesen Sie

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Handbuch ERP - Modul HOAI

Handbuch ERP - Modul HOAI Handbuch ERP - Modul HOAI Dr. M. Nelson Nelson - technische Informatik 19. März 2013 Version 2.2 2 INHALTSVERZEICHNIS 3 Inhaltsverzeichnis Inhaltsverzeichnis................................ 3 1 Module

Mehr

Neuronale Netze SS 2007. Universität Ulm. Anna Wallner. Betreuer: Malte Spiess. Seminar Statistische Lerntheorie und ihre Anwendungen

Neuronale Netze SS 2007. Universität Ulm. Anna Wallner. Betreuer: Malte Spiess. Seminar Statistische Lerntheorie und ihre Anwendungen Seminar Statistische Lerntheorie und ihre Anwendungen Ausarbeitung zum Vortrag vom 15. Mai 2007 Neuronale Netze SS 2007 Universität Ulm Anna Wallner Betreuer: Malte Spiess Inhaltsverzeichnis 1 Motivation

Mehr

Energiearten, Energieumwandlung

Energiearten, Energieumwandlung Energie Aus dem täglichen Leben ist sicher folgende Aussage bekannt: Ich bin voller Energie Wenn Du aber voller Energie bist, dann hast du ein grosses Bedürfnis etwas zu tun, eine bestimmte Arbeit zu verrichten.

Mehr

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler

Mehr

ECDL - Europäischer Computer Führerschein. Peter Wies. 1. Ausgabe, März 2014

ECDL - Europäischer Computer Führerschein. Peter Wies. 1. Ausgabe, März 2014 ECDL - Europäischer Computer Führerschein Peter Wies 1. Ausgabe, März 2014 Modul Tabellenkalkulation Advanced (mit Windows 8.1 und Excel 2013) Syllabus 2.0 ECDLAM4-13-2_AT 3 ECDL - Modul Tabellenkalkulation

Mehr

Christian Klotz Alois Klotz Mario Steinwender 12. Oktober 2014. Vielen Dank, dass Sie sich für die EASY4ME-Apps entschieden haben.

Christian Klotz Alois Klotz Mario Steinwender 12. Oktober 2014. Vielen Dank, dass Sie sich für die EASY4ME-Apps entschieden haben. Christian Klotz Alois Klotz Mario Steinwender 12. Oktober 2014 EASY4ME - Apps Willkommen! Vielen Dank, dass Sie sich für die EASY4ME-Apps entschieden haben. Dieser Guide erklärt Ihnen, wie Sie die EASY4ME-Apps

Mehr

GTR Programm: Mittlere Abweichung

GTR Programm: Mittlere Abweichung GTR Programm: Mittlere Abweichung Sehr wichtig für die Rechnung mit Statistiken ist die mittlere Abweichung. Normal wird diese auch als Durchschnitt bezeichnet. Dieses Programm stellt also nicht nur einen

Mehr

Skript Prozentrechnung. Erstellt: 2015/16 Von: www.mathe-in-smarties.de

Skript Prozentrechnung. Erstellt: 2015/16 Von: www.mathe-in-smarties.de Skript Prozentrechnung Erstellt: 2015/16 Von: www.mathe-in-smarties.de Inhaltsverzeichnis Vorwort... 2 1. Einführung... 3 2. Berechnung des Prozentwertes... 5 3. Berechnung des Prozentsatzes... 6 4. Berechnung

Mehr

Funktionen mit mehreren Variablen. Voraussetzungen:

Funktionen mit mehreren Variablen. Voraussetzungen: Funktionen mit mehreren Variablen Voraussetzungen: Grundlegende Kenntnisse über Ableiten (Zu inden in dem Artikel Dierential und Integralrechnung au www.antigauss.de), sowie eine Vorstellung davon, was

Mehr

Selbstorganisierende Merkmalskarten

Selbstorganisierende Merkmalskarten Selbstorganisierende Merkmalskarten Motivation (Gehirn) Architektur Topographische Merkmalskarten Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele (Folien: Holger Arndt) Motivation:

Mehr

Allgemeine Definition von statistischer Abhängigkeit (1)

Allgemeine Definition von statistischer Abhängigkeit (1) Allgemeine Definition von statistischer Abhängigkeit (1) Bisher haben wir die statistische Abhängigkeit zwischen Ereignissen nicht besonders beachtet, auch wenn wir sie wie im Fall zweier disjunkter Mengen

Mehr

Programmierkurs Java

Programmierkurs Java Programmierkurs Java Dr. Dietrich Boles Aufgaben zu UE13-TypenOperatorenAusdrücke (Stand 01.12.2010) Aufgabe 1: Schreiben Sie ein Programm zur Umrechnung von Celsius-Temperaturwerten in Fahrenheit-Temperaturwerte.

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Binomialverteilung und Bernoulli- Experiment Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Binomialverteilung und Bernoulli- Experiment Das komplette Material finden Sie hier: Download bei School-Scout.de TOSSNET Der persönliche

Mehr

Ausführen eines Makros beim Starten von OpenOffice.org

Ausführen eines Makros beim Starten von OpenOffice.org Ausführen eines Makros beim Starten von OpenOffice.org Es ist möglich, beim Starten und Beenden von OpenOffice.org oder einzelner Komponenten Makros auszuführen. Dies geschieht mittels Zuordnung jeweiliger

Mehr

Fehlererkennung und Fehlerkorrektur in Codes

Fehlererkennung und Fehlerkorrektur in Codes Fehlererkennung und Fehlerkorrektur in Codes Blockcodes und Hamming Abstand Untersuchungen zu Codierungen von Informationen, die über einen Nachrichtenkanal übertragen werden sollen, konzentrieren sich

Mehr

Künstliche Neuronale Netze (KNN)

Künstliche Neuronale Netze (KNN) Künstliche Neuronale Netze (KNN) Die von Neuronalen Netzen ausgehende Faszination besteht darin, dass sie in der Lage sind, in einigen Fällen Probleme von hoher Kompleität mit einfachen Mitteln zu lösen.

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

7. Vorlesung Neuronale Netze

7. Vorlesung Neuronale Netze Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation

Mehr

Versuch E24 - Operationsverstärker. Abgabedatum: 24. April 2007

Versuch E24 - Operationsverstärker. Abgabedatum: 24. April 2007 Versuch E24 - Operationsverstärker Sven E Tobias F Abgabedatum: 24. April 2007 Inhaltsverzeichnis 1 Thema des Versuchs 3 2 Physikalischer Kontext 3 2.1 Operationsverstärker......................... 3 2.1.1

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

Seminar zum Thema Künstliche Intelligenz:

Seminar zum Thema Künstliche Intelligenz: Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden

Mehr

Der richtige Abstand. b) Der Abstand zum vorausfahrenden Fahrzeug sollte immer drei Wagenlängen betragen.

Der richtige Abstand. b) Der Abstand zum vorausfahrenden Fahrzeug sollte immer drei Wagenlängen betragen. Start Der richtige Abstand Frage 1: Welche Faustregel ermöglicht es mir als Autofahrer auf der Landstraße, den Sicherheitsabstand zum vorausfahrenden Fahrzeug festzulegen? a) Wenn das Fahrzeug vor Ihnen

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche

Mehr

Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation

Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Hochdimensionaler Eingaberaum {0,1} Z S quadratisch aufgemalt (zwecks besserer Visualisierung) als Retina bestehend

Mehr

Handbuch ECDL 2003 Modul 6: Präsentation Ein Bild aus der Clipart-Sammlung einfügen

Handbuch ECDL 2003 Modul 6: Präsentation Ein Bild aus der Clipart-Sammlung einfügen Handbuch ECDL 2003 Modul 6: Präsentation Ein Bild aus der Clipart-Sammlung einfügen Dateiname: ecdl6_04_03_documentation Speicherdatum: 04.10.2004 ECDL 2003 Modul 6 Präsentation - Ein Bild aus der Clipart-Sammlung

Mehr

LAF Mathematik. Näherungsweises Berechnen von Nullstellen von Funktionen

LAF Mathematik. Näherungsweises Berechnen von Nullstellen von Funktionen LAF Mathematik Näherungsweises Berechnen von Nullstellen von Funktionen von Holger Langlotz Jahrgangsstufe 12, 2002/2003 Halbjahr 12.1 Fachlehrer: Endres Inhalt 1. Vorkenntnisse 1.1 Nicht abbrechende Dezimalzahlen;

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme

Mehr

Proportionale und antiproportionale Zuordnungen

Proportionale und antiproportionale Zuordnungen Proportionale und antiproportionale Zuordnungen Proportionale und antiproportionale Zuordnungen findet man in vielen Bereichen des täglichen Lebens. Zum Beispiel beim Tanken oder beim Einkaufen. Bei proportionalen

Mehr

Numerisches Lösen von Gleichungen

Numerisches Lösen von Gleichungen Numerisches Gesucht ist eine Lösung der Gleichung f(x) = 0. Das sverfahren ist eine numerische Methode zur Bestimmung einer Nullstelle. Es basiert auf dem Zwischenwertsatz: Satz (1.1.1) Zwischenwertsatz:

Mehr

Oft gestellte Fragen. Fragen zum Informationswerkzeug Identify Wie kann ich gespeicherte Merkmale abfragen? Wie exportiere ich Tabellen in Excel?

Oft gestellte Fragen. Fragen zum Informationswerkzeug Identify Wie kann ich gespeicherte Merkmale abfragen? Wie exportiere ich Tabellen in Excel? Oft gestellte Fragen Fragen zu Grundfunktionalitäten Wie ist der Grundaufbau der Anzeige? Wie rufe ich eine thematische Karte auf? Wie zeige ich Ländernamen an? Wie verändere ich Größe und Ausschnitt einer

Mehr

Kompetenzcheck. Mathematik (AHS) Oktober 2013. Lösungsheft

Kompetenzcheck. Mathematik (AHS) Oktober 2013. Lösungsheft Kompetenzcheck Mathematik (AH) Oktober 2013 Lösungsheft Lösung zu Aufgabe 1 Rationale Zahlen 1 2 3,5 16 Ein Punkt ist nur dann zu geben, wenn alle Kreuze richtig gesetzt sind. 2 Lösung zu Aufgabe 2 Rechenoperationen

Mehr

Drucken und Löschen von angehaltenen Druckaufträgen

Drucken und Löschen von angehaltenen Druckaufträgen Beim Senden eines Druckauftrags an den Drucker können Sie im Treiber angeben, daß der Drucker den Auftrag im Speicher zurückhalten soll. Wenn Sie zum Drucken des Auftrags bereit sind, müssen Sie an der

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

GIMP - Ebenenmasken. Toni Kaufmann 28. April 2008

GIMP - Ebenenmasken. Toni Kaufmann  28. April 2008 GIMP - Ebenenmasken Toni Kaufmann http://toni.famkaufmann.info 28. April 2008 Genau wie Ebenen gehören auch die (Ebenen-)Masken zu den grundlegenenden Dingen in der Digitalen Bildbearbeitung, die am Anfang

Mehr

SCIENCE SERVICES. Ausrüstung. Probenpräparation. Es gibt mit dieser Ausrüstung 2 Möglichkeiten der Messung von Dicken:

SCIENCE SERVICES. Ausrüstung. Probenpräparation. Es gibt mit dieser Ausrüstung 2 Möglichkeiten der Messung von Dicken: Diese Anleitung kann beispielhaft für das Vermessen von Proben mittel Mikroskop genommen werden. Sie beschreibt die Vorgehensweise zur Vermessung / Dickenbestimmung von Beschichtungen von Leder nach DIN

Mehr

Informatik/Biologie. Neuronale Netze: Bugbrain. Arbeits- blatt. Arbeitsblatt 1: Erste Schritte. 12/2003 Nitzsche (OSZ Handel I Berlin)

Informatik/Biologie. Neuronale Netze: Bugbrain. Arbeits- blatt. Arbeitsblatt 1: Erste Schritte. 12/2003 Nitzsche (OSZ Handel I Berlin) Neuronale Netze: Bugbrain Arbeitsblatt 1: Erste Schritte Arbeits- 1 blatt Bitte beachten: Texte in Grotesk-Schrift sind Übersetzungen aus dem roten lab i notebook, sie sind also von dem Forscher geschrieben

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Erster Prüfungsteil: Aufgabe 1

Erster Prüfungsteil: Aufgabe 1 Erster Prüfungsteil: Aufgabe 1 a) Kreuze an, wie viele Minuten du ungefähr seit deiner Geburt gelebt hast.! 80 000 000! 8 000 000! 800 000! 80 000! 8 000 b) Bei einer Durchschnittsgeschwindigkeit von 80

Mehr

Rad-Fahrer. Straßen-Verkehr. Rhein-Sieg-Kreis Der Landrat Straßen-Verkehrs-Amt

Rad-Fahrer. Straßen-Verkehr. Rhein-Sieg-Kreis Der Landrat Straßen-Verkehrs-Amt Rad-Fahrer im Straßen-Verkehr Rhein-Sieg-Kreis Der Landrat Straßen-Verkehrs-Amt Rad-Fahrer im Straßen-Verkehr Im Straßen-Verkehr bewegen sich viele Menschen zu Fuß, mit dem Auto, mit dem Rad. Alle müssen

Mehr

Aufgabe 1 Kolloquium zur Klausur Innovationscontrolling Sommersemester 2014

Aufgabe 1 Kolloquium zur Klausur Innovationscontrolling Sommersemester 2014 Aufgabe 1 Kolloquium zur Klausur Innovationscontrolling Sommersemester 2014 Dipl.-Kfm. Stephan Körner Aufgabe 1: Investitionscontrolling (40 Punkte) Die Bleier & Mine GmbH ist Herstellerin von Büroartikeln

Mehr

T (n) = max. g(x)=n t(n) S(n) = max. g(x)=n s(n)

T (n) = max. g(x)=n t(n) S(n) = max. g(x)=n s(n) Beim Logarithmischen Kostenmaß wird, im Gegensatz zum EKM, die Stelligkeit der Werte berücksichtigt und mit in die Laufzeit eingerechnet. Beispiel: R1 := R2 (R3), wobei R2 den Wert 5, R3 den Wert 10 und

Mehr

Seminar zum Thema Künstliche Intelligenz: Clusteranalyse

Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 1 Inhaltsverzeichnis 1 Einleitung 4 1.1 Ein einführendes Beispiel........................ 4 1.2 Definition der Clusteranalyse......................

Mehr

Mathematik. Abiturprüfung 2014. Prüfungsteil A. Arbeitszeit: 90 Minuten. Bei der Bearbeitung der Aufgaben dürfen keine Hilfsmittel verwendet werden.

Mathematik. Abiturprüfung 2014. Prüfungsteil A. Arbeitszeit: 90 Minuten. Bei der Bearbeitung der Aufgaben dürfen keine Hilfsmittel verwendet werden. Mathematik Abiturprüfung 2014 Prüfungsteil A Arbeitszeit: 90 Minuten Bei der Bearbeitung der Aufgaben dürfen keine Hilfsmittel verwendet werden. Zu den Themengebieten Analysis, Stochastik und Geometrie

Mehr

Deskriptive Statistik Kapitel VII - Konzentration von Merkmalswerten

Deskriptive Statistik Kapitel VII - Konzentration von Merkmalswerten Deskriptive Statistik Kapitel VII - Konzentration von Merkmalswerten Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de Agenda 1. Einleitung 2. Lorenzkurve

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Pflichtteilaufgaben zu Stochastik (Pfadregeln, Erwartungswert, Binomialverteilung) Baden-Württemberg

Pflichtteilaufgaben zu Stochastik (Pfadregeln, Erwartungswert, Binomialverteilung) Baden-Württemberg Pflichtteilaufgaben zu Stochastik (Pfadregeln, Erwartungswert, Binomialverteilung) Baden-Württemberg Hilfsmittel: keine allgemeinbildende Gymnasien Alexander Schwarz www.mathe-aufgaben.com August 05 Übungsaufgaben:

Mehr

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav

Hypothesentests mit SPSS. Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Beispiel für eine einfaktorielle Varianzanalyse Daten: museum_m_v05.sav Hypothese: Die Beschäftigung mit Kunst ist vom Bildungsgrad abhängig. 1. Annahmen Messniveau: Modell: Die Skala zur Erfassung der

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

INHALTSVERZEICHNIS. Einleitung Allgemeines

INHALTSVERZEICHNIS. Einleitung Allgemeines Einleitung Allgemeines INHALTSVERZEICHNIS 1 Einleitung...3 1.1 Allgemeines...3 2 Arbeiten mit der Massenermittlung...4 2.1 Die Oberfläche...5 2.2 Einstellungen...6 2.3 Darstellung...6 2.3.1 Bauteile in

Mehr

Das Excel-Tool zur Darstellung der Finanzierung eines BGE in beliebiger Höhe

Das Excel-Tool zur Darstellung der Finanzierung eines BGE in beliebiger Höhe Das Excel-Tool zur Darstellung der Finanzierung eines BGE in beliebiger Höhe Das hier vorgestellte Excel-Tool zur Darstellung der Finanzierung eines BGE in beliebiger Höhe durch die Einkommen aller Bürger

Mehr

Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite 1/7

Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite 1/7 Klausur Modellbildung und Simulation (Prof. Bungartz) SS 2007 Seite /7 Matrikelnummer: Systeme gewöhnlicher Differentialgleichungen (3 + 3 = 6 Pkt.) Die Abbildung zeigt die Richtungsfelder von drei Differentialgleichungssystemen

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

M5 Viskosität von Flüssigkeiten

M5 Viskosität von Flüssigkeiten Christian Müller Jan Philipp Dietrich M5 Viskosität von Flüssigkeiten I. Dynamische Viskosität a) Erläuterung b) Berechnung der dynamischen Viskosität c) Fehlerrechnung II. Kinematische Viskosität a) Gerätekonstanten

Mehr

*Hierzu wird Microsoft Word benötigt. Mit freien Textverarbeitungen wie Open Office ist dies leider nicht möglich.

*Hierzu wird Microsoft Word benötigt. Mit freien Textverarbeitungen wie Open Office ist dies leider nicht möglich. WEKA Smart Doku mobil & easy So erstellen Sie Ihre individuellen Druck Vorlagen in MS Word* Sehr geehrter Kunde, die Druckfunktion der Smart Doku mobil & easy wurde komplett überarbeitet. Jetzt ist es

Mehr

Für 2-6 Spieler ab 8 Jahren.

Für 2-6 Spieler ab 8 Jahren. Für 2-6 Spieler ab 8 Jahren. Die Favoriten strampeln ums gelbe Trikot... und zwar mit Karten. Nicht gerade schweißtreibend, dafür aber mit genügend Nervenkitzel und Spaß! Geschwindigkeitskarten, Spurt

Mehr

Nr 4031 Version Prüfungsfragen gültig ab 1.1.2012. ZusatzNr 4032 ThemaNr 16. Anmerkungen

Nr 4031 Version Prüfungsfragen gültig ab 1.1.2012. ZusatzNr 4032 ThemaNr 16. Anmerkungen Nr 4031 Bewertung (Punkte) 3 ZusatzNr 4032 ThemaNr 16 nummer 11110 HF Die vor Ihnen fahrenden Fahrzeuge werden langsamer. Wie verhalten Sie sich? Allgemeine n bei : A und B und Kombinationen mit diesen

Mehr

II. Formalismus assoziativer Netze für VLSI - Implementierung

II. Formalismus assoziativer Netze für VLSI - Implementierung II. Formalismus assoziativer Netze für VLSI - Implementierung Um die Eigenschaften und die Verwendungsmöglichkeiten neuronaler Netzwerkmodelle beschreiben und vergleichen zu können, bedarf es einer allgemeinen,

Mehr

LCD-Verwaltungssoftware LCD-VSW

LCD-Verwaltungssoftware LCD-VSW Mit der LCD Verwaltungssoftware können die Textinformationen für die verschiedenen Anzeigen z. B. LCD UP, Tableaubaustein EB, Busch-triton erstellt Innerhalb eines Projektes können mehrere LCDs verwendet

Mehr

10. Versuch: Schiefe Ebene

10. Versuch: Schiefe Ebene Physikpraktikum für Pharmazeuten Universität Regensburg Fakultät Physik 10. Versuch: Schiefe Ebene In diesem Versuch untersuchen Sie Mechanik der schiefen Ebene, indem Sie mithilfe dem statischen und dynamischen

Mehr

Elementare Geometrie. Inhaltsverzeichnis. info@mathenachhilfe.ch. Fragen und Antworten. (bitte nur für den Eigengebrauch verwenden)

Elementare Geometrie. Inhaltsverzeichnis. info@mathenachhilfe.ch. Fragen und Antworten. (bitte nur für den Eigengebrauch verwenden) fua0306070 Fragen und Antworten Elementare Geometrie (bitte nur für den Eigengebrauch verwenden) Inhaltsverzeichnis 1 Geometrie 1.1 Fragen............................................... 1.1.1 Rechteck.........................................

Mehr

Hopfield-Netze. Rudolf Kruse Neuronale Netze 192

Hopfield-Netze. Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Rudolf Kruse Neuronale Netze 192 Hopfield-Netze Ein Hopfield-Netz ist ein neuronales Netz mit einem Graphen G = (U, C), das die folgenden Bedingungen erfüllt: (i)u hidden =,U in =U out =U,

Mehr