Feedback-Netze Rekurrentes Netze. Jordan- und Elman-Netze, Bidirektionaler assoziativer Speicher, Hopfield-Netz und Boltzmann-Maschine.

Größe: px
Ab Seite anzeigen:

Download "Feedback-Netze Rekurrentes Netze. Jordan- und Elman-Netze, Bidirektionaler assoziativer Speicher, Hopfield-Netz und Boltzmann-Maschine."

Transkript

1 Feedback-Netze Rekurrentes Netze Jordan- und Elman-Netze, Bidirektionaler assoziativer Speicher, Hopfield-Netz und Boltzmann-Maschine. Übung 2 zur Vorlesung Neuronale Netze Institut für Informatik, TU Clausthal Wintersemester 2004/2005

2 Einleitung Menge von Verarbeitungseinheiten Konnektivitätsmuster Regel zur Propagierung von Signalen Regel zum Kombinieren der Eingangssignale Regel zum Berechnen des Ausgangssignals Lernregel zur Anpassung der Gewichte Eingabeschicht Input Units Verborgene Schicht Hidden Units Ausgabeschicht Ouput Units Schichtenweise Verarbeitung Institut für Informatik TU Clausthal, Wintersemester 2004/2005 2

3 Anwendungen Bildverarbeitung Erkennen von Handschriften Erkennen von Personen Erkennen von Fehlstellen in Materialien Krankheitsdiagnose Klassifikation / Prognose Krankheitsverlaufsprognose Kreditwürdigkeitsprognose Vorhersage von Moleküleigenschaften Zeitreihenverarbeitung Börsenkurse Wetter Spracherkennung, -erzeugung Steuerung Roboter Bewegungssteuerung Regelung Datenaufbereitung Clustering Dimensionsreduktion Data Mining Physik-Beispiele Teilchenphysik Rekonstruktion von Spuren Triggeralgorithmen, Hardware Mustererkennung: RICH, Zerfälle Festkörperphysik Modellierung von Kristallwachstum Spinpropagation in Festkörpern Biophysik Membranverformung Rezeptoranalyse Institut für Informatik TU Clausthal, Wintersemester 2004/2005 3

4 Beispiel: Prognose der Temperaturentwicklung ingabewerte: Jahreszeit aktuelle Uhrzeit aktuelle Lufttemperatur Veränderung der Lufttemperatur gegenüber 24 Stunden Minimale Lufttemperatur der letzten 24 Stunden Maximale Lufttemperatur der letzten 24 Stunden aktuelle Bewölkung Sonnenscheindauer der letzten 24 Stunden Niederschlagsmenge in letzten 24 Stunden Luftdruck Luftdruckveränderung in letzten 24 Stunden etc. Ausgabewerte: Lufttemperatur in 3 Stunden Lufttemperatur in 6 Stunden Lufttemperatur in 2 Stunden Lufttemperatur in 24 Stunden Minimale Lufttemperatur der nächsten 24 Stunden Maximale Lufttemperatur der nächsten 24 Stunden Bewölkung in 24 Stunden Niederschlagsmenge in den nächsten 24 Stunden Die Output-Werte des ersten Datensatzes können zur Vorbesetzung der Kontextzellen verwendet werden. Der zweite Datensatz wird dann zum ersten Trainingsdatensatz. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 4

5 Taxonomy of Jain et al. (996) Institut für Informatik TU Clausthal, Wintersemester 2004/2005 5

6 Probleme? Institut für Informatik TU Clausthal, Wintersemester 2004/2005 6

7 Hebb (949) (D.Hebb: The organization of behavior. John Wiley, New York 949) Im Gehirn erfolgt Lernen durch Änderung der Synapsenstärken Der Psychologe Donald Hebb (949) stellte die Hypothese auf, dass sich die Gewichtung der Synapse verstärkt, wenn Neuronen vor oder nach der Synapse gleichzeitig aktiv sind Hebb'sche Regel Bei starker gleichzeitiger Aktivität der Neuronen wird deren Verbindungsgewicht erhöht. w ij = σ X i Y j wobei w ij das Gewicht von Input X i σ > 0 eine Konstante zum Output Y j Institut für Informatik TU Clausthal, Wintersemester 2004/2005 7

8 Auto-assoziative Netze Die Neuronen dienen sowohl zur Eingabe und Ausgabe. Durch Rückkopplungen versetzt eine Eingabe das Netz in Aktivität, die in einen stabilen Endzustand einschwingen soll. Die stabilen Zustände sind die gelernten (gespeicherten, entstörten) Eingabemuster. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 8

9 Feedforward-Netze Die Lernverfahren für Feedforward-Netze können im wesentlichen unverändert übernommen werden, da die Kantengewichte zu den Kontextzellen fest vorgegeben sind. Alle veränderbaren Kantengewichte werden mit dem BPG oder einem äquivalenten Verfahren trainiert: Nach jedem Modifikationsschritt der Kantengewichte erhalten die Kontextzellen ihre neuen Zuweisungen. Ein anderer Netztyp, der zur Analyse zeitabhängiger Prozesse verwendet wird, z.b. der Spracherkennung, ist das Time- Delay-Netz (TDNN). Das TDNN ist allerdings ein reines Feedforward-Netz (s. ZELL). Institut für Informatik TU Clausthal, Wintersemester 2004/2005 9

10 Rekurrente Netze Grundsätzlich kann man jedes Feedback-Netz (rekurrentes Netz), welches über eine endliche Folge von Zeitschritten betrachtet wird, durch ein äquivalentes Feedforward-Netz ersetzen. Diese Technik wird als zeitliches Entfalten (unfolding in time) bezeichnet: Einfaches Feedback-Netz Zeitlich entfaltetes Feedback-Netz Institut für Informatik TU Clausthal, Wintersemester 2004/2005 0

11 Rekurrente Netze Als Lernverfahren ist im Prinzip jedes Lernverfahren für ein Feedforward-Netz anwendbar, allerdings muss dafür gesorgt werden, dass die Gewichte der Kanten, die zu einer Kante des Feedback-Netzes gehören, gleich bleiben: Man summiere alle Änderungen für eine Feedback-Kante auf und führe erst dann die Veränderung durch! Institut für Informatik TU Clausthal, Wintersemester 2004/2005

12 Jordan- und Elman-Netze Speichermechanismus in Netzen für zeitabhängige Prozesse Jordan-Netze: Netztopologie der Feedforward-Netze + Kontextzellen Kontextzellen: Speicherung der Ausgabewerte Architektur eines Jordan-Netzwerkes Institut für Informatik TU Clausthal, Wintersemester 2004/2005 2

13 Jordan Netze (M.I.Jordan : Attractor Dynamics and parallelism in a connectionist sequential machine Proc. 8th Ann. Conf. of the Cognitive Science Soc., Hillsdale NJ, 986, pp ) schwach rückgekoppeltes 2-schichtiges Netzwerk Verwendung für Zeitreihen Überwachtes Lernen über eine Variation der Delta-Regel Auswertung über eine Rückkopplung des vorigen Outputs die nicht mit adaptiert wird Institut für Informatik TU Clausthal, Wintersemester 2004/2005 3

14 Elman-Netze rweiterung der Kontextzellen auf die verborgenen Schicht: Architektur eines Elman-Netzwerkes Beim Start eines Jordan- oder Elman-Netzes ( t=0 ) müssen die Kontextzellen auf sinnvolle Weise vorbesetzt werden. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 4

15 Bi-Directional associative memories (BAM) IEEE Transactions on Systems, Man, and Cybernetics 8, 49-60, 987) BAM (bidirectional associative memory): Zweischichtiges Netz mit Rückkopplungen zwischen den Schichten Verwendung als Assoziativspeicher Training nach der Hebb-Regel Auswerten durch Relaxation X X 2 X 3 S -Schicht J= J=2 J=n W ij =W ji S 2 -Schicht i= i=2 i=m Y Y 2 Y 3 Institut für Informatik TU Clausthal, Wintersemester 2004/2005 5

16 BAM Beschreibung Das BAM-Modell (bidirektionaler assoziativer Speicher) wurde Mitte der 80er Jahre von B. Kosko) entwickelt. Das BAM-Netzwerk besteht aus zwei Schichten, der S-Schicht (Eingabeschicht) und der S2-Schicht (Ausgabeschicht). Die binären Elemente der Schichten können Aktivitäten und 0 annehmen. Die Transferfunktion der Elemente ist: X i (t+) =, wenn W ij. X j (t)>0. X i (t+) = 0, wenn W ij. X j (t)<0. X i (t+) = X i (t), wenn W ij. X j (t)=0. Die beiden Schichten sind in beiden Richtungen vollständig miteinander verbunden. Die Gewichte sind symmetrisch: w ij = w ji Institut für Informatik TU Clausthal, Wintersemester 2004/2005 6

17 Hopfield-Netze (J.J.Hopfield : Neural Networks and Physical Systems with Emergent Computational Abilities Proc.Nat.Acad.Sci. USA, 79 (982), ) Hopfield-Netze sind Beispiele für Autoassoziativspeicher. Ursprünglich als physikalische Modelle zur Beschreibung des Magnetismus von Hopfield eingeführt und eng mit dem Ising-Modell verwandt. Eine einzige Schicht von n Neuronen. Die n Neuronen sind untereinander total vernetzt: Jedes Neuron besitzt eine Verbindung zu jedem anderen Neuron. Keine direkten Rückkopplungen: Kein Neuron ist direkt mit sich selbst verbunden. Rückkopplungen kommen über andere Neuronen zustande. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 7

18 Hopfield-Netze Das Netz ist symmetrisch gewichtet: Das Gewicht w ij der Verbindung zwischen Neuron i und Neuron j ist gleich dem Gewicht w ji der Verbindung zwischen Neuron j und Neuron i. i j: θ i w ij w ji = w ij θ θ w ij j i θ j i = j: W ii = 0 (keine direkte Rückkopplungen, keine Schleifen ) Institut für Informatik TU Clausthal, Wintersemester 2004/2005 8

19 Hopfield-Netze Arbeitsweise Daten werden als bipolare Vektoren kodiert Eingabe net i für Neuron i ist die übliche gewichtete Summe aller Eingangsverbindungen: net i (t+) = Σ j i W ji X j (t) Ausgabe des Neurons i : falls neti > θi X i (t+) = falls neti < θi X i(t) falls neti = θi Es erfolgt also keine Zustandsänderung des Neurons i, falls die Netzeingabe net i exakt dem Schwellenwert θ i entspricht. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 9

20 Hopfield-Netze Asynchrone Arbeitsweise Zu jedem Zeitpunkt wird nur ein Neuron ausgewählt und sein Zustand berechnet. Synchrone Arbeitsweise Alle Neuronen ändern ihre Zustände gleichzeitig. Stabiler Zustand Keine Zustandsänderung der Neuronen: X. W = X. (W Gewichtsmatrix, X {-, } n ). Bei Eingabe X = (-, ) oszilliert das Hopfield-Netz 0 0 mit der synchroner Arbeitweise zwischen den Zuständen (-, ) und (, -): Ein stabiler Zustand wird nicht erreicht! Institut für Informatik TU Clausthal, Wintersemester 2004/

21 Hopfield-Netze Mit Symmetrie (w ij = w ji ) und ohne Schleifen (w ii = 0) wird mit asynchroner Arbeitweise immer ein stabiler Zustand erreicht. Satz Ein Hopfield-Netz erreicht bei asynchroner Arbeitsweise aus einem beliebigen Zustand stets einen stabilen Zustand. Beweis Ähnlich wie beim BAM, mit der Energiefunktion: E(X) = ½ X. W. X T + θx T wobei θ=(θ,..., θ n ) der Schwellenwert-Vektor ist, zeigt man, dass bei Zustandsänderungen der Wert der Energiefunktion nicht größer wird. Da es nur endlich viele Zustände gibt, erreicht das Netz nach endlich vielen Schritten einen stabilen Zustand. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 2

22 Lernen in Hopfield-Netzen Bei Autoassoziativspeichern möchte man m Muster X,..., X m, X i {-,} n, m < n,,,auswendig lernen : X i. W= X i, i =,..., m (m stabile Zustände) Dazu wird die Hebb-Regel einmal angewendet: W = (X T. X I) (X m T. X m I), wobei I die Identitätsmatrix ist. W ist symmetrisch und w ii = 0 für alle i Hopfield-Netz (mit θ =0) Wie bei Assoziativspeichern/BAM wird bei m= das Muster exakt wieder erkannt. Bei m > Mustern keine Garantie: X p. W = X p.2 X p m. X p I+3 k p (X p. (X k ) T ). X k = (n m). X p + Störfaktor Institut für Informatik TU Clausthal, Wintersemester 2004/

23 Institut für Informatik TU Clausthal, Wintersemester 2004/ Lernen in Hopfield-Netzen = (n m). X p + Störfaktor Ist der Störfaktor 0, so ist sign(x p W) = X p, und das p. Muster wird richtig erkannt. Beispiel Das Muster X = (, -, -, ) soll gespeichert werden (z.b. als Kodierung des Bildes in 4 Pixel; ein Neuron pro Pixel) W:=X T.X I= X p. W = X p.2 X p m. X p I+3 k p (X p. (X k ) T ). X k =

24 Lernen in Hopfield-Netzen Beispiel Das Muster X = (, -, -, ) soll gespeichert werden (z.b. als Kodierung des Bildes in 4 Pixel; ein Neuron pro Pixel) x 2 W:= X T. X I = Wiedererkennung: x x 4 - X. W = (3, -3, -3, 3) sign (X. W) = X Ein ähnliches Muster Z = (, -, -, -) soll an gespeichertem Muster X erinnern: Z. W = (, -, -, ) = X (in der Regel wird der stabile Zustand erst durch mehrere Durchläufe gefunden) - x 3 Institut für Informatik TU Clausthal, Wintersemester 2004/

25 Anwendung von Hopfield-Netzen Typisches Beispiel: Travelling Salesman Problem (TSP) Problem Hopfield-Netze stabilisieren sich häufig in einem Zustand X, für welchen E(X) ein lokales Minimum, jedoch kein globales Minimum ist. Grund Die Energiefunktion steigt nie und das Netz kann das eingenommene lokale Energie-Minimum nicht wieder verlassen. Lösung mit Boltzmann-Maschinen! Institut für Informatik TU Clausthal, Wintersemester 2004/

26 Boltzmann-Maschine Die Struktur einer Boltzmann-Maschine ist wie die eines Hopfield-Netzes. Insbesondere: w ij = w ji für alle i j und w ii = 0 für alle i Wir betrachten aber 0/-Zustände (anstelle /-Zustände bei Hopfield- Netzen) Während die Zustände der Neuronen des Hopfield-Netzes durch die sgn-funktion deterministisch aktualisiert werden, wird in Boltzmann- Maschinen eine stochastische Aktivierung verwendet. Sei net i = Σ j i W ji X j die Netzeingabe für Neuron i. Dann wird X i wie folgt aktualisiert: X i = mit Wkt. p i 0 mit Wkt. - p i Institut für Informatik TU Clausthal, Wintersemester 2004/

27 Boltzmann-Maschine wobei p i = + e (net θ ) / T i i, T > 0 Temperaturkonstante. Dies kann etwa wie folgt realisiert werden: Wähle ein Neuron i zufällig aus Berechne p i Erzeuge eine (gleichverteilte) Zufallszahl Z in [0, ] Falls Z p i, setze X i :=, sonst X i := 0 Für sehr kleines T 0 verhält sich die Boltzmann-Maschine wie ein Hopfield-Netz (mit 0/-Zuaständen): Ist net i > θ i, so ist p i und es ist sehr wahrscheinlich X i =. Ist net i < θ i, so ist p i 0 und es ist sehr wahrscheinlich X i = 0. Institut für Informatik TU Clausthal, Wintersemester 2004/

28 Boltzmann-Maschine Bemerkung Die Sigmoidfunktion ist nicht die Aktualisierungsfunktion. Diese beeinflusst nur die Wahrscheinlichkeit der Zustandsänderung. Die Temperatur T beeinflusst wiederum die Steilheit der Sigmoidfunktion. Ist T groß, so ist die Wkt. dafür, dass das Netz von einem beliebigen Zustand in einen anderen beliebigen Zustand übergeht, deutlich größer als Null. Bei Zustandsänderungen kann aber der Wert der Energiefunktion (definiert wie bei Hopfield-Netzen) erhöht werden. Dies ist gewünscht: Damit ist die Möglichkeit für das Netz gegeben, sich aus lokalen Minima der Energiefunktion zu befreien. Institut für Informatik TU Clausthal, Wintersemester 2004/

29 Boltzmann-Maschine Bei fallendem T (also,,abkühlung ) werden Übergänge, die die Energie verringern, wahrscheinlicher als solche, die die Energie erhöhen. Arbeitsprinzip Beginne mit großer Temperatur T. Dann können alle Zustände angenommen werden. Das Netz bleibt nicht immer in einem lokalen Minimum.,,Simuliertes Abkühlen (Simulated Annealing): Lass T mit der Zeit langsam kleiner werden. Dann nimmt die Wahrscheinlichkeit ab, dass das Netz von einem niedrigen Energiezustand zu einem höheren springt. Man bleibt dann (hoffentlich) in einem globalen Minimum! Institut für Informatik TU Clausthal, Wintersemester 2004/

30 Boltzmann-Maschine E E E E Z Z Z Z Allgemein gilt: Das Verfahren des simulierten Abkühlens konvergiert mit großer Wahrscheinlichkeit gegen einen Zustand X, für welchen E(X) ein absolutes Minimum ist. Institut für Informatik TU Clausthal, Wintersemester 2004/

31 Aufgaben

32 Aufgabe Gegeben sind 2 Muster: Wie lautet die Gewichtsmatrix, falls diese Muster auf sich selbst abgebildet werden, und ein schwarzer Punkt für ein Ausgangssignal von +, ein weißer Punkt für - steht? Gib die Anzahl der Iterationsschritte an, nach denen sich die beiden Muster auf sich selbst abgebildet haben? Die beiden Muster werden schon nach einem Iterationsschritt auf sich selbst abgebildet. Institut für Informatik TU Clausthal, Wintersemester 2004/

33 Gestörte Muster Quadrat Kreuz Weiterhin kann auch der Fall vorkommen, dass das Netz gegen einen Zustand konvergiert, der keinem vorgegebenem Muster entspricht. Applet Institut für Informatik TU Clausthal, Wintersemester 2004/

34 Aufgabe 2 Gegeben sind folgende Parameter: Zahl der Neuronen: n Zahl der Lernmuster: M Schwellenwert Θ=2 Statische Kennlinie: Zweipunkt Z 2 -Kennlinie Lerndatei. Mustervektor X = (+,-,-,+,-,-,+,+,+) 2. Mustervektor X 2 = (-,-,+,-,+,-,+,-,-) Gezeigt wird die Funktionsweise des Hopfield-Netzes: Institut für Informatik TU Clausthal, Wintersemester 2004/

35 Lösung 2 Schritt. Lernen: W =0 für i=j W 2 =(+)(-)+(-)(-)=0 W 3 =(+)(-)+(-)(+)=-2 W 4 =(+)(+)+(-)(-)=+2 W 5 =(+)(-)+(-)(+)=-2 W 6 =(+)(-)+(-)(-)=0 Gewichtsmatrix für 2 gelernte Muster: W,2= Institut für Informatik TU Clausthal, Wintersemester 2004/

36 Gelernte Muster sowie verrauschte Muster für das Beispiel Hopfield-Netz X X 2 X Muster 2. Muster 2. Muster mit Rauchen Institut für Informatik TU Clausthal, Wintersemester 2004/

37 Schritt 2. Energie des Musters berechnen: E =-0,5 [X. (W 3. X 3 + W 4. X 4 + W 5. X 5 +W 8. X 8 +W 9. X 9 )+ X 4. (W 4. X + W 43. X 3 + W 45. X 8 +W 48. X 8 +W 49. X 9 )+ X 7. (W 72. X 2 + W 76. X 6 )+ X 8. (W 8. X + W 83. X 3 + W 84. X 4 +W 85. X 5 +W 89. X 9 )+ X 9. (W 9. X + W 93. X 3 + W 94. X 4 +W 95. X 5 +W 98. X 8 ) ]. E = -0,5. [(-2). (-)+(2). ()+(-2). (-)+(2). ()+(2). ()]=-5 E 4 = -0,5. [(2). ()+(-2). (-)+(-2). (-)+(2). ()+(2). ()]=-5 E 7 = -0,5. [(-2). (-)+(-2). (-)]=-2 E 8 = -0,5. [(2). ()+(-2). (-)+(2). ()+(-2). (-)+(2). ()]=-5 E 9 = -0,5. [(2). ()+(-2). (-)+(2). ()+(-2). (-)+(2). ()]=-5 Damit ergibt sich für das.muster: E = X. E +X 4. E 4 +X 7. E 7 +X 8. E 8 +X 9. E 9 = -22 Genauso ist die Energie des 2.Musters zu berechnen: E 2 = -2 Institut für Informatik TU Clausthal, Wintersemester 2004/

38 Schritt 3. Erkennen (Iterationen): X 3 = (-,-,+,-,+,-,-,-,-) E 3 =-2. Die Aktivierungswerte und die neuen Neuronenzustände: α 3 =W. X 3 (t)+w 2. X 23 (t)+...+w 9. X 93 (t) =0. (-)+0. (-)+(-2). +2. (-)+(-2). +0. (-)+0. (-)+2. (-)+ 2. (-) = -0<0. Da α 3 <0 ist, wird der neue Zustand X 3 (t+)= - α 23 =W 2. X 3 (t)+w 22. X 23 (t)+ +W 92. X 93 (t)=2. (-)+(-2). (-)= 0. Da α 23 =0 ist, wird der Zustand nicht geändert X 23 (t+)= - α 33 =W 3. X 3 (t)+w 23. X 23 (t)+ +W 93. X 93 (t)=(-2). (-)+(-2). (-)+2. +(-2). (-)+(-2). (-)= 0 >0. und X 33 (t+)= + Institut für Informatik TU Clausthal, Wintersemester 2004/

39 Die Zustände nach der.iteration sind unten gezeigt: α 3 =-0 X 3 (t+)=- α 23 =0 X 23 (t+)=- α 33 =0 X 33 (t+)=+ α 43 =-0 X 43 (t+)=- α 53 =0 X 53 (t+)=+ α 63 =0 X 63 (t+)=- α 73 =4 X 73 (t+)=+ α 83 =-0 X 83 (t+)=- α 93 =-0 X 93 (t+)=- Institut für Informatik TU Clausthal, Wintersemester 2004/

40 Aufgabe 3 Das BAM-Netz mit N=6 Neuronen in der.schicht und M=4 Neuronen der 2.Schrit hat 4 Musterpaare gelernt. Muster X = (,,-,-,,) Y = (-,,,) Muster 2 X 2 = (,,,-,-,-) Y 2 = (,-,,-) Muster 3 X 3 = (,-,,-,,) Y 3 = (,,-,-) Muster 4 X 4 = (,,,,-,-) Y 4 = (-,,,-) Die dabei entstehende Gewichtsmatrix ist rechts dargestellt. W= Überprüfen Sie, ob das Netz bei der Eingabe des Musters X 4 richtig funktioniert, d.h. die Antwort Y 4 ausgeben wird. 2. Wo liegt die theoretische Obergrenze für die Anzahl der gespeicherten Musterpaare? Institut für Informatik TU Clausthal, Wintersemester 2004/

41 Lösung 3 α=(+2). (-) + (-2). (+) + (+2). (+) + (-2). (+) + 0. (+) + (-2). (-) = -2 Y =- α2=0. (-) + 0. (+) + 0. (+) + 0. (+) +(+2). (-) + 0. (-) = -2 Y 2 =- α3=0. (-) + (+4). (+) + 0. (+) + 0. (+) +(-2). (+) + 0. (-) = 6 Y 3 = α4=0. (-) + 0. (+) + (-4). (+) + 0. (+) +(+2). (-) + (+4). (-) = -0 Y 4 =- Das Netz kommt zu einem falschen Wert: Statt Y 4 =(-,,, -) wird (-, -,, -) ausgegeben. Damit konvergiert das Netz in einen falschen Zustand. Die maximale Anzahl der gespeicherten Muster ist L<min (N,M). Für den vorliegenden Fall mit N=6 und M=4 kannf das Netz maximal 3 Musterpaare lernen. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 4

42 Applet Associative Memory: Hopfield model Applet : Applet 2: Applet 3: Applet 4: Mustererkennung mit BAM Applet 5: Boltzman Das Applet zur Lösung des TSP mit Simulated Annealing Institut für Informatik TU Clausthal, Wintersemester 2004/

43 Bildmustererkennung mit Hilfe eines Hopfield-Netzes Institut für Informatik TU Clausthal, Wintersemester 2004/

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

1 Neuronale Netze Historisches

1 Neuronale Netze Historisches 1 Neuronale Netze Historisches Literatur, erste Modelle 1 begleitende Literatur T.Kohonen: Associative Memory: A system theoretic approach. New York, Springer 1977 D.E.Rumelhart, J.L.McLelland: Parallel

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Einführung in. Neuronale Netze

Einführung in. Neuronale Netze Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten

Mehr

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung

Mehr

weitere Modelle und Methoden

weitere Modelle und Methoden weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion

Mehr

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse -

Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Development of Methods to Detect Products Made from Organic Salmon FKZ: 02OE073/1

Mehr

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.

Personalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining. Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen

Mehr

Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik

Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik Karl Heinz Hoffmann TU Chemnitz Die Professur Stand: 18.07.11 2 Die Professur Professor: Prof. Dr. Karl Heinz Hoffmann

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung

Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

ULM. Intelligenter Greifarm. ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht. Michael Awiszus Niklas Haas

ULM. Intelligenter Greifarm. ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht. Michael Awiszus Niklas Haas ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht ULM Intelligenter Greifarm Michael Awiszus Niklas Haas Schule: GHRS Sontheim Neustraße 60-62 89567 Sontheim Robert-Bosch-Gymnasium Freistegstraße

Mehr

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer

Hochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind

Mehr

Structurally Evolved Neural Networks for Forecasting

Structurally Evolved Neural Networks for Forecasting Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze Modul Informatik Seminar Simon Krenger, Frühlingssemester 2015 Studiengang: Informatik Autor: Simon Krenger Betreuer: Prof. Dr. Jürgen Eckerle Datum: 25.05.2015 Berner Fachhochschule

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)

Mehr

Neuronale Netze in der Robotik

Neuronale Netze in der Robotik Seminarvortrag Neuronale Netze in der Robotik Datum: 18.01.2002 Vortragende: Elke von Lienen Matrikelnummer: 302489 Studiengang: Informatik Inhaltsverzeichnis Einleitung 3 Biologisches Vorbild 4 Künstliche

Mehr

Growing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012

Growing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012 Growing neural Gas Strukturen lernen Torsten Siedel 23.05.2012 Inhalt 1. Prozess der Selbstorganisation 2. Lernen - momentan oder statistisch? 3. Vektorbasierte Neuronale Netze 4. Klassifizierung der Lernverfahren

Mehr

R ist freie Software und kann von der Website. www.r-project.org

R ist freie Software und kann von der Website. www.r-project.org R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird

Mehr

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht 2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine

Mehr

Vorlesung 3 MINIMALE SPANNBÄUME

Vorlesung 3 MINIMALE SPANNBÄUME Vorlesung 3 MINIMALE SPANNBÄUME 72 Aufgabe! Szenario: Sie arbeiten für eine Firma, die ein Neubaugebiet ans Netz (Wasser, Strom oder Kabel oder...) anschließt! Ziel: Alle Haushalte ans Netz bringen, dabei

Mehr

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten

Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Fachhochschule Brandenburg Fachbereich Informatik und Medien Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Diplomkolloquium Sven Schröder Aufgabenstellung und Motivation Biologisches

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Übungen 19.01.2012 Programmieren 1 Felix Rohrer. Übungen

Übungen 19.01.2012 Programmieren 1 Felix Rohrer. Übungen Übungen if / else / else if... 2... 2 Aufgabe 2:... 2 Aufgabe 3:... 2 Aufgabe 4:... 2 Aufgabe 5:... 2 Aufgabe 6:... 2 Aufgabe 7:... 3 Aufgabe 8:... 3 Aufgabe 9:... 3 Aufgabe 10:... 3 switch... 4... 4 Aufgabe

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen, Einsatz z.b. für Klassifizierungsaufgaben

Mehr

Adaptive Behavior from Fixed Weight Networks

Adaptive Behavior from Fixed Weight Networks Adaptive Behavior from Fixed Weight Networks Jonas Zilles, 11. Juni 007 Betreuer: Dr. Mohamed Oubbati 1 Inhaltsverzichnis 1. Abstrakt Seite 3. Einführung Seite 3 3. Problem. Seite 5 3.1. Training. Seite

Mehr

Rekonstruktion 3D-Datensätze

Rekonstruktion 3D-Datensätze Rekonstruktion 3D-Datensätze Messung von 2D Projektionsdaten von einer 3D Aktivitätsverteilung Bekannt sind: räumliche Anordnung der Detektoren/Projektionsflächen ->Ziel: Bestimmung der 3D-Aktivitätsverteilung

Mehr

Die Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs

Die Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs Die Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs 1. Klagenfurter KMU Tagung Tanja Schuschnig Alexander Brauneis Institut für Finanzmanagement 25.09.2009

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

Universität Karlsruhe (TH)

Universität Karlsruhe (TH) Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 ZPL Prof. Dr. Walter F. Tichy Dr. Victor Pankratius Ali Jannesari Agenda 1. ZPL Überblick 2. Konzepte von ZPL Regionen, Region Specifiers

Mehr

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06 Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und

Mehr

Innovative Information Retrieval Verfahren

Innovative Information Retrieval Verfahren Thomas Mandl Innovative Information Retrieval Verfahren Hauptseminar Wintersemester 2004/2005 Letzte Sitzung Grundlagen Heterogenität Ursachen Beispiele Lösungsansätze Visualisierung 2D-Karten heute Maschinelles

Mehr

Tag 9: Datenstrukturen

Tag 9: Datenstrukturen Tag 9: Datenstrukturen A) Datenstrukturen B) Cell Arrays C) Anwendungsbeispiel: Stimulation in einem psychophysikalischen Experiment A) Datenstrukturen Wenn man komplizierte Datenmengen verwalten möchte,

Mehr

Künstliches binäres Neuron

Künstliches binäres Neuron Künstliches binäres Neuron G.Döben-Henisch Fachbereich Informatik und Ingenieurwissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

Übersicht. 20. Verstärkungslernen

Übersicht. 20. Verstärkungslernen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes

Mehr

Bioinformatik I (Einführung)

Bioinformatik I (Einführung) Kay Diederichs, Sommersemester 2015 Bioinformatik I (Einführung) Algorithmen Sequenzen Strukturen PDFs unter http://strucbio.biologie.unikonstanz.de/~dikay/bioinformatik/ Klausur: Fr 17.7. 10:00-11:00

Mehr

Räumliches Data Mining

Räumliches Data Mining Räumliches Data Mining Spatial Data Mining Data Mining = Suche nach "interessanten Mustern" in sehr großen Datensätzen => explorative Datenanlyse auch: Knowledge Discovery in Databases (KDD) verbreitete

Mehr

Proposal zur Masterarbeit. Kombination der neuroevolutionären Methoden EANT mit Q-Learning und CMA-ES

Proposal zur Masterarbeit. Kombination der neuroevolutionären Methoden EANT mit Q-Learning und CMA-ES Proposal zur Masterarbeit Kombination der neuroevolutionären Methoden EANT mit Q-Learning und CMA-ES Tchando Kongue Einleitung Neuroevolutionäre Algorithmen sind Methoden, die durch die Benutzung von genetischen

Mehr

Die Berechnung des Menschen

Die Berechnung des Menschen Munich Center for Technology in Society Die Berechnung des Menschen Wissenschaftstheoretische Grundlagen von Big Data in den Life Sciences und im Gesundheitsbereich Lehrstuhl für Philosophie und Wissenschaftstheorie

Mehr

Statische Timing-Analyse

Statische Timing-Analyse 2.6 Statische Timing Analyse Statische Timing-Analyse Überblick Delay Elmore-Delay Wire-Load-Modell Pfad-Problem Pfade/Cones Kritischer Pfad Setup- und Hold- Zeit Ein- und Ausgänge Falsche Pfade Slack

Mehr

HOCHSCHULE KONSTANZ TECHNIK, WIRTSCHAFT UND GESTALTUNG. Das Luzifer-Rätsel. Prof. Dr. Hartmut Plesske Wintersemester 2008/09. von.

HOCHSCHULE KONSTANZ TECHNIK, WIRTSCHAFT UND GESTALTUNG. Das Luzifer-Rätsel. Prof. Dr. Hartmut Plesske Wintersemester 2008/09. von. HOCHSCHULE KONSTANZ TECHNIK, WIRTSCHAFT UND GESTALTUNG Fakultät Informatik Das Luzifer-Rätsel Prof. Dr. Hartmut Plesske Wintersemester 2008/09 von Max Nagl nagl@fh-konstanz.de Inhaltsverzeichnis Inhaltsverzeichnis

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Lösungen zum Buch: Wissensverarbeitung Kapitel 10 Künstliche neuronale Netze Lösung 10.1 (Maschinelles Lernen) a) Ein Computerprogramm lernt aus einer Erfahrung E bezüglich einer Aufgabenklasse T und einer

Mehr

Merkmalbasierte Zeichenerkennung mittels neuronaler Netze

Merkmalbasierte Zeichenerkennung mittels neuronaler Netze UNIVERSITÄT BAYREUTH MATHEMATISCHES INSTITUT Merkmalbasierte Zeichenerkennung mittels neuronaler Netze Diplomarbeit von Lisa Sammer Datum: 10. Mai 2005 Aufgabenstellung / Betreuung: Prof. Dr. Lars Grüne

Mehr

Data Mining Anwendungen und Techniken

Data Mining Anwendungen und Techniken Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 04/05. Musterlösung 9

Übungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 04/05. Musterlösung 9 ALBERT-LUDWIGS-UNIVERSITÄT FREIBURG INSTITUT FÜR INFORMATIK Lehrstuhl für Mustererkennung und Bildverarbeitung Prof. Dr.-Ing. Hans Burkhardt Georges-Köhler-Allee Geb. 52, Zi -29 D-79 Freiburg Tel. 76-23

Mehr

Jan Parthey, Christin Seifert. 22. Mai 2003

Jan Parthey, Christin Seifert. 22. Mai 2003 Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

Der Einsatz künstlicher neuronaler Netze in der industriellen Feuerversicherung

Der Einsatz künstlicher neuronaler Netze in der industriellen Feuerversicherung Tobias Nagel Der Einsatz künstlicher neuronaler Netze in der industriellen Feuerversicherung PETER LANG Frankfurt am Main Berlin Bern Bruxelles New York- Oxford Wien Inhaltsverzeichnis Inhaltsverzeichnis

Mehr

Modellierung wirtschaftlicher Prozesse mit Neuronalen Netzen

Modellierung wirtschaftlicher Prozesse mit Neuronalen Netzen Computerlinguistik und Künstliche Intelligenz Modellierung wirtschaftlicher Prozesse mit Neuronalen Netzen MAGISTERARBEIT ZUR ERLANGUNG DES MAGISTER ARTIUMS im Fachbereich Sprach- und Literaturwissenschaft

Mehr

Variable Trajektoriendichte für Magnetic Particle Imaging

Variable Trajektoriendichte für Magnetic Particle Imaging Variable Trajektoriendichte für Magnetic Particle Imaging Sven Biederer, Timo F. Sattel, Tobias Knopp, Thorsten M. Buzug Institut für Medizintechnik, Universität zu Lübeck, Lübeck biederer@imt.uni-luebeck.de

Mehr

Neuronale Netze Eine Einführung

Neuronale Netze Eine Einführung Neuronale Netze Eine Einführung Druckversion der Internetseite www.neuronalesnetz.de Inhaltsverzeichnis Grundlagen Einleitung Units Verbindungen Input Aktivität Training und Test Matrizendarstellung Zfs.

Mehr

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben

Mehr

Seminar zum Thema Künstliche Intelligenz:

Seminar zum Thema Künstliche Intelligenz: Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden

Mehr

Neuronale Steuerungsparadigmen für autonome Roboter realisiert durch ein flexibles Software-Tool

Neuronale Steuerungsparadigmen für autonome Roboter realisiert durch ein flexibles Software-Tool Universität Leipzig Fakultät für Mathematik und Informatik (Institut für Informatik) Neuronale Steuerungsparadigmen für autonome Roboter realisiert durch ein flexibles Software-Tool Diplomarbeit vorgelegt

Mehr

Text Mining 4. Seminar Klassifikation

Text Mining 4. Seminar Klassifikation Text Mining 4. Seminar Klassifikation Stefan Bordag 1. Klassifikation Stringklassifikation (männliche-weibliche Vornamen) Dokument klassifikation Bayesian Neuronal network (Decision tree) (Rule learner)

Mehr

Proseminar - Data Mining

Proseminar - Data Mining Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2012, SS 2012 1 Data Mining Pipeline Planung Aufbereitung Modellbildung Auswertung Wir wollen nützliches Wissen

Mehr

Zeit- und Ressourcenplanung leicht gemacht - Unterstützung durch Simulation

Zeit- und Ressourcenplanung leicht gemacht - Unterstützung durch Simulation - für Zeit- und Ressourcenplanung leicht gemacht - Unterstützung durch Simulation Zeit- und Ressourcenplanung leicht gemacht - Unterstützung durch Simulation Thomas Hanne *, Patrick Lang, Stefan Nickel,

Mehr

Statische Timing-Analyse

Statische Timing-Analyse Navigation Statische Timing-Analyse Delay Elmore-Delay Wire-Load-Modell Pfad-Problem Pfade/Cones Kritischer Pfad... Breitensuche Setup- und Hold-Zeit Ein- und Ausgänge Sensibilisierbarkeit Slack-Histogramm

Mehr

Künstliche Neuronale Netze und Data Mining

Künstliche Neuronale Netze und Data Mining Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung

Mehr

Neuronale Netze/ Soft Computing. Teil 1

Neuronale Netze/ Soft Computing. Teil 1 Neuronale Netze/ Soft Computing Teil 1 BiTS, Wintersemester 2004/2005 Dr. Stefan Kooths KOOTHS BiTS: Neuronale Netze / Soft Computing, WS 2004/2005 Teil 1 1 Gliederung 1. Einführung und Einordnung 2. Neuronale

Mehr

ANWENDUNG NEURONALER NETZE IN DER FINANZWIRTSCHAFT

ANWENDUNG NEURONALER NETZE IN DER FINANZWIRTSCHAFT STUDIEN ZUM FINANZ-, BANK- UND VERSICHERUNGSMANAGEMENT Hrsg.: Professor Dr. Reinhold Hölscher Band 6 ANWENDUNG NEURONALER NETZE IN DER FINANZWIRTSCHAFT von Bülent Acig Kaiserslautern 2001 ISSN 1435-8484

Mehr

GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen

GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen Rheinische Friedrich-Wilhelms-Universität Bonn Institut für Informatik VI Dominik Scherer GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen 8. Juni 2009 Diplomarbeit Erstgutachter: Prof.

Mehr

Fachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller

Fachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller Fachhochschule Köln 07 Fakultät für Informations-, Medien-, und Elektrotechnik Institut für Nachrichtentechnik Studiengang Master Technische Informatik Konzepte des maschinellen Lernens Ausarbeitung vorgelegt

Mehr

Ein Vergleich von Methoden für Multi-klassen Support Vector Maschinen

Ein Vergleich von Methoden für Multi-klassen Support Vector Maschinen Ein Vergleich von Methoden für Multi-klassen Support Vector Maschinen Einführung Auf binären Klassifikatoren beruhende Methoden One-Against-All One-Against-One DAGSVM Methoden die alle Daten zugleich betrachten

Mehr

Grundlagen verteilter Systeme

Grundlagen verteilter Systeme Universität Augsburg Insitut für Informatik Prof. Dr. Bernhard Bauer Wolf Fischer Christian Saad Wintersemester 08/09 Übungsblatt 5 26.11.08 Grundlagen verteilter Systeme Lösungsvorschlag Aufgabe 1: Erläutern

Mehr

Kapitel 4: Analyse von Petrinetzen

Kapitel 4: Analyse von Petrinetzen Kapitel 4: Analyse von Petrinetzen 1. Beispiele 2. Analyseansatz 3. Markierungsgraph 4. Beschränktheit 5. State Space Explosion: Beispiel 6. Komplementbildung 7. Zusammenhängend 8. Tot, lebendig, verklemmungsfrei

Mehr

Zusammenfassung der 8. Vorlesung

Zusammenfassung der 8. Vorlesung Zusammenfassung der 8. Vorlesung Beschreibung und und Analyse dynamischer Systeme im im Zustandsraum Steuerbarkeit eines dynamischen Systems Unterscheidung: Zustandssteuerbarkeit, Zustandserreichbarkeit

Mehr

Anleitung zum Praktikum Künstliche Neuronale Netze. Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik

Anleitung zum Praktikum Künstliche Neuronale Netze. Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik Anleitung zum Praktikum Künstliche Neuronale Netze Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik Inhaltsverzeichnis Einleitung 2. Sinn und Zweck des Praktikums KNN........................

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Tobias Stähle 23.05.2014 1 Einführung 1.1 Was ist Machine Learning? Während am Anfang Computer noch auf das reine Ausrechnen beschränkt waren

Mehr

TEILWEISE ASYNCHRONE ALGORITHMEN

TEILWEISE ASYNCHRONE ALGORITHMEN TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner

Mehr

Artificial Life und Multiagentensysteme

Artificial Life und Multiagentensysteme Vortrag im Rahmen des Seminars: Artificial Life und Multiagentensysteme Prof. Dr. Winfried Kurth Sommersemester 2003 Prognose von Zeitreihen mit GA/GP Mathias Radicke, Informatikstudent, 10. Semester Gliederung

Mehr

Vergleich von Methoden zur Rekonstruktion von genregulatorischen Netzwerken (GRN)

Vergleich von Methoden zur Rekonstruktion von genregulatorischen Netzwerken (GRN) Exposé zur Bachelorarbeit: Vergleich von Methoden zur Rekonstruktion von genregulatorischen Netzwerken (GRN) Fakultät: Informatik, Humboldt-Universität zu Berlin Lijuan Shi 09.05.2013 Betreuer: Prof. Dr.

Mehr

Beaufsichtigtes Lernen

Beaufsichtigtes Lernen Vortragsausarbeitung Beaufsichtigtes Lernen Seminar NEURONALE NETZE Leiter: Dr. B. Freisleben Sommersemester 1993 Torsten Felzer Matr.-Nr.: 805 768 6. Semester Inf Alexandra Heidger Matr.-Nr.: 810 148

Mehr

Datenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de

Datenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de Datenbankanwendung Wintersemester 2014/15 Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern smichel@cs.uni-kl.de Wiederholung: Anfragegraph Anfragen dieses Typs können als Graph dargestellt werden: Der

Mehr

Proseminar - Data Mining

Proseminar - Data Mining Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2014, SS 2014 1 Data Mining: Beispiele (1) Hausnummererkennung (Klassifikation) Source: http://arxiv.org/abs/1312.6082,

Mehr

Grundlagen der Theoretischen Informatik, SoSe 2008

Grundlagen der Theoretischen Informatik, SoSe 2008 1. Aufgabenblatt zur Vorlesung Grundlagen der Theoretischen Informatik, SoSe 2008 (Dr. Frank Hoffmann) Lösung von Manuel Jain und Benjamin Bortfeldt Aufgabe 2 Zustandsdiagramme (6 Punkte, wird korrigiert)

Mehr

Kryptologie und Kodierungstheorie

Kryptologie und Kodierungstheorie Kryptologie und Kodierungstheorie Alexander May Horst Görtz Institut für IT-Sicherheit Ruhr-Universität Bochum Lehrerfortbildung 17.01.2012 Kryptologie Verschlüsselung, Substitution, Permutation 1 / 18

Mehr

Anmerkungen zur Übergangsprüfung

Anmerkungen zur Übergangsprüfung DM11 Slide 1 Anmerkungen zur Übergangsprüfung Aufgabeneingrenzung Aufgaben des folgenden Typs werden wegen ihres Schwierigkeitsgrads oder wegen eines ungeeigneten fachlichen Schwerpunkts in der Übergangsprüfung

Mehr

Multivariate Statistik

Multivariate Statistik Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)

Mehr

1.3.5 Clinical Decision Support Systems

1.3.5 Clinical Decision Support Systems Arzneimitteltherapie Thieme Verlag 1.3.5 Clinical Decision Support Systems Marco Egbring, Stefan Russmann, Gerd A. Kullak-Ublick Im Allgemeinen wird unter dem Begriff Clinical Decision Support System (CDSS)

Mehr

Protokoll zum Informatik Praktikum. Themenbereich: Neuronale Netze

Protokoll zum Informatik Praktikum. Themenbereich: Neuronale Netze Protokoll zum Informatik Praktikum Themenbereich: Neuronale Netze (1) Gegenstand des Praktikums (2) Beschreibung des Netzwerks (3) Der genetische Lernalgorithmus (4) Codierung der Lerndaten und Kapazität

Mehr

Distributed Graph Layout for Sensor Networks

Distributed Graph Layout for Sensor Networks Distributed Graph Layout for Sensor Networks Ausarbeitung zum Seminar Zeichnen von Graphen (WS04/05) Prof. Dr. Ulrik Brandes Basierend auf dem gleichnamigen Artikel von C. Gotsman und Y. Koren, Proceedings

Mehr

Simulation neuronaler Netze

Simulation neuronaler Netze Simulation neuronaler Netze von Professor Dr. Andreas Zeil Universität Tübingen R. Oldenbourg Verlag München Wien Inhaltsverzeichnis Teil I: Einführung und Neurobiologische Grundlagen 21 Kapitel 1 Einleitung

Mehr

Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen

Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen Optimale Echtzeit-Personaleinsatzplanung durch Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen 7.05.2006 Frank Köller koeller@iwi.uni-hannover.de Gliederung Motivation Vorgehensweise

Mehr