Feedback-Netze Rekurrentes Netze. Jordan- und Elman-Netze, Bidirektionaler assoziativer Speicher, Hopfield-Netz und Boltzmann-Maschine.
|
|
- Heini Giese
- vor 6 Jahren
- Abrufe
Transkript
1 Feedback-Netze Rekurrentes Netze Jordan- und Elman-Netze, Bidirektionaler assoziativer Speicher, Hopfield-Netz und Boltzmann-Maschine. Übung 2 zur Vorlesung Neuronale Netze Institut für Informatik, TU Clausthal Wintersemester 2004/2005
2 Einleitung Menge von Verarbeitungseinheiten Konnektivitätsmuster Regel zur Propagierung von Signalen Regel zum Kombinieren der Eingangssignale Regel zum Berechnen des Ausgangssignals Lernregel zur Anpassung der Gewichte Eingabeschicht Input Units Verborgene Schicht Hidden Units Ausgabeschicht Ouput Units Schichtenweise Verarbeitung Institut für Informatik TU Clausthal, Wintersemester 2004/2005 2
3 Anwendungen Bildverarbeitung Erkennen von Handschriften Erkennen von Personen Erkennen von Fehlstellen in Materialien Krankheitsdiagnose Klassifikation / Prognose Krankheitsverlaufsprognose Kreditwürdigkeitsprognose Vorhersage von Moleküleigenschaften Zeitreihenverarbeitung Börsenkurse Wetter Spracherkennung, -erzeugung Steuerung Roboter Bewegungssteuerung Regelung Datenaufbereitung Clustering Dimensionsreduktion Data Mining Physik-Beispiele Teilchenphysik Rekonstruktion von Spuren Triggeralgorithmen, Hardware Mustererkennung: RICH, Zerfälle Festkörperphysik Modellierung von Kristallwachstum Spinpropagation in Festkörpern Biophysik Membranverformung Rezeptoranalyse Institut für Informatik TU Clausthal, Wintersemester 2004/2005 3
4 Beispiel: Prognose der Temperaturentwicklung ingabewerte: Jahreszeit aktuelle Uhrzeit aktuelle Lufttemperatur Veränderung der Lufttemperatur gegenüber 24 Stunden Minimale Lufttemperatur der letzten 24 Stunden Maximale Lufttemperatur der letzten 24 Stunden aktuelle Bewölkung Sonnenscheindauer der letzten 24 Stunden Niederschlagsmenge in letzten 24 Stunden Luftdruck Luftdruckveränderung in letzten 24 Stunden etc. Ausgabewerte: Lufttemperatur in 3 Stunden Lufttemperatur in 6 Stunden Lufttemperatur in 2 Stunden Lufttemperatur in 24 Stunden Minimale Lufttemperatur der nächsten 24 Stunden Maximale Lufttemperatur der nächsten 24 Stunden Bewölkung in 24 Stunden Niederschlagsmenge in den nächsten 24 Stunden Die Output-Werte des ersten Datensatzes können zur Vorbesetzung der Kontextzellen verwendet werden. Der zweite Datensatz wird dann zum ersten Trainingsdatensatz. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 4
5 Taxonomy of Jain et al. (996) Institut für Informatik TU Clausthal, Wintersemester 2004/2005 5
6 Probleme? Institut für Informatik TU Clausthal, Wintersemester 2004/2005 6
7 Hebb (949) (D.Hebb: The organization of behavior. John Wiley, New York 949) Im Gehirn erfolgt Lernen durch Änderung der Synapsenstärken Der Psychologe Donald Hebb (949) stellte die Hypothese auf, dass sich die Gewichtung der Synapse verstärkt, wenn Neuronen vor oder nach der Synapse gleichzeitig aktiv sind Hebb'sche Regel Bei starker gleichzeitiger Aktivität der Neuronen wird deren Verbindungsgewicht erhöht. w ij = σ X i Y j wobei w ij das Gewicht von Input X i σ > 0 eine Konstante zum Output Y j Institut für Informatik TU Clausthal, Wintersemester 2004/2005 7
8 Auto-assoziative Netze Die Neuronen dienen sowohl zur Eingabe und Ausgabe. Durch Rückkopplungen versetzt eine Eingabe das Netz in Aktivität, die in einen stabilen Endzustand einschwingen soll. Die stabilen Zustände sind die gelernten (gespeicherten, entstörten) Eingabemuster. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 8
9 Feedforward-Netze Die Lernverfahren für Feedforward-Netze können im wesentlichen unverändert übernommen werden, da die Kantengewichte zu den Kontextzellen fest vorgegeben sind. Alle veränderbaren Kantengewichte werden mit dem BPG oder einem äquivalenten Verfahren trainiert: Nach jedem Modifikationsschritt der Kantengewichte erhalten die Kontextzellen ihre neuen Zuweisungen. Ein anderer Netztyp, der zur Analyse zeitabhängiger Prozesse verwendet wird, z.b. der Spracherkennung, ist das Time- Delay-Netz (TDNN). Das TDNN ist allerdings ein reines Feedforward-Netz (s. ZELL). Institut für Informatik TU Clausthal, Wintersemester 2004/2005 9
10 Rekurrente Netze Grundsätzlich kann man jedes Feedback-Netz (rekurrentes Netz), welches über eine endliche Folge von Zeitschritten betrachtet wird, durch ein äquivalentes Feedforward-Netz ersetzen. Diese Technik wird als zeitliches Entfalten (unfolding in time) bezeichnet: Einfaches Feedback-Netz Zeitlich entfaltetes Feedback-Netz Institut für Informatik TU Clausthal, Wintersemester 2004/2005 0
11 Rekurrente Netze Als Lernverfahren ist im Prinzip jedes Lernverfahren für ein Feedforward-Netz anwendbar, allerdings muss dafür gesorgt werden, dass die Gewichte der Kanten, die zu einer Kante des Feedback-Netzes gehören, gleich bleiben: Man summiere alle Änderungen für eine Feedback-Kante auf und führe erst dann die Veränderung durch! Institut für Informatik TU Clausthal, Wintersemester 2004/2005
12 Jordan- und Elman-Netze Speichermechanismus in Netzen für zeitabhängige Prozesse Jordan-Netze: Netztopologie der Feedforward-Netze + Kontextzellen Kontextzellen: Speicherung der Ausgabewerte Architektur eines Jordan-Netzwerkes Institut für Informatik TU Clausthal, Wintersemester 2004/2005 2
13 Jordan Netze (M.I.Jordan : Attractor Dynamics and parallelism in a connectionist sequential machine Proc. 8th Ann. Conf. of the Cognitive Science Soc., Hillsdale NJ, 986, pp ) schwach rückgekoppeltes 2-schichtiges Netzwerk Verwendung für Zeitreihen Überwachtes Lernen über eine Variation der Delta-Regel Auswertung über eine Rückkopplung des vorigen Outputs die nicht mit adaptiert wird Institut für Informatik TU Clausthal, Wintersemester 2004/2005 3
14 Elman-Netze rweiterung der Kontextzellen auf die verborgenen Schicht: Architektur eines Elman-Netzwerkes Beim Start eines Jordan- oder Elman-Netzes ( t=0 ) müssen die Kontextzellen auf sinnvolle Weise vorbesetzt werden. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 4
15 Bi-Directional associative memories (BAM) IEEE Transactions on Systems, Man, and Cybernetics 8, 49-60, 987) BAM (bidirectional associative memory): Zweischichtiges Netz mit Rückkopplungen zwischen den Schichten Verwendung als Assoziativspeicher Training nach der Hebb-Regel Auswerten durch Relaxation X X 2 X 3 S -Schicht J= J=2 J=n W ij =W ji S 2 -Schicht i= i=2 i=m Y Y 2 Y 3 Institut für Informatik TU Clausthal, Wintersemester 2004/2005 5
16 BAM Beschreibung Das BAM-Modell (bidirektionaler assoziativer Speicher) wurde Mitte der 80er Jahre von B. Kosko) entwickelt. Das BAM-Netzwerk besteht aus zwei Schichten, der S-Schicht (Eingabeschicht) und der S2-Schicht (Ausgabeschicht). Die binären Elemente der Schichten können Aktivitäten und 0 annehmen. Die Transferfunktion der Elemente ist: X i (t+) =, wenn W ij. X j (t)>0. X i (t+) = 0, wenn W ij. X j (t)<0. X i (t+) = X i (t), wenn W ij. X j (t)=0. Die beiden Schichten sind in beiden Richtungen vollständig miteinander verbunden. Die Gewichte sind symmetrisch: w ij = w ji Institut für Informatik TU Clausthal, Wintersemester 2004/2005 6
17 Hopfield-Netze (J.J.Hopfield : Neural Networks and Physical Systems with Emergent Computational Abilities Proc.Nat.Acad.Sci. USA, 79 (982), ) Hopfield-Netze sind Beispiele für Autoassoziativspeicher. Ursprünglich als physikalische Modelle zur Beschreibung des Magnetismus von Hopfield eingeführt und eng mit dem Ising-Modell verwandt. Eine einzige Schicht von n Neuronen. Die n Neuronen sind untereinander total vernetzt: Jedes Neuron besitzt eine Verbindung zu jedem anderen Neuron. Keine direkten Rückkopplungen: Kein Neuron ist direkt mit sich selbst verbunden. Rückkopplungen kommen über andere Neuronen zustande. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 7
18 Hopfield-Netze Das Netz ist symmetrisch gewichtet: Das Gewicht w ij der Verbindung zwischen Neuron i und Neuron j ist gleich dem Gewicht w ji der Verbindung zwischen Neuron j und Neuron i. i j: θ i w ij w ji = w ij θ θ w ij j i θ j i = j: W ii = 0 (keine direkte Rückkopplungen, keine Schleifen ) Institut für Informatik TU Clausthal, Wintersemester 2004/2005 8
19 Hopfield-Netze Arbeitsweise Daten werden als bipolare Vektoren kodiert Eingabe net i für Neuron i ist die übliche gewichtete Summe aller Eingangsverbindungen: net i (t+) = Σ j i W ji X j (t) Ausgabe des Neurons i : falls neti > θi X i (t+) = falls neti < θi X i(t) falls neti = θi Es erfolgt also keine Zustandsänderung des Neurons i, falls die Netzeingabe net i exakt dem Schwellenwert θ i entspricht. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 9
20 Hopfield-Netze Asynchrone Arbeitsweise Zu jedem Zeitpunkt wird nur ein Neuron ausgewählt und sein Zustand berechnet. Synchrone Arbeitsweise Alle Neuronen ändern ihre Zustände gleichzeitig. Stabiler Zustand Keine Zustandsänderung der Neuronen: X. W = X. (W Gewichtsmatrix, X {-, } n ). Bei Eingabe X = (-, ) oszilliert das Hopfield-Netz 0 0 mit der synchroner Arbeitweise zwischen den Zuständen (-, ) und (, -): Ein stabiler Zustand wird nicht erreicht! Institut für Informatik TU Clausthal, Wintersemester 2004/
21 Hopfield-Netze Mit Symmetrie (w ij = w ji ) und ohne Schleifen (w ii = 0) wird mit asynchroner Arbeitweise immer ein stabiler Zustand erreicht. Satz Ein Hopfield-Netz erreicht bei asynchroner Arbeitsweise aus einem beliebigen Zustand stets einen stabilen Zustand. Beweis Ähnlich wie beim BAM, mit der Energiefunktion: E(X) = ½ X. W. X T + θx T wobei θ=(θ,..., θ n ) der Schwellenwert-Vektor ist, zeigt man, dass bei Zustandsänderungen der Wert der Energiefunktion nicht größer wird. Da es nur endlich viele Zustände gibt, erreicht das Netz nach endlich vielen Schritten einen stabilen Zustand. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 2
22 Lernen in Hopfield-Netzen Bei Autoassoziativspeichern möchte man m Muster X,..., X m, X i {-,} n, m < n,,,auswendig lernen : X i. W= X i, i =,..., m (m stabile Zustände) Dazu wird die Hebb-Regel einmal angewendet: W = (X T. X I) (X m T. X m I), wobei I die Identitätsmatrix ist. W ist symmetrisch und w ii = 0 für alle i Hopfield-Netz (mit θ =0) Wie bei Assoziativspeichern/BAM wird bei m= das Muster exakt wieder erkannt. Bei m > Mustern keine Garantie: X p. W = X p.2 X p m. X p I+3 k p (X p. (X k ) T ). X k = (n m). X p + Störfaktor Institut für Informatik TU Clausthal, Wintersemester 2004/
23 Institut für Informatik TU Clausthal, Wintersemester 2004/ Lernen in Hopfield-Netzen = (n m). X p + Störfaktor Ist der Störfaktor 0, so ist sign(x p W) = X p, und das p. Muster wird richtig erkannt. Beispiel Das Muster X = (, -, -, ) soll gespeichert werden (z.b. als Kodierung des Bildes in 4 Pixel; ein Neuron pro Pixel) W:=X T.X I= X p. W = X p.2 X p m. X p I+3 k p (X p. (X k ) T ). X k =
24 Lernen in Hopfield-Netzen Beispiel Das Muster X = (, -, -, ) soll gespeichert werden (z.b. als Kodierung des Bildes in 4 Pixel; ein Neuron pro Pixel) x 2 W:= X T. X I = Wiedererkennung: x x 4 - X. W = (3, -3, -3, 3) sign (X. W) = X Ein ähnliches Muster Z = (, -, -, -) soll an gespeichertem Muster X erinnern: Z. W = (, -, -, ) = X (in der Regel wird der stabile Zustand erst durch mehrere Durchläufe gefunden) - x 3 Institut für Informatik TU Clausthal, Wintersemester 2004/
25 Anwendung von Hopfield-Netzen Typisches Beispiel: Travelling Salesman Problem (TSP) Problem Hopfield-Netze stabilisieren sich häufig in einem Zustand X, für welchen E(X) ein lokales Minimum, jedoch kein globales Minimum ist. Grund Die Energiefunktion steigt nie und das Netz kann das eingenommene lokale Energie-Minimum nicht wieder verlassen. Lösung mit Boltzmann-Maschinen! Institut für Informatik TU Clausthal, Wintersemester 2004/
26 Boltzmann-Maschine Die Struktur einer Boltzmann-Maschine ist wie die eines Hopfield-Netzes. Insbesondere: w ij = w ji für alle i j und w ii = 0 für alle i Wir betrachten aber 0/-Zustände (anstelle /-Zustände bei Hopfield- Netzen) Während die Zustände der Neuronen des Hopfield-Netzes durch die sgn-funktion deterministisch aktualisiert werden, wird in Boltzmann- Maschinen eine stochastische Aktivierung verwendet. Sei net i = Σ j i W ji X j die Netzeingabe für Neuron i. Dann wird X i wie folgt aktualisiert: X i = mit Wkt. p i 0 mit Wkt. - p i Institut für Informatik TU Clausthal, Wintersemester 2004/
27 Boltzmann-Maschine wobei p i = + e (net θ ) / T i i, T > 0 Temperaturkonstante. Dies kann etwa wie folgt realisiert werden: Wähle ein Neuron i zufällig aus Berechne p i Erzeuge eine (gleichverteilte) Zufallszahl Z in [0, ] Falls Z p i, setze X i :=, sonst X i := 0 Für sehr kleines T 0 verhält sich die Boltzmann-Maschine wie ein Hopfield-Netz (mit 0/-Zuaständen): Ist net i > θ i, so ist p i und es ist sehr wahrscheinlich X i =. Ist net i < θ i, so ist p i 0 und es ist sehr wahrscheinlich X i = 0. Institut für Informatik TU Clausthal, Wintersemester 2004/
28 Boltzmann-Maschine Bemerkung Die Sigmoidfunktion ist nicht die Aktualisierungsfunktion. Diese beeinflusst nur die Wahrscheinlichkeit der Zustandsänderung. Die Temperatur T beeinflusst wiederum die Steilheit der Sigmoidfunktion. Ist T groß, so ist die Wkt. dafür, dass das Netz von einem beliebigen Zustand in einen anderen beliebigen Zustand übergeht, deutlich größer als Null. Bei Zustandsänderungen kann aber der Wert der Energiefunktion (definiert wie bei Hopfield-Netzen) erhöht werden. Dies ist gewünscht: Damit ist die Möglichkeit für das Netz gegeben, sich aus lokalen Minima der Energiefunktion zu befreien. Institut für Informatik TU Clausthal, Wintersemester 2004/
29 Boltzmann-Maschine Bei fallendem T (also,,abkühlung ) werden Übergänge, die die Energie verringern, wahrscheinlicher als solche, die die Energie erhöhen. Arbeitsprinzip Beginne mit großer Temperatur T. Dann können alle Zustände angenommen werden. Das Netz bleibt nicht immer in einem lokalen Minimum.,,Simuliertes Abkühlen (Simulated Annealing): Lass T mit der Zeit langsam kleiner werden. Dann nimmt die Wahrscheinlichkeit ab, dass das Netz von einem niedrigen Energiezustand zu einem höheren springt. Man bleibt dann (hoffentlich) in einem globalen Minimum! Institut für Informatik TU Clausthal, Wintersemester 2004/
30 Boltzmann-Maschine E E E E Z Z Z Z Allgemein gilt: Das Verfahren des simulierten Abkühlens konvergiert mit großer Wahrscheinlichkeit gegen einen Zustand X, für welchen E(X) ein absolutes Minimum ist. Institut für Informatik TU Clausthal, Wintersemester 2004/
31 Aufgaben
32 Aufgabe Gegeben sind 2 Muster: Wie lautet die Gewichtsmatrix, falls diese Muster auf sich selbst abgebildet werden, und ein schwarzer Punkt für ein Ausgangssignal von +, ein weißer Punkt für - steht? Gib die Anzahl der Iterationsschritte an, nach denen sich die beiden Muster auf sich selbst abgebildet haben? Die beiden Muster werden schon nach einem Iterationsschritt auf sich selbst abgebildet. Institut für Informatik TU Clausthal, Wintersemester 2004/
33 Gestörte Muster Quadrat Kreuz Weiterhin kann auch der Fall vorkommen, dass das Netz gegen einen Zustand konvergiert, der keinem vorgegebenem Muster entspricht. Applet Institut für Informatik TU Clausthal, Wintersemester 2004/
34 Aufgabe 2 Gegeben sind folgende Parameter: Zahl der Neuronen: n Zahl der Lernmuster: M Schwellenwert Θ=2 Statische Kennlinie: Zweipunkt Z 2 -Kennlinie Lerndatei. Mustervektor X = (+,-,-,+,-,-,+,+,+) 2. Mustervektor X 2 = (-,-,+,-,+,-,+,-,-) Gezeigt wird die Funktionsweise des Hopfield-Netzes: Institut für Informatik TU Clausthal, Wintersemester 2004/
35 Lösung 2 Schritt. Lernen: W =0 für i=j W 2 =(+)(-)+(-)(-)=0 W 3 =(+)(-)+(-)(+)=-2 W 4 =(+)(+)+(-)(-)=+2 W 5 =(+)(-)+(-)(+)=-2 W 6 =(+)(-)+(-)(-)=0 Gewichtsmatrix für 2 gelernte Muster: W,2= Institut für Informatik TU Clausthal, Wintersemester 2004/
36 Gelernte Muster sowie verrauschte Muster für das Beispiel Hopfield-Netz X X 2 X Muster 2. Muster 2. Muster mit Rauchen Institut für Informatik TU Clausthal, Wintersemester 2004/
37 Schritt 2. Energie des Musters berechnen: E =-0,5 [X. (W 3. X 3 + W 4. X 4 + W 5. X 5 +W 8. X 8 +W 9. X 9 )+ X 4. (W 4. X + W 43. X 3 + W 45. X 8 +W 48. X 8 +W 49. X 9 )+ X 7. (W 72. X 2 + W 76. X 6 )+ X 8. (W 8. X + W 83. X 3 + W 84. X 4 +W 85. X 5 +W 89. X 9 )+ X 9. (W 9. X + W 93. X 3 + W 94. X 4 +W 95. X 5 +W 98. X 8 ) ]. E = -0,5. [(-2). (-)+(2). ()+(-2). (-)+(2). ()+(2). ()]=-5 E 4 = -0,5. [(2). ()+(-2). (-)+(-2). (-)+(2). ()+(2). ()]=-5 E 7 = -0,5. [(-2). (-)+(-2). (-)]=-2 E 8 = -0,5. [(2). ()+(-2). (-)+(2). ()+(-2). (-)+(2). ()]=-5 E 9 = -0,5. [(2). ()+(-2). (-)+(2). ()+(-2). (-)+(2). ()]=-5 Damit ergibt sich für das.muster: E = X. E +X 4. E 4 +X 7. E 7 +X 8. E 8 +X 9. E 9 = -22 Genauso ist die Energie des 2.Musters zu berechnen: E 2 = -2 Institut für Informatik TU Clausthal, Wintersemester 2004/
38 Schritt 3. Erkennen (Iterationen): X 3 = (-,-,+,-,+,-,-,-,-) E 3 =-2. Die Aktivierungswerte und die neuen Neuronenzustände: α 3 =W. X 3 (t)+w 2. X 23 (t)+...+w 9. X 93 (t) =0. (-)+0. (-)+(-2). +2. (-)+(-2). +0. (-)+0. (-)+2. (-)+ 2. (-) = -0<0. Da α 3 <0 ist, wird der neue Zustand X 3 (t+)= - α 23 =W 2. X 3 (t)+w 22. X 23 (t)+ +W 92. X 93 (t)=2. (-)+(-2). (-)= 0. Da α 23 =0 ist, wird der Zustand nicht geändert X 23 (t+)= - α 33 =W 3. X 3 (t)+w 23. X 23 (t)+ +W 93. X 93 (t)=(-2). (-)+(-2). (-)+2. +(-2). (-)+(-2). (-)= 0 >0. und X 33 (t+)= + Institut für Informatik TU Clausthal, Wintersemester 2004/
39 Die Zustände nach der.iteration sind unten gezeigt: α 3 =-0 X 3 (t+)=- α 23 =0 X 23 (t+)=- α 33 =0 X 33 (t+)=+ α 43 =-0 X 43 (t+)=- α 53 =0 X 53 (t+)=+ α 63 =0 X 63 (t+)=- α 73 =4 X 73 (t+)=+ α 83 =-0 X 83 (t+)=- α 93 =-0 X 93 (t+)=- Institut für Informatik TU Clausthal, Wintersemester 2004/
40 Aufgabe 3 Das BAM-Netz mit N=6 Neuronen in der.schicht und M=4 Neuronen der 2.Schrit hat 4 Musterpaare gelernt. Muster X = (,,-,-,,) Y = (-,,,) Muster 2 X 2 = (,,,-,-,-) Y 2 = (,-,,-) Muster 3 X 3 = (,-,,-,,) Y 3 = (,,-,-) Muster 4 X 4 = (,,,,-,-) Y 4 = (-,,,-) Die dabei entstehende Gewichtsmatrix ist rechts dargestellt. W= Überprüfen Sie, ob das Netz bei der Eingabe des Musters X 4 richtig funktioniert, d.h. die Antwort Y 4 ausgeben wird. 2. Wo liegt die theoretische Obergrenze für die Anzahl der gespeicherten Musterpaare? Institut für Informatik TU Clausthal, Wintersemester 2004/
41 Lösung 3 α=(+2). (-) + (-2). (+) + (+2). (+) + (-2). (+) + 0. (+) + (-2). (-) = -2 Y =- α2=0. (-) + 0. (+) + 0. (+) + 0. (+) +(+2). (-) + 0. (-) = -2 Y 2 =- α3=0. (-) + (+4). (+) + 0. (+) + 0. (+) +(-2). (+) + 0. (-) = 6 Y 3 = α4=0. (-) + 0. (+) + (-4). (+) + 0. (+) +(+2). (-) + (+4). (-) = -0 Y 4 =- Das Netz kommt zu einem falschen Wert: Statt Y 4 =(-,,, -) wird (-, -,, -) ausgegeben. Damit konvergiert das Netz in einen falschen Zustand. Die maximale Anzahl der gespeicherten Muster ist L<min (N,M). Für den vorliegenden Fall mit N=6 und M=4 kannf das Netz maximal 3 Musterpaare lernen. Institut für Informatik TU Clausthal, Wintersemester 2004/2005 4
42 Applet Associative Memory: Hopfield model Applet : Applet 2: Applet 3: Applet 4: Mustererkennung mit BAM Applet 5: Boltzman Das Applet zur Lösung des TSP mit Simulated Annealing Institut für Informatik TU Clausthal, Wintersemester 2004/
43 Bildmustererkennung mit Hilfe eines Hopfield-Netzes Institut für Informatik TU Clausthal, Wintersemester 2004/
Einführung in neuronale Netze
Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze
Mehr1 Neuronale Netze Historisches
1 Neuronale Netze Historisches Literatur, erste Modelle 1 begleitende Literatur T.Kohonen: Associative Memory: A system theoretic approach. New York, Springer 1977 D.E.Rumelhart, J.L.McLelland: Parallel
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische
MehrKohonennetze Selbstorganisierende Karten
Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden
MehrSimulation neuronaler Netzwerke mit TIKAPP
Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?
MehrNeuronale Netze mit mehreren Schichten
Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren
MehrNeuronale Netze (I) Biologisches Neuronales Netz
Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung
MehrEinführung in. Neuronale Netze
Grundlagen Neuronale Netze Einführung in Neuronale Netze Grundlagen Neuronale Netze Zusammengestellt aus: Universität Münster: Multimediales Skript Internetpräsentation der MFH Iserlohn (000) U. Winkler:
MehrNeuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 5. Aufgabenblatt: Neural Network Toolbox 1
Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 5. Aufgabenblatt: Neural Network Toolbox 1 A. Mit Hilfe der GUI vom Neural Network erstelle die in den folgenden Aufgaben geforderten
MehrUniversität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini
Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung
Mehrweitere Modelle und Methoden
weitere Modelle und Methoden LVQ-Netze, competetive learning, counterpropagation, motorische karten, adaptive resonance theory LVQ Struktur Lernende Vektor-Quantisierung Input-Raum mit Distanz-Funktion
MehrEntwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse -
Entwicklung von Methoden zum Nachweis von ökologisch erzeugten Produkten am Beispiel der Lachszucht - Neronale Netzanalyse - Development of Methods to Detect Products Made from Organic Salmon FKZ: 02OE073/1
MehrPersonalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.
Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen
MehrProfessurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik
Professurvorstellung Professur für Theoretische Physik, insbesondere Computerphysik Karl Heinz Hoffmann TU Chemnitz Die Professur Stand: 18.07.11 2 Die Professur Professor: Prof. Dr. Karl Heinz Hoffmann
MehrSoftcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003
Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrMachine Learning - Maschinen besser als das menschliche Gehirn?
Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der
MehrComputational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
MehrPraktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider
Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2
MehrVom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung
Vom Chip zum Gehirn Elektronische Systeme zur Informationsverarbeitung Johannes Schemmel Forschungsgruppe Electronic Vision(s) Lehrstuhl Prof. K. Meier Ruprecht-Karls-Universität Heidelberg Mitarbeiter:
MehrDas Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell
Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen
Mehr6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)
6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden
MehrULM. Intelligenter Greifarm. ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht. Michael Awiszus Niklas Haas
ZfP-Sonderpreis der DGZfP beim Regionalwettbewerb Jugend forscht ULM Intelligenter Greifarm Michael Awiszus Niklas Haas Schule: GHRS Sontheim Neustraße 60-62 89567 Sontheim Robert-Bosch-Gymnasium Freistegstraße
MehrHochschule Regensburg. Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer
Hochschule Regensburg Übung 44_ Multilayer-Perzeptron: Entwurf, Implementierung Bacpropagation Spezielle Algorithmen (SAL) Lehrbeauftragter: Prof. Sauer Name: Vorname: Multilayer-Perzeptrons (MLPs) sind
MehrStructurally Evolved Neural Networks for Forecasting
Structurally Evolved Neural Networks for Forecasting - Strukturierte neuronale Netze für Vorhersagen Institut für Informatik - Ausgewählte Kapitel aus dem Bereich Softcomputing Agenda Grundlagen Neuronale
MehrKünstliche Neuronale Netze
Künstliche Neuronale Netze Modul Informatik Seminar Simon Krenger, Frühlingssemester 2015 Studiengang: Informatik Autor: Simon Krenger Betreuer: Prof. Dr. Jürgen Eckerle Datum: 25.05.2015 Berner Fachhochschule
Mehr(künstliche) Neuronale Netze. (c) Till Hänisch 2003, BA Heidenheim
(künstliche) Neuronale Netze (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Warum? Manche Probleme (z.b. Klassifikation)
MehrNeuronale Netze in der Robotik
Seminarvortrag Neuronale Netze in der Robotik Datum: 18.01.2002 Vortragende: Elke von Lienen Matrikelnummer: 302489 Studiengang: Informatik Inhaltsverzeichnis Einleitung 3 Biologisches Vorbild 4 Künstliche
MehrGrowing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012
Growing neural Gas Strukturen lernen Torsten Siedel 23.05.2012 Inhalt 1. Prozess der Selbstorganisation 2. Lernen - momentan oder statistisch? 3. Vektorbasierte Neuronale Netze 4. Klassifizierung der Lernverfahren
MehrR ist freie Software und kann von der Website. www.r-project.org
R R ist freie Software und kann von der Website heruntergeladen werden. www.r-project.org Nach dem Herunterladen und der Installation von R kann man R durch Doppelklicken auf das R-Symbol starten. R wird
Mehr2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht
2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine
MehrVorlesung 3 MINIMALE SPANNBÄUME
Vorlesung 3 MINIMALE SPANNBÄUME 72 Aufgabe! Szenario: Sie arbeiten für eine Firma, die ein Neubaugebiet ans Netz (Wasser, Strom oder Kabel oder...) anschließt! Ziel: Alle Haushalte ans Netz bringen, dabei
MehrKapitel LF: IV. IV. Neuronale Netze
Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c
MehrBestimmung einer ersten
Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,
MehrKlassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten
Fachhochschule Brandenburg Fachbereich Informatik und Medien Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Diplomkolloquium Sven Schröder Aufgabenstellung und Motivation Biologisches
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrÜbungen 19.01.2012 Programmieren 1 Felix Rohrer. Übungen
Übungen if / else / else if... 2... 2 Aufgabe 2:... 2 Aufgabe 3:... 2 Aufgabe 4:... 2 Aufgabe 5:... 2 Aufgabe 6:... 2 Aufgabe 7:... 3 Aufgabe 8:... 3 Aufgabe 9:... 3 Aufgabe 10:... 3 switch... 4... 4 Aufgabe
MehrTechnische Universität. Fakultät für Informatik
Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian
MehrNeuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen, Einsatz z.b. für Klassifizierungsaufgaben
MehrAdaptive Behavior from Fixed Weight Networks
Adaptive Behavior from Fixed Weight Networks Jonas Zilles, 11. Juni 007 Betreuer: Dr. Mohamed Oubbati 1 Inhaltsverzichnis 1. Abstrakt Seite 3. Einführung Seite 3 3. Problem. Seite 5 3.1. Training. Seite
MehrRekonstruktion 3D-Datensätze
Rekonstruktion 3D-Datensätze Messung von 2D Projektionsdaten von einer 3D Aktivitätsverteilung Bekannt sind: räumliche Anordnung der Detektoren/Projektionsflächen ->Ziel: Bestimmung der 3D-Aktivitätsverteilung
MehrDie Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs
Die Beurteilung von Kreditrisiken mittels künstlicher neuronaler Netze am Beispiel österreichischer KMUs 1. Klagenfurter KMU Tagung Tanja Schuschnig Alexander Brauneis Institut für Finanzmanagement 25.09.2009
Mehr(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim
(künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,
MehrUniversität Karlsruhe (TH)
Universität Karlsruhe (TH) Forschungsuniversität gegründet 1825 ZPL Prof. Dr. Walter F. Tichy Dr. Victor Pankratius Ali Jannesari Agenda 1. ZPL Überblick 2. Konzepte von ZPL Regionen, Region Specifiers
MehrKapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06
Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und
MehrInnovative Information Retrieval Verfahren
Thomas Mandl Innovative Information Retrieval Verfahren Hauptseminar Wintersemester 2004/2005 Letzte Sitzung Grundlagen Heterogenität Ursachen Beispiele Lösungsansätze Visualisierung 2D-Karten heute Maschinelles
MehrTag 9: Datenstrukturen
Tag 9: Datenstrukturen A) Datenstrukturen B) Cell Arrays C) Anwendungsbeispiel: Stimulation in einem psychophysikalischen Experiment A) Datenstrukturen Wenn man komplizierte Datenmengen verwalten möchte,
MehrKünstliches binäres Neuron
Künstliches binäres Neuron G.Döben-Henisch Fachbereich Informatik und Ingenieurwissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de
MehrÜbersicht. 20. Verstärkungslernen
Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes
MehrBioinformatik I (Einführung)
Kay Diederichs, Sommersemester 2015 Bioinformatik I (Einführung) Algorithmen Sequenzen Strukturen PDFs unter http://strucbio.biologie.unikonstanz.de/~dikay/bioinformatik/ Klausur: Fr 17.7. 10:00-11:00
MehrRäumliches Data Mining
Räumliches Data Mining Spatial Data Mining Data Mining = Suche nach "interessanten Mustern" in sehr großen Datensätzen => explorative Datenanlyse auch: Knowledge Discovery in Databases (KDD) verbreitete
MehrProposal zur Masterarbeit. Kombination der neuroevolutionären Methoden EANT mit Q-Learning und CMA-ES
Proposal zur Masterarbeit Kombination der neuroevolutionären Methoden EANT mit Q-Learning und CMA-ES Tchando Kongue Einleitung Neuroevolutionäre Algorithmen sind Methoden, die durch die Benutzung von genetischen
MehrDie Berechnung des Menschen
Munich Center for Technology in Society Die Berechnung des Menschen Wissenschaftstheoretische Grundlagen von Big Data in den Life Sciences und im Gesundheitsbereich Lehrstuhl für Philosophie und Wissenschaftstheorie
MehrStatische Timing-Analyse
2.6 Statische Timing Analyse Statische Timing-Analyse Überblick Delay Elmore-Delay Wire-Load-Modell Pfad-Problem Pfade/Cones Kritischer Pfad Setup- und Hold- Zeit Ein- und Ausgänge Falsche Pfade Slack
MehrHOCHSCHULE KONSTANZ TECHNIK, WIRTSCHAFT UND GESTALTUNG. Das Luzifer-Rätsel. Prof. Dr. Hartmut Plesske Wintersemester 2008/09. von.
HOCHSCHULE KONSTANZ TECHNIK, WIRTSCHAFT UND GESTALTUNG Fakultät Informatik Das Luzifer-Rätsel Prof. Dr. Hartmut Plesske Wintersemester 2008/09 von Max Nagl nagl@fh-konstanz.de Inhaltsverzeichnis Inhaltsverzeichnis
MehrKünstliche neuronale Netze
Lösungen zum Buch: Wissensverarbeitung Kapitel 10 Künstliche neuronale Netze Lösung 10.1 (Maschinelles Lernen) a) Ein Computerprogramm lernt aus einer Erfahrung E bezüglich einer Aufgabenklasse T und einer
MehrMerkmalbasierte Zeichenerkennung mittels neuronaler Netze
UNIVERSITÄT BAYREUTH MATHEMATISCHES INSTITUT Merkmalbasierte Zeichenerkennung mittels neuronaler Netze Diplomarbeit von Lisa Sammer Datum: 10. Mai 2005 Aufgabenstellung / Betreuung: Prof. Dr. Lars Grüne
MehrData Mining Anwendungen und Techniken
Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses
MehrKapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen
Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen
MehrÜbungen zur Vorlesung Grundlagen der Bilderzeugung und Bildanalyse (Mustererkennung) WS 04/05. Musterlösung 9
ALBERT-LUDWIGS-UNIVERSITÄT FREIBURG INSTITUT FÜR INFORMATIK Lehrstuhl für Mustererkennung und Bildverarbeitung Prof. Dr.-Ing. Hans Burkhardt Georges-Köhler-Allee Geb. 52, Zi -29 D-79 Freiburg Tel. 76-23
MehrJan Parthey, Christin Seifert. 22. Mai 2003
Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.
MehrData Mining-Modelle und -Algorithmen
Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,
MehrDer Einsatz künstlicher neuronaler Netze in der industriellen Feuerversicherung
Tobias Nagel Der Einsatz künstlicher neuronaler Netze in der industriellen Feuerversicherung PETER LANG Frankfurt am Main Berlin Bern Bruxelles New York- Oxford Wien Inhaltsverzeichnis Inhaltsverzeichnis
MehrModellierung wirtschaftlicher Prozesse mit Neuronalen Netzen
Computerlinguistik und Künstliche Intelligenz Modellierung wirtschaftlicher Prozesse mit Neuronalen Netzen MAGISTERARBEIT ZUR ERLANGUNG DES MAGISTER ARTIUMS im Fachbereich Sprach- und Literaturwissenschaft
MehrVariable Trajektoriendichte für Magnetic Particle Imaging
Variable Trajektoriendichte für Magnetic Particle Imaging Sven Biederer, Timo F. Sattel, Tobias Knopp, Thorsten M. Buzug Institut für Medizintechnik, Universität zu Lübeck, Lübeck biederer@imt.uni-luebeck.de
MehrNeuronale Netze Eine Einführung
Neuronale Netze Eine Einführung Druckversion der Internetseite www.neuronalesnetz.de Inhaltsverzeichnis Grundlagen Einleitung Units Verbindungen Input Aktivität Training und Test Matrizendarstellung Zfs.
MehrOECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland
OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben
MehrSeminar zum Thema Künstliche Intelligenz:
Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden
MehrNeuronale Steuerungsparadigmen für autonome Roboter realisiert durch ein flexibles Software-Tool
Universität Leipzig Fakultät für Mathematik und Informatik (Institut für Informatik) Neuronale Steuerungsparadigmen für autonome Roboter realisiert durch ein flexibles Software-Tool Diplomarbeit vorgelegt
MehrText Mining 4. Seminar Klassifikation
Text Mining 4. Seminar Klassifikation Stefan Bordag 1. Klassifikation Stringklassifikation (männliche-weibliche Vornamen) Dokument klassifikation Bayesian Neuronal network (Decision tree) (Rule learner)
MehrProseminar - Data Mining
Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2012, SS 2012 1 Data Mining Pipeline Planung Aufbereitung Modellbildung Auswertung Wir wollen nützliches Wissen
MehrZeit- und Ressourcenplanung leicht gemacht - Unterstützung durch Simulation
- für Zeit- und Ressourcenplanung leicht gemacht - Unterstützung durch Simulation Zeit- und Ressourcenplanung leicht gemacht - Unterstützung durch Simulation Thomas Hanne *, Patrick Lang, Stefan Nickel,
MehrStatische Timing-Analyse
Navigation Statische Timing-Analyse Delay Elmore-Delay Wire-Load-Modell Pfad-Problem Pfade/Cones Kritischer Pfad... Breitensuche Setup- und Hold-Zeit Ein- und Ausgänge Sensibilisierbarkeit Slack-Histogramm
MehrKünstliche Neuronale Netze und Data Mining
Künstliche Neuronale Netze und Data Mining Catherine Janson, icasus GmbH Heidelberg Abstract Der Begriff "künstliche Neuronale Netze" fasst Methoden der Informationstechnik zusammen, deren Entwicklung
MehrNeuronale Netze/ Soft Computing. Teil 1
Neuronale Netze/ Soft Computing Teil 1 BiTS, Wintersemester 2004/2005 Dr. Stefan Kooths KOOTHS BiTS: Neuronale Netze / Soft Computing, WS 2004/2005 Teil 1 1 Gliederung 1. Einführung und Einordnung 2. Neuronale
MehrANWENDUNG NEURONALER NETZE IN DER FINANZWIRTSCHAFT
STUDIEN ZUM FINANZ-, BANK- UND VERSICHERUNGSMANAGEMENT Hrsg.: Professor Dr. Reinhold Hölscher Band 6 ANWENDUNG NEURONALER NETZE IN DER FINANZWIRTSCHAFT von Bülent Acig Kaiserslautern 2001 ISSN 1435-8484
MehrGPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen
Rheinische Friedrich-Wilhelms-Universität Bonn Institut für Informatik VI Dominik Scherer GPU-beschleunigte Objekterkennung mit neuronalen Konvolutionsnetzen 8. Juni 2009 Diplomarbeit Erstgutachter: Prof.
MehrFachhochschule Köln. Konzepte des maschinellen Lernens. Ausarbeitung. Florian Keller
Fachhochschule Köln 07 Fakultät für Informations-, Medien-, und Elektrotechnik Institut für Nachrichtentechnik Studiengang Master Technische Informatik Konzepte des maschinellen Lernens Ausarbeitung vorgelegt
MehrEin Vergleich von Methoden für Multi-klassen Support Vector Maschinen
Ein Vergleich von Methoden für Multi-klassen Support Vector Maschinen Einführung Auf binären Klassifikatoren beruhende Methoden One-Against-All One-Against-One DAGSVM Methoden die alle Daten zugleich betrachten
MehrGrundlagen verteilter Systeme
Universität Augsburg Insitut für Informatik Prof. Dr. Bernhard Bauer Wolf Fischer Christian Saad Wintersemester 08/09 Übungsblatt 5 26.11.08 Grundlagen verteilter Systeme Lösungsvorschlag Aufgabe 1: Erläutern
MehrKapitel 4: Analyse von Petrinetzen
Kapitel 4: Analyse von Petrinetzen 1. Beispiele 2. Analyseansatz 3. Markierungsgraph 4. Beschränktheit 5. State Space Explosion: Beispiel 6. Komplementbildung 7. Zusammenhängend 8. Tot, lebendig, verklemmungsfrei
MehrZusammenfassung der 8. Vorlesung
Zusammenfassung der 8. Vorlesung Beschreibung und und Analyse dynamischer Systeme im im Zustandsraum Steuerbarkeit eines dynamischen Systems Unterscheidung: Zustandssteuerbarkeit, Zustandserreichbarkeit
MehrAnleitung zum Praktikum Künstliche Neuronale Netze. Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik
Anleitung zum Praktikum Künstliche Neuronale Netze Fakultät für Informatik und Automatisierung Fachgebiet Neuroinformatik Inhaltsverzeichnis Einleitung 2. Sinn und Zweck des Praktikums KNN........................
MehrMachine Learning - Maschinen besser als das menschliche Gehirn?
Machine Learning - Maschinen besser als das menschliche Gehirn? Tobias Stähle 23.05.2014 1 Einführung 1.1 Was ist Machine Learning? Während am Anfang Computer noch auf das reine Ausrechnen beschränkt waren
MehrTEILWEISE ASYNCHRONE ALGORITHMEN
TEILWEISE ASYNCHRONE ALGORITHMEN FRANK LANGBEIN Literatur: D. Berseas, J. Tsitsilis: Parallel and distributed computatoin, pp. 48 489 URI: http://www.langbein.org/research/parallel/ Modell teilweiser asynchroner
MehrArtificial Life und Multiagentensysteme
Vortrag im Rahmen des Seminars: Artificial Life und Multiagentensysteme Prof. Dr. Winfried Kurth Sommersemester 2003 Prognose von Zeitreihen mit GA/GP Mathias Radicke, Informatikstudent, 10. Semester Gliederung
MehrVergleich von Methoden zur Rekonstruktion von genregulatorischen Netzwerken (GRN)
Exposé zur Bachelorarbeit: Vergleich von Methoden zur Rekonstruktion von genregulatorischen Netzwerken (GRN) Fakultät: Informatik, Humboldt-Universität zu Berlin Lijuan Shi 09.05.2013 Betreuer: Prof. Dr.
MehrBeaufsichtigtes Lernen
Vortragsausarbeitung Beaufsichtigtes Lernen Seminar NEURONALE NETZE Leiter: Dr. B. Freisleben Sommersemester 1993 Torsten Felzer Matr.-Nr.: 805 768 6. Semester Inf Alexandra Heidger Matr.-Nr.: 810 148
MehrDatenbankanwendung. Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern. Wintersemester 2014/15. smichel@cs.uni-kl.de
Datenbankanwendung Wintersemester 2014/15 Prof. Dr.-Ing. Sebastian Michel TU Kaiserslautern smichel@cs.uni-kl.de Wiederholung: Anfragegraph Anfragen dieses Typs können als Graph dargestellt werden: Der
MehrProseminar - Data Mining
Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2014, SS 2014 1 Data Mining: Beispiele (1) Hausnummererkennung (Klassifikation) Source: http://arxiv.org/abs/1312.6082,
MehrGrundlagen der Theoretischen Informatik, SoSe 2008
1. Aufgabenblatt zur Vorlesung Grundlagen der Theoretischen Informatik, SoSe 2008 (Dr. Frank Hoffmann) Lösung von Manuel Jain und Benjamin Bortfeldt Aufgabe 2 Zustandsdiagramme (6 Punkte, wird korrigiert)
MehrKryptologie und Kodierungstheorie
Kryptologie und Kodierungstheorie Alexander May Horst Görtz Institut für IT-Sicherheit Ruhr-Universität Bochum Lehrerfortbildung 17.01.2012 Kryptologie Verschlüsselung, Substitution, Permutation 1 / 18
MehrAnmerkungen zur Übergangsprüfung
DM11 Slide 1 Anmerkungen zur Übergangsprüfung Aufgabeneingrenzung Aufgaben des folgenden Typs werden wegen ihres Schwierigkeitsgrads oder wegen eines ungeeigneten fachlichen Schwerpunkts in der Übergangsprüfung
MehrMultivariate Statistik
Hermann Singer Multivariate Statistik 1 Auflage 15 Oktober 2012 Seite: 12 KAPITEL 1 FALLSTUDIEN Abbildung 12: Logistische Regression: Geschätzte Wahrscheinlichkeit für schlechte und gute Kredite (rot/blau)
Mehr1.3.5 Clinical Decision Support Systems
Arzneimitteltherapie Thieme Verlag 1.3.5 Clinical Decision Support Systems Marco Egbring, Stefan Russmann, Gerd A. Kullak-Ublick Im Allgemeinen wird unter dem Begriff Clinical Decision Support System (CDSS)
MehrProtokoll zum Informatik Praktikum. Themenbereich: Neuronale Netze
Protokoll zum Informatik Praktikum Themenbereich: Neuronale Netze (1) Gegenstand des Praktikums (2) Beschreibung des Netzwerks (3) Der genetische Lernalgorithmus (4) Codierung der Lerndaten und Kapazität
MehrDistributed Graph Layout for Sensor Networks
Distributed Graph Layout for Sensor Networks Ausarbeitung zum Seminar Zeichnen von Graphen (WS04/05) Prof. Dr. Ulrik Brandes Basierend auf dem gleichnamigen Artikel von C. Gotsman und Y. Koren, Proceedings
MehrSimulation neuronaler Netze
Simulation neuronaler Netze von Professor Dr. Andreas Zeil Universität Tübingen R. Oldenbourg Verlag München Wien Inhaltsverzeichnis Teil I: Einführung und Neurobiologische Grundlagen 21 Kapitel 1 Einleitung
MehrApproximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen
Optimale Echtzeit-Personaleinsatzplanung durch Approximation von Warteschlangenkennzahlen mit Künstlichen Neuronalen Netzen 7.05.2006 Frank Köller koeller@iwi.uni-hannover.de Gliederung Motivation Vorgehensweise
Mehr