Statistische und neuronale Lernverfahren: Selbstorganisierende Merkmalskarten. Holger Arndt WS 03/04, 2 SWS

Größe: px
Ab Seite anzeigen:

Download "Statistische und neuronale Lernverfahren: Selbstorganisierende Merkmalskarten. Holger Arndt WS 03/04, 2 SWS"

Transkript

1 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten Statistische und neuronale Lernverfahren: Selbstorganisierende Merkmalskarten Holger Arndt WS 3/4, 2 SWS :3 - Uhr

2 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten. Motivation i Ziel: Schaffe leistungsfähigen neuronalen Algorithmus durch Nachahmung einiger Eigenschaften des Gehirns. Einige Eigenschaften des Lernens höherer Säugetiere i Entdeckendes Finden von Korrelationen (Koinzidenzen) in der Umwelt. Anm: Auch Lernen mit einem menschlichen Lehrer ist im Sinne der Neuronalen Netzwerke entdeckend (unsupervised); man findet Korrelationen zwischen verschiedenen Sachverhalten (z.b. durch Wiederholung), korreliert Schwätzen mit Strafe, usw. i Extraktion wichtiger Eigenschaften aus den Eingangssignalen i Erstellen interner Repräsentationen von Sachverhalten (z.b. Vorstellung)

3 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten. Topografische Merkmalskarten Struktur interner Repräsentationen: i Merkmale der Umwelt, z.b. eines sensorischen Signals, werden durch den Ort der stärksten Aktivierung in der Großhirnrinde kodiert. i Diese Kodierung ist stetig, d.h. benachbarte kortikale Orte kodieren für ähnliche Reizmerkmale. Retinotopie: Retinaler Ort wird durch den kortikalen Ort kodiert Orientierungspräferenz-Karte: Orientierung des Reizes wird durch den Ort kortikaler Erregung kodiert

4 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten.2 Beispiele i Auditorische Karten (Tonhöhe und -Richtung werden kodiert) i Somatosensorische Karten (Kodierung des Reizortes auf der Haut) i Motorische Karten (Bestimmte Bewegungen werden kodiert) Eigenschaften eines Modells für topographische Merkmalskarten: i Netzwerkarchitektur ähnlich wie kortikale Module (z.b. frühe Sehbahn) i Entdeckendes Lernen i Kontinuierliche Neuronenaktivitäten

5 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten 2. Das Kohonen-Modell Self-Organizing (Feature) Maps = SOM (SOFM) Architektur des Kohonenmodells: d Eingabeneuronen senden Fasern zu allen Neuronen im zweidimensionalen Gitter der Ausgabeschicht. Die Ausgabeneuronen sind durch eine laterale Wechselwirkung I miteinander verbunden Gemischte Netzwerkarchitektur: Feedforward-Teil und rekurrenter Teil

6 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten 2. Wechselwirkung Mexican-Hat-förmige, zeitunabhängige laterale Wechselwirkung Im Gegensatz zum Hopfieldnetz sind die lateralen Verbindungen I(r,r ) im Ortsraum festgelegt. Biologisch motiviert: Mexican-Hat- Struktur ( Umfeldhemmung ).

7 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten 2.2 Dynamik Qualitativ: i Die Inputneuronen initialisieren ein Aktivitätsmuster in der Ausgabeschicht i Dieses wird durch die rückgekoppelte Netzwerkdynamik verändert, läuft in einen Attraktor Dynamische Gleichung: f ( r) = g wl ( r) vl + dr I( r r ) f ( r ) θ l= Schwierig zu lösen: d i Iterative, rückgekoppelte Gleichung i Nichtlineare Gleichung

8 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten 2.3 Winner-take-all Satz : Laterale Wechselwirkungen vom Mexican-Hat-Typ mit genügend starker Inhibition führen immer zur Ausbildung lokalisierter Aktivitäts- Blobs Mechanismus: Im Laufe der Iterationen inhibiert das anfangs am stärksten aktivierte Neuron seine Nachbarn am stärksten, vermindert damit deren inhibitorische Wirkung, kann so immer stärker aktiv werden, u.s.w... Winner-take-all (WTA)

9 Holger Arndt, Siemens AG Selbstorganisierende Merkmalskarten 2.4 Näherung von Kohonen i Bestimme das anfangs am stärksten aktivierte Neuron aus den Afferenzen alleine i Führe den Relaxationsprozess in der Ausgabeschicht nicht explizit durch sondern verwende gleich einen lokalisierten Aktivitätsblob: f ( r) = h( r, r ), mit g w ( ) = ( ) l r vl max g wl r vl r l l Die Funktion der Aktivierung ist monoton fallend und lokalisiert, z.b. eine Gaußfunktion: h ( r, r ) ( r r ) = exp 2σ 2 2

10 2.5 Such nach dem Gewinner i Betrachte jetzt d-dimensionale Inputvektoren Synapsenvektoren v = ( v, Kv d ) ) = ( w ( r), Kw ( )) w( r r d i Dann gilt mit streng monoton steigender Transferfunktion g: g ( w( r ) v) = max( g( w( r) v) ) w( r ) v = max( w( r ) v) r r i Bei konstantgehaltener Norm aller Synapsenvektoren w ( r) v = w( r) + v 2w( r) v = w + v 2w( r) v also: w ( v ) ( r ) v = max( w( r) v) w( r ) v = min w( r) r r w 2 ( r) w r gilt: Es feuert das Ausgabeneuron r, dessen normierter Synapsenvektor dem Inputvektor am nächsten ist.

11 2.6 Merkmalskarten Merkmal Merkmalsrepräsentation in der Ausgabeschicht: Vektor v im d-dimensionalen Inputraum (Beispiel: verschlüsselte Ortsposition eines Schallsignals). Position des Aktivitätsblobs bei Präsentation des Merkmals v, also s mit w(s) - v = min r w(r) - v. Merkmalskarte = Abbildung: φ w : v φ s w ( v) = w( s) v = min w( r) v r i Die Merkmalskarte wird durch die Gesamtheit aller Synapsenvektoren bestimmt. Formal kann eine Merkmalskarte auch mit nicht normierten Gewichten implementiert werden. i Rezeptives Feld: Bereich des Inputraumes, der ein geg. Neuron reizt. RF { ( v )} ( s) = v V w( s) v = min w( r) r

12 2.7 Rezeptives Feld Darstellung von Merkmalskarten für nicht normierte Synapsenvektoren: i Male den Synapsenvektor jedes Neurons in den Inputraum V. Seine unmittelbare Umgebung aktiviert das Neuron maximal. Grafische Darstellung einer Merkmalskarte sowie des rezeptiven Feldes eines Neurons für einen zweidimensionalen Inputraum. i Ziel: Führe eine Lernregel ein, die zur Selbstorganisation einer stetigen Merkmalskarte führt.

13 2.8 Die Kohonen-Lernregel i Präsentiere ein Signal v i Ermittle den Gewinner der Kompetition in der Ausgabeschicht, also s mit w(s) - v = min r w(r) - v und damit die Lokalisierung des kortikalen Aktivitätsblobs. i Lernschritt: Nähere den Synapsenvektor des Gewinners dem Signal an: neu alt w ( r) = w ( r) + w( r) mit w( r) = η f ( r) ( v w( r) ) = ηh( r, s) ( v w( r) ) i Normiere (eventuell) die neuen Synapsenvektoren i Nächstes Muster

14 2.9 Eigenschaften i Die Kohonen-Lernregel ist vom Hebb-Typ, denn: w ( r) =η f ( r) v η f ( r) w ( r) l l (Postsynaptische Aktivität) x (Präsynaptische Aktivität) Decayterm i Benachbarte Neuronen der Ausgabeschicht erfahren immer ähnliche Modifikationen ihrer Synapsenvektoren: Ordnung der Synapsenvektoren im Raum der Inputsignale Erzeugung einer stetigen Merkmalskarte l i Oft präsentierte Musterbereiche werden stärker repräsentiert

15 2. Konvergenz Zu Beginn des Trainings Nach dem Training i Üblicherweise werden die Breite s der Nachbarschaftsfunktion und die Lernschrittweite h im Lauf der Zeit verringert: s = s(t), h = h(t). i Konvergenzbeweise gegen einen statistisch beschreibbaren Gleichgewichtszustand existieren für: η ( ) = α t ηt, < α ( t) lim σ = t

16 3. Anwendungsmöglichkeiten 3. Vektorquantisierung i Vektorquantisierung = Verfahren zur Datenkompression i Folge von Datenvektoren v(t), t =,..., sollen durch eine feste Anzahl von Referenzvektoren w s approximiert werden i Kompression: Speicherung des Index s(v) mit minimalem w s(v) - v für jedes v(t) i Restauration: v(t) := w s(v(t)), t =,... (Es gibt einen Restaurationsfehler!) i Ziel: Finde optimale Verteilung der Referenzvektoren, die den 2 Restaurationsfehler minimiert: E P( v) ws ( v) v dv = also: η E w r r r w 2 ( t + ) = w ( t) = w ( t) + η ( v w ( t) ) P( v) dv r RF ( r) r

17 3. Vektorquantisierung i Präsentiert man einzelne Vektoren v gemäß der Verteilung P(v), so erhält man asymptoisch für kleine Lernschrittweiten dasselbe Ergebnis mit: w s t + = w t + η ( v w ) ( v)( ) s( v)( ) s( v) Kohonenregel ohne Nachbarschaftsterm i Mit Nachbarschaftsfunktion: Kleine Quantisierungsfehler werden zusätzlich unterdrückt Vektorquantisierung eines geclusterten und einer in einem L-förmigen Gebiet gleichverteilten Inputensembles. Dicke Punkte: Gewichtsvektoren

18 3.2 Optimierungsprobleme i Kombinatorische Optimierungsprobleme: Lösungsaufwand für ein System mit L Komponenten steigt wie exp(l) bzw. L! i Beispiel: Handlungsreisenden-Problem: i Finde die kürzeste Route, die L gegebene Städte berührt. i Ansatz: Wähle eindimensionalen Neuronenring mit N L Neuronen (N > L empfohlen) und zweidimensionalen Gewichtsvektoren. Die Inputsignale kodieren x- und y-positionen der Städte.

19 3.2 Optimierungsprobleme Netzwerkarchitektur für das Handlungsreisenden- Problem. Die Inputs kodieren die xy-position, die Ausgabeneuronen implementieren eine Ringnachbarschaft. i Präsentiere die Städtepositionen als Inputmuster und trainiere mit w( r, t) = η( t) h( s( v), r, t) ( v w( r, t) ) i Die Nachbarschaftsfunktion h(r,r ) versucht, die Repräsentation des Rings im Ortsraum möglichst kurz zu halten ( kurzer Weg -Forderung) i Unter dieser Bedingung werden die Städtepositionen sukzessive approximiert

20 2 3.2 Optimierungsprobleme imulationsablauf (nach Durbin nd Willshaw 987): = 3 = 8 =.8 (t) = 5.2 (t/tmax) max = erlauf einer Simulation mit 3 tädten es werden die ewichtsvektoren im weidimensionalen Inputraum ezeigt nach, 5, 7 und Lernschritten

21 2 3.3 Dichteschätzung i Aufgabe: Schätzen einer Wahrscheinlichkeitsdichte, die den Daten zugrunde liegt i Die Merkmalskarte wird mit Vektoren trainiert, die der zu schätzenden Wahrscheinlichkeitsdichtefunktion gehorchen Häufig auftretende Merkmale werden von der SOM durch mehr Neuronen repräsentiert i Beispiel: Merkmalskarte mit 5x5 Neuronen

22 Holger Arndt, Siemens AG 2 Selbstorganisierende Merkmalskarten 3.4 Clustering und Visualisierung i Problem: Hochdimensionaler Datenraum i Aufgabe: Finde Korrelationen in den Daten i Lösung mit dem Kohonenalgorithmus: Merkmale, die im Inputraum nahe beieinanderliegen, werden auf benachbarte Gebiete der SOM abgebildet Kuh Zebra Pferd Löwe Tiger Katze Wolf Hund Fuchs Adler Falke Eule Gans Ente Henne Taube schwimmt fliegt rennt jagt Federn Mähne Hufe Haare 4 Beine 2 Beine groß mittel klein

23 2 3.4 Clustering und Visualisierung i Die Merkmale werden ihrer Ähnlichkeit entsprechend auf der SOM angeordnet Topologieerhaltende Abbildung des Hochdimensionalen Inputraumes auf die zweidimensionale Kartenfläche Huftiere Raubtiere Vögel

24 2 3.5 Dimensionsreduktion i Geg: i Ges: Signale mit vielen Freiheitsgraden (hohe Dimensionalität). Bestmögliche Repräsentation in einer niedrigdimensionalen Neuronenstruktur (typisch: bis 2-dimensional). i Der Kohonenalgorithmus führt zu einer optimalen Abdeckung des höherdimensionalen Raumes gemäß der Wahrscheinlichkeitsverteilung der präsentierten Inputmuster i Beispiel: Eindimensionale Neuronenkette wird mit zweidimensionalen Vektoren aus dem Einheitsquadrat trainiert i Zeitabhängige Breite der Nachbarschaftsfunktion: σ 5 t ( t) = (.) i bewirkt sukzessive Ausbildung immer feinerer Strukturen

25 2 3.5 Dimensionsreduktion Zuordnung: zu Beginn, nach 2, nach 5, nach Schritten

26 2 4. Anwendungsbeispiele aus Informatik und Robotik Positionskodierung einer Schallquelle Experimenteller Aufbau Anfangsbelegung der Gewichte

27 2 4. Positionskodierung einer Schallquelle Ausgangspunkt: i Schallsignale einheitlicher Lautstärke ertönen in beliebigen Positionen innerhalb eines krummlinig begrenzten Gebietes i Die Signale werden von zwei Mikrofonen aufgenommen, deren Ausgangsintensität den Abstand der Schallquelle kodiert i Mit der Verstärkerkennlinie f(x) werden die Signale zu: v v = f [ 2 2 ( x a) + ] y = f [ 2 2 ( x + a) + ] 2 y Anmerkung: i Die beiden Pegel v und v 2 stellen eine hochgradig nichtlineare Kodierung des Merkmales Schallposition dar.

28 2 4. Positionskodierung einer Schallquelle Karte nach Lernschritten Karte nach 4 Lernschritten Es sind die Gewichtsvektoren und damit die Positionen höchster Sensitivität für ein Gitter von 4x4 Neuronen dargestellt. Nach dem Training kodiert jedes Neuron einen Teil bereich des betrachteten Gebietes. Das Netzwerk hat die der Positionskodierung innewohnende nichtlineare Transformation invertiert.

29 2 4. Positionskodierung einer Schallquelle i Die Repräsentation passt sich der Wahrscheinlichkeitsverteilung der Inputsignale an, d.h. häufig präsentierte Muster werden durch mehr Kohonen-Neuronen kodiert (siehe frühe Sehbahn, siehe Vektorquantisierung). Im zentralen Kreis wurde die Signalhäufigkeit gegenüber außen um einen Faktor 3 erhöht. Jedes Muster hat eine anziehende Wirkung auf die im Inputraum benachbarten Gewichtsvektoren: Kumulation bei Peaks der Wahrscheinlichkeitsverteilung. (s. a. Vektorquantisierung). Denselben Effekt kann man durch lokale Erhöhung der Netzwerkelastizität (Erhöhung von h) erreichen

30 3 5. Literatur i S. Haykin Neural Networks - A Comprehensive Foundation MacMillan College Publishing Company, Ontario (994) i H. Ritter, T. Martinetz, and K. Schulten Neural Computation and Self-Organizing Maps - An Introduction Addison-Wesley, New York (992) i T. Kohonen Self-Organizing Maps, 3rd edition Springer Series in Information Sciences, Springer Verlag (2)

Selbstorganisierende Merkmalskarten

Selbstorganisierende Merkmalskarten Selbstorganisierende Merkmalskarten Motivation (Gehirn) Netzwerk-Architektur Topographische Merkmalskarten (Früher: Kohonen-Karten ) Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele

Mehr

Selbstorganisierende Merkmalskarten

Selbstorganisierende Merkmalskarten Selbstorganisierende Merkmalskarten Motivation (Gehirn) Architektur Topographische Merkmalskarten Selbstorganisierende Merkmalskarte (Kohonen-Lernregel) Anwendungsbeispiele (Folien: Holger Arndt) Motivation:

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Yacin Bessas yb1@informatik.uni-ulm.de Proseminar Neuronale Netze 1 Einleitung 1.1 Kurzüberblick Die Selbstorganisierenden Karten, auch Self-Organizing (Feature) Maps, Kohonen-

Mehr

Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining

Kapitel ML:XII. XII. Other Unsupervised Learning. Nearest Neighbor Strategies. Self Organizing Maps Neural Gas. Association Analysis Rule Mining Kapitel ML:XII XII. Other Unsupervised Learning Nearest Neighbor Strategies Self Organizing Maps Neural Gas Association Analysis Rule Mining Reinforcement Learning ML:XII-1 Unsupervised Others LETTMANN

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Marten Jäger 6. August 2007 Zusammenfassung Selbstorganisierte Karten (SOM ) sind ein unüberwachtes Lernverfahren mit dem Ziel eine topologische Darstellung des Eingaberaums

Mehr

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Unüberwachtes Lernen: Adaptive Vektor Quantisierung und Kohonen Netze Prof. Dr.-Ing. Heinz-Georg Fehn Prof. Dr. rer. nat. Nikolaus Wulff Überwachtes Lernen Alle bis lang betrachteten Netzwerke

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

Outline. SOMs und verwandte Verfahren. Self-Organizing Map. Outline... Self-Organizing Map. Self-Organizing Map. Architektur:

Outline. SOMs und verwandte Verfahren. Self-Organizing Map. Outline... Self-Organizing Map. Self-Organizing Map. Architektur: SOMs und verwandte Verfahren VU Selbst-Organisierende Systeme SOMs und verwandte Verfahren Andreas Rauber http://wwwifstuwienacat/~andi (SOM) (SOM) Physiologische Grundlagen Architekturen Trainingsprozess

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Vorlesung Maschinelles Lernen II Dr. Theo Lettmann Oliver Kramer 22. Mai 2006 Überblick Grundlagen SOMs Anwendungen 2D-SOMs Neuronales Gas 2 Grundlagen der Neuronalen Informationsverarbeitung

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Jochen Weiß Inhaltsverzeichnis 1 Das menschliche Gehirn als Vorbild 2 2 Architektur einer SOM 3 2.1 Aufbau der Neuronenschichten 3 2.2 Gewichts- und Eingabevektor 3 3 Das Training

Mehr

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Neuronale Netze. Seminar aus Algorithmik Stefan Craß, Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht 2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine

Mehr

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134

Training von RBF-Netzen. Rudolf Kruse Neuronale Netze 134 Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011 Neuronale Netzwerke Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp Betreuer: Michael Wilczek 7. Februar 2011 1 Wiederholung 2 Modell 3 spikeabhängige Plastizität 4 Anwendung 5 Literatur Biologischer

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Anwenderdokumentation Beleg Neuronale Netze

Anwenderdokumentation Beleg Neuronale Netze Anwenderdokumentation Beleg Neuronale Netze Analyse von Bilanzen mit Hilfe von Kohonen-Netzwerken Dresden, Dezember 2002 Thorsten Wolfer Michael Wolf Seminargruppe htw8282 htw8222 ai96 Inhaltsverzeichnis

Mehr

Nichtlineare Gleichungssysteme

Nichtlineare Gleichungssysteme Kapitel 5 Nichtlineare Gleichungssysteme 51 Einführung Wir betrachten in diesem Kapitel Verfahren zur Lösung von nichtlinearen Gleichungssystemen Nichtlineares Gleichungssystem: Gesucht ist eine Lösung

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Einführung in die Computerlinguistik

Einführung in die Computerlinguistik Einführung in die Computerlinguistik Neuronale Netze WS 2014/2015 Vera Demberg Neuronale Netze Was ist das? Einer der größten Fortschritte in der Sprachverarbeitung und Bildverarbeitung der letzten Jahre:

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Seminar Unterwasserbildverarbeitung

Seminar Unterwasserbildverarbeitung Seminar Unterwasserbildverarbeitung Thema: Seabed Classification Ausarbeitung von : Daniel Nagel (NWI) Sven Pohl (NWI) Datum des Vortrags : 25.06.2002 Inhalt Aufbau S. 3 1. Was ist Seebettklassifikation?

Mehr

Statistische Methoden der Datenanalyse

Statistische Methoden der Datenanalyse Statistische Methoden der Datenanalyse Vorlesung im Sommersemester 2008 H. Kolanoski Humboldt-Universität zu Berlin Inhaltsverzeichnis Literaturverzeichnis iii 1 Grundlagen der Statistik 3 1.1 Wahrscheinlichkeit............................

Mehr

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011

Neuronale Netze, Fuzzy Control, Genetische Algorithmen. Prof. Jürgen Sauer. 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011 Neuronale Netze, Fuzzy Control, Genetische Algorithmen Prof. Jürgen Sauer 12. Aufgabenblatt: Projektvorschläge für WS 2010/2011 Hinweis: Alle Projekte sind angemessen zu dokumentieren. Die Dokumentation

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten

Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Fachhochschule Brandenburg Fachbereich Informatik und Medien Klassifizieren und Visualisieren von Daten mit Selbstorganisierenden Karten Diplomkolloquium Sven Schröder Aufgabenstellung und Motivation Biologisches

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120

Radiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120 Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Approximation einer Kennlinie mit einem Künstlich Neuronalen Netz (KNN) in MATLAB 28.01.2008 5_CI2_Deckblatt_Kennlinie_Matlab_Schn2.doc

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Das visuelle System. Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems!

Das visuelle System. Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems! Das Sehen von Kanten: Das Sehen von Kanten ist eine trivial klingende, aber äußerst wichtige Funktion des visuellen Systems! Kanten definieren die Ausdehnung und die Position von Objekten! Eine visuelle

Mehr

Computational Neuroscience

Computational Neuroscience Computational Neuroscience Vorlesung WS 2005/2006 Josef Ammermüller Jutta Kretzberg http://www.uni-oldenburg.de/sinnesphysiologie/ 14508.html Begriffsdefinitionen Computational Neuroscience Churchland

Mehr

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien

Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Methoden zur Visualisierung von Ergebnissen aus Optimierungs- und DOE-Studien Katharina Witowski katharina.witowski@dynamore.de Übersicht Beispiel Allgemeines zum LS-OPT Viewer Visualisierung von Simulationsergebnissen

Mehr

Growing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012

Growing neural Gas Strukturen lernen. Torsten Siedel 23.05.2012 Growing neural Gas Strukturen lernen Torsten Siedel 23.05.2012 Inhalt 1. Prozess der Selbstorganisation 2. Lernen - momentan oder statistisch? 3. Vektorbasierte Neuronale Netze 4. Klassifizierung der Lernverfahren

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Multi-Layer Neural Networks and Learning Algorithms

Multi-Layer Neural Networks and Learning Algorithms Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Hopfield Netze. Neuronale Netze WS 2016/17

Hopfield Netze. Neuronale Netze WS 2016/17 Hopfield Netze Neuronale Netze WS 2016/17 Rekursive Netze Definition: Ein rekursives Netz enthält mindestens eine Feedback-Schleife Gegensatz: Feedforward-Netze Beispiel: Hopfield-Netze, Boltzmann-Maschinen

Mehr

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.

Mehr

k-nächste-nachbarn-schätzung

k-nächste-nachbarn-schätzung k-nächste-nachbarn-schätzung Mustererkennung und Klassifikation, Vorlesung No. 7 1 M. O. Franz 29.11.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Stephan Ruttloff 1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Verwendungsweise 6. Quellen Was sind neuronale

Mehr

Natürliche und künstliche neuronale Netze

Natürliche und künstliche neuronale Netze Kapitel 2 Natürliche und künstliche neuronale Netze 2.1 Informationsverarbeitung im Gehirn In diesem Abschnitt soll ein sehr knapper und durchaus unvollständiger Überblick gegeben werden, um den Bezug

Mehr

Proseminar Neuronale Netze Frühjahr 2004

Proseminar Neuronale Netze Frühjahr 2004 Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die

Mehr

VL Wahrnehmung und Aufmerksamkeit: visuelle Wahrnehmung II

VL Wahrnehmung und Aufmerksamkeit: visuelle Wahrnehmung II VL Wahrnehmung und Aufmerksamkeit: visuelle Wahrnehmung II Rückblick visuelle Wahrnehmung I Licht wurde von Rezeptoren in neuronales Signale umgewandelt retinale Verarbeitung über Sehnerv aus dem Auge

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Statistik für Informatiker, SS Verteilungen mit Dichte

Statistik für Informatiker, SS Verteilungen mit Dichte 1/39 Statistik für Informatiker, SS 2017 1.1.6 Verteilungen mit Dichte Matthias Birkner http://www.staff.uni-mainz.de/birkner/statinfo17/ 17.5.2017 Zufallsvariablen mit Dichten sind ein kontinuierliches

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Multivariate Verteilungen

Multivariate Verteilungen Multivariate Verteilungen Zufallsvektoren und Modellierung der Abhängigkeiten Ziel: Modellierung der Veränderungen der Risikofaktoren X n = (X n,1, X n,2,..., X n,d ) Annahme: X n,i und X n,j sind abhängig

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

Aufmerksamkeit II Bewusstsein

Aufmerksamkeit II Bewusstsein Aufmerksamkeit II Bewusstsein VL Wahrnehmung und Aufmerksamkeit, Dipl.-Psych. S. Raisig, Humboldt Universität Berlin, WS 2008/2009 Wozu dient selektive Aufmerksamkeit? 1. Binding Problem Objekt wird von

Mehr

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren

13 Mehrdimensionale Zufallsvariablen Zufallsvektoren 3 Mehrdimensionale Zufallsvariablen Zufallsvektoren Bisher haben wir uns ausschließlich mit Zufallsexperimenten beschäftigt, bei denen die Beobachtung eines einzigen Merkmals im Vordergrund stand. In diesem

Mehr

Cortikale Architektur

Cortikale Architektur Cortikale Architektur horizontales Einführen der Elektrode vertikales Einführen der Elektrode Ergebnis: Zellen, die selektiv auf bestimmte Reize reagieren sind nicht willkürlich, sondern systematisch angeordnet

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Selbstorganisierende Karten Seminar Kognitive Robotik (SS12) Thomas Hoffmann Betreuer: Dr. Florian Röhrbein

Mehr

Abbildung 10.1: Das Bild zu Beispiel 10.1

Abbildung 10.1: Das Bild zu Beispiel 10.1 Analysis 3, Woche Mannigfaltigkeiten I. Definition einer Mannigfaltigkeit Die Definition einer Mannigfaltigkeit braucht den Begriff Diffeomorphismus, den wir in Definition 9.5 festgelegt haben. Seien U,

Mehr

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8

Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem

Mehr

Statistische Methoden der Datenanalyse

Statistische Methoden der Datenanalyse Statistische Methoden der Datenanalyse Vorlesung im Sommersemester 2002 H. Kolanoski Humboldt-Universität zu Berlin Inhaltsverzeichnis Literaturverzeichnis iii 1 Grundlagen der Statistik 3 1.1 Wahrscheinlichkeit..................................

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Visualisierung hochdimensionaler Daten. Hauptseminar SS11 Michael Kircher

Visualisierung hochdimensionaler Daten. Hauptseminar SS11 Michael Kircher Hauptseminar SS11 Inhalt Einführung zu hochdimensionalen Daten Visualisierungsmöglichkeiten dimensionale Teilmengen dimensionale Schachtelung Achsenumgestaltung Algorithmen zur Dimensionsreduktion Zusammenfassung

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

1.3. DAS COULOMBSCHE GESETZ, ELEKTROSTATISCHES FELD 9

1.3. DAS COULOMBSCHE GESETZ, ELEKTROSTATISCHES FELD 9 8 KAPITEL. ELEKTROSTATIK.3 Das Coulombsche Gesetz, elektrostatisches Feld Zur Einführung verschiedener Grundbegriffe betrachten wir zunächst einmal die Kraft, die zwischen zwei Ladungen q an der Position

Mehr

Entwurf und Implementierung einer Applikation zur Visualisierung von Lernvorgängen bei Selbstorganisierenden Karten

Entwurf und Implementierung einer Applikation zur Visualisierung von Lernvorgängen bei Selbstorganisierenden Karten Diplomarbeit zum Thema Entwurf und Implementierung einer Applikation zur Visualisierung von Lernvorgängen bei Selbstorganisierenden Karten zur Erlangung des akademischen Grades Diplom-Informatiker (FH)

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 15.01.2009 Numerische Methoden und Algorithmen in der Physik Christian Autermann 1/ 47 Methode der kleinsten Quadrate

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:

Mehr

auch: Konnektionismus; subsymbolische Wissensverarbeitung

auch: Konnektionismus; subsymbolische Wissensverarbeitung 10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Fortgeschrittene Mathematik Raum und Funktionen

Fortgeschrittene Mathematik Raum und Funktionen Fortgeschrittene Mathematik Raum und Funktionen Thomas Zehrt Universität Basel WWZ Thomas Zehrt (Universität Basel WWZ) R n und Funktionen 1 / 33 Outline 1 Der n-dimensionale Raum 2 R 2 und die komplexen

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Central pattern generators für die zwei- und vierbeinige Fortbewegung

Central pattern generators für die zwei- und vierbeinige Fortbewegung Central pattern generators für die zwei- und vierbeinige Fortbewegung Merit Kasch 18. Januar 2013 Central pattern generator (CPG) (zu Deutsch: Zentraler Muster- oder Rhythmusgenerator) ist ein Begri aus

Mehr

Synaptische Verschaltung

Synaptische Verschaltung Synaptische Verschaltung 16.1.2006 http://www.uni-oldenburg.de/sinnesphysiologie/ 15246.html Vorläufiges Vorlesungsprogramm 17.10.05 Motivation 24.10.05 Passive Eigenschaften von Neuronen 31.10.05 Räumliche

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38

Dynamische Systeme und Zeitreihenanalyse // Multivariate Normalverteilung und ML Schätzung 11 p.2/38 Dynamische Systeme und Zeitreihenanalyse Multivariate Normalverteilung und ML Schätzung Kapitel 11 Statistik und Mathematik WU Wien Michael Hauser Dynamische Systeme und Zeitreihenanalyse // Multivariate

Mehr

Was versteht man unter partiellen (fokalen) epileptischen Anfällen? Welche Unterformen gibt es?

Was versteht man unter partiellen (fokalen) epileptischen Anfällen? Welche Unterformen gibt es? Was versteht man unter partiellen (fokalen) epileptischen Anfällen? Welche Unterformen gibt es? Nennen Sie zwei genetische Faktoren, die zu einer Hirnschädigung führen können. Geben Sie je ein Beispiel

Mehr

Seminar zum Thema Künstliche Intelligenz:

Seminar zum Thema Künstliche Intelligenz: Wolfgang Ginolas Seminar zum Thema Künstliche Intelligenz: Clusteranalyse Wolfgang Ginolas 11.5.2005 Wolfgang Ginolas 1 Beispiel Was ist eine Clusteranalyse Ein einfacher Algorithmus 2 bei verschieden

Mehr

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer

Mehr

Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex

Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex Seminar: Sehen - Vom Photon zum Bewusstsein - Von der Retina zum visuellen Kortex Benedikt Gierlichs, 13. Mai 2004 Gliederung Wiederholung Die Hauptsehbahn Das Gesichtsfeld Chiasma Opticum Corpus Geniculatum

Mehr

Die n-dimensionale Normalverteilung

Die n-dimensionale Normalverteilung U. Mortensen Die n-dimensionale Normalverteilung Es wird zunächst die -dimensionale Normalverteilung betrachtet. Die zufälligen Veränderlichen X und Y seien normalverteilt. Gesucht ist die gemeinsame Verteilung

Mehr

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen

Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Wahrscheinlichkeitstheorie Kapitel X - Randverteilung, bedingte Verteilung und Unabhängigkeit von Zufallsvariablen Georg Bol bol@statistik.uni-karlsruhe.de Markus Höchstötter hoechstoetter@statistik.uni-karlsruhe.de

Mehr

Fixpunkt-Iterationen

Fixpunkt-Iterationen Fixpunkt-Iterationen 2. Vorlesung 170 004 Numerische Methoden I Clemens Brand und Erika Hausenblas Montanuniversität Leoben 27. Februar 2014 Gliederung Wiederholung: Gleichungstypen, Lösungsverfahren Grundprinzip

Mehr