Künstliche Intelligenz. Neuronale Netze

Größe: px
Ab Seite anzeigen:

Download "Künstliche Intelligenz. Neuronale Netze"

Transkript

1 Künstliche Intelligenz Neuronale Netze Richard Schorpp Version

2 INHALTVERZEICHNIS Inhaltverzeichnis...2. Versionsverwaltung Das Neuron Naturbeobachtung Nachbildung der Natur Das Perceptron Lösung des EXOR-Problem Neuronale Netze Vernetzung von Perceptronen Analyse Lernfähigkeit Prinzipien Lernregeln Hebb sche Regel erweiterte Hebb'sche Regel Delta-Regel verallgemeinerte Delta-Regel, Fehlerrückvermittlung Instar-Regel Outstar-Regel Lernbeispiele Perceptron Verallgemeinerte Delta-Regel (Fehlerrückvermittlung) Alle Eingänge sind Null Konvergenz Momentfaktor Schütteln Genetischer Algorithmus Ueberanpassung Topologie der neuronalen Netze Perceptron Mehrschicht-Perceptron Rückvermittlungsnetz Hopfield-Netz Beziehungsnetz Rekurente Perceptron Netz zur Zeitreihenverarbeitung Andere Anwendungen Linearer Prädikator Blockschema Prinzip Simulation einer linearen Regelstrecke Blockschema Prinzip Verteilte Speicherung Versionsverwaltung Version. Datum 2..3 Aenderungen Ursprung

3 2 2. DAS NEURON Naturbeobachtung

4 2.2 Nachbildung der Natur 2.2. Das Perceptron Eine künstliche Zelle ist in der Lage, das Neuron zu simulieren. Bei der Suche nach einem System zur Buchstabenerkennung wurde das Perceptron durch Rosenblatt (958) erfunden. Die Werte von x sind kontinuierlich oder diskret, die Werte von w sind kontinuierlich. Der Ausgang y kann je nach Entscheidungsfunktion kontinuierlich oder diskret sein. Wenn mehrere Ausgänge vorhanden sind, kann die Aktualisierung: Synchron (alle gleichzeitig) Asynchron (in beliebiger Reihenfolge) erfolgen Entscheidungsfunktionen y Funktion Signum: y= wenn ( wx + w n x n ) + wenn ( wx + w n x n ) > zwischen - und y oder y= x wenn ( wx + w n x n ).5 wenn ( wx + w n x n ) >.5.5 zwischen und x 3.8.7

5 y Der harte Begrenzer x y = cut ( wx + + w n x n + b,,+ ) - y x Die Sigmoide zwischen - und y = tanh( wx + + w n x n ) - Oder zwischen und y.8 y= + e x x

6 Analyse Nachbildung der logischen Funktion AND x x2 x AND x2 Entscheidung (*)+(*) -.5 = -.5 < (*)+(*) -.5 = -.5 < (*)+(*) -.5 = -.5 < (*)+(*)-.5 =.5 > Y Durch Aenderung der Gewichte wn und des Wertes b kann die Gerade so positioniert werden, dass alle Punkte für Ausgang sich auf einer Seite und diejenigen für Ausgang auf der anderen Seite befinden. Es erfolgt eine Sortierung in 2 Klassen. Das Perceptron erlaubt also: Sortierung in zwei Klassen: der Ausgang (Klasse oder ) ist bekannt (überwachtes System) Interpolation oder Regression: dabei ist der Ausgang nicht bekannt (unüberwachtes System). Regression Sortierung

7 Anwendungsgrenze Die Funktion EXOR ist mit dieser Konfiguration nicht lösbar. In der Tat kann keine einzige Gerade die schwarzen von den weissen Punkten trennen. EXOR ist ein nicht lineares Problem. Das Perceptron kann nur lineare Probleme lösen! Lösung des EXOR-Problem Durch den Einbau einer Zwischenschicht können auch nicht lineare Problem gelöst werden. Beispiel EXOR: x w.6.6 w2 x2 x x2 Aktivierung der Zwischenzelle (*.6)+(*.6)-= - (*.6)+(*.6)-= -.4 (*.6)+(*.6)-= -.4 (*.6)+(*.6)-= y Zustand der Zwischenzelle -7- Aktivierung der Ausgangszelle (*)+(*)+(*(-2))= (*)+(*)+(*(-2))= (*)+(*)+(*(-2))= (*)+(*)+(*(-2))= y 3.8.7

8 3 3. NEURONALE NETZE Vernetzung von Perceptronen Generalisierung von Beispiel; EXOR Eingangsschicht versteckte Schicht hidden Layer x z x2 x Ausgangsschicht x2 (*)+(*)-.5= -.5 (*)+(-*)-.5= -.5 (*)+(-*)-.5=.5 (*)+(-*)-,5= -.5 z -.5 y t (-*)+(*)-.5= -.5 (-*)+(*)-.5=.5 (-*)+(*)-.5= -.5 (-*)+(*)-.5= -.5 t (*)+(*)-.5= -.5 (*)+(*)-.5=.5 (*)+(*)-.5=.5 (*)+(*)-.5= -.5 y Wieviel Zwischenschichten sind notwendig, um allgemeine Sortierungsprobleme zu lösen?

9 3.. Analyse Was sind die Funktionen der Zwischenschichten? Die oben angegebenen Richtwerte beruhen auf Faustregeln, welche die Grösse des Netzes im Rahmen halten. Durch die klare Zuordnung der Schichten nach Funktionen ist es ersichtlich, dass es nie mehr als 2 Zwischenschichten braucht

10 4 LERNFÄHIGKEIT Durch gezielte Aenderung der Gewichte und anderer Parameter kann ein neuronales Netzwerk eine bestimmte Funktion erfüllen. Wenn diese Aenderungen nach bestimmten Vorgaben automatisch erfolgt, ist es lernfähig. 4. Prinzipien Für jede Verbindung im Netz: ändere (verstärke oder schwäche) Gewicht so, daß die Verbindung zum gewünschten Verhalten besser beiträgt. Dabei wird die folgende Eigenschaft gewünscht: lokal, keine (wenig) Zerstörung des bereits Gelernten Es gibt 3 Haupttypen von Lernregeln: Korrelation (Hebb) Fehlerminimierung (Delta) Angleichung (Instar, Outstar) 4.2 Lernregeln 4.2. Hebb sche Regel Die folgende Grundstruktur ist gegeben: xj wij xj Annahme: binäre Eingänge (, ) Die einfachste Regel ist: Verstärke, wenn beide Zellen auf sind w ij ( k + ) = w ij ( k ) + w ij w ij = η wenn x i = x j = wobei η = Schrittweite sonst angelehnt an Verhalten von Synapsen Nachteil: keine negative Änderung möglich erweiterte Hebb'sche Regel Annahme: beliebige Eingänge Verstärke proportional zum Produkt der Eingänge (Korrelation)

11 w ij = η x i x j Delta-Regel Annahme: Lehrer (Vorgabe d) vorhanden (überwachtes System) Verstärke proportional zum Produkt der Eingänge (Korrelation) mit Berücksichtigung des Fehlers w ij = η x i (d j x j ) Bei nichtlinearen Systemen wird die Ableitung der Entscheidungsfunktion f '(yj) eingeführt: w ij = η x i (d j x j ) f ' ( y j ) Somit wird die Tendenz auch berücksichtigt verallgemeinerte Delta-Regel, Fehlerrückvermittlung Annahme: Auch die Zellen der Zwischenschicht müssen lernen xe wij wei xi wij xj Verstärke wie oben und gebe den Fehler zur Zwischenschicht zurück (Rückvermittlung = Backpropagation) δ j = (d j x j ) f ' ( y j ) w ij = η x i δ j n δ i = f ' ( y i ) w ij δ j= wn j Verstärke wie oben mit Pseudofehler δi w ei = η x e δ i Instar-Regel Annahme: nur eine Zelle soll aktiv sein Gleiches Gewicht an i-te Aktivierung (zur erneuten Aktivierung) w ij = η ( x i w ij ) x j Outstar-Regel Annahme: nur eine Zelle soll aktiv sein Gleiches Gewicht an j-te Aktivierung (zur Reproduktion) w ij = η x i ( x j w ij ) 4.3 Lernbeispiele Perceptron Annahme: es handelt sich um eine Sortierung in 2 Klassen oder um eine Interpolation. Die Schritte sind: () Kleine Zufallswerte den Gewichten wn(k) zuordnen (2) Muster (Vektor) am Eingang anlegen (3) Ausgang berechnen (4) Neue Gewichte wn(k+) nach der Delta-Regel berechnen: w n ( k + ) = w n ( k ) + η (d y) x n wobei

12 d: gewünschter Ausgang k: Iterationsnummer η: Schrittweite =... (5) Schritte (2) bis (4) wiederholen bis: - die maximale Anzahl Iteration erreicht ist oder - der restliche Fehler kleiner als eine Vorgabe ist. Der Fehler kann als quadratischer Summe gebildet werden: E= p (yi di )2 2 i= wobei p = Anzahl Paare Eingang/Ausgang Die Lernphase konvergiert schneller, wenn am Anfang η gross ist und mit k immer kleiner wird Verallgemeinerte Delta-Regel (Fehlerrückvermittlung) Die meist gebrauchte Entscheidungsfunktion ist die Sigmoide: f (x ) = + e x Eingänge Gewünschte Funktion: Eingangsschicht Gew. Matrix Input output Zwischenschicht Gew. Matrix 2 Ausgangsschicht Ausgänge () Die Gewichte werden zufällig gewählt.62,.42,.55, -.7 für Matrix und.35,.8 für Matrix 2. (2) Die Schrittweite wird gewählt.25 (3) Das Muster (,) wird am Eingang gelegt (4) Berechnung der Aktivierung Eingang hidden neuron : *.62 + *.55 =.55 Eingang hidden neuron 2: *.42 + * (-.7) = -.7 Ausgang hidden neuron : / ( + exp(-.55) ) = Ausgang hidden neuron 2: / ( + exp(+.7) ) = Input of output neuron: * *.8 = Output of output neuron: / ( + exp( ) ) = (5) Fehler berechnen: = (6) Neue Gewichte der Matrix 2 berechenen: w :.25*( )* * *( ) = w 2;.25 * ( ) * * * ( ) = neues Gewicht :.35 + ( ) = neues Gewicht 2:.8 + ( ) =

13 (7) Fehler rückvermitteln und neue Gewichte der Matrix berechnen w :.25 * ( ) * * * ( ) = w 2:.25 * ( ) * * * ( ) = w 3:.25 * ( ) * * * ( ) = w 4:.25 * ( ) * * * ( ) = neues Gewicht :.62 + =.62 neues Gewicht 2:.42 + =.42 neues Gewicht 3:.55 + ( ) = neues Gewicht 4: -.7+ ( ) = (8) Der gleiche Vorgang wird mit dem Muster (,) aber mit den neuen Gewichten wiederholt. (9) Die Schritte (3) bis (8) mit den neuen Gewichten wiederholen, bis der Fehler minimal wird. 4.4 Alle Eingänge sind Null In diesem Fall können keine Gewichte berechnet werden. Es werden sogenannte "bias" eingeführt. Eingänge Eingangsschicht Gew. Matrix Zwischenschicht Gew. Matrix 2 Ausgangsschicht Ausgänge 4.5 Konvergenz Da man eine Minimierung des Fehlers sucht, kann es vorkommen, dass ein lokales Minimum gefunden wird. Dies ist von der Parameterauswahl am Anfang der Optimierung abhängig. Sind sie zufälligerweise in der Nähe eines lokalen Minimums gewählt worden, wird die Optimierung zwangsläufig dorthin führen. Verschiedene Methoden sind geeignet, um das absolute Minimum zu finden

14 4.5. Momentfaktor Die Delta-Regel wird mit einem Momentfaktor ergänzt. w ij = ( mf ) η x i (d j x j ) + mf w ij Bei mf= hat dieser Faktor keinen Einfluss Bei mf= wird der neue Wert ignoriert und der alte Wert beibehalten Schütteln lokalen Minima entkommen durch schütteln Die Methode heisst "simulated annealing": für alle Gewichte: () zufällige Gewichtsänderung (2) wenn Verbesserung, behalte den Wert (3) wenn Verschlechterung um c, behalte den Wert mit Wahrscheinlichkeit c p(c) = exp kt T: künstliche Temperatur Im Laufe der Lernphase wird die Temperatur reduziert, so dass ein präzises Minimum gefunden wird Genetischer Algorithmus Der genetische Algorithmus wird durch die Natur in der Evolution angewendet. In einer vereinfachten Form kann er für die Bestimmung und Optimierung der Parameter in der Technik benutzt werden Schritt Prinzip Natur Bevölkerung definieren Selektion einer Gruppe von Lebewesen mit guten Ueberlebenschancen aussuchen Reproduktion innerhalb dieser Gruppe Mutation unter den Kindern erzeugt Vielfalt. Weiter nach Technik Parametersatz definieren Auswahl einer Gruppe von Parametern, die eine Vorgabe am besten erfüllt Vermischung der Parameter nach bestimmten Regeln Transformation der Parameter nach bestimmten Regeln Weiter nach Schritt : Parameter definieren Es geht darum ein Phänotyp (Gen) mit den Startparametern zu bilden: Zum Beispiel:

15 Schritt : Selektion Die Selektion sucht die Parameter aus, welche die Vorgabe am besten erfüllt. Die entsprechende Verteilung ist sehr schmal Schritt 2: Vermischung Zwei Parametersätze werden dadurch vermischt, dass ab eine Kreuzungsstelle ein Austausch der Bits stattfindet. Kreuzungsstelle Werden die schon gut angepassten Parameter unter sich vermischt und nochmals selektiert, wird die Verteilung immer schmäler. Eine Anpassung zu einem lokalen Optimum könnte daraus erfolgen. Um dies zu vermeiden wird der nächste Schritt eingeführt

16 Schritt 3: Transformation (Mutation) Durch diesen Schritt werden die Parameter leicht verändert. Die Verteilung wird dadurch breiter, so dass auch nicht ganz optimale Parameter berücksichtigt werden. Das lokale Optimum kann somit gemieden werden. Mit diesen neu erzeugten Parametern wird den Ausgang des neuronalen Netzes berechnet und mit dem Schritt weitergefahren. Das Verfahren wird solange wiederholt, bis alle Parameter optimal sind Ueberanpassung Bei einer gegebenen Struktur können bestimmte Gewichte nah bei Null sein. Es bedeutet, dass einige Zellen weggelassen werden könnten. Es gibt verschiedene Möglichkeiten diese Ueberanpassung zu vermeiden. Faustregel anwenden, um die Anzahl benötigten Zellen im Voraus zu begrenzen Im Laufe der Lernphase die Gewichte mit Werten innerhalb einer um Null liegenden, kleinen Bereich auf Null zwingen. Die Struktur mitoptimieren (aufwendig, die Lernzeit wird erhöht) Diese Methoden führen zur Begrenzung der Freiheitsgrade

17 5 5. TOPOLOGIE DER NEURONALEN NETZE Perceptron Das einfachste Netz mit zwei Schichten. Es bearbeitet nur logische Ein- und Ausgänge. Das Lernprozess erfolgt nach Vorgabe des gewünschten Ausgangs. Komplexere Aufgaben als AND OR sind nicht lösbar (siehe EXOR-Problem ) Perceptron Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Vorwärts gerichtet Eingangsschicht Ausgangsschicht binär Begrenzer Überwacht (mit Vorgabe) Hebbsche Regel Einfache logische Operationen Linearitätstest Musterklassifizierug

18 5.2 Mehrschicht-Perceptron Das Mehrschicht-Perceptron wurde eingeführt ducrch M. Minsky and S. Papert in 969. Es besitzt eine oder mehrere Schichten zwischen den Eingangs- und den Ausgangsschichten. Dieses Netz löst alle logischen Aufgaben (inkl. EXOR-Problem). MehrschichtPerceptron Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Vorwärts gerichtet Eingangsschicht oder mehrere Zwischenschichten Ausgangsschicht binär Begrenzer / Sigmoide überwacht Delta-Regel / Fehlerrückvermittlung (am meisten gebraucht) Komplexe logische Operationen Funktionsapproximation mit Sigmoide Musterklassifizierung

19 5.3 Rückvermittlungsnetz Das Rückvermittlungsnetz wurde eingeführt durch G.E. Hinton, E. Rumelhart and R.J. Williams in 986 und ist ein der leistungsfähigsten Netztypen. Es hat die gleiche Struktur wie das Mehrschicht-Perceptron benutzt aber der Rückvermittlungsalgorithmus. Rückvermittlungsnetz Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Vorwärts gerichtet Eingangsschicht oder mehrere Zwischenschichten Ausgangsschicht binär Sigmoide überwacht Fehlerrückvermittlung Komplexe logische Operationen Musterklassifizierung Sprachanalyse

20 5.4 Hopfield-Netz Das Hopfield-Netz wurde eingeführt durch den Mediziner J.J. Hopfield in 982 und gehören zu den sogenannten "thermodynamical models". Es besteht aus einem Satz von Neuronen, wobei jedes mit jeden anderen verknüpft sind. Es gibt keine Differenz zwischen Ein- und Ausgangsneuronen. Die Hauptanwendung eines Hopfield Netz ist die Speicherung und die Erkennung von Bildmustern. Hopfield-Netz Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen rückgekoppelt Matrix binär Signum / Begrenzer unüberwacht Delta-Regel simulated annealing (am meisten gebraucht) Musterkorrelation Optimierungsprobleme

21 5.5 Beziehungsnetz Das Beziehungsnetz (Feature Map) wurde eingeführt durch den Finischen Professor Teuvo Kohonen (University of Helsinki) in 982. Es ist wahrscheinlich das meist nützliche, neuronale Netz zur Simulation der Gehirnfunktionen. Das Herz dieses Netz ist die Beziehungsschicht, eine Neuronenschicht, welche sich in Abhängigkeit des Eingangsmusters selbst organisiert. Der Typ ist vorwärtsgerichtet zwischen Eingangsschicht und Beziehungsschicht und rückgekoppelt in der Beziehungsschicht. Beziehungsnetz Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Vorwärts gerichtet / rückgekoppelt Eingangsschicht Beziehungsschicht Binär, real Sigmoide unüberwacht Instar-Regel Musterklassifizierung Optimierungsprobleme Simulation

22 5.6 Rekurente Perceptron Diese Struktur wurde eingeführt durch Jordan und Elmann. Das Netz besitzt Rückverbindungen (Rekurrenz) und dadurch ein Gedächtnis. Das Netz kann Information aus der Vorgeschichte anwenden. Es wird benutzt, um Mustersequenzen zu vervollständigen oder vorherzusagen. Erkennung ganzer Sequenzen > Monitoring Rekurente Perceptoren Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Rückgekoppelt Eingangsschicht Zwischenschicht Ausgangsschicht binär, real Sigmoide unüberwacht Fehlerrückvermittlung in der Zeit Musterklassifizierung Optimierungsprobleme Simulation

23 5.7 Netz zur Zeitreihenverarbeitung Das Eingangsmuster variiert mit der Zeit. Zeitreihenverarbeitun g Eigenschaften Struktur Typ Neuronenschicht Eingangstyp Aktivierungsfunktion Lernmethode Lernalgorithmus Anwendungen Vorwärts gerichtet Eingangsschicht oder mehrere Zwischenschichten Ausgangsschicht binär Begrenzer / Sigmoide überwacht Delta-Regel / Fehlerrückvermittlung (am meisten gebraucht) Transformation von Zeitmuster in Raummuster Voraussage an der Börse

24 6 ANDERE ANWENDUNGEN 6. Linearer Prädikator 6.. Blockschema x(k) t x(k-) t x(k-2) w + w2 xp(k) w3 F w4 t t xp(k+) x(k-3) 6..2 Prinzip Die Gewichte wn werden in Abhängigkeit vom Fehler x(k) - xp(k) verändert, bis der Fehler minimal wird. Nach einer kleineren Lernzeit sagt das Ausgangssignal xp(k+) den nächsten Wert des Eingangssignals voraus. Mit komplexeren neuronalen Netzen können auch nicht lineare Prädikatoren aufgebaut werden. 6.2 Simulation einer linearen Regelstrecke 6.2. Blockschema x(k) D x A y(k-3) t x(k-) w4 Regelsrtecke y(k-2) t w3 y A y(k-) t w2 y(k) D t + w w5 t x(k-2) t w6 F w7 s(k) x(k-3)

25 6.2.2 Prinzip Die Gewichte wn werden in Abhängigkeit vom Fehler y(k) - s(k) verändert, bis der Fehler minimal wird. Das neuronale Netz lernt so die Reaktion y(k) der Regelstrecke kennen. Es kann nach der Lernphase als Modell für die Regelstrecke eingesetzt werden. Mit komplexeren neuronalen Netzen können auch nicht lineare Regelstrecke modelliert werden. 6.3 Verteilte Speicherung Dieses Beispiel ist zu didaktischen Zwecken stark vereinfacht. Zwei Vektoren sind in einem Assoziativspeicher zu speichern: e = e2 = Nehmen wir ein Netzwerk an, das 5 Eingänge und 5 Ausgänge besitzt, wobei jeder Eingang mit allen Ausgängen durch die Gewichte wij (Matrix) verbunden ist. Das Netzwerk soll nach folgender Regel das Speichern lernen: w = w + ei ei.schritt: w= Lernen mit e: w = e e = w2 = e 2 e 2 = 2,Schritt: Lernen mit e2: w3 = w + e2 e2 = w + w2 2 w3 = Schritt: mit e am Eingang gibt das durch w3 definierte Netzwerk den Ausgang:

26 2 w3 e = = Schritt: Mit einer Feuerungsschwelle bei n ai = = 3 n i= 5 wird der Ausgang: e = Dieser Vektor ist identisch mit dem Eingang, d.h. der Eingang ist durch das Netzwerk erkannt worden (es erinnert sich!). Dieses Netzwerk erkennt auch ähnliche Eingänge wie z.b. e3 = in der Tat: 2 w3 e3 = = 2 3 mit der Feuerungsschwelle bei: =.8 5 ist der Ausgang: e = Diese assoziative Erkennung hat aber seine Grenze. Zum Beispiel sei der Eingang:

27 e4 = 2 w3 e4 = = mit der Feuerungsschwelle bei: = ist der Ausgang: e5 = Dieses Muster wird also nicht erkannt

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Neuronale Netze. Seminar aus Algorithmik Stefan Craß, Neuronale Netze Seminar aus Algorithmik Stefan Craß, 325656 Inhalt Theoretisches Modell Grundlagen Lernansätze Hopfield-Netze Kohonen-Netze Zusammenfassung 2 Inhalt Theoretisches Modell Grundlagen Lernansätze

Mehr

Wissensbasierte Systeme

Wissensbasierte Systeme Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten

Mehr

Computational Intelligence I Künstliche Neuronale Netze

Computational Intelligence I Künstliche Neuronale Netze Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation Neuronale Netze Einführung in die Wissensverarbeitung 2 VO 708.560+ 1 UE 442.072 SS 2013 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

Modellbildung und Simulation

Modellbildung und Simulation Modellbildung und Simulation 6. Vorlesung Wintersemester 2007/2008 Klaus Kasper Value at Risk (VaR) Gaußdichte Gaußdichte der Normalverteilung: f ( x) = 1 2π σ x e 2 2 x ( x µ ) / 2σ x Gaußdichte der Standardnormalverteilung:

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Kleines Handbuch Neuronale Netze

Kleines Handbuch Neuronale Netze Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Neuronale Netze mit mehreren Schichten

Neuronale Netze mit mehreren Schichten Neuronale Netze mit mehreren Schichten Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Neuronale Netze mit mehreren

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Grundlagen Künstlicher Neuronaler Netze

Grundlagen Künstlicher Neuronaler Netze FernUniversität in Hagen Fachbereich Elektrotechnik und Informationstechnik Lehrgebiet Informationstechnik Seminar Computational Intelligence in der Prozessautomatisierung 7. Juli 2003 Grundlagen Künstlicher

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014 Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs

Mehr

Genetische Algorithmen von der Evolution lernen

Genetische Algorithmen von der Evolution lernen Genetische Algorithmen von der Evolution lernen (c) Till Hänisch 2003, BA Heidenheim Literatur zusätzlich zum Lit. Verz. Nils J. Nilsson Artificial Intelligence Morgan Kaufmann, 1998 Ansatz Bisher: Problemlösung

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini

Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012. Neuronale Netze. Von Deasy Sukarya & Tania Bellini Universität zu Köln Seminar: Künstliche Intelligenz II Dozent: Claes Neuefeind SS 2012 Neuronale Netze Von Deasy Sukarya & Tania Bellini Einführung Symbolische vs. Sub-symbolische KI Symbolische KI: Fokussierung

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

Neuronale Netze in der Robotik

Neuronale Netze in der Robotik Seminarvortrag Neuronale Netze in der Robotik Datum: 18.01.2002 Vortragende: Elke von Lienen Matrikelnummer: 302489 Studiengang: Informatik Inhaltsverzeichnis Einleitung 3 Biologisches Vorbild 4 Künstliche

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training des XOR-Problems mit einem Künstlichen Neuronalen Netz (KNN) in JavaNNS 11.04.2011 2_CI2_Deckblatt_XORbinaer_JNNS_2

Mehr

Big Data Künstliche Intelligenz Und das Ich

Big Data Künstliche Intelligenz Und das Ich Big Data Künstliche Intelligenz Und das Ich Überblick Big data 2 Beispiele David Kriesel: Spiegel Mining Cambridge Analytics: Ocean Diagramm Intelligenz Wie funktioniert das? Neuronale Netze Zukunktsperspektiven/Kaffeesatzleserei

Mehr

auch: Konnektionismus; subsymbolische Wissensverarbeitung

auch: Konnektionismus; subsymbolische Wissensverarbeitung 10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Universität Klagenfurt

Universität Klagenfurt Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.

Mehr

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn

Optimierung. Optimierung. Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren. 2013 Thomas Brox, Fabian Kuhn Optimierung Vorlesung 2 Optimierung ohne Nebenbedingungen Gradientenverfahren 1 Minimierung ohne Nebenbedingung Ein Optimierungsproblem besteht aus einer zulässigen Menge und einer Zielfunktion Minimum

Mehr

Exkurs Modelle und Algorithmen

Exkurs Modelle und Algorithmen Exkurs Modelle und Algorithmen Ansatz künstlich neuronaler Netze (KNN) Versuch, die Wirkungsweise menschlicher Gehirnzellen nachzubilden dabei wird auf formale mathematische Beschreibungen und Algorithmen

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5.

1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Stephan Ruttloff 1. Neuronale Netzwerke 2. Lernen in neuronalen Netzen 3. Überblick und Klassifizierung von Modellen 4. Eigenschaften von neuronalen Netzen 5. Verwendungsweise 6. Quellen Was sind neuronale

Mehr

Simulation neuronaler Netzwerke mit TIKAPP

Simulation neuronaler Netzwerke mit TIKAPP Überblick Michael Hanke Sebastian Krüger Institut für Psychologie Martin-Luther-Universität Halle-Wittenberg Forschungskolloquium, SS 2004 Überblick Fragen 1 Was sind neuronale Netze? 2 Was ist TIKAPP?

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Neuronale Netze - Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Betreuer: Dr. Florian

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

Hopfield Netze. Neuronale Netze WS 2016/17

Hopfield Netze. Neuronale Netze WS 2016/17 Hopfield Netze Neuronale Netze WS 2016/17 Rekursive Netze Definition: Ein rekursives Netz enthält mindestens eine Feedback-Schleife Gegensatz: Feedforward-Netze Beispiel: Hopfield-Netze, Boltzmann-Maschinen

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Verbesserungsheuristiken

Verbesserungsheuristiken Verbesserungsheuristiken Bestandteile der Lokalen Suche Für schwierige Optimierungsaufgaben haben Verbesserungsheuristiken eine große praktische Bedeutung. Sie starten mit Ausgangslösungen, die von z.b.

Mehr

Machine Learning - Maschinen besser als das menschliche Gehirn?

Machine Learning - Maschinen besser als das menschliche Gehirn? Machine Learning - Maschinen besser als das menschliche Gehirn? Seminar Big Data Science Tobias Stähle 23. Mai 2014 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der

Mehr

1 Singulärwertzerlegung und Pseudoinverse

1 Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung und Pseudoinverse Singulärwertzerlegung A sei eine Matrix mit n Spalten und m Zeilen. Zunächst sei n m. Bilde B = A A. Dies ist eine n n-matrix. Berechne die Eigenwerte von B. Diese

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen

Mehr

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.

Neuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches

Mehr

Innovative Information Retrieval Verfahren

Innovative Information Retrieval Verfahren Thomas Mandl Innovative Information Retrieval Verfahren Hauptseminar Wintersemester 2004/2005 Letzte Sitzung Grundlagen Heterogenität Ursachen Beispiele Lösungsansätze Visualisierung 2D-Karten heute Maschinelles

Mehr

KNN für XOR-Funktion. 6. April 2009

KNN für XOR-Funktion. 6. April 2009 KNN für XOR-Funktion G.Döben-Henisch Fachbereich Informatik und Ingenieurswissenschaften FH Frankfurt am Main University of Applied Sciences D-60318 Frankfurt am Main Germany Email: doeben at fb2.fh-frankfurt.de

Mehr

3. Das Reinforcement Lernproblem

3. Das Reinforcement Lernproblem 3. Das Reinforcement Lernproblem 1. Agierender Agent in der Umgebung 2. Discounted Rewards 3. Markov Eigenschaft des Zustandssignals 4. Markov sche Entscheidung 5. Werte-Funktionen und Bellman sche Optimalität

Mehr

Künstliche Neuronale Netze (KNN)

Künstliche Neuronale Netze (KNN) Künstliche Neuronale Netze (KNN) Die von Neuronalen Netzen ausgehende Faszination besteht darin, dass sie in der Lage sind, in einigen Fällen Probleme von hoher Kompleität mit einfachen Mitteln zu lösen.

Mehr

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen.

Simulation Neuronaler Netze. Eine praxisorientierte Einführung. Matthias Haun. Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen. Simulation Neuronaler Netze Eine praxisorientierte Einführung Matthias Haun Mit 44 Bildern, 23 Tabellen und 136 Literatursteilen expert Inhaltsverzeichnis 1 Einleitung 1.1 Über das Projekt 1 1.2 Über das

Mehr

Aufgabe 1: Berechnen Sie für den in Abbildung 1 gegebenen Graphen den. Abbildung 1: Graph für Flussproblem in Übungsaufgabe 1

Aufgabe 1: Berechnen Sie für den in Abbildung 1 gegebenen Graphen den. Abbildung 1: Graph für Flussproblem in Übungsaufgabe 1 Lösungen zu den Übungsaufgaben im Kapitel 4 des Lehrbuches Operations Research Deterministische Modelle und Methoden von Stephan Dempe und Heiner Schreier Aufgabe 1: Berechnen Sie für den in Abbildung

Mehr

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016 Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online

Mehr

Kapitel LF: IV. IV. Neuronale Netze

Kapitel LF: IV. IV. Neuronale Netze Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas LF: IV-39 Machine Learning c

Mehr

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06

Kapitel LF: IV. Multilayer-Perzeptrons und Backpropagation. Multilayer-Perzeptrons und Backpropagation. LF: IV Machine Learning c STEIN 2005-06 Kapitel LF: IV IV. Neuronale Netze Perzeptron-Lernalgorithmus Gradientenabstiegmethode Multilayer-Perzeptrons und ackpropagation Self-Organizing Feature Maps Neuronales Gas 39 Multilayer-Perzeptrons und

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sebastian Morr 4. Juni 2008 Worum geht es? Die Natur hat uns 3,7 Milliarden Jahre Forschungszeit voraus. Toby Simpson Vorbild: Strukturen des Gehirns Ziel: Lernfähige Künstliche

Mehr

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen

Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Wärmebedarfsprognose für Einfamilienhaushalte auf Basis von Künstlichen Neuronalen Netzen Internationale Energiewirtschaftstagung Wien - 12.02.2015 Maike Hasselmann, Simon Döing Einführung Wärmeversorgungsanlagen

Mehr

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40

Allgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40 Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24. Neuronale Netze in der Phonetik: Grundlagen Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 24. Mai 2006 Inhalt Einführung Maschinelles Lernen Lernparadigmen Maschinelles

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Einführung in Neuronale Netze Thomas Ruland Contents 1 Das menschliche Gehirn - Höchstleistungen im täglichen Leben 2 2 Die Hardware 2 2.1 Das Neuron 2 2.2 Nachahmung in der Computertechnik: Das künstliche

Mehr

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze Agenda Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1. - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene Netzwerktypen 2. 3. 4. Beispiele

Mehr

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell

Das Perzeptron. Künstliche neuronale Netze. Sebastian Otte. 1 Grundlegendes. 2 Perzeptron Modell Fachbereich Design Informatik Medien Studiengang Master Informatik Künstliche neuronale Netze Das Perzeptron Sebastian Otte Dezember 2009 1 Grundlegendes Als Perzeptron bezeichnet man eine Form von künstlichen

Mehr

3 Matrizenrechnung. 3. November

3 Matrizenrechnung. 3. November 3. November 008 4 3 Matrizenrechnung 3.1 Transponierter Vektor: Die Notation x R n bezieht sich per Definition 1 immer auf einen stehenden Vektor, x 1 x x =.. x n Der transponierte Vektor x T ist das zugehörige

Mehr

Künstliche Neuronale Netze. 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5.

Künstliche Neuronale Netze. 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5. Künstliche Neuronale Netze Wolfram Schiffmann FernUniversität Hagen Rechnerarchitektur 1. Einführung 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5. Zusammenfassung

Mehr

( ) ( ). Dann heißt die Zahl

( ) ( ). Dann heißt die Zahl Der Euklidische Abstand Seite 1 von 6 Der Euklidische Abstand Der Abstand zweier Punkte P und Q in der Modellebene ist eine Zahl, die von den Koordinaten der Punkte abhängt. Der Term, mit dem die Berechnung

Mehr

Zyklen: break und continue

Zyklen: break und continue Zyklen: break und continue Innerhalb eines Zyklus: break beendet vorzeitig die zyklische Verarbeitung Beispiel: a = [1 2 3 4 5 6 0 1 2]; n = length(a); s=0; nn=0; for i=1:1:n if a(i)==0 break; end s= s

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Kapitel VI Neuronale Netze

Kapitel VI Neuronale Netze Kapitel VI Neuronale Netze (basierend auf Material von Andreas Hotho) 1 Agenda 1. Einführung & Grundbegriffe - Motivation & Definition - Vorbild Biologie - Historie der NN - Überblick über verschiedene

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp

Kapitel 6. Neuronale Netze. 6.1 Verwendeter Netztyp Kapitel 6 Neuronale Netze Ein wesentlicher Teil der in dieser Arbeit entwickelten Methoden zur lokalen Kompositions- und Dickenbestimmung verwendet neuronale Netze zur Unterdrückung von Störeinflüssen.

Mehr

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016

Mathematik II für Studierende der Informatik. Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 und Wirtschaftsinformatik (Analysis und lineare Algebra) im Sommersemester 2016 25. April 2016 Die Dimensionsformel Definition 3.9 Sei f : V W eine lineare Abbildung zwischen zwei K-Vektorräumen. Der Kern

Mehr

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim

(künstliche) Neuronale Netze. (c) Till Hänisch 2003,2015, DHBW Heidenheim (künstliche) Neuronale Netze (c) Till Hänisch 2003,2015, DHBW Heidenheim Literatur zusätzlich zum Lit. Verz. Michael Negnevitsky, Artificial Intelligence, Addison Wesley 2002 Aufbau des Gehirns Säugetiergehirn,

Mehr

Computational Intelligence 1 / 31. Computational Intelligence Künstliche Neuronale Netze Geschichte 3 / 31

Computational Intelligence 1 / 31. Computational Intelligence Künstliche Neuronale Netze Geschichte 3 / 31 1 / 31 Gliederung 1 Künstliche Neuronale Netze Geschichte Natürliches Neuron Künstliches Neuron Typen von Neuronen Geschichte Künstliche Neuronale Netze Geschichte 3 / 31 1943 Warren McCulloch (Neurologe),

Mehr

Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung

Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung Günter Faes DyStar GmbH & Co. Deutschland KG Kaiser-Wilhelm-Allee Postfach 10 04 80 D-51304 Leverkusen Telefon:

Mehr

Euklidische Distanzmatrizen. Andrei Grecu

Euklidische Distanzmatrizen. Andrei Grecu Euklidische Distanzmatrizen Andrei Grecu Übersicht Motivation Definition und Problemstellung Algo 1: Semidefinite Programmierung Algo 2: Multidimensional Scaling Algo 3: Spring Embedder Algo 4: Genetischer

Mehr

Einführung in Support Vector Machines (SVMs)

Einführung in Support Vector Machines (SVMs) Einführung in (SVM) Januar 31, 2011 Einführung in (SVMs) Table of contents Motivation Einführung in (SVMs) Outline Motivation Vektorrepräsentation Klassifikation Motivation Einführung in (SVMs) Vektorrepräsentation

Mehr

Optimieren unter Nebenbedingungen

Optimieren unter Nebenbedingungen Optimieren unter Nebenbedingungen Hier sucht man die lokalen Extrema einer Funktion f(x 1,, x n ) unter der Nebenbedingung dass g(x 1,, x n ) = 0 gilt Die Funktion f heißt Zielfunktion Beispiel: Gesucht

Mehr

2. Optimierungsprobleme 6

2. Optimierungsprobleme 6 6 2. Beispiele... 7... 8 2.3 Konvexe Mengen und Funktionen... 9 2.4 Konvexe Optimierungsprobleme... 0 2. Beispiele 7- Ein (NP-)Optimierungsproblem P 0 ist wie folgt definiert Jede Instanz I P 0 hat einen

Mehr

l p h (x) δw(x) dx für alle δw(x).

l p h (x) δw(x) dx für alle δw(x). 1.3 Potentielle Energie 5 In der modernen Statik benutzen wir statt dessen einen schwächeren Gleichheitsbegriff. Wir verlangen nur, dass die beiden Streckenlasten bei jeder virtuellen Verrückung dieselbe

Mehr

Eine kleine Einführung in neuronale Netze

Eine kleine Einführung in neuronale Netze Eine kleine Einführung in neuronale Netze Tobias Knuth November 2013 1.2 Mensch und Maschine 1 Inhaltsverzeichnis 1 Grundlagen neuronaler Netze 1 1.1 Kopieren vom biologischen Vorbild...... 1 1.2 Mensch

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten Vorlesung Maschinelles Lernen II Dr. Theo Lettmann Oliver Kramer 22. Mai 2006 Überblick Grundlagen SOMs Anwendungen 2D-SOMs Neuronales Gas 2 Grundlagen der Neuronalen Informationsverarbeitung

Mehr

Bestimmung einer ersten

Bestimmung einer ersten Kapitel 6 Bestimmung einer ersten zulässigen Basislösung Ein Problem, was man für die Durchführung der Simplexmethode lösen muss, ist die Bestimmung einer ersten zulässigen Basislösung. Wie gut das geht,

Mehr

Numerische Methoden und Algorithmen in der Physik

Numerische Methoden und Algorithmen in der Physik Numerische Methoden und Algorithmen in der Physik Hartmut Stadie, Christian Autermann 11.12.2008 Numerische Methoden und Algorithmen in der Physik Hartmut Stadie 1/ 18 Einführung Einführung Verfahren für

Mehr

Übersicht. 20. Verstärkungslernen

Übersicht. 20. Verstärkungslernen Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Lernen in neuronalen & Bayes

Mehr

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht

2.5.2 Selbstorganisierte Karten: das Modell von Kohonen. Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht 2.5.2 Selbstorganisierte Karten: das Modell von Kohonen Weil es beim Perzeptron keine Wechselwirkung in der Verarbeitungsschicht zwischen den einzelnen Neuronen gibt, spielt deren räumliche Anordnung keine

Mehr