Operations Research (OR) II

Größe: px
Ab Seite anzeigen:

Download "Operations Research (OR) II"

Transkript

1 Operations Research (OR) II Fortgeschrittene Methoden der Wirtschaftsinformatik Künstliche Intelligenz (KI/AI), Künstliche Neuronale Netze (KNN/ANN) und effiziente Neurosimulation 13. Mai 2009 Michael H. Breitner # 1 Primäre Literatur zur Vorlesung (KNN) Umfassende Darstellung des überwachten Lernens mit Künstlichen Neuronalen Netzen (KNN) überwiegend aus mathematischer Sicht Einführung in Neurosimulator FAUN (= Fast approximation with universal neural networks), vgl. Vorführung in der Vorlesung Darstellung der FAUN-Hochleistungsrechnerversionen # 2 1

2 Primäre Literatur zur Vorlesung (KNN) # 3 Künstliche Neuronale Netze Der wichtigste Teilbereich der KI ist Künstliche Neuronale Netze (= KNN, engl. artificial neural networks = ANN). Betrachtet werden Verarbeitungsmodelle, die sich durch Lernfähigkeit, Darstellung und Verarbeitung von Unschärfe, hochgradig parallele Aktionen und Fehlertoleranz auszeichnen. Das Wissen ist in der Topologie und in den Gewichten der Kanten des Netzes gespeichert. Veraltet ist heute die Ansicht, dass KNN zur Simulation gehirnähnlicher Strukturen verwendet werden können. In der Zukunft scheint dies jedoch realistischer ( Gehirn Scanner ) # 4 2

3 Künstliche Neuronale Netze KNN sind oft in Schichten organisiert (Perzeptrons). Zweilagige Perzeptrons haben nur Input- und Outputschicht. Drei- und mehrlagige Perzeptrons haben zusätzliche ät li h Zwischenschichten. Z i h hi ht In I diesen di Schichten S hi ht sind i d miteinander verknüpfte Neuronen angebracht. Ein Neuron kann mehrere In- und Outputs haben, die an den Synapsen anliegen. Es summiert seine Inputs, ermittelt abhängig von innerem Zustand und Aktivierungsfunktion einen Output und leitet diesen weiter. weiter Für die Berechnung des Outputs ordnet man den Knoten und Verbindungen Werte zu, d. h. das Aktivierungspotential des Neurons und die Gewichte der Verbindungen werden einkalkuliert # 5 Künstliche Neuronale Netze/OCR Ausgabe Zeichen aus Zeichensatz (Klassifikation) Eingabe 5x7 Pixel-Feld Zwischenschicht # 6 3

4 Künstliche Neuronale Netze in der Praxis Diverse Arten von Mustererkennung; Diverse Arten von Bild- und Sprachverarbeitung; Erkennung von Druck- und Handschriften (OCR, vgl. OCR-Schriften); Kreditprüfung und Kreditwürdigkeitsprüfung; Abschätzung der Insolvenzwahrscheinlichkeit von Unternehmen; Aufdeckung von Kreditkartenbetrug; Klassifikation der Risikobereitschaft von Anlegern; Kapitalmarkt-, Wechselkurs- und Aktienkursprognosen, usw.; Immobilienanalyse; Qualitätskontrolle von Produkten (optisch, mit Messwerten, usw.); Marktsegmentierung und Bewertung von Marketingstrategien; Prognosen in Versorgungsunternehmen g und im Bauspargeschäft; ; Absatzvorhersage in Supermärkten; Entdeckung von Ölvorkommen (Auswertung seismischer Wellen); Kontrolle und Optimierung von Produktionsprozessen; Produktionsplanung in einem industriellen Leitstand-System und Maximierung des Durchsatzes in Warenlagern u. v. a. m.! # 7 Einordnung der KNN A. Zell, Sim mulation neuronaler Netze, 3. Auflage, # 8 4

5 Vergleich Rechner <-> Gehirn (* = etwas veraltet ) * * * * * A. Zell, Simulation neuronaler Netze, 3. Auflage, # 9 Kognitionswissenschaft Kognitionswissenschaft (engl. Cognitive science) ist eine in den 70er Jahren zunächst im angelsächsischen Bereich entstandene Disziplin, die sich der Erforschung der menschlichen h Geistestätigkeit täti it widmet. Mit kognitiv k wird eine allgemeine Abgrenzung der Bereiche des Wahrnehmens, Denkens und Vorstellens von anderen mentalen Bereichen vorgenommen, etwa des Fühlens, der Affekte oder des Wollens. Ein wesentliches Merkmal der Kognitionswissenschaft i ist ihr interdisziplinärer i Charakter, der durch die Mutterwissenschaften Philosophie, Psychologie, Sprachwissenschaft, Neurowissenschaft (Neuronale Netze) und Informatik bestimmt wird # 10 5

6 Kognitionswissenschaft Kognitive Theorien betonen die Bedeutung der nicht ausschließlich auf rein physiologische dem behavioristischen Reiz-Reaktions-Schema entsprechende Mechanismen zurückführbaren sprachlich-symbolischen Vermittlung beim Erkennen und Verstehen einer Situation und bei der Bildung der auf sie gerichteten Intentionen, d. h. Erwartungen und Zwecksetzungen. Bereiche der kognitiven Modellierung und Untersuchungsgegenstand der Kognitionswissenschaft sind Prozesse der visuellen und akustischen Wahrnehmung, des Lernens, der Gedächtnisorganisation und des Wissens, des Sprachverstehens und des Problemlösens und Schließens # 11 Konzepte des Konnektionismus für KNN Zellen eines KNN sind stark idealisierte Neuronen. Sie bestehen in Anlehnung an das biologische Vorbild aus drei Komponenten: Einem Zellkörper, den Dendriten, welche die Eingabe des Netzes in die Zelle aufsummieren, und einem Axon, welches die Ausgabe einer Zelle nach außen weiterleitet, sich verzweigt und mit den Dendriten nachfolgender Neuronen über Synapsen in Kontakt tritt. Die Synapsenverstärkung wird meist durch einen numerischen Wert (oft beschränkt in [-a,a]), das sogenannte Verbindungsgewicht, dargestellt # 12 6

7 Grundlagen des Neurosimulators FAUN Links: Faun mit Nymphe (franz. Holzschnitt, um 1670). Der sagenhafte König Faunus von Latium wird nach seinem Tod bereits im alten römischen Reich als Feld- und Waldgott und als Fruchtbarkeitsgott verehrt. Der Sage nach ist er Sohn des Kriegsgottes Mars und Enkel des Naturgottes Saturn. Später wird Faun mit dem altgriechischen Naturgott Pan gleichgesetzt, der Beschützer der Hirten und Jäger ist. Von den Griechen übernommen wird die Darstellung als Mann mit den Ohren, Hörnern, Beinen und dem Schwanz einer Ziege. Rechts: Die FAUN AG (Fahrzeugwerke Ansbach und Nürnberg AG) baut Spezialfahrzeuge, z. B. Autokräne, Abfallsammelfahrzeuge und Panzertieflader, vgl. und # 13 WWW-Adressen KI und Neuroinformatik M. H. Breitner, Habilitationsschrift, # 14 7

8 4-(bzw. 2- oder 3-)lagiges Perzeptron M. H. 000 Breitner, Habilitationsschrift, # 15 Bezeichnungen FAUN 1.0 n t = Anzahl der Trainingsmuster n v = Anzahl der Validierungsmuster n e = Anzahl der Neuronen in Schicht 1 (Eingabeschicht), ohne Biasneuron n 2 = Anzahl der Neuronen in Schicht 2 (verdeckte Schicht), ggf. ohne Biasneuron n 3 = ggf. Anzahl der Neuronen in Schicht 3 (2. verdeckte Schicht), ggf. ohne Biasneuron n a = Anzahl der Neuronen in Schicht 3 bzw. 4 (Ausgabeschicht) x := (x 1, x 2, x 3, x ne ) T = Eingabevektor für Muster y := (y 1, y 2, y 3, y na ) T = KNN-Ausgabevektor für Muster # 16 8

9 Highlights Neurosimulator FAUN 1.0 Der FORTRAN 90/95-Kern gewährleistet ausgezeichnete Effizienz und auch sehr gute Portabilität, da Compiler für alle gängigen Plattformen und Betriebssysteme, teils auch kostenlos (i. d. R. Shareware, teils Freeware, teils FORTRAN -> C Konverter), verfügbar sind. Durch dynamische Allokation in FORTRAN 90/95 wird die Hauptspeicher(= RAM)belegung so klein wie möglich, um viele schnelle Speicherzugriffe auf den Level- 1- und Level-2-Cache zu ermöglichen und extrem langsame Swap-Speicherzugriffe zu vermeiden. Komfortable Oberflächen (diverse MS Windows Versionen) bzw. Web-Frontends (IWI Compute-Server und Wiwi-CIP Computer-Cluster) ermöglichen ein einfaches und schnelles Training von KNNs und deren online und a posteriori Analyse und Bewertung # 17 Highlights Neurosimulator FAUN 1.0 Für verschiedene Hoch- und Höchstleistungsrechnertypen (Parallel-, Vektor- und Spezialrechner) ist eine gute Ausnutzung der Rechenleistung automatisch möglich. Insbesondere das Rechnen auf inhomogenen, dezentralen UNIX/LINUX-Clustern wird automatisch unterstützt, da derartige Rechnernetze mit geringem Auslastungsgrad weit verbreitet sind. Die Ein-/Ausgabezusammenhänge (= Muster) im Trainingsdatensatz D t, Validierungsdatensatz D v und Generalisierungsdatensatz D g können automatisch linear oder logarithmisch skaliert werden # 18 9

10 Highlights Neurosimulator FAUN 1.0 M. H. Breitner, Habilitationsschrift, # 19 Highlights Neurosimulator FAUN 1.0 M. H. Breitner, Habilitationsschrift, # 20 10

11 Dreilagiges Perzeptron ohne Direktverbindungen: Musterdatensätze M. H. Breitner, Habilitationsschrift, # 21 Dreilagiges Perzeptron ohne Direktverbindungen: Neuronenaktivierungen M. H. Breitner, Habilitationsschrift, # 22 11

12 Dreilagiges Perzeptron ohne Direktverbindungen: Wählbare Parameter M. H. Breitner, Habilitationsschrift, # 23 Dreilagiges Perzeptron ohne Direktverbindungen: 1. Gewichtsmatrix M. H. Breitner, Habilitationsschrift i if, # 24 12

13 Dreilagiges Perzeptron ohne Direktverbindungen: 2. Gewichtsmatrix M. H. Breitner, Habilitationsschrift i if, # 25 Dreilagiges Perzeptron ohne Direktverbindungen: Eingabematrix KNN-Eingabematrix für alle Trainingsmuster M. H. Breitner, Habilitationsschrift, # 26 13

14 Dreilagiges Perzeptron ohne Direktverbindungen: 2. Aktivierungsmatrix M. H. Breitner, Habilitationsschrift, 2000 tanh M wird elementweise auf die Matrixelemente angewendet W 12 *A t,1 ist eine Standard-Matrix-Matrix-Multiplikation # 27 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Ausgabematrix KNN-Ist-Ausgabematrix für alle Trainingsmuster # 28 M. H. Breitner, Habilitationsschrift,

15 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehler KNN-Soll-Ausgabematrix für alle Trainingsmuster elementweise Matrix-Matrix-Multiplikation eitner, Habilitationsschrift, 2000 M. H. Bre # 29 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehler M. H. Breitner, Habilitationsschrift, # 30 15

16 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehler # 31 M. H. Breitner, Habilitationsschrift, 2000 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehler Standardfehler in FAUN 1.0 M. H. Breitner, Habilitationsschrift, # 32 16

17 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehler(gradient) muss der modifizierte Trainingsfehler minimiert werden. Eine sinnvolle Minimierung mit modernen Verfahren der nichtlinearen Optimierung erfordert die Berechnung des Gradienten dieses Fehlers (und evtl. zusätzlich der Hesse-Matrix dieses Fehlers) # 33 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehlergradient Kettenregel mehrmals anwenden! M. H. Breitner, Habilitationsschrift, # 34 17

18 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehlergradient M. H. Breitner, Habilitationsschrift, # 35 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehlergradient M. H. Breitner, Habilitationsschrift, # 36 18

19 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehlergradient M. H. Breitner, Habilitationsschrift, # 37 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehlergradient Standard-Matrix-Matrix-Multiplikation itner, Habilitationsschrift, 2000 M. H. Bre # 38 19

20 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehlergradient M. H. Breitner, Habilitationsschrift, # 39 Highlights Neurosimulator FAUN 1.0 Für dreilagige Perzeptrons mit Direktverbindungen und vierlagige Perzeptrons ohne und mit Direktverbindungen können völlig analog ebenfalls Matrixalgorithmen hergeleitet werden, vgl. o. g. Habilitationsschrift. Die elementaren und Standard-Matrixoperationen können für Vektor- und Parallelrechner sehr effizient in Vektoroperationen, z. B. Skalarprodukte oder SIMD-Operationen, aufgespaltet werden. Rechner- und betriebssystemopti- mierte BLAS(= Basic linear algebra subprograms)-bibliotheken ermöglichen eine vollautomatische Vektorisierung und Parallelisierung # 40 20

21 Parallelisierung Neurosimulator FAUN 1.0 Grobgranular für UNIX/LINUX-Cluster: M. H. Breitner, 2000 r, Habilitationsschrift (Anhang), # 41 Parallelisierung Neurosimulator FAUN 1.0 Grobgranular für UNIX/LINUX-Cluster: M. H. Breitner, 2000 r, Habilitationsschrift (Anhang), # 42 21

22 Parallelisierung Neurosimulator FAUN 1.0 Grobgranular für UNIX/LINUX-Cluster: M. H. Breitner, 2000 r, Habilitationsschrift (Anhang), # 43 Parallelisierung Neurosimulator FAUN 1.0 Grobgranular für UNIX/LINUX-Cluster: M. H. Breitner, 2000 Habilitationsschrift (Anhang), # 44 22

23 Parallelisierung Neurosimulator FAUN 1.0 Grobgranular für UNIX/LINUX-Cluster: M. H. Breitner, 2000 r, Habilitationsschrift (Anhang), # 45 Parallelisierung Neurosimulator FAUN 1.0 Grobgranular für UNIX/LINUX-Cluster: M. H. Breitner, 2000 r, Habilitationsschrift (Anhang), # 46 23

24 Parallelisierung Neurosimulator FAUN 1.0 Grobgranular für UNIX/LINUX-Cluster: M. H. Breitner, 2000 r, Habilitationsschrift (Anhang), # 47 Schwellenwerte und Bias-Neuron(en) In den meisten KNN haben Neuronen einen Schwellenwert (engl. Bias), der die Schwelle angibt, ab der ein Neuron (stark) aktiv ist. Mathematisch ist der Bias die Stelle der größten Steigung monoton wachsender Aktivierungsfunktionen. Im biologischen Äquivalent entspricht er der Reizschwelle, ab der das Neuron Signale weiterleitet. Dieser Schwellenwert kann unterschiedlich realisiert werden, entweder als Parameter in den Neuronen, der in die Aktivierungsfunktion eingeht (umständlich!), oder mit Gewichten und einem Bias-Neuron (immer maximal erregt und in der Eingabeschicht gelegen, besser!) # 48 24

25 Dreilagiges Perzeptron ohne Direktverbindungen: Wählbare Parameter M. H. Breitner, Habilitationsschrift, # 49 Dreilagiges Perzeptron ohne Direktverbindungen: KNN-Fehler(gradient) muss der modifizierte Trainingsfehler minimiert i i werden. Eine sinnvolle Minimierung mit modernen Verfahren der nichtlinearen Optimierung erfordert die Berechnung des Gradienten dieses Fehlers (und evtl. zusätzlich der Hesse-Matrix dieses Fehlers) # 50 25

26 3-(bzw. 2-)lagiges Perzeptron M. H. Breitner, Habilitationsschrift, 200 M # 51 KNN: Begriffe Ein KNN kann als gerichteter, gewichteter Graph angesehen werden, wobei die Kanten die gewichteten Verbindungen zwischen den Neuronen darstellen. Die Matrix der Verbindungen aller Zellen (Gewichtsmatrix) wird üblicherweise mit W bezeichnet. Eine Lernregel ist ein Algorithmus, gemäß dem das neuronale Netz lernt, für eine vorgegebene Eingabe eine gewünschte Ausgabe zu produzieren. Lernen erfolgt in neuronalen Netzen meist durch Modifikation der Gewichte als Ergebnis der wiederholten Präsentation von Trainingsmustern. Oft wird dabei versucht, den Fehler zwischen erwarteter Ausgabe und tatsächlicher Ausgabe für alle Trainingsmuster zu minimieren (überwachtes Lernen). Lernverfahren sind der wissenschaftlich interessanteste Gegenstand der KNN # 52 26

27 Lernregeln für KNN Eine Lernregel erlaubt, dass ein Netz eine gegebene Aufgabe (weitgehend) selbständig aus Beispielen lernt. Theoretisch mögliche Arten des Lernens sind: 1. Generierung neuer Verbindungen; 2. Löschen existierender Verbindungen; 3. Modifikation des Gewichts (der Stärke) w ij der Verbindungen (häufig!); 4. Modifikation des Schwellenwertes θ i von Neuronen (vgl. Bias Neuron, häufig!); 5. Modifikation der Aktivierungs-, Propagierungs- oder bzw. und Ausgabefunktion (sehr selten!); 6. Generierung neuer innerer Neuronen (Zellen); 7. Löschen innerer Neuronen (Zellen) # 53 Lernregeln für KNN Von diesen Alternativen, die einzeln oder kombiniert angewendet werden können, ist Alternative 3 die mit Abstand am häufigsten verwendete Art des Lernens. Alternativen 1 und 2 können durch die Modifikation von Gewichten realisiert werden. Die Entwicklung einer neuen Verbindung von Neuron i zu Neuron j wird dadurch realisiert, dass das Verbindungsgewicht w ij von Null auf einen Wert ungleich Null gesetzt wird. Das Löschen einer Verbindung kann durch Zuweisung von Null für das Verbindungsgewicht g geschehen (fixieren!). Die Modifikation des Schwellenwertes von Neuronen (Alternative 4) wird prinzipiell gleich wie die Modifikation von Gewichten behandelt und ist daher problemlos, vgl. Bias-Neuron # 54 27

28 Lernregeln für KNN Die Modifikation der Aktivierungs-, Propagierungs- oder Ausgabefunktion (Alternative 5) ist z. Z. noch nicht sehr verbreitet und biologisch auch nicht gut motiviert. In letzter Zeit haben Verfahren, welche die Entwicklung neuer Zellen oder das Absterben nicht intensiv genutzter Zellen als Bestandteil haben (Alternativen 6 und 7) an Interesse gewonnen, speziell im Hinblick auf das Ziel, möglichst optimale Netze für gegebene Aufgaben-stellungen zu trainieren. i Diese Verfahren, die neben einer Einstellung der Gewichte gleichzeitig eine (möglichst) gute Topologie des Netzes liefern, werden vermutlich in Zukunft noch an Bedeutung gewinnen # 55 Zusammenfassung der Lernarten für KNN Überwachtes Lernen (engl. supervised learning): Ein externer Lehrer gibt zu jedem Eingabemuster der Trainingsmenge das korrekte bzw. beste Ausgabemuster an. Dies bedeutet, t dass dem KNN immer gleichzeitig iti ein vollständig spezifiziertes Eingabemuster und das korrekte bzw. optimale vollständig spezifizierte Ausgabemuster für diese Eingabe vorliegen müssen. Aufgabe des Lernverfahrens ist es, das KNN so zu ändern, dass das Netz nach wiederholter Präsentation ti der Paare von Eingabe- und Ausgabemustern diese Assoziation selbständig vornehmen kann und dies auch für unbekannte, ähnliche Eingabemuster tun kann (Generalisierung) # 56 28

29 Zusammenfassung der Lernarten für KNN Diese Art des Lernens ist üblicherweise die schnellste Methode, ein KNN für eine Aufgabe zu trainieren. Dieser Ansatz ist in der Praxis sehr erfolgreich, aber biologisch nicht plausibel, da die erwünschten Aktivierungen aller Ausgabeneuronen vorgegeben werden müssen (Großer Nachteil!) # 57 Zusammenfassung der Lernarten für KNN Probleme und Fragen des überwachten Lernens: Woher kommt die Lerneingabe in biologischen Systemen, etwa beim Menschen,, und in welcher Form ist sie verfügbar? Wie modifiziert man die Gewichte, so dass das Lernen möglichst rasch und sicher funktioniert? Welche sinnvollen Gütemaße für Lernverfahren gibt es? Welche dieser Lernverfahren sind die besten, wenn es allgemein akzeptierte Gütemaße gibt? # 58 29

30 Zusammenfassung der Lernarten für KNN Ist garantiert, dass ein verwendetes Lernverfahren terminiert? Wie lange dauert das Training eines gegebenen Netzes bei gegebener Zahl von Trainingsmustern i voraussichtlich (a priori und auch a posteriori Analyse)? Welche Art der internen Repräsentation bildet sich durch das Lernen? Wie nahe liegt das KNN-Lernen am menschlichen Lernen?? Wie verhindert man, dass das Lernen neuer Muster die gelernten alten Assoziationen zerstört ( Stabilitäts- Plastizitäts-Dilemma )? # 59 Zusammenfassung der Lernarten für KNN Bestärkendes Lernen (engl. reinforcement learning): Der Lehrer gibt zu jedem Eingabemuster nur an, ob es richtig oder falsch klassifiziert wurde, nicht jedoch die korrekte (beste) Ausgabe. Das KNN Muss die korrekte Ausgabe selbstständig herausfinden. Diese Lernverfahren sind neurobiologisch bzw. evolutionär plausibel weil man einfache Rückkopplungsmechanismen der Umwelt (Bestrafung bei falschen Entscheidungen, Belohnung bei richtigen Entscheidungen) bei niederen und höheren Lebewesen beobachtet # 60 30

31 Zusammenfassung der Lernarten für KNN Dagegen haben diese Lernverfahren den großen Nachteil, dass sie für Aufgaben, bei denen man die gewünschte Ausgabe kennt, viel länger zum Lernen brauchen als überwachte Lernverfahren, weil sie weniger Informationen zur sinnvollen Modifikation der Gewichte benutzen # 61 Zusammenfassung der Lernarten für KNN Unüberwachtes Lernen (engl. unsupervised learning, self-organized learning): Die Trainingsmenge besteht nur aus Eingabemustern, d. h. es existieren keine gewünschten Ausgaben oder Angaben, ob das Netz die Trainingsmuster richtig oder falsch klassifiziert. Lernen geschieht durch Selbstorganisation. Durch das Lernverfahren versucht das KNN, ähnliche Eingabemuster in ähnliche Kategorien zu klassifizieren, d. h. sie durch die Aktivierung i der gleichen oder räumlich benachbarter Neuronen als ähnlich zu identifizieren. Sehr bekannt sind selbstorgani-sierende Karten (engl. self-organizing maps, = SOM, = Kohonen-Karten) # 62 31

32 Zusammenfassung der Lernarten für KNN Die Lernverfahren sind biologisch am plausibelsten, da topologieerhaltende Karten bereits im visuellen Kortex von Säugetieren nachgewiesen sind. In anderen Teilen des Gehirns sind topologieerhaltende Abbildung realisieren, die aus einer genetisch vorgegebenen, aber unvollständig spezifizierten Grundtopologie von Nervenzellen gebildet werden. Mathematisch werden einige wichtige statistische Eigenschaften der Eingabemustermenge automatisch extrahiert (z. B. Cluster) # 63 32

Operations Research (OR) II

Operations Research (OR) II Operations Research (OR) II Fortgeschrittene Methoden der Wirtschaftsinformatik II 16. Mai 2007 Michael H. Breitner 18.05.2007 # 1 Künstliche Neuronale Netze Der wichtigste Teilbereich der KI ist Künstliche

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches

Mehr

Praktische Optimierung

Praktische Optimierung Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze

Mehr

11. Neuronale Netze 1

11. Neuronale Netze 1 11. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze?

Datenorientierte SA. Aufbau und Grundlagen. Aufbau und Grundlagen. Aufbau und Grundlagen. Was sind neuronale Netze? Datenorientierte SA Was sind neuronale Netze? Neuronale Netze: Grundlagen und Anwendungen Neuronale Netze bilden die Struktur eines Gehirns oder eines Nervensystems ab Andreas Rauscher 0651993 Damir Dudakovic

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1 Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?

Mehr

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien

Neuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???

Mehr

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Thema 3: Radiale Basisfunktionen und RBF- Netze

Thema 3: Radiale Basisfunktionen und RBF- Netze Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung

Mehr

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und

Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion

Mehr

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie 1. Erzeugung von Stahl im Lichtbogenofen 2. Biologische neuronale Netze 3. Künstliche neuronale Netze 4. Anwendung neuronaler

Mehr

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt

Mehr

7. Vorlesung Neuronale Netze

7. Vorlesung Neuronale Netze Soft Control (AT 3, RMA) 7. Vorlesung Neuronale Netze Grundlagen 7. Vorlesung im Aufbau der Vorlesung 1. Einführung Soft Control: Definition und Abgrenzung, Grundlagen "intelligenter" Systeme 2. Wissensrepräsentation

Mehr

5. Lernregeln für neuronale Netze

5. Lernregeln für neuronale Netze 5. Lernregeln für neuronale Netze 1. Allgemeine Lokale Lernregeln 2. Lernregeln aus Zielfunktionen: Optimierung durch Gradientenverfahren 3. Beispiel: Überwachtes Lernen im Einschicht-Netz Schwenker NI1

Mehr

6 Neuronale Modellierung: Der STAA-Ansatz

6 Neuronale Modellierung: Der STAA-Ansatz Bernd J. Kröger: Neuronale Sprachverarbeitung (Version 1.0.4) Seite 150 6 Neuronale Modellierung: Der STAA-Ansatz 6.1 Knoten: die STAA-Neuronensembles 6.1.1 Aktivierungslevel, Aktivierungsfunktion und

Mehr

Aufbau und Beschreibung Neuronaler Netzwerke

Aufbau und Beschreibung Neuronaler Netzwerke Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

Intelligente Algorithmen Einführung in die Technologie

Intelligente Algorithmen Einführung in die Technologie Intelligente Algorithmen Einführung in die Technologie Dr. KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Natürlich sprachliche

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff

Adaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}

Mehr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) 6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese

Mehr

Neuronale Netze (Konnektionismus)

Neuronale Netze (Konnektionismus) Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider Versuch: Training eines Künstlich Neuronalen Netzes (KNN) zur Approximation einer Kennlinie in JavaNNS 28.01.2008

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Adaptive Resonance Theory

Adaptive Resonance Theory Adaptive Resonance Theory Jonas Jacobi, Felix J. Oppermann C.v.O. Universität Oldenburg Adaptive Resonance Theory p.1/27 Gliederung 1. Neuronale Netze 2. Stabilität - Plastizität 3. ART-1 4. ART-2 5. ARTMAP

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze. Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung

Mehr

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen

6.4 Neuronale Netze zur Verarbeitung von Zeitreihen 6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) 29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein

Mehr

Kohonennetze Selbstorganisierende Karten

Kohonennetze Selbstorganisierende Karten Kohonennetze Selbstorganisierende Karten Julian Rith, Simon Regnet, Falk Kniffka Seminar: Umgebungsexploration und Wegeplanung mit Robotern Kohonennetze: Neuronale Netze In Dendriten werden die ankommenden

Mehr

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg

Perzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)

Mehr

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1 Adaptive Systeme Prof. Rüdiger Brause WS 2013 Organisation Einführung in adaptive Systeme B-AS-1, M-AS-1 Vorlesung Dienstags 10-12 Uhr, SR11 Übungen Donnerstags 12-13 Uhr, SR 9 Adaptive Systeme M-AS-2

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron

Mehr

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt

Mehr

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. (hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild

Mehr

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale

Mehr

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Mustererkennung: Neuronale Netze D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12 Feed-Forward Netze y 1 y 2 y m...... x 1 x 2 x n Output Schicht i max... Zwischenschicht i... Zwischenschicht 1

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014, überarbeitet am 20. Januar 2017 Übersicht Stand der Kunst: Bilderverstehen, Go spielen Was ist ein Bild in Rohform?

Mehr

Künstliche Neuronale Netze

Künstliche Neuronale Netze Fakultät Informatik, Institut für Technische Informatik, Professur für VLSI-Entwurfssysteme, Diagnostik und Architektur Künstliche Neuronale Netze Hauptseminar Martin Knöfel Dresden, 16.11.2017 Gliederung

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 20.07.2017 1 von 11 Überblick Künstliche Neuronale Netze Motivation Formales Modell Aktivierungsfunktionen

Mehr

Proseminar Neuronale Netze Frühjahr 2004

Proseminar Neuronale Netze Frühjahr 2004 Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die

Mehr

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003

Softcomputing Biologische Prinzipien in der Informatik. Neuronale Netze. Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Softcomputing Biologische Prinzipien in der Informatik Neuronale Netze Dipl. Math. Maria Oelinger Dipl. Inform. Gabriele Vierhuff IF TIF 08 2003 Überblick Motivation Biologische Grundlagen und ihre Umsetzung

Mehr

Ein selbstmodellierendes System für die Wasserwirtschaft

Ein selbstmodellierendes System für die Wasserwirtschaft Ein selbstmodellierendes System für die Wasserwirtschaft Dipl.-Ing. Dr. ANDRADE-LEAL Wien, im Juli 2001 1 Einleitung, Motivation und Voraussetzungen Künstliche Intelligenz Neuronale Netze Experte Systeme

Mehr

Multi-Layer Neural Networks and Learning Algorithms

Multi-Layer Neural Networks and Learning Algorithms Multi-Layer Neural Networks and Learning Algorithms Alexander Perzylo 22. Dezember 2003 Ausarbeitung für das Hauptseminar Machine Learning (2003) mit L A TEX gesetzt Diese Ausarbeitung ist eine Weiterführung

Mehr

Neuroinformatik. Übung 1

Neuroinformatik. Übung 1 Neuroinformatik Übung 1 Fabian Bürger Raum: BC419, Tel.: 0203-379 - 3124, E-Mail: fabian.buerger@uni-due.de Fabian Bürger (fabian.buerger@uni-due.de) Neuroinformatik: Übung 1 1 / 27 Organisatorisches Neuroinformatik:

Mehr

Ideen zur Gegenwart und Zukunft der KI

Ideen zur Gegenwart und Zukunft der KI Systementwicklung und Softwareengineering ing Exkurs: Künstliche Intelligenz (KI) oder wann wird eine Maschine intelligenter als ein Mensch sein? Michael H. Breitner (breitner@iwi.uni-hannover.de) Hans-Jörg

Mehr

Grundlagen neuronaler Netzwerke

Grundlagen neuronaler Netzwerke AUFBAU DES NEURONALEN NETZWERKS Enrico Biermann enrico@cs.tu-berlin.de) WS 00/03 Timo Glaser timog@cs.tu-berlin.de) 0.. 003 Marco Kunze makunze@cs.tu-berlin.de) Sebastian Nowozin nowozin@cs.tu-berlin.de)

Mehr

auch: Konnektionismus; subsymbolische Wissensverarbeitung

auch: Konnektionismus; subsymbolische Wissensverarbeitung 10. Künstliche Neuronale Netze auch: Konnektionismus; subsymbolische Wissensverarbeitung informationsverarbeitende Systeme, bestehen aus meist großer Zahl einfacher Einheiten (Neuronen, Zellen) einfache

Mehr

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn 16. Januar 2014 Übersicht Stand der Kunst im Bilderverstehen: Klassifizieren und Suchen Was ist ein Bild in Rohform? Biologische

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2014 / 2015 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Einführung in Neuronale Netze

Einführung in Neuronale Netze Wintersemester 2005/2006 VO 181.138 Einführung in die Artificial Intelligence Einführung in Neuronale Netze Oliver Frölich Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme

Mehr

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.

Neuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14. Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen

Mehr

Statistical Learning

Statistical Learning Statistical Learning M. Gruber KW 42 Rev.1 1 Neuronale Netze Wir folgen [1], Lec 10. Beginnen wir mit einem Beispiel. Beispiel 1 Wir konstruieren einen Klassifikator auf der Menge, dessen Wirkung man in

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Sibylle Schwarz Westsächsische Hochschule Zwickau Dr. Friedrichs-Ring 2a, RII 263 http://wwwstud.fh-zwickau.de/~sibsc/ sibylle.schwarz@fh-zwickau.de SS 2011 1 Softcomputing Einsatz

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Selbstorganisierende Karten Seminar Kognitive Robotik (SS12) Thomas Hoffmann Betreuer: Dr. Florian Röhrbein

Mehr

Linear nichtseparable Probleme

Linear nichtseparable Probleme Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger

Proseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale

Mehr

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM

Mehr

Lernverfahren von Künstlichen Neuronalen Netzwerken

Lernverfahren von Künstlichen Neuronalen Netzwerken Lernverfahren von Künstlichen Neuronalen Netzwerken Untersuchung und Vergleich der bekanntesten Lernverfahren und eine Übersicht über Anwendung und Forschung im Bereich der künstlichen neuronalen Netzen.

Mehr

Implementationsaspekte

Implementationsaspekte Implementationsaspekte Überlegungen zur Programmierung Neuronaler Netzwerke Implementationsprinzipien Trennung der Aspekte: Datenhaltung numerische Eigenschaften der Objekte Funktionalität Methoden der

Mehr

Grundlagen zu neuronalen Netzen. Kristina Tesch

Grundlagen zu neuronalen Netzen. Kristina Tesch Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen

Mehr

Technische Universität. Fakultät für Informatik

Technische Universität. Fakultät für Informatik Technische Universität München Fakultät für Informatik Forschungs- und Lehreinheit Informatik VI Unsupervised Learning Seminar Kognitive Robotik (SS12) Sebastian Fröhlich Betreuer: Florian Röhrbein Leitung:

Mehr

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen

Was bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise

Mehr

Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung

Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung Neuronale Netze in der Farbmetrik zur Bestimmung des Farbabstandes in der Qualitätsprüfung Günter Faes DyStar GmbH & Co. Deutschland KG Kaiser-Wilhelm-Allee Postfach 10 04 80 D-51304 Leverkusen Telefon:

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Übersicht Neuronale Netze Motivation Perzeptron Grundlagen für praktische Übungen

Mehr

2.4.4 Die Fraktale Dimension

2.4.4 Die Fraktale Dimension 2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die

Mehr

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische

Mehr

Klassifikation linear separierbarer Probleme

Klassifikation linear separierbarer Probleme Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear

Mehr

Lineare Regression. Volker Tresp

Lineare Regression. Volker Tresp Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M

Mehr

Martin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr

Martin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr Statistische und neuronale Lernverfahren Martin Stetter WS 03/04, 2 SWS VL: Dienstags 8:30-0 Uhr PD Dr. Martin Stetter, Siemens AG Statistische und neuronale Lernverfahren Behandelte Themen 0. Motivation

Mehr

Wissensentdeckung in Datenbanken

Wissensentdeckung in Datenbanken Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial

Mehr

Neuronale Netze zur Dokumentenklassifikation

Neuronale Netze zur Dokumentenklassifikation Neuronale Netze zur Dokumentenklassifikation Manuel Ihlenfeld 10. Mai 2005 Überblick Neuronale Netze können zum Erkennen und Klassifizieren von Mustern eingesetzt werden. Bei der Dokumentenklassifikation

Mehr

Selbstorganisierende Karten

Selbstorganisierende Karten Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales

Mehr

Seminar Künstliche Intelligenz Wintersemester 2013/14

Seminar Künstliche Intelligenz Wintersemester 2013/14 Seminar Künstliche Intelligenz Wintersemester 2013/14 Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 31.10.2013 2 / 13 Überblick Teilgebiete der KI Problemlösen,

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen

Mehr

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt

Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt Einführung in die Neuroinformatik Lösungen zum 5. Aufgabenblatt 7. Aufgabe : Summe {} Man sieht leicht ein, dass ein einzelnes Perzeptron mit Gewichten c, c 2, c 3 und Schwelle θ das Problem nicht lösen

Mehr

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock.

Institut für Angewandte Mikroelektronik und Datentechnik Fachbereich Elektrotechnik und Informationstechnik Universität Rostock. Seite 1 Implementierung Neuronaler Netze mittels Digit-Online Algorithmen Vortrag im Rahmen des 10. Symposium Maritime Elektronik 2001 M.Haase, A.Wassatsch, D.Timmermann Seite 2 Gliederung Was sind Neuronale

Mehr

Personaleinsatzplanung im Echtzeitbetrieb in Call Centern mit Künstlichen Neuronalen Netzen Halyna Zakhariya

Personaleinsatzplanung im Echtzeitbetrieb in Call Centern mit Künstlichen Neuronalen Netzen Halyna Zakhariya Personaleinsatzplanung im chtzeitbetrieb in Call Centern mit Künstlichen Neuronalen Netzen Halyna Zakhariya zakhariya@ccc.uni-hannover.de Gäste-, Diplomanden- und Doktorandenkolloquium 31.07.2008 genda

Mehr

Einführung in neuronale Netze

Einführung in neuronale Netze Einführung in neuronale Netze Florian Wenzel Neurorobotik Institut für Informatik Humboldt-Universität zu Berlin 1. Mai 2012 1 / 20 Überblick 1 Motivation 2 Das Neuron 3 Aufbau des Netzes 4 Neuronale Netze

Mehr

Kleines Handbuch Neuronale Netze

Kleines Handbuch Neuronale Netze Norbert Hoffmann Kleines Handbuch Neuronale Netze Anwendungsorientiertes Wissen zum Lernen und Nachschlagen - vieweg INHALTSVERZEICHNIS 1 Einleitung, 1.1 Begriff des neuronalen Netzes 1 11.1 Neurophysiologie

Mehr

Nichtlineare Klassifikatoren

Nichtlineare Klassifikatoren Nichtlineare Klassifikatoren Mustererkennung und Klassifikation, Vorlesung No. 11 1 M. O. Franz 12.01.2008 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht

Mehr

Case-Based Reasoning und anderen Inferenzmechanismen

Case-Based Reasoning und anderen Inferenzmechanismen Case-Based Reasoning und anderen Inferenzmechanismen Daniel Müller 21 April 2006 DM () CBR und Inferenz 21 April 2006 1 / 31 Contents 1 Einleitung 2 Inferenzmechanismen Statistische Verfahren Data Mining

Mehr

Mustererkennung und Klassifikation

Mustererkennung und Klassifikation Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick

Mehr

Künstliche Neuronale Netze. 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5.

Künstliche Neuronale Netze. 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5. Künstliche Neuronale Netze Wolfram Schiffmann FernUniversität Hagen Rechnerarchitektur 1. Einführung 2. Optimierung des Trainings 3. Optimierung der Topologie 4. Anwendungen in der Medizin 5. Zusammenfassung

Mehr

10. Neuronale Netze 1

10. Neuronale Netze 1 10. Neuronale Netze 1 Einführung (1) Ein künstliches neuronales Netz ist vom Konzept her eine Realisierung von miteinander verschalteten Grundbausteinen, sogenannter Neuronen, welche in rudimentärer Form

Mehr

Universität Klagenfurt

Universität Klagenfurt Universität Klagenfurt Neuronale Netze Carmen Hafner Elisabeth Stefan Raphael Wigoutschnigg Seminar in Intelligent Management Models in Transportation und Logistics 623.900, WS 05 Univ.-Prof. Dr.-Ing.

Mehr

Schriftlicher Test Teilklausur 2

Schriftlicher Test Teilklausur 2 Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher

Mehr

Algorithmenalltag. Prof. Dr.-Ing. Johannes Konert Fachgebiet Web Engineering

Algorithmenalltag. Prof. Dr.-Ing. Johannes Konert Fachgebiet Web Engineering Algorithmenalltag Prof. Dr.-Ing. Johannes Konert Fachgebiet Web Engineering Start reden (Begrüßung) vortragen Aufmerk-samkeit erlangt? kurze Pause machen Ende Algorithmen Was machen sie mit uns? Was sind

Mehr