Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
|
|
- Hertha Engel
- vor 7 Jahren
- Abrufe
Transkript
1 Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt (98-969) entwickelte 957 das Konzept des Perzeptrons. Charakteristika n reellwertige Eingänge x R n n reellwertige, variable Gewichte w R n Reeller Schwellwert θ Nichtlineare Aktivierungsfunktion: f a ( x, w) = sign ( w T x θ ) ( n ) = sign w i x i θ Ausgabefunktion: Identität id( ) Demzufolge bipolare Ausgabe (aktiviert () oder nicht aktiviert (-)) i=
2 Künstliche Neuronale Netze Perzeptron 4 / Signalfluss im Perzeptron Mit explizitem Schwellwert x... w w w n - z f a f o y x n Äquivalenter Signalfluss mit implizitem Schwellwert x =- w = x... w w w n z f a f o y x n Künstliche Neuronale Netze Perzeptron 5 / Funktionsprinzip des Perzeptrons Ein Perzeptron klassifiziert Eingangsbelegungen in die zwei Klassen C und C Die Klassifikation erfolgt durch Separation an einer (n )-dimensionalen Hyperebene Mit explizitem Schwellwert definiert durch y( x) = w T x θ = n w i x i θ = i= Mit implizitem Schwellwert definiert durch y( x) = w T x = n w i x i = i= Die Ausgabe / Zuordnung erfolgt gemäß der Signum-Funktion { falls y( x) = w x θ (d.h. x wird C zugeordnet) y = sonst (d.h. x wird C zugeordnet) Durch ein einzelnes Perzeptron klassifizierbare Eingangsbelegungen heißen linear separierbar
3 Künstliche Neuronale Netze Perzeptron 6 / Modellierung Boolescher Funktionen Ziel Modelliere einfache Boolesche Funktionen mit einem Perzeptron AND OR Implikation... Kodierung (False) wird als kodiert (True) wird als + kodiert Künstliche Neuronale Netze Perzeptron 7 / Beispiele Perzeptron zur Modellierung der Konjunktion x x x x x + y y Perzeptron zur Modellierung der Implikation x x x x x y - - y
4 Künstliche Neuronale Netze Perzeptron 8 / Geometrische Interpretation Perzeptron zur Modellierung der Konjunktion x x y - x Perzeptron zur Modellierung der Implikation x x y x Einschränkungen Künstliche Neuronale Netze Einschränkungen 9 / Biimplikation x : Es existiert keine separierende Gerade x x ? x Beweis wegen (, ) : w w θ () wegen (, ) : w w < θ () wegen (, ) : w + w < θ (3) wegen (, ) : w + w θ (4) () und (4) : θ widerspricht () und (3) : < θ
5 Künstliche Neuronale Netze Einschränkungen / Lineare Separierbarkeit Wieviele linear separierbare Funktionen existieren? Eingänge Boolesche Funktionen Linear separierbare Funktionen , ,8 9 5, 6 Beobachtung count ls count bf Bei vielen Eingänge kann ein.8 Perzeptron kaum noch Funktionen.6 berechnen.4 Netzwerke von Neuronen werden. benötigt, um diese Einschränkung zu überwinden i Dekomposition Idee Künstliche Neuronale Netze Netze von Perzeptonen / Logische Dekomposition: x (x ) ( x ) Löse das Biimplikationsproblem mit einem Netzwerk x - - Berechnet y = x y = x - - Berechnet y = x Berechnet y = y y
6 Künstliche Neuronale Netze Netze von Perzeptonen / Geometrische Interpretation der Dekomposition Die erste Schicht transformiert die Koordinaten der Punkte Nach der Transformation sind die Punkte linear separierbar Schicht Schicht P g P 3 P y P, P 3 - g - y x P - P P Künstliche Neuronale Netze Netze von Perzeptonen 3 / Darstellung beliebiger Boolescher Funktionen Algorithmus Sei y = f (x,..., x n ) eine Boolesche Funktion mit n Variablen Wandle f (x,..., x n ) in die disjunktive Normalform. Bestimme also D f = K K m, wobei alle K j Konjunktionsterme aus n Literalen sind, d.h. K j = l j l jn mit l ji = x i (nichtnegiertes Literal) oder l ji = x i (negiertes Literal). Erzeuge für jeden Konjunktionsterm K j der disjunktiven Normalform ein Neuron mit je n Eingängen, d.h. einem pro Variable, wobei { falls l ji = x i w ji = und θ j = n sonst 3 Erzeuge ein Ausgabeneuron mit m Eingängen, also je einem für die in Schritt erzeugten Neuronen, wobei w (n+)k =, k =,..., m und θ n+ = m +.
7 Perzeptron-Lernen Künstliche Neuronale Netze Perzeptron-Lernen 4 / Wie sind die Gewichte des Perzeptrons zu belegen? Geometrische Interpretation ermöglicht die Konstruktion eines Perzeptrons mit oder 3 Eingängen, aber Keine automatisierte Methode (basiert auf menschlicher Visualisierung) Für mehr als 3 Dimensionen nicht anwendbar Automatisiertes Lernen: Perzeptron-Lernalgorithmus Iterativer Prozess Beginne mit zufälliger Belegung Überprüfe alle Eingangsbelegungen auf Fehlklassifikationen, passe in diesen Fällen die Gewichte entsprechend an Iteriere den Vorgang bis alle Fehlklassifikationen verschwinden Überwachtes Lernen Nur linear separierbare Daten können klassifiziert werden Künstliche Neuronale Netze Perzeptron-Lernen 5 / Perzeptron-Lernalgorithmus Datenstruktur Eingangsvektor mit implizitem Schwellwert x = (, x,..., x n ) T Gewichtsvektor mit implizitem Schwellwert x = (θ, w,..., w n ) T Trainingsdaten X = { x,..., x k x i C } X = {,..., l i C } X = X X Annahme Ziel Die Klassen C und C sind linear trennbar Somit existiert ein Gewichtsvektor w T, so dass w T x i für jedes Trainingsbeispiel aus Klasse C w T i < für jedes Trainingsbeispiel aus Klasse C Finde einen Gewichtsvektor w T, so dass obige Ungleichungen gelten
8 Künstliche Neuronale Netze Perzeptron-Lernen 6 / Perzeptron-Lernalgorithmus Lernprozedur Die Präsentation von Trainigsbeispielen wird in Epochen gezählt In jeder Epoche werden alle Trainigsbeispiele präsentiert Lernregel Wird ein Trainingsbeispiel x richtig klassifiziert, behalte die Gewichte bei w (i+) = w (i) falls ( w (i) ) T x und x C w (i+) = w (i) falls ( w (i) ) T x < und x C Wird ein Trainingsbeispiel x falsch klassifiziert, modifiziere die Gewichte w (i+) = w (i) η (i) x falls ( w (i) ) T x und x C w (i+) = w (i) + η (i) x falls ( w (i) ) T x < und x C Lernrate η (i) Künstliche Neuronale Netze Perzeptron-Lernen 7 / Offensichtlich gilt < η (i) Große Lernrate Gewichte werden stark geändert ( schnelle Änderung) Kann zur Fehlklassifikation bereits richtig klassifizierter Trainingsbeispiele führen Kleine Lernrate Gewichte werden geringfügig geändert ( langsame Änderung) Starke Mittelung über bereits präsentierte Trainingsbeispiele Variabilität der Lernrate Gilt η (i) = η ist die Lernrate konstant Üblich ist auch eine monoton fallende Lernrate, entweder über alle Lernschritte i oder über die Epochen
9 Künstliche Neuronale Netze Perzeptron-Lernen 8 / Perzeptron-Lernalgorithmus Algorithmus Erzeuge einen zufälligen Gewichtsvektor w () Solange fehlklassifizierte Trainingsbeispiele existieren: Wähle ein Trainingsbeispiel x X Bestimme die Soll-Ausgabe { + falls x zur Klasse C gehört d = falls x zur Klasse C gehört ( ) 3 Berechne die Ausgabe y = sign ( w (i) ) T x 4 Aktualisiere das Gewicht w (i+) = w (i) + η(d y) x 5 i = i + Künstliche Neuronale Netze Perzeptron-Lernen 9 / Repräsentierbarkeit und Lernfähigkeit Repräsentierbarkeit Die Möglichkeit der Modellierung einer vorgegebenen Funktion durch ein neuronales Netz Abhängig von der Topologie des Netzes, der Aktivierungs- und der Ausgabefunktion Lernfähigkeit Fähigkeit eines neuronalen Netzes eine repräsentierbare Funktion zu lernen (d.h. passende Gewichte und Schwellenwerte zu finden) Abhängig vom Lernalgorithmus Perzeptron-Konvergenztheorem [Rosenblatt] Der Lernalgorithmus des Perzeptrons konvergiert in endlicher Zeit, d.h. das Perzeptron kann in endlicher Zeit alles lernen, was es repräsentieren kann.
10 Künstliche Neuronale Netze Perzeptron-Lernen / Beispiel zum Klassifikationsfehler Perzeptron zur Modellierung der Negation x w x θ y x y - - Ausgabefehler als Funktion von Gewicht und Schwellwert.75.5 e.5 Θ w.75.5 e.5 Θ w e.5.5 Θ w Fehler für x = Fehler für x = Gesamtfehler
Schwellenwertelemente. Rudolf Kruse Neuronale Netze 8
Schwellenwertelemente Rudolf Kruse Neuronale Netze 8 Schwellenwertelemente Ein Schwellenwertelement (Threshold Logic Unit, TLU) ist eine Verarbeitungseinheit für Zahlen mitneingängenx,...,x n und einem
MehrPerzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004
Perzeptronen Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004 1/25 Gliederung Vorbilder Neuron McCulloch-Pitts-Netze Perzeptron
MehrNeuronale Netze. Prof. Dr. Rudolf Kruse
Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik rudolf.kruse@ovgu.de Rudolf Kruse, Alexander Dockhorn Neuronale
MehrKlassifikation linear separierbarer Probleme
Klassifikation linear separierbarer Probleme Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Klassifikation linear
MehrPerzeptronen. Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg
Perzeptronen Lehrstuhl für Künstliche Intelligenz Institut für Informatik Friedrich-Alexander-Universität Erlangen-Nürnberg (Lehrstuhl Informatik 8) Perzeptronen 1 / 22 Gliederung 1 Schwellwert-Logik (MCCULLOCH-PITTS-Neuron)
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrWir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)
6. Neuronale Netze Motivation Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs) Abstrakt betrachtet sind alle diese
MehrTechnische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Albayrak, Fricke (AOT) Oer, Thiel (KI) Wintersemester 2014 / 2015 8. Aufgabenblatt
MehrProseminar Neuronale Netze Frühjahr 2004
Proseminar Neuronale Netze Frühjahr 2004 Titel: Perzeptron Autor: Julia Grebneva, jg7@informatik.uni-ulm.de Einleitung In vielen Gebieten der Wirtschaft und Forschung, stellen sich oftmals Probleme, die
MehrKünstliche Neuronale Netze
Inhalt (Biologische) Neuronale Netze Schwellenwertelemente Allgemein Neuronale Netze Mehrschichtiges Perzeptron Weitere Arten Neuronaler Netze 2 Neuronale Netze Bestehend aus vielen Neuronen(menschliches
MehrLinear nichtseparable Probleme
Linear nichtseparable Probleme Mustererkennung und Klassifikation, Vorlesung No. 10 1 M. O. Franz 20.12.2007 1 falls nicht anders vermerkt, sind die Abbildungen entnommen aus Duda et al., 2001. Übersicht
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrAdaptive Systeme. Mehrere Neuronen, Assoziative Speicher und Mustererkennung. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Mehrere Neuronen, Assoziative Speicher und Mustererkennung Prof. Dr. rer. nat. Nikolaus Wulff Modell eines Neuron x x 2 x 3. y y= k = n w k x k x n Die n binären Eingangssignale x k {,}
MehrGliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron
Neuronale Netzwerke Gliederung Biologische Motivation Künstliche neuronale Netzwerke Das Perzeptron Aufbau Lernen und Verallgemeinern Anwendung Testergebnis Anwendungsbeispiele Zusammenfassung Biologische
MehrComputational Intelligence I Künstliche Neuronale Netze
Computational Intelligence I Künstliche Neuronale Nete Universität Dortmund, Informatik I Otto-Hahn-Str. 6, 44227 Dortmund lars.hildebrand@uni-dortmund.de Inhalt der Vorlesung 0. Organisatorisches & Vorbemerkungen.
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
MehrWas bisher geschah. Lernen: überwachtes Lernen. biologisches Vorbild neuronaler Netze: unüberwachtes Lernen
Was bisher geschah Lernen: überwachtes Lernen korrigierendes Lernen bestärkendes Lernen unüberwachtes Lernen biologisches Vorbild neuronaler Netze: Neuron (Zellkörper, Synapsen, Axon) und Funktionsweise
MehrWissensbasierte Systeme
Analytisch lösbare Optimierungsaufgaben Das Chaos-Spiel gründet auf der folgenden Vorschrift: Man startet von einem beliebigen Punkt aus geht auf einer Verbindung mit einem von drei zufällig gewählten
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrTeil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze
Vorlesung Künstliche Intelligenz Wintersemester 2008/09 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der
MehrNeuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
Mehr(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.
(hoffentlich kurze) Einführung: martin.loesch@kit.edu (0721) 608 45944 Überblick Einführung Perzeptron Multi-layer Feedforward Neural Network MLNN in der Anwendung 2 EINFÜHRUNG 3 Gehirn des Menschen Vorbild
MehrTraining von RBF-Netzen. Rudolf Kruse Neuronale Netze 134
Training von RBF-Netzen Rudolf Kruse Neuronale Netze 34 Radiale-Basisfunktionen-Netze: Initialisierung SeiL fixed ={l,...,l m } eine feste Lernaufgabe, bestehend ausmtrainingsbeispielenl=ı l,o l. Einfaches
MehrProseminar Machine Learning. Neuronale Netze: mehrschichtige Perzeptrone. Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger
Proseminar Machine Learning Neuronale Netze: mehrschichtige Perzeptrone Christina Schmiedl Betreuer: Christian Spieth, Andreas Dräger 27.Mai 2006 Inhaltsverzeichnis 1 Biologische Motivation 2 2 Neuronale
Mehr% ' ' & w 1. x 1 M $ # w = x n. w n.,l,x n. x T = (x 1. x i. w i. Treppenfunktion H (Heavisidefunktion) als Aktivierungsfunktion
Perzeptron (mit Gewichten w 1,..., w n und Schwellwert θ, an dessen Eingänge Werte x 1,...,x n angelegt worden sind) x 1 w 1 θ x n w n Eingabewerte x 1,...,x n (reelle Zahlen, oft zwischen 0 und 1, manchmal
MehrSeminar über Neuronale Netze und Maschinelles Lernen WS 06/07
Universität Regensburg Naturwissenschaftliche Informatik Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07 Cluster-Algorithmen II: Neural Gas Vortragender: Matthias Klein Gliederung Motivation:
MehrBoolesche Funktionen und Schaltkreise
Boolesche Funktionen und Schaltkreise Die Oder-Funktion (Disjunktion) und die Und-Funktion (Konjunktion), x y 0 0 0 0 1 1 1 0 1 1 1 1 x y 0 0 0 0 1 0 1 0 0 1 1 1 1 (Implikationsfunktion), ( umgekehrte
MehrPraktische Optimierung
Wintersemester 27/8 Praktische Optimierung (Vorlesung) Prof. Dr. Günter Rudolph Fakultät für Informatik Lehrstuhl für Algorithm Engineering Metamodellierung Inhalt Multilayer-Perceptron (MLP) Radiale Basisfunktionsnetze
MehrHannah Wester Juan Jose Gonzalez
Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrNeuronale Netze (Konnektionismus)
Einführung in die KI Prof. Dr. sc. Hans-Dieter Burkhard Daniel Göhring Vorlesung (Konnektionismus) sind biologisch motiviert können diskrete, reell-wertige und Vektor-wertige Funktionen berechnen Informationsspeicherung
MehrEinige überwachte Lernverfahren. Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel
Einige überwachte Lernverfahren Perzeptron, Mehrschicht-Perzeptronen und die Backpropagation-Lernregel Funktionsweise eines künstlichen Neurons x w k Neuron k x 2 w 2k net k f y k x n- w n-,k x n w n,k
MehrAussagenlogik. Übersicht: 1 Teil 1: Syntax und Semantik. 2 Teil 2: Modellierung und Beweise. Aussagenlogik H. Kleine Büning 1/25
Aussagenlogik Übersicht: 1 Teil 1: Syntax und Semantik 2 Teil 2: Modellierung und Beweise Aussagenlogik H. Kleine Büning 1/25 Einführendes Beispiel Falls Lisa Peter trifft, dann trifft Lisa auch Gregor.
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrLineare Regression. Volker Tresp
Lineare Regression Volker Tresp 1 Die Lernmaschine: Das lineare Modell / ADALINE Wie beim Perzeptron wird zunächst die Aktivierungsfunktion gewichtete Summe der Eingangsgrößen x i berechnet zu h i = M
MehrAllgemeingültige Aussagen
Allgemeingültige Aussagen Definition 19 Eine (aussagenlogische) Formel p heißt allgemeingültig (oder auch eine Tautologie), falls p unter jeder Belegung wahr ist. Eine (aussagenlogische) Formel p heißt
MehrRückblick. Erweiterte b-adische Darstellung von Kommazahlen. 7,1875 dargestellt mit l = 4 und m = 4 Bits. Informatik 1 / Kapitel 2: Grundlagen
Rückblick Erweiterte b-adische Darstellung von Kommazahlen 7,1875 dargestellt mit l = 4 und m = 4 Bits 66 Rückblick Gleitkommazahlen (IEEE Floating Point Standard 754) lassen das Komma bei der Darstellung
MehrRadiale-Basisfunktionen-Netze. Rudolf Kruse Neuronale Netze 120
Radiale-Basisfunktionen-Netze Rudolf Kruse Neuronale Netze 2 Radiale-Basisfunktionen-Netze Eigenschaften von Radiale-Basisfunktionen-Netzen (RBF-Netzen) RBF-Netze sind streng geschichtete, vorwärtsbetriebene
MehrRückblick. Erweiterte b-adische Darstellung von Kommazahlen. 7,1875 dargestellt mit l = 4 und m = 4 Bits. Informatik 1 / Kapitel 2: Grundlagen
Rückblick Erweiterte b-adische Darstellung von Kommazahlen 7,1875 dargestellt mit l = 4 und m = 4 Bits 66 Rückblick Gleitkommazahlen (IEEE Floating Point Standard 754) lassen das Komma bei der Darstellung
MehrTU9 Aussagenlogik. Daniela Andrade
TU9 Aussagenlogik Daniela Andrade daniela.andrade@tum.de 18.12.2017 1 / 21 Kleine Anmerkung Meine Folien basieren auf den DS Trainer von Carlos Camino, den ihr auf www.carlos-camino.de/ds findet ;) 2 /
MehrAdaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff
Adaptive Systeme Neuronale Netze: Neuronen, Perzeptron und Adaline Prof. Dr. rer. nat. Nikolaus Wulff Neuronale Netze Das (menschliche) Gehirn ist ein Musterbeispiel für ein adaptives System, dass sich
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Neuronale Netze Motivation Perzeptron Übersicht Multilayer Neural Networks Grundlagen
MehrDas Perzeptron. Volker Tresp
Das Perzeptron Volker Tresp 1 Einführung Das Perzeptron war eines der ersten ernstzunehmenden Lernmaschinen Die wichtigsten Elemente Sammlung und Vorverarbeitung der Trainingsdaten Wahl einer Klasse von
MehrPraktikum Simulationstechnik Rene Schneider, Benjamin Zaiser
Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM
MehrReranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart
Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle
MehrLernende Vektorquantisierung
Lernende Vektorquantisierung (engl. Learning Vector Quantization) Rudolf Kruse Neuronale Netze 5 Motivation Bisher: festes Lernen, jetzt freies Lernen, d.h. es existieren keine festgelegten Klassenlabels
MehrTeil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze
Vorlesung Künstliche Intelligenz Wintersemester 2006/07 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Dieses Kapitel basiert auf Material von Andreas Hotho Mehr Details sind in der
MehrÜbung 4: Aussagenlogik II
Übung 4: Aussagenlogik II Diskrete Strukturen im Wintersemester 2013/2014 Markus Kaiser 8. Januar 2014 1/10 Äquivalenzregeln Identität F true F Dominanz F true true Idempotenz F F F Doppelte Negation F
MehrLineare Klassifikationsmethoden
Verena Krieg Fakultät für Mathematik und Wirtschaftswissenschaften 08. Mai 2007 Inhaltsverzeichnis 1. Einführung 2. Lineare Regression 3. Lineare Diskriminanzanalyse 4. Logistische Regression 4.1 Berechnung
Mehrf ist sowohl injektiv als auch surjektiv.
Bemerkungen: Wir erinnern uns an folgende Definitionen: Eine Funktion f : U V heißt injektiv, wenn gilt: ( x, y U)[x y f(x) f(y)] Eine Funktion f : U V heißt surjektiv, wenn gilt: ( y V x U)[y = f(x)]
MehrMaschinelles Lernen: Neuronale Netze. Ideen der Informatik
Maschinelles Lernen: Neuronale Netze Ideen der Informatik Kurt Mehlhorn Adrian Neumann 16. Januar 2014 Übersicht Biologische Inspiration Stand der Kunst in Objekterkennung auf Bildern Künstliche Neuronale
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2012 / 2013 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrSelbstorganisierende Karten
Selbstorganisierende Karten (engl. Self-Organizing Maps (SOMs)) Rudolf Kruse Neuronale Netze 169 Selbstorganisierende Karten Eine selbstorganisierende Karte oder Kohonen-Merkmalskarte ist ein neuronales
MehrOptimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp
Optimal-trennende Hyperebenen und die Support Vector Machine Volker Tresp 1 (Vapnik s) Optimal-trennende Hyperebenen (Optimal Separating Hyperplanes) Wir betrachten wieder einen linearen Klassifikator
MehrGeschichte der Logik ist eng verknüpft mit (Sprach-) Philosophie. Logik untersucht, wie aus wahren Aussagen andere wahre Aussagen folgen
Was ist Logik? Geschichte der Logik ist eng verknüpft mit (Sprach-) Philosophie Logik untersucht, wie aus wahren Aussagen andere wahre Aussagen folgen Beschränkung auf "Aussage A folgt nach einer gegebenen
MehrThema 3: Radiale Basisfunktionen und RBF- Netze
Proseminar: Machine Learning 10 Juli 2006 Thema 3: Radiale Basisfunktionen und RBF- Netze Barbara Rakitsch Zusammenfassung: Aufgabe dieses Vortrags war es, die Grundlagen der RBF-Netze darzustellen 1 Einführung
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2014 / 2015 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrLogik für Informatiker
Vorlesung Logik für Informatiker 5. Aussagenlogik Normalformen Bernhard Beckert Universität Koblenz-Landau Sommersemester 2006 Logik für Informatiker, SS 06 p.1 Normalformen Definition: Literal Atom (aussagenlogische
MehrAussagenlogik: Syntax von Aussagen
Aussagenlogik: Syntax von Aussagen A ::= X (A A) (A A) ( A) (A A) (A A) 0 1 Prioritätsreihenfolge :,,,,. A B: Konjunktion (Verundung). A B: Disjunktion (Veroderung). A B: Implikation. A B: Äquivalenz.
MehrLernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany),
Lernen mit Queries Hans Kleine Büning Institut für Informatik, Universität Paderborn 33095 Paderborn (Germany), E-mail: kbcsl @upb.de November 2007 1 Einführung In diesem Abschnitt beschreiben wir kurz,
MehrNeuronale Netze in der Phonetik: Feed-Forward Netze. Pfitzinger, Reichel IPSK, LMU München {hpt 14.
Neuronale Netze in der Phonetik: Feed-Forward Netze Pfitzinger, Reichel IPSK, LMU München {hpt reichelu}@phonetik.uni-muenchen.de 14. Juli 2006 Inhalt Typisierung nach Aktivierungsfunktion Lernen in einschichtigen
MehrInformationsverarbeitung auf Bitebene
Informationsverarbeitung auf Bitebene Dr. Christian Herta 5. November 2005 Einführung in die Informatik - Informationsverarbeitung auf Bitebene Dr. Christian Herta Grundlagen der Informationverarbeitung
MehrNeuronale Netze. Prof. Dr. Rudolf Kruse
Neuronale Netze Prof. Dr. Rudolf Kruse Computational Intelligence Institut für Intelligente Kooperierende Systeme Fakultät für Informatik rudolf.kruse@ovgu.de Rudolf Kruse, Christoph Doell Neuronale Netze
MehrLineare Klassifikatoren. Volker Tresp
Lineare Klassifikatoren Volker Tresp 1 Einführung Lineare Klassifikatoren trennen Klassen durch eine lineare Hyperebene (genauer: affine Menge) In hochdimensionalen Problemen trennt schon eine lineare
MehrWas bisher geschah: klassische Aussagenlogik
Was bisher geschah: klassische Aussagenlogik Syntax Symbole und Struktur, Junktoren: t, f,,,,, Prinzip der strukturellen Induktion über Baumstruktur von Formeln, arithmetischen Ausdrücken usw. induktive
Mehr2.4.4 Die Fraktale Dimension
2.4.4 Die Fraktale Dimension Ausgehend vom euklidischen Dimensionsbegriff (Punkt = 0, Linie = 1, Fläche = 2...) lässt sich einem fraktalen Gebilde eine fraktale Dimension d f zuordnen. Wir verwenden die
MehrResolutionskalkül. wird t als eine Menge K t von Klauseln geschrieben, welche die einzelnen Maxterme repräsentieren:
Resolutionskalkül Ein Kalkül ist eine Kollektion von syntaktischen Umformungsregeln, die unter gegebenen Voraussetzungen aus bereits vorhandenen Formeln neue Formeln erzeugen. Der Resolutionskalkül besteht
MehrWas bisher geschah: klassische Aussagenlogik
Was bisher geschah: klassische Aussagenlogik Syntax Symbole und Struktur Junktoren: t, f,,,,, aussagenlogische Formeln AL(P) induktive Definition: IA Atome (Aussagenvariablen) p, q, r,... P IS zusammengesetzte
MehrGrundlagen zu neuronalen Netzen. Kristina Tesch
Grundlagen zu neuronalen Netzen Kristina Tesch 03.05.2018 Gliederung 1. Funktionsprinzip von neuronalen Netzen 2. Das XOR-Beispiel 3. Training des neuronalen Netzes 4. Weitere Aspekte Kristina Tesch Grundlagen
MehrAussagenlogik. Aussagen und Aussagenverknüpfungen
Aussagenlogik Aussagen und Aussagenverknüpfungen Aussagen sind Sätze, von denen sich sinnvollerweise sagen läßt, sie seien wahr oder falsch. Jede Aussage besitzt also einen von zwei möglichen Wahrheitswerten,
MehrDas Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation
Das Modell: Nichtlineare Merkmalsextraktion (Preprozessing) + Lineare Klassifikation Hochdimensionaler Eingaberaum {0,1} Z S quadratisch aufgemalt (zwecks besserer Visualisierung) als Retina bestehend
MehrTeil III: Wissensrepräsentation und Inferenz. Kap.5: Neuronale Netze. Was sind künstliche Neuronale Netze?
Was sind künstliche Neuronale Netze? Vorlesung Künstliche Intelligenz Wintersemester 2006/07 Teil III: Wissensrepräsentation und Inferenz Kap.5: Neuronale Netze Künstliche Neuronale Netze sind massiv parallel
MehrAussagenlogik. Formale Methoden der Informatik WiSe 2012/2013 teil 6, folie 1
Aussagenlogik Formale Methoden der Informatik WiSe 22/23 teil 6, folie Teil VI: Aussagenlogik. Einführung 2. Boolesche Funktionen 3. Boolesche Schaltungen Franz-Josef Radermacher & Uwe Schöning, Fakultät
MehrAdaptive Resonance Theory
Adaptive Resonance Theory Jonas Jacobi, Felix J. Oppermann C.v.O. Universität Oldenburg Adaptive Resonance Theory p.1/27 Gliederung 1. Neuronale Netze 2. Stabilität - Plastizität 3. ART-1 4. ART-2 5. ARTMAP
MehrKapitel 1.3. Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln
Kapitel 1.3 Normalformen aussagenlogischer Formeln und die Darstellbarkeit Boolescher Funktionen durch aussagenlogische Formeln Mathematische Logik (WS 2011/12) Kapitel 1.3: Normalformen 1/ 29 Übersicht
MehrADS: Algorithmen und Datenstrukturen 2
ADS: Algorithmen und Datenstrukturen 2 Teil XIII Peter F. Stadler & Konstantin Klemm Bioinformatics Group, Dept. of Computer Science & Interdisciplinary Center for Bioinformatics, University of Leipzig
MehrWas ist Logik? Was ist Logik? Aussagenlogik. Wahrheitstabellen. Geschichte der Logik eng verknüpft mit Philosophie
Was ist Logik? Geschichte der Logik eng verknüpft mit Philosophie Begriff Logik wird im Alltag vielseitig verwendet Logik untersucht, wie man aus Aussagen andere Aussagen ableiten kann Beschränkung auf
MehrNeuronale Netze. H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a 1
Kapitel 8 Neuronale Netze H. Burkhardt, Institut für Informatik, Universität Freiburg ME-I, Kap. 8a Ansätze zum Entwurf eines Klassifikators Es gibt zwei prinzipiell unterschiedliche Ansätze zum Entwurf
MehrAufgabe 1. Die ganzen Zahlen Z sind ein R-Vektorraum bezüglich der gewöhnlichen Multiplikation in R.
Aufgabe Die ganzen Zahlen Z sind ein Q-Vektorraum bezüglich der gewöhnlichen Multiplikation in Q. Die reellen Zahlen R sind ein Q-Vektorraum bezüglich der gewöhnlichen Multiplikation in R. Die komplexen
MehrSchriftlicher Test Teilklausur 2
Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik Künstliche Intelligenz: Grundlagen und Anwendungen Wintersemester 2011 / 2012 Albayrak, Fricke (AOT) Opper, Ruttor (KI) Schriftlicher
MehrAufgabe 1 Probabilistische Inferenz
Seite 1 von 8 Aufgabe 1 Probabilistische Inferenz (32 Punkte) In einer medizinischen Studie werden zwei Tests zur Diagnose von Leberschäden verglichen. Dabei wurde folgendes festgestellt: Test 1 erkennt
MehrAllgemeine (Künstliche) Neuronale Netze. Rudolf Kruse Neuronale Netze 40
Allgemeine (Künstliche) Neuronale Netze Rudolf Kruse Neuronale Netze 40 Allgemeine Neuronale Netze Graphentheoretische Grundlagen Ein (gerichteter) Graph ist ein Tupel G = (V, E), bestehend aus einer (endlichen)
MehrObjekt Attributwerte Klassifizierung X Y
AUFGABE : Entscheidungsbäume Betrachten Sie das folgende Klassifizierungsproblem: bjekt Attributwerte Klassifizierung X Y A 3 B 2 3 + C 2 D 3 3 + E 2 2 + F 3 G H 4 3 + I 3 2 J 4 K 2 L 4 2 ) Bestimmen Sie
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
Mehr6.4 Neuronale Netze zur Verarbeitung von Zeitreihen
6.4 Neuronale Netze zur Verarbeitung von Zeitreihen Aufgabe: Erlernen einer Zeitreihe x(t + 1) = f(x(t), x(t 1), x(t 2),...) Idee: Verzögerungskette am Eingang eines neuronalen Netzwerks, z.b. eines m-h-1
MehrBACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON
BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON EINFÜHRUNG IN KÜNSTLICHE NEURONALE NETZE Modul Leitung Technischer Datenschutz und Mediensicherheit Nils Tekampe Vortrag Jasmin Sunitsch Abgabe
MehrKonjunktive und disjunktive Normalformen
Konjunktive und disjunktive Normalformen Nachdem gesprochen wurde, wie man Boolesche Terme unter einer Belegung der Variablen interpretiert und dass somit jeder Boolesche Term eine Boolesche Funktion repräsentiert,
MehrErsetzbarkeitstheorem
Ersetzbarkeitstheorem Die Abgeschlossenheit läßt sich auch folgendermaßen formulieren: Ersetzbarkeitstheorem Seien F und G Formeln mit F G. SeienH und H Formeln, so daß H aus H hervorgeht, indem ein Vorkommen
MehrNeuronale Netze. Maschinelles Lernen. Michael Baumann. Universität Paderborn. Forschungsgruppe Wissensbasierte Systeme Prof. Dr.
Neuronale Netze Maschinelles Lernen Michael Baumann Universität Paderborn Forschungsgruppe Wissensbasierte Systeme Prof. Dr. Kleine Büning WS 2011/2012 Was ist ein neuronales Netz? eigentlich: künstliches
MehrKünstliche Intelligenz Logische Agenten & Resolution
Künstliche Intelligenz Logische Agenten & Resolution Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Inferenz-Algorithmus Wie könnte ein
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrNeuronale. Netze. Henrik Voigt. Neuronale. Netze in der Biologie Aufbau Funktion. Neuronale. Aufbau Netzarten und Topologien
in der Seminar Literaturarbeit und Präsentation 17.01.2019 in der Was können leisten und was nicht? Entschlüsseln von Texten??? Bilderkennung??? in der in der Quelle: justetf.com Quelle: zeit.de Spracherkennung???
MehrVorsemesterkurs Informatik
Vorsemesterkurs Informatik Sommersemester 2018 Ronja Düffel 14. März 2018 Theoretische Informatik Wieso, weshalb, warum??!? 1 Modellieren und Formalisieren von Problemen und Lösungen 2 Verifikation (Beweis
MehrDuE-Tutorien 17 und 18
DuE-Tutorien 17 und 18 Tutorien zur Vorlesung Digitaltechnik und Entwurfsverfahren Christian A. Mandery TUTORIENWOCHE 3 AM 18.11.2011 KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum
MehrNumerische Verfahren und Grundlagen der Analysis
Numerische Verfahren und Grundlagen der Analysis Rasa Steuding Hochschule RheinMain Wiesbaden Wintersemester 2011/12 R. Steuding (HS-RM) NumAna Wintersemester 2011/12 1 / 26 1. Folgen R. Steuding (HS-RM)
MehrPrüfungsprotokoll Diplomprüfung Mathematische Aspekte neuronaler Netze
Prüfungsprotokoll Diplomprüfung Mathematische Aspekte neuronaler Netze Prüfer: Prof.Dr.Johann Boos Datum: 29.08.2001 Dauer: 30min Note: 1.0 So Sie wollten uns was über zweischichtige neuronale Feed-Forward
MehrAufbau und Beschreibung Neuronaler Netzwerke
Aufbau und Beschreibung r 1 Inhalt Biologisches Vorbild Mathematisches Modell Grundmodelle 2 Biologisches Vorbild Das Neuron Grundkomponenten: Zellkörper (Soma) Zellkern (Nukleus) Dendriten Nervenfaser
MehrFolgen und Reihen. Wirtschaftswissenschaftliches Zentrum Universität Basel. Mathematik für Ökonomen 1 Dr. Thomas Zehrt
Wirtschaftswissenschaftliches Zentrum Universität Basel Mathematik für Ökonomen Dr. Thomas Zehrt Folgen und Reihen Literatur Referenz: Gauglhofer, M. und Müller, H.: Mathematik für Ökonomen, Band, 7. Auflage,
Mehr