Martin Stetter WS 04/05, 2 SWS. VL: Dienstags 8:30-10 Uhr

Ähnliche Dokumente
Martin Stetter WS 03/04, 2 SWS. VL: Dienstags 8:30-10 Uhr

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Behandelte Themen. 0. Motivation : Lernen in Statistik und Biologie. 1. Überblick über statistische Datenmodellierungs-Verfahren

Gliederung. Biologische Motivation Künstliche neuronale Netzwerke. Anwendungsbeispiele Zusammenfassung. Das Perzeptron

Behandelte Themen. 0. Motivation : Lernen in Statistik und Biologie. 1. Überblick über statistische Datenmodellierungs-Verfahren

Vorlesung Maschinelles Lernen

Einführung in Neuronale Netze

Mustererkennung und Klassifikation

Künstliche Neuronale Netze

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Andreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg

Vorlesung Maschinelles Lernen

Neuroinformatik I. Günther Palm Friedhelm Schwenker Abteilung Neuroinformatik

Lineare Klassifikatoren

C1/4 - Modellierung und Simulation von Neuronen

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Reizleitung in Nervenzellen. Nervenzelle unter einem Rasterelektronenmikroskop

Einführung in Support Vector Machines (SVMs)

Adaptive Systeme. Neuronale Netze: Neuronen, Perzeptron und Adaline. Prof. Dr. rer. nat. Nikolaus Wulff

Grundlagen zu neuronalen Netzen. Kristina Tesch

BACKPROPAGATION & FEED-FORWARD DAS MULTILAYER PERZEPTRON

Mustererkennung: Neuronale Netze. D. Schlesinger ()Mustererkennung: Neuronale Netze 1 / 12

Einführung in die Computerlinguistik

Adaptive Systeme. Einführung. Grundlagen. Modellierung. Prof. Rüdiger Brause WS Organisation. Einführung in adaptive Systeme B-AS-1, M-AS-1

Der Sprung in die Zukunft! Einführung in neuronale Netzwerke

Praktische Optimierung

Neuronale Netzwerke. Niels Pieper, Daniel Janßen-Müller, Daniel Ritterskamp. Betreuer: Michael Wilczek. 7. Februar 2011

Einführung in die Bioinformatik: Lernen mit Kernen

Adaptive Resonance Theory

Neuronale Netze. Christian Böhm.

Statistische Methoden der Datenanalyse

Aufbau und Beschreibung Neuronaler Netzwerke

Support Vector Machines und Kernel-Methoden

1 Neuronale Netze Historisches

Die Datenmatrix für Überwachtes Lernen

Zentrales Nervensystem

Ridge Regression und Kernalized Support Vector Machines : Einführung und Vergleich an einem Anwendungsbeispiel

Theoretische Informatik 1

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Konzepte der AI Neuronale Netze

Selbstorganisierende Karten

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Proseminar Neuronale Netze Frühjahr 2004

Statistische Methoden der Datenanalyse

Künstliche Neuronale Netze

Optimal-trennende Hyperebenen und die Support Vector Machine. Volker Tresp

Motivation. Klassifikationsverfahren sagen ein abhängiges nominales Merkmal anhand einem oder mehrerer unabhängiger metrischer Merkmale voraus

1/19. Kern-Methoden zur Extraktion von Informationen. Sebastian Marius Kirsch Back Close

Vorlesung Wissensentdeckung

Lineare Klassifikatoren. Volker Tresp

Vorlesung Wissensentdeckung

7. Vorlesung Neuronale Netze

Mann-Whitney-U-Test: Tiefenstufen

Neuronale Netze (I) Biologisches Neuronales Netz

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Christoph Sawade/Niels Landwehr/Tobias Scheffer

Praktikum Computational Intelligence 2 Ulrich Lehmann, Johannes Brenig, Michael Schneider

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer

Wissensentdeckung in Datenbanken

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Tobias Scheffer Christoph Sawade

Spektralanalyse physiologischer Signale

Image: (CC-0) Künstliche Intelligenz & Bildung Nicht nur für ExpertInnen

:21 Uhr Modulbeschreibung #1290/1 Seite 1 von 5

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Selected Topics in Machine Learning and Reverse Engineering

Mustererkennung. Support Vector Machines. R. Neubecker, WS 2018 / Support Vector Machines

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Nutzung maschinellen Lernens zur Extraktion von Paragraphen aus PDF-Dokumenten

Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion

Einführung: Bayessches Lernen. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. Martin Lösch

Künstliche Neuronale Netze (KNN)

Eine kleine Einführung in neuronale Netze

Vorlesung Wissensentdeckung

Data Mining & Machine Learning Dipl.-Inf. Christoph Carl Kling

So lösen Sie das multivariate lineare Regressionsproblem von Christian Herta

Artificial Intelligence. Was ist das? Was kann das?

5. Lernregeln für neuronale Netze

Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten

Was sind Neuronale Netze?

1. Thermodynamik magnetischer Systeme

Neuronale Netze in der Phonetik: Grundlagen. Pfitzinger, Reichel IPSK, LMU München {hpt 24.

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

Statistische Methoden in der Bioinformatik

Logistische Regression

Quantitative Methoden Wissensbasierter Systeme

Zellen des Nervensystems, Zellbiologie von Neuronen I

Website. Vorlesung Statistisches Lernen. Dozenten. Termine. Einheit 1: Einführung

Maschinelles Lernen und Neural Computation

Neuronale Netze (Konnektionismus)

Vorlesung Statistisches Lernen

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Das Neuron (= Die Nervenzelle)

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen

Können neuronale Netze Vorhersagen treffen? Eine Anwendung aus der Stahlindustrie

Transkript:

Statistische und neuronale Lernverfahren Martin Stetter WS 04/05, 2 SWS VL: Dienstags 8:30-0 Uhr PD Dr. Martin Stetter, Siemens AG Statistische und neuronale Lernverfahren

Behandelte Themen 0. Motivation : Lernen in Statistik und Biologie. Überblick über statistische Datenmodellierungs-Verfahren 2. Das lineare Modell (Regression) 3. Perceptron und Multilagen-Perceptron (Funktionsapproximation) 4. Selbstorganisierende Merkmalskarten (Dichteschätzung) 5. Lernen von Datenmodellen Approximation: Bayes sches Schließen, MAP, ML Maximum Likelihood Schätzung und Fehlerminimierung Generalisierung und Regularisierung Optimierungsverfahren 6. Bayesianische Netze (Dichteschätzung und Funktionsapproximation) 7. Kern-Trick und Support Vector Machine PD Dr. Martin Stetter, Siemens AG Statistische und neuronale Lernverfahren 2

Literatur Statistische Lernverfahren: B. Schölkopf, A. Smola: Learning with Kernels. MIT Press, Cambridge, MA (2002) S. Lauritzen. Graphical Models, Oxford Univ. Press (996) Kevin Murphy s tutorial. A Brief Introduction to Graphical Models and Bayesian Networks http://www.ai.mit.edu/~murphyk/bayes/bayes.html Statistische und neuronale Verfahren: C. M. Bishop, Neural Networks for Pattern Recognition, Clarendon Press Oxford (995) Neuronale Netze: J. Hertz, A. Krogh, R. G. Palmer, Introduction to the Theory of Neural Computation, Addison Wesley, Redwood City CA (99) Computational Neuroscience und Bioinformatik M. Stetter, Exploration of Cortical Function, Kluwer Academic Publishers, Dordrecht (2002) P. Baldi, G. W. Hatfield, DNA Microarrays and Gene Expression, Cambridge University Press Cambridge, MA (2002) PD Dr. Martin Stetter, Siemens AG Statistische und neuronale Lernverfahren 3

Einführung: Lernen in Statistik und Biologie Biologisches Lernen Maschinelles Lernen Erkennen von Zusammenhängen im Lebensraum Synaptische Plastizität im Gehirn Erkennen von statistischer Struktur in Datensätzen Einstellung der Modellparameter Erlernen von Fähigkeiten aus Beispielen (prozedurales Lernen) Finden einfacher Lösungen Schlußfolgern Optimierung eines Modells Regularisiertes Lernen Bayes sches Schließen (Inferenz) 4

Statistisches Lernen: Beispiel Statistisches / Maschinelles Lernen: Entdeckung von Struktur in Daten Beispiel: 2D-Klassifikation: M Fiktive Daten eines Geldinstituts: x 2 y ( i) = 0 Datenpunkt x = Mittl. abgehobener Geldbetrag x 2 = Häufigkeit Abhebevorgänge x = ( x, x 2) = Muster (i) x y ( j) = y = Scheckkartenbetrug (=ja, 0=nein) y = Klassenlabel, Soll, Output ( x, y ) ( x ( ) () ( M ) ( M ), y ) Ziel: Lerne Klassifikationsregel, um künftige Betrüger frühzeitig an ihrem Verhalten zu erkennen. w x 5

Lernen eines Klassifikators: Linearer Klassifikator: y ˆ = Θ( w x + b) ( w, b) = Parametersatz, Modell, Θ( x) =, x 0 Hypothese Lernen : Finde besten Parametersatz Θ( x) = 0, x < 0 w x : = w x + w x 2 x 2 2 (m) x Separierende Hyperebene w x + b =0 ( m) y = 0 Datenpunkt w c yˆ = 0 c + yˆ = + x Offline-Lernen: c + / = M + / + { m y ( m) ŵ = c c b ˆ = w ( c c + + x ( m) =± } ) / 2 Klassenzentren Online-Lernen (Beispiel für b=0): Für jeden Datenpunkt ändere w gemäß Δw = η( y ( m) yˆ ( m) ) x ( m) (Perceptron-Lernregel, siehe später) 6

Warum statistisches Lernen? x 2 Daten sind unsicher: -- Datenpunkte x könnten versetzt sein -- Gemessene Klassen können falsch sein Klassifikationsgesetz ist unsicher -- Mitglieder unterschiedlicher Klassen könnten dasselbe Muster x aufweisen w x Lösung: Probabilistischer Klassifikator ( soft classifier ) Spezifiziere Wahrscheinlichkeit für Klassenmitgliedschaft Pr( y ( x) = ) = g( w x + b) Beispiel: Logistische Transferfunktion : g(x) g( x) = + exp( x) x 7

Neuronales Lernen: Gehirn und Nervenzelle Das menschliche Gehirn Besteht aus Nervenzellen (Neuronen) und Hilfszellen Hochstrukturiert (Kerne, Areale der Grosshirnrinde) Gigantisches Netz aus Neuronen: -- 00 000 000 000 Nervenzellen -- Jede Zelle erhält synaptischen Input von ca. 0 000 anderen Nervenzellen (Konvergenz) -- Jede Zelle sendet ca. 0 000 Outputs (Divergenz) -- Gesamte Leitungslänge: 750 000 km!!! Nervenzelle Besteht aus Dendrit, Dendrit Soma Axon Soma (Zellkörper) Axon 8

Neuronales Lernen: Reizleitung in Neuronen Funktionsweise des Neurons Signal: Aktionspotential, Spike Signalfluss: Dendrit --> Soma --> Axon--> Synapse--> Dendrit... (a) Spike kommt an; Synapse injiziert Strom I Membranspannung steigt (PSP) (b) Viele PSPs summieren sich Bei Schwellenspannung: Spike (c) Spike läuft Axon entlang verzweigt sich mit dem Axon (d) Spike kommt an... Biologisches Lernen (Hypothese): Synaptischer Strom I ändert sich in Abhängigkeit von der Zeit und der Hirnaktivität ( LTP, LTD...) 9

Ratenmodell des Neurons Neuron erhält Signale von d Synapsen An Synapse i kommen Spikes mit der Rate x i an Synapse i induziert Spannung U i = w i x i w i heißt synaptisches Gewicht Das Soma summiert die Spannungsänderungen: U d = w i x i i= = w x Die Spikerate y am Axon ist eine sigmoide Funktion der Summenspannung y( x) = g( w x θ ) x x 2 x 3 x d... w w 2 w 3 w d Lernen im Modellneuron: Modellneuron (Perceptron) f y(x) Synaptische Gewichte w ändern sich abhängig von der Aktivität Biologisch motivierte Lernregeln... (zb. Hebb-Regel ) 0

Statistische und Neuronale Lernverfahren: Beispiele Künstliche Neuronale Netze Modellneuronen können zu künstlichen neuronalen Netzen zusammengeschaltet werden, zb. Statistische Datenmodellierung Modellneuronen können auch als statistische Datenmodelle interpretiert werden, z.b. Perceptron Multilagen-Perceptron Radiale Basisfunktionen-Netzwerk Hopfield-Netzwerk Adaptive Resonance Theory Netzwerk Selbstorganisierende Merkmalskarten Probabilistischer Klassifikator Support-Vector Machine Bayes-Belief-Netzwerk Helmholtz-Machine Vektor-Quantisierer ICA

Zusammenfassung Ein biologisch motiviertes Modellneuron läßt sich mit einem linearen probabilistischen Klassifikator identifizieren Viele künstliche Neuronale Netze lassen sich mit statistischen Lernverfahren identifizieren Viele Verfahren, viele Aufgaben Road Map Bayes sche Inferenz als genereller Rahmen für statistische Lernverfahren Statistische Datenmodellierung durch Optimierung und Regularisierung Spezielle maschinelle Lernverfahren und Neuronale Netzwerk-Typen 2