Theoretische Informatik 1

Ähnliche Dokumente
Theoretische Informatik 1

Theoretische Informatik 1

Konzepte der AI Neuronale Netze

Seminar: Data Mining. Referat: Andere Möglichkeiten des Data Mining in verteilten Systemen. Ein Vortrag von Mathias Rohde. 11.

Neural Networks: Architectures and Applications for NLP

Projektgruppe. Text Labeling mit Sequenzmodellen

Theoretische Informatik 1

DisMod-Repetitorium Tag 3

Latente Dirichlet-Allokation

Grundlagen zu neuronalen Netzen. Kristina Tesch

Ideen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn

Seminar über Neuronale Netze und Maschinelles Lernen WS 06/07

Algorithmische Methoden zur Netzwerkanalyse

Künstliche Neuronale Netze

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Reranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart

Neuronale Netze. Anna Wallner. 15. Mai 2007

2. Beispiel: n-armiger Bandit

Schriftlicher Test Teilklausur 2

Theoretische Informatik 1

Echtzeitfähige Algorithmen für markerloses Tracking und Umfelderkennung , Dr.-Ing. Steffen Herbort, A.R.T. GmbH

Randomisierte Algorithmen und probabilistische Analyse

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

ADS: Algorithmen und Datenstrukturen 2

Schriftlicher Test Teilklausur 2

Perzeptronen. Katrin Dust, Felix Oppermann Universität Oldenburg, FK II - Department für Informatik Vortrag im Rahmen des Proseminars 2004

Gibbs sampling. Sebastian Pado. October 30, Seien X die Trainingdaten, y ein Testdatenpunkt, π die Parameter des Modells

Wir haben in den vorherigen Kapiteln verschiedene Verfahren zur Regression und Klassifikation kennengelernt (z.b. lineare Regression, SVMs)

5 Suchmaschinen Page Rank. Page Rank. Information Retrieval und Text Mining FH Bonn-Rhein-Sieg, SS Suchmaschinen Page Rank

Wissensentdeckung in Datenbanken

Survival of the Fittest Optimierung mittels Genetischer Algorithmen

Neuronale Netze. Seminar aus Algorithmik Stefan Craß,

Randomisierte Algorithmen am Beispiel Quicksort

2.1 Importance sampling: Metropolis-Algorithmus

Wissensentdeckung in Datenbanken

Lernmodul 7 Algorithmus von Dijkstra

Graphentheorie. Zufallsgraphen. Zufallsgraphen. Zufallsgraphen. Rainer Schrader. 23. Januar 2008

Künstliche Neuronale Netze

Theoretische Informatik 1

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Fortgeschrittene Netzwerk- und Graph-Algorithmen

6.2 Feed-Forward Netze

Neuronale Netze. Christian Böhm.

Routing A lgorithmen Algorithmen Begriffe, Definitionen Wegewahl Verkehrslenkung

Stochastik Praktikum Markov Chain Monte Carlo Methoden

Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1

Genetische Algorithmen. Uwe Reichel IPS, LMU München 8. Juli 2008

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Theoretische Informatik 1

DEEP LEARNING MACHINE LEARNING WITH DEEP NEURAL NETWORKS 8. NOVEMBER 2016, SEBASTIAN LEMBCKE

7. Vorlesung. Bipartite Kerne Das kopierende Modell Bow-tie Struktur des Web Random Sampling von Web Seiten

Evidenzpropagation in Bayes-Netzen und Markov-Netzen

Technische Universität Berlin Fakultät IV Elektrotechnik und Informatik. 8. Aufgabenblatt

Intelligente Algorithmen Einführung in die Technologie

Reinforcement Learning

Vorlesung HM2 - Master KI Melanie Kaspar, Prof. Dr. B. Grabowski 1

ADS: Algorithmen und Datenstrukturen 2

Methoden der Statistik Markov Chain Monte Carlo Methoden

6. Übung zur Linearen Optimierung SS08

Routing Algorithmen. Begriffe, Definitionen

Voronoi-Diagramme. Dr. Martin Nöllenburg Vorlesung Algorithmische Geometrie INSTITUT FÜR THEORETISCHE INFORMATIK FAKULTÄT FÜR INFORMATIK

Schriftlicher Test Teilklausur 2

SCHNITTERHALTUNG (SPEKTRALE APPROXIMATION)

Theorie der Informatik Übersicht. Theorie der Informatik SAT Graphenprobleme Routing-Probleme. 21.

W-Rechnung und Statistik für Ingenieure Übung 11

Schriftlicher Test Teilklausur 2

Konzept diskreter Zufallsvariablen

Lösungen zur Klausur GRUNDLAGEN DER WAHRSCHEINLICHKEITSTHEORIE UND STATISTIK

Analyse komplexer Szenen mit Hilfe von Convolutional Neural Networks

Hannah Wester Juan Jose Gonzalez

Der Metropolis-Hastings Algorithmus

Transkript:

Theoretische Informatik 1 Boltzmann Maschine David Kappel Institut für Grundlagen der Informationsverarbeitung TU Graz SS 2014

Übersicht Boltzmann Maschine Neuronale Netzwerke Die Boltzmann Maschine Gibbs Sampling Gibbs Sampling Anwendung Einige Anwendungen Literatur

Probabilistische Algorithmen für NP-Vollständige Probleme Direkte Berechnung der Lösung nicht möglich Lösungsraum wird als Wahrscheinlichkeitsverteilung dargestellt Algorithmus macht Random Walk durch den Lösungsraum Lösungszustand sollte möglichst wahrscheinlich sein Möglichst allgemeine Formulierung Boltzmann Maschine

Ausflug: Thermodynamik Boltzmann Verteilung Ursprünglich: Verteilung der Teilchenzustände x in einem idealen Gas p(x) = exp ( E(x)) exp ( E(x)) x Wobei E(x) die Energie von x ist. Ludwig Eduard Boltzmann (1844 1906) 1 1 Aus Wikipedia - die freie Enzyklopädie

Neuronale Netzwerke Netzwerk von Knoten ( Neuronen ) mit Zustand x i und gewichteten Kanten ( Synapsen ) w ij. x i w ij x i =? x i = 0 x i = 1 Aktivität eines Neurons wird über seine Aktivierungsfunktion durch die Aktivität seiner Nachbarn bestimmt.

Neuronale Netzwerke Probabilistische Beschreibung: Potential eines Neurons: u i = j x jw ij + b i x i x i = 0 p(x i = 1 x \i ) = f (u i ), w ij x i =? x i = 1 wobei f ( ) die Aktivierungsfunktion ist. Sigmoide Funktion f (u) = 1 1+e u

Boltzmann Maschine Boltzmann Maschine (BM) Eine BM ist ein neuronales Netzwerk mit binären Neuronen (Knoten) x = (x i ) Gewichten w ij und b i. Die Energie eines Zustandes x ist gegeben durch E(x) = i,j x i x j w ij i x i b i Und damit ist die Wahrscheinlichkeit eines bestimmten Zustandes p(x) = exp ( E(x)) exp ( Ex) x Geoffrey Hinton 1 1 Aus Wikipedia - die freie Enzyklopädie

Boltzmann Maschine x i = 0 x x i = 1 Jeder Zustand x der BM bildet auf einen Punkt in einer Wahrscheinlichkeitslandschaft ab. Direktes Berechnen des wahrscheinlichsten Zustands ist nicht effizient durchführbar.

Boltzmann Maschine zum Lösen von NP-Vollständigen Problemen Die stochastische Dynamik der Boltzmann Maschine wird verwendet um den Lösungsraum möglichst effizient zu durchsuchen. Die Energiefunktion E(x) wird so gewählt, dass gute Lösungen geringer Energie entsprechen. Dies kann durch geeignete Wahl der Gewichte w ij und b i erreicht werden. Lösung eines Suchproblems durch Angabe der Gewichte der BM.

Finden einer Lösung Wahrscheinlichste Lösung x lässt sich nicht direkt berechnen Die Wahrscheinlichkeit über den Zustand eines einzelnen Neurons p(x i x \i ) lässt sich aber einfach berechnen Auswerten von p(x) durch Random Walk auf Markov-Kette Gibbs Sampling

Gibbs Sampling Starte mit einer beliebigen Belegung x 0 In jedem Schritt n: wähle ein zufälliges Neuron i Ändere den Zustand des Neurons zufällig anhand der Wahrscheinlichkeit p(x i x n 1,\i ) und erzeuge so ein neues Sample x n Die Samples x 0, x 1,... x n folgen der Verteilung p(x)

Boltzmann Maschine Gibbs Sampling Anwendung Literatur Gibbs Sampling x xi = 0 xi = 0 xi = 1 xi = 1 x

Anwendungen Lösen von CLIQUE Lernalgorithmen existieren für Boltzmann Maschinen Assoziativer Speicher Vorsesung: Neural Networks A

Literatur Geoffrey Hinton, Terry Sejnowski, Learning and Relearning in Boltzmann Machines, 1986. Geoffrey Hinton, et. al., The wake-sleep algorithm for unsupervised neural networks, 1995. Vassilis Zissimopoulos, Vangelis Paschos, Ferhan Pekergin, On the approximation of NP-complete problems by using the Boltzmann Machine method: the cases of some covering and packing problems, 1991.