Einführung i.d. Wissensverarbeitung

Ähnliche Dokumente
Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Logische Agenten. Einführung in die Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Logische Agenten. Einführung in die Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

Theoretische Informatik 1

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Personenerkennung. Harald Hauptseminarpräsentation. Harald Kirschenmann. Department Informatik. Department Informatik.

Maschinelles Lernen II

Inhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume

Semiüberwachte Paarweise Klassifikation

1. Lernen von Konzepten

Konzepte der AI Neuronale Netze

Industrial Data Intelligence Datenbasierte Produktionsoptimierung. Hannover, HMI Peter Seeberg

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen

Ideen und Konzepte der Informatik. Maschinelles Lernen. Kurt Mehlhorn

INTELLIGENTE DATENANALYSE IN MATLAB

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung

Intelligente Algorithmen Einführung in die Technologie

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik

Lineare Regression. Christian Herta. Oktober, Problemstellung Kostenfunktion Gradientenabstiegsverfahren

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr

Wie können Computer lernen?

Das Perzeptron. Volker Tresp

Mustererkennung und Klassifikation

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Balanced Manufacturing: Datenbasierte Modellbildung mittels Machine Learning

Einführung in das Maschinelle Lernen I

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN

Support Vector Machines, Kernels

Konzepte der AI: Maschinelles Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer

Lineare Regression. Volker Tresp

Maschinelles Lernen Entwicklung und aktuelle Anwendungen

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Neuronale Netze (Konnektionismus)

Neuronale Netze. Anna Wallner. 15. Mai 2007

Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1

INTELLIGENTE DATENANALYSE IN MATLAB

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner

Maschinelles Lernen. Moderne Methoden der KI: Maschinelles Lernen. Definitionen: Was ist Lernen? Definitionen: Was ist Lernen? 1.

Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)

Neuronale Netze (Konnektionismus) Einführung in die KI. Beispiel-Aufgabe: Schrifterkennung. Biologisches Vorbild. Neuronale Netze.

Die Datenmatrix für Überwachtes Lernen

Neuronale Netze. Christian Böhm.

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume

Maschinelles Lernen: Neuronale Netze. Ideen der Informatik Kurt Mehlhorn

Kapitel V. V. Ensemble Methods. Einführung Bagging Boosting Cascading

Hannah Wester Juan Jose Gonzalez

Vorlesung Maschinelles Lernen

Künstliche Intelligenz Logische Agenten & Resolution

Sozialwissenschaftliche Modelle und Daten SoSe 2010

Vorlesung Wissensentdeckung

Einführung: Bayessches Lernen. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform. Martin Lösch

Künstliche Intelligenz

Wissensentdeckung in Datenbanken

Vorlesung Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen

Ringvorlesung interdisziplinäre, angewandte Mathematik: Maschinelles Lernen

Logistische Regression

Vorlesung 2. Maschinenlernen: Klassische Ansätze I

Kapitel 5: Ensemble Techniken

Einführung in die Künstliche Intelligenz

Bielefeld Graphics & Geometry Group. Brain Machine Interfaces Reaching and Grasping by Primates

Neuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)

Künstliche neuronale Netze

Bayes sches Lernen: Übersicht

Künstliche Intelligenz

Künstliche neuronale Netze

Ein selbstmodellierendes System für die Wasserwirtschaft

Frequentisten und Bayesianer. Volker Tresp

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Das Perceptron. Volker Tresp

Grundlagen der Künstlichen Intelligenz

in der Versorgungstechnik? Prof. Dr. Michael Krödel

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik

Ensemble Models - Boosting, Bagging and Stacking

Reinforcement Learning

Vorlesung Wissensentdeckung

Data Mining auf Datenströmen Andreas M. Weiner

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Teil 5. Maschinelles Lernen

Bayes sches Lernen: Übersicht

Künstliche Neuronale Netze

Data Mining - Wiederholung

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Naive Bayes für Regressionsprobleme

Übersicht. Definition Daten Problemklassen Fehlerfunktionen

Überwachtes Lernen II: Netze und Support-Vektor-Maschinen

Grundlagen der Programmierung

Unüberwachtes Lernen

Vorlesung Wissensentdeckung in Datenbanken

(hoffentlich kurze) Einführung: Neuronale Netze. Dipl.-Inform. Martin Lösch. (0721) Dipl.-Inform.

Artificial Intelligence. Deep Learning Neuronale Netze

Neuronale Netze zur Prognose und Disposition im Handel

Schnelles Denken - Maschinelles Lernen mit Apache Spark 2

Transkript:

Einführung in die Wissensverarbeitung 2 VO 708.560 + 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für Grundlagen der Informationsverarbeitung TU Graz Inffeldgasse 16b/1 www.igi.tugraz.at

Organisation Vortragende: Vorlesung: Dr. Franz Pernkopf (SPSC) Dr. Stefan Häusler (IGI) Übungen: DI Paul Meissner(SPSC) DI Stefan Habenschuss (IGI) Allgemein: VO: Mittwoch, 14:15, HSi13 UE: Dienstag, 13:15 18:00 (3 Gruppen), HSi11 Webpage www.spsc.tugraz.at/courses/ew Newsgroup: tu-graz.lv.ew 2

Maschinelles Lernen Arthur Samuel (1959): Machine learning: Field of study that gives computers the ability to learn without being programmed. Problem: Auf Grund der Komplexität des Spiels ist die optimale Strategie nicht bekannt. 3

Was ist Wissensverarbeitung? Künstliche Generierung von Wissen aus Erfahrung: Entdecken und Strukturieren von Wissen, Ableiten von neuem Wissen, Kommunikation dieses Wissens. Repräsentation dieses Wissens (im Computer) 4

Formen der Wissensverarbeitung Wissensverarbeitung mit sprachlichen Strukturen. Logische Systeme: Aussagenlogik und Prädikatenlogik Heuristische Ansätze, wie z.b. aus den Gebieten Mustererkennung, Neuronale Netze, evolutionäre Algorithmen etc. Computational Intelligence: Formulierung von präzisen logischen Aussagen ist praktisch nicht möglich. Anwendung von heuristischen Methoden 5

Wissensverarbeitung mit logischen Systemen Entwurf von Agenten, welche die Welt repräsentieren können... und eines Schlußfolgerungsprozesses, welcher neue Repräsentationen ableitet und diese dazu nutzt, um zu schließen, was zu tun ist. Wumpus-Welt 6

Computational Intelligence CI wird angewendet, wenn die Lösung einer Aufgaben schwer mit logischen Sprachen oder klaren Regeln formuliert werden kann. Beispiel: Bilderkennung Meissner Pernkopf Neumann Häusler 7

Anwendungsbereiche Recommender systems Amazon.com Online Radio www.last.fm Netflix US online Filmverleih (Datensatz mit 100 Mio. Einträge) 8

Anwendungsbereiche NETFLIX Netflix Prize, 1 Mio. US-Dollar für 10% Vorhersagevebesserung 9

Weitere Anwendungsbereiche... Gesichts-, Sprach-, Schrifterkennung (Scheckbeträge, zip code) Spam-Erkennung Notierung biologischer Sequenzen, Moleküle, chem. Proben Marktanalysen (e.g. Aktienkursvorhersagen) Fahrzeug- und Personenzählsysteme Fahrzeugsteuerungen u.s.w. 10

Lehrveranstaltungsübersicht IGI Kapitel 1 Grundbegriffe des maschinellen Lernens Kapitel 2 Neuronale Netze Kapitel 3 Modellselektion Kapitel 4 Klassische Klassifikationsalgorithmen Kapitel 5 Logik 11

Plan für heute: Kapitel 1 Welche Arten des Lernens gibt es? Wie kann man überwachtes Lernen formalisieren? Was genau ist das Lernziel? Wie werden überwachte Lernprobleme allgemein gelöst (Ablauf)? Lernalgorithmus lineare Regression 12

Welche Arten des Lernens gibt es? Supervised learning (überwachtes Lernen): Gegeben: Trainingsbeispiele mit Zielwerten (z.b. Zuordnungen) Ziel: Zielwertvorhersage für neue Beispiele (z.b. Marktpreise) Unsupervised learning (unüberwachtes Lernen): Gegeben: Trainingsbeispiele ohne Zielwerte Ziel: Erkennen von Struktur in den Daten Reinforcement learning (verstärkendes Lernen): Gegeben: Trainingsbeispiele mit feedback für gewählte Handlungen Ziel: Minimierung der Kosten von Handlungssequenzen 13

Beispiel überwachtes Lernen Neurowissenschaft: Klassifikation von visuellen Stimuli 14

Beispiel unüberwachtes Lernen Cluster-Analyse Daten: Entladungsmuster eines auditorischen Neurons der Laubheuschrecke in Reaktion auf verschiedene Schallquellen (Artgenossen, Feinde,...) 15

Beispiel unüberwachtes Lernen Blind source separation (Cocktailparty Problem) Independent component analysis Time [ms] 16

Beispiel verstärkendes Lernen Steuerung von autonomen Helikoptern. 17

Kapitel 1 Wie kann man überwachtes Lernen formalisieren? 18

Beispiel Gesichtserkennung Gegeben: Kollektion von Bildern und Kennzeichnungen. Meissner, + Pernkopf, + Neumann, + Häusler, - Kennzeichnungen (labels): + Gebäudezutritt - Kein Gebäudezutritt Ziel: Korrektes Klassifizieren neuer Bilder. Häusler, -?

Lernbeispiele f. überwachtes Lernen Gegeben: Eingabewerte und Ausgabewerte. +1 +1 +1-1 X =ℝ d, Y ={ 1, 1} 20

Formalisierungsschritte Hypothese Lernalgorithmus Fehlerkriterium 21

Hypothese Hypothese, die; -, -n [hü..] (griech.) noch unbewiesene, als Hilfsmittel für eine Erkenntnis benutzte Annahme, Vermutung. Eine Hypothese H führt Vorhersagen durch. +1 +1 +1-1 +1 X =ℝ d, Y ={ 1, 1} 22

Klassifikation Klassifikation ist die Zuweisung von Eingabewerten zu diskreten Ausgabewerten: H:X Y wobei Y endlich ist. Beispiel: Pernkopf Häusler Augenfarbe Haarfarbe (Farbton) 23

Lineare Klassifikation Einteilungen von Eingabewerten in Klassen basierend auf einer linearen Kombination der Eingabewerte. Beispiel: ℝ 2 Pernkopf Häusler Augenfarbe Haarfarbe (Farbton) 24

Binäre lineare Klassifikation Einteilungen von Eingabewerten in 2 Klassen anhand des linearen Klassifikators y = sign w T x =sign w 0 w 1 x 1... w d x d x,w ℝ d Interpretation: Gewichtete Kombination von Expertenmeinungen (z.b. für binäre Attribute) Mehrheitsentscheidung y = sign w 0 w 1 x 1... w d x d Stimme Kombination von Stimmen Experte 1 w1 w2 wd 25

Hypothesenklassen Eine Hypothesenklasse H ist eine Menge von Hypothesen. Z.B: Linearer Klassifikator d Hypothesenklasse wird mit dem Vektor w ℝ parametrisiert. y = sign w T x =sign w 0 w 1 x 1... w d x d 26

Lernalgorithmus Ein Lernalgorithmus A wählt eine Hypothese H aus der Hypothesenklasse H anhand einer Liste L von l Trainingsbeispielen aus. Gegeben: L = x 1, y 1, x 2, y 2,..., x l, y l L X Y X Y :={ s 1,..., sl l 0 und jedes si X Y } 27

Fehlerkriterium Das Fehlerkriterium E y, y quantifiziert die Abweichung der Ausgabe der Hypothese y vom Sollwert y. 28

Kapitel 1 Was genau ist das Lernziel? 29

Empirischer Fehler Der empirische Fehler ist der Mittelwert des Fehlerkriteriums aller Lernbeispiele Naheliegend: Finde w welches Empirischer Fehler 1 l error L = k =1 E y k, H w, x k l minimiert. Warum ist es sinnvoll den empirischen Fehler zu minimieren? 30

Wahrer Fehler Der empirische Fehler dient zur Abschätzung des wahren Fehlers. Empirischer Fehler: 1 l error L = k =1 E y k, H w, x k l Wahrer Fehler:? In welcher Beziehung stehen der empirische und der wahre Fehler? 31

Lernphasen Trainingsphase: Dient zur Auswahl der Hypothese aus einer Hypothesenklasse H durch einen Lernalgorithmus anhand von Trainingsdaten. Testphase: Dient zur Betimmung der Qualität der ausgewählten Hypothese durch ein Fehlerkriterium anhand von Testdaten (Generalisierung). Trainingsdaten Testdaten = Ø 32

Kapitel 1 Fallbeispiel: Lineare Regression. 33

Einschub: Partielle Ableitungen Partielle Ableitungen sind definiert als Ableitungen von Funktionen mehrerer Variablen f wi,..., w d, wenn alle, außer der Variablen nach der abgeleitet wird, festgehalten werden f w 1,..., wi h,.., w d f w 1,..., wi,.., w d f lim h wi h f w2 w1 34

Einschub: Partielle Ableitungen Es kann auch nach mehreren Variablen partiell abgeleited werden. f f f,..., w1 wd f w1 w1 f w2 w2 f = f w 35

Regression Das Ziel ist Zuweisung (quantitative Vorhersage) von Eingabewerten zu reellwertigen Ausgabewerten: H:X Y wobei Y unendlich ist. Beispiel: Vorhersage des Verbrauchs (in Liter) in Abhängigkeit von 8 Motorattributen. Einfachheitshalber verwenden wir nur ein Attribut. 36

Lineare Regression Fuel y y x x Weight Weight 37

Optimierung ist analytisch lösbar Minimierung des empirischen Fehlers 2 1 l MSE w = k =1 y k H x k, w l Durch 0 setzen der Ableitung nach w 0 und w i erhält man die optimalen Parameterwerte 38

Vorhersagefehler Je größer die Anzahl der Trainingsbeispiele, desto geringer der wahre Fehler. l= Fuel l= y MSE l= l= Anzahl der Trainingsbeispiele x Weight Wir versuchen den Fehler besser zu verstehen. 39

Fehlerarten Der strukurelle Fehler misst den Fehler, der auf die limitierte Hypothesenklasse zurückzuführen ist (für unendlich viele Trainingsbeispiele) Der Approximationsfehler gibt an, wie nahe man an der best möglichen Vorhersage liegt und ist zurückzuführen auf die geringe Anzahl von samples. 40

Anforderungen für gute Vorhersagen Welche Anforderungen stellen wir an Hypothesen und Lernalgorithmen in Anbetracht dieser Überlegungen. Was ist eine gute Hypothese? Was ist ein guter Lernalgorithmus? 41

Qualität einer Hypothese Die Qualität einer Hypothese wird anhand des wahren Fehlers gemessen. error P = E y, H w, x x, y ~P Dieser wird anhand unabhängiger Testdaten T abgeschätzt, welche nicht zum Trainieren (d.h. zur Auswahl der Hypothesenklasse) verwendet wurden. 1 n error T = k =1 E y k, H w, x k n n 42

Qualität eines Lernalgorithmus Die Qualität eines Lernalgorithmus A wird zum einen daran gemessen, ob es in der Hypothesenklasse H überhaupt eine Hypothese H mit niedrigem wahren Fehler error P H gibt ( expressibility of H ). Zum anderen wird die Qualität daran gemessen, wie groß die Chance ist dass A schon für eine relativ kurze Liste L von Trainingsbeispielen eine Hypothese H in H findet, deren wahrer Fehler error P H nicht viel größer als der empirische Fehler error L H ist. 43