Theoretische Informatik 1

Ähnliche Dokumente
Teil III. Komplexitätstheorie

Lernalgorithmen SoSe 2008 in Trier. Henning Fernau Universität Trier

Reinforcement Learning

Theoretische Informatik 1

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Theoretische Informatik 1

Semestralklausur zur Vorlesung. Web Mining. Prof. J. Fürnkranz Technische Universität Darmstadt Sommersemester 2004 Termin:

Übersicht. Allgemeines Modell lernender Agenten. Lernende Agenten (1) Lernende Agenten (2)

Konzepte der AI: Maschinelles Lernen

Herzlich willkommen!!!

Methoden zur Cluster - Analyse

ANalysis Of VAriance (ANOVA) 1/2

Bayes sches Lernen: Übersicht

Theoretische Informatik 1

2.7 Der Shannon-Fano-Elias Code

Theoretische Informatik 1

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Moderne Methoden der KI: Maschinelles Lernen

Einsatz von Reinforcement Learning in der Modellfahrzeugnavigation

Theoretische Informatik 1

Maschinelles Lernen Entscheidungsbäume

Vorbereitung auf 3. Übungsblatt (Präsenzübungen) - Lösungen

Grundlagen des Maschinellen Lernens Kap. 4: Lernmodelle Teil II

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt

Algorithmen zum Lösen von Vertex und Set Cover Instanzen zur Planung von Angriffen auf Netzwerke

Computer Vision: AdaBoost. D. Schlesinger () Computer Vision: AdaBoost 1 / 10

Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016

Überblick. Überblick. Bayessche Entscheidungsregel. A-posteriori-Wahrscheinlichkeit (Beispiel) Wiederholung: Bayes-Klassifikator

Intelligenz in Datenbanken. Dr. Stefan Freundt Star512 Datenbank GmbH. star512 datenbank gmbh

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Einwegfunktionen. Problemseminar. Komplexitätstheorie und Kryptographie. Martin Huschenbett. 30. Oktober 2008

Statistische Tests (Signifikanztests)

ANalysis Of VAriance (ANOVA) 2/2

Numerische Methoden und Algorithmen in der Physik

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

Übungsblatt Nr. 5. Lösungsvorschlag

Einführung in das Maschinelle Lernen I

Theoretische Informatik 1

Optimierungsprobleme. B. Langfeld, M. Ritter, B. Wilhelm Diskrete Optimierung: Fallstudien aus der Praxis

Statistik II. Statistische Tests. Statistik II

Klassifikation von Daten Einleitung

Mathematische Grundlagen III

Inferenzstatistik Vortrag: Alpha und Beta Fehler

3 Grundlagen statistischer Tests (Kap. 8 IS)

Formale Sprachen und Automaten: Tutorium Nr. 8

Projekt Maschinelles Lernen WS 06/07

Statistik II für Betriebswirte Vorlesung 12

Ideen der Informatik. Maschinelles Lernen. Kurt Mehlhorn Adrian Neumann Max-Planck-Institut für Informatik

Vorlesung Maschinelles Lernen

Stefan Schmid TU Berlin & T-Labs, Berlin, Germany. Reduktionen in der Berechenbarkeitstheorie

Pollards Rho-Methode zur Faktorisierung

Neuronale Netze. Einführung i.d. Wissensverarbeitung 2 VO UE SS Institut für Signalverarbeitung und Sprachkommunikation

R a i n e r N i e u w e n h u i z e n K a p e l l e n s t r G r e v e n T e l / F a x / e

F r e i t a g, 3. J u n i

3. Das Reinforcement Lernproblem

Abgabe: (vor der Vorlesung) Aufgabe 2.1 (P) O-Notation Beweisen Sie die folgenden Aussagen für positive Funktionen f und g:

Berechenbarkeit und Komplexität

Datenanalyse. (PHY231) Herbstsemester Olaf Steinkamp

Übersicht Datenstrukturen und Algorithmen. Literatur. Algorithmus: Wikipedia Definition. Vorlesung 1: Einführung. Prof. Dr.

Computational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20

Algorithmen II Vorlesung am

Data Mining - Wiederholung

Quantenkryptographie

Algorithmen II Vorlesung am

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Entscheidungsbäume

Vorlesung 2 KÜRZESTE WEGE

Künstliche Intelligenz Maschinelles Lernen

Fortgeschrittene Netzwerk- und Graph-Algorithmen

Maschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt

SCHRIFTLICHE ABITURPRÜFUNG 2011 Mathematik (Leistungskursniveau) Arbeitszeit: 300 Minuten

Vorlesung Mathematik für Ingenieure (WS 11/12, SS 12, WS 12/13)

Stackelberg Scheduling Strategien

SCHRIFTLICHE ABITURPRÜFUNG Mathematik (Grundkursniveau) Arbeitszeit: 210 Minuten

WS 2009/10. Diskrete Strukturen

Was können lernende Maschinen wissen?

Statistik II. Aufgabe 1

Kapitel VIII - Tests zum Niveau α

Theoretische Informatik: Berechenbarkeit und Formale Sprachen

Theoretische Informatik SS 03 Übung 3

sich die Schuhe zubinden können den Weg zum Bahnhof kennen die Quadratwurzel aus 169 kennen

4 Binäre Regressionsmodelle, Folien 2

Suchen und Sortieren

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN

Theoretische Informatik: Berechenbarkeit und Formale Sprachen

Online-Algorithmen. Proseminar von Prof. Dr. Rolf Klein, Dr. Elmar Langetepe, Dipl. Inform. Thomas Kamphans im Wintersemester 00/01

2 Die Dimension eines Vektorraums

Einführung in die Stochastik für Informatiker Übungsaufgaben mit Lösungen

11. Woche: Turingmaschinen und Komplexität Rekursive Aufzählbarkeit, Entscheidbarkeit Laufzeit, Klassen DTIME und P

Kapitel ML:IV (Fortsetzung)

Kapitel 9. Komplexität von Algorithmen und Sortieralgorithmen

Transkript:

Theoretische Informatik 1 Teil 12 Bernhard Nessler Institut für Grundlagen der Informationsverabeitung TU Graz SS 2007

Übersicht 1 Maschinelles Lernen Definition Lernen 2 agnostic -learning

Definition Lernen Was ist Lernen? durch Erfahrung besser werden Auswendig lernen vs. Verstehen Wissen sammeln (Datenbank?) Wissen verstehen: Verallgemeinern Modell bilden (Codierung?) Gelerntes Modell sinnvoll einsetzen Modellfehler erkennen und Modell korrigieren Es ist klug, aus den eigenen Fehlern zu lernen. Es ist klüger, aus den Fehlern der anderen zu lernen!

Definition Lernen Was kann gelernt werden? krabbeln, radfahren, gehen, artikulieren... Fertigkeiten Gedicht, Vokabeln, Telefonnummern, Gesichter auswendig lernen sich zurechtfinden, Umgebung, Stadt Landkarte lernen jagen, Schach, Go, Diplomatie Strategie lernen Modelle überprüfen, Zusammenhänge erkennen, log. Schließen Verständnis lernen, Erkenntnis gewinnen Gibt es ein Grundkonzept?

Definition Lernen Lernen einer Funktion Kontinuierliche Funktionswerte Lineare, nichtlineare regression, u.v.a.m.? Grad der polynomfunktion, Anzahl der Beispiele gut geeignet für kontinuierliche Modelle. Schlecht geeignet für Entscheidungen. Entscheidungsfunktionen sind unstetig. Klassifikation als Grundkonzept sample complexity computational complexity mistake bound Theorie des (masch.) Lernens ist noch nicht so weit wie die Berechenbarkeitstheorie oder Theorie der Algorithmen. (siehe Church-Turing-These)

Definition Lernen X: Menge der möglichen Instanzen (Schiffe versenken) x 1,..., x n Menge aller Trainigsbeispiele X: Menge aller Gesichter, Menge aller 3-Klänge X: Codierung? Vektor von Attributen. target concept: c : X {0, 1} : c(x) = { 1 0 (unbekannt) C: set of all possible target concepts, Konzeptklasse x i sind i.i.d. in X, Wahrscheinlichkeitsverteilung D AUFGABE: finde eine Funktion h, sodaß h(x) c(x) H Hypothesenklasse, h H. Beachte: Konzeptklasse C und Hypothesenklasse H müssen nicht gleich sein.

Maschinelles Lernen agnostic -learning Ein (supervised) ist ein Algorithmus, der als Eingabe eine Menge von Trainingsbeispielen erhält. Das ist auf eine bestimmte Hyptothesenklasse H beschränkt, aus der er, aufgrund der gesehenen Beispiele, eine Hypothese h auswählt. Die Qualität der Hypothese wird nicht auf den Trainigsbeispielen evaluiert, sondern anhand von neu, also unabhängig, aber basierend auf der gleichen Verteilung, gezogenen Testbeispielen.

Fehler einer Hypothese agnostic -learning Definition (error D (h)) Der wahre Fehler einer Hypothese h im Hinblick auf ein bestimmtes target concept und eine bestimmte Verteilung D ist gleich der Wahrscheinlichkeit, daß h ein entsprechend D gezogenes Beispiel falsch klassifizieren wird. error D (h) = Pr x D [c(x) h(x)] Wir wollen also wissen, welche Fehlerrate wir zu erwarten haben. Da sowohl D als auch c(x) NICHT bekannt sind, ist die Ermittlung des wahren Fehlers von h normalerweise gar nicht möglich.

agnostic -learning Definition (-lernbar) Sei C eine Konzeptklasse über X und L ein auf der Hypothesenklasse H. C ist -lernbar von L auf H, wenn für alle c C, Verteilungen D über X, ɛ : 0 < ɛ < 1 2, δ : 0 < δ < 1 2, eine notwendige Anzahl n von Beispielen bestimmt werden kann, sodaß L mit Wahrscheinlichkeit > (1 δ)eine Hypothese mit Fehler < ɛ lernt, und außerdem die Laufzeit polynomiell in n, 1 ɛ, 1 δ und size(c) ist.

agnostic Learning Maschinelles Lernen agnostic -learning Wir wissen nicht, ob H und C die gleichen Konzepte umfassen. Wir kennen auch D nicht. Wir bestimmen h so, daß der Trainigserror minimal wird. Wir testen h auf einem zufälligen Test-Set D und benützen die Chernoff-Bounds (Hoeffding). Pr[error D (h) > error D (h) + ɛ] e 2mɛ2 m 1 2epsilon 2 (ln H + ln(1 δ ))

agnostic -learning conjunktion of boolean literals ist H = 3 n