Einführung in die Künstliche Intelligenz

Größe: px
Ab Seite anzeigen:

Download "Einführung in die Künstliche Intelligenz"

Transkript

1 Einführung in die Künstliche Intelligenz Kapitel 6: Maschinelles Lernen Teil 1 Prof. Dr. Johannes Maucher HdM MIB Version Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 1 / 43 Version / 43

2 Document History Version Date Changes Nr Folien zur Kreuzvalidierung und Weka-Übung hinzugefügt Vollständige Überarbeitung: Enthält jetzt nur noch Einführung und Kategorisierung, jedoch keine Algorithmen Neues Einführungskapitel: Dialoge anstelle Agentenfolien. Prinzip (un)überwachtes Lernen deutlich komprimiert Minimale Anpassungen für SS Anpassungen für WS 13/ Anpassungen im Kapitel Modellauswahl Dialoge zur Einführung entfernt: Anwendungsspez. Kategorisierung eingefügt Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 2 / 43 Version / 43

3 Übersicht Kapitel Maschinelles Lernen (1) 1 Was ist Machine Learning Definitionen 2 Benachbarte Wissenschaften 3 Übersicht Schemen Unüberwachtes Lernen Reinforcement Learning 4 Was wird gelernt? Regression Klassifikation Assoziation 5 Wie wird gelernt? Unüberwachtes Lernen 6 Modellauswahl und Bewertung Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 3 / 43 Version / 43

4 Was ist Machine Learning Definitionen Definitionen Eine mögliche Definition (J. Maucher) Maschinelles Lernen behandelt Verfahren Computer so zu programmieren, dass diese nicht nur einen Datenstrom nach einem fest vorgegebenen Ablauf verarbeiten, sondern aus den zur Verfügung stehenden Daten lernen und daraus ihr Verarbeitungsmodell ständig hinsichtlich der Erfüllung eines vorgegebenen Leistungskriteriums optimieren. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 4 / 43 Version / 43

5 Was ist Machine Learning Definitionen Definitionen Eine mögliche Definition (J. Maucher) Maschinelles Lernen behandelt Verfahren Computer so zu programmieren, dass diese nicht nur einen Datenstrom nach einem fest vorgegebenen Ablauf verarbeiten, sondern aus den zur Verfügung stehenden Daten lernen und daraus ihr Verarbeitungsmodell ständig hinsichtlich der Erfüllung eines vorgegebenen Leistungskriteriums optimieren. Eine etwas formellere Definition (Tom Mitchell [TM06]) Well-posed Learning Problem: A computer is said to learn from experience E with respect to some task T and some performance measure P, if its performance on T, as measured by P, improves with experience E. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 4 / 43 Version / 43

6 Benachbarte Wissenschaften Grundlagen- und verwandte Wissenschaften Statistik: Wesentliches Prinzip des Maschinellen Lernens ist die Induktion: Also aus Beispielen einer Stichprobe einen allgemeinen Zusammenhang ableiten. Der allgemeine Zusammenhang wird häufig in Form von Verteilfunktionen und Statistiken beschrieben. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 5 / 43 Version / 43

7 Benachbarte Wissenschaften Grundlagen- und verwandte Wissenschaften Statistik: Wesentliches Prinzip des Maschinellen Lernens ist die Induktion: Also aus Beispielen einer Stichprobe einen allgemeinen Zusammenhang ableiten. Der allgemeine Zusammenhang wird häufig in Form von Verteilfunktionen und Statistiken beschrieben. Ausserdem: die Zuverlässigkeit der gefundenen Regel wahrscheinlichkeitstheoretisch beschreiben. Informatik: Effiziente Programmierung von Algorithmen und Datenstrukturen Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 5 / 43 Version / 43

8 Übersicht Was maschinell gelernte Modelle leisten können (1) Erkennung (im Sinne vordefinierter Klassen), z.b. Objekterkennung (Gesichter, Fußgänger, Verkehrsschilder, Handschrift,...) Spracherkennung, Textklassifikation, Stimmungserkennung,... Verhaltenserkennung: Alarmerkennung, Userverhalten auf Webseiten,... Kreditwürdigkeitsklassifikation... Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 6 / 43 Version / 43

9 Übersicht Was maschinell gelernte Modelle leisten können (1) Erkennung (im Sinne vordefinierter Klassen), z.b. Objekterkennung (Gesichter, Fußgänger, Verkehrsschilder, Handschrift,...) Spracherkennung, Textklassifikation, Stimmungserkennung,... Verhaltenserkennung: Alarmerkennung, Userverhalten auf Webseiten,... Kreditwürdigkeitsklassifikation... Vorhersagen, z.b. Wettervorhersage Aktienkursvorhersage Verhaltensvorhersage (z.b. Kaufverhalten) Krankheitsvorhersage... Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 6 / 43 Version / 43

10 Übersicht Was maschinell gelernte Modelle leisten können (2) Schätzung nicht messbarer Größen aus messbaren Größen, z.b. Indikation von Krankheiten aus z.b. Herzratenvariabilität, EEG, Blutdruck, Blutwerten,.. Körperfettschätzung (siehe Einführungsbeispiel) Aus gekauften Artikeln oder Klicks auf Interesse schließen... Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 7 / 43 Version / 43

11 Übersicht Was maschinell gelernte Modelle leisten können (2) Schätzung nicht messbarer Größen aus messbaren Größen, z.b. Indikation von Krankheiten aus z.b. Herzratenvariabilität, EEG, Blutdruck, Blutwerten,.. Körperfettschätzung (siehe Einführungsbeispiel) Aus gekauften Artikeln oder Klicks auf Interesse schließen... Optimierungen, z.b. Erlernen und optimieren von Bewegungen (Robotik) Game AI (Verhalten des KI Agenten hinsichtlich unterschiedlicher Kriterien optimieren) Optimierung der Motoransteuerung hinsichtlich CO 2 -Ausstoss, Verbrauch,... Verlustbehaftete Codierung Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 7 / 43 Version / 43

12 Übersicht Was maschinell gelernte Modelle leisten können (2) Schätzung nicht messbarer Größen aus messbaren Größen, z.b. Indikation von Krankheiten aus z.b. Herzratenvariabilität, EEG, Blutdruck, Blutwerten,.. Körperfettschätzung (siehe Einführungsbeispiel) Aus gekauften Artikeln oder Klicks auf Interesse schließen... Optimierungen, z.b. Erlernen und optimieren von Bewegungen (Robotik) Game AI (Verhalten des KI Agenten hinsichtlich unterschiedlicher Kriterien optimieren) Optimierung der Motoransteuerung hinsichtlich CO 2 -Ausstoss, Verbrauch,... Verlustbehaftete Codierung Mustererkennung (ohne vordefinierte Klassen), Erkennung ähnlicher Instanzen bzw. Ähnlichkeitscluster Erkennung auffälliger Instanzen (z.b. Intrusion Detection)... Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 7 / 43 Version / 43

13 Übersicht Kategorisierung Übersicht Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 8 / 43 Version / 43

14 Übersicht Schemen Allgemeines Schema für Ablauf lernfähiger Systeme Trainingsdaten enthalten Eingabe und zugehörige Sollausgabe Unüberwachtes Lernen Trainingsdaten enthalten nur Eingabe Klassifikation Ausgabe r ist diskreter (Klassenindex) Skalar oder Vektor Regression Ausgabe r ist numerischer Skalar oder Vektor Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 9 / 43 Version / 43

15 Übersicht Schemen Datenstrukturen Struktur der Eingabedaten und der Trainingsdaten für unüberwachtes Lernen: Merkmal 1 Merkmal 2 Merkmal K Instanz 1 x 1,1 x 1,2 x 1,K Instanz 2 x 2,1 x 2,2 x 2,K : : : : : Instanz N x N,1 x N,2 x N,K Struktur Trainingsdaten für überwachtes Lernen: Merkmal 1 Merkmal 2 Merkmal K Sollausgabe Instanz 1 x 1,1 x 1,2 x 1,K r 1 Instanz 2 x 2,1 x 2,2 x 2,K r 2 : : : : : : Instanz N x N,1 x N,2 x N,K r N Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 10 / 43 Version / 43

16 Übersicht : Training Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 11 / 43 Version / 43

17 Übersicht : Anwendung des gelernten Modells Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 12 / 43 Version / 43

18 Übersicht Probleme/Herausforderungen im Überwachten Lernen Annotation (Labeling) der Trainingseingaben ist teuer Anzahl der benötigten Trainingsdaten nimmt mit der Komplexität des zu lernenden Modells stark zu. Overfitting: Wenn das Modell zu stark an die Trainingsdaten angepasst ist und nicht gut generalisiert. Um eine gute Generalisierung zu erreichen, müssen viele Trainingsdaten verwendet werden, die möglichst alle in-class Varianzen abdecken. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 13 / 43 Version / 43

19 Übersicht Unüberwachtes Lernen Unüberwachtes Lernen: Training Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 14 / 43 Version / 43

20 Übersicht Unüberwachtes Lernen Unüberwachtes Lernen: Anwendung des gelernten Modells Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 15 / 43 Version / 43

21 Übersicht Unüberwachtes Lernen Probleme/Herausforderungen im Unüberwachten Lernen Klassenzugehörigkeit der Trainingselemente ist nicht bekannt (wie im überwachten Lernen) sondern muss erlernt werden. Wie wird Ähnlichkeit gemessen? Wie werden die Modelle und die entsprechenden Algorithmen evaluiert? Ein Vorteil gegenüber dem überwachten Lernen ist, dass die Erstellung einer großen Menge von Trainingsdaten einfacher ist. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 16 / 43 Version / 43

22 Übersicht Reinforcement Learning Reinforcement Learning: Lernen durch Belohnung Training: Nach einer Sequenz von Aktionen erhält man entweder positiven or negativen Feedback (Belohnung oder Strafe). Gelerntes Wissen: Wie muss ich mich verhalten (Aktionssequenz) um ein bestimmtes Ziel (eine bestimmte Belohnung) zu erreichen. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 17 / 43 Version / 43

23 Übersicht Reinforcement Learning Probleme/Herausforderungen im Reinforcement Learning Benötigt i.d.r. hohe Anzahl von Iterationen (d.h. viel Zeit) für den Lernprozess. Während des Lernens erhalten alle Aktionen innerhalb einer Sequenz den gleichen Feedback. Der Tatsache, dass einzelne Aktionen gut, andere weniger gut sind wird nicht Rechnung getragen. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 18 / 43 Version / 43

24 Was wird gelernt? Regression Erlernen eines Funktionsverlaufs Gelernt wird Funktionsverlauf Zielfunktion hat numerischen Wertebereich Zielfunktion ist rein deterministisch: Interpolation Zielfunktion setzt sich aus deterministischem Anteil und zufälligen Anteil zusammen: Regression Feedback-Kategorie:, Bestärkendes Lernen Anwendungen: Berechnung von Vorhersagen Robotik: Ausgabe (Bewegung) ist Funktion der Eingabe (Daten von den Sensoren) Algorithmen: Neuronales Netz, SVM u.v.m. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 19 / 43 Version / 43

25 Was wird gelernt? Klassifikation Erlernen einer Klassifizierung Gelernt wird Klassenzuordnung (Klassengrenzen) von Eingabedaten Zielfunktion hat diskreten Wertebereich Ähnliche Eingabeelemente werden gleicher Klasse zugeteilt Alle Eingabeelemente einer Klasse haben die selbe Ausgabe Feedback-Kategorie:, Bestärkendes Lernen Anwendungen: Berechnung von Vorhersagen, z.b. Creditscoring Mustererkennung Algorithmen: Neuronales Netz, Hopfield-Netz, SVM, Entscheidungsbaum, Bayes-Netz, u.v.m. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 20 / 43 Version / 43

26 Was wird gelernt? Assoziation Erlernen von Assoziationen zwischen Instanzen (Clusteranalyse) Gelernt wird Ähnlichkeit (Korrelation) zwischen Eingabedatensätzen Ähnliche Elemente werden in Cluster zusammengefasst Feedback-Kategorie: Unüberwachtes Lernen Anwendungen: Kundenananalyse Nichtlineare Vektorquantisierung / Farbraumkompression Algorithmen: k-means Clustering Hierarchisches Clustering Self-Organizing Maps (SOM) Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 21 / 43 Version / 43

27 Was wird gelernt? Assoziation Erlernen von Assoziationen zwischen Merkmalen Gelernt wird Ähnlichkeit (Beziehung) zwischen Merkmalen Gelerntes Wissen wird in Form von Logischen Beziehungen, z.b. Kunden die Wein kaufen, kaufen auch Käse Bedingten Wahscheinlichkeiten, z.b.: P(K W ) gibt an wie groß die Wahrscheinlichkeit ist, dass ein Kunde der Wein kauft auch Käse kauft. Feedback-Kategorie: Unüberwachtes Lernen Aus den Trainingsdaten werden Beziehungen zwischen in den Trainingsdaten vorhandenen Merkmalen gelernt (Induktion) Im Betrieb werden die gelernten Regeln dann auf Instanzen angewandt, die nicht alle Merkmale enthalten. Auf die nicht-vorhandenen Merkmale wird mithilfe der gelernten Regel geschlossen (Deduktion) Die gelernte Regel kann auch ein erkanntes Muster und damit neues Wissen repräsentieren (Beispiel: Kraftstoffdatenanalyse für Bosch) Anwendungen: Warenkorbanalyse Diagnosesysteme Algorithmen: z.b. A-Priori Algorithmus Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 22 / 43 Version / 43

28 Wie wird gelernt? Induktion: Aus einer gegebenen Menge von Beispielen (Trainingsdaten) einen allgemeinen Zusammenhang in Form einer Regel oder Funktion herleiten. Trainingsdaten: Vorliegende Menge (Trainingsmenge) { } T = (x 1, r 1 ),..., (x N, r N ) von N Wertepaaren (=Instanzen), wobei mit x p die Eingabewerte und mit r p die zugehörigen Ausgabewerte bezeichnet werden. Hypothese (h): Eine Regel oder Funktion, welche Abbildung von Eingabewerten in Ausgabewerte approximiert. Konsistent ist die gefundene Hypothese h, wenn sie mit allen gegebenen Beispielen des Trainingsset übereinstimmt, d.h. h(x p ) = r p p {1... N} Verallgemeinerung: Die Hypothese h ist dann gut, wenn sie für unbekannte Eingabewerte (nicht aus der Trainingsmenge) die passende Ausgabe voraussagt. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 23 / 43 Version / 43

29 Wie wird gelernt? Beispiel 1: Klassifizierung Aufgabe: Bank möchte Kreditwürdigkeit der potentiellen Kunden voraussagen. Abhängig von den Eingabewerten vorhandenes Eigenkapital K monatliches Einkommen I unterteilt die Bank zunächst in folgende 2 Klassen: Kunden für die vor Gewährung oder Ablehnung des Kredits Schufa-Daten eingeholt werden müssen: Ausgabewert S =. Kunden für die eine Einholung der Schufa-Daten nicht erforderlich ist S =. Die Klassenzugehörigkeit ist der Ausgabewert. Trainingsdaten T = {((K, I) p, S p )}, p 1, aus der bisherigen Erfahrung Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 24 / 43 Version / 43

30 Wie wird gelernt? Beispiel 1: Klassifizierung Lernaufgabe: Mithilfe der Trainingsdatenmenge soll eine allgemein gültige Regel h erlernt werden, mit der aus jedem Eingabewertpaar (K, I) j auf die Klassenzugehörigkeit (S j = oder S j = ) geschlossen werden kann. Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Rechtecke. 2 Der Lernalgorithmus soll die beste Hypothese h H finden. Also die Grenzen des Rechtecks, welches die Klasse C möglichst gut approximiert. Alle Rechtecke, die den grünen Bereich enthalten und nicht über den gelben Bereich hinaus gehen entsprechen konsistenten Hypothesen. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 25 / 43 Version / 43

31 Wie wird gelernt? Beispiel 1: Klassifizierung Empirischer Fehler: E(h T ) = N { 1 falls h(x p ) r p σ p mit σ p = 0 falls h(x p ) = r p p=1 Mißt die Anzahl der Fälle in denen die Hypothese nicht konsistent zu den Traniningsdaten ist. Ist also nur im Fall nicht-konsistenter Hypothesen > 0 Beispiel: Um einen Tainingsdatensatz (rot hinterlegt) erweiterte Trainingsdatenmenge Neuer Trainingsdatensatz stellt Ausreisser dar. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 26 / 43 Version / 43

32 Wie wird gelernt? Beispiel 1: Klassifizierung Rauschen: Rauschen verursacht Anomalien wie der Ausreisser im obigen Beispiel. Mögliche Ursachen für verrauschte Datensätze: Ungenauigkeit bei der Aufzeichnung der Eingabeattribute Fehlzuordnungen beim Erstellen der Trainingsdaten, d.h. Eingabeattribute werden falscher Klasse zugeordnet. Verborgene (latente) Attribute, die in der Modellierung nicht berücksichtigt wurden aber durchaus Einfluss auf die Ausgabe haben. Effekt solcher nicht-berücksichtigter Attribute wird i.d.r. als Rauschen modelliert. Hypothesenauswahl: Insbesondere bei der Annahme von Rauschen sind meist weniger komplexe Hypothesen günstiger. Diese weisen zwar einen höheren empirischen Fehler aus generalisieren i.d.r. besser sind einfacher zu handhaben. Siehe Abschnitt Modellauswahl Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 27 / 43 Version / 43

33 Wie wird gelernt? Klassifizierung mit mehr als 2 Klassen Bisher: Klassifizierung in 2 Klassen Kunden für die Schufa-Daten eingeholt werden müssen: S = Kunden für die keine Schufa-Daten eingeholt werden müssen S = Hierfür ist es ausreichend eine Hypothese zu lernen, welche approximativ die Grenze zwischen den beiden Klassen festlegt Jetzt: Unterteilung in > 2 Klassen Kunden für die Schufa-Daten eingeholt werden müssen Kunden für die keine Schufa-Daten eingeholt werden müssen, weil sie aufgrund ihrer Eingabedaten sicher abgelehnt werden können. Kunden für die keine Schufa-Daten eingeholt werden müssen, weil sie aufgrund ihrer Eingabedaten sicher angenommen werden können. Im Fall von K > 2 Klassen müssen > 1 Hypothesen gelernt werden. Jede Hypothese definiert approximativ die Grenzen einer Klasse. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 28 / 43 Version / 43

34 Wie wird gelernt? Beispiel 2: Regression Klassifikation: (Beispiel 1) - Ziel ist die Zuordnung von Eingabewerten zu Klassen. Gelernt wird eine Approximation der Klassengrenzen. Regression: (Beispiel 2) - Ziel ist die Bestimmung eines Funktionswertes für eine gegebene Menge von Eingabeattributen. Gelernt wird eine Approximation der Funktion. Der Begriff Regression bezieht sich auf den Fall, dass die Abbildung von Eingabewerten in den Funktionswert nicht rein deterministisch ist (y = f (x) + n) mit Zufallsvariable n. Von Interpolation spricht man, wenn der Zusammenhang rein deterministisch ist (y = f (x)). Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 29 / 43 Version / 43

35 Wie wird gelernt? Beispiel 2: Regression Aufgabe: Klimaforschungsinstitut möchte den zeitlichen Verlauf des Meerespegelanstiegs berechnen. Trainingsdaten: Gemessener Meerespegel y p in 6 aufeinanderfolgenden Jahren t p : T = {(t p, y p )}, p 1, y vs. x 1.2 sea level increas (cm) Year Lernaufgabe: Mithilfe der Trainingsdatenmenge soll eine Funktion g(t) erlernt werden, mit welcher der Meerespegelanstieg y als Funktion der Zeit t vorausgesagt werden kann. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 30 / 43 Version / 43

36 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse y vs. x 1.2 sea level increas (cm) Year Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43

37 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse y vs. x vs. fit sea level increase (cm) Year Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43

38 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse measured y vs. x linear vs. fit 1 quadratic sea level increase (cm) Year Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43

39 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse measured measured y vs. x linear vs. linear fit 1 quadratic quadratic degree 5 sea level increase (cm) Year Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43

40 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse measured measured y vs. x linear vs. linear fit 1 quadratic quadratic degree 5 sea level increase (cm) Year Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43

41 Wie wird gelernt? Beispiel 2: Regression Modellbildung: 1 Experte legt die Hypothesenklasse H fest. Z.B. Klasse aller Linearen Funktionen: y = g 0 + g 1 t Quadratischen Polynome: y = g 0 + g 1 t + g 2 t 2 Polynome vom Grad 5: y = g 0 + g 1 t + + g 5 t 5 2 Der Lernalgorithmus soll die beste Hypothese finden. Also die besten Polynomkoeffizienten g i innerhalb der gewählten Hypothesenklasse measured measured y vs. x linear vs. linear fit 1 quadratic quadratic degree 5 sea level increase (cm) Year Konsistent zur Trainingsmenge ist das Polynom 5. Grades. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 31 / 43 Version / 43

42 Wie wird gelernt? Beispiel 2: Regression Generalisierung: Empirischer Fehler: Je höher der Grad des Polynoms umso geringer kann der empirische Fehler sein. Für N Punkte läßt sich mit der Polynominterpolation immer ein Polynom vom Grad N 1 finden, dessen Graph alle N Punkte enthält. Dann ist der empirische Fehler = 0. Polynome hohen Grades sind aber eventuell zu speziell auf die Trainingsdatenmenge angepasst (Overfitting) und generalisieren schlecht. E(g T ) = 1 N N ( y p g(t p ) ) 2 p=1 Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 32 / 43 Version / 43

43 Wie wird gelernt? Unüberwachtes Lernen Unüberwachtes Lernen Im Gegensatz zum überwachten Lernen stehen beim unüberwachten Lernen nur Eingabedaten zur Verfügung. Aufgabe des unüberwachten Lernens ist das Auffinden von Regelmäßigkeiten oder Ähnlichkeiten zwischen Instanzen (Clusteranalyse), oder Merkmalen (Assoziationsanalyse) Mit unüberwachten Lernverfahren lassen sich auch Daten in hochdimensionalen Eingaberäumen in niedrigdimensionale Räume transformieren. Angewandt zum Zwecke der Feature Extraction oder Visualisierung. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 33 / 43 Version / 43

44 Wie wird gelernt? Unüberwachtes Lernen Anwendung des unüberwachtes Lernens: Clusteranalyse Instanzen, die sich durch ähnliche Eingabewerte auszeichnen, werden zu Clustern zusammengefasst. In bisher behandelten Klassifikationsaufgaben war Klassenzugehörigkeit der Trainings-Eingabedaten vorgegeben. Im Fall des unüberwachten Lernens muss diese Klassenzugehörigkeit der Trainingselemente gelernt werden. Auch die Schätzung einer Wahrscheinlichkeitsdichteverteilung einer Variablen aus einer gegebenen Menge (Trainingsmenge) von Variablenwerten kann Ziel dieser Lernkategorie sein Density Estimation (aus der Statistik) Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 34 / 43 Version / 43

45 Wie wird gelernt? Unüberwachtes Lernen Beispiel für Clustering von Instanzen mit 2 Merkmalen Mögliches Resultat eines k-means Clustering mit k = 4. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 35 / 43 Version / 43

46 Wie wird gelernt? Unüberwachtes Lernen Beispiel Clustering von Dokumenten Welche der folgenden Texte sind sich am Ähnlichsten? 1 Der Papst schreibt von Reue, von Schande und entschuldigt sich bei den Opfern - doch das reicht vielen Iren nicht: Sie kritisieren Benedikts Hirtenbrief zum Missbrauchsskandal als Versuch der Vertuschung. Pop-Sängerin Sinead O Connor wirft dem Vatikan vor, er wolle sich aus der Affäre ziehen 2 Die Erschütterung und die Scham des Papstes in seinem Brief an Irlands Katholiken sind echt. Doch er macht die Liberalisierung der Kirche für die Missbrauchsfälle verantwortlich. Das ist Unsinn. Zu den wahren Ursachen der Krise schweigt er leider. 3 Die schwarz-gelbe Koalition wackelt, die Wähler liebäugeln mit Rot-Grün: Jürgen Rüttgers kämpft in Nordrhein-Westfalen um seine Regierungsmehrheit - und seine politische Karriere. Um wieder in die Offensive zu kommen, geht der Ministerpräsident nun auf Distanz zur Krisenkoalition in Berlin. 4 Rückschlag im Titelrennen: Der FC Bayern hat durch zwei Gegentore in der Schlussphase bei Eintracht Frankfurt verloren - und könnte damit an diesem Spieltag die Tabellenführung verlieren. Werder Bremen gewann gegen den VfL Bochum, Freiburg setzte sich gegen Mainz durch. 5 Werder Bremen macht hinten Fehler und liefert vorne ein Spektakel, Bayern verliert in letzter Minute in Frankfurt und Leverkusen erlebt in Dortmund zwei völlig unterschiedliche Halbzeiten. Lange sah es in Frankfurt beim Gastspiel der Bayern nach einem typisch minimalistischen Münchner Sieg aus, doch dann drehte die Eintracht in einer verrückten Schlussphase das Spiel und gewann mit 2:1 6 Auf dem Landesparteitag in Münster versucht Ministerpräsident Rüttgers, die von der Affäre gebeutelte CDU in NRW mitzureißen - mit Hilfe der Kanzlerin und schrillen Warnungen vor der Opposition. CDU-Chefin Angela Merkel wirft am Samstag einiges in die Waagschale, um den nordrhein-westfälischen Parteifreunden Mut und Kampfkraft für den Landtagswahlkampf einzuhauchen. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 36 / 43 Version / 43

47 Wie wird gelernt? Unüberwachtes Lernen Beispiel: Hierarchisches Clustering von Dokumenten Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 37 / 43 Version / 43

48 Wie wird gelernt? Unüberwachtes Lernen Clusteranalyse Anwendungen Allgemeine Kategorisierungsaufgaben z.b. Kategorisierung von Kunden- oder Produktgruppen Mustererkennung, z.b. in der Bildverarbeitung: Pixel mit ähnlichen Farbwerten werden zu Regionen (Clustern) zusammengefasst Nichtlineare Vektorquantisierung wie sie z.b. in nahezu allen modernen Sprachcodecs eingesetzt wird Farbquantisierung Clustering von Suchergebnissen, z.b. Bioinformatik, z.b. für die Kategorisierung von Genen Bildung von Communities in Social Networks Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 38 / 43 Version / 43

49 Modellauswahl und Bewertung Problem: Overfitting Generalisierung: Zu Trainingsdaten konsistente Hypothese h ist immer nur Approximation der wahren aber unbekannten Klasse C. Problem: Liefert h auch zuverlässige Voraussagen für nicht in der Trainingsmenge enthaltene Eingabewerte? Die Qualität mit der ein trainiertes Modell die richtigen Ausgaben für nicht in der Trainingsmenge enthaltene Eingabedaten vorhersagt nennt man Generalisierung Nicht-konsistente Hypothesen können manchmal besser generalisieren (im Fall von Ausreissern). Overfitting: Wenn die Hypothese h zu speziell an die Trainingsdatenmenge angepasst ist. Je spezieller die Hypothese umso komplexer ist i.d.r. auch ihre Beschreibung. Underfitting: Wenn die gelernte Hypothese zu einfach im Vergleich zur unbekannten wahren Regel ist. Dies kann dann u.a. durch den Einbezug einer zu geringen Trainingsdatenmenge verursacht werden. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 39 / 43 Version / 43

50 Modellauswahl und Bewertung Training und Validierung Training: Mit den Trainingsdaten werden mögliche Hypothesen in verschiedenen Hypothesenräumen mit verschiedenen Lernalgorithmen berechnet Validierung: (=Test) 1 Auf jede der berechneten Hypothesen (=Modelle) werden die Validierungsdaten angewandt und die Fehlerrate bezüglich der Validierungsdaten berechnet. Validierungsdaten sind bekannte (Eingabe/Ausgabe)-Paare, die nicht Teil der Trainingsdatenmenge sind. Auswahl des Lernalgorithmus und Hypothesenraums, welcher die niedrigste Fehlerrate in den Validierungsdaten ergab. Menge aller möglichen (Eingabe/Ausgabe)-Paare 1 In dieser Vorlesung werden die Begriffe Validierung und Test gleichbedeutend benutzt Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 40 / 43 Version / 43

51 Modellauswahl und Bewertung Training und Validierung Training: Mit den Trainingsdaten werden mögliche Hypothesen in verschiedenen Hypothesenräumen mit verschiedenen Lernalgorithmen berechnet Validierung: (=Test) 1 Auf jede der berechneten Hypothesen (=Modelle) werden die Validierungsdaten angewandt und die Fehlerrate bezüglich der Validierungsdaten berechnet. Validierungsdaten sind bekannte (Eingabe/Ausgabe)-Paare, die nicht Teil der Trainingsdatenmenge sind. Auswahl des Lernalgorithmus und Hypothesenraums, welcher die niedrigste Fehlerrate in den Validierungsdaten ergab. Menge aller möglichen (Eingabe/Ausgabe)-Paare Menge aller bekannten (Eingabe/Ausgabe)-Paare 1 In dieser Vorlesung werden die Begriffe Validierung und Test gleichbedeutend benutzt Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 40 / 43 Version / 43

52 Modellauswahl und Bewertung Training und Validierung Training: Mit den Trainingsdaten werden mögliche Hypothesen in verschiedenen Hypothesenräumen mit verschiedenen Lernalgorithmen berechnet Validierung: (=Test) 1 Auf jede der berechneten Hypothesen (=Modelle) werden die Validierungsdaten angewandt und die Fehlerrate bezüglich der Validierungsdaten berechnet. Validierungsdaten sind bekannte (Eingabe/Ausgabe)-Paare, die nicht Teil der Trainingsdatenmenge sind. Auswahl des Lernalgorithmus und Hypothesenraums, welcher die niedrigste Fehlerrate in den Validierungsdaten ergab. Menge aller möglichen (Eingabe/Ausgabe)-Paare Menge aller bekannten (Eingabe/Ausgabe)-Paare Trainingsdaten: Für die Berechnung möglicher Hypothesen 1 In dieser Vorlesung werden die Begriffe Validierung und Test gleichbedeutend benutzt Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 40 / 43 Version / 43

53 Modellauswahl und Bewertung Training und Validierung Training: Mit den Trainingsdaten werden mögliche Hypothesen in verschiedenen Hypothesenräumen mit verschiedenen Lernalgorithmen berechnet Validierung: (=Test) 1 Auf jede der berechneten Hypothesen (=Modelle) werden die Validierungsdaten angewandt und die Fehlerrate bezüglich der Validierungsdaten berechnet. Validierungsdaten sind bekannte (Eingabe/Ausgabe)-Paare, die nicht Teil der Trainingsdatenmenge sind. Auswahl des Lernalgorithmus und Hypothesenraums, welcher die niedrigste Fehlerrate in den Validierungsdaten ergab. Menge aller möglichen (Eingabe/Ausgabe)-Paare Menge aller bekannten (Eingabe/Ausgabe)-Paare Trainingsdaten: Validierungsdaten: Für die Berechnung Für die Auswahl der besten möglicher Hypothesen Hypothese 1 In dieser Vorlesung werden die Begriffe Validierung und Test gleichbedeutend benutzt Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 40 / 43 Version / 43

54 Modellauswahl und Bewertung Einfache Validierung mit disjunkten Trainings- und Testdatensätzen Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 41 / 43 Version / 43

55 Modellauswahl und Bewertung Kreuzvalidierung für die Modellbewertung und Auswahl Problem: Meist ist die Menge verfügbarer (Eingabe/Ausgabe)-Paare klein, sodass eine disjunkte Unterteilung in Teilmengen ausreichender Größe nicht möglich ist. Lösung: Kreuzvalidierung Auswahl des Lernalgorithmus und des Hypothesenraums, welcher mit der Kreuzvalidierung geringste Fehlerrate ergibt. Nach der Auswahl wird für das Training die gesamte Menge verfügbarer (Eingabe/Ausgabe)-Paare benutzt. Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 42 / 43 Version / 43

56 Referenzen Ethem Alpaydin Maschinelles Lernen; deutschsprachige Ausgabe erschienen im Oldenbourg Verlag, München 2008 Tom Mitchell Machine Learning; McGraw Hill International Editions, 1997 Toby Segaran Programming Collective Intelligence; O Reilly Verlag, August 2007 Tom Mitchell The Discipline of Machine Learning; tom/pubs/machinelearning.pdf S. Russell, P. Norvig Künstliche Intelligenz; Ein moderner Ansatz Pearson Studium 2004 (Deutsche Ausgabe) W. Ertel Grundkurs Künstliche Intelligenz; Eine praxisorientierte Einführung Vieweg Verlag 2008 G. Görz, C.-R. Rollinger, J. Schneeberger Handbuch der künstlichen Intelligenz Oldenbourg Verlag, 4. Auflage, 2003 Prof. Dr. Johannes Maucher (HdM MIB) KI Kapitel 6: Maschinelles Lernen Teil 1 43 / 43 Version / 43

1. Lernen von Konzepten

1. Lernen von Konzepten 1. Lernen von Konzepten Definition des Lernens 1. Lernen von Konzepten Lernziele: Definitionen des maschinellen Lernens kennen, Klassifikationen des maschinellen Lernens kennen, Das Prinzip des induktiven

Mehr

Maschinelles Lernen SS 2005

Maschinelles Lernen SS 2005 1 Maschinelles Lernen SS 2005 Jianwei Zhang AB TAMS FB Informatik Universität Hamburg Büro: F308 Tel.: 2430 E-mail: zhang Web: http://tams-www.informatik.uni-hamburg.de/ Sprechstunde: Do. 15:00-16:00 2

Mehr

Vorlesung Digitale Bildverarbeitung Sommersemester 2013

Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Vorlesung Digitale Bildverarbeitung Sommersemester 2013 Sebastian Houben (Marc Schlipsing) Institut für Neuroinformatik Inhalt Crash-Course in Machine Learning Klassifikationsverfahren Grundsätzliches

Mehr

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN

Kapitel LF: I. Beispiele für Lernaufgaben. Beispiele für Lernaufgaben. LF: I Introduction c STEIN Kapitel LF: I I. Einführung in das Maschinelle Lernen Bemerkungen: Dieses Kapitel orientiert sich an dem Buch Machine Learning von Tom Mitchell. http://www.cs.cmu.edu/ tom/mlbook.html 1 Autoeinkaufsberater?

Mehr

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen

Kapitel ML: I. I. Einführung. Beispiele für Lernaufgaben Spezifikation von Lernproblemen Kapitel ML: I I. Einführung Beispiele für Lernaufgaben Spezifikation von Lernproblemen ML: I-8 Introduction c STEIN/LETTMANN 2005-2010 Beispiele für Lernaufgaben Autoeinkaufsberater Welche Kriterien liegen

Mehr

Maschinelles Lernen II

Maschinelles Lernen II Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen II Niels Landwehr Organisation Vorlesung/Übung 4 SWS. Ort: 3.01.2.31. Termin: Vorlesung: Dienstag, 10:00-11:30.

Mehr

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens

Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Seminar Künstliche Intelligenz WS 2013/14 Grundlagen des Maschinellen Lernens Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 19.12.2013 Allgemeine Problemstellung

Mehr

Mustererkennung und Klassifikation

Mustererkennung und Klassifikation Mustererkennung und Klassifikation WS 2007/2008 Fakultät Informatik Technische Informatik Prof. Dr. Matthias Franz mfranz@htwg-konstanz.de www-home.htwg-konstanz.de/~mfranz/heim.html Grundlagen Überblick

Mehr

Theoretische Informatik 1

Theoretische Informatik 1 Theoretische Informatik 1 Teil 12 Bernhard Nessler Institut für Grundlagen der Informationsverabeitung TU Graz SS 2007 Übersicht 1 Maschinelles Lernen Definition Lernen 2 agnostic -learning Definition

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen Universität Potsdam Institut für Informatik Lehrstuhl Niels Landwehr, Silvia Makowski, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Di 10:00-11:30

Mehr

Wie können Computer lernen?

Wie können Computer lernen? Wie können Computer lernen? Ringvorlesung Perspektiven der Informatik, 18.2.2008 Prof. Jun. Matthias Hein Department of Computer Science, Saarland University, Saarbrücken, Germany Inferenz I Wie lernen

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

Vorlesung. Data und Web Mining. Kurzinformation zur. Univ.-Prof. Dr. Ralph Bergmann. Lehrstuhl für Wirtschaftsinformatik II

Vorlesung. Data und Web Mining. Kurzinformation zur. Univ.-Prof. Dr. Ralph Bergmann.  Lehrstuhl für Wirtschaftsinformatik II Kurzinformation zur Vorlesung Data und Web Mining Univ.-Prof. Dr. Ralph Bergmann www.wi2.uni-trier.de - I - 1 - Die Ausgangssituation (1) Unternehmen und Organisationen haben enorme Datenmengen angesammelt

Mehr

Konzepte der AI: Maschinelles Lernen

Konzepte der AI: Maschinelles Lernen Konzepte der AI: Maschinelles Lernen Nysret Musliu, Wolfgang Slany Abteilung für Datenbanken und Artificial Intelligence Institut für Informationssysteme, TU-Wien Übersicht Was ist Lernen? Wozu maschinelles

Mehr

Methoden zur Cluster - Analyse

Methoden zur Cluster - Analyse Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics

Mehr

Künstliche neuronale Netze

Künstliche neuronale Netze Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Sommer-Semester 2008 Konzept-Lernen Konzept-Lernen Lernen als Suche Inductive Bias Konzept-Lernen: Problemstellung Ausgangspunkt:

Mehr

Mathematische Grundlagen III

Mathematische Grundlagen III Mathematische Grundlagen III Maschinelles Lernen III: Clustering Vera Demberg Universität des Saarlandes 7. Juli 202 Vera Demberg (UdS) Mathe III 7. Juli 202 / 35 Clustering vs. Klassifikation In den letzten

Mehr

Hypothesenbewertungen: Übersicht

Hypothesenbewertungen: Übersicht Hypothesenbewertungen: Übersicht Wie kann man Fehler einer Hypothese abschätzen? Wie kann man einschätzen, ob ein Algorithmus besser ist als ein anderer? Trainingsfehler, wirklicher Fehler Kreuzvalidierung

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Niels Landwehr, Jules Rasetaharison, Christoph Sawade, Tobias Scheffer Organisation Vorlesung/Übung, praktische

Mehr

Einführung i.d. Wissensverarbeitung

Einführung i.d. Wissensverarbeitung Einführung in die Wissensverarbeitung 2 VO 708.560 + 1 UE 442.072 SS 2012 Institut für Signalverarbeitung und Sprachkommunikation TU Graz Inffeldgasse 12/1 www.spsc.tugraz.at Institut für Grundlagen der

Mehr

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität

Datenstrukturen und Algorithmen. Christian Sohler FG Algorithmen & Komplexität Datenstrukturen und Algorithmen Christian Sohler FG Algorithmen & Komplexität 1 Clustering: Partitioniere Objektmenge in Gruppen(Cluster), so dass sich Objekte in einer Gruppe ähnlich sind und Objekte

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Hypothesenbewertung Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Hypothesenbewertung Christoph Sawade/Niels Landwehr Dominik Lahmann Tobias Scheffer Überblick Hypothesenbewertung, Risikoschätzung

Mehr

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle

Mustererkennung. Übersicht. Unüberwachtes Lernen. (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren Gaussian-Mixture Modelle Mustererkennung Unüberwachtes Lernen R. Neubecker, WS 01 / 01 Übersicht (Un-) Überwachtes Lernen Clustering im Allgemeinen k-means-verfahren 1 Lernen Überwachtes Lernen Zum Training des Klassifikators

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes

Mehr

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell

Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2009 1. Einführung: Definitionen Grundbegriffe Lernsysteme Maschinelles Lernen Lernen: Grundbegriffe

Mehr

8. Reinforcement Learning

8. Reinforcement Learning 8. Reinforcement Learning Einführung 8. Reinforcement Learning Wie können Agenten ohne Trainingsbeispiele lernen? Auch kennt der Agent zu Beginn nicht die Auswirkungen seiner Handlungen. Stattdessen erhält

Mehr

Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten

Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten Bachelorarbeit Erkennung von Fließtext in PDF-Dokumenten 16.08.2016 David Spisla Albert Ludwigs Universität Freiburg Technische Fakultät Institut für Informatik Gliederung Motivation Schwierigkeiten bei

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Lernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany),

Lernen mit Queries. Hans Kleine Büning Institut für Informatik, Universität Paderborn Paderborn (Germany), Lernen mit Queries Hans Kleine Büning Institut für Informatik, Universität Paderborn 33095 Paderborn (Germany), E-mail: kbcsl @upb.de November 2007 1 Einführung In diesem Abschnitt beschreiben wir kurz,

Mehr

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen

Funktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen 5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus

Mehr

1 Einleitung. 2 Clustering

1 Einleitung. 2 Clustering Lernende Vektorquantisierung (LVQ) und K-Means-Clustering David Bouchain Proseminar Neuronale Netze Kurs-Nr.: CS4400 ISI WS 2004/05 david@bouchain.de 1 Einleitung Im Folgenden soll zum einen ein Überblick

Mehr

Support Vector Machines, Kernels

Support Vector Machines, Kernels Support Vector Machines, Kernels Katja Kunze 13.01.04 19.03.2004 1 Inhalt: Grundlagen/Allgemeines Lineare Trennung/Separation - Maximum Margin Hyperplane - Soft Margin SVM Kernels Praktische Anwendungen

Mehr

Übersicht. Definition Daten Problemklassen Fehlerfunktionen

Übersicht. Definition Daten Problemklassen Fehlerfunktionen Übersicht 1 Maschinelle Lernverfahren Definition Daten Problemklassen Fehlerfunktionen 2 Entwickeln von maschinellen Lernverfahren Aufteilung der Daten Underfitting und Overfitting Erkennen Regularisierung

Mehr

Neuronale Netze. Christian Böhm.

Neuronale Netze. Christian Böhm. Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch

Mehr

Reinforcement Learning

Reinforcement Learning Reinforcement Learning 1. Allgemein Reinforcement Learning 2. Neuronales Netz als Bewertungsfunktion 3. Neuronales Netz als Reinforcement Learning Nils-Olaf Bösch 1 Allgemein Reinforcement Learning Unterschied

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Modellevaluierung. Niels Landwehr Universität Potsdam Institut für Informatik ehrstuhl Maschinelles ernen Modellevaluierung Niels andwehr ernen und Vorhersage Klassifikation, Regression: ernproblem Eingabe: Trainingsdaten Ausgabe: Modell

Mehr

Grundlagen 1: Modelle & Mengen

Grundlagen 1: Modelle & Mengen Michael Wand Institut für Informatik. Angewandte Mathematik am Rechner 1 SOMMERSEMESTER 2017 > Kapitel 2 Grundlagen 1: Modelle & Mengen 2.1 Modelle Grundlagen der Modellierung

Mehr

Naive Bayes für Regressionsprobleme

Naive Bayes für Regressionsprobleme Naive Bayes für Regressionsprobleme Vorhersage numerischer Werte mit dem Naive Bayes Algorithmus Nils Knappmeier Fachgebiet Knowledge Engineering Fachbereich Informatik Technische Universität Darmstadt

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Maschinelles Lernen. Tobias Scheffer Michael Brückner Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Tobias Scheffer Michael Brückner Organisation Vorlesung/Übung, praktische Informatik. 4 SWS. Übung: Mo 10:00-11:30

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)

Mehr

Data Mining auf Datenströmen Andreas M. Weiner

Data Mining auf Datenströmen Andreas M. Weiner Technische Universität Kaiserslautern Fachbereich Informatik Lehrgebiet Datenverwaltungssysteme Integriertes Seminar Datenbanken und Informationssysteme Sommersemester 2005 Thema: Data Streams Andreas

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB

INTELLIGENTE DATENANALYSE IN MATLAB INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial i Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick

Mehr

Vorlesung: Künstliche Intelligenz

Vorlesung: Künstliche Intelligenz Vorlesung: Künstliche Intelligenz - KI heute, KI morgen, KI übermorgen- D P LS G ML ES S ST SA NN ME O EA SV Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte

Mehr

Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen

Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Rückblick Polynomiale Regression lässt sich mittels einer Transformation der Merkmale auf multiple lineare Regression zurückführen Ridge Regression vermeidet Überanpassung, indem einfachere Modelle mit

Mehr

Inhaltliche Planung für die Vorlesung

Inhaltliche Planung für die Vorlesung Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme

Mehr

Einführung in das Maschinelle Lernen I

Einführung in das Maschinelle Lernen I Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL

Mehr

Neuronale Netze. Anna Wallner. 15. Mai 2007

Neuronale Netze. Anna Wallner. 15. Mai 2007 5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente

Mehr

Pareto optimale lineare Klassifikation

Pareto optimale lineare Klassifikation Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung

Mehr

Dokument Klassifikation. Thomas Uhrig: Data-Mining SS10

Dokument Klassifikation. Thomas Uhrig: Data-Mining SS10 Agenda: 1: Klassifizierung allgemein 2: der naive Bayes-Klassifizierer 3: Beispiel 4: Probleme 5: Fazit 6: Quellen 1: Klassifizierung allgemein: 1: Klassifizierung allgemein: - Einordnung von Objekten

Mehr

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002) 6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden

Mehr

Analytics Entscheidungsbäume

Analytics Entscheidungsbäume Analytics Entscheidungsbäume Professional IT Master Prof. Dr. Ingo Claßen Hochschule für Technik und Wirtschaft Berlin Regression Klassifikation Quellen Regression Beispiel Baseball-Gehälter Gehalt: gering

Mehr

Unüberwachtes Lernen

Unüberwachtes Lernen Unüberwachtes Lernen Mustererkennung und Klassifikation, Vorlesung No. 12 M. O. Franz 17.01.2008 Übersicht 1 Hauptkomponentenanalyse 2 Nichtlineare Hauptkomponentenanalyse 3 K-Means-Clustering Übersicht

Mehr

Maschinelles Lernen. Moderne Methoden der KI: Maschinelles Lernen. Definitionen: Was ist Lernen? Definitionen: Was ist Lernen? 1.

Maschinelles Lernen. Moderne Methoden der KI: Maschinelles Lernen. Definitionen: Was ist Lernen? Definitionen: Was ist Lernen? 1. Moderne Methoden der KI: Prof. Dr. sc. Hans-Dieter Burkhard Vorlesung Sommer-Semester 2007 1. Einführung: Definitionen Grundbegriffe Lernsysteme Lernen: Grundbegriffe Lernsysteme Konzept-Lernen Entscheidungsbäume

Mehr

Grundlagen Neuronaler Netze

Grundlagen Neuronaler Netze Grundlagen Neuronaler Netze Neuronen, Aktivierung, Output, Netzstruktur, Lernziele, Training, Grundstruktur Der Begriff neuronales Netz(-werk) steht immer für künstliche neuronale Netzwerke, wenn nicht

Mehr

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Vorbemerkungen 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer

Mehr

Hannah Wester Juan Jose Gonzalez

Hannah Wester Juan Jose Gonzalez Neuronale Netze Supervised Learning Proseminar Kognitive Robotik (SS12) Hannah Wester Juan Jose Gonzalez Kurze Einführung Warum braucht man Neuronale Netze und insbesondere Supervised Learning? Das Perzeptron

Mehr

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung

Überblick. Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Grundlagen Überblick Einführung in die automatische Mustererkennung Grundlagen der Wahrscheinlichkeitsrechnung Klassifikation bei bekannter Wahrscheinlichkeitsverteilung Entscheidungstheorie Bayes- Entscheidungsfunktionen

Mehr

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke

Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,

Mehr

Was sind Neuronale Netze?

Was sind Neuronale Netze? Neuronale Netze Universität zu Köln SS 2010 Seminar: Künstliche Intelligenz II Dozent: Stephan Schwiebert Referenten: Aida Moradi, Anne Fleischer Datum: 23. 06. 2010 Was sind Neuronale Netze? ein Netzwerk

Mehr

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem

Kapitel 7. Regression und Korrelation. 7.1 Das Regressionsproblem Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandelt die Verteilung einer Variablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem

Mehr

Computerlinguistische Textanalyse

Computerlinguistische Textanalyse Computerlinguistische Textanalyse 10. Sitzung 06.01.2014 Einführung in die Textklassifikation Franz Matthies Lehrstuhl für Computerlinguistik Institut für Germanistische Sprachwissenschaft Friedrich-Schiller

Mehr

Bayes sches Lernen: Übersicht

Bayes sches Lernen: Übersicht Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.

Mehr

Vorwort zur dritten Auflage

Vorwort zur dritten Auflage Vorwort zur dritten Auflage In Kap. 8 gibt es nun zwei neue Abschnitte. Das wichtige Thema Kreuzvalidierung erhält in Abschn. 8.5 endlich den verdienten Raum. In Abschn. 8.8 über One-Class-Learning werden

Mehr

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation

Validation Model Selection Kreuz-Validierung Handlungsanweisungen. Validation. Oktober, von 20 Validation Validation Oktober, 2013 1 von 20 Validation Lernziele Konzepte des maschinellen Lernens Validierungsdaten Model Selection Kreuz-Validierung (Cross Validation) 2 von 20 Validation Outline 1 Validation

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:

Mehr

Visualizing Similarities in Music

Visualizing Similarities in Music who is who 1 Visualizing Similarities in Music Projekt MusicMiner unter der Leitung von: MSc. Fabian Mörchen Prof. Dr. Alfred Ultsch Databionics Research Group Philipps-Universität Marburg who is who 2

Mehr

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3

1 Einleitung Definitionen, Begriffe Grundsätzliche Vorgehensweise... 3 Inhaltsverzeichnis 1 Einleitung 1 1.1 Definitionen, Begriffe........................... 1 1.2 Grundsätzliche Vorgehensweise.................... 3 2 Intuitive Klassifikation 6 2.1 Abstandsmessung zur Klassifikation..................

Mehr

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt

Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt Data Mining und Maschinelles Lernen Wintersemester 2015/2016 Lösungsvorschlag für das 3. Übungsblatt 18. November 2015 1 Aufgabe 1: Version Space, Generalisierung und Spezialisierung (1) Gegeben sei folgende

Mehr

2. Datenvorverarbeitung

2. Datenvorverarbeitung Kurzreferat Das Ziel beim Clustering ist es möglichst gleich Datensätze zu finden und diese in Gruppen, sogenannte Cluster zu untergliedern. In dieser Dokumentation werden die Methoden k-means und Fuzzy

Mehr

Eine zweidimensionale Stichprobe

Eine zweidimensionale Stichprobe Eine zweidimensionale Stichprobe liegt vor, wenn zwei qualitative Merkmale gleichzeitig betrachtet werden. Eine Urliste besteht dann aus Wertepaaren (x i, y i ) R 2 und hat die Form (x 1, y 1 ), (x 2,

Mehr

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities)

Bayes-Netze. Claudio Fischer Text- und Datamining (AG Digital Humanities) Bayes-Netze Claudio Fischer 20.06.2013 Text- und Datamining (AG Digital Humanities) Agenda Wiederholung Wahrscheinlichkeitstheorie Beispiel Motivation Bayes-Netze Inferenz exakt Inferenz annäherend Belief

Mehr

Classification and Regression Trees. Markus Müller

Classification and Regression Trees. Markus Müller Classification and Regression Trees Markus Müller Gliederung Lernen Entscheidungsbäume Induktives Lernen von Bäumen ID3 Algorithmus Einfluß der Beispielmenge auf den Baum Möglichkeiten zur Verbesserung

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2014/2015 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:

Mehr

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008

Maschinelles Lernen I Einführung. Uwe Reichel IPS, LMU München 22. April 2008 Maschinelles Lernen I Einführung Uwe Reichel IPS, LMU München reichelu@phonetik.uni-muenchen.de 22. April 2008 Inhalt Einführung Lernen Maschinelle Lernverfahren im Überblick Phonetische Anwendungsbeispiele

Mehr

Wahrscheinlichkeitsrechnung und Statistik. 8. Vorlesung

Wahrscheinlichkeitsrechnung und Statistik. 8. Vorlesung Wahrscheinlichkeitsrechnung und Statistik 8. Vorlesung - 208 ) Monte Carlo Methode für numerische Integration Sei g : [0, ] R stetige Funktion; man möchte numerisch approximieren mit Hilfe von Zufallszahlen:

Mehr

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser

Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser Praktikum Simulationstechnik Rene Schneider, Benjamin Zaiser 11.11.2008 CSM Master: Praktikum Simulationstechnik, rs034, bz003 2 Befehlsübersicht Begriffsdefinition / Neuronale Netze: / / 11.11.2008 CSM

Mehr

Vorlesung Wissensentdeckung

Vorlesung Wissensentdeckung Vorlesung Wissensentdeckung Einführung 5.4.2011 Gliederung 1 Modellbildung und Evaluation 2 Verlaufsmodell der Wissensentdeckung 3 Einführung in das Werkzeug RapidMiner Problem Wir haben nur eine endliche

Mehr

Klassifikation und Ähnlichkeitssuche

Klassifikation und Ähnlichkeitssuche Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell

Mehr

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.

kurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform. kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer

Mehr

Wichtige Definitionen und Aussagen

Wichtige Definitionen und Aussagen Wichtige Definitionen und Aussagen Zufallsexperiment, Ergebnis, Ereignis: Unter einem Zufallsexperiment verstehen wir einen Vorgang, dessen Ausgänge sich nicht vorhersagen lassen Die möglichen Ausgänge

Mehr

Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1

Übersicht. Künstliche Intelligenz: 18. Lernen aus Beobachtungen Frank Puppe 1 Übersicht I Künstliche Intelligenz II Problemlösen III Wissen und Schlußfolgern IV Logisch Handeln V Unsicheres Wissen und Schließen VI Lernen 18. Lernen aus Beobachtungen 19. Wissen beim Lernen 20. Statistische

Mehr

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften 5. Clusteranalyse Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften benennen und anwenden können, einen Test auf das Vorhandensein einer Clusterstruktur kennen, verschiedene

Mehr

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19

Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, :34 P.M. Page 11. Über die Übersetzerin 9. Einleitung 19 Trim Size: 176mm x 240mm Lipow ftoc.tex V1 - March 9, 2016 6:34 P.M. Page 11 Inhaltsverzeichnis Über die Übersetzerin 9 Einleitung 19 Was Sie hier finden werden 19 Wie dieses Arbeitsbuch aufgebaut ist

Mehr

Klassifikation von Signifikanztests

Klassifikation von Signifikanztests Klassifikation von Signifikanztests nach Verteilungsannahmen: verteilungsabhängige = parametrische Tests verteilungsunabhängige = nichtparametrische Tests Bei parametrischen Tests werden im Modell Voraussetzungen

Mehr

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006

Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 Empirische Softwaretechnik Prof. Dr. Walter F. Tichy Dr. Matthias Müller Sommersemester 2006 1 Experiment zur Vererbungstiefe Softwaretechnik: die Vererbungstiefe ist kein guter Schätzer für den Wartungsaufwand

Mehr

Konzepte der AI Neuronale Netze

Konzepte der AI Neuronale Netze Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale

Mehr

Erstes Mathe-Tutorium am Themen können gewählt werden unter:

Erstes Mathe-Tutorium am Themen können gewählt werden unter: Mathe-Tutorium Erstes Mathe-Tutorium am 07.05. Themen können gewählt werden unter: https://docs.google.com/forms/d/1lyfgke7skvql cgzspjt4mkirnrgnrfpkkn3j2vqos/iewform 1 Uniersität Potsdam Institut für

Mehr

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe

Statistische Tests. Kapitel Grundbegriffe. Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe Kapitel 4 Statistische Tests 4.1 Grundbegriffe Wir betrachten wieder ein parametrisches Modell {P θ : θ Θ} und eine zugehörige Zufallsstichprobe X 1,..., X n. Wir wollen nun die Beobachtung der X 1,...,

Mehr

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Clusteranalyse Tobias Scheffer Thomas Vanck Überblick Problemstellung/Motivation Deterministischer Ansatz: K-Means Probabilistischer

Mehr

Grundlagen 1: Modelle & Mengen

Grundlagen 1: Modelle & Mengen Angewandte Mathematik am Rechner 1 SOMMERSEMESTER 2018 > b c a de set S Kapitel 2 Grundlagen 1: Modelle & Mengen Frank Fischer Institut für Informatik frank.fscher@uni-mainz.de

Mehr

Data Mining - Wiederholung

Data Mining - Wiederholung Data Mining - Wiederholung Norbert Fuhr 9. Juni 2008 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 3. Übungsblatt Aufgabe 1: Version Space, Generalisierung und Spezialisierung Gegeben sei folgende Hierarchie von Begriffen:

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick

Mehr

Taktilsensorbasierte Steuerung von Roboterarmen zur Erstellung einer Haptischen Datenbank

Taktilsensorbasierte Steuerung von Roboterarmen zur Erstellung einer Haptischen Datenbank Taktilsensorbasierte Steuerung von Roboterarmen zur Erstellung einer Haptischen Datenbank Matthias Schöpfer 1 Gunther Heidemann 2 Helge Ritter 1 1 {mschoepf,helge}@techfak.uni-bielefeld.de Technische Fakultät

Mehr

Regression und Korrelation

Regression und Korrelation Kapitel 7 Regression und Korrelation Ein Regressionsproblem behandeltdie VerteilungeinerVariablen, wenn mindestens eine andere gewisse Werte in nicht zufälliger Art annimmt. Ein Korrelationsproblem dagegen

Mehr

Inhalt. I Einführung. Kapitel 1 Konzept des Buches Kapitel 2 Messen in der Psychologie... 27

Inhalt. I Einführung. Kapitel 1 Konzept des Buches Kapitel 2 Messen in der Psychologie... 27 Inhalt I Einführung Kapitel 1 Konzept des Buches........................................ 15 Kapitel 2 Messen in der Psychologie.................................. 27 2.1 Arten von psychologischen Messungen....................

Mehr