Vortragsthema. Thema: Klassifikation. Klassifikation. OS Data Mining SS10 Madeleine Weiand 1
|
|
- Waltraud Beutel
- vor 6 Jahren
- Abrufe
Transkript
1 Vortragsthema Klassifikation OS Data Mining SS0 Madeleine Weiand
2 Agenda Agenda I III Begriff Klassifikation Abgrenzung Anforderungen Anwendungsgebiete Dimensionsreduktion Umsetzung in Software Vergleich der Algorithmen Quellenangaben Fragen II Klassifikatoren Entscheidungsbaum naive Bayes Algorithmus Künstlich neuronale Netze k-nearest neighbour Methode Support Vector Machine OS Data Mining SS0 Madeleine Weiand 2
3 Abgrenzung eine Data-Mining-Methode, die der Zusammenfassung von Datenobjekten zu disjunkten Klassen dient Klasse Menge von zusammengehörigen Datenobjekten im Gegensatz zum Clustering müssen die Klassen bekannt sein zwei Phasen:. Lernphase 2. Klassifizierung von Datenobjekten Attribute (nominal, numerisch) der Datenobjekte OS Data Mining SS0 Madeleine Weiand 3
4 Anforderungen Anforderungen an einen Klassifikator und Daten möglichst korrekte Klassifizierung der Daten eine akzeptable Performance und Skalierbarkeit Ausreißern, fehlende Attribute Overfitting vermeiden Trainingsdaten sind notwendig OS Data Mining SS0 Madeleine Weiand 4
5 Anwendung Anwendungsgebiete Medizin Marketing & Marktanalysen Versicherung Mustererkennung OS Data Mining SS0 Madeleine Weiand 5
6 Entscheidungsbaum Entscheidungsbaum OS Data Mining SS0 Madeleine Weiand 6
7 Entscheidungsbaum Wert / Wertebereich Attribut Wert / Wertebereich Wert / Wertebereich nominal numerisch Attribut Klasse Attribut Wert / Wertebereich Wert / Wertebereich Wert / Wertebereich Wert / Wertebereich Klasse Klasse Klasse Klasse OS Data Mining SS0 Madeleine Weiand 7
8 Entscheidungsbaum Konstruktion eines Entscheidungsbaumes Informationsmenge: Maß für den Informationsgehalt, der nach dem Wissen über den Attributwert vorhanden ist auch als Entropie bezeichnet Einheit: bits n Anzahl der Klassen n -> info(p ) 0 OS Data Mining SS0 Madeleine Weiand 8
9 OS Data Mining SS0 Madeleine Weiand 9 Beispiel - Wetterdaten Entscheidungsbaum [Wit0] log log 4 5 ([9,5]) info Informationsgewinn : Mittelwert 0.97 ([3,2]) info 0.97 ([2,3]) info 0 ([4]) info ([4,0]) info outlook + + sunny rainy overcast overcast Informationsgewinn 0.9 Mittelwert ([2,2]) info 0.99 ([4,2]) info 0.8 ([3,]) info temperature warm mild cool 0.52 Informationsgewinn Mittelwert ([6,]) info ([3,4]) info humidity normal high Informationsgewinn Mittelwert ([3,3]) info 0.8 ([2,6]) info windy false true Informationsgewinn Wurzel: Informationsgewinn aller Attribute: Informationsgewinn Mittelwert 0 ([2]) info ([,]) info 0 ([]) info temperature hot mild cool 0.97 Informationsgewinn 0 Mittelwert 0 ([3]) info 0 ([2]) info humidity normal high Informationsgewinn 0.95 Mittelwert 0.98 ([,2]) info ([,]) info windy false true outlook sunny
10 Entscheidungsbaum Beispiel - Wetterdaten outlook sunny rainy overcast humidity normal high yes no OS Data Mining SS0 Madeleine Weiand 0
11 Entscheidungsbaum fehlende Attributwerte fehlende Attributwerte stellen einen eigenen Zweig dar die in der Trainingsmenge gebräuchlichste Verzweigung wird gewählt jede Verzweigung des fehlenden Attributwertes wird durchlaufen, die Blätter werden anhand der Anzahl der Elemente der Trainingsinstanz numerisch gewichtet (sehr komplex) OS Data Mining SS0 Madeleine Weiand
12 Entscheidungsbaum Attribute mit vielen Verzweigungen Mehrfachverzweigung mit sehr vielen untergeordneten Knoten z.b. numerische Attribute: Wertebereiche für numerische Attribute IDs: höchster Informationsgewinn -> Verzweigung nach diesem Attribut? statt Informationsgewinn wird das Gewinnverhältnis verwendet (siehe Literatur) OS Data Mining SS0 Madeleine Weiand 2
13 Bayes - Verfahren naive Bayes - Verfahren OS Data Mining SS0 Madeleine Weiand 3
14 Bayes - Verfahren stochastisches Klassifizierungsmodell Datenobjekt z.b.: meine Prüfung in BWL 0. gelernt: mittel 0.4 Spicker: nein Wohlbefinden: gut Vorlesung besucht: regelmäßig Klasse Note Note 2 Note 3 Note 4 OS Data Mining SS0 Madeleine Weiand 4
15 Bayes - Verfahren formal: n #Klassen m #Merkmale/Attribute Klassenzuordnung index{max( P( C X i i n ))} C i Klasse i X - Datenobjekt OS Data Mining SS0 Madeleine Weiand 5
16 OS Data Mining SS0 Madeleine Weiand 6 [Los02] Wahrscheinlichkeit priori a C P i ) ( Wahrscheinlichkeit posteriori a X C P i ) ( ) ( ) ( ) ( ) ( X P C P C X P X C P i i i m j i j i C x P C X P ) ( ) ( für kontinuierliche Merkmale ist eine Verteilungsfunktion nötig
17 Bayes - Verfahren [Wit0] Beispiel Wetter OS Data Mining SS0 Madeleine Weiand 7
18 Beispiel Wetter Grundlage der Klassifikation Anzahl relative Häufigkeit Klassifikation [Wit0] P(yes) P(no) P(x j yes) P(x j no) yes no yes no play 9 5 9/4 5/4 outlook sunny 2 3 2/9 3/5 overcast 4 0 4/9 0/5 rainy 3 2 3/9 2/5 temperature hot 2 2 2/9 2/5 outlook sunny temperature cool humidity high windy true X mild 4 2 4/9 2/5 cool 3 3/9 /5 humidity high 3 4 3/9 4/5 normal 6 6/9 /5 windy false 6 2 6/9 2/5 true 3 3 3/9 3/5 index{max( P( C i X P( C i P( X X ) i n ))} Ci ) P( C P( X ) i ) OS Data Mining SS0 Madeleine Weiand 8
19 [Wit0] Klassifikation P( yes X ) P( X ) P( no X ) P( X ) > Zuordnung zu Klasse no OS Data Mining SS0 Madeleine Weiand 9
20 [Wit0] Problem Attributwert in den Trainingsdaten gibt es nicht in Kombination mit einer Klasse (siehe outlookovercast) -> Laplace-Schätzung Anzahl relative Häufigkeit Laplace Schätzung P(yes) P(no) P(x j yes) P(x j no) yes no yes no yes no outlook sunny 2 3 2/9 3/5 3/2 4/8 overcast 4 0 4/9 0/5 5/2 /8 rainy 3 2 3/9 2/5 4/2 3/8 OS Data Mining SS0 Madeleine Weiand 20
21 [Wit0] fehlende Werte fehlende Wert stellen keine Probleme dar -> Trainingsdaten: Instanz wird bei der Häufigkeitszählung für die Attributwert- Klassenkombination nicht berücksichtig -> Klassifikation: Attribut wird ausgelassen OS Data Mining SS0 Madeleine Weiand 2
22 [Wit0] numerische Attribute nominale Werte temperature P(yes) P(no) P(x j yes) P(x j no) hot 2 2 2/9 2/5 mild 4 2 4/9 2/5 cool 3 3/9 /5 temperature yes no numerische Werte nummerische Attributwerte Mittelwert μ 73 74,6 Standardabweichung σ 6,2 7,9 σ n n i ( x i µ ) 2 OS Data Mining SS0 Madeleine Weiand 22
23 [Wit0] numerische Attribute temperature yes no nummerische Attributwerte Mittelwert μ 73 74,6 Standardabweichung σ 6,2 7,9 f ( x µ )² 2σ ² ( ) x rein nominale Attribute e 2πσ P(temperature mild yes) P( yes X) P( X ) 9 4 f(temperature 66 yes) P( yes X) P( X ) OS Data Mining SS0 Madeleine Weiand 23
24 KNN Künstliche Neuronale Netze OS Data Mining SS0 Madeleine Weiand 24
25 KNN [google Bildersuche] Neuron (Nervenzelle) OS Data Mining SS0 Madeleine Weiand 25
26 KNN [ f Eingabe n i x w i ij Aufbau eines KNN n-# Neuronen der Vorgängerschicht, j- Neuron der Schicht f Aktivierun g x w OS Data Mining SS0 Madeleine Weiand 26
27 KNN [Wer00] Aktivierungsfunktion Schwellwert bzw. Sprungfunktion lineare Funktion Sigmoidfunktion OS Data Mining SS0 Madeleine Weiand 27
28 KNN [Wer00] Backpropagation-Algorithmus Trainingsdaten werden in das Netz gespeist die Differenz zwischen Netzausgabe und gewünschten Ausgabe wird als Fehler berechnet liegt der Fehler über der Toleranzgrenze wird er zurück propagiert -> die Gewichtungen der Neuronenverknüpfungen werden abhängig vom Einfluss auf den Fehler angepasst Vorgang wiederholt sich bis der Fehler innerhalb der Toleranzgrenze liegt Backpropagation stellte ein Näherungsverfahren dar OS Data Mining SS0 Madeleine Weiand 28
29 k nearest neighbour k nearest neighbour OS Data Mining SS0 Madeleine Weiand 29
30 nearest neighbour [Sch09] Idee Einordnung der Datenobjekt in gleiche Klasse wie ähnliche Trainingsobjekte Beschreibung einer Klasse durch ein Trainingsobjekt meist unzureichend Klassenzentrum bezeichnet ein Trainingsobjekt Verwendung einer Diskriminanzfunktion Berechnung des Abstands zu jedem Klassenzentrum zum Zeitpunkt der Klassifikation OS Data Mining SS0 Madeleine Weiand 30
31 OS Data Mining SS0 Madeleine Weiand 3 Diskriminanzfunktion nearest neighbour [Sch09] )} ( {min } ) ( 2 ) ( ) ( { min ) ( d # te Zentrum der Klasse i j- ) ( Menge der Klassenzentren für Klasse i ) ( ) ( i x d index Klassenindex x j z j z j z x Klassen m Datenobjekt x j z i J i m i T i i T i i J j i
32 k - nearest neighbour [Sch09] schwächere Berücksichtigung von Ausreißern wünschenswert -> Berechnung aller Werte d ij ( x) Klassenzuordnung erfolgt NN -> knn T T z ( j) z ( j) 2 z ( j) x i nach Bestimmung der k-kleinsten d ij (x) um so größer k desto schwächer der Einfluss von Ausreißern Bsp: k3 i i OS Data Mining SS0 Madeleine Weiand 32
33 SVM Support-Vector-Machine OS Data Mining SS0 Madeleine Weiand 33
34 SVM [Wer00] Erweiterung der linearen Klassifikation benutzt Hyperebene als Trennfunktion es ist möglich auch nicht linear separierbare Datenobjekte durch eine Hyperebene von einander zu trennen -> Instanzraum wird in einen höher dimensionalen Raum abgebildet die Hyperebene wird maximal diskriminierende Hyperebene genannt OS Data Mining SS0 Madeleine Weiand 34
35 SVM [Wer00] Maximal diskriminierende Hyperebene für die Objekte der beiden Klassen wird die konvexe Hülle gebildet die Ebene, die am weitesten von allen Objekten entfernt ist, heißt maximal diskriminierende Hyperebene liegt orthogonal zu den kürzesten Linien, die die beiden konvexen Hüllen verbindet die Objekte mit dem geringsten Abstand zu der maximal diskriminierenden Hyperebene werden support vectors / Stützvektoren genannt OS Data Mining SS0 Madeleine Weiand 35
36 SVM [ Nichtlineare Klassengrenzen OS Data Mining SS0 Madeleine Weiand 36
37 Dimensionsreduktion Hauptkomponentenanalyse Principal Component Analysis OS Data Mining SS0 Madeleine Weiand 37
38 Dimensionsreduktion [Sch09] Problem der Datensatz bezogen auf die Anzahl der Attribute ist meist zu groß wähle aus n Attributen die k wesentlichen Attribute aus Idee: Transformation in einen Sekundärraum mit k Attributen Methode: Karhunen-Loeve-Transformation OS Data Mining SS0 Madeleine Weiand 38
39 Dimensionsreduktion [Sch09] Karhunen-Loeve-Transformation X Datenobjekt mit n-attributen A n x n Orthonormalmatrix mit a,,a n als Spaltenverktoren Cov Kovarianzmatrix zu X X A Y -> YA - X A T X OS Data Mining SS0 Madeleine Weiand 39
40 OS Data Mining SS0 Madeleine Weiand 40 Beispiel Dimensionsreduktion [Sch09] ( ) Attribut im Sekundärraum : 2 2 : 4 4 Eigenvektoren : charakteristische Polynom: a x A y e e A e x x e x x x x x x x x Cov T normiert normiert i i λ λ λ λ λ λ λ λ λ λ 4 4 Cov or Primärvekt x
41 Software Umsetzung in Software OS Data Mining SS0 Madeleine Weiand 4
42 Software Naive Bayes Entscheidungsbaum KNN SVM k-nn Quelle MS SQL Server 2008 x x x msdn Salford Systems - CART 6.0 ProEX x x x salford-systems.com KNIME x x x x RapidMiner x x x rapid-i.com Auton Lab - Auton Web x OS Data Mining SS0 Madeleine Weiand 42
43 Vergleich Vor-/Nachteile der Algorithmen OS Data Mining SS0 Madeleine Weiand 43
44 Vor- und Nachteile Entscheidungsbaum Regel leicht ersichtlich, aber der Gesamtüberblick schwierig (Baum zu tief) -> Pruning (siehe Literatur) Attribute mit sehr viel möglichen Werten ergeben Mehrfachverzweigungen zur Klassifikation relevante Attribute befinden sich in Wurzelnähe OS Data Mining SS0 Madeleine Weiand 44
45 Vor- und Nachteile naive Bayes arbeitet auf großen Datenmengen gut, mit hoher Genauigkeit nimmt Unabhängigkeit der Attribute an; wenn fälschlicher Weise -> unzureichende Ergebnisse Geschwindigkeit ähnlich wie Entscheidungsbaum, KNN kontinuierliche Daten -> als Verteilungsfkt. wird meist fälschlicher Weise Normalverteilung vorausgesetzt OS Data Mining SS0 Madeleine Weiand 45
46 Vor- und Nachteile KNN tolerant gegenüber Ausreißern Attributkombinationen die nicht in der Trainingsmenge vorkommen, stellen kein Problem dar erlernte Gewichte sind kaum interpretierbar -> Klassifikationsergebnis nicht erklärbar lange Trainingsphase kategorielle Daten müssen in metrische Daten umgewandelt werden Netz ist individuell bezüglich Anzahl verborgener Schichten und Anzahl Neuronen zu erstellen OS Data Mining SS0 Madeleine Weiand 46
47 Vor- und Nachteile k - nearst neighbour für metrische und kategorielle Daten geeignet (durch Anpassung der Distanzfunktion) keine Lernphase, Daten werden zum Zeitpunkt der Klassifikation ausgewertet, aber gesamte Trainingsmenge muss für die Klassifikation eines Objektes durchlaufen werden Aufwand steigt mit steigenden k OS Data Mining SS0 Madeleine Weiand 47
48 Vor- und Nachteile SVM schnelle Klassifikation, weil nur Stützvektoren erforderlich effektiv auf Daten mit vielen Attributen finden der maximal diskriminierenden Hyperebene langwierig OS Data Mining SS0 Madeleine Weiand 48
49 Quellen Quellen OS Data Mining SS0 Madeleine Weiand 49
50 Quellen [Los02] Loss, Dirk: Data Mining: Klassifikations- und Clusteringverfahren, 2002, [Wit0] Witten, Ian H., Frank, Eibe: Data Mining Praktische Werkzeuge und Techniken für das maschinelle Lernen, 200, Hanser Verlag, ISBN: [Fuh05] Prof. Dr.-Ing. Fuhr, Norbert: Informationssysteme, 2005, Grundlage: Witten & Frank [Wer00] Prof. Dr. Werner, Heinrich: der Forschungsgruppe Neuronale Netzwerke der Universität Kassel angehörig, Neuronale Netzwerke Vorlesungsmaterial, 2000 [Sch09] Prof. Dr. Schönherr, Siegfried: HTWK Leipzig, Mustererkennung Vorlesungsmaterial, 2009 OS Data Mining SS0 Madeleine Weiand 50
51 outlook temperature humidity windy play overcast cool normal true yes overcast mild high true yes overcast hot high false yes overcast hot normal false yes rainy cool normal false yes rainy cool normal true no rainy mild high false yes rainy mild normal false yes rainy mild high true no sunny cool normal false yes sunny mild normal true yes sunny mild high false no sunny hot high false no sunny hot high true no
Vorlesungsplan. Von Naïve Bayes zu Bayesischen Netzwerk- Klassifikatoren. Naïve Bayes. Bayesische Netzwerke
Vorlesungsplan 17.10. Einleitung 24.10. Ein- und Ausgabe 31.10. Reformationstag, Einfache Regeln 7.11. Naïve Bayes, Entscheidungsbäume 14.11. Entscheidungsregeln, Assoziationsregeln 21.11. Lineare Modelle,
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2008/2009 Musterlösung für das 7. Übungsblatt Aufgabe 1: Evaluierung und Kosten Gegeben sei ein Datensatz mit 300 Beispielen, davon 2 /3 positiv
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen II: Klassifikation mit Entscheidungsbäumen Vera Demberg Universität des Saarlandes 12. Juli 2012 Vera Demberg (UdS) Mathe III 12. Juli 2012 1 / 38 Einleitung
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 18. Januar 2006 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny
MehrEntscheidungsbäume. Minh-Khanh Do Erlangen,
Entscheidungsbäume Minh-Khanh Do Erlangen, 11.07.2013 Übersicht Allgemeines Konzept Konstruktion Attributwahl Probleme Random forest E-Mail Filter Erlangen, 11.07.2013 Minh-Khanh Do Entscheidungsbäume
MehrNaive Bayes. Naive Bayes
Naive Bayes Ein einfacher Klassifikator Wolfgang Konen Fachhochschule Köln November 007 W. Konen DMC WS007 Seite - 1 informatikö Inhalt Naive Bayes Der Ansatz Beispiel Wetterdaten Bayes sche Regel Das
MehrDecision Tree Learning
Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?
Mehr3.3 Nächste-Nachbarn-Klassifikatoren
3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 5: Naive Bayes + IBL (V.
MehrBayes sches Lernen: Übersicht
Bayes sches Lernen: Übersicht Bayes sches Theorem MAP, ML Hypothesen MAP Lernen Minimum Description Length Principle Bayes sche Klassifikation Naive Bayes Lernalgorithmus Teil 10: Naive Bayes (V. 1.0)
MehrKlassifikation und Ähnlichkeitssuche
Klassifikation und Ähnlichkeitssuche Vorlesung XIII Allgemeines Ziel Rationale Zusammenfassung von Molekülen in Gruppen auf der Basis bestimmter Eigenschaften Auswahl von repräsentativen Molekülen Strukturell
MehrEntscheidungsbaum-Lernen: Übersicht
Entscheidungsbaum-Lernen: Übersicht Entscheidungsbäume als Repräsentationsformalismus Semantik: Klassifikation Lernen von Entscheidungsbäumen vollst. Suche vs. TDIDT Tests, Ausdrucksfähigkeit Maße: Information
MehrData Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt
Data Mining und Maschinelles Lernen Lösungsvorschlag für das 7. Übungsblatt Knowledge Engineering Group Data Mining und Maschinelles Lernen Lösungsvorschlag 7. Übungsblatt 1 Aufgabe 1a) Auffüllen von Attributen
MehrSupport Vector Machines (SVM)
Universität Ulm 12. Juni 2007 Inhalt 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor- und Nachteile der SVM 1 2 3 Grundlegende Idee Der Kern-Trick 4 5 Multi-Klassen-Einteilung Vor-
MehrVorlesung Wissensentdeckung
Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 2.6.2015 1 von 33 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 33 Ausgangspunkt: Funktionsapproximation Die bisher
MehrMaschinelles Lernen: Symbolische Ansätze. Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2013/2014 Musterlösung für das 7. Übungsblatt 1 Aufgabe 1 Nearest Neighbour Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen
MehrData Mining und Text Mining Einführung. S2 Einfache Regellerner
Data Mining und Text Mining Einführung S2 Einfache Regellerner Hans Hermann Weber Univ. Erlangen, Informatik 8 Wintersemester 2003 hans.hermann.weber@gmx.de Inhalt Einiges über Regeln und Bäume R1 ein
MehrPareto optimale lineare Klassifikation
Seminar aus Maschinellem Lernen Pareto optimale lineare Klassifikation Vesselina Poulkova Betreuer: Eneldo Loza Mencía Gliederung 1. Einleitung 2. Pareto optimale lineare Klassifizierer 3. Generelle Voraussetzung
MehrModellierung mit künstlicher Intelligenz
Samuel Kost kosts@mailbox.tu-freiberg.de Institut für Numerische Mathematik und Optimierung Modellierung mit künstlicher Intelligenz Ein Überblick über existierende Methoden des maschinellen Lernens 13.
MehrÜbungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014
Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Aufgabe 1. Data Mining a) Mit welchen Aufgabenstellungen befasst sich Data Mining? b) Was versteht man unter Transparenz einer Wissensrepräsentation?
MehrVorlesung Wissensentdeckung
Gliederung Vorlesung Wissensentdeckung Additive Modelle Katharina Morik, Weihs 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung.6.015 1 von 33 von 33 Ausgangspunkt: Funktionsapproximation Aufteilen der
MehrEntscheidungsbäume aus großen Datenbanken: SLIQ
Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:
MehrModellierung. Entscheidungsbäume, ume, Boosting, Metalerner, Random Forest. Wolfgang Konen Fachhochschule Köln Oktober 2007.
Modellierung Entscheidungsbäume, ume, Boosting, Metalerner, Random Forest Wolfgang Konen Fachhochschule Köln Oktober 2007 W. Konen DMC WS2007 Seite - 1 W. Konen DMC WS2007 Seite - 2 Inhalt Typen der Modellierung
MehrNeuronale Netze. Anna Wallner. 15. Mai 2007
5. Mai 2007 Inhalt : Motivation Grundlagen Beispiel: XOR Netze mit einer verdeckten Schicht Anpassung des Netzes mit Backpropagation Probleme Beispiel: Klassifikation handgeschriebener Ziffern Rekurrente
MehrNeuronale Netze. Christian Böhm.
Ludwig Maximilians Universität München Institut für Informatik Forschungsgruppe Data Mining in der Medizin Neuronale Netze Christian Böhm http://dmm.dbs.ifi.lmu.de/dbs 1 Lehrbuch zur Vorlesung Lehrbuch
MehrBayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L
Bayes Klassifikatoren M E T H O D E N D E S D A T A M I N I N G F A B I A N G R E U E L Inhalt Grundlagen aus der Wahrscheinlichkeitsrechnung Hypothesenwahl Optimale Bayes Klassifikator Naiver Bayes Klassifikator
MehrMathematische Grundlagen III
Mathematische Grundlagen III Maschinelles Lernen I: Klassifikation mit Naive Bayes Vera Demberg Universität des Saarlandes 10. Juli 2012 Vera Demberg (UdS) Mathe III 10. Juli 2012 1 / 42 Einleitung Im
Mehr, Data Mining, 2 VO Sommersemester 2008
Evaluation 188.646, Data Mining, 2 VO Sommersemester 2008 Dieter Merkl e-commerce Arbeitsgruppe Institut für Softwaretechnik und Interaktive Systeme Technische Universität Wien www.ec.tuwien.ac.at/~dieter/
MehrKünstliche Intelligenz Maschinelles Lernen
Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes
MehrFragenkatalog zur Vorlesung "Grundlagen des Data Mining" (WS 2006/07)
Fragenkatalog zur Vorlesung "Grundlagen des Data Mining" (WS 2006/07) 1. Grenzen Sie die Begriffe "Daten" und "Wissen" mit je 3 charakteristischen Eigenschaften gegeander ab. 2. Nennen Sie vier verschiedene
MehrData Mining - Wiederholung
Data Mining - Wiederholung Norbert Fuhr 9. Juni 2008 Problemstellungen Problemstellungen Daten vs. Information Def. Data Mining Arten von strukturellen Beschreibungen Regeln (Klassifikation, Assoziations-)
MehrEntwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion
Entwicklung einer Entscheidungssystematik für Data- Mining-Verfahren zur Erhöhung der Planungsgüte in der Produktion Vortrag Seminararbeit David Pogorzelski Aachen, 22.01.2015 Agenda 1 2 3 4 5 Ziel der
MehrBegriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining
Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data
MehrINTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume
INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick
Mehrx 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen
5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x
MehrKapitel ML:IV (Fortsetzung)
Kapitel ML:IV (Fortsetzung) IV. Statistische Lernverfahren Wahrscheinlichkeitsrechnung Bayes-Klassifikation Maximum-a-Posteriori-Hypothesen ML:IV-18 Statistical Learning c STEIN 2005-2011 Satz 3 (Bayes)
MehrMaschinelles Lernen: Symbolische Ansätze
Klausur zur Vorlesung Maschinelles Lernen: Symbolische nsätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2006/07 Termin: 14. 2. 2007 Name: Vorname: Matrikelnummer:
MehrMathias Krüger / Seminar Datamining
Entscheidungsbäume mit SLIQ und SPRINT Mathias Krüger Institut für Informatik FernUniversität Hagen 4.7.2008 / Seminar Datamining Gliederung Einleitung Klassifikationsproblem Entscheidungsbäume SLIQ (
MehrInduktion von Assoziationsregeln. Stefan Mandl
Induktion von Assoziationsregeln Stefan Mandl Inhalt Was sind Assoziationsregeln? Qualitätsbewertung Algorithmus Was sind Assoziationsregeln? Assoziationsregeln Assoziationsregeln beschreiben Korrelationen
MehrEinführung in das Maschinelle Lernen I
Einführung in das Maschinelle Lernen I Vorlesung Computerlinguistische Techniken Alexander Koller 26. Januar 2015 Maschinelles Lernen Maschinelles Lernen (Machine Learning): äußerst aktiver und für CL
MehrMethoden zur Cluster - Analyse
Kapitel 4 Spezialvorlesung Modul 10-202-2206 (Fortgeschrittene Methoden in der Bioinformatik) Jana Hertel Professur für Bioinformatik Institut für Informatik Universität Leipzig Machine learning in bioinformatics
MehrInhalt. 4.1 Motivation. 4.2 Evaluation. 4.3 Logistische Regression. 4.4 k-nächste Nachbarn. 4.5 Naïve Bayes. 4.6 Entscheidungsbäume
4. Klassifikation Inhalt 4.1 Motivation 4.2 Evaluation 4.3 Logistische Regression 4.4 k-nächste Nachbarn 4.5 Naïve Bayes 4.6 Entscheidungsbäume 4.7 Support Vector Machines 4.8 Neuronale Netze 4.9 Ensemble-Methoden
Mehr2. Lernen von Entscheidungsbäumen
2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
Mehrkurze Wiederholung der letzten Stunde: Neuronale Netze Dipl.-Inform. Martin Lösch (0721) Dipl.-Inform.
kurze Wiederholung der letzten Stunde: Neuronale Netze martin.loesch@kit.edu (0721) 608 45944 Labor Wissensrepräsentation Aufgaben der letzten Stunde Übersicht Neuronale Netze Motivation Perzeptron Multilayer
Mehr9.5 Entscheidungsbäume
9.5. ENTSCHEIDUNGSBÄUME 149 9.5 Entscheidungsbäume Wir betrachten wieder einen Datensatz von Ereignissen mit jeweils m Merkmalen, zusammengefasst in x, die zwei verschiedenen Klassen angehören, zum Beispiel
MehrDatenbanken-Themen im OS "Data Mining" SS 2010
Prof. Dr.-Ing. Thomas Kudraß HTWK Leipzig, FIMN Datenbanken-Themen im OS "Data Mining" SS 2010 Die Vorträge sollten eine Dauer von 60 Minuten (Einzelvortrag) bzw. 45 Minuten (Doppelvortrag) haben. Nachfolgend
MehrMultivariate Verfahren
Multivariate Verfahren Oliver Muthmann 31. Mai 2007 Gliederung 1 Einführung 2 Varianzanalyse (MANOVA) 3 Regressionsanalyse 4 Faktorenanalyse Hauptkomponentenanalyse 5 Clusteranalyse 6 Zusammenfassung Komplexe
MehrComputational Intelligence 1 / 20. Computational Intelligence Künstliche Neuronale Netze Perzeptron 3 / 20
Gliederung / Künstliche Neuronale Netze Perzeptron Einschränkungen Netze von Perzeptonen Perzeptron-Lernen Perzeptron Künstliche Neuronale Netze Perzeptron 3 / Der Psychologe und Informatiker Frank Rosenblatt
MehrKapitel VI. Wahrscheinlichkeitsbegriff. Wahrscheinlichkeitsbegriff. LF: VI Bayesian Learning c STEIN
Kapitel VI VI. Bayes sches Lernen Maximum-a-Posteriori-Hypothesen 1 Definition 18 (Zufallsexperiment, Zufallsbeobachtung) Ein Zufallsexperiment ist ein im Prinzip beliebig oft wiederholbarer Vorgang mit
MehrEinführung. Einführung in die Methoden der Künstlichen Intelligenz. Maschinelles Lernen. Lernen und Agenten. Beispiele
Einführung Einführung in die Methoden der Künstlichen Intelligenz Maschinelles Lernen Dr. David Sabel WS 2012/13 Direkte Programmierung eines intelligenten Agenten nicht möglich (bisher) Daher benötigt:
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester 2016
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester 1 M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Übungsblatt 3 Maschinelles Lernen und Klassifikation Abgabe online
MehrWissensentdeckung in Datenbanken
Wissensentdeckung in Datenbanken Deep Learning (II) Nico Piatkowski und Uwe Ligges Informatik Künstliche Intelligenz 25.07.2017 1 von 14 Überblick Faltungsnetze Dropout Autoencoder Generative Adversarial
MehrSplitting. Impurity. c 1. c 2. c 3. c 4
Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision
Mehr4. Lernen von Entscheidungsbäumen
4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse
MehrMaschinelles Lernen Entscheidungsbäume
Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten
MehrWas bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und
Was bisher geschah Künstliche Neuronen: Mathematisches Modell und Funktionen: Eingabe-, Aktivierungs- Ausgabefunktion Boolesche oder reelle Ein-und Ausgaben Aktivierungsfunktionen: Schwellwertfunktion
MehrVorlesung. Machine Learning - Entscheidungsbäume
Vorlesung Machine Learning - Entscheidungsbäume Vorlesung Machine Learning - Entscheidungsbäume http://de.wikipedia.org/wiki/datei:deu_tutorial_-_hochladen_von_bildern_neu%2bcommons.svg http://www.rulequest.com/personal/
Mehr3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)
3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume
MehrTextmining Klassifikation von Texten Teil 2: Im Vektorraummodell
Textmining Klassifikation von Texten Teil 2: Im Vektorraummodell Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten Teil
MehrVorlesung: Künstliche Intelligenz
Vorlesung: Künstliche Intelligenz - KI heute, KI morgen, KI übermorgen- D P LS G ML ES S ST SA NN ME O EA SV Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte
MehrData Mining und Maschinelles Lernen
Data Mining und Maschinelles Lernen Wintersemester 2015/16 Musterlösung für das 7. Übungsblatt Aufgabe 1 Evaluierungsmethoden Ein Datenset enthält 2 n Beispiele, wobei genau n Beispiele positiv sind und
MehrMotivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.
Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später
MehrInhaltliche Planung für die Vorlesung
Vorlesung: Künstliche Intelligenz - Mustererkennung - P LS ES S ST ME Künstliche Intelligenz Miao Wang 1 Inhaltliche Planung für die Vorlesung 1) Definition und Geschichte der KI, PROLOG 2) Expertensysteme
MehrMaschinelles Lernen: Symbolische Ansätze
Semestralklausur zur Vorlesung Maschinelles Lernen: Symbolische Ansätze Prof. J. Fürnkranz / Dr. G. Grieser Technische Universität Darmstadt Wintersemester 2005/06 Termin: 23. 2. 2006 Name: Vorname: Matrikelnummer:
Mehr6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)
6. Bayes-Klassifikation (Schukat-Talamazzini 2002) (Böhm 2003) (Klawonn 2004) Der Satz von Bayes: Beweis: Klassifikation mittels des Satzes von Bayes (Klawonn 2004) Allgemeine Definition: Davon zu unterscheiden
MehrVorlesung. Data und Web Mining. Kurzinformation zur. Univ.-Prof. Dr. Ralph Bergmann. Lehrstuhl für Wirtschaftsinformatik II
Kurzinformation zur Vorlesung Data und Web Mining Univ.-Prof. Dr. Ralph Bergmann www.wi2.uni-trier.de - I - 1 - Die Ausgangssituation (1) Unternehmen und Organisationen haben enorme Datenmengen angesammelt
MehrDer Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze Reinhard Eck 1
Der Backpropagation-Algorithmus als Beispiel für Lernalgorithmen künstlicher neuronaler Netze 2.04.2006 Reinhard Eck Was reizt Informatiker an neuronalen Netzen? Wie funktionieren Gehirne höherer Lebewesen?
MehrReranking. Parse Reranking. Helmut Schmid. Institut für maschinelle Sprachverarbeitung Universität Stuttgart
Institut für maschinelle Sprachverarbeitung Universität Stuttgart schmid@ims.uni-stuttgart.de Die Folien basieren teilweise auf Folien von Mark Johnson. Koordinationen Problem: PCFGs können nicht alle
MehrKonzepte der AI Neuronale Netze
Konzepte der AI Neuronale Netze Franz Wotawa Institut für Informationssysteme, Database and Artificial Intelligence Group, Technische Universität Wien Email: wotawa@dbai.tuwien.ac.at Was sind Neuronale
MehrEntscheidungsbaum-Lernen: Übersicht
Entscheidungsbaum-Lernen: Übersicht Entscheidungsbäume Repräsentationsformalismus Tests Semantik: Klassifikation Ausdrucksfähigkeit Lernen von Entscheidungsbäumen Szenario vollst. Suche vs. TDIDT Maße:
MehrProseminar - Data Mining
Proseminar - Data Mining SCCS, Fakultät für Informatik Technische Universität München SS 2012, SS 2012 1 Data Mining Pipeline Planung Aufbereitung Modellbildung Auswertung Wir wollen nützliches Wissen
MehrModerne Methoden der KI: Maschinelles Lernen
Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume
MehrVorlesung Maschinelles Lernen
Vorlesung Maschinelles Lernen Additive Modelle Katharina Morik Informatik LS 8 Technische Universität Dortmund 7.1.2014 1 von 34 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 34 Ausgangspunkt:
MehrEinführung in die Methoden der Künstlichen Intelligenz
www.is.cs.uni-fra ankfurt.de Einführung in die Methoden der Künstlichen Intelligenz Vorlesung 8 Entscheidungsbaumlernen 2 19. Mai 2009 Ingo J. Timm, René Schumann Übersicht 1. Einführung 2. Grundlegende
MehrFunktionslernen. 5. Klassifikation. 5.6 Support Vector Maschines (SVM) Reale Beispiele. Beispiel: Funktionenlernen
5. Klassifikation 5.6 Support Vector Maschines (SVM) übernommen von Stefan Rüping, Katharina Morik, Universität Dortmund Vorlesung Maschinelles Lernen und Data Mining, WS 2002/03 und Katharina Morik, Claus
MehrWEKA A Machine Learning Interface for Data Mining
WEKA A Machine Learning Interface for Data Mining Frank Eibe, Mark Hall, Geoffrey Holmes, Richard Kirkby, Bernhard Pfahringer, Ian H. Witten Reinhard Klaus Losse Künstliche Intelligenz II WS 2009/2010
MehrFakultät für Informatik Übung zu Kognitive Systeme Sommersemester Lösungsblatt 3 Maschinelles Lernen und Klassifikation
Fakultät für Informatik Übung zu Kognitive Systeme Sommersemester M. Sperber (matthias.sperber@kit.edu) S. Nguyen (thai.nguyen@kit.edu) Lösungsblatt 3 Maschinelles Lernen und Klassifikation Aufgabe : Zufallsexperiment
MehrDokument Klassifikation. Thomas Uhrig: Data-Mining SS10
Agenda: 1: Klassifizierung allgemein 2: der naive Bayes-Klassifizierer 3: Beispiel 4: Probleme 5: Fazit 6: Quellen 1: Klassifizierung allgemein: 1: Klassifizierung allgemein: - Einordnung von Objekten
MehrKünstliche Neuronale Netze
Künstliche Neuronale Netze als Möglichkeit, einer Maschine das Lesen beizubringen Anja Bachmann 18.12.2008 Gliederung 1. Motivation 2. Grundlagen 2.1 Biologischer Hintergrund 2.2 Künstliche neuronale Netze
MehrÜbungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen
Übungen zu Multimedia-Datenbanken Aufgabenblatt 4 - Musterlösungen Übung: Dipl.-Inf. Tina Walber Vorlesung: Dr.-Ing. Marcin Grzegorzek Fachbereich Informatik, Universität Koblenz Landau Ausgabe: 31.0.2010
Mehr8. Clusterbildung, Klassifikation und Mustererkennung
8. Clusterbildung, Klassifikation und Mustererkennung Begriffsklärung (nach Voss & Süße 1991): Objekt: wird in diesem Kapitel mit einem zugeordneten Merkmalstupel (x 1,..., x M ) identifiziert (Merkmalsextraktion
MehrMaschinelles Lernen: Symbolische Ansätze
Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?
MehrAndreas Scherer. Neuronale Netze. Grundlagen und Anwendungen. vieweg
Andreas Scherer Neuronale Netze Grundlagen und Anwendungen vieweg Inhaltsverzeichnis Vorwort 1 1 Einführung 3 1.1 Was ist ein neuronales Netz? 3 1.2 Eigenschaften neuronaler Netze 5 1.2.1 Allgemeine Merkmale
MehrÜberwachtes Lernen II: Netze und Support-Vektor-Maschinen
Überwachtes Lernen II: Klassifikation und Regression - Neuronale Netze und Support-Vektor-Maschinen Praktikum: Data Warehousing und Data Mining Praktikum Data Warehousing und Mining, Sommersemester 2009
MehrGlobale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten
Globale und Individuelle Schmerz-Klassifikatoren auf Basis relationaler Mimikdaten M. Siebers 1 U. Schmid 2 1 Otto-Friedrich-Universität Bamberg 2 Fakultät für Wirtschaftsinformatik und Angewandte Informatik
MehrKünstliche neuronale Netze
Künstliche neuronale Netze Eigenschaften neuronaler Netze: hohe Arbeitsgeschwindigkeit durch Parallelität, Funktionsfähigkeit auch nach Ausfall von Teilen des Netzes, Lernfähigkeit, Möglichkeit zur Generalisierung
MehrEine Einführung in R: Hochdimensionale Daten: n << p Teil II
Eine Einführung in R: Hochdimensionale Daten: n
Mehr5. Klassifikation. 5.1 Einleitung. 5.1 Der Prozess der Klassifikation. 5.1 Einleitung. Inhalt dieses Kapitels. Das Klassifikationsproblem
5. Klassifikation Inhalt dieses Kapitels 5.1 Einleitung Das Klassifikationsproblem, Bewertung von Klassifikatoren 5.2 Bayes-Klassifikatoren Optimaler Bayes-Klassifikator, Naiver Bayes-Klassifikator, Anwendungen
MehrSyntaktische und Statistische Mustererkennung. Bernhard Jung
Syntaktische und Statistische Mustererkennung VO 1.0 840.040 (UE 1.0 840.041) Bernhard Jung bernhard@jung.name http://bernhard.jung.name/vussme/ 1 Rückblick Distanzmaße, Metriken, Pattern Matching Entscheidungstabellen,
MehrData Warehousing und Data Mining
Data Warehousing und Data Mining Klassifikation Ulf Leser Wissensmanagement in der Bioinformatik Inhalt dieser Vorlesung Einführung Problemstellung Evaluation Overfitting knn Klassifikator Naive-Bayes
Mehr4 Induktion von Regeln
4 Induktion von egeln Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- aare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden. Ein Entscheidungsbaum liefert eine Entscheidung
MehrNeuronale Netze. Gehirn: ca Neuronen. stark vernetzt. Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor)
29 Neuronale Netze Gehirn: ca. 10 11 Neuronen stark vernetzt Schaltzeit ca. 1 ms (relativ langsam, vgl. Prozessor) Mustererkennung in 0.1s 100 Schritte Regel 30 Was ist ein künstl. neuronales Netz? Ein
MehrData-Mining: Ausgewählte Verfahren und Werkzeuge
Fakultät Informatik Institut für Angewandte Informatik Lehrstuhl Technische Informationssysteme Data-Mining: Ausgewählte Verfahren und Vortragender: Jia Mu Betreuer: Dipl.-Inf. Denis Stein Dresden, den
MehrTextmining Klassifikation von Texten Teil 1: Naive Bayes
Textmining Klassifikation von Texten Teil 1: Naive Bayes Dept. Informatik 8 (Künstliche Intelligenz) Friedrich-Alexander-Universität Erlangen-Nürnberg (Informatik 8) Klassifikation von Texten 1: Naive
MehrNeuronale Netze Aufgaben 3
Neuronale Netze Aufgaben 3 martin.loesch@kit.edu (0721) 608 45944 MLNN IN FLOOD3 2 Multi Layer Neural Network (MLNN) Netzaufbau: mehrere versteckte (innere) Schichten Lernverfahren: Backpropagation-Algorithmus
MehrWilhelm Nüsser (Hrsg.) Carsten Weigand (Hrsg.) Raphael Fockel (Autor) Methoden des Data Mining im praktischen Einsatz
Wilhelm Nüsser (Hrsg.) Carsten Weigand (Hrsg.) Raphael Fockel (Autor) Methoden des Data Mining im praktischen Einsatz FHDW-Fachbericht Band 1/2009 Raphael Fockel Wilhelm Nüsser (Hrsg.) Carsten Weigand
MehrPersonalisierung. Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung. Data Mining.
Personalisierung Personalisierung Thomas Mandl Der Personalisierungsprozess Nutzerdaten erheben aufbereiten auswerten Personalisierung Klassifikation Die Nutzer werden in vorab bestimmte Klassen/Nutzerprofilen
Mehr