Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Save this PDF as:
 WORD  PNG  TXT  JPG

Größe: px
Ab Seite anzeigen:

Download "Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining"

Transkript

1 Gliederung 1. Einführung 2. Grundlagen Data Mining Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining 3. Ausgewählte Methoden des Data Mining Entscheidungsbaumverfahren Künstliche Neuronale Netze Clusterverfahren Assoziationsverfahren 4. Zusammenfassung und Ausblick Folie 85

2 Data Mining - Entscheidungsbaumverfahren Ziel: Erzeugung eines Modells, durch welches unbekannte Datenobjekte bestimmten vorgegebenen Klassen zugeordnet werden können Vorgehensweise: Zuordnung anhand von Regeln (Darstellung mit Klassifikationsbäumen) Beispiel: Einteilung von Datensätzen mit Angaben über Kunden derart, dass damit die Käufergruppe erkannt werden kann, in die ein neuer Kunde voraussichtlich gehört Voraussetzung: Datenbestand, bei dem für jeden Datensatz die zugehörige Klasse bekannt ist

3 Data Mining - Entscheidungsbaumverfahren Grundsätzliche Arbeitsweise: Aufteilung des Gesamtdatenbestandes in eine Trainingsmenge und eine Testmenge Sukzessive Aufteilung der Trainingsmenge, so dass sich daraus homogenere Gruppen von Datensätzen bezüglich der Klassifikationsvariablen ergeben Darstellung der Aufteilung der Datenmengen durch einen Baum, in dem jeder Knoten eine Datenmenge indiziert, dem ein Homogenitätsmaß zugeordnet wird Fortführung der Aufteilung, bis das Homogenitätsmaß einen vorgegebenen Wert erreicht Überprüfung der Ergebnisse anhand der Testmenge

4 Data Mining - Entscheidungsbaumverfahren Beispiel: Es liege für eine Kreditwürdigkeitsprüfung eine Menge von Kundendatensätzen vor. Dabei werden 70 % der Kunden als kreditwürdig und 30 % der Kunden als nicht-kreditwürdig eingestuft. Durch eine Aufteilung des Gesamtdatenbestandes anhand eines Merkmales sollen zwei Teilmengen derart entstehen, dass sich in der einen Teilmenge mehr Kundendatensätze mit der Eigenschaft kreditwürdig und in der anderen Teilmenge mehr Kundendatensätze mit der Eigenschaft nicht-kreditwürdig befinden. Beide Teilmengen weisen damit eine bessere Homogenität bezüglich der Klassifikationsvariablen auf, als der Ausgangsdatenbestand.

5 Data Mining - Entscheidungsbaumverfahren Datensätze Gesamt: 1000 Datensätze Klasse X: 300 Datensätze Klasse Y: 700 Attribut A: erfüllt nicht Bedingung K 1 Attribut A: erfüllt Bedingung K 1 Datensätze Gesamt: 600 Datensätze Klasse X: 280 Datensätze Klasse Y: 320 Datensätze Gesamt: 400 Datensätze Klasse X: 20 Datensätze Klasse Y: 380 Attribut B: erfüllt Bedingung K 2 Attribut B: erfüllt nicht Bedingung K 2 Datensätze Gesamt: 300 Datensätze Klasse X: 20 Datensätze Klasse Y: 280 Datensätze Gesamt: 300 Datensätze Klasse X: 260 Datensätze Klasse Y: 40

6 Data Mining - Entscheidungsbaumverfahren Regeln: Nachdem ein derartiger Baum generiert worden ist, können nun anhand des Baumes neuen Datensätzen deren voraussichtliche Klassen zugeordnet werden. Im Beispiel sind dies folgende Regeln: WENN Attribut A die Bedingung K1 erfüllt, DANN gehört das zugehörige Objekt der Klasse Y an. WENN Attribut A nicht die Bedingung K1 erfüllt und Attribut B nicht die Bedingung K2, DANN gehört das zugehörige Objekt der Klasse X an. WENN Attribut A nicht die Bedingung K1 erfüllt und Attribut B die Bedingung K2, DANN gehört das zugehörige Objekt der Klasse Y an.

7 Data Mining - Entscheidungsbaumverfahren Die Entscheidungsbaumverfahren lassen sich durch die zugehörigen Splitkriterien unterscheiden. Die Splitkriterien basieren auf einem Homogenitätsmaß, welches etwa mit Hilfe der relativen Häufigkeit p i des Auftretens bestimmter Datensätze einer bestimmten Klasse i definiert werden kann. Beispiel: Von 1000 Datensätzen sind 700 der Klasse 1 und 300 der Klasse 2 zugeordnet. Damit gilt für den Datenbestand: p 1 = 70 %, p 2 = 30 % Das Ziel ist nun, die Datensätze einzelnen Knoten zuzuordnen und dabei möglichst ausgeprägte Klassenzugehörigkeiten zu erreichen. Je unterschiedlicher die knotenspezifischen Häufigkeiten sind, desto homogener ist der Knoten. Ideal wäre eine Verteilung (100%, 0 %).

8 Data Mining - Entscheidungsbaumverfahren Als Maß für die Homogenität des Knoten T kann die Entropie verwendet werden. Entropie( T ) = Gilt Entropie = 0, so ist der Knoten homogen. Die Entropie nimmt ihren Maximalwert an (log 2 der Klassenanzahl), wenn eine Gleichverteilung vorliegt. k i= 1 p i log 2 p i mit( 0 log2 0 = 0) MS-Excel-Entropie

9 Data Mining - Entscheidungsbaumverfahren Es wird dann der Split gewählt, der den größten Informationsgewinn bringt. Der IG beschreibt die erwartete Reduktion der Entropie, wenn der Wert des Attributs A bekannt ist. Informationsgewinn (IG) durch Split der Menge T in m Teilmengen T i (i=1,,m): IG = Entropie( T ) m i= 1 Ein neuer Knoten T a enthält alle Elemente, bei denen das Attribut A die Ausprägung a annimmt. Der Informationsgewinn ergibt sich als Entropie des noch nicht weiter unterteilten Knotens T minus der Summe der Entropien der neuen Knoten T a, wobei als Gewichtung die relative Größe der neuen Knoten T a bezogen auf den Ausgangsknoten T gewählt wird. Ti T Entropie( Ti )

10 Data Mining - Entscheidungsbaumverfahren Als weiteres Maß für die Homogenität des Knoten T kann der Gini-Index verwendet werden. Gini(T) = 1 Gilt Gini (T) = 0, so ist der Knoten homogen. Der Gini-Index nimmt seinen Maximalwert an, wenn eine Gleichverteilung vorliegt. Es wird dann der Split gewählt, der den kleinsten Gini-Index für eine Partition des Knotens T mittels Attribut A bringt: k i= 1 2 p i T = a Gini ( T, A) Gini( Ta ) a A T MS-Excel-Gini

11 Data Mining - Entscheidungsbaumverfahren Die Güte eines Entscheidungsbaumes kann anhand der Fehlklassifikationsquote gemessen werden. Die Fehlklassifikationsquote gibt den Anteil der durch das Modell fehlerhaft klassifizierten Datensätze zur Gesamtanzahl der klassifizierten Datensätze an. Sie sollte nicht auf dem Trainingsdatenbestand, sondern auf einer davon unabhängigen Testmenge ermittelt werden. Darüber hinaus kann auch eine Fehlklassifikationsquote bezüglich des zur Modellierung eingesetzten Datenbestandes ermittelt werden. Diese Quote ist in der Regel ungleich Null, da in einem Endknoten alle Datensätze derselben Klasse zugeordnet werden, unabhängig von der tatsächlich vorliegenden Klassenzugehörigkeit. Diese Größe ist jedoch in ihrer Aussagefähigkeit beschränkt, da sie durch weitere Aufteilungen der Endknoten in homogenere Knoten verringert werden kann. Sie dient dennoch als erster Hinweis auf die Güte des Baums.

12 Data Mining - Entscheidungsbaumverfahren Durch die Trainingsmenge kann eine Baum generiert werden, der durch viele Splits sehr homogene Knoten für die betrachteten Daten ergibt. Wenn jedoch nur sehr wenige Datensätze einen Knoten repräsentieren, so ist die Aussagefähigkeit gering. Deshalb wird die Güte des Entscheidungsbaums anhand eines Testdatenbestandes ermittelt. Ist die Fehlklassifikationsquote hier zu hoch, so ist der generierte Entscheidungsbaum für allgemeine Anwendungen nicht anwendbar. Dann muss die Baumtiefe verringert werden und damit auch die Regelkomplexität. Dieses Phänomen wird Overfitting (Überanpassung an die Trainingsdaten) genannt.

13 Data Mining - Entscheidungsbaumverfahren Strategien zur Reduzierung des Overfitting-Problems: Entfernen von fehlerhaften Trainingsdaten Wahl einer geeigneten Größe der Trainingsmenge Keine absolut homogenen Knoten Mindestanzahl von Datensätzen in den Knoten Pruning

14 Data Mining - Entscheidungsbaumverfahren Unter Pruning wird das nachträgliche Modifizieren des Entscheidungsbaumes verstanden, mit dem Ziel die Fehlklassifikationsquote auf unbekannten Datensätzen zu verringern. Eine Pruning-Strategie ist das Fehlerreduktions-Pruning: Hierbei wird in jedem Pruning-Schritt derjenige Teilbaum T des Gesamtbaumes E bestimmt, durch dessen Entfernung der Klassifikationsfehler auf der Validierungsmenge am stärksten verringert wird. Dieser Teilbaum wird anschließend entfernt.

15 In einem Versandhaus sollen Spezialkataloge versendet werden. Für einige Kunden wurden bereits Entscheidungen über die zu versendenden Kataloge getroffen. Als Attribute der Kunden stehen die Anzahl der gekauften Artikel in den Gruppen Textilien und Geschenkartikel sowie der dabei angefallene Durchschnittspreis zur Verfügung. Die Ausprägungen sind qualitativer Natur. Es wird nur unterschieden zwischen wenig, mittel und viel bzw. niedrig, mittel und hoch. Für die Kataloge stehen die Varianten Textil (T)-Katalog, ein Geschenkartikel (G)-Katalog oder kein (N-)Katalog zur Verfügung.

16 12 Kundenprofile Kunden Textilien Geschenkartikel D-Preis Katalog X1 mittel wenig mittel T X2 wenig mittel niedrig N X3 mittel viel mittel T G X4 viel wenig hoch T X5 wenig mittel hoch G X6 viel mittel niedrig T G X7 wenig viel niedrig G X8 mittel wenig niedrig N X9 viel wenig niedrig T X10 wenig wenig hoch N X11 wenig viel mittel G X12 viel viel hoch T G

17 1,..,12 Textilien wenig mittel viel ( ) 1 2, 5, 7, 10, , 3, 8 3 4, 6, 9, 12 p ( ) i ( ) ( 2 2 ) T, G, TG, N T, G, TG, N T, G, TG, N Entropie 0,9710 1, IG(Textilien) = 5 (0,9710) 3 (1,5850) (1) = 0,

18 1,..,12 Geschenkartikel wenig mittel viel Entropie 1 1, 4, 8, 9, , 5, 6 3 3, 7, 11, 12 p ( 3 2 ) i ( 1 1 1) 5 0 ( ) T, G, TG, N T, G, TG, N T, G, TG, N 0,9710 1, IG(Geschenkartikel) = 2 5 (0,9710) (1,5850) 12 (1) = 0, 8658

19 1,..,12 Durchschnittspreis wenig mittel viel 1 2, 6, 7, 8, 9 2 1, 3, , 5, 10, 12 p ( ) ( ) i ( ) Entropie 1,9219 1, IG(Durchschnittspreis) = T, G, TG, N T, G, TG, N T, G, TG, N (1,9219) 3 (1,5850) (2) = 0,1363

20 Geschenkartikel wenig mittel 1,..,12 viel 1 1, 4, 8, 9, , 5, 6 3 3, 7, 11, 12 Textilien w m v N 10 1, 8 4, 9 T, N T Entropie 0, IG(Textilien) = 0, * *1 5 *0 = 0, 5710

21 Geschenkartikel wenig mittel 1,..,12 viel 1 1, 4, 8, 9, , 5, 6 3 3, 7, 11, 12 D-preis w m v N,T 8, 9 1 4, 10 T T, N Entropie 0, IG(D-preis) = 0, * *0 5 *1 = 0, 1710

22 Geschenkartikel wenig mittel 1,..,12 viel 1 1, 4, 8, 9, , 5, 6 3 Textilien w m v Textilien 3, 7, 11, , 8 4, 9 2, 5 N T, N T N, G? TG Entropie 1, IG(Textilien) =, *1 0 *0 = 0,

23 Geschenkartikel wenig mittel 1,..,12 viel 1 1, 4, 8, 9, , 5, 6 3 Textilien w m v D-preis 3, 7, 11, , 8 4, 9 2, 6 5 N T, N T N, TG? G Entropie 1, IG(D-Preis) =, *1 0 *0 = 0,

24 Geschenkartikel wenig mittel 1,..,12 viel 1 1, 4, 8, 9, , 5, 6 3 Textilien w m v Textilien Textilien 3, 7, 11, , 8 4, 9 N 2, 5 T, N T N, G? 6 TG 7, G TG TG Entropie 1 1 IG(Textilien) = 1 2 * *0 4 *0 = 1

25 Geschenkartikel wenig mittel 1,..,12 viel 1 1, 4, 8, 9, , 5, 6 3 Textilien w m v Textilien D-preis 3, 7, 11, , 8 4, 9 N 2, 5 T, N T N, G? TG G TG, G 6 7 3, TG Entropie 1 1 IG(Textilien) = 1 2 * *1 4 *0 = 0, 5

26 Geschenkartikel wenig mittel 1,..,12 viel 1 1, 4, 8, 9, , 5, 6 3 Textilien w m v Textilien Textilien 3, 7, 11, , 8 4, 9 N T, N T n m h 2, 5 N, G? 6 TG 7, G TG TG 8 1

27 1,..,12 Geschenkartikel wenig mittel viel , 4, 8, 9, 10 2, 5, 6 3, 7, 11, 12 Textilien w m v Textilien w m v Textilien w m v 10 1, 8 4, 9 2, 5 6 7, N T, N N, G? TG G TG TG n m h n m h Preis Preis N T? N? G

28 Beim Splitkriterium Gini-Koeffizient ergibt sich der gleiche Baum. Für den Splitt des Wurzelknotens gilt: Gini(Textil)= 0,53 ; Gini(Geschenk)=0,53 ; Gini(Preis)=0,72 Die Splits in der zweiten Phase erfolgen gemäß der Werte Gini(Textil) 0,2 0,33 0 Gini(Preis) 0,4 0,33 0,25

29 Geschenkartikel wenig 1,..,12 1, 4, 8, 9, 10 Textilien Preis T m 1, 8 m 1 Regel: IF Geschenkartikel: wenig AND Textilien: mittel AND Preis: mittel THEN T

Management Support Systeme

Management Support Systeme Management Support Systeme WS 24-25 4.-6. Uhr PD Dr. Peter Gluchowski Folie Gliederung MSS WS 4/5. Einführung Management Support Systeme: Informationssysteme zur Unterstützung betrieblicher Fach- und Führungskräfte

Mehr

Data Mining Anwendungen und Techniken

Data Mining Anwendungen und Techniken Data Mining Anwendungen und Techniken Knut Hinkelmann DFKI GmbH Entdecken von Wissen in banken Wissen Unternehmen sammeln ungeheure mengen enthalten wettbewerbsrelevantes Wissen Ziel: Entdecken dieses

Mehr

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002)

3. Entscheidungsbäume. Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) 3. Entscheidungsbäume Verfahren zum Begriffslernen (Klassifikation) Beispiel: weiteres Beispiel: (aus Böhm 2003) (aus Morik 2002) (aus Wilhelm 2001) Beispiel: (aus Böhm 2003) Wann sind Entscheidungsbäume

Mehr

Entscheidungsbaumverfahren

Entscheidungsbaumverfahren Entscheidungsbaumverfahren Allgemeine Beschreibung Der Entscheidungsbaum ist die Darstellung einer Entscheidungsregel, anhand derer Objekte in Klassen eingeteilt werden. Die Klassifizierung erfolgt durch

Mehr

3.3 Nächste-Nachbarn-Klassifikatoren

3.3 Nächste-Nachbarn-Klassifikatoren 3.3 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfachster Nächste-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten

Mehr

Entscheidungsbäume. Minh-Khanh Do Erlangen,

Entscheidungsbäume. Minh-Khanh Do Erlangen, Entscheidungsbäume Minh-Khanh Do Erlangen, 11.07.2013 Übersicht Allgemeines Konzept Konstruktion Attributwahl Probleme Random forest E-Mail Filter Erlangen, 11.07.2013 Minh-Khanh Do Entscheidungsbäume

Mehr

2. Lernen von Entscheidungsbäumen

2. Lernen von Entscheidungsbäumen 2. Lernen von Entscheidungsbäumen Entscheidungsbäume 2. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Musterlösung für das 7. Übungsblatt Aufgabe 1 Gegeben sei folgende Beispielmenge: Day Outlook Temperature Humidity Wind PlayTennis D1? Hot High Weak No D2 Sunny

Mehr

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining.

Motivation. Themenblock: Klassifikation. Binäre Entscheidungsbäume. Ansätze. Praktikum: Data Warehousing und Data Mining. Motivation Themenblock: Klassifikation Praktikum: Data Warehousing und Data Mining Ziel Item hat mehrere Attribute Anhand von n Attributen wird (n+)-tes vorhergesagt. Zusätzliches Attribut erst später

Mehr

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum

4. Lernen von Entscheidungsbäumen. Klassifikation mit Entscheidungsbäumen. Entscheidungsbaum 4. Lernen von Entscheidungsbäumen Klassifikation mit Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch /Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden.

Mehr

Moderne Methoden der KI: Maschinelles Lernen

Moderne Methoden der KI: Maschinelles Lernen Moderne Methoden der KI: Maschinelles Lernen Prof. Dr.Hans-Dieter Burkhard Vorlesung Entscheidungsbäume Darstellung durch Regeln ID3 / C4.5 Bevorzugung kleiner Hypothesen Overfitting Entscheidungsbäume

Mehr

Algorithmische Modelle als neues Paradigma

Algorithmische Modelle als neues Paradigma Algorithmische Modelle als neues Paradigma Axel Schwer Seminar über Philosophische Grundlagen der Statistik, WS 2010/11 Betreuer: Prof. Dr. Thomas Augustin München, den 28. Januar 2011 1 / 29 LEO BREIMAN

Mehr

Data Mining und Text Mining Einführung. S2 Einfache Regellerner

Data Mining und Text Mining Einführung. S2 Einfache Regellerner Data Mining und Text Mining Einführung S2 Einfache Regellerner Hans Hermann Weber Univ. Erlangen, Informatik 8 Wintersemester 2003 hans.hermann.weber@gmx.de Inhalt Einiges über Regeln und Bäume R1 ein

Mehr

Jan Parthey, Christin Seifert. 22. Mai 2003

Jan Parthey, Christin Seifert. 22. Mai 2003 Simulation Rekursiver Auto-Assoziativer Speicher (RAAM) durch Erweiterung eines klassischen Backpropagation-Simulators Jan Parthey, Christin Seifert jpar@hrz.tu-chemnitz.de, sech@hrz.tu-chemnitz.de 22.

Mehr

Entscheidungsbäume aus großen Datenbanken: SLIQ

Entscheidungsbäume aus großen Datenbanken: SLIQ Entscheidungsbäume aus großen Datenbanken: SLIQ C4.5 iteriert häufig über die Trainingsmenge Wie häufig? Wenn die Trainingsmenge nicht in den Hauptspeicher passt, wird das Swapping unpraktikabel! SLIQ:

Mehr

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes. Binäre Bäume Definition: Ein binärer Baum T besteht aus einer Menge von Knoten, die durch eine Vater-Kind-Beziehung wie folgt strukturiert ist: 1. Es gibt genau einen hervorgehobenen Knoten r T, die Wurzel

Mehr

4. Lernen von Entscheidungsbäumen

4. Lernen von Entscheidungsbäumen 4. Lernen von Entscheidungsbäumen Entscheidungsbäume 4. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Maschinelles Lernen Entscheidungsbäume

Maschinelles Lernen Entscheidungsbäume Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen Maschinelles Lernen Entscheidungsbäume Paul Prasse Entscheidungsbäume Eine von vielen Anwendungen: Kreditrisiken Kredit - Sicherheiten

Mehr

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014

Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Übungsblatt LV Künstliche Intelligenz, Data Mining (1), 2014 Aufgabe 1. Data Mining a) Mit welchen Aufgabenstellungen befasst sich Data Mining? b) Was versteht man unter Transparenz einer Wissensrepräsentation?

Mehr

Seminar Business Intelligence Teil II: Data-Mining und Knowledge-Discovery

Seminar Business Intelligence Teil II: Data-Mining und Knowledge-Discovery Seminar usiness Intelligence Teil II: Data-Mining und Knowledge-Discovery Thema : Vortrag von Philipp reitbach. Motivation Übersicht. rundlagen. Entscheidungsbauminduktion. ayes sche Klassifikation. Regression.

Mehr

Anwendung der Business Analytics

Anwendung der Business Analytics Anwendung der Business Analytics TDWI 2013 München Prof. Dr. Carsten Felden Dipl.-Wirt.-Inf. Claudia Koschtial Technische Universität Bergakademie Freiberg (Sachsen) Institut für Wirtschaftsinformatik

Mehr

Entscheidungsunterstützungssysteme

Entscheidungsunterstützungssysteme Vorlesung WS 2013/2014 Christian Schieder Professur Wirtschaftsinformatik II cschie@tu-chemnitz.eu Literatur zur Vorlesung Gluchowski, P.; Gabriel, R.; Dittmar, C.: Management Support Systeme und Business

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert Sommersemester 2009 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen

Mehr

Seminar Business Intelligence (2) Data Mining & Knowledge Discovery

Seminar Business Intelligence (2) Data Mining & Knowledge Discovery Seminar Business Intelligence () Data Mining & Knowledge Discovery Thema: Klassifikation und Prädiktion Ausarbeitung von Philipp Breitbach AG DBIS Betreuung: Jernej Kovse Inhaltsverzeichnis INHALTSVERZEICHNIS...

Mehr

Lernen von Entscheidungsbäumen. Volker Tresp Summer 2014

Lernen von Entscheidungsbäumen. Volker Tresp Summer 2014 Lernen von Entscheidungsbäumen Volker Tresp Summer 2014 1 Anforderungen an Methoden zum Datamining Schnelle Verarbeitung großer Datenmengen Leichter Umgang mit hochdimensionalen Daten Das Lernergebnis

Mehr

Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07

Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07 Regression Trees Methoden der Datenanalyse AI-basierte Decision Support Systeme WS 2006/07 Ao.Univ.Prof. Dr. Marcus Hudec marcus.hudec@univie.ac.at Institut für Scientific Computing, Universität Wien 2

Mehr

11. Übung Knowledge Discovery

11. Übung Knowledge Discovery Prof. Dr. Gerd Stumme, Robert Jäsche Fachgebiet Wissensverarbeitung. Übung Knowledge Discovery.7.7 Sommersemester 7 Informationsgewinn Im folgenden betrachten wir die Menge von n rainingsobjeten, mit den

Mehr

Automatische Mustererkennung zur Klassifikation von Konsumentenverhalten am Beispiel der Kreditwürdigkeitsprüfung

Automatische Mustererkennung zur Klassifikation von Konsumentenverhalten am Beispiel der Kreditwürdigkeitsprüfung Prof. Dr. Gerhard Arminger Dipl.-Ök. Alexandra Schwarz Bergische Universität Wuppertal Fachbereich Wirtschaftswissenschaft Fach Statistik Automatische Mustererkennung zur Klassifikation von Konsumentenverhalten

Mehr

5.4 Nächste-Nachbarn-Klassifikatoren

5.4 Nächste-Nachbarn-Klassifikatoren 5.4 Nächste-Nachbarn-Klassifikatoren Schrauben Nägel Klammern Neues Objekt Instanzbasiertes Lernen (instance based learning) Einfacher Nächster-Nachbar-Klassifikator: Zuordnung zu der Klasse des nächsten

Mehr

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining Ausgangssituation Kaizen Data Mining ISO 9001 Wenn andere Methoden an ihre Grenzen stoßen Es gibt unzählige Methoden, die Abläufe

Mehr

Vorlesung Maschinelles Lernen

Vorlesung Maschinelles Lernen Vorlesung Maschinelles Lernen Additive Modelle Katharina Morik Informatik LS 8 Technische Universität Dortmund 7.1.2014 1 von 34 Gliederung 1 Merkmalsauswahl Gütemaße und Fehlerabschätzung 2 von 34 Ausgangspunkt:

Mehr

Diskriminanzanalyse Beispiel

Diskriminanzanalyse Beispiel Diskriminanzanalyse Ziel bei der Diskriminanzanalyse ist die Analyse von Gruppenunterschieden, d. h. der Untersuchung von zwei oder mehr Gruppen hinsichtlich einer Vielzahl von Variablen. Diese Methode

Mehr

Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut, keine vorgegebenen Klassen

Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut, keine vorgegebenen Klassen 7. Clusteranalyse (= Häufungsanalyse; Clustering-Verfahren) wird der multivariaten Statistik zugeordnet Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut,

Mehr

Decision Tree Learning

Decision Tree Learning Decision Tree Learning Computational Linguistics Universität des Saarlandes Sommersemester 2011 28.04.2011 Entscheidungsbäume Repräsentation von Regeln als Entscheidungsbaum (1) Wann spielt Max Tennis?

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Maschinelles Lernen: Symbolische Ansätze

Maschinelles Lernen: Symbolische Ansätze Maschinelles Lernen: Symbolische Ansätze Wintersemester 2009/2010 Musterlösung für das 9. Übungsblatt Aufgabe 1: Decision Trees Gegeben sei folgende Beispielmenge: Age Education Married Income Credit?

Mehr

Lösungen zu den Übungsaufgaben aus Kapitel 5

Lösungen zu den Übungsaufgaben aus Kapitel 5 Lösungen zu den Übungsaufgaben aus Kapitel 5 Ü5.1: Die entsprechende Bellman sche Funktionalgleichung kann angegeben werden als: Vct (, ) = max qt D { r rt t ( min{ q t, c} ) min{ q t, c} Vc ( min{ q t,

Mehr

4 Induktion von Regeln

4 Induktion von Regeln 4 Induktion von egeln Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- aare beschrieben sind. Jedes Objekt kann einer Klasse zugeordnet werden. Ein Entscheidungsbaum liefert eine Entscheidung

Mehr

Data Mining und Knowledge Discovery in Databases

Data Mining und Knowledge Discovery in Databases Data Mining und Knowledge Discovery in Databases Begriffsabgrenzungen... Phasen der KDD...3 3 Datenvorverarbeitung...4 3. Datenproblematik...4 3. Möglichkeiten der Datenvorverarbeitung...4 4 Data Mining

Mehr

3 Quellencodierung. 3.1 Einleitung

3 Quellencodierung. 3.1 Einleitung Source coding is what Alice uses to save money on her telephone bills. It is usually used for data compression, in other words, to make messages shorter. John Gordon 3 Quellencodierung 3. Einleitung Im

Mehr

B-Bäume I. Algorithmen und Datenstrukturen 220 DATABASE SYSTEMS GROUP

B-Bäume I. Algorithmen und Datenstrukturen 220 DATABASE SYSTEMS GROUP B-Bäume I Annahme: Sei die Anzahl der Objekte und damit der Datensätze. Das Datenvolumen ist zu groß, um im Hauptspeicher gehalten zu werden, z.b. 10. Datensätze auf externen Speicher auslagern, z.b. Festplatte

Mehr

fuzzy-entscheidungsbäume

fuzzy-entscheidungsbäume fuzzy-entscheidungsbäume klassische Entscheidungsbaumverfahren fuzzy Entscheidungsbaumverfahren Entscheidungsbäume Was ist ein guter Mietwagen für einen Familienurlaub auf Kreta? 27. März 23 Sebastian

Mehr

Mean Time Between Failures (MTBF)

Mean Time Between Failures (MTBF) Mean Time Between Failures (MTBF) Hintergrundinformation zur MTBF Was steht hier? Die Mean Time Between Failure (MTBF) ist ein statistischer Mittelwert für den störungsfreien Betrieb eines elektronischen

Mehr

Betroffenheit von Stoffen in Erzeugnissen

Betroffenheit von Stoffen in Erzeugnissen Betroffenheit von Stoffen in Erzeugnissen Der Begriff Erzeugnis ist in Art. 3 wie folgt definiert: Gegenstand, der bei der Herstellung eine spezifische Form, Oberfläche oder Gestalt erhält, die in größerem

Mehr

Data Mining im e-commerce am Beispiel der Deutschen Bahn AG

Data Mining im e-commerce am Beispiel der Deutschen Bahn AG Fellowship Data Mining im e-commerce am Beispiel der Deutschen Bahn AG Katja Steuernagel Universität Kaiserslautern Momentan: GIP AG Göttelmannstraße 17 55130 Mainz katja@katja-steuernagel.de Zusammenfassung

Mehr

Mining High-Speed Data Streams

Mining High-Speed Data Streams Mining High-Speed Data Streams Pedro Domingos & Geoff Hulten Departement of Computer Science & Engineering University of Washington Datum : 212006 Seminar: Maschinelles Lernen und symbolische Ansätze Vortragender:

Mehr

Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer. *Entscheidungsbäume

Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer. *Entscheidungsbäume Decision Trees* von Julia Heise, Philipp Thoms, Hans-Martin Wulfmeyer *Entscheidungsbäume Gliederung 1. Einführung 2. Induktion 3. Beispiel 4. Fazit Einführung 1. Einführung a. Was sind Decision Trees?

Mehr

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining mit der SEMMA Methodik Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG Data Mining Data Mining: Prozeß der Selektion, Exploration und Modellierung großer Datenmengen, um Information

Mehr

Entscheidungsbaum-Lernen: Übersicht

Entscheidungsbaum-Lernen: Übersicht Entscheidungsbaum-Lernen: Übersicht Entscheidungsbäume als Repräsentationsformalismus Semantik: Klassifikation Lernen von Entscheidungsbäumen vollst. Suche vs. TDIDT Tests, Ausdrucksfähigkeit Maße: Information

Mehr

Erzeugung zufälliger Graphen und Bayes-Netze

Erzeugung zufälliger Graphen und Bayes-Netze Erzeugung zufälliger Graphen und Bayes-Netze Proseminar Algorithmen auf Graphen Georg Lukas, IF2000 2002-07-09 E-Mail: georg@op-co.de Folien: http://op-co.de/bayes/ Gliederung 1. Einleitung 2. einfache

Mehr

Data Mining und maschinelles Lernen

Data Mining und maschinelles Lernen Data Mining und maschinelles Lernen Einführung und Anwendung mit WEKA Caren Brinckmann 16. August 2000 http://www.coli.uni-sb.de/~cabr/vortraege/ml.pdf http://www.cs.waikato.ac.nz/ml/weka/ Inhalt Einführung:

Mehr

riskkv Scorenalyse riskkv Scoring Seite 1 von 9

riskkv Scorenalyse riskkv Scoring Seite 1 von 9 riskkv Scorenalyse riskkv Scoring Seite 1 von 9 Das Modul dient der flexiblen Erstellung, Auswertung und Verwendung von Scores. Durch vordefinierte Templates können in einer Einklicklösung bspw. versichertenbezogene

Mehr

Neuronale Netze (I) Biologisches Neuronales Netz

Neuronale Netze (I) Biologisches Neuronales Netz Neuronale Netze (I) Biologisches Neuronales Netz Im menschlichen Gehirn ist ein Neuron mit bis zu 20.000 anderen Neuronen verbunden. Milliarden von Neuronen beteiligen sich simultan an der Verarbeitung

Mehr

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É.

Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Scheduling und Lineare ProgrammierungNach J. K. Lenstra, D. B. Shmoys und É. Tardos Janick Martinez Esturo jmartine@techfak.uni-bielefeld.de xx.08.2007 Sommerakademie Görlitz Arbeitsgruppe 5 Gliederung

Mehr

Ein möglicher Unterrichtsgang

Ein möglicher Unterrichtsgang Ein möglicher Unterrichtsgang. Wiederholung: Bernoulli Experiment und Binomialverteilung Da der sichere Umgang mit der Binomialverteilung, auch der Umgang mit dem GTR und den Diagrammen, eine notwendige

Mehr

Data Mining: Einige Grundlagen aus der Stochastik

Data Mining: Einige Grundlagen aus der Stochastik Data Mining: Einige Grundlagen aus der Stochastik Hagen Knaf Studiengang Angewandte Mathematik Hochschule RheinMain 21. Oktober 2015 Vorwort Das vorliegende Skript enthält eine Zusammenfassung verschiedener

Mehr

TEXTKLASSIFIKATION. WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini

TEXTKLASSIFIKATION. WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini TEXTKLASSIFIKATION WS 2011/12 Computerlinguistik I Deasy Sukarya & Tania Bellini GLIEDERUNG 1. Allgemeines Was ist Textklassifikation? 2. Aufbau eines Textklassifikationssystems 3. Arten von Textklassifikationssystemen

Mehr

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN

EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN EXTRAKTION UND KLASSIFIKATION VON BEWERTETEN PRODUKTFEATURES AUF WEBSEITEN T-SYSTEMS MULTIMEDIA SOLUTIONS GMBH, 16. FEBRUAR 2012 1. Schlüsselworte Semantic Web, Opinion Mining, Sentiment Analysis, Stimmungsanalyse,

Mehr

1. Einfach verkettete Liste unsortiert 2. Einfach verkettete Liste sortiert 3. Doppelt verkettete Liste sortiert

1. Einfach verkettete Liste unsortiert 2. Einfach verkettete Liste sortiert 3. Doppelt verkettete Liste sortiert Inhalt Einführung 1. Arrays 1. Array unsortiert 2. Array sortiert 3. Heap 2. Listen 1. Einfach verkettete Liste unsortiert 2. Einfach verkettete Liste sortiert 3. Doppelt verkettete Liste sortiert 3. Bäume

Mehr

Business Intelligence mit Microsoft SQL Server 2005

Business Intelligence mit Microsoft SQL Server 2005 Business Intelligence mit Microsoft SQL Server 2005 Holger Schrödl ISBN 3-446-40463-5 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-40463-5 sowie im Buchhandel 4.6

Mehr

Seminar Text- und Datamining Datamining-Grundlagen

Seminar Text- und Datamining Datamining-Grundlagen Seminar Text- und Datamining Datamining-Grundlagen Martin Hacker Richard Schaller Künstliche Intelligenz Department Informatik FAU Erlangen-Nürnberg 23.05.2013 Gliederung 1 Klassifikationsprobleme 2 Evaluation

Mehr

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML Data Mining Standards am Beispiel von PMML Allgemeine Definitionen im Data Mining Data Mining (DM) Ein Prozess, um interessante neue Muster, Korrelationen und Trends in großen Datenbeständen zu entdecken,

Mehr

Informationsflut bewältigen - Textmining in der Praxis

Informationsflut bewältigen - Textmining in der Praxis Informationsflut bewältigen - Textmining in der Praxis Christiane Theusinger Business Unit Data Mining & CRM Solutions SAS Deutschland Ulrich Reincke Manager Business Data Mining Solutions SAS Deutschland

Mehr

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen

x 2 x 1 x 3 5.1 Lernen mit Entscheidungsbäumen 5.1 Lernen mit Entscheidungsbäumen Falls zum Beispiel A = {gelb, rot, blau} R 2 und B = {0, 1}, so definiert der folgende Entscheidungsbaum eine Hypothese H : A B (wobei der Attributvektor aus A mit x

Mehr

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume

INTELLIGENTE DATENANALYSE IN MATLAB. Überwachtes Lernen: Entscheidungsbäume INTELLIGENTE DATENANALYSE IN MATLAB Überwachtes Lernen: Entscheidungsbäume Literatur Stuart Russell und Peter Norvig: Artificial Intelligence. Andrew W. Moore: http://www.autonlab.org/tutorials. 2 Überblick

Mehr

Splitting. Impurity. c 1. c 2. c 3. c 4

Splitting. Impurity. c 1. c 2. c 3. c 4 Splitting Impurity Sei D(t) eine Menge von Lernbeispielen, in der X(t) auf die Klassen C = {c 1, c 2, c 3, c 4 } verteilt ist. Illustration von zwei möglichen Splits: c 1 c 2 c 3 c 4 ML: III-29 Decision

Mehr

PROSEMINAR ONLINE ALGORITHMEN

PROSEMINAR ONLINE ALGORITHMEN PROSEMINAR ONLINE ALGORITHMEN im Wintersemester 2000/2001 Prof. Dr. Rolf Klein, Dr. Elmar Langetepe, Dipl. Inform. Thomas Kamphans (Betreuer) Vortrag vom 15.11.2000 von Jan Schmitt Thema : Finden eines

Mehr

Grundlagen der Programmierung 2. Bäume

Grundlagen der Programmierung 2. Bäume Grundlagen der Programmierung 2 Bäume Prof. Dr. Manfred Schmidt-Schauÿ Künstliche Intelligenz und Softwaretechnologie 24. Mai 2006 Graphen Graph: Menge von Knoten undzugehörige (gerichtete oder ungerichtete)

Mehr

Data Mining mit Rapidminer im Direktmarketing ein erster Versuch. Hasan Tercan und Hans-Peter Weih

Data Mining mit Rapidminer im Direktmarketing ein erster Versuch. Hasan Tercan und Hans-Peter Weih Data Mining mit Rapidminer im Direktmarketing ein erster Versuch Hasan Tercan und Hans-Peter Weih Motivation und Ziele des Projekts Anwendung von Data Mining im Versicherungssektor Unternehmen: Standard

Mehr

SimpliMed Formulardesigner Anleitung für die SEPA-Umstellung

SimpliMed Formulardesigner Anleitung für die SEPA-Umstellung SimpliMed Formulardesigner Anleitung für die SEPA-Umstellung www.simplimed.de Dieses Dokument erhebt keinen Anspruch auf Vollständigkeit oder Korrektheit. Seite: 2 1. Der Formulardesigner Der in SimpliMed23

Mehr

Entscheidungsunterstützende Systeme

Entscheidungsunterstützende Systeme Entscheidungsunterstützende Systeme (WS 015/016) Klaus Berberich (klaus.berberich@htwsaar.de) Rainer Lenz (rainer.lenz@htwsaar.de) 0. Organisatorisches Dozenten Klaus Berberich (klaus.berberich@htwsaar.de)

Mehr

a) Fügen Sie die Zahlen 39, 38, 37 und 36 in folgenden (2, 3)-Baum ein:

a) Fügen Sie die Zahlen 39, 38, 37 und 36 in folgenden (2, 3)-Baum ein: 1 Aufgabe 8.1 (P) (2, 3)-Baum a) Fügen Sie die Zahlen 39, 38, 37 und 36 in folgenden (2, 3)-Baum ein: Zeichnen Sie, was in jedem Schritt passiert. b) Löschen Sie die Zahlen 65, 70 und 100 aus folgendem

Mehr

3. Lernen von Entscheidungsbäumen

3. Lernen von Entscheidungsbäumen 3. Lernen von Entscheidungsbäumen Entscheidungsbäume 3. Lernen von Entscheidungsbäumen Gegeben sei eine Menge von Objekten, die durch Attribut/Wert- Paare beschrieben sind. Jedes Objekt kann einer Klasse

Mehr

Nachtrag zu binären Suchbäumen

Nachtrag zu binären Suchbäumen Nachtrag zu binären Suchbäumen (nicht notwendigerweise zu AVL Bäumen) Löschen 1 3 2 10 4 12 1. Fall: Der zu löschende Knoten ist ein Blatt: einfach löschen 2. Fall: Der zu löschende Knoten hat ein Nachfolgeelement

Mehr

Ermittlung der Bevorzugung einer Investitionsvariante aufgrund des Vergleichs der Kosten, die bei den verschiedenen Varianten entstehen.

Ermittlung der Bevorzugung einer Investitionsvariante aufgrund des Vergleichs der Kosten, die bei den verschiedenen Varianten entstehen. Kapitel 63 Investitionsrechnung b) Statische Investitionsrechnung I. Kostenvergleich Zweck Ermittlung der Bevorzugung einer Investitionsvariante aufgrund des Vergleichs der Kosten, die bei den verschiedenen

Mehr

Data Mining-Modelle und -Algorithmen

Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining-Modelle und -Algorithmen Data Mining ist ein Prozess, bei dem mehrere Komponenten i n- teragieren. Sie greifen auf Datenquellen, um diese zum Training,

Mehr

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung Ermittlung von Assoziationsregeln aus großen Datenmengen Zielsetzung Entscheidungsträger verwenden heutzutage immer häufiger moderne Technologien zur Lösung betriebswirtschaftlicher Problemstellungen.

Mehr

4.2.5 Wie berücksichtigt man den Einsatz und die Abnutzung der Anlagen?

4.2.5 Wie berücksichtigt man den Einsatz und die Abnutzung der Anlagen? Seite 1 4.2.5 4.2.5 den Einsatz und die Bei der Erzeugung von Produkten bzw. der Erbringung von Leistungen sind in der Regel Anlagen (wie zum Beispiel Gebäude, Maschinen, Betriebs- und Geschäftsausstattung)

Mehr

Data Warehousing und Data Mining

Data Warehousing und Data Mining Data Warehousing und Data Mining Klassifikation Ulf Leser Wissensmanagement in der Bioinformatik Inhalt dieser Vorlesung Einführung Problemstellung Evaluation Overfitting knn Klassifikator Naive-Bayes

Mehr

Data Mining auf Datenströmen Andreas M. Weiner

Data Mining auf Datenströmen Andreas M. Weiner Technische Universität Kaiserslautern Fachbereich Informatik Lehrgebiet Datenverwaltungssysteme Integriertes Seminar Datenbanken und Informationssysteme Sommersemester 2005 Thema: Data Streams Andreas

Mehr

Grundlagen der Informatik. Prof. Dr. Stefan Enderle NTA Isny

Grundlagen der Informatik. Prof. Dr. Stefan Enderle NTA Isny Grundlagen der Informatik Prof. Dr. Stefan Enderle NTA Isny 2 Datenstrukturen 2.1 Einführung Syntax: Definition einer formalen Grammatik, um Regeln einer formalen Sprache (Programmiersprache) festzulegen.

Mehr

Maschinelles Lernen. Kapitel 5

Maschinelles Lernen. Kapitel 5 Kapitel 5 Maschinelles Lernen Im täglichen Leben begegnet uns das Lernen meist in einer Mischung aus den Aspekten der Vergrößerung von Wissen und der Verbesserung von Fähigkeiten. Beim Erlernen einer Fremdsprache

Mehr

Um zusammenfassende Berichte zu erstellen, gehen Sie folgendermaßen vor:

Um zusammenfassende Berichte zu erstellen, gehen Sie folgendermaßen vor: Ergebnisreport: mehrere Lehrveranstaltungen zusammenfassen 1 1. Ordner anlegen In der Rolle des Berichterstellers (siehe EvaSys-Editor links oben) können zusammenfassende Ergebnisberichte über mehrere

Mehr

TechNote: Exchange Journaling aktivieren

TechNote: Exchange Journaling aktivieren Produkt: Kurzbeschreibung: NetOrchestra MA Emailarchivierung Exchange Journaling aktivieren Diese Anleitung hilft Ihnen, das nachfolgend geschilderte Problem zu beheben. Dazu sollten Sie über gute bis

Mehr

Ersatzteile der Extraklasse Magento-Module der Shopwerft

Ersatzteile der Extraklasse Magento-Module der Shopwerft Ersatzteile der Extraklasse Magento-Module der Shopwerft MicroStudio - Fotolia.com E-Mails sind für Online-Shops ein zentrales Mittel in der Kundenkommunikation. Zur Abwicklung von Bestellungen werden

Mehr

Ferienkürzung Merkblatt des Personalamtes

Ferienkürzung Merkblatt des Personalamtes Seite 1 Ferienkürzung Merkblatt des Personalamtes 79 Abs. 3 VVO Bei unbezahltem Urlaub wird der Ferienanspruch für jeden vollen Monat der Abwesenheit um einen Zwölftel gekürzt. Bei vollständiger Dienstaussetzung

Mehr

Data-Mining Aufspüren von Mustern mit Hilfe von Entscheidungsbäumen

Data-Mining Aufspüren von Mustern mit Hilfe von Entscheidungsbäumen Hausarbeit Im Rahmen des Seminars Datenanalyse Thema: Data-Mining Aufspüren von Mustern mit Hilfe von Entscheidungsbäumen Seminarleiter: Dr. Siegbert Klinke Humboldt-Universität zu Berlin Abteilung Statistik

Mehr

Data Cube. Aggregation in SQL. Beispiel: Autoverkäufe. On-line Analytical Processing (OLAP) 1. Einführung. 2. Aggregation in SQL, GROUP BY

Data Cube. Aggregation in SQL. Beispiel: Autoverkäufe. On-line Analytical Processing (OLAP) 1. Einführung. 2. Aggregation in SQL, GROUP BY Data Cube On-line Analytical Processing (OLAP). Einführung Ziel: Auffinden interessanter Muster in großen Datenmengen 2. Aggregation in SQL, GROUP BY 3. Probleme mit GROUP BY 4. Der Cube-Operator! Formulierung

Mehr

Zimmertypen. Zimmertypen anlegen

Zimmertypen. Zimmertypen anlegen Zimmertypen anlegen Hier legen Sie Ihre Zimmer an, damit sie auf der Homepage dargestellt werden und online buchbar gemacht werden können. Wobei wir ausdrücklich darauf hinweisen möchten, dass es ganz

Mehr

Preisaktualisierungen via BC Pro-Catalogue

Preisaktualisierungen via BC Pro-Catalogue Preisaktualisierungen via BC Pro-Catalogue 1. Allgemein Seite 1 2. Anwendungsfall : Lieferant mit im System bereits vorhandenen Katalog Seite 2-3 3. Anwendungsfall : Neuer Lieferant Seite 4-8 1. Allgemein

Mehr

Carl-Engler-Schule Karlsruhe Datenbank 1 (5)

Carl-Engler-Schule Karlsruhe Datenbank 1 (5) Carl-Engler-Schule Karlsruhe Datenbank 1 (5) Informationen zur Datenbank 1. Definition 1.1 Datenbank-Basis Eine Datenbank-Basis ist eine Sammlung von Informationen über Objekte (z.b Musikstücke, Einwohner,

Mehr

Überwachtes Lernen: Klassifikation und Regression

Überwachtes Lernen: Klassifikation und Regression Überwachtes Lernen: Klassifikation und Regression Praktikum: Data Warehousing und Data Mining Klassifikationsprobleme Idee Bestimmung eines unbekannten kategorischen Attributwertes (ordinal mit Einschränkung)

Mehr

Relationale Datenbanken Datenbankgrundlagen

Relationale Datenbanken Datenbankgrundlagen Datenbanksystem Ein Datenbanksystem (DBS) 1 ist ein System zur elektronischen Datenverwaltung. Die wesentliche Aufgabe eines DBS ist es, große Datenmengen effizient, widerspruchsfrei und dauerhaft zu speichern

Mehr

Bedingungen. Bedingungen. Bedingungen

Bedingungen. Bedingungen. Bedingungen Oftmals ist das Arbeiten mit notwendig. Dabei können sich die auf Formatierungen beziehen, aber auch auf Transformationen. Bedingte Formatierung Datentransformation 24.04.2006 Einführung in Excel 91 24.04.2006

Mehr

Statistik II für Betriebswirte Vorlesung 3

Statistik II für Betriebswirte Vorlesung 3 PD Dr. Frank Heyde TU Bergakademie Freiberg Institut für Stochastik Statistik II für Betriebswirte Vorlesung 3 5. November 2013 Beispiel: Aktiensplit (Aczel & Sounderpandan, Aufg. 14-28) Ein Börsenanalyst

Mehr

Künstliche Intelligenz Maschinelles Lernen

Künstliche Intelligenz Maschinelles Lernen Künstliche Intelligenz Maschinelles Lernen Stephan Schwiebert WS 2009/2010 Sprachliche Informationsverarbeitung Institut für Linguistik Universität zu Köln Maschinelles Lernen Überwachtes Lernen Unüberwachtes

Mehr

Rückblick. Entscheidungsunterstützende Systeme / Kapitel 4: Klassifikation

Rückblick. Entscheidungsunterstützende Systeme / Kapitel 4: Klassifikation Rückblick k-nächste Nachbarn als distanzbasiertes Verfahren zur Klassifikation benötigt sinnvolles Distanzmaß und weist vorher unbekanntem Datenpunkt dann die häufigste Klasse seiner k nächsten Nachbarn

Mehr

Willkommen zur Vorlesung Statistik

Willkommen zur Vorlesung Statistik Willkommen zur Vorlesung Statistik Thema dieser Vorlesung: Varianzanalyse Prof. Dr. Wolfgang Ludwig-Mayerhofer Universität Siegen Philosophische Fakultät, Seminar für Sozialwissenschaften Prof. Dr. Wolfgang

Mehr

Informationen zur neuen DIN 66399

Informationen zur neuen DIN 66399 Informationen zur neuen DIN 66399 Vorbemerkung: Die DIN 32757 war eigentlich nie als Norm gedacht, an der sich die Dienstleister bei der Datenträger- und Aktenvernichtung orientieren sollten sondern sie

Mehr

Die Online-Bestandserhebung im LSB Niedersachsen

Die Online-Bestandserhebung im LSB Niedersachsen Die Online-Bestandserhebung im LSB Niedersachsen Ab der Version 5 bietet pro-winner in der Mitgliederverwaltung unter Extras die DOSB- Schnittstelle (DOSB-Bestandsmeldung) an, mit der die im Programm generierte

Mehr