Sommersemester 2013. Analytisches CRM. Prozess und Methoden. Prof. Dr. Klaus D. Wilde. Lehrstuhl für ABWL und Wirtschaftsinformatik



Ähnliche Dokumente
Sommersemester Analytisches CRM. Prozess und Methoden. Prof. Dr. Klaus D. Wilde. Lehrstuhl für ABWL und Wirtschaftsinformatik

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Korrelation - Regression. Berghold, IMI

Profil A 49,3 48,2 50,7 50,9 49,8 48,7 49,6 50,1 Profil B 51,8 49,6 53,2 51,1 51,1 53,4 50, ,5 51,7 48,8

Fortgeschrittene Statistik Logistische Regression

Varianzanalyse (ANOVA: analysis of variance)

Quantitative Methoden der Bildungsforschung

2. Deskriptive Statistik 2.1. Häufigkeitstabellen, Histogramme, empirische Verteilungsfunktionen

Voraussetzung wieder: Datenraum mit Instanzen, mehrere Attribute - kein ausgezeichnetes Zielattribut, keine vorgegebenen Klassen

Grundlagen der Inferenzstatistik

Neuronale Netze (I) Biologisches Neuronales Netz

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

9. Schätzen und Testen bei unbekannter Varianz

Bachelorabschlussseminar Dipl.-Kfm. Daniel Cracau

90-minütige Klausur Statistik für Studierende der Kommunikationswissenschaft

Auswertung mit dem Statistikprogramm SPSS:

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Einfache Varianzanalyse für abhängige

Multiple Regression. Ziel: Vorhersage der Werte einer Variable (Kriterium) bei Kenntnis der Werte von zwei oder mehr anderen Variablen (Prädiktoren)

Willkommen zur Vorlesung Statistik

Einführung in statistische Analysen

6. Bayes-Klassifikation. (Schukat-Talamazzini 2002)

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

5 Zusammenhangsmaße, Korrelation und Regression

Clustering Seminar für Statistik

Data Mining: Einige Grundlagen aus der Stochastik

Statistik II für Betriebswirte Vorlesung 2

Zusammenhänge zwischen metrischen Merkmalen

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Statistik II Wahrscheinlichkeitsrechnung und induktive Statistik Erste Klausur zum Sommersemester Juli 2005

Tiefgreifende Prozessverbesserung und Wissensmanagement durch Data Mining

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

1 Mathematische Grundlagen

Data Mining und maschinelles Lernen

Korrelation (II) Korrelation und Kausalität

Überblick über die Verfahren für Ordinaldaten

Analog zu Aufgabe 16.1 werden die Daten durch folgenden Befehl eingelesen: > kredit<-read.table("c:\\compaufg\\kredit.

Einführung. Vorlesungen zur Komplexitätstheorie: Reduktion und Vollständigkeit (3) Vorlesungen zur Komplexitätstheorie. K-Vollständigkeit (1/5)

Interne und externe Modellvalidität

Kontingenzkoeffizient (nach Pearson)

Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

Umsetzung der Anforderungen - analytisch

50. Mathematik-Olympiade 2. Stufe (Regionalrunde) Klasse Lösung 10 Punkte

26. GIL Jahrestagung

Planen mit mathematischen Modellen 00844: Computergestützte Optimierung. Autor: Dr. Heinz Peter Reidmacher

Universität Bonn 28. Juli 2010 Fachbereich Rechts- und Wirtschaftswissenschaften Statistische Abteilung Prof. Dr. A. Kneip. KLAUSUR Statistik B

Binäre abhängige Variablen

Auswerten mit Excel. Viele Video-Tutorials auf Youtube z.b.

Entscheidungsunterstützungssysteme

Anhand des bereits hergeleiteten Models erstellen wir nun mit der Formel

Cross-Selling bei Versicherungen. Empirische Analyse zu Status quo, Trends und zukünftigen Anforderungen

Stichprobenauslegung. für stetige und binäre Datentypen

Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER

OECD Programme for International Student Assessment PISA Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

Das Dialogfeld für die Regressionsanalyse ("Lineare Regression") findet sich im Statistik- Menu unter "Regression"-"Linear":

Bestandskundenmanagement Wo drückt bei Ihnen der Schuh?

Lineare Gleichungssysteme I (Matrixgleichungen)

Prüfung eines Datenbestandes

Einführung in neuronale Netze

Pfadanalyse. 1. Grundlegende Verfahren. Bacher, SoSe2007

Virtual Roundtable: Business Intelligence - Trends

Unsere vier hilfreichsten Tipps für szenarienbasierte Nachfrageplanung

Name (in Druckbuchstaben): Matrikelnummer: Unterschrift:

Statistik I für Betriebswirte Vorlesung 5

Weitere Fragestellungen im Zusammenhang mit einer linearen Einfachregression

Künstliche Intelligenz Maschinelles Lernen

Business Intelligence

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Repetitorium zum Staatsexamen für Lehramtsstudenten. Informationswirtschaft & Planung und Entscheidung NB-201. Sommersemester 2014

Exploration und Klassifikation von BigData

Excel Fortgeschrittene Techniken. Peter Wies. 1. Ausgabe, März 2013 EX2013F

Ishikawa-Diagramm. 1 Fallbeispiel 2. 2 Was ist ein Ishikawa-Diagramm 2. 3 Vorgehen bei der Erstellung eines Ishikawa-Diagramms 2.

Einfache statistische Auswertungen mit dem Programm SPSS

Analyse von Querschnittsdaten. Regression mit Dummy-Variablen

Zeichen bei Zahlen entschlüsseln

In konstanten Modellen wird davon ausgegangen, dass die zu prognostizierende Größe sich über die Zeit hinweg nicht verändert.

Angewandte Ökonometrie, WS 2012/13, 1. Teilprüfung am Lösungen. Das folgende Modell ist ein GARCH(1,1)-Modell:

Künstliches binäres Neuron

Aufgabe 1. Zunächst wird die allgemeine Tangentengleichung in Abhängigkeit von a aufgestellt:

PRAKTIKUM Experimentelle Prozeßanalyse 2. VERSUCH AS-PA-2 "Methoden der Modellbildung statischer Systeme" Teil 2 (für ausgewählte Masterstudiengänge)

Tangentengleichung. Wie lautet die Geradengleichung für die Tangente, y T =? Antwort:

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.

Data Mining Anwendungen und Techniken

Abb. 30: Antwortprofil zum Statement Diese Kennzahl ist sinnvoll

Lineare Funktionen. 1 Proportionale Funktionen Definition Eigenschaften Steigungsdreieck 3

a) Zeichnen Sie in das nebenstehende Streudiagramm mit Lineal eine Regressionsgerade ein, die Sie für passend halten.

UNIVERSITÄT LEIPZIG WIRTSCHAFTSWISSENSCHAFTLICHE FAKULTÄT DIPLOM-PRÜFUNG

Theoretische Grundlagen der Informatik WS 09/10

Welche Lagen können zwei Geraden (im Raum) zueinander haben? Welche Lagen kann eine Gerade bezüglich einer Ebene im Raum einnehmen?

Statistische Auswertung:

Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, am:

Risikodiversifikation. Birgit Hausmann

Transkript:

Sommersemester 2013 Analytisches CRM Prozess und Methoden Lehrstuhl für ABWL und Wirtschaftsinformatik Katholische Universität Eichstätt-Ingolstadt

Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse

Literatur 3 Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R. (2006): Multivariate Analysemethoden Eine anwendungsorientierte Einführung,11. Aufl., Berlin. Berry, M. J. A.; Linoff, G. S. (2000): Mastering Data Mining The Art and Science of Customer Relationship Management, New York. Blattberg, R. C.; Kim, B. D.; Neslin, S. A. (2008): Database Marketing, Analyzing and Managing Customers, New York. Hippner, H.; Hubrich, B.; Wilde, K. D. (Hrsg.) (2011): Grundlagen des CRM. Strategie, Geschäftsprozesse und IT-Unterstützung, 3. Aufl., Wiesbaden. Hippner, H., Küsters, U., Meyer, M., Wilde, K. D. (2001): Handbuch Data Mining im Marketing Knowledge Discovery in Marketing Databases, Wiesbaden.

Einführung Curriculum 4 Grundlagen des CRM (Wintersemester) Analytisches CRM (Sommersemester) Datenbanken & Data Warehouse (Sommersemester) CRM IT-Systeme (Sommersemester) CRM in der Praxis (Wintersemester) Das Master-Modul Analytische CRM besteht aus den Veranstaltungen Prozess und Methoden und Anwendungen Gesonderte Anmeldung für beide Veranstaltungen per KU-Campus erforderlich. Vorlesung Prozess und Methoden jeweils 105 Minuten (12:15-14:00) bis 25.06.2013 Übung Anwendungen beginnt am 25.06.2013 nach der Vorlesung

Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse

Operatives und analytisches CRM Definition 6 Customer Relationship Management (CRM) versucht mit Hilfe moderner Informations- und Kommunikationstechnologien, auf lange Sicht profitable Kundenbeziehungen durch ganzheitliche und individuelle Marketing-, Salesund Servicekonzepte aufzubauen und zu festigen. Zentrale Gestaltungsbereiche des CRM sind die Entwicklung der Strategie für das Management von Kundenbeziehungen (CRM-Strategie) die Ausrichtung aller kundenbezogenen Geschäftsprozesse auf die Erfordernisse dieser CRM-Strategie die Unterstützung dieser kundenbezogenen Geschäftsprozesse durch geeignete IT-Systeme, in Form einer Zusammenführung aller kundenbezogenen Daten (Datenintegration, One Face of the Customer ) kundenindividuelle Ausrichtung und Synchronisation der Kundenansprache (Prozessintegration, One Face to the Customer )

Operatives und analytisches CRM Kernprozesse im CRM 7 Kundenwertanalyse Übergreifende Prozesse Kundensegmentierung Kundencharakterisierung Strategische Zielsetzung Strategische Analyse Vision Umfeldanalyse Ressourcenanalyse SWOT- Analyse Strategische Konzeption Strategie Entwicklung Zielgruppenanalyse Maßnahmenspezifische Prozesse Cross-Selling- Analyse Abwanderungsanalyse Analytische CRM-Prozesse Kundenrisikoanalyse Operative CRM-Prozesse Strategischer CRM-Prozess Marketing -Prozesse Sales-Prozesse Leistungs- Service-Prozesse erstellung Kampagne Lead Opportunity Angebot Auftrag Strategie Umsetzung Strategisches Controlling Ergebnis Controlling Prozess Controlling Feedback Support

Operatives und analytisches CRM Architektur von CRM-Systemen 8 Marketing- Prozesse Sales- Prozesse Service- Prozesse Back Office Enterprise Ressource Planning Supply Chain Management Interaktionskanäle Customer Touch Points CRM- Anwendungen Basis- Anwendungen Operative CRM-Systeme Analytische CRM-Systeme Pers. Kontakt WWW E-Mail Telefon Brief/Fax Etc. Außendienst Innendienst CIC Filiale Website Stammdaten Data Mining Operative Kundendatenbank Data Warehouse OLAP In Anlehnung an: Leußer, W.; Hippner, H.; Wilde, K. D. (2011): CRM Grundlagen, Konzepte und Prozesse, in: Hippner et al. 2011, S. 44-47. Etc. Kampagne Opportunity Feedback Lead Angebot/Auftrag Support Aktivitäten Kontakt Eskalation Workflow

Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse

Kundendaten Inhalte von Kundendaten 10 Identifikationsdaten Daten zur Identifikation des individuellen Kunden. Umfassen Identifikationsdaten i.e.s. (Kundennummer, Name, Vorname, Anrede, Akademische Titel) auch Adress- und Kontaktdaten, um die Erreichbarkeit des Kunden zu sichern. Deskriptionsdaten Daten zur Beschreibung geschäftsrelevanter Eigenschaften individueller Kunden (Kundenprofil) und ihres sozialen Umfeldes (Soziografie). Transaktionsdaten Daten zur Dokumentation aller Transaktionen, die innerhalb einer Kundenbeziehung stattfinden. Dazu gehören neben den Kaufakten des Kunden (Kaufhistorie) alle vor- und nachgelagerten Kommunikations-Episoden zwischen Unternehmen und Kunden (Kontakthistorie) sowie Daten über das Produktnutzungsverhalten des Kunden.

Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse

Data Warehouse und OLAP Data Warehouse 12 Begriffsbestimmung Datenbank, die aus der technischen Sicht Daten aus verschiedenen Datenquellen integriert und aus der betriebswirtschaftlichen Sicht dem Anwender diese Daten zu Analysezwecken zur Verfügung stellt (Bauer/Günzel 2004, S. 5). Datenbank, die als unternehmensweite Datenbasis für alle Ausprägungen managementunterstützender Systeme dient und durch eine strikte Trennung von operationalen und entscheidungsunterstützenden Daten und Systemen gekennzeichnet ist (Mucksch/Behme 2000, S. 6). Bauer, A.; Günzel, H. (2004): Data Warehouse Systeme, 2. Aufl., Heidelberg. Mucksch, H.; Behme, W. (2000): Das Data Warehouse-Konzept als Basis einer unternehmensweiten Informationslogistik, in: Mucksch, H.; Behme, W. (Hrsg.): Das Data Warehouse-Konzept, 4. Aufl., Wiesbaden, S. 3-80. Bange, C. (2006): Werkzeuge für analytische Informationssysteme. In: Chamoni, P.; Gluchowski, P. (Hg.): Analytische Informationssysteme Business Intelligence-Technologien und -Anwendungen, 3. Aufl., Berlin [u.a.], S. 89-110.

Data Warehouse und OLAP OLAP (Online Analytical Processing) 13 Begriffsbestimmung und Aufbau OLAP wurde 1993 von Codd/Codd/Salley konzipiert als innovativer Analyseansatz [ ], der eine dynamische Analyse in multi-dimensionalen Datenräumen ermöglichen sollte (Kemper et al. 2006, S. 93). OLAP ist im Gegensatz zu OLTP (Online Transaction Processing) nicht auf die Unterstützung operativer Geschäftsprozesse zugeschnitten, sondern ermöglicht Fachund Führungskräften dynamische und multidimensionale Analysen auf historischen und konsolidierten Datenbeständen (Gluchowski et al. 1997, S. 282; Gluchowski/Chamoni 2006, S. 145). OLAP-Tabellen oder Würfel (Hypercubes) bilden ausgewählte Kennzahlen (Fakten) nach ausgewählten Gliederungskriterien (Dimensionen) aus dem DWH ab. Codd, E.; Codd, S. B.; Salley, C. T. (1993): Providing OLAP to User-Analysts: An IT Mandate. http://www.minet.uni-jena.de/dbis/lehre/ss2005/sem_dwh/lit/cod93.pdf (Zugriff: 21.06.2009). Gluchowski, P.; Chamoni, P. (2006): Entwicklungslinien und Architekturkonzepte des On-Line Analytical Processing, in: Chamoni, P.; Gluchowski, P. (Hrsg.): Analytische Informationssysteme Business Intelligence-Technologien und -Anwendungen, 3. Aufl., Berlin u. a., S. 143-176. Gluchowski, P.; Gabriel, R.; Chamoni, P. (1997): Management-Support- Systeme Computergestützte Informationssysteme für Führungskräfte und Entscheidungsträger, Berlin u. a. Kemper, H.-G.; Mehanna, W.; Unger, C. (2006): Business Intelligence Grundlagen und praktische Anwendungen: Eine Einführung in die IT-basierte Managementunterstützung, 2. Aufl., Wiesbaden.

Data Warehouse und OLAP OLAP (Online Analytical Processing) 14 OLAP Werkzeuge

Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse

Gegenstand des Data Mining Definition 16 Data Mining nimmt Bezug auf ein Bild aus dem Bergbau (Mining). Dort werden mit massivem Technikeinsatz riesige Gesteinsmengen maschinell abgebaut und aufbereitet, um Edelmetalle und Edelsteine zu fördern. Analog werden beim Data Mining riesige Datenberge mit modernsten Techniken nach neuen, interessanten Mustern ( Nuggets ) durchsucht. Data Mining ist die automatisierte Analyse umfangreicher Datenbestände mit dem Ziel, neue, generalisierbare und handlungsrelevante Strukturen zu erkennen. Hippner, H., Grieser, L., Wilde, K.D. (2011): Data Mining Grundlagen und Einsatzpotenziale in analytischen CRM-Prozessen, in: Hippner, H., Hubrich, B., Wilde, K.D. (Hrsg.): Grundlagen des CRM, 3. Aufl., Wiesbaden, S. 783-810

Gegenstand des Data Mining Methoden 17 Problemtypen des Data Mining Vielzahl von Methoden aus unterschiedlichen Forschungstraditionen : Mathematik, Informatik, Statistik, Künstliche Intelligenz, Neurobiologie In Anlehnung an Hippner, H., Grieser, L., Wilde, K.D. (2011): Data Mining Grundlagen und Einsatzpotenziale in analytischen CRM-Prozessen, in: Hippner, H., Hubrich, B., Wilde, K.D. (Hrsg.): Grundlagen des CRM, 3. Aufl., Wiesbaden, S. 783-810

Gegenstand des Data Mining Prozess 18 http://www.crisp-dm.org/process/index.htm

Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse

Data Mining-Werkzeuge Charakteristika und Anwendungsbeispiel 20 Charakteristika von Data Mining-Werkzeugen Dialogorientierte Unterstützung aller Prozessphasen Breites Methodenangebot für alle Aufgabenbereiche Anwendungsbeispiel Churn-Analyse (Life-Demo) IBM SPSS

Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse

Methoden des Data Mining Übersicht 22 Klassifikation Segmentierung Regression Abhängigkeit Neuronale Netze x x x x K & R-Bäume x x Clusteranalyse x Assoziationsanalyse x Lineare Regression x x Log. Regression x x

Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse

Künstliche Neuronale Netze Aufbau biologischer neuronaler Netze 24

Künstliche Neuronale Netze Aufbau künstlicher neuronaler Netze (KNN) 25

Künstliche Neuronale Netze Eingangs- und Aktivierungsfunktion 26 Eingangsfunktion (z. B. Skalarprodukt) ε = n j= 1 w j e j Aktivierungsfunktion (z. B. linear oder Identität) c = χε bzw. c = ε Konstante χ dient als Skalierungsfaktor

Künstliche Neuronale Netze Aktivierungsfunktionen 1/2 27 Verlaufsform Mathematische Beschreibung Graphische Darstellung Anmerkungen linear, unbegrenzt c = χ. ε + δ mit χ > 0; ε, δ R Mit χ = 1 und δ = 0 ergibt sich die Identitätsfunktion. Rampenfunktion (linear, begrenzt) β fallsε σ c = α fallsε σ ' χ ε + δ sonst mit β, α, ε, σ, σ, δ R Der untere Schwellenwert σ muss überschritten werden, bis eine Ausgabe erfolgt; ab σ erfolgt keine Änderung der Ausgabe mehr. Die Funktion ist nicht differenzierbar.

Künstliche Neuronale Netze Aktivierungsfunktionen 2/2 28 Verlaufsform Mathematische Beschreibung Graphische Darstellung Anmerkungen Schwellenwertfunktion (Treppenfunktion) Sigmoidfunktion β falls ε σ c = α sonst mit β, α, ε, σ R z.b. logistische Funktion: 1 c = δ ε 1 + e mit δ > 0; ε R oder Tangens Hyperbolicus: c = tanh(ε) mit ε R Beim Erreichen von σ erfolgt eine sprungartige Änderung der Aktivität. Hierdurch können Schwierigkeiten beim Lernvorgang hervorgerufen werden. Eingeschränkter Einsatzbereich, da keine kontinuierlichen Werte erzeugt werden können. Die Ausgabe konvergiert gegen α bzw. β. Tangens Hyperbolicus hat beim Lernverfahren Geschwindigkeitsvorteile gegenüber logistischer Funktion. Die Funktion ist differenzierbar (Voraussetzung für den Einsatz bestimmter Lernverfahren).

Künstliche Neuronale Netze Struktur eines KNN 29 Ausgangsmuster OUTPUT LAYER Eingangsmuster HIDDEN LAYERS INPUT LAYER

Künstliche Neuronale Netze Struktur eines KNN 30 INPUT LAYER HIDDEN LAYER OUTPUT LAYER w 14 = 3 4 w 48 = 1 1 w 24 = 7 8 5 Eingangs- muster 2 3 w 37 w w = 5 16 27 = 4 6 = 1 Verbindungsgewicht vom Neuron i zum Neuron j: 7 9 10 w ij Ausgangs- muster

Künstliche Neuronale Netze Lernverfahren 31 Lernen Überwachtes Lernen Lernen von Regeln aus Beispielen mit bekannter Lösung Unüberwachtes Lernen Lernen von Regeln aus dem Vergleich von Objekten

Künstliche Neuronale Netze 32 Grundprinzip überwachter Lernverfahren Ausgabe erwünschte Ausgabe verdeckte Schicht(en) Eingabemuster Ausgabeschicht Eingabeschicht Neuronales Netz Differenzvektor (teaching input)

Künstliche Neuronale Netze Grundprinzip überwachter Lernverfahren 33 Fehlerfunktion Skalares Maß für die Ähnlichkeit von Soll-/Istausgabe Beispiel: Summe der Abweichungsquadrate D = i i ( A j S j ) i j 2 Nichtlineare Optimierungsmethoden Minimierung der Fehlerfunktion in Abhängigkeit von w ij Gradientenmethoden, z. B. Backpropagation

Künstliche Neuronale Netze Grundprinzip unüberwachter Lernverfahren 34 Self-Organizing Maps (SOM) zur Segmentierung Jedes Eingangsneuron ist mit jedem Ausgangsneuron verbunden Gewinner Nachbarn 1 Datensätze anlegen 2 3 Gewichte anpassen Gewinner berechnen Gewinner-Neuron: minimale Distanz zwischen Inputvektor und Gewichtungsvektor des Neurons Gewichtsanpassung bei Nachbar-Neuronen: Anpassung in Richtung des Eingabemusters Input w i,10 (Input-w i,10 ) 2 Input w i,9 (Input-w i,9 ) 2 0,50 0,40 0,01 0,50 0,90 0,16 0,20 0,40 0,04 0,20 0,90 0,49 0,10 0,10 0,00 0,10 0,90 0,64 0,90 0,80 0,01 0,90 0,10 0,64 Summe 0,06 Summe 1,93 NEU ALT i w i,9 = 0,9 * w i,9 + 0,1 * Input 1 0,86 0,9 * 0,90 + 0,1 * 0,50 2 0,83 0,9 * 0,90 + 0,1 * 0,20 3 0,82 0,9 * 0,90 + 0,1 * 0,10 4 0,18 0,9 * 0,10 + 0,1 * 0,90

Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse

Klassifikations- und Regressionsbäume Aufgabe und Funktionsprinzip 36 Klassifikation: Zuordnung der Objekte zu vorgegebenen Klassen Regression: Schätzung einer intervallskalierten Zielgröße für ein Objekt Datenbasis: (abhängige) Zielgröße mehrere (unabhängige) erklärende Variablen Voraussetzung: bekannte (klassifizierte) Fälle Modellbildung: Umsetzung bekannter Fälle in Regeln Generalisierung: Regelanwendung auf neue Fälle

Klassifikations- und Regressionsbäume Beispiel Produktempfehlungen 37 Ein Produkt wird in zwei verschiedenen Ausführungen angeboten. Die exklusive und die Standard-Produktvariante werden jeweils von sechs Kunden präferiert. Bei zufälliger Auswahl des Produkts bei der Kundenansprache wird nur mit 50 % Wahrscheinlichkeit das richtige Produkt beworben. Ein Entscheidungsbaum kann helfen, die bevorzugte Produktvariante aus den bekannten Merkmalen zu erkennen. Nr. Geschlecht Alter Umsatz Produktvariante 1 männl. 20 mittel Exklusiv 2 weibl. 73 mittel Standard 3 weibl. 37 hoch Exklusiv 4 männl. 33 niedrig Standard 5 weibl. 48 hoch Exklusiv 6 männl. 29 mittel Exklusiv 7 weibl. 52 mittel Standard 8 männl. 42 niedrig Standard 9 männl. 61 mittel Standard 10 weibl. 30 mittel Exklusiv 11 weibl. 26 niedrig Standard 12 männl. 54 hoch Exklusiv

Klassifikations- und Regressionsbäume Beispiel Produktempfehlungen 38 Nr. Geschlecht Produktvar. Nr. Alter Produktvar. Nr. Umsatz Produktvar. 1 männl. Exklusiv 1 20 Exklusiv 3 hoch Exklusiv 6 männl. Exklusiv 11 26 Standard 5 hoch Exklusiv 12 männl. Exklusiv 6 29 Exklusiv 12 hoch Exklusiv 4 männl. Standard 10 30 Exklusiv 1 mittel Exklusiv 8 männl. Standard 4 33 Standard 6 mittel Exklusiv 9 männl. Standard 3 37 Exklusiv 10 mittel Exklusiv 3 weibl. Exklusiv 8 42 Standard 2 mittel Standard 5 weibl. Exklusiv 5 48 Exklusiv 7 mittel Standard 10 weibl. Exklusiv 7 52 Standard 9 mittel Standard 2 weibl. Standard 12 54 Exklusiv 4 niedrig Standard 7 weibl. Standard 9 61 Standard 8 niedrig Standard 11 weibl. Standard 2 73 Standard 11 niedrig Standard männlich/weiblich: Erfolgsquote 50 % Alter >/<= 40: Erfolgsquote 66 % Umsatz: Erfolgsquote 75 %

Klassifikations- und Regressionsbäume Beispiel Produktempfehlungen 39 Umsatz + Alter Erfolgsquote 100 % Optimierte Werbestrategie: Hoher Umsatz: Exklusive Variante Niedriger Umsatz: Standard-Produkt Mittlerer Umsatz: Alter <= 40: Exklusive Variante Alter > 40: Standard-Produkt Nr. Umsatz Alter Produktvar. 3 hoch 37 Exklusiv 5 hoch 48 Exklusiv 12 hoch 54 Exklusiv 1 mittel 20 Exklusiv 6 mittel 29 Exklusiv 10 mittel 30 Exklusiv 7 mittel 52 Standard 9 mittel 61 Standard 2 mittel 73 Standard 11 niedrig 26 Standard 4 niedrig 33 Standard 8 niedrig 42 Standard

Klassifikations- und Regressionsbäume Beispiel Produktempfehlungen 40 Datenbasis 6 x Exklusive Variante 6 x Standard-Produkt Umsatz: hoch Umsatz: mittel Umsatz: niedrig 3 x Exklusive Variante 0 x Standard-Produkt Alter <= 40 3 x Exklusive Variante 0 x Standard-Produkt Abbildung durch Regeln: 3 x Exklusive Variante 3 x Standard-Produkt Alter > 40 0 x Exklusive Variante 3 x Standard-Produkt 0 x Exklusive Variante 3 x Standard-Produkt IF (Bedingung 1) AND... AND (Bedingung r) THEN Klasse = C

Klassifikations- und Regressionsbäume Bestandteile: Knoten und Kanten 41 Datenbasis 6 x Medikament Exklusive Variante A 6 x Standard-Produkt Medikament B Wurzel = Knoten ohne Vorgänger Blutdruck: Umsatz: hoch 3 x Medikament Exklusive Variante A 0 x Standard-Produkt Medikament B Blutdruck: Umsatz: normal mittel 3 x Medikament Exklusive Variante A 3 x Standard-Produkt Medikament B Blutdruck: Umsatz: niedrig 0 x Medikament Exklusive Variante A 3 x Standard-Produkt Medikament B Innerer Knoten = Knoten mit Vorgänger und Nachfolger; bestimmt die Aufspaltung der enthaltenen Objekte Alter <= 40 3 x Medikament Exklusive Variante A 0 x Medikament Standard-Produkt B Alter > 40 0 x Medikament Exklusive Variante A 3 x Medikament Standard-Produkt B Kante = Verbindung zwischen Knoten Blatt = Knoten ohne Nachfolger; jedem Blatt wird eine Klassenbezeichnung zugeordnet

Klassifikations- und Regressionsbäume Begriffe und Eigenschaften 42 Begriffe: Split Aufteilung in Untermengen Homogener Knoten enthält nur Objekte einer Klasse Binärbaum 2er-Splits pro Knoten Klassifikationsbaum ordinale/nominale Zielgröße Regressionsbaum metrische Zielgröße Eigenschaften: Leichte Verständlichkeit und Interpretierbarkeit Intervallweise Abbildung nichtlinearer Relationen Regeln können sehr komplex werden: Maßnahmen zur Komplexitätsreduktion Stopp-Kriterien Pruning-Strategien

Klassifikations- und Regressionsbäume Beispiel Kündigeranalyse (Klassifikationsbaum) 43 Kundenbasis 5000 Kündiger (50,0%) 5000 Nicht-Kündiger (50,0%) Letzte Bestellung < 6 Monate 3000 Kündiger (37,5%) 5000 Nicht-Kündiger (62,5%) Letzte Bestellung > 6 Monate 2000 Kündiger (100,0%) 0 Nicht-Kündiger (0,0%) Kunde seit > 3 Jahren 500 Kündiger (11,1%) 4000 Nicht-Kündiger (88,9%) Alter <= 40 Jahre 2000 Kündiger (100,0%) 0 Nichtkündiger (0,0%) Kunde seit < 3 Jahren 2500 Kündiger (71,4%) 1000 Nicht-Kündiger (28,6%) Alter > 40 Jahre 500 Kündiger (33,3%) 1000 Nicht-Kündiger (66,7%)

Klassifikations- und Regressionsbäume Beispiel Kundenwertprognose (Regressionsbaum) 44 Kundenbasis 10000 Kunden 1018 Durchschnittsumsatz Letzte Bestellung < 6 Monate 8000 Kunden 1222 Durchschnittsumsatz Letzte Bestellung > 6 Monate 2000 Kunden 200 Durchschnittsumsatz Kunde seit > 3 Jahren 4500 Kunden 1500 Durchschnittsumsatz Alter <= 40 Jahre 2000 Kunden 800 Durchschnittsumsatz Kunde seit < 3 Jahren 3500 Kunden 864 Durchschnittsumsatz Alter > 40 Jahre 1500 Kunden 950 Durchschnittsumsatz

Klassifikations- und Regressionsbäume Vorgehensweise 45 1. Start: alle Objekte befinden sich in einem Knoten 2. Suche nach dem besten Klassifikationsmerkmal 3. Klassifizierung der Objekte nach diesem Merkmal 4. Rekursive Anwendung der Schritte 2 und 3 bis zum Stopp 5. Nachträgliches Zurückschneiden des Baumes (Pruning)

Klassifikations- und Regressionsbäume Attributwahl 46 Objektmenge: 1 1 0 1 0 0 1 0 1 0 Split A: generell 20 % Fehler 1 1 1 0 1 0 1 0 0 0 Split B: je nach Gruppe 0 oder 29 % Fehler 1 1 1 1 0 0 1 0 0 0 Was ist besser? Festlegung eines Fehlermaßes

Klassifikations- und Regressionsbäume Attributwahl Gini-Index 47 Minimierung der Heterogenität Wahrscheinlichkeit, bei Stichprobe n=2 Objekte aus unterschiedlichen Klassen zu erhalten: 1 - p (0,0) - p (1,1) = 1 - p(0)² - p(1)² Minimum = 0,0: alle Objekte aus einer Klasse Maximum = 0,5: Objekte zweier Klassen gleich häufig Beispiel Anzahl: 30 Kündiger 70 Nicht-Kündiger p: 30/100 = 0,3 70/100 = 0,7 Gini-Index = 1-0,3² - 0,7² = 0,42

Klassifikations- und Regressionsbäume Attributwahl Gini-Index 48 Berechnung der Heterogenität in einem Split: Split A: 0 0 0 0 1 0 1 1 1 1 Split B: 1 1 1 1 1 0 0 0 0 0 (A, links) = 0,32 (A, rechts) = 0,32 (B, links) = 0,49 (B, rechts) = 0,0 Gewichteter Durchschnitt A: 0,32 B: 0,44 A wird bevorzugt!

Klassifikations- und Regressionsbäume Weitere Heterogenitätsmaße 49 Chi-Quadrat-Test Klassifikationsprobleme Maß für die Abhängigkeit zwischen Merkmal und Zielgröße Auswahl des Merkmals mit dem höchsten Chi-Quadrat-Signifikanzwert Aufbau des Chi-Quadrat-Unabhängigkeitstests http://de.wikipedia.org/wiki/chi-quadrat-test#vorgehensweise_2 (Zugriff: 05.05.2009)

Klassifikations- und Regressionsbäume Weitere Heterogenitätsmaße 50 F-Test Regressionsprobleme Test auf Signifikanz von Mittelwert-Unterschieden in Stichproben Auswahl des Merkmals mit der höchsten Signifikanz der Mittelwert-Unterschiede Aufbau des F-Tests http://de.wikipedia.org/wiki/varianzanalyse#mathematisches_modell (Zugriff: 05.05.2009)

Klassifikations- und Regressionsbäume Stopp-Kriterien 51 Natürliche Stopp-Kriterien Knoten enthält nur Objekte mit dem gleichen Wert der Zielvariablen Alle Testmerkmale ausgeschöpft Weitere Stopp-Kriterien Minimale Objektzahl je Knoten (absolut/prozentual) Grenzwert für Verbesserung der Homogenität Maximale Baumtiefe

Klassifikations- und Regressionsbäume Pruning 52 Vereinfachung komplexer Bäume Einfachheit Overfitting/Generalisierungsfähigkeit Top-Down-Pruning: Stopp-Kriterien bei Baumerstellung Bottom-Up-Pruning: Nachträgliches Stutzen Pruning von Splits mit geringem Homogenitäts-Beitrag Pruning zur Beseitigung von Overfitting Überprüfung anhand von Validierungsdaten Baumteile ohne nennenswerten Klassifikations-Beitrag auf Validierungsdaten werden zurückgeschnitten.

Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse

Clusteranalyse Aufgabe der Clusteranalyse 54 Segmentierung Bildung möglichst homogener Gruppen aus einer Gesamtheit von Objekten Objekte innerhalb der Gruppen möglichst ähnlich Gruppen untereinander möglichst unterschiedlich Anzahl und Eigenschaften der Gruppen sind zu Beginn nicht bekannt

Clusteranalyse Beispiel Kundensegmentierung 55 Serviceanspruch Trittbrettfahrer Premium-Kunden Asketen Graue Mäuse Zahlungsbereitschaft

Clusteranalyse Beispiel Kundensegmentierung Mobilkommunikation 56 Merkmale: Anzahl der Gespräche pro Woche Dauer der Gespräche Zeitpunkt (Geschäftszeit, Wochenende,...) Inland-/Auslandsgespräch,... Charakterisierung der Kundengruppe durch typische Merkmalsausprägungen und charakteristische Bezeichnung: Wochenendtelefonierer, Geschäftsreisender-Inland,...

Clusteranalyse Proximitätsmaße 57 Proximitätsmaß quantifiziert die Ähnlichkeit oder die Unähnlichkeit von Objekten Proximitätsmaß überführt Rohdatenmatrix in eine Ähnlichkeits- oder Distanzmatrix Ähnlichkeitsmaß: je höher desto größer die Ähnlichkeit Distanzmaß: je höher desto kleiner die Ähnlichkeit

Clusteranalyse Proximitätsmaße 58 Rohdatenmatrix Merkmal 1 Merkmal 2... Merkmal J Objekt 1 Objekt 2... Objekt K Ähnlichkeits- oder Distanzmatrix Objekt 1 Objekt 2... Objekt K Objekt 1 Objekt 2... Objekt K

Clusteranalyse Proximitätsmaße 59 Proximitätsmaße Metrische Skalen Nominal-Skalen Q-Korrelationskoeffizient City-Block- Metrik Tanimoto- Koeffizient M-Koeffizient Euklidische Distanz Distanzmaße Ähnlichkeitsmaß RR-Koeffizient Ähnlichkeitsmaße

Clusteranalyse Proximitätsmaße für metrische Skalen 60 City-Block-Metrik Rohdaten Objekt 1 Objekt 2 M 1 M 2 M 3 1 2 1 2 3 3 d = 1-2 + 2-3 + 1-3 = 1 + 1 + 2 = 4 (Quadrierte) Euklidische Distanz d d = d 2 = 1 2 2 + 1 = 2 1 + 2 2 2 + 1 2 = 6 + 2 2 = 2,45

Clusteranalyse Proximitätsmaße für metrische Skalen 61 Q-Korrelationskoeffizient Ähnlichkeit = Korrelation der Merkmalsprofile der Objekte Rohdaten Objekt 1 Objekt 2 Objekt 3 Objekt 4 M 1 M 2 M 3 1 2 1 3 2 1 6 7 6 2 1 2 1 2 3 4 Korrelation zwischen Wertevektoren 1 2 3 4 1,000,000 1,000-1,000,000 1,000,000,000 1,000,000 1,000-1,000-1,000,000-1,000 1,000 Identischer Profilverlauf Korrelation = 1 Entgegengesetzter Profilverlauf Korrelation = -1

Clusteranalyse Wahl des Proximitätsmaßes 62 Entscheidender Einfluss auf die Ähnlichkeit der Objekte Abhängig vom Untersuchungsgegenstand: Sind die Profilverläufe von Interesse? z. B. Umsatzentwicklung Q-Korrelationskoeffizient Interessiert der absolute Abstand? z. B. Umsatzhöhe City-Block, Euklid Metrische Skalen Standardisierung der Merkmale Keine Maßstabsinvarianz der Proximitätsmaße

Clusteranalyse Nominale Skalen Grundlagen 63 Familienstand: ledig=1/verheiratet=2/geschieden=3 Umcodieren in Binärvariable für jede Ausprägung, da Ähnlichkeit nicht aus den Codierungen bestimmbar Familienstand: 3 neue Binärvariablen: ledig nein=0/ja=1 verheiratet nein=0/ja=1 geschieden nein=0/ja=1

Clusteranalyse Nominale Skalen Ähnlichkeit bei Binärvariablen 64 Ähnlichkeit abhängig von Merkmalsübereinstimmung Objekt 2 Eigenschaft vorhanden nicht vorhanden Objekt 1 Eigenschaft vorhanden nicht vorhanden a b Berechnung von Proximitätsmaßen aus a, b, c, d Implizite Gewichtung der Merkmale durch Anzahl der Binärmerkmale Gewichtung der Merkmale c d

Clusteranalyse Nominale Skalen Ähnlichkeit bei Binärvariablen 65 M 1 M 2 M 3 M 4 M 5 M 6 M 7 M 8 M 9 M 10 Objekt 1 Objekt 2 1 1 1 1 0 0 1 0 0 0 1 1 0 1 0 1 0 1 0 1 Objekt 1 Eigenschaft vorhanden nicht vorhanden Objekt 2 Eigenschaft vorhanden nicht vorhanden a=3 c=2 b=3 d=2

Clusteranalyse Nominale Skalen Ähnlichkeit bei Binärvariablen 66 Tanimoto-Koeffizient: a a + b + c Simple Matching (M)-Koeffizient: a + d a + b + c + d Russel & Rao (RR)-Koeffizient: a a + b + c + d