Sommersemester 2013 Analytisches CRM Prozess und Methoden Lehrstuhl für ABWL und Wirtschaftsinformatik Katholische Universität Eichstätt-Ingolstadt
Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse
Literatur 3 Backhaus, K.; Erichson, B.; Plinke, W.; Weiber, R. (2006): Multivariate Analysemethoden Eine anwendungsorientierte Einführung,11. Aufl., Berlin. Berry, M. J. A.; Linoff, G. S. (2000): Mastering Data Mining The Art and Science of Customer Relationship Management, New York. Blattberg, R. C.; Kim, B. D.; Neslin, S. A. (2008): Database Marketing, Analyzing and Managing Customers, New York. Hippner, H.; Hubrich, B.; Wilde, K. D. (Hrsg.) (2011): Grundlagen des CRM. Strategie, Geschäftsprozesse und IT-Unterstützung, 3. Aufl., Wiesbaden. Hippner, H., Küsters, U., Meyer, M., Wilde, K. D. (2001): Handbuch Data Mining im Marketing Knowledge Discovery in Marketing Databases, Wiesbaden.
Einführung Curriculum 4 Grundlagen des CRM (Wintersemester) Analytisches CRM (Sommersemester) Datenbanken & Data Warehouse (Sommersemester) CRM IT-Systeme (Sommersemester) CRM in der Praxis (Wintersemester) Das Master-Modul Analytische CRM besteht aus den Veranstaltungen Prozess und Methoden und Anwendungen Gesonderte Anmeldung für beide Veranstaltungen per KU-Campus erforderlich. Vorlesung Prozess und Methoden jeweils 105 Minuten (12:15-14:00) bis 25.06.2013 Übung Anwendungen beginnt am 25.06.2013 nach der Vorlesung
Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse
Operatives und analytisches CRM Definition 6 Customer Relationship Management (CRM) versucht mit Hilfe moderner Informations- und Kommunikationstechnologien, auf lange Sicht profitable Kundenbeziehungen durch ganzheitliche und individuelle Marketing-, Salesund Servicekonzepte aufzubauen und zu festigen. Zentrale Gestaltungsbereiche des CRM sind die Entwicklung der Strategie für das Management von Kundenbeziehungen (CRM-Strategie) die Ausrichtung aller kundenbezogenen Geschäftsprozesse auf die Erfordernisse dieser CRM-Strategie die Unterstützung dieser kundenbezogenen Geschäftsprozesse durch geeignete IT-Systeme, in Form einer Zusammenführung aller kundenbezogenen Daten (Datenintegration, One Face of the Customer ) kundenindividuelle Ausrichtung und Synchronisation der Kundenansprache (Prozessintegration, One Face to the Customer )
Operatives und analytisches CRM Kernprozesse im CRM 7 Kundenwertanalyse Übergreifende Prozesse Kundensegmentierung Kundencharakterisierung Strategische Zielsetzung Strategische Analyse Vision Umfeldanalyse Ressourcenanalyse SWOT- Analyse Strategische Konzeption Strategie Entwicklung Zielgruppenanalyse Maßnahmenspezifische Prozesse Cross-Selling- Analyse Abwanderungsanalyse Analytische CRM-Prozesse Kundenrisikoanalyse Operative CRM-Prozesse Strategischer CRM-Prozess Marketing -Prozesse Sales-Prozesse Leistungs- Service-Prozesse erstellung Kampagne Lead Opportunity Angebot Auftrag Strategie Umsetzung Strategisches Controlling Ergebnis Controlling Prozess Controlling Feedback Support
Operatives und analytisches CRM Architektur von CRM-Systemen 8 Marketing- Prozesse Sales- Prozesse Service- Prozesse Back Office Enterprise Ressource Planning Supply Chain Management Interaktionskanäle Customer Touch Points CRM- Anwendungen Basis- Anwendungen Operative CRM-Systeme Analytische CRM-Systeme Pers. Kontakt WWW E-Mail Telefon Brief/Fax Etc. Außendienst Innendienst CIC Filiale Website Stammdaten Data Mining Operative Kundendatenbank Data Warehouse OLAP In Anlehnung an: Leußer, W.; Hippner, H.; Wilde, K. D. (2011): CRM Grundlagen, Konzepte und Prozesse, in: Hippner et al. 2011, S. 44-47. Etc. Kampagne Opportunity Feedback Lead Angebot/Auftrag Support Aktivitäten Kontakt Eskalation Workflow
Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse
Kundendaten Inhalte von Kundendaten 10 Identifikationsdaten Daten zur Identifikation des individuellen Kunden. Umfassen Identifikationsdaten i.e.s. (Kundennummer, Name, Vorname, Anrede, Akademische Titel) auch Adress- und Kontaktdaten, um die Erreichbarkeit des Kunden zu sichern. Deskriptionsdaten Daten zur Beschreibung geschäftsrelevanter Eigenschaften individueller Kunden (Kundenprofil) und ihres sozialen Umfeldes (Soziografie). Transaktionsdaten Daten zur Dokumentation aller Transaktionen, die innerhalb einer Kundenbeziehung stattfinden. Dazu gehören neben den Kaufakten des Kunden (Kaufhistorie) alle vor- und nachgelagerten Kommunikations-Episoden zwischen Unternehmen und Kunden (Kontakthistorie) sowie Daten über das Produktnutzungsverhalten des Kunden.
Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse
Data Warehouse und OLAP Data Warehouse 12 Begriffsbestimmung Datenbank, die aus der technischen Sicht Daten aus verschiedenen Datenquellen integriert und aus der betriebswirtschaftlichen Sicht dem Anwender diese Daten zu Analysezwecken zur Verfügung stellt (Bauer/Günzel 2004, S. 5). Datenbank, die als unternehmensweite Datenbasis für alle Ausprägungen managementunterstützender Systeme dient und durch eine strikte Trennung von operationalen und entscheidungsunterstützenden Daten und Systemen gekennzeichnet ist (Mucksch/Behme 2000, S. 6). Bauer, A.; Günzel, H. (2004): Data Warehouse Systeme, 2. Aufl., Heidelberg. Mucksch, H.; Behme, W. (2000): Das Data Warehouse-Konzept als Basis einer unternehmensweiten Informationslogistik, in: Mucksch, H.; Behme, W. (Hrsg.): Das Data Warehouse-Konzept, 4. Aufl., Wiesbaden, S. 3-80. Bange, C. (2006): Werkzeuge für analytische Informationssysteme. In: Chamoni, P.; Gluchowski, P. (Hg.): Analytische Informationssysteme Business Intelligence-Technologien und -Anwendungen, 3. Aufl., Berlin [u.a.], S. 89-110.
Data Warehouse und OLAP OLAP (Online Analytical Processing) 13 Begriffsbestimmung und Aufbau OLAP wurde 1993 von Codd/Codd/Salley konzipiert als innovativer Analyseansatz [ ], der eine dynamische Analyse in multi-dimensionalen Datenräumen ermöglichen sollte (Kemper et al. 2006, S. 93). OLAP ist im Gegensatz zu OLTP (Online Transaction Processing) nicht auf die Unterstützung operativer Geschäftsprozesse zugeschnitten, sondern ermöglicht Fachund Führungskräften dynamische und multidimensionale Analysen auf historischen und konsolidierten Datenbeständen (Gluchowski et al. 1997, S. 282; Gluchowski/Chamoni 2006, S. 145). OLAP-Tabellen oder Würfel (Hypercubes) bilden ausgewählte Kennzahlen (Fakten) nach ausgewählten Gliederungskriterien (Dimensionen) aus dem DWH ab. Codd, E.; Codd, S. B.; Salley, C. T. (1993): Providing OLAP to User-Analysts: An IT Mandate. http://www.minet.uni-jena.de/dbis/lehre/ss2005/sem_dwh/lit/cod93.pdf (Zugriff: 21.06.2009). Gluchowski, P.; Chamoni, P. (2006): Entwicklungslinien und Architekturkonzepte des On-Line Analytical Processing, in: Chamoni, P.; Gluchowski, P. (Hrsg.): Analytische Informationssysteme Business Intelligence-Technologien und -Anwendungen, 3. Aufl., Berlin u. a., S. 143-176. Gluchowski, P.; Gabriel, R.; Chamoni, P. (1997): Management-Support- Systeme Computergestützte Informationssysteme für Führungskräfte und Entscheidungsträger, Berlin u. a. Kemper, H.-G.; Mehanna, W.; Unger, C. (2006): Business Intelligence Grundlagen und praktische Anwendungen: Eine Einführung in die IT-basierte Managementunterstützung, 2. Aufl., Wiesbaden.
Data Warehouse und OLAP OLAP (Online Analytical Processing) 14 OLAP Werkzeuge
Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse
Gegenstand des Data Mining Definition 16 Data Mining nimmt Bezug auf ein Bild aus dem Bergbau (Mining). Dort werden mit massivem Technikeinsatz riesige Gesteinsmengen maschinell abgebaut und aufbereitet, um Edelmetalle und Edelsteine zu fördern. Analog werden beim Data Mining riesige Datenberge mit modernsten Techniken nach neuen, interessanten Mustern ( Nuggets ) durchsucht. Data Mining ist die automatisierte Analyse umfangreicher Datenbestände mit dem Ziel, neue, generalisierbare und handlungsrelevante Strukturen zu erkennen. Hippner, H., Grieser, L., Wilde, K.D. (2011): Data Mining Grundlagen und Einsatzpotenziale in analytischen CRM-Prozessen, in: Hippner, H., Hubrich, B., Wilde, K.D. (Hrsg.): Grundlagen des CRM, 3. Aufl., Wiesbaden, S. 783-810
Gegenstand des Data Mining Methoden 17 Problemtypen des Data Mining Vielzahl von Methoden aus unterschiedlichen Forschungstraditionen : Mathematik, Informatik, Statistik, Künstliche Intelligenz, Neurobiologie In Anlehnung an Hippner, H., Grieser, L., Wilde, K.D. (2011): Data Mining Grundlagen und Einsatzpotenziale in analytischen CRM-Prozessen, in: Hippner, H., Hubrich, B., Wilde, K.D. (Hrsg.): Grundlagen des CRM, 3. Aufl., Wiesbaden, S. 783-810
Gegenstand des Data Mining Prozess 18 http://www.crisp-dm.org/process/index.htm
Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse
Data Mining-Werkzeuge Charakteristika und Anwendungsbeispiel 20 Charakteristika von Data Mining-Werkzeugen Dialogorientierte Unterstützung aller Prozessphasen Breites Methodenangebot für alle Aufgabenbereiche Anwendungsbeispiel Churn-Analyse (Life-Demo) IBM SPSS
Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse
Methoden des Data Mining Übersicht 22 Klassifikation Segmentierung Regression Abhängigkeit Neuronale Netze x x x x K & R-Bäume x x Clusteranalyse x Assoziationsanalyse x Lineare Regression x x Log. Regression x x
Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse
Künstliche Neuronale Netze Aufbau biologischer neuronaler Netze 24
Künstliche Neuronale Netze Aufbau künstlicher neuronaler Netze (KNN) 25
Künstliche Neuronale Netze Eingangs- und Aktivierungsfunktion 26 Eingangsfunktion (z. B. Skalarprodukt) ε = n j= 1 w j e j Aktivierungsfunktion (z. B. linear oder Identität) c = χε bzw. c = ε Konstante χ dient als Skalierungsfaktor
Künstliche Neuronale Netze Aktivierungsfunktionen 1/2 27 Verlaufsform Mathematische Beschreibung Graphische Darstellung Anmerkungen linear, unbegrenzt c = χ. ε + δ mit χ > 0; ε, δ R Mit χ = 1 und δ = 0 ergibt sich die Identitätsfunktion. Rampenfunktion (linear, begrenzt) β fallsε σ c = α fallsε σ ' χ ε + δ sonst mit β, α, ε, σ, σ, δ R Der untere Schwellenwert σ muss überschritten werden, bis eine Ausgabe erfolgt; ab σ erfolgt keine Änderung der Ausgabe mehr. Die Funktion ist nicht differenzierbar.
Künstliche Neuronale Netze Aktivierungsfunktionen 2/2 28 Verlaufsform Mathematische Beschreibung Graphische Darstellung Anmerkungen Schwellenwertfunktion (Treppenfunktion) Sigmoidfunktion β falls ε σ c = α sonst mit β, α, ε, σ R z.b. logistische Funktion: 1 c = δ ε 1 + e mit δ > 0; ε R oder Tangens Hyperbolicus: c = tanh(ε) mit ε R Beim Erreichen von σ erfolgt eine sprungartige Änderung der Aktivität. Hierdurch können Schwierigkeiten beim Lernvorgang hervorgerufen werden. Eingeschränkter Einsatzbereich, da keine kontinuierlichen Werte erzeugt werden können. Die Ausgabe konvergiert gegen α bzw. β. Tangens Hyperbolicus hat beim Lernverfahren Geschwindigkeitsvorteile gegenüber logistischer Funktion. Die Funktion ist differenzierbar (Voraussetzung für den Einsatz bestimmter Lernverfahren).
Künstliche Neuronale Netze Struktur eines KNN 29 Ausgangsmuster OUTPUT LAYER Eingangsmuster HIDDEN LAYERS INPUT LAYER
Künstliche Neuronale Netze Struktur eines KNN 30 INPUT LAYER HIDDEN LAYER OUTPUT LAYER w 14 = 3 4 w 48 = 1 1 w 24 = 7 8 5 Eingangs- muster 2 3 w 37 w w = 5 16 27 = 4 6 = 1 Verbindungsgewicht vom Neuron i zum Neuron j: 7 9 10 w ij Ausgangs- muster
Künstliche Neuronale Netze Lernverfahren 31 Lernen Überwachtes Lernen Lernen von Regeln aus Beispielen mit bekannter Lösung Unüberwachtes Lernen Lernen von Regeln aus dem Vergleich von Objekten
Künstliche Neuronale Netze 32 Grundprinzip überwachter Lernverfahren Ausgabe erwünschte Ausgabe verdeckte Schicht(en) Eingabemuster Ausgabeschicht Eingabeschicht Neuronales Netz Differenzvektor (teaching input)
Künstliche Neuronale Netze Grundprinzip überwachter Lernverfahren 33 Fehlerfunktion Skalares Maß für die Ähnlichkeit von Soll-/Istausgabe Beispiel: Summe der Abweichungsquadrate D = i i ( A j S j ) i j 2 Nichtlineare Optimierungsmethoden Minimierung der Fehlerfunktion in Abhängigkeit von w ij Gradientenmethoden, z. B. Backpropagation
Künstliche Neuronale Netze Grundprinzip unüberwachter Lernverfahren 34 Self-Organizing Maps (SOM) zur Segmentierung Jedes Eingangsneuron ist mit jedem Ausgangsneuron verbunden Gewinner Nachbarn 1 Datensätze anlegen 2 3 Gewichte anpassen Gewinner berechnen Gewinner-Neuron: minimale Distanz zwischen Inputvektor und Gewichtungsvektor des Neurons Gewichtsanpassung bei Nachbar-Neuronen: Anpassung in Richtung des Eingabemusters Input w i,10 (Input-w i,10 ) 2 Input w i,9 (Input-w i,9 ) 2 0,50 0,40 0,01 0,50 0,90 0,16 0,20 0,40 0,04 0,20 0,90 0,49 0,10 0,10 0,00 0,10 0,90 0,64 0,90 0,80 0,01 0,90 0,10 0,64 Summe 0,06 Summe 1,93 NEU ALT i w i,9 = 0,9 * w i,9 + 0,1 * Input 1 0,86 0,9 * 0,90 + 0,1 * 0,50 2 0,83 0,9 * 0,90 + 0,1 * 0,20 3 0,82 0,9 * 0,90 + 0,1 * 0,10 4 0,18 0,9 * 0,10 + 0,1 * 0,90
Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse
Klassifikations- und Regressionsbäume Aufgabe und Funktionsprinzip 36 Klassifikation: Zuordnung der Objekte zu vorgegebenen Klassen Regression: Schätzung einer intervallskalierten Zielgröße für ein Objekt Datenbasis: (abhängige) Zielgröße mehrere (unabhängige) erklärende Variablen Voraussetzung: bekannte (klassifizierte) Fälle Modellbildung: Umsetzung bekannter Fälle in Regeln Generalisierung: Regelanwendung auf neue Fälle
Klassifikations- und Regressionsbäume Beispiel Produktempfehlungen 37 Ein Produkt wird in zwei verschiedenen Ausführungen angeboten. Die exklusive und die Standard-Produktvariante werden jeweils von sechs Kunden präferiert. Bei zufälliger Auswahl des Produkts bei der Kundenansprache wird nur mit 50 % Wahrscheinlichkeit das richtige Produkt beworben. Ein Entscheidungsbaum kann helfen, die bevorzugte Produktvariante aus den bekannten Merkmalen zu erkennen. Nr. Geschlecht Alter Umsatz Produktvariante 1 männl. 20 mittel Exklusiv 2 weibl. 73 mittel Standard 3 weibl. 37 hoch Exklusiv 4 männl. 33 niedrig Standard 5 weibl. 48 hoch Exklusiv 6 männl. 29 mittel Exklusiv 7 weibl. 52 mittel Standard 8 männl. 42 niedrig Standard 9 männl. 61 mittel Standard 10 weibl. 30 mittel Exklusiv 11 weibl. 26 niedrig Standard 12 männl. 54 hoch Exklusiv
Klassifikations- und Regressionsbäume Beispiel Produktempfehlungen 38 Nr. Geschlecht Produktvar. Nr. Alter Produktvar. Nr. Umsatz Produktvar. 1 männl. Exklusiv 1 20 Exklusiv 3 hoch Exklusiv 6 männl. Exklusiv 11 26 Standard 5 hoch Exklusiv 12 männl. Exklusiv 6 29 Exklusiv 12 hoch Exklusiv 4 männl. Standard 10 30 Exklusiv 1 mittel Exklusiv 8 männl. Standard 4 33 Standard 6 mittel Exklusiv 9 männl. Standard 3 37 Exklusiv 10 mittel Exklusiv 3 weibl. Exklusiv 8 42 Standard 2 mittel Standard 5 weibl. Exklusiv 5 48 Exklusiv 7 mittel Standard 10 weibl. Exklusiv 7 52 Standard 9 mittel Standard 2 weibl. Standard 12 54 Exklusiv 4 niedrig Standard 7 weibl. Standard 9 61 Standard 8 niedrig Standard 11 weibl. Standard 2 73 Standard 11 niedrig Standard männlich/weiblich: Erfolgsquote 50 % Alter >/<= 40: Erfolgsquote 66 % Umsatz: Erfolgsquote 75 %
Klassifikations- und Regressionsbäume Beispiel Produktempfehlungen 39 Umsatz + Alter Erfolgsquote 100 % Optimierte Werbestrategie: Hoher Umsatz: Exklusive Variante Niedriger Umsatz: Standard-Produkt Mittlerer Umsatz: Alter <= 40: Exklusive Variante Alter > 40: Standard-Produkt Nr. Umsatz Alter Produktvar. 3 hoch 37 Exklusiv 5 hoch 48 Exklusiv 12 hoch 54 Exklusiv 1 mittel 20 Exklusiv 6 mittel 29 Exklusiv 10 mittel 30 Exklusiv 7 mittel 52 Standard 9 mittel 61 Standard 2 mittel 73 Standard 11 niedrig 26 Standard 4 niedrig 33 Standard 8 niedrig 42 Standard
Klassifikations- und Regressionsbäume Beispiel Produktempfehlungen 40 Datenbasis 6 x Exklusive Variante 6 x Standard-Produkt Umsatz: hoch Umsatz: mittel Umsatz: niedrig 3 x Exklusive Variante 0 x Standard-Produkt Alter <= 40 3 x Exklusive Variante 0 x Standard-Produkt Abbildung durch Regeln: 3 x Exklusive Variante 3 x Standard-Produkt Alter > 40 0 x Exklusive Variante 3 x Standard-Produkt 0 x Exklusive Variante 3 x Standard-Produkt IF (Bedingung 1) AND... AND (Bedingung r) THEN Klasse = C
Klassifikations- und Regressionsbäume Bestandteile: Knoten und Kanten 41 Datenbasis 6 x Medikament Exklusive Variante A 6 x Standard-Produkt Medikament B Wurzel = Knoten ohne Vorgänger Blutdruck: Umsatz: hoch 3 x Medikament Exklusive Variante A 0 x Standard-Produkt Medikament B Blutdruck: Umsatz: normal mittel 3 x Medikament Exklusive Variante A 3 x Standard-Produkt Medikament B Blutdruck: Umsatz: niedrig 0 x Medikament Exklusive Variante A 3 x Standard-Produkt Medikament B Innerer Knoten = Knoten mit Vorgänger und Nachfolger; bestimmt die Aufspaltung der enthaltenen Objekte Alter <= 40 3 x Medikament Exklusive Variante A 0 x Medikament Standard-Produkt B Alter > 40 0 x Medikament Exklusive Variante A 3 x Medikament Standard-Produkt B Kante = Verbindung zwischen Knoten Blatt = Knoten ohne Nachfolger; jedem Blatt wird eine Klassenbezeichnung zugeordnet
Klassifikations- und Regressionsbäume Begriffe und Eigenschaften 42 Begriffe: Split Aufteilung in Untermengen Homogener Knoten enthält nur Objekte einer Klasse Binärbaum 2er-Splits pro Knoten Klassifikationsbaum ordinale/nominale Zielgröße Regressionsbaum metrische Zielgröße Eigenschaften: Leichte Verständlichkeit und Interpretierbarkeit Intervallweise Abbildung nichtlinearer Relationen Regeln können sehr komplex werden: Maßnahmen zur Komplexitätsreduktion Stopp-Kriterien Pruning-Strategien
Klassifikations- und Regressionsbäume Beispiel Kündigeranalyse (Klassifikationsbaum) 43 Kundenbasis 5000 Kündiger (50,0%) 5000 Nicht-Kündiger (50,0%) Letzte Bestellung < 6 Monate 3000 Kündiger (37,5%) 5000 Nicht-Kündiger (62,5%) Letzte Bestellung > 6 Monate 2000 Kündiger (100,0%) 0 Nicht-Kündiger (0,0%) Kunde seit > 3 Jahren 500 Kündiger (11,1%) 4000 Nicht-Kündiger (88,9%) Alter <= 40 Jahre 2000 Kündiger (100,0%) 0 Nichtkündiger (0,0%) Kunde seit < 3 Jahren 2500 Kündiger (71,4%) 1000 Nicht-Kündiger (28,6%) Alter > 40 Jahre 500 Kündiger (33,3%) 1000 Nicht-Kündiger (66,7%)
Klassifikations- und Regressionsbäume Beispiel Kundenwertprognose (Regressionsbaum) 44 Kundenbasis 10000 Kunden 1018 Durchschnittsumsatz Letzte Bestellung < 6 Monate 8000 Kunden 1222 Durchschnittsumsatz Letzte Bestellung > 6 Monate 2000 Kunden 200 Durchschnittsumsatz Kunde seit > 3 Jahren 4500 Kunden 1500 Durchschnittsumsatz Alter <= 40 Jahre 2000 Kunden 800 Durchschnittsumsatz Kunde seit < 3 Jahren 3500 Kunden 864 Durchschnittsumsatz Alter > 40 Jahre 1500 Kunden 950 Durchschnittsumsatz
Klassifikations- und Regressionsbäume Vorgehensweise 45 1. Start: alle Objekte befinden sich in einem Knoten 2. Suche nach dem besten Klassifikationsmerkmal 3. Klassifizierung der Objekte nach diesem Merkmal 4. Rekursive Anwendung der Schritte 2 und 3 bis zum Stopp 5. Nachträgliches Zurückschneiden des Baumes (Pruning)
Klassifikations- und Regressionsbäume Attributwahl 46 Objektmenge: 1 1 0 1 0 0 1 0 1 0 Split A: generell 20 % Fehler 1 1 1 0 1 0 1 0 0 0 Split B: je nach Gruppe 0 oder 29 % Fehler 1 1 1 1 0 0 1 0 0 0 Was ist besser? Festlegung eines Fehlermaßes
Klassifikations- und Regressionsbäume Attributwahl Gini-Index 47 Minimierung der Heterogenität Wahrscheinlichkeit, bei Stichprobe n=2 Objekte aus unterschiedlichen Klassen zu erhalten: 1 - p (0,0) - p (1,1) = 1 - p(0)² - p(1)² Minimum = 0,0: alle Objekte aus einer Klasse Maximum = 0,5: Objekte zweier Klassen gleich häufig Beispiel Anzahl: 30 Kündiger 70 Nicht-Kündiger p: 30/100 = 0,3 70/100 = 0,7 Gini-Index = 1-0,3² - 0,7² = 0,42
Klassifikations- und Regressionsbäume Attributwahl Gini-Index 48 Berechnung der Heterogenität in einem Split: Split A: 0 0 0 0 1 0 1 1 1 1 Split B: 1 1 1 1 1 0 0 0 0 0 (A, links) = 0,32 (A, rechts) = 0,32 (B, links) = 0,49 (B, rechts) = 0,0 Gewichteter Durchschnitt A: 0,32 B: 0,44 A wird bevorzugt!
Klassifikations- und Regressionsbäume Weitere Heterogenitätsmaße 49 Chi-Quadrat-Test Klassifikationsprobleme Maß für die Abhängigkeit zwischen Merkmal und Zielgröße Auswahl des Merkmals mit dem höchsten Chi-Quadrat-Signifikanzwert Aufbau des Chi-Quadrat-Unabhängigkeitstests http://de.wikipedia.org/wiki/chi-quadrat-test#vorgehensweise_2 (Zugriff: 05.05.2009)
Klassifikations- und Regressionsbäume Weitere Heterogenitätsmaße 50 F-Test Regressionsprobleme Test auf Signifikanz von Mittelwert-Unterschieden in Stichproben Auswahl des Merkmals mit der höchsten Signifikanz der Mittelwert-Unterschiede Aufbau des F-Tests http://de.wikipedia.org/wiki/varianzanalyse#mathematisches_modell (Zugriff: 05.05.2009)
Klassifikations- und Regressionsbäume Stopp-Kriterien 51 Natürliche Stopp-Kriterien Knoten enthält nur Objekte mit dem gleichen Wert der Zielvariablen Alle Testmerkmale ausgeschöpft Weitere Stopp-Kriterien Minimale Objektzahl je Knoten (absolut/prozentual) Grenzwert für Verbesserung der Homogenität Maximale Baumtiefe
Klassifikations- und Regressionsbäume Pruning 52 Vereinfachung komplexer Bäume Einfachheit Overfitting/Generalisierungsfähigkeit Top-Down-Pruning: Stopp-Kriterien bei Baumerstellung Bottom-Up-Pruning: Nachträgliches Stutzen Pruning von Splits mit geringem Homogenitäts-Beitrag Pruning zur Beseitigung von Overfitting Überprüfung anhand von Validierungsdaten Baumteile ohne nennenswerten Klassifikations-Beitrag auf Validierungsdaten werden zurückgeschnitten.
Übersicht 1 Analytisches CRM 1.1 Operatives und analytisches CRM 1.2 Kundendaten 1.3 Data Warehouse und OLAP 1.4 Gegenstand des Data Mining 1.5 Data Mining-Werkzeuge 2 Methoden des Data Mining 2.1 Künstliche Neuronale Netze 2.2 Klassifikations- und Regressionsbäume 2.3 Clusteranalyse 2.4 Assoziations- und Sequenzanalyse 2.5 Regressionsanalyse 3 Prozess des Data Mining 3.1 Aufgabendefinition 3.2 Auswahl der relevanten Datenbestände 3.3 Datenaufbereitung 3.4 Anwendung von Data Mining-Methoden 3.5 Evaluation der Ergebnisse 3.6 Anwendung der Ergebnisse
Clusteranalyse Aufgabe der Clusteranalyse 54 Segmentierung Bildung möglichst homogener Gruppen aus einer Gesamtheit von Objekten Objekte innerhalb der Gruppen möglichst ähnlich Gruppen untereinander möglichst unterschiedlich Anzahl und Eigenschaften der Gruppen sind zu Beginn nicht bekannt
Clusteranalyse Beispiel Kundensegmentierung 55 Serviceanspruch Trittbrettfahrer Premium-Kunden Asketen Graue Mäuse Zahlungsbereitschaft
Clusteranalyse Beispiel Kundensegmentierung Mobilkommunikation 56 Merkmale: Anzahl der Gespräche pro Woche Dauer der Gespräche Zeitpunkt (Geschäftszeit, Wochenende,...) Inland-/Auslandsgespräch,... Charakterisierung der Kundengruppe durch typische Merkmalsausprägungen und charakteristische Bezeichnung: Wochenendtelefonierer, Geschäftsreisender-Inland,...
Clusteranalyse Proximitätsmaße 57 Proximitätsmaß quantifiziert die Ähnlichkeit oder die Unähnlichkeit von Objekten Proximitätsmaß überführt Rohdatenmatrix in eine Ähnlichkeits- oder Distanzmatrix Ähnlichkeitsmaß: je höher desto größer die Ähnlichkeit Distanzmaß: je höher desto kleiner die Ähnlichkeit
Clusteranalyse Proximitätsmaße 58 Rohdatenmatrix Merkmal 1 Merkmal 2... Merkmal J Objekt 1 Objekt 2... Objekt K Ähnlichkeits- oder Distanzmatrix Objekt 1 Objekt 2... Objekt K Objekt 1 Objekt 2... Objekt K
Clusteranalyse Proximitätsmaße 59 Proximitätsmaße Metrische Skalen Nominal-Skalen Q-Korrelationskoeffizient City-Block- Metrik Tanimoto- Koeffizient M-Koeffizient Euklidische Distanz Distanzmaße Ähnlichkeitsmaß RR-Koeffizient Ähnlichkeitsmaße
Clusteranalyse Proximitätsmaße für metrische Skalen 60 City-Block-Metrik Rohdaten Objekt 1 Objekt 2 M 1 M 2 M 3 1 2 1 2 3 3 d = 1-2 + 2-3 + 1-3 = 1 + 1 + 2 = 4 (Quadrierte) Euklidische Distanz d d = d 2 = 1 2 2 + 1 = 2 1 + 2 2 2 + 1 2 = 6 + 2 2 = 2,45
Clusteranalyse Proximitätsmaße für metrische Skalen 61 Q-Korrelationskoeffizient Ähnlichkeit = Korrelation der Merkmalsprofile der Objekte Rohdaten Objekt 1 Objekt 2 Objekt 3 Objekt 4 M 1 M 2 M 3 1 2 1 3 2 1 6 7 6 2 1 2 1 2 3 4 Korrelation zwischen Wertevektoren 1 2 3 4 1,000,000 1,000-1,000,000 1,000,000,000 1,000,000 1,000-1,000-1,000,000-1,000 1,000 Identischer Profilverlauf Korrelation = 1 Entgegengesetzter Profilverlauf Korrelation = -1
Clusteranalyse Wahl des Proximitätsmaßes 62 Entscheidender Einfluss auf die Ähnlichkeit der Objekte Abhängig vom Untersuchungsgegenstand: Sind die Profilverläufe von Interesse? z. B. Umsatzentwicklung Q-Korrelationskoeffizient Interessiert der absolute Abstand? z. B. Umsatzhöhe City-Block, Euklid Metrische Skalen Standardisierung der Merkmale Keine Maßstabsinvarianz der Proximitätsmaße
Clusteranalyse Nominale Skalen Grundlagen 63 Familienstand: ledig=1/verheiratet=2/geschieden=3 Umcodieren in Binärvariable für jede Ausprägung, da Ähnlichkeit nicht aus den Codierungen bestimmbar Familienstand: 3 neue Binärvariablen: ledig nein=0/ja=1 verheiratet nein=0/ja=1 geschieden nein=0/ja=1
Clusteranalyse Nominale Skalen Ähnlichkeit bei Binärvariablen 64 Ähnlichkeit abhängig von Merkmalsübereinstimmung Objekt 2 Eigenschaft vorhanden nicht vorhanden Objekt 1 Eigenschaft vorhanden nicht vorhanden a b Berechnung von Proximitätsmaßen aus a, b, c, d Implizite Gewichtung der Merkmale durch Anzahl der Binärmerkmale Gewichtung der Merkmale c d
Clusteranalyse Nominale Skalen Ähnlichkeit bei Binärvariablen 65 M 1 M 2 M 3 M 4 M 5 M 6 M 7 M 8 M 9 M 10 Objekt 1 Objekt 2 1 1 1 1 0 0 1 0 0 0 1 1 0 1 0 1 0 1 0 1 Objekt 1 Eigenschaft vorhanden nicht vorhanden Objekt 2 Eigenschaft vorhanden nicht vorhanden a=3 c=2 b=3 d=2
Clusteranalyse Nominale Skalen Ähnlichkeit bei Binärvariablen 66 Tanimoto-Koeffizient: a a + b + c Simple Matching (M)-Koeffizient: a + d a + b + c + d Russel & Rao (RR)-Koeffizient: a a + b + c + d