Data-Mining-Methoden und Marketing am Beispiel der explorativen Warenkorbanalyse

Ähnliche Dokumente
Warenkorbanalyse mit Hilfe der Statistiksoftware R

Data Mining und Marketing am Beispiel der explorativen Warenkorbanalyse

Warenkorbanalyse mit Hilfe der Statistik-Software R 2

Data Mining und Marketing am Beispiel der explorativen Warenkorbanalyse

Fortgeschrittene Computerintensive Methoden: Assoziationsregeln Steffen Unkel Manuel Eugster, Bettina Grün, Friedrich Leisch, Matthias Schmid

Ermittlung von Assoziationsregeln aus großen Datenmengen. Zielsetzung

Frequent Itemset Mining + Association Rule Mining

Assoziationsregeln & Sequenzielle Muster. A. Hinneburg, Web Data Mining MLU Halle-Wittenberg, SS 2007

Data Mining auf Datenströmen Andreas M. Weiner

Apriori-Algorithmus zur Entdeckung von Assoziationsregeln

Produktgruppen als mögliche Hilfe für die Auswahl zutreffender CE-Richtlinien

Kapitel 2. Mittelwerte

Informationssysteme. Prof. Dr. Hans Czap. Lehrstuhl für Wirtschaftsinformatik I. Lehrstuhl für Wirtschaftsinformatik I - II - 1 -

Data Mining mit der SEMMA Methodik. Reinhard Strüby, SAS Institute Stephanie Freese, Herlitz PBS AG

Unüberwachtes Lernen: Clusteranalyse und Assoziationsregeln

Maschinelles Lernen: Symbolische Ansätze

Dynamisches Huffman-Verfahren

Wilhelm Nüsser (Hrsg.) Carsten Weigand (Hrsg.) Raphael Fockel (Autor) Methoden des Data Mining im praktischen Einsatz

INTELLIGENTE DATENANALYSE IN MATLAB. Unüberwachtes Lernen: Clustern von Attributen

5. Assoziationsregeln

Statistische Tests (Signifikanztests)

Datenstrukturen. Querschnitt. Grösche: Empirische Wirtschaftsforschung

Analyse eines zweistufigen, regionalen Clusteralgorithmus am Beispiel der Verbundenen Wohngebäudeversicherung

Statistik, Geostatistik

Teil: lineare Regression

15 Über Zufallsgeneratoren (fakultativ)

Deskriptive Statistik

Ein- und Zweistichprobentests

Data Warehouse Definition (1)

5. Clusteranalyse. Lernziele: Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

Bivariate explorative Datenanalyse in R

Univariate explorative Datenanalyse in R

5. Clusteranalyse Vorbemerkungen. 5. Clusteranalyse. Grundlegende Algorithmen der Clusteranalyse kennen, ihre Eigenschaften

Wissensentdeckung in Datenbanken

Umsetzung der Anforderungen - analytisch

Data Cubes PG Wissensmangement Seminarphase

Modellierung mit künstlicher Intelligenz

Data Mining und Statistik: Gemeinsamkeiten und Unterschiede. Daniel Meschenmoser

4.4 Hierarchische Clusteranalyse-Verfahren

9 Resümee. Resümee 216

Einführung in die Statistik mit R

TNS EX A MINE BehaviourForecast Predictive Analytics for CRM. TNS Infratest Applied Marketing Science

Begriffsbestimmung CRISP-DM-Modell Betriebswirtschaftliche Einsatzgebiete des Data Mining Web Mining und Text Mining

Vorlesung Wissensentdeckung in Datenbanken

Der Weg eines Betrunkenen

Vorwort... V. Abbildungsverzeichnis... XIII. 1. Überblick über die behandelten Problembereiche... 3

Kapitel 12: Schnelles Bestimmen der Frequent Itemsets

8. Statistik Beispiel Noten. Informationsbestände analysieren Statistik

Information und Produktion. Rolland Brunec Seminar Wissen

zu überprüfen und zu präzisieren. Dabei stehen folgende Fragestellungen im Vordergrund:

Eine Einführung in R: Hochdimensionale Daten: n << p Teil II

Data Mining im Einzelhandel Methoden und Werkzeuge

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Clusteranalyse. Tobias Scheffer Thomas Vanck

Formale Begriffsanalyse

3. Lektion: Deskriptive Statistik

Parametrische vs. Non-Parametrische Testverfahren

fh management, communication & it Constantin von Craushaar fh-management, communication & it Statistik Angewandte Statistik

Universität Potsdam Institut für Informatik Lehrstuhl Maschinelles Lernen. Bayes sches Lernen. Niels Landwehr

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Statistik und Wahrscheinlichkeitsrechnung

5. Schließende Statistik (Inferenzstatistik, konfirmatorische Verfahren)

VII.3 Assoziationsregeln

6.6 Vorlesung: Von OLAP zu Mining

Partitionierungsstrategien für Data Vault

Ähnlichkeits- und Distanzmaße

Mustererkennung und Klassifikation

Unterschiedshypothesen für maximal 2 Gruppen, wenn die Voraussetzungen für parametrische Verfahren nicht erfüllt sind

Datenbanksysteme 2009

Standardisierte Vorgehensweisen und Regeln zur Gewährleistung von: Eindeutigkeit Schlussfolgerungen aus empirischen Befunden sind nur dann zwingend

Data Mining als Arbeitsprozess

Institut für Statistik und Mathematische Wirtschaftstheorie Universität Augsburg. Datenanalyse II. Stefan Etschberger Sommersemester 2005

Kapitel 11: Association Rules

DWH Automatisierung mit Data Vault 2.0

Lage- und Streuungsparameter

Vorlesung. Data und Web Mining. Kurzinformation zur. Univ.-Prof. Dr. Ralph Bergmann. Lehrstuhl für Wirtschaftsinformatik II

Gemeinsame Wahrscheinlichkeitsverteilungen

Mining über RDBMSe. von. Christian Widmer. Wie gut lässt sich Mining mit SQL realisieren?

Auswahlverfahren. Verfahren, welche die prinzipiellen Regeln zur Konstruktion von Stichproben angeben

Das (multiple) Bestimmtheitsmaß R 2. Beispiel: Ausgaben in Abhängigkeit vom Einkommen (I) Parameterschätzer im einfachen linearen Regressionsmodell

Freundschaft am Arbeitsplatz - Spezifika einer persönlichen Beziehung im beruflichen Umfeld

3. Die Datenstruktur Graph

Angewandte Statistik mit R

Sommersemester Implementierung I: Struktur

Diagnose einer Kraftwerksturbine

Data Mining - Wiederholung

Ferienkurse Mathematik Sommersemester 2009

2.2. Wissenschaftstheoretische Grundzüge der Gewinnung von Erkenntnissen über Märkte 10

Statistische Methoden der Datenanalyse Wintersemester 2012/2013 Albert-Ludwigs-Universität Freiburg

Automatische Klassifikation: Stand der Technik und Veränderungen im Berufsbild des Dokumentars. Automatische Klassifikation:

Market Basket Analysis oder: isst man Salat zum Schnitzel?

5 Exkurs: Deskriptive Statistik

Accountability in Algorithmic. Decision Making.

Probabilistische Ansätze in der Assoziationsanalyse

Die Auswirkungen von Veränderungen in der Alterszusammensetzung der Migrantenfertilität auf die Erstgenerationengeburten

Zentralübung zur Vorlesung Diskrete Strukturen (Prof. Esparza)

Schließende Statistik

Beschreibende Statistik Eindimensionale Daten

k-means als Verfahren zur Clusteranalyse basierend auf Repräsentanten bestimmt ein flaches Clustering

Teil VIII Hypothesentests für zwei Stichproben

Midas Metadata yield by Data Analysis

Transkript:

Data-Mining-Methoden und Marketing am Beispiel der explorativen Warenkorbanalyse von Thomas Reutterer, Michael Hahsler & Kurt Hornik Veröffentlicht in Marketing ZFP, 29. Jg., 3/2007, S. 163-179 Thomas Reutterer ist ao. Professor am Institut für Handel und Marketing an der Wirtschaftsuniversität Wien, Augasse 2-6, A-1090 Wien, Tel.: +43/1/31336/4619, E-Mail: Thomas.Reutterer@wu-wien.ac.at Michael Hahsler ist Privatdozent am Institut für Informationswirtschaft an der Wirtschaftsuniversität Wien, Augasse 2-6, A-1090 Wien, Tel.: +43/1/31336/6081, E-Mail: Michael.Hahsler@wu-wien.ac.at Kurt Hornik ist Universitätsprofessor und Lehrstuhlinhaber am Institut für Statistik und Mathematik an der Wirtschaftsuniversität Wien, Augasse 2-6, A-1090 Wien, Tel.: +43/1/31336/4756, E-Mail: Kurt.Hornik@wu-wien.ac.at - 1 -

Data-Mining-Methoden und Marketing am Beispiel der explorativen Warenkorbanalyse Zusammenfassung Data-Mining-Techniken stellen für die Marketingforschung und praxis eine zunehmend bedeutsamere Bereicherung des herkömmlichen Methodenarsenals dar. Mit dem Einsatz solcher primär datengetriebener Analysewerkzeuge wird das Ziel verfolgt, marketingrelevante Informationen aus großen Datenbanken (sog. Data Warehouses) zu extrahieren und für die weitere Entscheidungsvorbereitung in geeigneter Form aufzubereiten. Im vorliegenden Beitrag werden Berührungspunkte zwischen Data Mining und Marketing diskutiert und der konkrete Einsatz ausgewählter Data-Mining-Methoden am Beispiel der explorativen Warenkorb- bzw. Sortimentsverbundanalyse für einen realen Transaktionsdatensatz aus dem Lebensmitteleinzelhandel demonstriert. Summary Data mining techniques are becoming increasingly popular and widely used add-ons to the more conventional methodological toolbox in modern marketing research and practice. The objective of such data driven analytical approaches is to extract and to represent relevant marketing information hidden in large data warehouses in a managerially meaningful fashion. The present contribution discusses interfaces between data mining and marketing and demonstrates the adoption of selected data mining techniques for analyzing market baskets using supermarket transaction data. Schlüsselbegriffe Data-Mining, Warenkorbanalyse, Sortimentsverbund Keywords Data mining, market basket analysis, cross-category effects - 2 -

1 Einführung Die modellgestützte Entscheidungsvorbereitung blickt in der Marketingwissenschaft auf eine langjährige Forschungstradition zurück und kann auch in der Praxis beachtliche Implementierungserfolge verzeichnen (vgl. Leeflang/Wittink 2000). Hinsichtlich der Verfügbarkeit von potentiell marketingentscheidungsrelevanten Datenbeständen brachte die Information Revolution (Blattberg/Glazer/Little 1994) der beiden letzten Jahrzehnte enorme Fortschritte mit sich: Sowohl Anfallsvolumina und -frequenzen, aber auch die Zugriffsgeschwindigkeiten haben enorme Steigerungen erfahren. Im Gegensatz zur Datenarmut aus vergangenen Tagen sehen sich die Modellkonstrukteure heute mit einer wahren Datenexplosion konfrontiert (vgl. McCann/Gallagher 1990; Leeflang et al. 2000, S. 301 ff.). Nicht selten hat letztere zur Konsequenz, dass eine aussagekräftige Interpretation der in der modernen Marketingentscheidungspraxis von unterschiedlichsten unternehmensinternen wie externen Herkunftsquellen bezogenen und meist in einem sog. Data Warehouse organisierten Daten ohne eine gewisse Automatisierung des Modellierungsprozesses kaum mehr mit vertretbarem Aufwand möglich ist (Bucklin/Lehmann/Little 1998). Vor diesem Hintergrund scheint sich immer mehr die Einsicht durchzusetzen, dass die weitere erfolgreiche Anwendung leistungsfähiger Entscheidungsmodelle einer Anreicherung bestehender Ansätze um fortschrittliche computergestützte Analysekonzepte bedarf, die eine gehaltvolle Verdichtung und eine im Sinne von adaptiv und wissensbasiert verstandene intelligente (Vor-) Selektion interessanter Zusammenhangs- und/oder Abhängigkeitsstrukturen in den Daten erlauben (vgl. etwa Rangaswamy 1993; Wierenga/Van Bruggen 2000, S. 119 ff.; Matsatsinis/Siskos 2003). Die meisten in jüngerer Zeit für die Bewältigung solcher Aufgaben eingesetzten Verfahren finden ihre methodologischen Wurzeln im Bereich des maschinellen Lernens, wo sie auch als sog. Data-Mining-Techniken bezeichnet werden (vgl. Berry/Linoff 2004; Hastie/Tibshirani/Friedman 2001). Wie die Vergangenheit gezeigt hat, ist für die Marketingwissenschaft der Methodenimport aus diversen formal- wie substanzwissenschaftlichen Disziplinen freilich alles andere als ungewöhnlich (vgl. Hildebrandt 2000). Abgesehen von den im Gefolge der Informationsrevolution erwähnten Zweckmäßigkeitsüberlegungen setzt ein erfolgreicher Transfer neuer methodischer Ansätze wie den hier interessierenden Data-Mining-Verfahren unter anderem die nachweisliche Überlegenheit gegenüber prinzipiell vergleichbaren Alternativen aus dem etablierten Methodenrepertoire, nicht zuletzt aber auch die - 1 -

Verfügbarkeit geeigneter Programmierumgebungen bzw. Softwarelösungen voraus. Letzteres dürfte insbesondere im Umgang mit Massendaten, wie es bei Data-Mining-Anwendungen typischerweise der Fall ist, von besonderer Bedeutung sein. In diesem Beitrag werden zum einen wesentliche Charakteristika von Data-Mining-Techniken im Vergleich zu herkömmlichen statistischen Modellierungsansätzen erörtert und dabei Berührungspunkte mit konkreten marketingrelevanten Datenanalyseproblemen näher beleuchtet. Den Ausführungen von Ravi/Raman/Mantrala (2006) folgend, dass sich die soeben skizzierten Entwicklungen im Handel besonders bemerkbar machen, wird zum zweiten am Beispiel der explorativen Analyse von Warenkorbdaten des Handels der Einsatz ausgewählter Data-Mining-Methoden näher erläutert und auch vorgeführt. Für Demonstrationszwecke werden dabei unter Zuhilfenahme einer geeigneten Programmierumgebung ein Datensatz aus dem Lebensmitteleinzelhandels herangezogen und die einzelnen Analyseschritte ausführlich kommentiert. 2 Zum Verhältnis von Data Mining und Marketing Technisch betrachtet kann Data Mining zunächst als Teil eines Prozesses aufgefasst werden, der in der einschlägigen Literatur als Knowledge Discovery in Databases (KDD, Fayyad et al. 1996) bezeichnet wird. Wie in Abb. 1 dargestellt, besteht dieser Prozess aus mehreren Schritten mit dem Ziel, aus umfangreichen und schlecht strukturierten Rohdaten assoziative Muster zu extrahieren, die für substanzwissenschaftliche Fragestellungen zu neuer Erkenntnis führen (können). Dabei liefern die durch Data Mining gefundenen Muster per se keinerlei Erkenntniszuwachs, sondern erst durch deren fachkundige Interpretation im Lichte der interessierenden Problemstellung (vgl. Brachman/Anand 1996). Abb. 1: Der KDD-Prozess Der sinnvolle Einsatz von Data Mining kommt somit vor allem dann in Betracht, wenn lediglich rudimentär vorhandene aber kaum hinreichend abgesicherte A-Priori-Vermutungen über diverse im Problemkontext als relevant erachtete Zusammenhangsstrukturen vorliegen. - 2 -

Charakteristisch sind auch die im Unternehmen zwar grundsätzlich verfügbaren aber selten direkt verwertbaren Daten sowie der in der Regel voll- oder teilautomatisierte Ablauf des Mining-Prozesses (vgl. Hand/Mannila/Smyth 2001; Tan/Steinbach/Kumar 2006). Zentrale Anliegen sind dabei Fragen der Skalierbarkeit für große Datenmengen, der Verarbeitung und Aufbereitung von hochdimensionalen und komplexen Daten (z.b. mit Hilfe von Techniken des sog. On-Line Analytical Processing oder kurz OLAP), Zugriff auf organisationsintern verteilte Datenbestände (heterogene Datenbanken oder Data Warehouses) und dergleichen. Die Entwicklung von Lösungen für solche Fragestellungen und deren Implementierung in Informations- und Entscheidungsunterstützungssystemen war und ist eine Domäne der Informationstechnologie- (IT) und Informationsmanagement-Experten. Es ist daher auch nahe liegend, dass sich gewisse Zweige der Wirtschaftsinformatik in Richtung KDD entwickelten und im Zuge dessen auch klassische marketingrelevante Forschungsfelder wie Kundensegmentierung oder Warenkorbanalyse das Forschungsinteresse von Informatikern bzw. Vertretern der angewandten Statistik finden (vgl. dazu etwa Berry/Linoff 1997 oder der Sammelband von Hippner et al. 2001). Trotz einer inzwischen reichhaltigen Palette an kommerziellen (vgl. den Überblick von Haughton et. al 2003) und frei verfügbaren (z.b. das Projekt Weka; vgl. Witten/Frank 2005) Softwarepaketen ist bislang ein Aufbrechen disziplinärer Grenzen nur sehr zögerlich zu beobachten. Tatsächlich finden sich hinter den bislang im Marketing breiter diskutierten Data- Mining-Anwendungen meist sehr spezifische, typischerweise mit der Verarbeitung von Massendaten verbundene Problemstellungen im Direktmarketing oder des Customer- Relationship-Managements (CRM) wieder (Levin/Zahavi 2001; Shaw et al. 2001; Rygielski/Wang/Yen 2002; Verhoef et al. 2002; Neslin et al. 2006). Dies wird auch durch eine Reihe spezialisierter Konferenzen, wie ein unter dem Motto Data Mining Meets Marketing an der New York University veranstalteter CRM-Workshop (vgl. Winer/Tuzhilin 2005) oder vereinzelte Beiträge in renommierten Zeitschriften wie Marketing Science, Management Science oder dem Journal of Interactive Marketing belegt. Eine gewisse bislang beobachtbare Skepsis der akademischen Marketingforschung gegenüber der Adoption von Data-Mining- Techniken mag aber auch daher rühren, dass eine datengetriebene Komplexitätsreduktion sowie robuste (und eventuell sogar automatisierte) Prognosen primär für den zeitkritischen Routinebetrieb von Modellanwendungen in der tagtäglichen Marketingpraxis benötigt werden (vgl. Cui/Curry 2005, S. 597 f.; Levin/Zahavi 1998). Dies sollte unseres Erachtens die Marketingwissenschaft jedoch nicht dazu veranlassen, die Verantwortlichkeit für die Entwicklung angemessener Problemlösungen gänzlich in den IT-Kontext abzuschieben. - 3 -

Was die innerhalb des KDD-Prozesses eingesetzten Data-Mining-Methoden anbelangt, bezeichnen diese als Sammelbegriff eine heterogene Menge von Datenmanipulationstechniken, die traditionelle Methoden der statistischen Datenanalyse mit moderneren Algorithmen zur Verarbeitung von großen Datenmengen (aus den Fachgebieten der künstlichen Intelligenz, des maschinellen Lernens und der Mustererkennung) vereint. Methodologisch betrachtet unterscheiden sich erstere von letzteren fundamental hinsichtlich ihrer Annahmen über die Daten generierenden Prozesse: Während traditionelle Modellierungsansätze der parametrischen Statistik ein rigides stochastisches Datenmodell und damit korrespondierende Verteilungsannahmen für die Fehlerterme unterstellen, betrachten Ansätze des algorithmischen Modellierens (Data-Mining-Techniken im engeren Sinne) die Beschaffenheit der Daten als komplexe Unbekannte und versuchen, diese als flexible, nichtparametrische Funktion zu approximieren (vgl. Breiman 2001; Hastie/Tibshirani/Friedman 2001, S. 9 ff.). Die Maschine ( lernt ) dabei also die den Daten zugrund liegende unbekannte Verteilungsfunktion als algorithmisches Modell in Form von neuronalen Netze, Support Vector Machines, Entscheidungsbäumen (erzeugt mittels AID, CHAID, CART, etc.), Random Forrests oder dergleichen. Wie Cooper/Giuffrida (2000) beispielhaft vorführen, schließen sich diese beiden Welten aber nicht gegenseitig aus und können durchaus sinnvoll miteinander kombiniert werden. Die Autoren schätzen in einem zweistufigen Prozess zunächst herkömmliche Marktresponsemodelle und zeigen, dass deren prognostische Güte verbessert werden kann, wenn die Residuen mit einem einfachen Verfahren der regelbasierten Induktion untersucht werden. Weitere Marketing-Beispiele für einen solchen Tandem-Zutritt findet man auch bei Elsner/Krafft/Huchzermeier (2004), Natter et al. (2006) oder Van den Poel et al. (2004). Wie in Abb. 2 illustriert, unterscheidet ein weiteres gebräuchliches Einteilungsschema für Data-Mining-Methoden zwischen den zugrunde liegenden prediktiven bzw. deskriptiven Analyseproblemen (vgl. Fayyad/Piatetsky-Shapiro/Smyth 1996; Tan/Steinbach/Kumar 2006): 1. Bei der prediktiven Analyse steht die Prognose bestimmter Zielvariablen mit Hilfe von (potentiell) erklärenden Variablen auf Basis von historischen Daten im Vordergrund. 2. Die deskriptive (oder explorative) Analyse dient der Aufdeckung und Beschreibung von interdependenten Beziehungsmustern in den Daten. Hinsichtlich (1) dürfte nicht nur im Marketing das von Leo Breiman (2001, S. 199) zwar etwas überzeichnend formulierte 98:2-Verhältnis zugunsten der traditionellen statistischen Modellierung gegenüber algorithmisch geprägten Modellierungsansätzen nicht allzu weit - 4 -

von der Realität entfernt liegen. Dennoch scheint sich in der einschlägigen Literatur aber die Einsicht durchzusetzen, dass moderne Data-Mining-Techniken der algorithmischen Bauart insbesondere im Falle komplexer und nicht-linearer Beziehungsstrukturen zwischen Ziel- und einer Vielzahl an (unterschiedlich skalierten) erklärenden Variablen konventionellen statistischen Methoden analytisch wie auch schätztechnisch hinsichtlich ihrer Robustheit und prognostischen Güte überlegen sind. Abb. 2: Beispiele für Data-Mining-Methoden Besonders augenscheinlich wird dies bei einem Leistungsvergleiche zwischen herkömmlichen statischen Modellen und mehrschichtigen neuronalen Feedforward-Netzen, die jede beliebige funktionale Relation mit hinreichender Exaktheit abzubilden imstande sind (vgl. Hornik/Stinchcombe/White 1989). Hruschka und Kollegen zeigen in einer Reihe von Marketing-Anwendungen (z.b. Hruschka 1993, 2001; Hruschka/Natter 1993; Hruschka et al. 2002; Hruschka/Fettes/Probst 2004), dass bestimmte neuronale Netzwerkmodelle als Verallgemeinerungen von traditionelleren statistischen Modellen, wie etwa logistische Regressions- oder Logit-Modelle interpretiert werden können (vgl. dazu auch Kumar/Rao/Soni 1995). Wie von West/Brockett/Golden (1997) an einem Beispiel der Einkaufsstättenwahl von Konsumenten vorgeführt wird, sind geeignete neuronale - 5 -

Netzwerkarchitekturen auch in der Lage, nichtkompensatorische Entscheidungsheuristiken abzubilden. Eine Reihe von Anwendungen diverser Data-Mining-Methoden (i.e.s.) im prediktiven Analysekontext des Database-Marketing findet man in Beiträgen des Sammelbandes von Hippner et al. (2001). Darüber hinaus sei auf den Einsatz Bayesianischer Netze zur Responseanalyse im Direktmarketing bei Cui/Wong/Liu (2006) und Baesens et. al. (2002), von Support Vector Machines zur Neukundenklassifikation bei Decker/Monien (2003) und Cui/Curry (2005) oder von Random Forrests und neuronalen Netzen zur Kundenabwanderungsanalyse ( Churn Prediction ) bei Buckinx/Van den Poel (2005), Neslin et al. (2006) und Buckinx et al. (2006) hingewiesen. Probleme der explorativen Datenanalyse treten im Marketing insbesondere im Rahmen der (A-Posteriori- oder Post-Hoc-) Marktsegmentierung, der Ableitung kompetitiver Marktstrukturen ( Competitive Market Structure Analysis ; vgl. Elrod 1991) sowie bei der nachfolgend noch ausführlicher behandelten Identifikation von Verbundbeziehungen zwischen Produktgruppen oder Sortimentsteilen im Rahmen der Warenkorbanalyse in Erscheinung. Bei den beiden zuerst genannten und nicht selten miteinander kombinierten Analyseproblemen stehen parametrische Verfahren der statischen Modellierung mit modellfreien algorithmischen Zutritten traditionell im Methodenwettbewerb. Während für die A-Posteriori-Segmentierung von Märkten zwischen der Latenten-Klassenanalyse von Mixture-Modellen einerseits und einer reichhaltigen Auswahl diverser partitionierender Verfahren der Clusteranalyse andererseits unterschieden werden kann (für einen Überblick dazu vgl. Wedel/Kamakura 1999), stehen für die Marktstrukturanalyse probabilistische Modelle der multidimensionalen Skalierung (MDS) bzw. Unfolding-Techniken ihren algorithmischen Pendants oder alternativ dazu einsetzbaren hierarchischen Clusterverfahren gegenüber (vgl. DeSarbo/Manrai/Manrai 1993). Auch hier findet man wiederum eine Reihe von Beiträgen, die sich geeigneter neuronaler Netzwerkarchitekturen bedienen (Hruschka/Natter 1995; Balakrishnan et al. 1996; Mazanec, 1999, 2000; Reutterer/Natter 2000). Für diese gelten prinzipiell analoge Überlegungen wie die bereits im Zusammenhang mit der prediktiven Analyse genannten Vorzüge. 3 Explorative Warenkorbanalyse Nachdem die deutschsprachige Marketing-Literatur über längere Zeit hinweg die methodische Diskussion prägten (vgl. Böcker 1978; Merkle 1981; Müller-Hagedorn 1978, Bordemann 1985 oder Hruschka 1985, 1991), erlebt die Analyse des Nachfrage- bzw. Kaufverbunds - 6 -

zwischen Bestandteilen (Produkten, Warengruppen, etc.) von Einzelhandelssortimenten in der internationalen Marketing-Forschung, aber auch in der einschlägigen Data-Mining-Literatur (vgl. stellvertretend dazu Berry/Linoff 1997) seit einigen Jahren eine gewisse Renaissance. Aktuelle Übersichtsbeiträge zur Sortimentsverbundanalyse auf Basis von Warenkorbdaten (Market Basket Analysis) stammen von Russell et al. (1999), Seetharaman et al. (2005) oder Boztug/Silberhorn (2006). Für das Handelsmanagement ist die Kenntnis von in Warenkörben verborgenen Verbundbeziehungen aus unterschiedlichen Gründen aufschlussreich. Traditionell interessiert eine Verwertung mittels diverser marketingpolitischer Maßnahmen (z.b. Platzierung, Preis- und Sonderangebotspolitik, etc.) im Rahmen des Category- Managements des Handels (vgl. Müller-Hagedorn 2005). Auf kundenindividuellem oder segmentspezifischem Niveau stößt die Nutzung von Verbundrelationen auch im Rahmen maßgeschneiderter Cross-/Upselling-Aktionen innerhalb von Loyalitätsprogrammen auf verstärktes Interesse (vgl. Mild/Reutterer 2003; Reutterer et al. 2006). Ausgangsbasis einer Warenkorbanalyse stellen regelmäßig die im Data Warehouse einer Handelsorganisation gesammelten Transaktionsdaten, die teilweise (z.b. durch den Einsatz von Kundenkarten) auch in personalisierter Form vorliegen. Durch den heute fast flächendeckenden Einsatz von Scannerkassen fallen im Einzelhandel enorme Mengen solcher Transaktionsdaten permanent an. Darüber hinaus ist im elektronischen Handel auch das Sortiment besonders reichhaltig. Die prediktive Analyse besteht hierbei in der Schätzung von Modellen für Auswirkungen (Kreuzeffekte) von Marketing-Aktionen in einer Warengruppe auf das Kaufverhalten in einer anderen Warengruppe (Hruschka/Lukanowicz/Buchta 1999, Manchanda/Ansari/Gupta 1999; Russell/Petersen 2000; Boztug/Hildebrandt 2006). Der Anwendungsspielraum solcher Modelle ist jedoch aufgrund der sehr rasch steigenden Modellkomplexität meist auf verhältnismäßig kleine Ausschnitte des Sortiments beschränkt (ausführlicher zu dieser Problematik: Boztug/Reutterer 2006). Explorative Ansätze beabsichtigen demgegenüber, die in großen Mengen von Transaktionsdaten beobachtbaren interdependenten Nachfragemuster mit Hinblick auf die Aufdeckung bedeutsamer Verbundbeziehungen angemessen zu verdichten und für eine nachfolgende Verwertung (z.b. im Rahmen einer prediktiven Analyse) komprimiert darzustellen bzw. geeignet zu visualisieren (Berry/Linoff 1997, Schnedlitz/Reutterer/Joos 2001). Da neben konventionellen Zutritten diverse Data-Mining-Algorithmen für eine derartige Aufgabenstellung geradezu prädestiniert sind, liegen in der einschlägigen Literatur auch bereits eine Reihe viel versprechender Anwendungen vor. Tab. 1 liefert dazu einen strukturierten Überblick über die bislang vorgestellten Verfahrensklassen der explorative - 7 -

Kaufverbundanalyse, die jeweils spezifische Vorzüge und damit korrespondierende Einsatzgebiete aufweisen. Ansatz: Ausgewählte Quellen: Methodische Kurzcharakteristik: Aggregationsniveau: (1) Affinitätsanalyse: Böcker (1978); Merkle (1981); Dickinson/Harris/Sircar (1992); Julander (1992); Schnedlitz/Kleinberg (1994) Repräsentation einer Verbundmatrix bestehend aus paarweisen Assoziationsmaßen Aggregiert (2) Prototypenbildende Schnedlitz/Reutterer/Joos (2001); Verdichtung von Disaggregiert Clusterverfahren: Decker/Monien (2003); Decker Verbundbeziehungen in (segment- (2005); Reutterer et al. (2006) Warenkörben zu prototypischen spezifisch) Warenkorbklassen (3) Generierung von Assoziationsregeln: Agrawal/Srikant (1994); Generierung von Verbundregeln Hildermann et al. (1998), als Implikationen des Kaufs Decker/Schimmelpfennig (2002); einer Warengruppe A auf eine Brin et al. (1997); Bris et al. (2004); (oder mehrere) andere Hahsler/Hornik/Reutterer (2006) Warengruppe(n) B (C, D, ) Aggregiert Tab. 1: Überblick über alternative Verfahren zur explorativen Kaufverbundanalyse In weiterer Folge wird auf diese Ansätze näher eingegangen und deren praktischer Einsatz unter Zuhilfenahme der im R-Erweiterungspaket 1 arules (Hahsler/Grün/Hornik 2005) implementierten Data-Mining-Software ausführlich dargestellt. Für Illustrationszwecke wird dabei ein durchgängig verwendeter, für die Warenkorbanalyse typischer realer Datensatz aus dem Lebensmitteleinzelhandel herangezogen, dessen datentechnische Repräsentation sowie grundlegenden Eigenschaften nachfolgend kurz erörtert wird. 4 Darstellung von Transaktionsdaten Jede Transaktion (jeder Warenkorb) enthält alle während eines Einkaufsaktes gemeinsam nachgefragten Artikel. Transaktionsdaten werden im Data Warehouse typischerweise in Form sog. Tupel, d.h. einer geordneten Zusammenstellung von Einträgen, wie folgt abgespeichert: <Transaktionsnummer, Produktnummer, > 1 R ist eine frei verfügbare Programmierumgebung für statistische Anwendungen. Aktuelle Versionen des R Basissystems und eine umfangreiche Kollektion an Erweiterungspaketen wie arules können vom Comprehensive R Archive Network (CRAN) unter http://cran.r-project.org/ bezogen werden. Dort findet man auch eine ausführliche Dokumentation von Installations- und Download-Anweisungen. - 8 -

Alle Tupel mit der gleichen Transaktionsnummer bilden eine Transaktion, wobei neben den Artikeln zumindest Informationen aus den Artikelstammdaten (z.b. Packungsgröße, Hersteller, etc.) und zum Einkaufsvorgang (z.b. Zeitpunkt, Filiale, Kassenplatz, etc.) verfügbar sind. In der Handelspraxis sind die im Sortiment gelisteten Artikel meist in ein hierarchisches Klassifikationsschema von Warengruppen eingebunden. Eine solche Sortimentshierarchie, wie sie ausschnittsweise in Abb. 3 dargestellt ist, kann dann mit in den Transaktionen enthaltenen Artikeln assoziiert werden. Dadurch wird es möglich, die verfügbaren Transaktionen auf jeder beliebigen Hierarchieebene einer Vorselektion zu unterziehen. Das spezifische Untersuchungsinteresse könnte es beispielsweise erfordern, all jene Transaktionen auszuwählen, die Artikel aus gewissen Warengruppen (z.b. Brot und Gebäck) beinhalten. Analog dazu können gewisse Warengruppen (z.b. Molkereiprodukte) aus der weiteren Analyse ausgeschlossen werden. Letzteres erweist sich insbesondere dann als zweckmäßig, wenn es sich um Warengruppen handelt, die besonders häufig nachgefragt werden und daher per se einen starken Ausstrahlungseffekt auf das Restsortiment ausüben. Abb. 3: Exemplarischer Ausschnitt aus einer dreistufigen Sortimentshierarchie Für die Warenkorbanalyse werden derartige Transaktionsdaten typischerweise in eine der folgenden zwei Repräsentationsformen transformiert (vgl. Abb. 4 für ein Beispiel): Eine binäre Kaufinzidenzmatrix mit Transaktionen in den Zeilen und Artikeln bzw. Warengruppen in den Spalten. Die Einträge stellen den Kauf (1) bzw. Nichtkauf (0) einer Warengruppe in einer Transaktion dar 2. Diese Darstellung wird oft als horizontales Datenbanklayout bezeichnet (vgl. Zaki 2000). Eine Transaktionsnummernliste, wobei für jede der spaltenweise angeordneten Warengruppen eine Liste jener Transaktionsnummern, welche die betreffende 2 Wir schließen uns damit der Konvention an, die numerische Repräsentation der Transaktionen als Realisationen sog. Pick-Any-Daten aufzufassen (vgl. Manchanda/Ansari/Gupta 1999; Russel/Petersen 2000). Für Illustrationszwecke und vor dem Hintergrund der nachfolgenden Anwendungsbeispiele beschränken wir uns in der weiteren Darstellung auf Warengruppen anstelle von Produkten bzw. Artikeln. - 9 -

Warengruppe enthält, gespeichert wird. Diese Darstellung wird auch als vertikales Datenbanklayout bezeichnet (Zaki 2000). Abb. 4: Transaktionsdaten repräsentiert als (a) Kaufinzidenzmatrix und (b) Transaktionsnummernliste. Abb. 5: Bestandteile von Transaktionsdaten bestehend aus (a) Transaktionen, (b) Warengruppeninformationen und (c) Transaktionsinformationen. Durch geeignete Schnittstellen zum Warenwirtschafts- oder Marketing-Informationssystem des Einzelhändlers stehen auf Artikelebene weitere wichtige Informationen, wie z.b. gekaufte Packungsmengen, Preise, Promotions und verkaufsfördernde Maßnahmen (Flugblatt, Mehrfachplatzierungen, etc.) oder Deckungsbeiträge zur Verfügung. Gelegentlich sind für einen Teil der Transaktionen auch Hintergrundinformationen über den Kunden (z.b. Identität und Kaufgeschichte, sozio-demographische Merkmale) bekannt. Diese stammen in der Regel aus Loyalitätsprogrammen von Handelsunternehmen in Verbindung mit direkt am POS elektronisch lesbaren Kundenkarten oder anderen Quellen (z.b. Authentifizierung der Kunden - 10 -

beim Login im Online-Retailing). All diese transaktionsbezogenen Informationen können wiederum als Filter verwendet werden, etwa um Bagatelleinkäufe mit sehr geringen Warenkorbumsätzen von der weiteren Analyse auszuschließen. Abb. 5 fasst den für die Warenkorbanalyse typischen Aufbau von Transaktionsdaten zusammen. Nachfolgend wird auf die Eigenschaften des Transaktionsdatensatzes näher eingegangen, der im Software-Paket arules integriert ist und daher für Testzwecke von Datamining- Anwendungen im Rahmen der explorativen Warenkorbanalyse zur freien Verfügung steht 3. Es handelt sich dabei um die in einer Supermarktfiliale über einen Kalendermonat hinweg angefallenen Transaktionen, wobei die Warenkörbe bereits zu 169 Warengruppen aggregiert wurden. Nach dem Start von R wird zunächst das Paket arules geladen und der Datensatz mit der Bezeichnung Groceries eingelesen (Anweisungen 1 und 2 in Abb. 6). Eine erste Zusammenfassung der grundlegenden Eigenschaften des Datensatzes wird mit Anweisung 3 erstellt. Aus der zurück gelieferten Zusammenfassung kann entnommen werden, dass es sich um 9835 Transaktionen und 169 Warengruppen (items), also eine 9835 169 Kaufinzidenzmatrix handelt. Als nächstes werden die fünf am häufigsten gekauften Warengruppen mit der Anzahl von Transaktionen, in denen sie vorkommen aufgelistet. Am häufigsten werden Artikel aus der Warengruppe Vollmilch (whole milk) gekauft (in 2513 von 9835 Transaktionen). Die Verteilung der Länge der Transaktionen wird als nächstes angegeben: Im Durchschnitt enthält ein Warenkorb 4,409 unterschiedliche Warengruppen. Ein Median kleiner als der Mittelwert weist auf eine schiefe Verteilung mit sehr vielen kurzen Transaktionen, die nur wenige Warengruppen enthalten (also klassische Bagatell- oder Kleinsteinkäufe), hin. Der letzte Teil der Zusammenfassung gibt darüber Auskunft, dass zusätzlich zu den Warengruppenbezeichnungen (labels) auch Informationen zur Sortimentshierarchie verfügbar sind (level1 und level2). Eine Liste der im Datensatz verwendeten Warengruppenbezeichnungen kann mit Hilfe der Funktion itemlabels() erzeugt werden. Anweisung 4 in Abb. 6 liefert beispielsweise jene acht Warengruppen zurück, die zur Hauptwarengruppe Molkereiprodukte (dairy produce) gehören. Mit der Anweisung 5 werden die Warengruppen (items) der ersten drei Transaktionen angezeigt. 3 Für das Einlesen eigener Datensätze steht in arules die Funktion read.transactions() zur Verfügung. Diese Funktion kann Daten in verschiedenen Formaten bequem von der Festplatte einlesen. Nähere Informationen dazu findet man in der Dokumentation zum arules Paket unter http://cran.r-project.org/src/contrib/descriptions/arules.html. - 11 -

1> library("arules") 2> data("groceries") 3> summary(groceries) transactions as itemmatrix in sparse format with 9835 rows (elements/itemsets/transactions) and 169 columns (items) most frequent items: whole milk other vegetables rolls/buns soda 2513 1903 1809 1715 yogurt (Other) 1372 34055 element (itemset/transaction) length distribution: Min. 1st Qu. Median Mean 3rd Qu. Max. 1.000 2.000 3.000 4.409 6.000 32.000 includes extended item information - examples: labels level2 level1 1 frankfurter sausage meet and sausage 2 sausage sausage meet and sausage 4> itemlabels(groceries)[iteminfo(groceries)$level2 == "dairy produce"] [1] "whole milk" "butter" "curd" [4] "dessert" "butter milk" "yogurt" [7] "whipped/sour cream" "beverages" 5> inspect(groceries[1:3]) items 1 {citrus fruit, semi-finished bread, margarine, ready soups} 2 {tropical fruit, yogurt, coffee} 3 {whole milk} 6> which(size(groceries) > 25) [1] 1092 1217 2939 2974 4431 5611 9002 7> hist(size(groceries)) 8> itemfrequencyplot(groceries, support = 0.05) Abb. 6: Beispiel-Code für die Verwendung von Transaktionsdaten Als deskriptive Information ist oft die Größe von Warenkörben von Interesse. Besonders lange Transaktionen weisen zum Beispiel auf Großeinkäufe hin. Anweisung 6 findet die Nummern jener 7 Transaktionen (Großeinkäufe), die mehr als 25 Warengruppen beinhalten. Die Verteilung der Warenkorbgrößen kann auch mittels eines Histogramms dargestellt werden. Das mit Anweisung 7 erzeugte Histogramm ist in Abb. 7 dargestellt, in welchem eine - 12 -

für Warenkorbdaten typische Verteilung mit sehr vielen kurzen und sehr wenigen langen Transaktionen klar erkennbar ist. Abb. 7: Verteilung der Warenkorbgrößen bzw. Transaktionslängen Als weitere elementare Eigenschaft von Transaktionsdaten interessieren meist die Häufigkeiten, mit der einzelne Warengruppen gekauft werden. Mit Anweisung 8 werden die relativen Häufigkeiten jener Warengruppen als Balkendiagramm dargestellt, die mindestens in 5 % aller Transaktionen vorkommen (siehe Abb. 8). Abb. 8: Relative Kaufhäufigkeiten der Warengruppen (Minimum 5 %) Nachfolgend werden die soeben skizzierten Transaktionsdaten unter Anwendung der in Tab. 1 erwähnten Verfahren einer explorativen Kaufverbundanalyse unterzogen. - 13 -

5 Konventionelle Affinitätsanalyse auf Basis paarweiser Assoziationsmaße Die insbesondere von den Proponenten der früheren deutschsprachigen Literatur (Böcker 1978; Merkle 1981) vorgestellten Ansätze ermitteln zunächst ein zweidimensionale Frequenzmatrix, welche die Häufigkeiten der gemeinsamen Kaufhäufigkeiten für Paare von Warengruppen enthält (vgl. Hruschka 1991). Diese Matrix lässt sich bequem wie in Abb. 9 dargestellt bestimmen. 1> ct <- crosstable(groceries) 2> ct[1:5, 1:5] frankfurter sausage liver loaf ham meat frankfurter 580 99 7 25 32 sausage 99 924 10 49 52 liver loaf 7 10 50 3 0 ham 25 49 3 256 9 meat 32 52 0 9 254 Abb. 9: Beispiel zur Erstellung einer Frequenzmatrix Die beiden Dreieckshälften der symmetrischen Matrix beinhalten jeweils die Anzahl der Transaktionen, in denen zwei bestimmte Warengruppen gemeinsam gekauft wurden, während die Diagonalelemente die absoluten Kaufhäufigkeiten enthalten. Aus Übersichtlichkeitsgründen werden hier nur die gemeinsamen Kaufhäufigkeiten für die ersten 5 Warengruppen dargestellt. Zur Messung der Kaufverbundenheit zwischen allen möglichen Warengruppenpaaren können nun geeignete Assoziationskoeffizienten angewendet und die Frequenzmatrix in eine sog. Verbundmatrix überführt werden. Da letztere mit zunehmender Warengruppenanzahl rasch sehr unübersichtlich wird (im vorliegenden Fall handelt es sich bereits um eine 169 169 Matrix) und sich daher einer unmittelbaren Verwertung seitens des Marketing-Managements entzieht, ist regelmäßig eine angemessene Verdichtung und Visualisierung von Interesse. Traditionell gelangen hierfür diverse Projektionsmethoden wie Verfahren der mehrdimensionale Skalierung (MDS) oder hierarchische Clusteranalysemethoden zum Einsatz (vgl. Merkle 1979; Bordemann 1986; Decker/Schimmelpfennig 2002). Die Visualisierung der Verbundbeziehungen erfolgt dann entweder in einem niedrigdimensionalen geometrischen Raum oder über eine Baumstruktur, auf deren Basis in weiterer Folge eine Typologie der Warengruppen erstellt werden kann. Einen Überblick über in der klassischen explorativen Verbundanalyse bewährte Assoziationskoeffizienten für binäre Transaktionsdaten findet man bei Böcker (1978) oder - 14 -

Hruschka (1991). Unter den als besonders geeignet geltenden Koeffizienten findet sich der Tanimoto-Koeffizient, dessen Pendant als Unähnlichkeitsmaß der Jaccard-Koeffizient (Sneath 1957) darstellt. Der Tanimoto-Koeffizient ist als ein asymmetrisches Ähnlichkeitsmaß definiert, das gegenüber übereinstimmenden Nullen (also gemeinsamen Nichtkäufen) unsensitiv ist. Diese Eigenschaft verhindert, dass sehr selten frequentierte und daher in vielen Transaktionen übereinstimmende Nichtkäufe aufweisende Warengruppen als miteinander stärker verbunden eingestuft werden, als häufiger in Kombination nachgefragte Warengruppen. Im Kontext der Verbundanalyse spricht man in diesem Zusammenhang auch vom Problem der negativen Verbundenheit (vgl. ausführlicher dazu Böcker 1978 oder Bordemann 1985). Für die Verdichtung der Verbundmatrix wird im vorliegenden Illustrationsbeispiel gemäß Abb. 10 wie bei Schnedlitz/Kleinberg (1994) ein hierarchisches Clusterverfahren, und zwar die Minimum-Varianz-Methode nach Ward, verwendet. Damit die Baumstruktur mit den Bezeichnungen der Warengruppen auch übersichtlich dargestellt werden kann, werden nur Warengruppen verwendet, die in mindestens 2 % aller Transaktionen vorkommen. 1> diss <- dissimilarity(groceries[, itemfrequency(groceries) > 0.02], method = "Jaccard", which = "items") 2> hc <- hclust(diss, method = "ward") 3> plot(hc) Abb. 10: Beispiel zur Verdichtung der Verbundmatrix mittels hierarchischer Clusteranalyse Abb. 11: Darstellung der hierarchischen Clusterlösung als Dendrogramm Die gefundene typologische Kaufverbundenheitsstruktur zwischen den Warengruppen ist in Abb. 11 in Form eines Dendrogramms dargestellt, wobei die einzelnen Warengruppen die - 15 -

Endpunkte (Blätter) des Baumes repräsentieren. Je weiter man sich entlang der Äste in Richtung Blattspitzen bewegt, desto stärker ist der zwischen den beteiligten Warengruppen gemessene Kaufverbund. Die einzelnen Verästelungen der Baumstruktur können nun verwendet werden, um Warengruppen-Cluster mit intern höherer Kaufverbundenheit zu identifizieren. Beispielsweise kann eine Gruppe von Teilen des Frischesortiments bestehend aus Gemüse, Früchte, Milch und Yoghurt (vegetables, fruits, milk, yogurt) am linken Rand des Dendrogramms in Abb. 11 identifiziert werden. Die absatzpolitische Relevanz solcher auf faktischem Kaufverhalten begründeten hierarchischen Warengruppentypologien wird primär in der Nutzung für Verbundplatzierungen im Verkaufsraum oder Werbemedien (z.b. Flugblätter, Kataloge) sowie in der nachfragerorientierten Bildung sog. Categories im Rahmen des Category-Management-Prozesses gesehen (vgl. dazu etwa Bordemann 1985; Zielke 2002; Müller-Hagedorn 2005). Der traditionellen explorativen Verbundanalyse werden allerdings folgende Haupteinwände entgegen gehalten: (1) Die Einschränkung auf die Analyse von Verbundrelationen zwischen Paaren von Warengruppen (vgl. z.b. Hruschka 1991) und (2) die bei Konstruktion der Verbundmatrix vorgenommene A-Priori-Aggregation der Transaktionsdaten (vgl. z.b. Schnedlitz/Reutterer/Joos 2001). Gelegentlich ist es aber freilich erwünscht, den Sortimentsverbund zwischen mehr als zwei Warengruppen und/oder auf disaggregiertem Niveau zu untersuchen. Man denke etwa an das Studium der Dynamik von Verbundbeziehungen (z.b. über Tageszeiten, Wochentagen, Saisonen, usw. hinweg) oder die im Rahmen von CRM-Programmen besonders interessierende Identifikation von Kundensegmenten, die durch ähnliche Verbundbeziehungen gekennzeichnet sind. Wie sich anhand der nachfolgend vorgestellten Ansätze zeigt, können die Defizite der herkömmlichen Verbundanalyse mit Hilfe geeigneter Data-Mining-Techniken vermieden werden. 6 Verdichtung von Transaktionsdaten zu Prototypen Die oben kritisierte Konstruktion einer homogenen Verbundmatrix für den gesamten (gepoolten) Transaktionsdatensatz wird bei der prototypenbasierten Verbundanalyse durch eine disaggregierte bzw. segmentspezifische Betrachtungsweise des Phänomens Sortimentsverbund ersetzt (vgl. Schnedlitz/Reutterer/Joos 2001; Decker/Monien 2003). In der gegenwärtigen Marketing-Praxis ist dies insbesondere dann von Interesse, wenn personalisierte Transaktionshistorien (z.b. bei Loyalitätsprogrammen in Kombination mit elektronisch lesbaren Kundenkarten) verfügbar sind und segmentspezifisch disaggregierte Verbundanalysen für eine effektivere und effizientere Kundenansprache genutzt werden - 16 -

sollen. Von zentraler Bedeutung ist dabei eine Menge sog. Prototypen, die jeweils eine bestimmte Klasse von Warenkörben mit intern besonders prägnanter Kaufverbundstruktur repräsentieren sollen. Obwohl für die Verdichtung der binären Kaufinzidenzen zu Warenkorb-Prototypen grundsätzlich eine Vielzahl partitionierender Verfahren der Clusteranalyse in Frage kommt, wird angesichts der Datenmengen gelegentlich für den Einsatz adaptiver Methoden plädiert. Schnedlitz et al. (2001), Decker/Monien (2003) sowie Decker (2005) schlagen hierfür die Verwendung von Verfahren der Vektorquantisierung oder geeignete neurale Netzwerkmethoden vor. Diesen ist gemeinsam, dass eine Partitionierung der Daten vorgenommen und die gefundenen Centroide (Mittelpunkte der Cluster) zur Beschreibung der prototypischen Warenkorbklassen herangezogen werden. Als Alternative dazu verwenden wir im vorliegenden Anwendungsbeispiel ein von Kaufman/Rousseeuw (1990) entwickeltes Verfahren mit der Bezeichnung Partitioning Around Medians (PAM), welches sich bereits in anderen Marketing-Anwendungen als vergleichsweise robust gegenüber Ausreißern erwiesen hat (vgl. Larson/Bradlow/Fader 2005). PAM arbeitet ähnlich wie der bekannte iterative K-Means Algorithmus mit dem Hauptunterschied, dass die Cluster nicht durch deren Centroide sondern durch Medoide repräsentiert wird. Als Medoid eines Clusters wird dabei jene repräsentative Transaktion (oder genauer: jener Warenkorb) verstanden, deren durchschnittlicher Abstand zu allen anderen Transaktionen im selben Cluster minimal ist. Da wir an einer Abbildung von Kaufverbundstrukturen interessiert sind, werden für die Partitionierung des Groceries-Datensatzes nur Transaktionen verwendet, die mindestens zwei verschiedene Warengruppen beinhalten. Weiters wird die Warengruppe Tragtaschen (shopping bags) aus der Analyse ausgeschlossen, da diese in Experimenten die Clusterbildung negativ beeinflussten. Dies wird durch Anweisung 1 in Abb. 12 realisiert. Nach dieser Auswahl stehen 7676 Transaktionen und 168 Warengruppen für die Analyse zur Verfügung. Um die Größe der in PAM verwendeten Unähnlichkeitsmatrix zu reduzieren, werden durch Anweisung 2 in Abb. 12 zufällig 2000 Transaktionen aus dem Datensatz gezogen. Danach werden in Anweisung 3 die Unähnlichkeiten zwischen den gezogenen Transaktionen wieder mittels des Jaccard-Koeffizienten errechnet. Der Clusteralgorithmus PAM steht nach Laden des R-Erweiterungspakets cluster (Anweisung 4) zur Verfügung und wird mit der Unähnlichkeitsmatrix diss sowie der gewünschten Anzahl von k Clustern aufgerufen (Anweisung 5). Im vorliegenden Fall werden alle Clusterlösungen mit k = 1 bis 8 bestimmt. Das Ergebnis wird im Objekt clust zurückgeliefert, welches unter anderem die Zuordnung der Transaktionen zu den Clustern sowie Informationen zu den Clusterlösungen enthält. - 17 -

1> groc <- Groceries[size(Groceries)>1, which(itemlabels(groceries) == "shopping bags")] 2> samp <- sample(groc, 2000) 3> diss <- dissimilarity(samp, method = "Jaccard") 4> library("cluster") 5> clust <- lapply(1:8, function(x) pam(diss, k = x)) 6> clust[[5]]$clusinfo size max_diss av_diss diameter separation [1,] 513 0.9474 0.8113 1 0.2857 [2,] 383 0.9286 0.7700 1 0.2500 [3,] 578 1.0000 0.8427 1 0.2500 [4,] 285 0.9091 0.7294 1 0.2500 [5,] 241 0.9091 0.7146 1 0.2500 7> itemfrequencyplot(samp[clust[[5]]$clustering == 2], population = Groceries, support = 0.05) 8> itemfrequencyplot(samp[clust[[5]]$clustering == 5], population = Groceries, support = 0.05) 9> inspect(samp[clust[[5]]$medoids[2]]) items 1 {sausage, rolls/buns, bottled water, soda, newspapers} 10> inspect(samp[clust[[5]]$medoids[5]]) items 1 {soda, canned beer} Abb. 12: Beispiel zur Verdichtung von Transaktionsdaten zu Prototypen Für die Auswahl einer geeigneten Clusteranzahl steht eine reichhaltige Auswahl an internen Validitätsmaßen zur Verfügung (einen Überblick dazu findet man bei Milligan/Cooper 1985), die Großteils auch in R verfügbar sind. Hier wird aus den generierten Clusterlösungen mit Hilfe der durchschnittlichen Breite der sog. Silhouette (vgl. Kaufman/Rousseeuw 1990, S. 83 ff.) eine Klassenanzahl k = 5 ausgewählt. Die Charakteristika dieser Lösung werden durch Anweisung 6 in Abb. 12 angezeigt. Neben der den einzelnen Clustern zugewiesenen Anzahl an Transaktionen (size) erkennt man, dass die durchschnittliche Unähnlichkeit innerhalb der Cluster (av_diss) durchwegs sehr hoch ist. Starke klasseninterne Streuungen sind allerdings für hochdimensionale Daten (n = 168) nicht ungewöhnlich und deuten nicht unbedingt auf eine schlechte Qualität der Clusterlösung hin. - 18 -

Mit Hilfe der Anweisungen 7 und 8 können exemplarisch die Prototypenprofile für zwei ausgewählte Cluster mit den Nummerierungen 2 und 5 dargestellt werden, die in Abb. 13 visualisiert sind. Aus Darstellungsgründen werden dabei nur Warengruppen herangezogen, die in mindestens 5 % der Transaktionen vorkommen. Die Linie kennzeichnet jeweils die relative Frequenzverteilung im gesamten Datensatz und die Balken die Verteilung der warengruppenspezifischen Einkaufsfrequenzen innerhalb der Cluster. Da die Warenkörbe als Binärdaten codiert sind, entsprechen die Prototypenprofile den bedingten Kaufwahrscheinlichkeiten der Warengruppen innerhalb eines Clusters. (a) (b) Abb. 13: Prototypenprofile für Transaktionen in (a) Cluster-Nummer 2 und (b) Cluster- Nummer 5. - 19 -

Für die Verbundanalyse sind nun insbesondere Warengruppenkombinationen mit starken Abweichungen vom Profil der unbedingten Kaufwahrscheinlichkeiten (dargestellt durch die Linie) interessant. Starke positive (negative) Abweichungen signalisieren komplementäre (substitutive) Verbundbeziehungen zwischen den betreffenden Warengruppen. So stellt Cluster 2 in Abb. 13(a) beispielsweise ein prototypisches Einkaufsmuster mit besonders hohen Anteilen in den Warengruppen Wurst, Semmel, Getränke ( bottled water, rolls/buns und soda ) sowie Zeitungen ( newspapers ) dar. Cluster 5 repräsentiert hingegen ein typisches Getränkecluster mit hohen Kaufanteilen in den Warengruppen Limonade ( soda ) und Dosenbier ( canned beer ). Neben den Prototypenprofilen der Transaktionscluster können auch die in den Medoiden der einzelnen Cluster enthaltenen Warengruppen, Artikel, usw. näher inspiziert werden (Anweisungen 9 und 10 in Abb. 12). Auf Warengruppen-Niveau entsprechen diese natürlich den überdurchschnittlich häufig nachgefragten Warengruppen, wie sie bereits in Abb. 13 dargestellt sind. Die prototypenbasierte Verbundanalyse liefert also Warenkorbklassen mit intern prägnanter Kaufverbundstruktur und erlaubt daher eine Verbundanalyse auf beliebig disaggregiertem Niveau. Eine Erweiterung dieses Konzepts in Richtung dynamische Segmentierung von Kundendatenbanken sowie ein Anwendungsbeispiel in der Direktmarketing-Praxis findet man bei Reutterer et al. (2006). Gelegentlich wird ein solcher auf realen Transaktionsdaten ansetzender Segmentierungsansatz auch als Subsegmentation bezeichnet (vgl. Malthouse 2003), wobei das wohl prominenteste Beispiel in der Praxis das Tesco Clubcard-Programm darstellt (vgl. Humby/Hunt 2003, S. 143 ff.). Wie Boztug/Reutterer (2006) zeigen und diskutieren, bietet sich eine prototypenbasierte Warenkorbanalyse aber auch als geeignete Methode zur Vorverdichtung und Warenkorbselektion an, um nachfolgend segmentspezifisch maßgeschneiderte Erklärungsmodelle für Kreuzeffekte zwischen Warengruppen in Abhängigkeit von diversen Marketing-Variablen zu schätzen. 7 Generierung von bedeutsamen Assoziationsregeln Neuere aus der Data-Mining-Literatur stammende Ansätze zur Warenkorbanalyse zielen ebenfalls auf die Analyse der gemeinsamen Kaufhäufigkeiten für eine (typischerweise sehr große) Auswahl von Warengruppen oder einzelne Artikel ab. Es handelt sich hierbei um Methoden zur Konstruktion und Beurteilung sog. Assoziationsregeln (Association Rules; Agrawal/Srikant 1994), die über die kritisierte Einschränkung der Affinitätsanalyse auf paarweise Verbundbeziehungen hinaus gehen und die in den beobachteten Transaktionsdaten - 20 -

verborgenen Interdependenzstrukturen über einen probabilistischen Messansatz in Form von Regeln zwischen beliebigen Mengen von Artikeln bzw. Warengruppen abbilden. Eine einfache derartige Regel könnte beispielsweise folgendermaßen lauten: Wenn ein/e Kunde/in Brot und Milch kauft, wird er/sie auch Butter kaufen. Eine solche Regel beschreibt zunächst Muster im Aufbau von Warenkörben und wird aus Marketingsicht dann interessant, wenn sie mit gewissen Wahrscheinlichkeitsaussagen ausgestattet ist und Rückschlüsse auf beobachtbares Kaufverhalten zulässt (Berry/Linoff 1997). Assoziationsregeln (Agrawal et al. 1993) formalisieren solche Regeln als Implikationen der Art {Brot, Milch} {Butter}. Ausgehend von einem gegebenen Transaktionsdatensatz, beinhalten Assoziationsregeln zunächst alle möglichen Regeln, die sich aus dem Sortiment bilden lassen und die einen Mindestwert des Signifikanzmaßes Support und des Qualitätsmaßes Konfidenz übersteigen. Der Support ist dabei als relativer Anteil an allen Transaktionen definiert, in welchen sich die in einer Regel befindlichen Warengruppen oder Artikel (Items) befinden. Weist die oben erwähnte Regel beispielsweise einen Support von 1 % auf, ist dies gleichbedeutend damit, dass die auch als Itemmenge bezeichnete Kombination von Warengruppen {Brot, Milch, Butter} gemeinsam in 1 % aller Transaktionen als Nachfragemuster gefunden wurde. Die Konfidenz einer Regel gibt hingegen an, wie oft die von einer Regel behauptete Implikation zutrifft. Weist die erwähnte Regel etwa eine Konfidenz von 50 % auf, ist dies gleichbedeutend damit, dass in der Hälfte der Warenkörbe, die Brot und Milch enthalten, auch Butter nachgefragt wird, also die Regel {Brot, Milch} {Butter} zutrifft. Dies muss jedoch nicht notwendigerweise auf all jene Regeln gleichermaßen zutreffen, die sich aus Permutationen der in einem Itemset enthaltenen Warengruppen bzw. Artikel erzeugen lassen. Mit anderen Worten, können die Regeln {Brot, Butter} {Milch} oder {Butter, Milch} {Brot} trotz identischen Supports durchaus mit anderen Konfidenzen ausgestattet sein. Dies verdeutlicht, dass Support ein symmetrisches und Konfidenz ein assymmetrisches Verbundmaß darstellt (vgl. dazu auch Decker/Schimmelpfennig 2002). Für Regeln der oben beschriebenen Art existieren eine Reihe weiterer Qualitätsmaße. Ein wichtiges Maß ist Interest (Brin et al. 1997), das im Anschluss an die einschlägige Literatur auch als Lift bezeichnet wird. Das Lift-Maß gibt das Verhältnis der gemeinsamen Vorkommenshäufigkeit der linken (dem sog. Rumpf oder Prämisse) und der rechten Seite (dem sog. Kopf oder Konklusion) einer Regel von der unter Annahme stochastischer - 21 -

Unabhängigkeit erwarteten Vorkommenshäufigkeit an 4. Lift-Werte größer als 1 weisen somit auf Komplementäreffekte zwischen den im Regelrumpf enthaltenen Items und dem Regelkopf hin, während Werte kleiner als 1 Substitutionseffekte signalisieren. Als Engpassfaktor bei der Identifikation von bedeutsamen Assoziationsregeln erweist sich die mit zunehmender Sortimentsgröße explodierende Menge aller möglichen Itemsets (einschließlich der daraus ableitbaren Regeln). Zur Bewältigung des damit einhergehenden Komplexitätsproblems wurde in der Literatur zum Association-Rule-Mining eine Reihe effizienter Suchstrategien vorgeschlagen. In den meisten Data-Mining-Systemen (wie auch in arules) ist eine Variante des populären APRIORI-Algorithms (Agrawal/Srikant 1994) implementiert, der für ein vorgegebenes minimales Support- und Konfidenzkriterium alle zulässigen Regeln findet. 1> rules <- apriori(groceries, parameter = list(support = 0.001, confidence = 0.2), control = list(verbose = FALSE)) 2> summary(rules) set of 21574 rules rule length distribution (lhs + rhs): 1 2 3 4 5 1 620 9337 9824 1792 Min. 1st Qu. Median Mean 3rd Qu. Max. 1.000 3.000 4.000 3.593 4.000 5.000 summary of quality measures: support confidence lift Min. :0.00102 Min. :0.200 Min. : 0.803 1st Qu.:0.00112 1st Qu.:0.263 1st Qu.: 2.115 Median :0.00132 Median :0.355 Median : 2.756 Mean :0.00196 Mean :0.396 Mean : 3.016 3rd Qu.:0.00193 3rd Qu.:0.500 3rd Qu.: 3.612 Max. :0.25552 Max. :1.000 Max. :35.716 Abb. 14: Generierung von Assoziationsregeln Für den Groceries-Datensatz werden mit Anweisung 1 in Abb. 14 alle möglichen Assoziationsregeln mit minimalem Support von 0,1 % und einer Konfidenz von mindestens 20 % generiert. Die Übersicht zur gefundenen Regelmenge (Anweisung 2) zeigt an, dass 4 Vor dem Hintergrund der Beuteilung von komplementären bzw. subsitutionalen Verbundeffekten gelangt diese Annahme auch bereits in der klassischen Affinitätsanalyse zur Anwendung (vgl. dazu bereits bei Böcker 1981, S. 20 f. und S. 80 f. oder Hruschka 1991). - 22 -

21.574 (!) Regeln gefunden wurden, für die die gewählten Minimalvorgaben zutreffen. Die Verteilung der in den Regeln (und zwar unabhängig ob im Regelrumpf oder -kopf) vorkommenden Anzahl an Warengruppen wird als nächstes angegeben. Im Durchschnitt enthalten die gefundenen Regeln 3,593 unterschiedliche Warengruppen. Der letzte Teil der Ausgabe betrifft die Qualitätsmaße der Regeln. Es werden Statistiken zur Verteilung von Support, Konfidenz und Lift angegeben. Selbstverständlich wird dem/der Benutzer/in nicht die Inspektion der gesamten Regelliste abverlangt, sondern eine Reihe von Selektions- und Auswahlhilfen zur Aufdeckung besonders interessanter Regeln angeboten. Als Beispiel werden durch Anweisung 1 in Abb. 15 die zuvor gefundenen Regeln nach absteigenden Werten des Lift-Maßes sortiert und die drei Regeln mit dem höchsten Wert ausgegeben. Das Ergebnis liefert erwartungsgemäß sehr plausible Beziehungen zwischen typisch verwendungsverbundenen Warengruppen wie beispielsweise Schinken, Weißbrot und Käse (Regel 3 in Abb. 15). Die Interpretation des Liftmaßes impliziert, dass falls Schinken und Weißbrot im Warenkorb enthalten sind, Käse um einen Faktor von 22,93 Mal häufiger nachgefragt wird als im gesamten Datensatz (vgl. Decker/Schimmelpfennig 2002). Analoges gilt für die anderen Regeln. 1> inspect(sort(rules, by = "lift")[1:3]) lhs rhs support confidence lift 1 {bottled beer, red/blush wine} => {liquor} 0.001932 0.3958 35.72 2 {hamburger meat, soda} => {Instant food products} 0.001220 0.2105 26.21 3 {ham, white bread} => {processed cheese} 0.001932 0.3800 22.93 2> rulesbeef <- subset(rules, rhs %in% "beef") 3> inspect(sort(rulesbeef, by = "conf")[1:3]) lhs rhs support confidence lift 1 {root vegetables, whole milk, butter, rolls/buns} => {beef} 0.001118 0.4783 9.116 2 {sausage, root vegetables, butter} => {beef} 0.001017 0.4545 8.664 3 {root vegetables, butter, yogurt} => {beef} 0.001525 0.3947 7.524 Abb. 15: Beispiel zur Selektion von interessanten Regeln - 23 -