Eine kritische Betrachtung von Data-Mining-Prozessen Ablauf, Effizienz und Unterstützungspotenziale

Größe: px
Ab Seite anzeigen:

Download "Eine kritische Betrachtung von Data-Mining-Prozessen Ablauf, Effizienz und Unterstützungspotenziale"

Transkript

1 B. Knobloch, J. Weidner 1 Eine kritische Betrachtung von Data-Mining-Prozessen Ablauf, Effizienz und Unterstützungspotenziale Erschienen in: Jung, R.; Winter, R. (Hrsg.): Data Warehousing Methoden, Anwendungen, Strategien, Heidelberg (Physica) 2000, S Dipl.-Wirtsch.Inf. Bernd Knobloch, Otto-Friedrich-Universität Bamberg, Lehrstuhl für Wirtschaftsinformatik, insb. Systementwicklung u. Datenbankanwendung, D Bamberg, bernd.knobloch@sowi.uni-bamberg.de; Dr. Jens Weidner, SAP AG, Neurottstraße 16, D Walldorf. jens.weidner@sap.com

2 Eine kritische Betrachtung von Data-Mining-Prozessen Ablauf, Effizienz und Unterstützungspotenziale Zusammenfassung Data-Mining-Untersuchungen sind durch mangelnde Produktivität gekennzeichnet, die sich einerseits aus der Komplexität des Analyseprozesses, andererseits aus einer Vielzahl denkbarer Untersuchungsprobleme ergibt, welche in unterschiedlichster Weise miteinander kombinierbar sind bzw. zur Behandlung konkreter Fragestellungen kombiniert werden müssen. Anschließend an eine allgemeine Darstellung von Data-Mining-Problemen und deren Gegenüberstellung mit anderen Analyseproblemen beschreibt dieser Beitrag betriebswirtschaftliche Datenanalyseprozesse und untersucht diese hinsichtlich ihrer Effizienz. Aus den zur Durchführung von Data Mining erforderlichen Prozessphasen und deren Produktivitätsengpässen werden Anforderungen an geeignete Analysesysteme abgeleitet. Diese sollen den Business User bei Data-Mining-Untersuchungen unterstützen und insbesondere in der Lage sein die Effizienz des Analyseprozesses zu steigern. Es werden Lösungsansätze vorgestellt, wie solche Systeme auf der Grundlage aktuell verfügbarer Technologie realisiert werden können und es wird aufgezeigt, inwiefern bestimmte Anforderungen derzeit noch nicht erfüllbar sind. Der Beitrag stützt sich auf umfangreiche Erfahrungen aus Data-Mining-Projekten und aus der Entwicklung eines Pilotsystems, das auf Grundlage der dargestellten Erkenntnisse konzipiert wurde. 1 Problemstellung Der Data-Mining-Ansatz gilt als vielversprechendes Konzept zur Analyse sehr großer Datenmengen, wobei insbesondere die damit mögliche Entdeckung bislang unbekannter Informationen zur Erlangung von Wettbewerbsvorteilen oder zur Erkennung neuer Marktpotenziale von Interesse ist. Mittlerweile steht eine Vielzahl von Analysemethoden zur Verfügung, die als Data-Mining-Verfahren angesehen werden können (vgl. Chamoni/Budde 1997). Gerade die Anwendung des Data-Mining-Ansatzes zur Unterstützung und Vorbereitung betriebswirtschaftlicher Entscheidungen bleibt in der betrieblichen Praxis jedoch hinter den Erwartungen zurück. Die in den Fachabteilungen mit Data Mining betrauten Akteure verfügen in der Regel nur über begrenztes mathematisch-statistisches Spezialwissen und erfahren bei der Anforderung von 2

3 Untersuchungsdaten meist nur eingeschränkt Unterstützung durch Datenbankspezialisten. In die zu behandelnden Entscheidungsprozesse sind typischerweise Informationen aus unterschiedlichsten Kontexten einzubeziehen (neben Unternehmensdaten z.b. auch externe Daten über Branchentrends, Ergebnisse der Marktforschung, wissenschaftliche Untersuchungen, etc.). Solche Situationen treten z.b. häufig in Marketing- und Controlling-Abteilungen auf. Derartige Problemstellungen sind durch eine außerordentlich hohe Komplexität gekennzeichnet. Anders als eher operative Anwendungen des Data Mining, wie z.b. das Churn Management bei Versicherungen oder die Zielgruppenselektion bei Versandhändlern, liegen sie nicht in den Händen von Analysespezialisten und behandeln häufig wechselnde Fragestellungen. Die Durchführung einer Data-Mining-Untersuchung beschränkt sich nicht auf die Anwendung eines Algorithmus auf eine Datenmenge; vielmehr handelt es sich dabei um einen sehr aufwendigen Prozess. Entlang dieses Prozesses sind Produktivitätsengpässe zu erkennen, die den Aufwand und die Zeitspanne von der Formulierung einer konkreten Fragestellung bis zu deren Beantwortung durch Analyseergebnisse in ungünstigen Fällen stark vergrößern können. Dieser Beitrag zeigt anhand der einzelnen Phasen von Data-Mining-Prozessen wo solche Schwachstellen liegen und arbeitet Lösungsansätze heraus, die in der Lage sind die Effizienz des Gesamtprozesses zu steigern. Gleichzeitig wird auf Grenzen hingewiesen die derzeit noch nicht überschritten werden können, andererseits aber Forschungs- und Weiterentwicklungsbedarfe aufzeigen. 2 Data-Mining-Probleme Data Mining wird häufig als eine Menge bestimmter Datenanalysemethoden definiert. Welche konkreten Verfahren dieser Menge zuzuordnen sind, ist allerdings umstritten. Während ein Teil der Literatur unter Data Mining nur eine begrenzte Gruppe von Analyseverfahren aus bestimmten Forschungsgebieten versteht, verwenden ihn andere Quellen als Oberbegriff für sämtliche Formen der computergestützten Datenanalyse (Hagedorn 1996, S.22). Weitgehende Einigkeit herrscht jedoch bezüglich der allgemeinen Zielsetzung des Data Mining, nämlich der Entdeckung bislang unbekannter Informationen (Muster) in großen Datenmengen (vgl. z.b. Bigus 1996, S. 9). Wird die Betrachtung in zwei Ebenen, die Anwendungs- und die Verfahrensebene, differenziert, so lässt sich Data Mining als Aufgabe interpretieren, die mittels verschiedener, zunächst nicht näher beschriebener Lösungsverfahren durchgeführt werden kann (Knobloch 2000, S ). 3

4 2.1 Einordnung Aus Sicht der Untersuchungsprobleme können Datenanalyseaufgaben differenziert werden nach dem Ausmaß, in dem Hypothesen des Anwenders eine Rolle spielen, wobei eine Hypothese hier allgemein als Erklärungsvorschlag (Annahme) verstanden wird, der auf seine Gültigkeit hin zu überprüfen ist (Berry/Linoff 1997, S. 65). Dementsprechend sind zwei grundlegende Typen von Datenanalyseproblemen zu unterscheiden. Einerseits existieren hypothesengetriebene Fragestellungen, deren Ziel es ist bestehende Annahmen oder Theorien anhand von Daten zu verifizieren oder falsifizieren. Sie werden auch als Top-Down-Ansätze bezeichnet, da sie die Datenbestände ausgehend von einer Hypothese untersuchen. Andererseits sind eher hypothesenfreie Probleme zu identifizieren, denen keine konkreten Annahmen zugrunde liegen. Sie sind durch eine Bottom-Up-Vorgehensweise gekennzeichnet, die ausgehend von den vorliegenden Daten neue, zunächst hypothetische Erkenntnisse erzeugt (Berry/Linoff 1997, S. 64). Man spricht daher auch von datengetriebenen Analysen. ANWENDUNGSEBENE Untersuchungsproblem Datenanalyse Analyseziel Datenmustererkennung Datengetriebene Analyse, "Bottom Up" Hypothesenverifikation Hypothesengetriebene Analyse, "Top Down" Grad der Nutzerinteraktion Autonomie des Ansatzes nicht nutzergeführt Unüberwachte Verfahren nutzergeführt Überwachte Verfahren Data Mining nutzergeführt Methode Data-Mining-Verfahren "klassische" Verfahren VERFAHRENSEBENE Abbildung 1: Einordnung von Data-Mining-Problemen (Knobloch 2000, S. 14) Eine allgemein anerkannte Definition beschreibt Data Mining als nicht-triviale Entdeckung gültiger, neuer, potenziell nützlicher und verständlicher Muster in Datenbeständen (Fayyad et al. 1996, S. 6ff.). Der zentrale Aspekt dieser Aufgabenstellung ist die Entdeckung. Es handelt sich damit also nicht um hypothesengetriebene Problemstellungen, sondern um eine datengetriebene Aufdeckung neuer Muster und Beziehungen. Die Datengetriebenheit ist das Hauptmerkmal des Data Mining, welches das Ziel der Datenmustererkennung verfolgt. Die Suche nach Auffälligkeiten soll durch die Annahmen und 4

5 subjektiven Präferenzen des Anwenders möglichst unbeeinflusst bleiben. Anders als bei hypothesengetriebenen Problemen erfolgt keine vorherige Festlegung, welche Variablen einen Zusammenhang erklären. Die betreffenden Fragestellungen sind daher typischerweise von einer Art wie Welche Artikel verkaufen sich besonders gut zusammen? oder Welche Charakteristika kennzeichnen unsere Stammkunden? Abbildung 1 zeigt die problemorientierte Einordnung von Datenanalyseaufgaben. Eine Datenanalysemethode ist demnach als Data-Mining-Verfahren zu klassifizieren, wenn sie geeignet ist datengetriebene Untersuchungen durchzuführen die das Ziel der Entdeckung von Mustern in Datenbeständen verfolgen. 2.2 Knowledge Discovery in Databases Die durch die Anwendung von Data-Mining-Methoden entdeckten Muster stellen noch kein Wissen dar. Erst durch ergänzende Interpretations- und Bewertungsmaßnahmen kann entschieden werden, ob die ermittelten Informationen tatsächlich interessant, d.h. gültig, neuartig, nützlich und verständlich sind. Darüber hinaus sind auch Aspekte der Datenselektion, der Vorverarbeitung und Transformation, die vor der eigentlichen Datenmustererkennung auszuführen sind, zu beachten, um die Qualität des aufgefundenen Wissens sicherzustellen (Fayyad et al. 1996, S. 9). Der Prozess des Knowledge Discovery in Databases (KDD) vereint diese vor- und nachgelagerten Aufgaben mit dem eigentlichen Data Mining in einem generischen Lösungsverfahren zur Wissensentdeckung. Aufgrund der eben erwähnten Problematik können auf höchster Ebene drei Phasen des Knowledge Discovery identifiziert werden, nämlich die Vorverarbeitung des Datenmaterials, die Durchführung der eigentlichen Analyse sowie die Interpretation der Analyseergebnisse. Durch weitere Zerlegung der ersten Phase können weitere Teilaufgaben aufgedeckt werden, woraus je nach Genauigkeit der Betrachtung mehr oder weniger Teilschritte resultieren. Die einzelnen KDD- Phasen werden im Folgenden stichpunktartig charakterisiert, wobei eine Dreiteilung der ersten Phase vorgenommen wurde, die aus Erfahrung am zweckmäßigsten erscheint (vgl. Knobloch 2000, S. 34ff.). Selektion der Daten: Lokalisierung geeigneter Datenquellen; Auswahl von Datensätzen und Attributen; Stichprobenbildung Exploration der Daten: Kennenlernen der Struktur des Datenmaterials und seiner Mängel Manipulation der Daten: Beseitigung von Datenmängeln und Transformation der Datendarstellung 5

6 Analyse der Daten: Durchführung der Data-Mining-Untersuchung Interpretation der Ergebnisse: Bewertung der gewonnenen Erkenntnisse hinsichtlich ihrer Interessantheit und Interpretation ihrer Bedeutung 3 Betriebswirtschaftliche Datenanalyseprozesse Zur Erzeugung betriebswirtschaftlichen Nutzens ist die bloße Durchführung umfangreicher Datenanalysen nicht ausreichend. Vielmehr müssen die durch sie gewonnenen Erkenntnisse ihren Niederschlag in Handlungsmaßnahmen finden, um den meist erheblichen Aufwand der Untersuchungen zu rechtfertigen (Adriaans/Zantinge 1996, S. 81). Hierzu kann in Anlehnung an einen Vorschlag von Berry und Linoff 1997 ein Handlungsschema entwickelt werden, welches auf dem Konzept der Untersuchungssituation (Ferstl 1979) basiert und die Einbettung von Datenanalyse-Projekten in das betriebliche Umfeld beschreibt. Dieses Schema ist sowohl auf hypothesen- als auch auf datengetriebene Analyseprobleme anwendbar und dementsprechend in diesem erweiterten Kontext zu betrachten. Die vier Schritte des Handlungsschemas werden im Folgenden erläutert (vgl. Knobloch 2000, S. 55ff.). 3.1 Spezifikation des Untersuchungsproblems Ausgangspunkt für jede Analyseaktivität ist stets ein Untersuchungsziel in Form einer Fragestellung. In der Regel wird ein spezifischer Informationsbedarf in Hinblick auf eine konkrete Handlung formuliert. Neben der Spezifikation des Untersuchungsziels gehört auch die Identifikation von Analysedatenbeständen zur Festlegung des Untersuchungsproblems. Die verfügbaren Daten sind zu bewerten und auf ihre Eignung für die Verfolgung des Untersuchungsziels zu prüfen (Adriaans/Zantinge 1996, S. 81ff.). 3.2 Durchführung der Untersuchung Zur Durchführung der Datenanalyse ist ein geeignetes Untersuchungsverfahren zu wählen, welches das verfolgte Analyseziel auf Basis der verfügbaren Datenbestände am besten zu erreichen verspricht. Die Anwendung eines Verfahrens auf ein Untersuchungsproblem wird als Untersuchungssituation 6

7 bezeichnet. Im Rahmen dieses Schrittes ist der oben erwähnte KDD-Prozess zu durchlaufen, der neue Erkenntnisse liefern soll. 3.3 Umsetzung der Untersuchungsergebnisse Aus betriebswirtschaftlicher Sicht müssen die Handlungskonsequenzen, die aus Datenanalyseergebnissen abgeleitet werden, dem Unternehmen ökonomische Vorteile verschaffen können. Die Ermittlung geeigneter Maßnahmen erweist sich jedoch in der Regel als nicht-triviales Problem. Prinzipiell sind zwei Formen der Ergebnisverwertung denkbar: Neben der Durchführung (einmaliger) Aktionen wie z.b. Massenbriefsendungen kann das neu erworbene Wissen in operative Vorgänge einfließen (Krahl et al. 1998, S. 31; Bigus 1996, S. 14). 3.4 Evaluierung der Untersuchungssituation Das Ziel des Evaluierungsschrittes besteht darin, Möglichkeiten zur Verbesserung der Untersuchungssituation zu erkennen oder Hinweise auf neue Untersuchungsprobleme zu liefern und damit neue Analyseprojekte zu initiieren. Hierdurch ergibt sich die Möglichkeit einer kontinuierlichen Steigerung der Zielerreichung durch Lerneffekte. Zur Berechnung des Nutzens einer Untersuchung ist der durch eine umgesetzte Maßnahme realisierte Ertrag dem Aufwand ihrer Durchführung und dem der Datenanalyse gegenüberzustellen (Berry/Linoff 1997, 109ff.). Nach der globalen Bewertung des Projekts sind die Elemente der Untersuchungssituation (Zielsetzung, Datenbasis und eingesetzte Verfahren) zu beurteilen. Dabei müssen sämtliche Bewertungselemente stets auf das zugehörige Untersuchungsproblem Bezug nehmen (Knobloch 2000, S. 60f.). 3.5 Kopplung von Datenanalyseproblemen Bottom-Up-Probleme können ohne vorgegebene Annahmen ausgeführt werden und liefern als Lösung eine Hypothesenmenge zurück, Top-Down-Probleme hingegen basieren auf Hypothesen, die zu prüfen sind. Diese Tatsache legt eine Kopplung hypothesengetriebener mit datengetriebenen Analyseproblemen nahe. Dies kann in Form eines Zyklus geschehen, in dem nacheinander verschiedene Untersuchungssituationen mit jeweils abwechselnden Problemtypen behandelt werden: Zuerst erklärt eine Bottom-Up-Analyse die in den Datenbeständen enthaltenen Phänomene mittels generierter Hypothesen, welche anschließend Top- Down-Analysen unterzogen werden, um sie anhand der Daten zu verifizieren oder falsifizieren. Weitere Schritte können folgen, woraus ein mehrfaches Durchlaufen des Analysezyklus resultiert (Abbildung 2) (Knobloch 2000, S. 14ff.; Berry/Linoff 1997, S. 64; Adriaans/Zantinge 1996, S. 14ff.). 7

8 Nach einmaligem Durchschreiten des Zyklus ergibt sich in der Regel eine Reihe neuer Erkenntnisse und weiterer Fragestellungen, die zu weiteren Analyseschritten führen können. Dem Zyklus liegt die Idee zugrunde, dass die Ergebnisse einer Untersuchungssituation zu den Motivatoren für die nächste Analyse werden (Berry/Linoff 1997, S. 92). Da hierbei meist andere Untersuchungsprobleme als in vorangegangenen Iterationen vorliegen, ist der Einsatz anderer Analyseverfahren notwendig. Der Datenanalysezyklus erfordert die Möglichkeit zur Behandlung unterschiedlichster Untersuchungsprobleme, wobei neben Data-Mining-Aufgaben stets auch klassische Top-Down-Analyseprobleme auftreten. Datengetriebene Analyse: Generieren von Hypothesen "Bottom-Up-Probleme" Data-Mining- Analyse Datenbasis Hypothese Herkömmliche Datenanalyse "Top-Down-Probleme" Hypothesengetriebene Analyse: Verifikation / Falsifikation von Hypothesen Abbildung 2: Datenanalysezyklus (Knobloch 2000, S. 15) 4 Effizienz von Datenanalyseprozessen Data-Mining-Untersuchungen sind Prozesse von sehr hoher Komplexität, die gleichwohl große Potenziale eröffnen. Bei ihrer Durchführung im betriebswirtschaftlichen Kontext sind prinzipiell die vier Phasen des Handlungsschemas zu durchschreiten, wobei sich die Durchführungsphase in die einzelnen Schritte des KDD-Prozesses zerlegen lässt. Dieser wird nun aus dem Blickwinkel der Effizienz betrachtet. Der KDD-Prozess wird nicht in jedem Falle geradlinig durchlaufen. Vielmehr ist in jeder Phase ein Rücksprung auf einen vorangegangenen Schritt möglich. Stellt sich z.b. im Rahmen der Analyse heraus, dass die Daten nicht den Anforderungen des Untersuchungsverfahrens genügen, muss zur Manipulationsphase zurückverzweigt werden, um weitere Transformationen vorzunehmen. 8

9 Insbesondere das Ausmaß der Datenmängel kann in den seltensten Fällen auf Anhieb erkannt werden, sondern tritt meist sukzessive bei Durchschreiten der Explorations- bzw. Analysephase zutage (Adriaans/Zantinge 1996, S ). Jede Untersuchungssituation ist durch spezifische Eigenschaften gekennzeichnet, jeder Datenbestand weist ihm eigene Mängel auf. Wie im konkreten Anwendungsfall vorzugehen ist, ergibt sich erst im Laufe der Untersuchung. Durch diesen iterativen Ablauf ergeben sich meist erhebliche Prozesslaufzeiten, die sich negativ auf die Effizienz von Datenanalysen auswirken. 4.1 Selektion der Daten In den einzelnen Teilphasen des Prozesses treten jeweils spezifische Effizienzengpässe auf. Bei der Datenselektion, zu der insbesondere auch die Datenbeschaffung zählt, (Knobloch 2000, S. 37) können Probleme bei der Harmonisierung von Daten aus (mehreren) operativen Systemen auftreten, die nicht zu unterschätzende Aufwände mit sich bringen (Adriaans/Zantinge 1996, S. 83). Besonders negativ wirkt sich in diesem Zusammenhang die iterative Natur des KDD-Prozesses aus, falls mehrere Versuche nötig sind um geeignetes Datenmaterial bzw. geeignete Datenstrukturen für eine spezifische Untersuchung zu finden. Die Auswahl relevanter Attribute gestaltet sich meist schwierig, da oft im Voraus nicht bekannt ist welche Einflussgrößen in welcher Weise auf die Analyseziele einwirken (Krahl et al. 1998, S. 44). Sofern die Zwischenspeicherung eines konsolidierten Datenbestands nicht möglich ist, sind die Harmonisierungsmechanismen hierbei jedes Mal erneut anzuwenden. 4.2 Exploration der Daten Werden im Rahmen des Analyseschrittes auffällige Muster oder unerklärliche statistische Häufigkeiten aufgedeckt, so können dies Hinweise auf bislang nicht erkannte Datenmängel sein, die durch Rücksprung zur Manipulationsphase zu behandeln sind (Adriaans/Zantinge 1996, S. 50). Der Sinn eines eigenen Explorationsschrittes besteht darin, möglichst viele Datenmängel frühzeitig zu erkennen und die Effizienz des KDD-Prozesses durch Verringerung der Anzahl notwendiger Iterationen von Vorverarbeitungsschritten zu steigern. Da den meisten Unternehmen das Ausmaß der ihren Daten anhaftenden Mängel nicht bewusst ist, sollte jedoch nicht zu wenig Zeit für die Exploration der Datenbestände reserviert werden (Krahl et al. 1998, S. 42; Adriaans/Zantinge 1996, S. 84). Die Inkaufnahme zusätzlichen Aufwands an dieser Stelle führt zur merklichen Beschleunigung des Gesamtprozesses. 9

10 4.3 Manipulation der Daten Da sich die verfügbaren Rohdatenbestände häufig als fehlerhaft oder in ihrer Ursprungsform nicht zur Datenmustererkennung geeignet erweisen, sind sie durch entsprechende Manipulationsschritte den Anforderungen anzupassen. Diese Vorverarbeitung des Datenmaterials nimmt bei Data-Mining-Analysen überaus breiten Raum ein. Nach erfahrungsgemäß realistischen Schätzungen verzehren sie bis zu 80% der im Zuge von Data-Mining-Projekten verbrauchten Ressourcen (vgl. z.b. Bigus 1996, S. 12). 4.4 Analyse der Daten Zur Behandlung einer konkreten Problemstellung muss ein geeignetes Analyseverfahren ausgewählt und dieses anschließend parametrisiert werden. Hierbei kann in den seltensten Fällen auf Anhieb eine zufriedenstellende Verfahrenskonfiguration gefunden werden. Vielmehr stellt sich häufig bei der Durchführung der ersten Analysen heraus, dass das gewählte Berechnungsmodell bzw. der methodische Ansatz nicht zum gewünschten Ergebnis führen und eine andere Alternative oder Parametrisierung zu wählen ist (Krahl et al. 1998, S. 31). Datengetriebene Analysen erfordern Lernprozesse beim Anwender, die sich auf die Auswahl der Daten, die Auswahl der Attribute und deren Darstellungsform (Datenstrukturen) sowie die Auswahl einer brauchbaren Verfahrenskonfiguration beziehen. Diese Lernprozesse sind in jedem Falle zu durchlaufen; sie variieren allenfalls bezüglich ihres Ausmaßes. Bei wiederholt auszuführenden Standarduntersuchungen wird die Zahl der notwendigen Iterationen mit zunehmender Erfahrung abnehmen, während die Lernkurve bei wenig oder nicht standardisierbaren Untersuchungssituationen nur sehr allmählich abflachen wird. 4.5 Interpretation der Ergebnisse Die korrekte Interpretation von Data-Mining-Ergebnissen erfordert sowohl analytisch-methodische als auch fachliche Kenntnisse. Gegebenenfalls muss sich ein Team von Experten aus unterschiedlichen Bereichen zusammenfinden, um die Bewertung gemeinsam vorzunehmen (Berry/Linoff 1997, S. 72). Es handelt sich hierbei um einen überaus kreativen Prozess, der meist wenig strukturiert abläuft und in den möglicherweise eine Menge von Soft Facts und Intuitionen einfließen. Die Effizienz dieses Schrittes ist daher sehr gering. Oft verstreicht eine längere Zeitspanne bis Bedeutung und Konsequenzen analytischer Ergebnisse deutlich werden, und häufig können Data-Mining-Ergebnisse überhaupt nicht sinnvoll interpretiert werden (Krahl et al. 1998, S. 161). Die im Rahmen der Explorationsphase gewonnenen Einblicke in die Datenbasis können in vielen Situationen wertvolle Erkenntnisse liefern, vor deren 10

11 Hintergrund die Bedeutung mancher Untersuchungsergebnisse klarer in Erscheinung treten wird. Der Aufwand für eine ausführliche Exploration des Datenmaterials kann sich also positiv auf die Produktivität des Interpretationsschrittes auswirken. 5 Anforderungen an KDD-Systeme Durch die genannten Effizienzengpässe ergibt sich ein Konflikt, da diese zusammen mit der Komplexität des KDD-Prozesses einerseits eine regelmäßige Anwendung des Data-Mining-Ansatzes erschweren, seine Potenziale andererseits aber eine möglichst intensive Nutzung des Konzepts nahe legen. Insbesondere das Streben nach einer Rechtfertigung der hohen mit KDD verbundenen Aufwände lässt hochfrequente Analysen sinnvoll erscheinen. Aus diesem Konflikt resultiert die zentrale Forderung nach Datenanalysesystemen oder KDD-Umgebungen, die in der Lage sind die Effizienz der Datenanalyse so weit wie möglich zu steigern. Diese Steigerung ist allgemein durch eine weitgehende Automatisierung der einzelnen Prozessphasen zu erreichen. Da der KDD-Prozess an sich kaum standardisierbar ist, wird eine solche Automatisierung allerdings erheblich erschwert. Im Folgenden werden aus den vier Schritten des in Abschnitt 3 eingeführten Handlungsschemas weitere Forderungen an KDD-Systeme abgeleitet. 5.1 Szenarien von Untersuchungsproblemen Die Analyse eines Untersuchungsobjektes (hier: Datenbestände) zur Verfolgung eines Untersuchungsziels wird als Untersuchungsproblem bezeichnet (Ferstl 1979, S. 43). Untersuchungsprobleme können beliebig verfeinert werden, nämlich einerseits durch Einschränkung auf Teilziele, andererseits durch gezielte Auswahl der Analysedaten. Die Zielsetzung des Untersuchungsproblems höchster Ebene lässt sich meist in beliebig vielen Stufen genauer spezifizieren, indem konkrete fachliche Fragestellungen formuliert werden. Die Datenbestände, die zur Untersuchung herangezogen werden, können hinsichtlich ihres Inhalts z.b. nach räumlichen, zeitlichen oder sachlichen Kriterien, ihrer Aggregationsstufe und anderer Überlegungen (z.b. Stichprobenbildung) ausgewählt werden. Allein durch Kombination einzelner Alternativen beider Dimensionen ergibt sich eine große Menge potenzieller Untersuchungsprobleme, die durch die Differenzierung in hypothesen- und datengetriebene Analysen sowie die Kopplung im Datenanalysezyklus zu großer Breite anwachsen. 11

12 Idealerweise sollte die Generierung von Hypothesen durch Bottom-Up-Analysen und deren anschließende Prüfung mit Top-Down-Ansätzen auf identischen Datenbeständen erfolgen. Bereits geringfügige Modifikationen, wie die Diskretisierung kontinuierlicher Variabler, können z.b. die Ergebnisse von Clusteranalysen erheblich beeinflussen. Werden Daten aus einem Data Warehouse abgegriffen und vor der Datenmustererkennung manipuliert, so kann die Nachvollziehbarkeit der Resultate und die Verifizierbarkeit der Hypothesen gefährdet sein, wenn dies auf den Daten des Data Warehouse geschieht. Ergebnisse einer Untersuchungssituation sollten stets als Eingabedaten für weitere Analyseschritte nutzbar sein. Datenanalyseumgebungen sollten also größtmögliche Flexibilität hinsichtlich der Analyseziele, der Selektion der Analysedaten und deren Aggregationsebenen, der Art der Untersuchung (hypothesen- oder datengetrieben) sowie der Kopplung von Untersuchungsproblemen auf einheitlichen Datenbeständen bieten. 5.2 Überlegungen zu Untersuchungsverfahren Zur Unterstützung komplexer Datenanalyseprozesse müssen unterschiedliche Untersuchungsverfahren zur Verfügung stehen, da unterschiedliche Analyseziele im Allgemeinen den Einsatz verschiedener Methoden bedingen. Insbesondere sollten neben klassischen Berichtswerkzeugen wie Datenbank-Tools und Statistik auch Data-Mining-Verfahren bereitstehen, um hypothesengetrieben und datengetrieben vorgehen zu können (vgl. auch Adriaans/Zantinge 1996, S. 90). Des Weiteren kann ein Analyseziel in der Regel mit Hilfe mehrerer Verfahren verfolgt werden. KDD-Systeme sollten demnach eine entsprechend breite Palette an Alternativen anbieten (vgl. auch Berry/Linoff 1997, S. 84). Idealerweise sollte die Bedienung des Systems sowie die Anwendung der einzelnen Untersuchungsverfahren über einheitliche Nutzerschnittstellen möglich sein. Ein Flickwerk aus einer Vielzahl unterschiedlicher Werkzeuge zur Behandlung einzelner KDD-Schritte bzw. für einzelne Analysemethoden erschwert die Durchführung der Untersuchungen und macht aufwendige Anwenderschulungen und Einarbeitungsphasen notwendig. Die Anforderung an den Methodenvorrat lautet demnach: Ein Datenanalysesystem muss eine möglichst große Auswahl an traditionellen und an Data-Mining- Methoden zur Verfügung stellen die derart integriert sind, dass sie auf einfache Weise miteinander gekoppelt werden können sowie einfach und einheitlich bedienbar sind. 12

13 5.3 Ableitbarkeit von Handlungsmaßnahmen Die Aufgabe, aus gewonnenen Erkenntnissen Handlungskonsequenzen abzuleiten, knüpft unmittelbar an die Interpretationsphase des KDD-Prozesses an und ist mindestens genauso unstrukturiert. Auch hierbei handelt es sich um einen durchweg kreativen Prozess, der systemseitig nur sehr eingeschränkt unterstützt werden kann. Gängige Werkzeuge zur Präsentation und Visualisierung der Analyseergebnisse sind hierfür nicht ausreichend. Das Erkennen geeigneter Maßnahmen zur Nutzung neuer Erkenntnisse basiert nicht allein auf profunden Domänenkenntnissen und erweist sich daher selbst für Experten als schwierig. Funktionalitäten zur Durchführung von weitergehenden Untersuchungen und What-if-Analysen zur Abschätzung der Wirkung alternativer Maßnahmen mögen hier hilfreich sein, was durch die Bereitstellung unterschiedlicher Untersuchungsverfahren und -techniken wiederum ermöglicht wird. Zusätzlich sollten Simulationswerkzeuge und Argumentationshilfen verfügbar sowie der Zugriff auf externe und weiche Informationen gewährleistet sein. Hieraus resultiert die Forderung nach einer enorm ergonomischen Arbeitsumgebung, die über Präsentations- und Visualisierungswerkzeuge weit hinausgeht. 5.4 Bewertung von Untersuchungssituationen Da die Bewertung der Untersuchungssituation auf den gesamten Prozess Bezug nimmt, stellt dessen Effizienz einen elementaren Erfolgsfaktor dar. Ist der Aufwand der Untersuchung größer als der damit realisierte Nutzen, so ist die Zielerreichung nicht ausreichend. Da die eigentliche Data-Mining-Analyse nur einen sehr geringen Anteil des Gesamtaufwands ausmacht, sei an dieser Stelle die Forderung nach effizienzsteigernden Analysesystemen wiederholt. Es ist bei geeigneter Konzeption möglich, den Aufwand der nur mittelbar der Analyse dienenden KDD-Schritte durch intelligente Hintereinanderschaltung von Manipulationsprozeduren und Nutzung diesbezüglicher Synergieeffekte spürbar zu reduzieren. 6 Lösungsansätze und Grenzen Neben den in den vorstehenden Abschnitten aufgestellten Anforderungen nennen Dhar/Stein 1997 (S ) weitere Designkriterien für Systeme zur Entscheidungsunterstützung, woraus der folgende zusammenfassende Anforderungskatalog resultiert: 13

14 1. Flexibilität zur Behandlung eines breiten Spektrums an Analysezielen 2. auf der Grundlage verschiedenster Analysedatenbestände; 3. Identität der Datenbestände für unterschiedliche methodische Analyseansätze; 4. großer Vorrat an traditionellen und Data-Mining-Verfahren; 5. Unterstützung sämtlicher Phasen des KDD-Prozesses; 6. gute Ergonomieeigenschaften zur Förderung der Kreativität und Vereinfachung der Bedienbarkeit; 7. Reduzierung des Aufwandes der Datenvorverarbeitung; 8. Offenheit und Skalierbarkeit der Systemarchitektur. In den folgenden Abschnitten werden Lösungsansätze aufgezeigt, mit deren Hilfe eine Reihe der genannten Anforderungen bereits heute erfüllt werden kann. Im Anschluss daran wird auf noch bestehende Defizite der Prozessunterstützung hingewiesen. 6.1 Anbindung an ein Data-Warehouse-System Ein Data Warehouse ist keine Voraussetzung für die Datenmustererkennung, diese kann prinzipiell auf beliebigen Datenbeständen betrieben werden (Küppers 1999, S. 44). Die Kopplung eines dedizierten Data Mining Tools mit einem Data- Warehouse-System birgt jedoch gewisse Potenziale. Da der größte Anteil des Aufwandes für Data-Mining-Projekte auf die Datenvorverarbeitung entfällt, bietet die Verwendung eines Data-Warehouse-Systems als Datenquelle erhebliche Synergien. In diesem Falle haben die Daten einen Großteil der Vorverarbeitungsschritte bereits an der Eingangsschnittstelle zum Data Warehouse durchlaufen (Schinzer/Bange 1998, S. 53). Die Verfügbarkeit einer bereits konsolidierten und bereinigten Datenbasis erweist sich aus Kostengesichtspunkten wesentlich günstiger als der direkte Zugriff auf Rohdaten. Data-Mining-Prozesse können bei dieser Architektur sämtliche im Data Warehouse verfügbaren Datenbestände nutzen, insbesondere auch aggregierte Daten und Hierarchiestrukturinformationen (Krahl et al. 1998, S. 52f.). Dieser Aspekt nimmt auf die Punkte (2), (5) und (7) des Anforderungskataloges Bezug. Eine derartige Lösung ermöglicht insbesondere die Realisierung des diskutierten Datenanalysezyklus: Die mit Data-Mining-Methoden ermittelten Hypothesen können anhand desselben Datenmaterials sofort mittels hypothesengetriebener Untersuchungen verifiziert werden. Somit bietet sich die Möglichkeit einer beliebigen Verkettung von Untersuchungssituationen. 14

15 Auch der Forderung nach Verfügbarkeit einer breiten Palette an Datenanalyseverfahren kann diese Architektur in bestimmtem Maße entsprechen. Erstens kann die volle Mächtigkeit der im Tool implementierten Data-Mining- Methoden genutzt werden, zweitens steht die OLAP- (Online Analytical Processing) Funktionalität des Data-Warehouse-Systems zur Verfügung, und drittens können die Daten über die von Data-Warehouse-Systemen angebotenen Schnittstellen auch mit anderen Werkzeugen wie Datenbank-Tools, SQL und statistischer Standardsoftware ausgewertet werden. Dieser Aspekt betrifft die im Katalog unter (1), (3) und (4) genannten Anforderungen. 6.2 Erweiterte Nutzung von OLAP-Funktionalitäten OLAP-Systeme bieten effiziente Möglichkeiten zur Speicherung, Verarbeitung und Darstellung detaillierter und aggregierter Daten. Die Datenbanktechnologie von Data-Warehouse-Systemen stellt umfangreiche Selektionsmechanismen zur Einschränkung des Analysefokus auf Teildatenmengen bereit. Durch Projektionen auf spezifische Attributmengen eines Star Schemas kann auf relativ einfache Weise eine Reihe unterschiedlicher Datenstrukturen für die Datenmustererkennung generiert werden. Die harmonisierten und bereinigten Daten werden vor der Datenmustererkennung in der Regel weiteren Transformationen unterzogen, um sie den spezifischen Anforderungen der Untersuchungsverfahren anzupassen oder aus anderen Gründen erforderliche Änderungen der Datendarstellung vorzunehmen. Diese Codierungsaufgaben brauchen in einer Data-Warehouse-Umgebung nicht an ein Datenmanipulationswerkzeug abgegeben werden, sondern können mit Einschränkung vom OLAP-Prozessor übernommen werden. Dessen Berechnungsund Transformationsoperatoren sind zur raschen Erstellung von Data-Mining- Analysedatenstrukturen nutzbar, ohne zusätzlichen Programmieraufwand zu erfordern. Die Anreicherung der Daten um berechnete Kennzahlen, die Transformation von Attributen, z.b. die Diskretisierung kontinuierlicher Werte oder auch die Einebnung (Denormalisierung) normalisierter Strukturen ist auf diese Weise relativ einfach und flexibel möglich. Vor dem Hintergrund eines häufig iterativen Ablaufs des KDD-Prozesses, bei dem sich die Ungeeignetheit erstellter Datenstrukturen oft erst bei der Interpretation der Analyseergebnisse offenbart und deshalb ein Rücksprung zur Manipulationsphase erforderlich werden kann, ergeben sich hieraus mit zunehmend aufwendigeren Datenmanipulationsprozessen wachsende Rationalisierungspotenziale. Geht man davon aus, dass ein Großteil der Codierungsaufgaben auf diese Weise bewerkstelligt werden kann, so lässt sich die Ausführung einer erweiterten OLAP- Anfrage mit verdichteten, berechneten und transformierten Kennzahlen, ggf. unter 15

16 Nutzung von Hierarchiestrukturinformationen, als flexibles Mittel zur Transformation und Anreicherung von Attributen nutzen. Das Ergebnis einer solchen Anfrage sollte im Data Warehouse materialisiert und anschließend direkt als Datenstruktur zur Datenmustererkennung herangezogen werden. Dieser Designaspekt behandelt die Punkte (2), (5) und (7) der Anforderungsliste. 6.3 Architektur eines KDD-Systems Ein KDD-System ist idealerweise in eine umfassende Datenanalyseumgebung eingebettet, deren zentrale Komponente ein Data-Warehouse-System darstellt. Diese allgemein anerkannte Architektur ist nun um den aus prozeduraler Sicht besonders interessanten Aspekt der Nutzung des OLAP-Prozessors zur Verwaltung und Erstellung von Analysedatenstrukturen zu erweitern. Die zugrunde liegende Idee wurde im vorausgehenden Abschnitt ausführlich erläutert. Die Komponenten einer solchen Analyseumgebung sind ETL- (Extract- Transform-Load) Werkzeuge zur Selektion und Manipulation der aus operativen Systemen und ggf. externen Quellen stammenden Rohdaten, ein Data-Warehouse- System zur Speicherung der harmonisierten und bereinigten Datenbestände, dessen OLAP-Prozessor weitere Selektions- und Manipulationsaufgaben übernimmt, sowie eine Menge von Datenanalysewerkzeugen zur Datenexploration und zur Durchführung hypothesen- und datengetriebener Analysen auf Grundlage verschiedenster Untersuchungsverfahren. Besondere Aufmerksamkeit verdient erneut die Rolle des OLAP-Prozessors: Die zur Datenmustererkennung vorgesehenen Daten werden nicht direkt, sondern über die OLAP Engine an das Data-Mining-Werkzeug übergeben, um deren Fähigkeiten zur Selektion, Manipulation und Transformation nutzen zu können. Auf diese Weise dynamisch erzeugte Sichten können im Data Warehouse materialisiert werden. Ebenso können Data-Mining-Ergebnisse in der Datenbank abgespeichert werden. Somit stehen diese allen an das System angeschlossenen Analyseverfahren für Direktzugriffe zur Verfügung (Punkt (4) des Anforderungskatalogs). Durch Verwendung von Standardsoftware zur Realisierung der Systemkomponenten kann die Offenheit und Skalierbarkeit des Systems (Punkt (8)) sichergestellt werden. Ein bisher nicht behandelter Aspekt der Anforderungsliste ist der Ergonomieaspekt (7) mit dem Wunsch nach einheitlicher und möglichst einfacher Bedienbarkeit des Gesamtsystems. Dies kann durch eine zusätzliche Interaktionsschicht realisiert werden, welche dem Nutzer eine einheitliche Oberfläche zur Bedienung sämtlicher Systemkomponenten ( Cockpit ) anbietet, die Komplexität der Analyseumgebung und deren Heterogenität jedoch vor ihm verbirgt. Da im Zuge des KDD-Prozesses neben den 16

17 eigentlichen Analyseaufgaben auch umfangreiche Administrationsaufgaben anfallen, bietet sich eine rollenbezogene Differenzierung der Nutzerschnittstellen für Domänenexperten und Systemadministratoren an. Eine Schicht zur Vorgangssteuerung ermöglicht darüber hinaus die (Teil-) Automatisierung definierter Abläufe über mehrere Systemkomponenten hinweg. Abbildung 3 fasst die einzelnen Aspekte der beschriebenen logischen Systemarchitektur zusammen. KDD-System Einheitliche Benutzerschnittstelle Vorgangssteuerung ETL-Werkzeug Data-Warehouse- System OLAP-Frontend operative Systeme operative Systeme Rohdaten-Quellen Extraktion, Transformation, Laden Data-Mining- Werkzeug andere andere Datenanalyse- Datenanalyse- Werkzeuge Werkzeuge OLAP- Prozessor Abb. 3: Logische Architektur eines KDD-Systems 6.4 Empirische Fundierung Den Ausführungen der voranstehenden Abschnitte liegen umfangreiche Erfahrungen aus mehreren Data-Mining-Projekten in verschiedenen Branchen zugrunde. Die vorgestellten Lösungsansätze wurden im Rahmen eines Pilotprojekts bei der SAP AG prototypisch umgesetzt und auf ihre Eignung im praktischen Einsatz hin untersucht. Als Projektpartner stellte sich ein regional tätiger Vollsortimenter des Lebensmitteleinzelhandels zur Verfügung. Zielsetzung des Projektes war die Konzeption und Implementierung einer umfassenden KDD-Systemumgebung. Diese wurde zunächst auf die Durchführung von Warenkorbanalysen ausgerichtet, darf jedoch prinzipiell als domänenunabhängig und generisch angesehen werden. Warenkorbanalysen verfolgen das Ziel, auf Grundlage von Informationen über getätigte Einkäufe (Warenkörbe), die in Form von Kassenbelegen am Point of Sale (POS) erhoben werden, das einkaufstättenspezifische Käuferverhalten zu ermitteln. Das System soll es Marketing-Fachleuten ermöglichen, selbständig, d.h. ohne die 17

18 Unterstützung von Datenanalyseexperten, entsprechende Untersuchungsziele zu verfolgen. Das erstellte Pilotsystem erhält seine Rohdaten aus den Scannerkassen-Systemen in den Handelsfilialen, weshalb zur Vorverarbeitung ein eigenes System ( POS- Daten-Konverter ) zu erstellen war. Die Ergebnisse dieser Verarbeitung werden über eine Dateischnittstelle an das Data-Warehouse-System (hier: SAP Business Information Warehouse, BW) übergeben und in dessen interne Datenstrukturen (InfoCubes) eingestellt. Damit stehen sie OLAP-Untersuchungen und der Datenmustererkennung mit dem IBM DB2 Intelligent Miner for Data (IM), der als Data-Mining-Werkzeug gewählt wurde, zur Verfügung. Der Datentransfer vom BW zum IM erfolgt vollautomatisiert wie in Abbildung 3 gezeigt über den OLAP- Prozessor. Abbildung 4 illustriert den Grobablauf des KDD-Prozesses im Pilotsystem. Die Schritte (2) und (3) werden durch den POS-Daten-Konverter automatisiert ausgeführt, während die Schritte (5) bis (8) die Durchführung der Analyse sowie die Interpretation der Resultate unter Zuhilfenahme des BW und des IM betreffen und daher interaktiv zu betreiben sind. Schritt (1) ist manuell durchzuführen, und der Ladevorgang (4) kann zur automatischen Ausführung periodisch eingeplant oder interaktiv angestoßen werden. Journal-Daten Selektion Filterung,Extraktion, Statistik valide Bons Selektion 5 2 Stichproben-Daten Konverter dubiose Bons Analysedaten (Flat File) OLAP- Prozessor Manipulation 3 Konverter Anreicherung, Codierung 6 OLAP- Prozessor Data-Warehouse- Ladebestand Analysedaten (Flat File) Laden 4 Data Mining 7 IM BW InfoCube Analyseergebnisse (Flat File) Interpretation Abb. 4: Grobablauf der Warenkorbanalyse im Pilotsystem Das Pilotsystem wurde vom Projektpartner nach einer ausführlichen Probephase angenommen und wird derzeit auf den Produktionsbetrieb vorbereitet. Der Anwenderkreis umfasst Spezialisten des Marketing und soll in Zukunft um Mitarbeiter des Controlling erweitert werden. Die Effizienz der Datenanalyse konnte durch die genannten Entwurfsprinzipien erheblich gesteigert werden. 18

19 Weiterentwicklungen sind geplant, wobei hier allerdings bestimmte Beschränkungen zu beachten sind. 6.5 Restriktionen und Problemkreise Die bisherigen Erfahrungen mit dem Pilotsystem sind sehr positiv, wenngleich es derzeit noch nicht alle der erhobenen Anforderungen erfüllt. Insbesondere der Ergonomieaspekt wurde bislang nur ansatzweise behandelt und stellt eine große Herausforderung dar. Die Systemkomponenten Konverter, Data-Warehouse- System und Data Mining Tool sind bislang über ihre eigenen Nutzerschnittstellen zu bedienen, wobei die Datenübertragung vom BW zum IM aus der Administrationsoberfläche des BW veranlasst wird. Im Rahmen der Interpretationsphase des KDD-Prozesses und der Ableitung von Handlungsmaßnahmen muss auf die von BW und IM bereitgestellten Darstellungs- und Visualisierungsmechanismen zurückgegriffen werden. Da kreative Bewertungs- und Entscheidungsprozesse keiner Automatisierung zugänglich sind, ist eine weitergehende Unterstützung dieser Aufgaben jedoch unabdingbar. Weiterhin ist festzustellen, dass der bereits sehr umfangreiche Methodenvorrat des Systems nicht ausreicht um jede erwachsende fachliche Fragestellung zu beantworten. Hinsichtlich der Kopplung mehrerer Untersuchungsverfahren und ihrer Anwendung auf dieselben Datenbestände bieten die als Standardsoftware vertriebenen Werkzeuge noch zu wenig Flexibilität. Lernprozesse der Anwender können auch mit einer integrierten Analyseumgebung nicht beschleunigt werden; hierfür bedürfte es intelligenter, wissensbasierter Analysesysteme, die jedoch nur in stark begrenzten Domänen operieren könnten. Ein bislang kaum beachteter Aspekt der betriebswirtschaftlichen Datenanalyse betrifft Schwachstellen in der Unternehmensorganisation, die sich in vielfältiger Weise negativ auf die Untersuchungssituation auswirken können. Das Spektrum reicht von mangelhaft definierten oder nicht qualitätsgesicherten Geschäftsprozessen bis hin zu Schwächen im Category Management. Diese Mängel schlagen sich in für die Datenanalyse ungeeigneten Untersuchungsdaten nieder und können, wenn überhaupt, systemtechnisch nur sehr eingeschränkt abgefangen werden. Jedenfalls entstehen dadurch erhebliche Aufwände, die durch den Nutzen der Analyseergebnisse oft nicht mehr zu rechtfertigen sind. Sich während des KDD-Prozesses ergebende Anforderungen an die Datenqualität können in Form einer Rückkopplung wertvolle Hinweise für die Unternehmensorganisation liefern und damit eine lenkende Funktion übernehmen. Betrachtet man abschließend den gesamten Prozess der Vorbereitung oder Unterstützung von Entscheidungen, so sind neben der Datenanalyse eine Reihe weiterer Aspekte zu behandeln. So wäre es zur Realisierung von Lerneffekten 19

20 beispielsweise wünschenswert, sämtliche Elemente einer Entscheidungssituation (Entscheidungsproblem, Restriktionen, Zielfunktion; Ergebnisse verschiedener Datenanalysen, externe Informationen, Notizen, Korrespondenzen; Lösung des Entscheidungsproblems und Begründung, etc.) auch zu einem späteren Zeitpunkt verfügbar zu haben, um in ähnlichen Situationen auf vergangene Erfahrungen zurückgreifen zu können. Die Konstruktion derartiger Systemumgebungen zur Entscheidungsvorbereitung und -unterstützung stellt eine große Herausforderung für die Zukunft dar. 7 Resümee Betriebswirtschaftliche Datenanalysen stellen überaus komplexe Prozesse dar, die sich nicht auf die bloße Anwendung eines Analysealgorithmus auf eine Datenmenge beschränken. Vielmehr verursacht die eigentliche Untersuchung den bei weitem geringsten Aufwand innerhalb eines Analyseprojekts. Der Effizienz von Datenanalysen im Allgemeinen und von Data-Mining- Untersuchungen im Speziellen wurde bislang kaum Beachtung geschenkt. Dabei kann deren Produktivität unter Verwendung durchdachter Systeme erheblich gesteigert werden. Die Nutzung von Data Warehouses als Datenbasis und von OLAP-Prozessoren zur Datenmanipulation sind in diesem Kontext hilfreiche Lösungsansätze, die es weiterzuentwickeln gilt. Nun sind Systemhersteller und Wissenschaft gleichermaßen aufgefordert, sich der Entwicklung effizienzsteigernder Analyseumgebungen für Business User zu widmen. Gleiches gilt im Hinblick auf die Ergonomie solcher Systeme. Zwar hat sich die Benutzerfreundlichkeit analytischer Standardsoftware in den letzten Jahren erheblich verbessert, den kritischen Faktoren der Interpretation und Entscheidungsunterstützung wurde aber zu wenig Aufmerksamkeit geschenkt. Auch die Integration verschiedener Analyseverfahren steckt gerade erst in ihren Anfängen. Zwar wurde in letzter Zeit vor allem durch die akademische Szene eine Vielzahl von Verfahren vorgestellt, doch Fragen nach deren Anwendbarkeit auf konkrete betriebswirtschaftliche Fragestellungen, unter Berücksichtigung der datenverarbeitungstechnischen und organisatorischen Problematik in den Unternehmen, fanden zu wenig Beantwortung. Die Auswirkungen organisatorischer Schwächen auf die Ergebnisse analytischer Untersuchungen haben mehr Beachtung verdient. Erfahrungen zeigen, dass die Effizienz und Wirksamkeit von Datenanalyseprozessen mit der Fähigkeit und dem Willen zur Verbesserung und Veränderung innerbetrieblicher Strukturen, Abläufe und Gepflogenheiten steht und fällt. 20

21 Literatur Adriaans, P.; Zantinge, D.: Data Mining, Harlow Berry, M. J. A.; Linoff, G.: Data Mining Techniques For Marketing, Sales, and Customer Support, New York Bigus, J. P.: Data Mining with Neural Networks - Solving Business Problems from Application Development to Decision Support, New York Cabena, P.; Hadjinian, P.; Verhees, J.; Zanasi, A.: Discovering Data Mining From Concept to Implementation, Upper Saddle River Chamoni, P.; Budde, C.: Methoden und Verfahren des Data Mining, Diskussionsbeiträge des Fachbereichs Wirtschaftswissenschaft der Gerhard-Mercator-Universität Gesamthochschule Duisburg, Nr. 232, Duisburg Dhar, V.; Stein, R.: Seven Methods for Transforming Corporate Data into Business Intelligence, Upper Saddle River Fayyad, U.; Piatetsky-Shapiro, G.; Smyth, P.: From Data Mining to Knowledge Discovery: An Overview, in: Fayyad, U.; Piatetsky-Shapiro, G.; Smyth, P.; Uthurusamy, R. (Hrsg.): Advances in Knowledge Discovery and Data Mining, Menlo Park 1996, S Ferstl, O. K.: Konstruktion und Analyse von Simulationsmodellen, Beiträge zur Datenverarbeitung und Unternehmensforschung, Band 22, Königstein/Ts Hagedorn, J.: Die automatische Filterung von Controlling-Daten unter besonderer Berücksichtigung der Top-Down-Navigation (BETREX II), Dissertation, Arbeitsberichte des Instituts für mathematische Maschinen und Datenverarbeitung, 29. Jg. (1996), Nr. 7, Erlangen Knobloch, B.: Der Data-Mining-Ansatz zur Analyse betriebswirtschaftlicher Daten, Bamberger Beiträge zur Wirtschaftsinformatik Nr. 58, Bamberg Küppers, B.: Data Mining in der Praxis Ein Ansatz zur Nutzung der Potentiale von Data Mining im betrieblichen Umfeld, Frankfurt/M Krahl, D.; Windheuser, U.; Zick, F.-K.: Data Mining Einsatz in der Praxis, Bonn Schinzer, H. D.; Bange, C.: Werkzeuge zum Aufbau analytischer Informationssysteme Marktübersicht, in: Chamoni, P.; Gluchowski, P. (Hrsg.): Analytische Informationssysteme - Data Warehouse, On-Line Analytical Processing, Data Mining, Berlin 1998, S

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Data Mining-Projekte

Data Mining-Projekte Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein

Mehr

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

Skills-Management Investieren in Kompetenz

Skills-Management Investieren in Kompetenz -Management Investieren in Kompetenz data assessment solutions Potenziale nutzen, Zukunftsfähigkeit sichern Seite 3 -Management erfolgreich einführen Seite 4 Fähigkeiten definieren und messen Seite 5 -Management

Mehr

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08 Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements von Stephanie Wilke am 14.08.08 Überblick Einleitung Was ist ITIL? Gegenüberstellung der Prozesse Neuer

Mehr

Content Management System mit INTREXX 2002.

Content Management System mit INTREXX 2002. Content Management System mit INTREXX 2002. Welche Vorteile hat ein CM-System mit INTREXX? Sie haben bereits INTREXX im Einsatz? Dann liegt es auf der Hand, dass Sie ein CM-System zur Pflege Ihrer Webseite,

Mehr

Customer Relationship Ana lyt ics

Customer Relationship Ana lyt ics Peter Necke1 Bernd Knobloch Customer Relationship Ana lyt ics Praktische Anwendung des Data Mining im CRM d p u n kt.ve r I ag 1 1.1 1.2 1.3 Customer Relationship Management. ein Bezugsrahmen Die Entwicklung

Mehr

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung 1 Einleitung 1.1 Motivation und Zielsetzung der Untersuchung Obgleich Tourenplanungsprobleme zu den am häufigsten untersuchten Problemstellungen des Operations Research zählen, konzentriert sich der Großteil

Mehr

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Schwierigkeiten bei der Umsetzung Josef Kolbitsch Manuela Reinisch Übersicht Schwierigkeiten bei der Umsetzung eines BI-Systems Schwierigkeiten der Umsetzung 1/13 Strategische Ziele

Mehr

Teil A Grundlagen und Methoden 1. 1 Customer Relationship Management ein Bezugsrahmen 3

Teil A Grundlagen und Methoden 1. 1 Customer Relationship Management ein Bezugsrahmen 3 xi Teil A Grundlagen und Methoden 1 1 Customer Relationship Management ein Bezugsrahmen 3 1.1 Die Entwicklung zum kundenzentrierten Unternehmen 3 1.2 Ziel und Kernkonzepte des CRM 5 1.2.1 Ziel: Profitable

Mehr

Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen!

Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen! Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen! www.wee24.de. info@wee24.de. 08382 / 6040561 1 Experten sprechen Ihre Sprache. 2 Unternehmenswebseiten

Mehr

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage. Integration mit Die Integration der AristaFlow Business Process Management Suite (BPM) mit dem Enterprise Information Management System FILERO (EIMS) bildet die optimale Basis für flexible Optimierung

Mehr

Agile Vorgehensmodelle in der Softwareentwicklung: Scrum

Agile Vorgehensmodelle in der Softwareentwicklung: Scrum C A R L V O N O S S I E T Z K Y Agile Vorgehensmodelle in der Softwareentwicklung: Scrum Johannes Diemke Vortrag im Rahmen der Projektgruppe Oldenburger Robot Soccer Team im Wintersemester 2009/2010 Was

Mehr

Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH

Lars Priebe Senior Systemberater. ORACLE Deutschland GmbH Lars Priebe Senior Systemberater ORACLE Deutschland GmbH Data Mining als Anwendung des Data Warehouse Konzepte und Beispiele Agenda Data Warehouse Konzept und Data Mining Data Mining Prozesse Anwendungs-Beispiele

Mehr

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Prof. Dr. Rainer Bischoff Organisation: Fachbereich Wirtschaftsinformatik,

Mehr

Checkliste zur qualitativen Nutzenbewertung

Checkliste zur qualitativen Nutzenbewertung Checkliste zur qualitativen Nutzenbewertung Herausgeber Pentadoc Consulting AG Messeturm Friedrich-Ebert-Anlage 49 60308 Frankfurt am Main Tel +49 (0)69 509 56-54 07 Fax +49 (0)69 509 56-55 73 E-Mail info@pentadoc.com

Mehr

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten

OUTSOURCING ADVISOR. Analyse von SW-Anwendungen und IT-Dienstleistungen auf ihre Global Sourcing Eignung. Bewertung von Dienstleistern und Standorten Outsourcing Advisor Bewerten Sie Ihre Unternehmensanwendungen auf Global Sourcing Eignung, Wirtschaftlichkeit und wählen Sie den idealen Dienstleister aus. OUTSOURCING ADVISOR Der Outsourcing Advisor ist

Mehr

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Prof. Dr. Anett Mehler-Bicher Fachhochschule Mainz, Fachbereich Wirtschaft Prof. Dr. Klaus Böhm health&media GmbH 2011 health&media

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Die Zukunft der Zukunftsforschung im Deutschen Management: eine Delphi Studie

Die Zukunft der Zukunftsforschung im Deutschen Management: eine Delphi Studie Die Zukunft der Zukunftsforschung im Deutschen Management: eine Delphi Studie Executive Summary Zukunftsforschung und ihre Methoden erfahren in der jüngsten Vergangenheit ein zunehmendes Interesse. So

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

2.1 Präsentieren wozu eigentlich?

2.1 Präsentieren wozu eigentlich? 2.1 Präsentieren wozu eigentlich? Gute Ideen verkaufen sich in den seltensten Fällen von allein. Es ist heute mehr denn je notwendig, sich und seine Leistungen, Produkte etc. gut zu präsentieren, d. h.

Mehr

Software Engineering. Sommersemester 2012, Dr. Andreas Metzger

Software Engineering. Sommersemester 2012, Dr. Andreas Metzger Software Engineering (Übungsblatt 2) Sommersemester 2012, Dr. Andreas Metzger Übungsblatt-Themen: Prinzip, Technik, Methode und Werkzeug; Arten von Wartung; Modularität (Kohäsion/ Kopplung); Inkrementelle

Mehr

.. für Ihre Business-Lösung

.. für Ihre Business-Lösung .. für Ihre Business-Lösung Ist Ihre Informatik fit für die Zukunft? Flexibilität Das wirtschaftliche Umfeld ist stärker den je im Umbruch (z.b. Stichwort: Globalisierung). Daraus resultierenden Anforderungen,

Mehr

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5 Das Management von Informations- Systemen im Wandel Die Informations-Technologie (IT) war lange Zeit ausschließlich ein Hilfsmittel, um Arbeitsabläufe zu vereinfachen und Personal einzusparen. Sie hat

Mehr

Informationssystemanalyse Problemstellung 2 1. Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse:

Informationssystemanalyse Problemstellung 2 1. Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse: Informationssystemanalyse Problemstellung 2 1 Problemstellung Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse: große Software-Systeme werden im Schnitt ein Jahr zu spät

Mehr

360 - Der Weg zum gläsernen Unternehmen mit QlikView am Beispiel Einkauf

360 - Der Weg zum gläsernen Unternehmen mit QlikView am Beispiel Einkauf 360 - Der Weg zum gläsernen Unternehmen mit QlikView am Beispiel Einkauf Von der Entstehung bis heute 1996 als EDV Beratung Saller gegründet, seit 2010 BI4U GmbH Firmensitz ist Unterschleißheim (bei München)

Mehr

Konsolidierung und Neuimplementierung von VIT. Aufgabenbeschreibung für das Software Engineering Praktikum an der TU Darmstadt

Konsolidierung und Neuimplementierung von VIT. Aufgabenbeschreibung für das Software Engineering Praktikum an der TU Darmstadt Konsolidierung und Neuimplementierung von VIT Aufgabenbeschreibung für das Software Engineering Praktikum an der TU Darmstadt Inhaltsverzeichnis 1 Was ist der Kontext?... 1 2 VIT: Ein sehr erfolgreiches

Mehr

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Speicher in der Cloud

Speicher in der Cloud Speicher in der Cloud Kostenbremse, Sicherheitsrisiko oder Basis für die unternehmensweite Kollaboration? von Cornelius Höchel-Winter 2013 ComConsult Research GmbH, Aachen 3 SYNCHRONISATION TEUFELSZEUG

Mehr

DAS TEAM MANAGEMENT PROFIL IM ÜBERBLICK. Sie arbeiten im Team und wollen besser werden. Das erreichen Sie nur gemeinsam.

DAS TEAM MANAGEMENT PROFIL IM ÜBERBLICK. Sie arbeiten im Team und wollen besser werden. Das erreichen Sie nur gemeinsam. Sie arbeiten im Team und wollen besser werden. Das erreichen Sie nur gemeinsam. Das Team Management Profil: Was haben Sie davon? In Unternehmen, die mit dem Team Management Profil arbeiten, entsteht ein

Mehr

Bachelor Prüfungsleistung

Bachelor Prüfungsleistung FakultätWirtschaftswissenschaftenLehrstuhlfürWirtschaftsinformatik,insb.Systementwicklung Bachelor Prüfungsleistung Sommersemester2008 EinführungindieWirtschaftsinformatik immodul GrundlagenderWirtschaftswissenschaften

Mehr

Application Lifecycle Management als strategischer Innovationsmotor für den CIO

Application Lifecycle Management als strategischer Innovationsmotor für den CIO Application Lifecycle Management als strategischer Innovationsmotor für den CIO Von David Chappell Gefördert durch die Microsoft Corporation 2010 Chappell & Associates David Chappell: Application Lifecycle

Mehr

Prozessoptimierung. und. Prozessmanagement

Prozessoptimierung. und. Prozessmanagement Prozessoptimierung und Prozessmanagement Prozessmanagement & Prozessoptimierung Die Prozesslandschaft eines Unternehmens orientiert sich genau wie die Aufbauorganisation an den vorhandenen Aufgaben. Mit

Mehr

Anforderungen an die HIS

Anforderungen an die HIS Anforderungen an die HIS Zusammengefasst aus den auf IBM Software basierenden Identity Management Projekten in NRW Michael Uebel uebel@de.ibm.com Anforderung 1 IBM Software Group / Tivoli Ein Feld zum

Mehr

F E R N U N I V E R S I T Ä T I N H A G E N

F E R N U N I V E R S I T Ä T I N H A G E N F E R N U N I V E R S I T Ä T I N H A G E N FAKULTÄT FÜR WIRTSCHAFTSWISSENSCHAFT Matrikelnummer: Name: Vorname: MODULKLAUSUR: TERMIN: 03.09.2012 PRÜFER: Block A Aufgabe 1 (Wahl) 2 (Wahl) maximale Punktzahl

Mehr

Studie zum Einsatz und Nutzen von strategischem IT-Benchmarking. Katharina Ebner Prof. Dr. Stefan Smolnik

Studie zum Einsatz und Nutzen von strategischem IT-Benchmarking. Katharina Ebner Prof. Dr. Stefan Smolnik Studie zum Einsatz und Nutzen von strategischem IT-Benchmarking Katharina Ebner Prof. Dr. Stefan Smolnik Ziel der Studie IT-Benchmarking-Projekte mit strategischem Fokus liefern immer wieder nicht den

Mehr

Business Intelligence

Business Intelligence Business Intelligence Anwendungssysteme (BIAS) Lösung Aufgabe 1 Übung WS 2012/13 Business Intelligence Erläutern Sie den Begriff Business Intelligence. Gehen Sie bei der Definition von Business Intelligence

Mehr

Ergebnisse der Befragung auf dem 11. Karrieretag Familienunternehmen

Ergebnisse der Befragung auf dem 11. Karrieretag Familienunternehmen Ergebnisse der Befragung auf dem 11. Karrieretag Familienunternehmen 24. September 2013 Auf dem 11. Karrieretag Familienunternehmen im Juni 2013 in Bielefeld wurde zum wiederholten Mal eine Teilnehmerbefragung

Mehr

Cross-Selling bei Versicherungen. Empirische Analyse zu Status quo, Trends und zukünftigen Anforderungen

Cross-Selling bei Versicherungen. Empirische Analyse zu Status quo, Trends und zukünftigen Anforderungen Georg Wittmann Christiane Früchtl Silke Weisheit Cross-Selling bei Versicherungen Empirische Analyse zu Status quo, Trends und zukünftigen Management Summary In der Studie Cross-Selling bei Versicherungen

Mehr

Marketingmaßnahmen effektiv gestalten

Marketingmaßnahmen effektiv gestalten Marketingmaßnahmen effektiv gestalten WARUM KREATIVE LEISTUNG UND TECHNISCHE KOMPETENZ ZUSAMMENGEHÖREN Dr. Maik-Henrik Teichmann Director Consulting E-Mail: presseservice@cocomore.com Um digitale Marketingmaßnahmen

Mehr

Agile Enterprise Development. Sind Sie bereit für den nächsten Schritt?

Agile Enterprise Development. Sind Sie bereit für den nächsten Schritt? Agile Enterprise Development Sind Sie bereit für den nächsten Schritt? Steigern Sie noch immer die Wirtschaftlichkeit Ihres Unternehmens alleine durch Kostensenkung? Im Projektportfolio steckt das Potenzial

Mehr

WSO de. <work-system-organisation im Internet> Allgemeine Information

WSO de. <work-system-organisation im Internet> Allgemeine Information WSO de Allgemeine Information Inhaltsverzeichnis Seite 1. Vorwort 3 2. Mein Geschäftsfeld 4 3. Kompetent aus Erfahrung 5 4. Dienstleistung 5 5. Schulungsthemen 6

Mehr

Unsere vier hilfreichsten Tipps für szenarienbasierte Nachfrageplanung

Unsere vier hilfreichsten Tipps für szenarienbasierte Nachfrageplanung Management Briefing Unsere vier hilfreichsten Tipps für szenarienbasierte Nachfrageplanung Erhalten Sie die Einblicke, die Sie brauchen, um schnell auf Nachfrageschwankungen reagieren zu können Sales and

Mehr

DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ

DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ Kurzfassung DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ Mag. Klaus Grabler 9. Oktober 2002 OITAF Seminar 2002 Kongresshaus Innsbruck K ennzahlen sind ein wesentliches Instrument

Mehr

Ziel- und Qualitätsorientierung. Fortbildung für die Begutachtung in Verbindung mit dem Gesamtplanverfahren nach 58 SGB XII

Ziel- und Qualitätsorientierung. Fortbildung für die Begutachtung in Verbindung mit dem Gesamtplanverfahren nach 58 SGB XII Ziel- und Qualitätsorientierung Fortbildung für die Begutachtung in Verbindung mit dem Gesamtplanverfahren nach 58 SGB XII Qualität? In der Alltagssprache ist Qualität oft ein Ausdruck für die Güte einer

Mehr

«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen

«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen 18 «Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen teilnimmt und teilhat.» 3Das Konzept der Funktionalen

Mehr

Portfolio zur Analyse der Personalqualität

Portfolio zur Analyse der Personalqualität > Der Zweck und Ihr Nutzen Das Personal-Portfolio ist ein Instrument, das bei der langfristig-strategischen Beurteilung Ihres Mitarbeiterpotentials unterstützt. In einer zweidimensionalen Matrix werden

Mehr

PRAXISBEISPIEL: SUCHMASCHINEN-OPTIMIERUNG, ADWORD-KAMPAGNE UND CONTROLLING

PRAXISBEISPIEL: SUCHMASCHINEN-OPTIMIERUNG, ADWORD-KAMPAGNE UND CONTROLLING PRAXISBEISPIEL: SUCHMASCHINEN-OPTIMIERUNG, ADWORD-KAMPAGNE UND CONTROLLING Im Zuge der beruflichen Tätigkeit des Verfassers, wurde die Website einer Destination, in Salzburg, für die Suchmaschine Google

Mehr

RÜSTZEITEN SENKEN, PRODUKTION BESCHLEUNIGEN DER SMED-PRAXIS-WORKSHOP IN IHREM HAUS

RÜSTZEITEN SENKEN, PRODUKTION BESCHLEUNIGEN DER SMED-PRAXIS-WORKSHOP IN IHREM HAUS RÜSTZEITEN SENKEN, PRODUKTION BESCHLEUNIGEN DER SMED-PRAXIS-WORKSHOP IN IHREM HAUS DIE SMED-METHODE DAS KNOW-HOW, UM DIE STILLSTANDS- ZEITEN IHRER MASCHINEN ZU KÜRZEN Formel1-Rennen werden nicht nur gewonnen,

Mehr

Herzlich Willkommen beim Webinar: Was verkaufen wir eigentlich?

Herzlich Willkommen beim Webinar: Was verkaufen wir eigentlich? Herzlich Willkommen beim Webinar: Was verkaufen wir eigentlich? Was verkaufen wir eigentlich? Provokativ gefragt! Ein Hotel Marketing Konzept Was ist das? Keine Webseite, kein SEO, kein Paket,. Was verkaufen

Mehr

Fallbeispiel. Auswahl und Evaluierung eines Software- Lokalisierungstools. Tekom Herbsttagung 2004 Angelika Zerfaß

Fallbeispiel. Auswahl und Evaluierung eines Software- Lokalisierungstools. Tekom Herbsttagung 2004 Angelika Zerfaß Fallbeispiel Auswahl und Evaluierung eines Software- Lokalisierungstools Tekom Herbsttagung 2004 Angelika Zerfaß Beratung und Training für Translation Tools Projekt: Software-Lokalisierungstool Die Firma

Mehr

QM: Prüfen -1- KN16.08.2010

QM: Prüfen -1- KN16.08.2010 QM: Prüfen -1- KN16.08.2010 2.4 Prüfen 2.4.1 Begriffe, Definitionen Ein wesentlicher Bestandteil der Qualitätssicherung ist das Prüfen. Sie wird aber nicht wie früher nach der Fertigung durch einen Prüfer,

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Um zusammenfassende Berichte zu erstellen, gehen Sie folgendermaßen vor:

Um zusammenfassende Berichte zu erstellen, gehen Sie folgendermaßen vor: Ergebnisreport: mehrere Lehrveranstaltungen zusammenfassen 1 1. Ordner anlegen In der Rolle des Berichterstellers (siehe EvaSys-Editor links oben) können zusammenfassende Ergebnisberichte über mehrere

Mehr

SWOT-Analyse. Der BABOK V2.0 (Business Analysis Body Of Knowledge) definiert die SWOT-Analyse wie folgt:

SWOT-Analyse. Der BABOK V2.0 (Business Analysis Body Of Knowledge) definiert die SWOT-Analyse wie folgt: SWOT-Analyse Die SWOT-Analyse stammt ursprünglich aus dem militärischen Bereich und wurde in den 1960er-Jahren von der Harvard Business School zur Anwendung in Unternehmen vorgeschlagen. Die SWOT-Analyse

Mehr

ZIELE erreichen WERTSTROM. IDEEN entwickeln. KULTUR leben. optimieren. KVP und Lean Management:

ZIELE erreichen WERTSTROM. IDEEN entwickeln. KULTUR leben. optimieren. KVP und Lean Management: KVP und Lean Management: Damit machen wir Ihre Prozesse robuster, schneller und kostengünstiger. ZIELE erreichen WERTSTROM optimieren IDEEN entwickeln KULTUR leben 1 Lean Management Teil 1: Das Geheimnis

Mehr

Datenprüfung. Analyse von Datenbeständen

Datenprüfung. Analyse von Datenbeständen Datenprüfung Analyse von Datenbeständen Datenprüfungen Die Daten eines Unternehmens sind ein wichtiges Fundament für eine erfolgreiche Geschäftstätigkeit. Aus ihnen lassen sich risikorelevante Faktoren

Mehr

Auswertung qualitativer Interviews

Auswertung qualitativer Interviews Auswertung qualitativer Interviews Problem: umfangreiche Texte in eine Form zu bringen, die als Erzählung, als Leseangebot für den Leser dienen können Texte müssen eingedickt werden, sie müssen im Rahmen

Mehr

Technische Dokumentation: wenn Englisch zur Herausforderung wird

Technische Dokumentation: wenn Englisch zur Herausforderung wird Praxis Technische Dokumentation: wenn Englisch zur Herausforderung wird Anforderungsspezifikation, Requirements-Engineering, Requirements-Management, Terminologieverwaltung www.sophist.de Über Englischkenntnisse

Mehr

sage Office Line und cobra: die ideale Kombination!

sage Office Line und cobra: die ideale Kombination! sage Office Line und cobra: die ideale Kombination! 1 Sage und cobra: Die Kombination und ihre Synergieeffekte! Unternehmen brauchen eine ERP-Lösung zur Verwaltung und Abwicklung ihrer Geschäftsprozesse.

Mehr

2006 COGNOSCO AG, 8057 ZUERICH, SWITZERLAND All rights reserved. Performance Management Markterfolg dank Kundenrating

2006 COGNOSCO AG, 8057 ZUERICH, SWITZERLAND All rights reserved. Performance Management Markterfolg dank Kundenrating Performance Management Markterfolg dank Kundenrating Welches sind Ihre besten Kunden? Frage 1: Kennen Sie die Umsatzentwicklung jedes Kunden über die letzten 5 Jahre? Frage 2: Kennen Sie den Produkte-Mix

Mehr

ONLINE-AKADEMIE. "Diplomierter NLP Anwender für Schule und Unterricht" Ziele

ONLINE-AKADEMIE. Diplomierter NLP Anwender für Schule und Unterricht Ziele ONLINE-AKADEMIE Ziele Wenn man von Menschen hört, die etwas Großartiges in ihrem Leben geleistet haben, erfahren wir oft, dass diese ihr Ziel über Jahre verfolgt haben oder diesen Wunsch schon bereits

Mehr

Die forschungsleitenden Fragestellungen sind:

Die forschungsleitenden Fragestellungen sind: ABSTRACT In der heutigen Zeit ist es von Bedeutung Abläufe, Schritte, Handlungen, Prozesse und dergleichen nicht bloß durchzuführen oder zu setzen, sondern geordnet und mit System vorzunehmen, um in unserer

Mehr

Konzentration auf das. Wesentliche.

Konzentration auf das. Wesentliche. Konzentration auf das Wesentliche. Machen Sie Ihre Kanzleiarbeit effizienter. 2 Sehr geehrte Leserin, sehr geehrter Leser, die Grundlagen Ihres Erfolges als Rechtsanwalt sind Ihre Expertise und Ihre Mandantenorientierung.

Mehr

Test zur Bereitschaft für die Cloud

Test zur Bereitschaft für die Cloud Bericht zum EMC Test zur Bereitschaft für die Cloud Test zur Bereitschaft für die Cloud EMC VERTRAULICH NUR ZUR INTERNEN VERWENDUNG Testen Sie, ob Sie bereit sind für die Cloud Vielen Dank, dass Sie sich

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

Wie wirksam wird Ihr Controlling kommuniziert?

Wie wirksam wird Ihr Controlling kommuniziert? Unternehmenssteuerung auf dem Prüfstand Wie wirksam wird Ihr Controlling kommuniziert? Performance durch strategiekonforme und wirksame Controllingkommunikation steigern INHALT Editorial Seite 3 Wurden

Mehr

Interview zum Thema Management Reporting &Business Intelligence

Interview zum Thema Management Reporting &Business Intelligence Interview zum Thema Management Reporting &Business Intelligence Das ist ja interessant. Können Sie etwas näher beschreiben, wie ich mir das vorstellen kann? Jens Gräf: In einem Technologieunternehmen mit

Mehr

Effiziente Prozesse. Die Formel 1 und die Druckindustrie

Effiziente Prozesse. Die Formel 1 und die Druckindustrie Die Formel 1 und die Druckindustrie Was hat die Formel 1 mit der Druckindustrie zu tun? Nun: dass ein Formel-1-Ferrari eine hohe Anziehungskraft hat, ist nicht zu bestreiten. Und dass dies auch für die

Mehr

Bei der Focus Methode handelt es sich um eine Analyse-Methode die der Erkennung und Abstellung von Fehlerzuständen dient.

Bei der Focus Methode handelt es sich um eine Analyse-Methode die der Erkennung und Abstellung von Fehlerzuständen dient. Beschreibung der Focus Methode Bei der Focus Methode handelt es sich um eine Analyse-Methode die der Erkennung und Abstellung von Fehlerzuständen dient. 1. F = Failure / Finding An dieser Stelle wird der

Mehr

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik)

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik) Modulbeschrieb Business Intelligence and Analytics 16.10.2013 Seite 1/5 Modulcode Leitidee Art der Ausbildung Studiengang Modultyp W.WIINM42.13 Information ist eine derart wichtige Komponente bei der Entscheidungsfindung,

Mehr

AMS Alarm Management System

AMS Alarm Management System AMS Alarm Management System AMS ist das Alarm Management System für Mobotix Kamerasysteme. AMS ist speziell für die Verwendung in Einsatzzentralen bei Sicherheitsdiensten oder Werkschutzzentralen vorgesehen.

Mehr

Kostenstellen verwalten. Tipps & Tricks

Kostenstellen verwalten. Tipps & Tricks Tipps & Tricks INHALT SEITE 1.1 Kostenstellen erstellen 3 13 1.3 Zugriffsberechtigungen überprüfen 30 2 1.1 Kostenstellen erstellen Mein Profil 3 1.1 Kostenstellen erstellen Kostenstelle(n) verwalten 4

Mehr

Die wichtigsten Werkzeuge, um UNTERNEHMENSKULTUR BEWUSST zu gestalten.

Die wichtigsten Werkzeuge, um UNTERNEHMENSKULTUR BEWUSST zu gestalten. 3 Die wichtigsten Werkzeuge, um UNTERNEHMENSKULTUR BEWUSST zu gestalten. Rasante Marktverände-rungen und eine ständig wachsende Komplexität beeinflussen heute die Unternehmensentwicklung mehr denn je zuvor.

Mehr

Rechnungsmanager. E-Mail: support@promx.net. promx GmbH Nordring 100 90409 Nürnberg. Resource and Project Management

Rechnungsmanager. E-Mail: support@promx.net. promx GmbH Nordring 100 90409 Nürnberg. Resource and Project Management buchung manager Rechnungsmanager Die Der prorm-- Massenum Rechnungs-- Business promx GmbH Nordring 100 90409 Nürnberg E-Mail: support@promx.net Business Inhalt WAS IST DER prorm RECHNUNGSMANAGER? prorm

Mehr

Kampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht

Kampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht Kampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht Thomas Kreuzer ec4u expert consulting ag Karlsruhe Schlüsselworte: Kampagnenmanagement Praxisbericht Siebel Marketing Oracle BI - ec4u

Mehr

C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl

C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl Ein Seminar der DWH academy Seminar C09 Einsatz SAP BW im Vergleich zur Best-of-Breed- Produktauswahl Befasst man sich im DWH mit der Auswahl

Mehr

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test?

Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Welche Unterschiede gibt es zwischen einem CAPAund einem Audiometrie- Test? Auch wenn die Messungsmethoden ähnlich sind, ist das Ziel beider Systeme jedoch ein anderes. Gwenolé NEXER g.nexer@hearin gp

Mehr

DER SELBST-CHECK FÜR IHR PROJEKT

DER SELBST-CHECK FÜR IHR PROJEKT DER SELBST-CHECK FÜR IHR PROJEKT In 30 Fragen und 5 Tipps zum erfolgreichen Projekt! Beantworten Sie die wichtigsten Fragen rund um Ihr Projekt für Ihren Erfolg und für Ihre Unterstützer. IHR LEITFADEN

Mehr

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert.

Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert. Der Gutachtenstil: Charakteristikum des Gutachtenstils: Es wird mit einer Frage begonnen, sodann werden die Voraussetzungen Schritt für Schritt aufgezeigt und erörtert. Das Ergebnis steht am Schluß. Charakteristikum

Mehr

Ihre Interessentendatensätze bei inobroker. 1. Interessentendatensätze

Ihre Interessentendatensätze bei inobroker. 1. Interessentendatensätze Ihre Interessentendatensätze bei inobroker Wenn Sie oder Ihre Kunden die Prozesse von inobroker nutzen, werden Interessentendatensätze erzeugt. Diese können Sie direkt über inobroker bearbeiten oder mit

Mehr

Survival Guide für Ihr Business Intelligence-Projekt

Survival Guide für Ihr Business Intelligence-Projekt Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren

Mehr

INTERNET-BASIERTE SERVICES IM MASCHINEN- UND ANLAGENBAU

INTERNET-BASIERTE SERVICES IM MASCHINEN- UND ANLAGENBAU FRAUNHOFER-INSTITUT FÜR ARBEITSWIRTSCHAFT UND ORGANISATION IAO Marc Münster Thomas Meiren INTERNET-BASIERTE SERVICES IM MASCHINEN- UND ANLAGENBAU ERGEBNISSE EINER EMPIRISCHEN UNTERSUCHUNG FRAUNHOFER VERLAG

Mehr

Multichannel Challenge: Integration von Vertriebsorganisation und Contact Center in der Versicherung

Multichannel Challenge: Integration von Vertriebsorganisation und Contact Center in der Versicherung Philip Michel CRM Project Manager 23 June 2011 Multichannel Challenge: Integration von Vertriebsorganisation und Contact Center in der Versicherung 2009 IBM Corporation Die Multichannel Challenge eines

Mehr

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN

PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN PTV VISWALK TIPPS UND TRICKS PTV VISWALK TIPPS UND TRICKS: VERWENDUNG DICHTEBASIERTER TEILROUTEN Karlsruhe, April 2015 Verwendung dichte-basierter Teilrouten Stellen Sie sich vor, in einem belebten Gebäude,

Mehr

Projektmanagement in der Spieleentwicklung

Projektmanagement in der Spieleentwicklung Projektmanagement in der Spieleentwicklung Inhalt 1. Warum brauche ich ein Projekt-Management? 2. Die Charaktere des Projektmanagement - Mastermind - Producer - Projektleiter 3. Schnittstellen definieren

Mehr

Aufgabenheft. Fakultät für Wirtschaftswissenschaft. Modul 32701 - Business/IT-Alignment. 26.09.2014, 09:00 11:00 Uhr. Univ.-Prof. Dr. U.

Aufgabenheft. Fakultät für Wirtschaftswissenschaft. Modul 32701 - Business/IT-Alignment. 26.09.2014, 09:00 11:00 Uhr. Univ.-Prof. Dr. U. Fakultät für Wirtschaftswissenschaft Aufgabenheft : Termin: Prüfer: Modul 32701 - Business/IT-Alignment 26.09.2014, 09:00 11:00 Uhr Univ.-Prof. Dr. U. Baumöl Aufbau und Bewertung der Aufgabe 1 2 3 4 Summe

Mehr

Der Fristentransformationserfolg aus der passiven Steuerung

Der Fristentransformationserfolg aus der passiven Steuerung Der Fristentransformationserfolg aus der passiven Steuerung Die Einführung einer barwertigen Zinsbuchsteuerung ist zwangsläufig mit der Frage nach dem zukünftigen Managementstil verbunden. Die Kreditinstitute

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Wann ist eine Software in Medizinprodukte- Aufbereitungsabteilungen ein Medizinprodukt?

Wann ist eine Software in Medizinprodukte- Aufbereitungsabteilungen ein Medizinprodukt? DGSV-Kongress 2009 Wann ist eine Software in Medizinprodukte- Aufbereitungsabteilungen ein Medizinprodukt? Sybille Andrée Betriebswirtin für und Sozialmanagement (FH-SRH) Prokuristin HSD Händschke Software

Mehr

27001 im Kundendialog. ISO Wertschätzungsmanagement. Wie Wertschätzung profitabel macht und den Kunden glücklich

27001 im Kundendialog. ISO Wertschätzungsmanagement. Wie Wertschätzung profitabel macht und den Kunden glücklich ISO 27001 im Kundendialog Informationssicherheit intern und extern organisieren Juni 2014 Was steckt hinter der ISO/IEC 27001:2005? Die internationale Norm ISO/IEC 27001:2005 beschreibt ein Modell für

Mehr

FUTURE NETWORK 20.11.2013 REQUIREMENTS ENGINEERING

FUTURE NETWORK 20.11.2013 REQUIREMENTS ENGINEERING 18/11/13 Requirements Engineering 21 November 2013 DIE GRUNDFRAGEN Wie erhält der Kunde den größten Nutzen? Wie kann der Kunde am besten spezifizieren, was er haben will? Welchen Detailierungsgrad braucht

Mehr

Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers

Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers Ist Excel das richtige Tool für FMEA? Einleitung Wenn in einem Unternehmen FMEA eingeführt wird, fangen die meisten sofort damit an,

Mehr

Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm.

Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm. Persönliche Einladung. Zur IT Managers Lounge am 4. November 2009 in Köln, Hotel im Wasserturm. IT Managers Lounge präsentiert: Top-Trend Cloud Computing. Flexibilität, Dynamik und eine schnelle Reaktionsfähigkeit

Mehr

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05

THE KNOWLEDGE PEOPLE. CompanyFlyer.indd 1 07.03.2016 11:48:05 THE KNOWLEDGE PEOPLE CompanyFlyer.indd 1 07.03.2016 11:48:05 BE SMART IT-CONSULTING Smartes IT-Consulting für die Zukunft: Agilität, Dynamische IT, Komplexitätsreduzierung, Cloud, Industrie 4.0, Big Data

Mehr

Übungen zur Softwaretechnik

Übungen zur Softwaretechnik Technische Universität München Fakultät für Informatik Lehrstuhl IV: Software & Systems Engineering Markus Pister, Dr. Bernhard Rumpe WS 2002/2003 Lösungsblatt 9 17. Dezember 2002 www4.in.tum.de/~rumpe/se

Mehr