Self-Acting Data Mining: Das neue Paradigma der Datenanalyse

Größe: px
Ab Seite anzeigen:

Download "Self-Acting Data Mining: Das neue Paradigma der Datenanalyse"

Transkript

1 Self-Acting Data Mining: Das neue Paradigma der Datenanalyse Kurzzusammenfassung Data-Mining-Analysen gelten bisher als komplex, langwierig, nur von Spezialisten beherrschbar und daher als teuer. Der Großteil der in zunehmenden Mengen anfallenden Daten wird deshalb gar nicht ausgewertet; lediglich ein kleiner Teil wird dem Entscheider z.b. über einfache Berichte oder über OLAP-Analysen zugänglich gemacht. Viele wertvolle Informationen gelangen so überhaupt nicht in seine Hände, obwohl der zunehmende Konkurrenzdruck ein derartiges Brachliegenlassen von wichtigen Ressourcen immer weniger zulässt. Self-Acting Data Mining kann als vollständig neuer Ansatz der Datenanalyse die Informationsversorgung im Unternehmen revolutionieren. Damit können große Datenbestände mit einem ungekannt hohen Automatisierungsgrad auf neue Informationen durchsucht werden durch innovative Algorithmen, die sich ohne manuelle Eingriffe selbst parametrisieren und die enorm zeitaufwändige Datenvorverarbeitung vollständig automatisieren. Dadurch wird der gesamte Analyseprozess radikal vereinfacht und kann um Größenordnungen schneller und kostengünstiger abgeschlossen werden; gleichzeitig sinkt das Projektrisiko stark. Anhand eines Praxisbeispiels werden die enormen Potenziale dieses Ansatzes verdeutlicht. Zahlreiche analytische Fragestellungen können nun hoch rentabel mittels Self-Acting Data Mining untersucht und beantwortet werden. 1 Entscheidungsrelevantes Wissen als Basis unternehmerischen Handelns 1.1 Informationen und Wissen: Die Schmierstoffe der Unternehmensprozesse Wirtschaftliches Handeln besteht zu einem Großteil aus betrieblichen Entscheidungen, also der bewussten Auswahl von Handlungsalternativen. Solche Entscheidungen ziehen sich durch die gesamte Unternehmensorganisation: Auf strategischer, taktischer und operativer Ebene im Controlling ebenso wie in der Produktentwicklung und im Marketing. Das Vorliegen relevanten Wissens in der richtigen Form und im richtigen Detailgrad bestimmt in erheblichem Maße die Qualität der Entscheidung. Schon eine einzige zusätzliche Information kann dabei das Ergebnis in eine völlig andere Richtung lenken. Umgekehrt gilt, dass eine unvollständige Wissensgrundlage schwerwiegende Folgen nach sich ziehen kann: Durch die verzerrte Abbildung der Entscheidungssituation kommt es nahezu zwangsläufig zu einer Fehlentscheidung; es entsteht die paradoxe Situation, dass sogar die intuitive Bewertung aus dem Bauch heraus zu einem besseren Ergebnis führen kann. Entscheidungen sind in vielfältige und zuweilen sehr komplexe Unternehmensprozesse eingebettet. Informationen und Wissen sind dabei die elementaren Schmierstoffe dieser Prozesse eine schlichte Notwendigkeit, ohne die es nicht geht. So wie das Fahrradfahren mit ungeölter Kette nur sehr schwer funktioniert, verhält es sich auch mit den Prozessen im Unternehmen: Ohne das richtige Wissen ist ihr Ablauf sehr ineffizient, in vielen Fällen gar vollständig unmöglich. 1

2 1.2 War for Customers Das Umfeld, in dem Unternehmen heute agieren, hat sich in den letzten Jahren rapide verändert: In nahezu allen Branchen ist die Wettbewerbsintensität deutlich gestiegen. Das liegt zum Großteil daran, dass die unmittelbare Konkurrenz durch die Folgen der Globalisierung stark zugenommen hat. Zum Anderen hat sich durch die Massenproduktion der Engpass von der Produktions- auf die Absatzseite verschoben: In diesen in weiten Teilen der Wirtschaft vorherrschenden Käufermärkten geht es nicht mehr darum, genügend zu produzieren, sondern vielmehr darum, für die hergestellten Produkte möglichst viele Abnehmer zu finden. Analog zum Begriff War for Talents (Beschreibung für den immer härter geführten Kampf um talentierte Nachwuchskräfte) kann man im Marketing vom War for Customers sprechen, um die immer aufwändigere Suche nach neuen Kunden zu charakterisieren. Heutige Kunden befinden sich in einer komfortablen Lage: Sie können aus einem riesigen Überangebot an Produkten wählen. Schätzungen zufolge sind in Deutschland mehr als drei Millionen Produkte auf dem Markt. Nur im Lebensmitteleinzelhandel kommen jährlich ca weitere hinzu. [Abb. 1]: Entscheidungsrelevantes Wissen als essenzielle Unternehmensressource 2

3 Die Kunden sind sich ihrer Einkaufsmacht durchaus bewusst ihre Preissensibilität sowie ihre Ansprüche an Produkt- und Servicequalität steigen stetig. Zudem sind sie in ihrem gesamten Kaufverhalten spontaner und sprunghafter und somit unberechenbarer denn je 1 ; die Kundenloyalität und die Markentreue sinken beständig ob beim Telekommunikationsanbieter, im Supermarkt, bei Banken, Versicherungen oder beim Autokauf. Das Internet mit seinen Möglichkeiten des anbieterübergreifenden Preisvergleichs, des Meinungsaustausches über Produkte mit anderen Kunden führt zu immer transparenteren Märkten, die dem volkswirtschaftlichen Ideal des vollkommenen Marktes näher kommen als je zuvor. Welche Schlussfolgerungen lassen sich daraus ziehen? Jedes Unternehmen muss größte Anstrengungen darauf verwenden, neue Kunden zu finden, bestehende Kundenbeziehungen zu festigen sowie abgewanderte, aber profitable Kunden zurückzugewinnen. Die Kunden als der wesentliche Flaschenhals sollten daher im Mittelpunkt des unternehmerischen Handelns stehen. Für dieses Management der Kundenbeziehungen sowie für den Aufbau von dauerhaften Wettbewerbsvorteilen ist eine kontinuierliche Versorgung mit Informationen und Wissen elementare Voraussetzung (vgl. zusammenfassend Abb. 1). 1.3 Customer Relationship Management (CRM): Profitable Kundenbeziehungen schaffen Im Customer Relationship Management (CRM) ist die Versorgung mit relevanten Informationen besonders wichtig: Das Wissen über den Kunden, über seine Wünsche, über seine gesamte Beziehung zum Unternehmen ist zu einem der wichtigsten Vermögensgegenstände geworden auch, wenn er in keiner Bilanz auftaucht. Dass selbst in traditionellen Branchen wie dem Handel kundenorientierte Unternehmen schneller wachsen als der Branchendurchschnitt, belegt, dass die Qualität der Kundenbeziehungen einen Großteil des Unternehmenserfolgs ausmacht ([02], S. 44). Umfangreiche Studien zeigen zudem, dass Kundenorientierung umso wichtiger und erfolgreicher ist, je intensiver der Wettbewerb und je wechselhafter das Unternehmensumfeld wird [03]. Mit CRM versucht man diese Kundenorientierung umfassend umzusetzen. Dies geschieht durch die Lenkung und Gestaltung (Management) von Kundenbeziehungen mit dem Ziel, den individuellen Kundenwert und damit den gesamten Unternehmenswert zu steigern ([04], S. 5f). Die Schwierigkeit dieser Aufgabe liegt in ihrer ungeheuren Komplexität und darin, dass sie durch besonders schlecht strukturierte Sachverhalte und Entscheidungen gekennzeichnet ist. Daher kommt dem CRM-Teilbereich Customer Relationship Analytics (CRA) eine besonders hohe Bedeutung zu [04]: Er produziert aus Daten entscheidungsrelevante Informationen und Wissen für das CRM und stellt somit den angesprochenen Schmierstoff für die CRM-Prozesse bereit. Einige Unternehmen haben die Bedeutung dieser Aufgabe erkannt und setzen immer stärker auf die Analyse ihrer Daten, um die Kundenwünsche noch besser zu verstehen und sich dadurch Wettbewerbsvorteile zu verschaffen. Zahlreiche anschauliche Beispiele dafür finden sich in dem 2007 erschienenen Buch Competing on Analytics [05]. Die Hauptfrage, die es zu beantworten gilt, lautet: Welcher Kunde soll wie und mit welchem Aufwand angesprochen werden? Je individueller die Kundenansprache, umso teurer ist sie auch. Das Ziel kann daher nicht darin bestehen, jeden Kunden um jeden Preis glücklich zu machen. Jegliches Umwerben eines Kunden stellt letztlich eine Investitionsentscheidung dar, die sich in absehbarer 1 Die Zeitschrift Der Stern fragte z.b. im Dezember 2005: Wird der Konsument immer zappeliger? [01] 3

4 Zeit als rentabel erweisen sollte. Um solche Entscheidungen sicher treffen zu können, müssen umfangreiche Informationen vorliegen, z.b. über folgende Sachverhalte: Welchen individuellen Wert besitzen meine Kunden heute und voraussichtlich zukünftig? Welchen Anteil haben welche Produkte daran? Welche Kundenstruktur liegt vor? Welche werttreibenden Einflussfaktoren darauf kristallisieren sich heraus? Welche Kunden sollten mit welchem Aufwand zurückgewonnen werden? Welche Neukunden haben besonderes Wertsteigerungspotenzial? Der Rohstoff für dieses Wissen liegt in vielen Unternehmen in Form von unausgewerteten Daten bereits vor er muss lediglich mit geeigneten Methoden und Werkzeugen zutage gefördert und zu Wissen veredelt werden. 2 Statistik, OLAP, Data Mining & Co.: In Datenbergen nach Gold schürfen 2.1 Die Datenberge wachsen... Das Data Warehouse des US-Einzelhandelskonzerns Wal-Mart dürfte mittlerweile auf über 700 TB (Terabyte) angewachsen sein und das, obwohl die Transaktionsdaten bereits nach zwei Jahren gelöscht werden [06]. Etwa eine Milliarde Datensätze werden hier täglich aktualisiert. Die Auktionsplattform Ebay, das Internetportal Yahoo sowie die AT&T Labs Research verfügten bereits Mitte 2005 je über 100 TB große konsolidierte Datenbestände [06], [07]. Auch in europäischen Unternehmen stehen große Datenmengen bereit: Die Metro AG Deutschland erreicht ebenfalls einen dreistelligen TB-Bereich, und der größte französische Telekommunikationsanbieter France Télécom kam bereits im Jahr 2003 auf über 29 TB [08]. Das ungeheure Ausmaß dieser Datenmengen wird erst im Vergleich vorstellbar: Die Library of Congress in Washington, die größte Bibliothek der Welt, verzeichnete im Jahr 2006 ca. 20,5 Mio. Bücher in 460 Sprachen [09]. Wenn man im Durchschnitt großzügig 500 Seiten pro Buch annimmt, die als druckfertig formatierte Textdatei je ca. 1,5 MB Speicher beanspruchen, kommt man auf etwa 30 TB für den Gesamtbestand dieser Bibliothek. Selbst bei diesen gewaltigen Größenordnungen bleibt es nicht lange: Das Analystenhaus Winter Corp. erhebt seit 1998 regelmäßig die aktuelle Größe von Data-Warehouse-Systemen. Das Ergebnis: Die größten unter ihnen verdreifachen ihren Umfang alle zwei Jahre. So wachsen die konsolidierten Datenbestände des Marktforschungsunternehmens Nielsen Media Research täglich um rund 20 GB (Gigabyte) [06], die der Direktbank ING-DiBa um 80 GB pro Monat. Die Speicherhersteller rechnen daher mit einem rasant wachsendem Bedarf: Die weltweite Speicherfabrikation betrug im Jahr 2004 über 21 Mio. TB; die Gartner Group prognostiziert eine Steigerung auf über das zehnfache für das Jahr 2009, nämlich auf rund 220 Mio. TB. Die Situation ist paradox: Einerseits fallen bei immer mehr alltäglichen Geschäftstransaktionen in zahlreichen Branchen nahezu vollautomatisch große Datenmengen an, z.b. bei Bankgeschäften jeglicher Art, bei Versicherungen, bei der Telefon- und Handynutzung, bei Reisebuchungen mit Bahn oder Flugzeug, sowie generell beim Einkaufen im stationären Handel, im Versandhandel oder 4

5 im Internet. Die Voraussetzungen für Unternehmen, daraus etwas über ihre Kunden zu lernen und somit letztlich auch ihr eigenes Geschäft besser zu verstehen, waren nie besser als heute. Andererseits liegt das große Potenzial dieser Daten in Form von darin verborgenem, wertvollem Kundenwissen in vielen Unternehmen brach: Die Daten werden nicht ausgewertet, sondern verursachen als nutzlose Datenfriedhöfe Kosten in erheblicher Höhe. Gholamreza Nakhaeizadeh, langjähriger Leiter der Forschungsabteilung Data Mining Solutions der DaimlerChrysler AG, schätzt, dass nur 5 10% aller gesammelten Daten überhaupt analysiert werden ([10], S. V). Gleichzeitig steigt durch die in Kapitel 1 beschriebenen Faktoren der Bedarf an Wissen stark an so entsteht ein großes Ungleichgewicht zwischen dem Bedarf nach und der Versorgung mit Wissen: Wir ertrinken in Informationen, aber uns dürstet nach Wissen bringt es der US-Trendforscher John Naisbitt auf den Punkt. Wie kann nun dieses Missverhältnis ausgeglichen werden? Dazu müssen die Daten mit geeigneten Methoden in Wissen überführt werden. Dabei lassen sich grundsätzlich zwei verschiedene Arten von Analysen unterscheiden; eine Beschreibung folgt in den beiden folgenden Unterkapiteln. 2.2 Konfirmative Datenanalyse: Mit der Spitzhacke auf Goldsuche Hat man eine konkrete Vorstellung davon, welche Fragestellung durch eine Datenanalyse beantwortet werden soll, führt man eine konfirmative, hypothesengeleitete Datenanalyse durch. Beispiele für solche Fragen sind: Wie viele und welche Kunden haben neben einem Tagesgeldkonto auch einen Aktiensparplan abgeschlossen? Welchen Umsatz hat der Kunde im letzten Quartal bei mir gemacht? Welche zehn Kunden haben sich im letzen Jahr am häufigsten beschwert? Welche Artikel haben den negativen Deckungsbeitrag des Kunden verursacht? Welches Produkt hat in der letzten Woche den höchsten Umsatz eingebracht? Allgemein könnte man formulieren: Welche Daten passen zu einem vorgegebenen Muster? Bei solcher Art von Fragen hat man bereits eine Hypothese im Kopf, die man überprüfen möchte. Der ersten Frage liegt etwa die Hypothese zugrunde, dass es Kunden gibt, die beide Bankprodukte Tagesgeldkonto und Aktiensparplan in Anspruch nehmen. Weiterhin nimmt man an, dass die Gruppe dieser Kunden interessant sein könnte und es sich lohnt, sie genauer zu untersuchen. Solche Fragestellungen sind Top-Down-Probleme, da man Datenbestände nach Sachverhalten durchsucht, die existierende Hypothesen stützen oder widerlegen. Typische Vertreter solcher konfirmativen Datenanalysen sind z.b. klassische statistische Analysen, Standardberichte, Ad-Hoc- Datenbankabfragen oder auch die Navigation im multidimensionalen Datenraum eines Data- Warehouse-Systems mittels On-Line Analytical Processing (OLAP). Konfirmative Analysen sind die Spitzhacken im Datenbergbau: Sie liefern nur dann gute Ergebnisse, wenn der Anwender genau weiß, wo er nach interessanten Wissensschätzen (Goldnuggets) suchen muss. Da sie nur Antworten auf bereits bekannte Hypothesen liefern können, ist ihr Suchraum stark eingeschränkt. Zudem müssen solche Analysen weitgehend manuell durchgeführt werden wie das Graben mit der Spitzhacke. Dies alles bedingt, dass die heute üblichen, sehr großen Datenmengen auf diese Weise nicht umfassend ausgewertet werden können. 5

6 2.3 Explorative Datenanalyse: Mit Data Mining das Terrain sondieren Der Data-Mining-Ansatz verspricht Abhilfe: Der Begriff nimmt auf die Bergbaumetapher Bezug und soll illustrieren, dass Data Mining sich für umfangreiche Datenberge eignet. Damit können im Sinne eines Schaufelradbaggers in einer Mine große Datenmengen nahezu autonom nach interessanten neuen Zusammenhängen und Mustern durchsucht werden. In einem großen und unübersichtlichen Datengebiet, über das keine Vermutung besteht, wo genau die Goldnuggets des Wissens liegen, geht man am besten großflächig und hochautomatisiert zu Werke. Die Fragestellungen sind in dieser Situation viel offener und ungerichteter (explorativ): Welche Charakteristika kennzeichnen unsere Stammkunden? Welche Produkte verkaufen sich besonders gut zusammen? Welchen Artikel sollte ich im nächsten Monat welchen Kunden bevorzugt anbieten? Welche Kunden werden mit welcher Wahrscheinlichkeit im nächsten Quartal abwandern? Allgemein könnte man formulieren: Welche Muster, welche Auffälligkeiten stecken in den vorliegenden Daten? In diesen Fällen ist der Suchraum wesentlich komplexer, da keine Begrenzung durch konkrete Annahmen vorgegeben ist. Ideen für Hypothesen sollen gerade durch eine solche explorative Analyse erzeugt werden: Man möchte Hinweise darauf bekommen, welchen konkreten Fragen es weiter nachzugehen lohnt. Diese Hinweise basieren auf Regelmäßigkeiten, Zusammenhängen oder allgemein Mustern in den Daten. Beispiele für solche Muster sind Regelmäßigkeiten im zeitlichen Ablauf von Produktverkäufen (Sequenzen), Segmente im Kundenstamm, Abhängigkeiten zwischen Verkäufen einzelner Produkte oder Regeln zur Vorhersage einer Kündigung. Da man ohne konkrete Hypothesen arbeitet, weil die bisher unbekannten Auffälligkeiten in den Daten im Vordergrund stehen, spricht man von datengetriebenen Analysen (Bottom-Up-Vorgehen). Aufgrund seiner zur konfirmativen Analyse komplementären Charakteristik eignet sich Data Mining besonders gut als vorgeschaltetes Verfahren: Man spürt damit zunächst explorativ Zusammenhänge auf, kann daraufhin Hypothesen bilden und diese dann z.b. mittels OLAP oder einer statistischen Analyse gezielt näher untersuchen. OLAP und Data Mining ergänzen sich daher in vielen Fällen auf hervorragende Weise. Für manche Analyseprobleme ist der Einsatz von Data Mining sogar Pflicht: Zur Beantwortung der beiden letzten Fragen in obiger Liste müssen Prognosemodelle erstellt werden, die auf der Basis von Beobachtungen in der Vergangenheit Voraussagen für die Zukunft treffen können ( Predictive Analytics, ein Teilbereich des Data Mining). Solche Art von Fragestellungen lassen sich mit konfirmativen Analysen überhaupt nicht beantworten. Die Ineffizienz des KDD-Prozesses Wie läuft eine Data-Mining-Analyse nun in der Praxis ab? Data Mining umfasst lediglich die eng abgegrenzte Datenanalyse an sich, die jedoch in einen Prozess eingebettet ist, der die Aufgaben, die vor und nach einer solchen Analyse anfallen, beschreibt und strukturiert. Für diesen Prozess, der aus Daten Wissen produziert, hat sich die Bezeichnung Knowledge Discovery in Databases (KDD) durchgesetzt (siehe Abbildung 2). Er besteht aus den fünf grün eingezeichneten Schritten, von der Selektion der Daten bis zur Interpretation der Ergebnisse. Die ersten drei Schritte sind Datenvorverarbeitungsaufgaben, in denen die Daten für die eigentliche Analyse vorbereitet und in die adäquate Form gebracht werden. Der vierte Schritt bezeichnet die Data-Mining-Analyse; hier muss ein Al- 6

7 gorithmus ausgewählt, parametrisiert und ausgeführt werden. Danach werden im letzten Schritt die Ergebnisse ausgewertet und daraus konkrete Aktionen abgeleitet, die dann in die Praxis umgesetzt werden. Jeder dieser Schritte besteht wiederum aus mehreren Teilaufgaben (in Abbildung 2 gelb unterlegt dargestellt). [Abb. 2]: Der klassische KDD-Prozess im Überblick Trotz der oben beschriebenen Vorteile wird Data Mining jedoch bisher bei weitem nicht so häufig in der Praxis eingesetzt wie z.b. OLAP-Analysen. Die Gründe dafür liegen nicht in der Analyse selbst und schon gar nicht in der mangelnden Leistungsfähigkeit moderner Data-Mining-Verfahren, sondern vielmehr in der Struktur und im komplexen Ablauf des KDD-Prozesses. Der bekannte Data- Mining-Experte Michael Berry resümiert seine Erfahrungen wie folgt: data mining is almost all about process and only a little about clever algorithms. [11] Der Prozess hat drei wesentliche Besonderheiten: Der Zeitaufwand, um die einzelnen Schritte zu durchlaufen, ist extrem unterschiedlich verteilt. Die meisten Aufgaben erfordern umfassende betriebswirtschaftliche, informationstechnische und statistische Fachkenntnisse, um zu aussagekräftigen Ergebnissen zu kommen. Der Prozess läuft nicht geradlinig ab, sondern ist durch zahlreiche Umwege charakterisiert: Die Aufgaben sind durch gegenseitige Abhängigkeiten extrem miteinander verschachtelt und müssen daher häufig mehrfach ausgeführt werden. 7

8 Der unterschiedliche Zeitaufwand ist in Abbildung 2 durch Prozentzahlen verdeutlicht: Etwa 75% fällt allein für die Modifikation der Daten an. Insbesondere die Anpassung der Datengranularität erweist sich in der Praxis als langwierig hier müssen z.b. zu detailliert vorliegende Attributwerte weitgehend manuell zu Werteintervallen aggregiert werden. Das Hauptkennzeichen des KDD-Prozesses ist sein komplexer Ablauf. In Abbildung 2 kommt lediglich die Struktursicht des Prozesses zum Ausdruck; erst in der Ablaufsicht wird jedoch sein besonderer Charakter offensichtlich (siehe Kapitel 2.5). Dieser besteht darin, dass der Prozess in der Regel mehrfach durchlaufen werden muss. Da die Auswirkungen der einzelnen Schritte auf die Endresultate in vielen Fällen nicht ex-ante abschätzbar sind, müssen die meisten Aufgaben so lange erneut mit unterschiedlichen Einstellungen wiederholt werden, bis ein zufriedenstellendes Ergebnis erreicht wird. Dadurch ist der Analytiker gezwungen, Schritt für Schritt vorzugehen, ohne zu wissen, wie viele weitere Iterationen ihm noch bevorstehen. Dieses Vorgehen vervielfacht die Durchlaufzeit und die Kosten; eine strukturierte Gesamtplanung ist nahezu unmöglich. Ähnlich wie beim Prototyping in der Softwareentwicklung lässt sich der KDD-Prozess als eine Folge von Zyklen beschreiben, in der ein vorläufiges Produkt (in diesem Fall: Interessante Muster in den Daten) evolutionär verbessert und schließlich in ein Endprodukt überführt wird. Der KDD-Prozess ist somit hochgradig ineffizient: Die zahlreichen Wiederholungsschleifen kosten Zeit, erfordern langjährige Erfahrung und erschweren es enorm, Projektlaufzeiten sowie erzielbare Ergebnisse vorherzusagen. Um zu verwertbaren Resultaten zu kommen, ist zudem viel Expertenwissen notwendig die sorgsame Datenvorverarbeitung, die Parametrisierung der Verfahren sowie deren schrittweise Verfeinerung sind besonders kritisch. Data Mining umgibt die Aura einer Geheimwissenschaft, die nur Spezialisten beherrschen, so ein treffender Ausspruch auf der Podiumsdiskussion der CeBIT 2007 [12]. Zahlreiche potenzielle Anwender aus den Fachabteilungen werden dadurch systematisch von der Nutzung ausgeklammert. An analytischen Fragestellungen, die einer Data-Mining-Analyse grundsätzlich zugänglich sind, fehlt es in den wenigsten Fällen. Was jedoch bisher fehlte, war eine Lösung, die die aufwändigsten Schritte automatisiert, den Analyseprozess radikal vereinfacht und so auch kleinere und mittlere Analyseprojekte rentabel werden lässt. Dadurch würde auch die Einstiegsschwelle für Data Mining generell gesenkt, so dass bedeutend mehr Unternehmen als heute die Potenziale dieses Ansatzes realisieren könnten. 2.4 Self-Acting Data Mining: Das neue Paradigma der Datenanalyse Seit Kurzem gibt es jedoch ein neues Data-Mining-Paradigma, das genau an den beschriebenen Schwachstellen des KDD-Prozesses ansetzt, um die Effizienz und die Anwendbarkeit von Data- Mining-Analysen deutlich zu erhöhen. Dabei spielen die dort eingesetzten Algorithmen eine große Rolle. Die hoch automatisierten Verfahren des Self-Acting Data Mining Ein Beispiel für die softwaretechnische Umsetzung des Self-Acting Data Mining ist das Analytic Framework der Firma KXEN. Die darin verwendeten Verfahren machen sich die Erkenntnisse der strukturierten Risikominimierung (ein Teilbereich der statistischen Lerntheorie) des Mathematikers Vladimir Vapnik zunutze [13]. Das Grundprinzip: Das Abbild der in den Daten gefundenen Muster (Mo- 8

9 dell) ist ein Kompromiss zwischen der Gültigkeit der Ergebnisse im aktuellen Analysefall (interne Validität) und der Übertragbarkeit der Ergebnisse auf neue, unbekannte Daten (externe Validität). Um z.b. ein Prognosemodell zu erstellen, das die Kündigungswahrscheinlichkeit vorhersagt, benötigt man Daten von Kunden, für die das Merkmal gekündigt ja/nein bereits bekannt ist. Auf der Basis dieser Daten versucht der Analytiker, ein Data-Mining-Modell zu erstellen, das die relevanten Muster extrahiert, die zu einer Kündigung führen. Dieses Modell kann dann auf Kunden angewendet werden, deren Kündigungswahrscheinlichkeit unbekannt ist. In den Daten findet sich jedoch ebenfalls eine Fülle an bedeutungslosen Mustern. Versucht man, die Vorhersagegenauigkeit des Data-Mining-Modells durch Parameteränderungen zu steigern, bezieht ein klassischer Algorithmus leicht auch solche Muster in die Berechnung mit ein. Dieses Modell ist dann unbrauchbar, weil es die spezifischen Besonderheiten der Trainingsdaten kopiert (Overfitting): Es lässt sich daher nicht verallgemeinern und liefert bei der Anwendung auf neue Daten sehr schlechte Ergebnisse (geringe externe Validität). Im gegenteiligen Fall des Underfittings werden viele relevante Muster in den Trainingsdaten sehr ungenau oder gar nicht abgebildet (geringe interne Validität). Ein solches Modell ist zwar aufgrund seiner relativen Unschärfe gut generalisierbar; die Qualität der Vorhersage insgesamt ist jedoch ebenfalls unzureichend. Im traditionellen Data Mining muss die Balance zwischen diesen beiden Extremen für jeden Analysefall durch Feinjustierung der Parametereinstellungen immer wieder neu gefunden werden, was zahlreiche Wiederholungsschleifen nach sich zieht und viel Zeit kostet. Im Self-Acting Data Mining kann die komplette Modellbildung automatisiert werden, indem sie in ein mathematisches Optimierungsproblem umgewandelt wird (Abbildung 3): Die Fehler der beiden angesprochenen Größen Externe Validität (gelbe Kurve) und Interne Validität (blaue Kurve) werden mehrdimensional gemessen und beide gleichzeitig minimiert. Die Güte des Modells insgesamt ist in der grünen Kurve dargestellt; deren Minimum stellt das minimale Risiko der beiden Fehler dar und ist somit das optimale Modell. [Abb. 3]: Automatisierung der Data-Mining-Modellbildung durch strukturierte Risikominimierung 9

10 Nicht nur die Data-Mining-Analyse an sich, sondern zahlreiche weitere Teilaufgaben des KDD-Prozesses können durch Self-Acting Data Mining automatisiert werden (siehe Abbildung 4). Die augenscheinlichste Veränderung ist die deutliche Zeitersparnis, die hauptsächlich durch die Reduktion der Datenmodifikation von 75% auf 5% bei einmaligem Durchlauf des Prozesses zustande kommt (Abbildung der Prozentzahlen maßstabsgetreu zu Abbildung 2). Wie lässt sich dies genau erreichen? Einige der in der gelb hinterlegten Tabelle aufgeführten Teilaufgaben sind ausgegraut, was bedeutet, dass diese nun automatisiert ablaufen oder sogar vollständig entfallen. Das Ergebnis ist ein sehr viel schlankerer Prozess, dessen Zeitbedarf nurmehr bei unter 20% des klassischen KDD- Prozesses liegt. Nachfolgend einige detailliertere Erläuterungen zu den einzelnen Schritten: Schritt 1: Selektion der Daten Die Auswahl von geeigneten Datenquellen und Datensätzen wird nach wie vor manuell durchgeführt. Im klassischen Data Mining muss zudem eine Auswahl der Datenfelder (Attribute) getroffen werden, die in die Analyse einbezogen werden sollen. Einerseits, weil viele Prognose-, Klassifikations- oder Segmentierungsverfahren ab einer gewissen Anzahl von Attributen mit den Datenmengen schlicht überfordert sind. Andererseits liefern viele Algorithmen wie z.b. Segmentierungsverfahren keine optimalen Ergebnisse, wenn mehrere Hundert Variablen in die Berechnung eingehen, von denen sich dann herausstellt, dass sie keine oder nur eine vernachlässigbar geringe Relevanz für die Segmenteinteilungen besitzen. Daraus lassen sich zwei Probleme klassischer Data-Mining- Verfahren ableiten, die für den praktischen Einsatz von hoher Bedeutung sind: Zum Einen führt die Notwendigkeit zur Attributauswahl dazu, dass der Grundansatz der explorativen, datengetriebenen Analyse insgesamt verwischt wird. Denn welche Attribute z.b. in einem Prognosemodell die Kündigungswahrscheinlichkeit eines Kunden beeinflussen, lässt sich ex ante nur schwer bestimmen. Genau dies soll schließlich durch die Data-Mining-Analyse herausgefunden werden. Michael Berry & Gordon Linoff ist zuzustimmen, wenn sie in diesem Zusammenhang konstatieren: The data mining approach calls for letting the data itself reveal what is and is not important ([14], S. 63). Nur so lassen sich die Vorteile der explorativen Analyse durch ihre großen Suchraumabdeckung nutzen. Denn in manchen Fällen stecken die entscheidenden Informationen in den Datenfeldern, die der Anwender von der Analyse ausgeschlossen hat, weil er annahm, sie seien nicht relevant. Zum Anderen ist die Auswahl relevanter Datenfelder auch eine für die Prozesseffizienz kritische Aufgabe, weil sie häufiger Auslöser für den Start einer komplett neuen Iteration des Gesamtprozesses ist. Wie in Kapitel 2.5 am Praxisbeispiel noch deutlich wird, kann sie dadurch deutlich mehr zusätzlichen Aufwand erzeugen als nur für die erneute Auswahl von Datenfeldern anfallen würde. Diese Aufgabe entfällt im Self-Acting Data Mining vollständig, was aus den oben genannten Gründen von deutlich größerem Nutzen ist als die abgebildete Zeitreduktion von 5% auf 2% suggeriert. Neben der beschriebenen Autojustierung besitzen die Verfahren der strukturierten Risikominimierung einen weiteren, sehr gewichtigen Vorteil: Sie können in mathematisch hochdimensionalen Räumen operieren. Ein Kunde, der z.b. durch Merkmale beschrieben wird, ist für den Algorithmus ein Datenpunkt in einem Raum mit Dimensionen. Durch ausgeklügelte mathematische Transformationen können die Verfahren des Self-Acting Data Mining solche Größenordnungen problemlos verkraften, ohne dass die Rechenzeit inakzeptable Höhen erreicht. Auch werden durch das Einbeziehen von irrelevanten Attributen die Ergebnisse nicht beeinträchtigt; derartige Datenfelder werden automatisch durch Signifikanzbestimmung erkannt und nicht zur endgültigen Berechnung herangezogen. 10

11 Schritt 2: Exploration der Daten Da in der Kette der Datenbereitstellung Fehler passieren können und die tatsächlich aus einer Quelle gelieferten Daten nicht immer den Erwartungen entsprechen, ist eine Prüfung der Daten unverzichtbar im traditionellen wie im Self-Acting Data Mining. Um das jeweilige Verfahren später im traditionellen Data Mining angemessen parametrisieren zu können, empfiehlt es sich für der Analytiker, bereits zu diesem Zeitpunkt ein Gefühl für die Daten zu entwickeln. Da eine Parametrisierung im Self-Acting Data Mining nicht erforderlich ist, muss die Datenexploration hier sehr viel weniger eingehend erfolgen. In beiden Fällen benötigen Analytiker eine zweckmäßige Auswahl an statistischen Methoden, z.b. für die Berechnung von Häufigkeitsverteilungen sowie grundlegender Kennzahlen wie Minimum, Maximum, Mittelwert, Standardabweichung etc. Von zentraler Bedeutung ist dabei eine übersichtliche grafische Visualisierung. [Abb. 4]: Self-Acting Data Mining im automatisierten KDD-Prozess Schritt 3: Modifikation der Daten Diese Aufgabe bietet mit weitem Abstand das größte Rationalisierungspotenzial. Mit Ausnahme der Denormalisierung der Eingangstabellen (die hauptsächlich dem besonderen Datenschema eines Data-Warehouses geschuldet ist) und der eventuellen Anreicherung der Daten sind alle Aufgaben automatisiert, wodurch sich die enorme Zeitreduktion von 75% auf 5% erklärt. 11

12 Im traditionellen Data Mining muss viel Zeit auf den Umgang mit fehlenden und falschen Werten (Ausreißern) verwendet werden. Viele herkömmliche Verfahren reagieren sehr empfindlich auf Ausreißer, weswegen diese im Vorfeld der Analyse aufwändig einzeln geprüft werden müssen. Auch der traditionelle Umgang mit fehlenden Werten ist kritisch: sie werden oft einfach eliminiert, nachträglich ergänzt, durch Mittelwerte ersetzt oder mit Dummywerten gefüllt. In vielen Fällen sind jedoch fehlende Werte an sich bereits sehr aufschlussreich; sie können wertvolle Informationen bergen, die durch die geschilderte Behandlung verloren gehen. Im Self-Acting Data Mining bleiben diese potenziellen Informationen erhalten, denn hier werden fehlende Werte und Ausreißer automatisch erkannt, in eigene Werteklassen gruppiert und gehen explizit in die Analyse mit ein. Auch die Beseitigung von Redundanzen ist nicht mehr notwendig; sie hängt eng mit dem Wegfall der Auswahl relevanter Datenfelder (Schritt Selektion der Daten ) zusammen: Verfahren des Self- Acting Data Mining können sowohl mit irrelevanten Attributen als auch mit überbestimmten Einflussgrößen umgehen (stark untereinander korrelierende Variablen, die denselben Sachverhalt beschreiben oder erklären). Weil herkömmliche Verfahren in diesen Fällen unbrauchbare Ergebnisse liefern, müssen solche Korrelationen unter den Variablen zuvor in separaten Analysen, z.b. mithilfe einer Faktoranalyse, ermittelt und beseitigt werden. Bei mehreren Hundert Variablen eine sehr aufwändige Arbeit, zumal auch bei dieser Datenanalyse wiederum ein kompletter zugehöriger Prozess zu durchlaufen ist. Die Automatisierung der Anpassung der Datengranularität lässt sich am besten am Beispiel zeigen und wird daher in Kapitel 2.5 thematisiert. Schritt 4: Datenanalyse (Data Mining) Traditionelle Data-Mining-Verfahren müssen an zahlreichen Stellschrauben mit viel Erfahrung und Fingerspitzengefühl parametrisiert werden, um verwertbare Ergebnisse zu liefern. Die weitgehende Automatisierung dieser Aufgabe bewirkt zweierlei: Erstens können dadurch neben der einmaligen Zeitersparnis zahlreiche weitere Prozessdurchläufe gespart werden (siehe Kapitel 2.5): Das beschriebene, zeitaufwändige Ausbalancieren zwischen interner und externer Validität des Modells entfällt. Und zweitens erfordert die Parametrisierung im Self-Acting Data Mining bedeutend weniger Expertenwissen als dies bei herkömmlichen Verfahren der Fall ist Self-Acting Data Mining öffnet die Potenziale explorativer Datenanalysen damit auch für Anwender aus den Fachabteilungen. Schritt 5: Interpretation der Ergebnisse Die Interpretation der Ergebnisse einer Data-Mining-Analyse ist traditionell eine Aufgabe, die zum Großteil durch menschliche Beurteilung gelöst werden muss. Das liegt daran, dass ein automatisiertes Verfahren z.b. kaum die Neuartigkeit oder die Anwendbarkeit eines Ergebnisses beurteilen kann, weil dafür die Anwendungsdomäne also der konkrete Geschäftsprozess berücksichtigt werden muss, in dessen Kontext die Ergebnisse umgesetzt werden sollen. Daher ist auch die Ableitung von Handlungsmaßnahmen (von trivialen Fällen abgesehen) nur manuell durchführbar. Allerdings kann der Analytiker dabei maßgeblich unterstützt werden: Im Self-Acting Data Mining wird z.b. bei einer Clusteranalyse vollautomatisiert eine Beschreibung jedes gebildeten Segments vorgenommen (auf der Basis von Signifikanzberechnungen der einzelnen Attribute). Desweiteren können zahlreiche Interessantheitsprüfungen zu großen Teilen entfallen, da die Prüfung der Auswirkungen von Parametrisierungsänderungen auf die Ergebnisse nicht mehr erforderlich ist. 12

13 2.5 Vorteile in der Praxis am Beispiel Kundensegmentierung Die bisher beschriebenen Vorteile des Self-Acting Data Mining, so bedeutend sie bereits sind, decken jedoch nur einen Bruchteil der wirklichen Einsparungen an Zeit und Kosten ab, die sich durch diesen Ansatz in der Praxis erzielen lassen. Durch die dargestellte Charakteristik des klassischen KDD-Prozesses, der prinzipbedingt erst nach mehreren Durchläufen zufriedenstellende Ergebnisse liefert, greifen die dargestellten Vorteile bei jeder Prozessiteration erneut. Zahlreiche Wiederholungsschleifen entfallen gar komplett. Im Weiteren soll dies anschaulich anhand eines Praxisbeispiels gezeigt werden. Das Beispiel stammt aus einem Kundensegmentierungsprojekt für einen Versandhandelskunden; dafür wurden mehr als 60 kaufverhaltensbasierte Kennzahlen sowohl im traditionellen als auch im Self-Acting Data Mining analysiert. [Abb. 5]: Kundensegmentierung mit traditionellem Data Mining 13

14 Abbildung 5 zeigt die einzelnen Schritte (gelb unterlegt), die zur Durchführung der Segmentierung im traditionellen Data Mining erforderlich waren. Darüber (grün unterlegt) sind die Hauptphasen des KDD-Prozesses dargestellt. Bereits nach der Exploration fiel auf, dass nahezu alle Attribute eine zu detaillierte Repräsentation der Daten enthalten, so dass für diese Datenfelder Diskretisierungen erstellt werden mussten. Die sich dadurch ändernde Verteilung der Merkmalswerte musste anschließend in einem weiteren Explorationsschritt geprüft werden. Nach einem ersten Data-Mining-Lauf fielen Fehlwerte und Ausreißer negativ auf, die ersetzt werden mussten. Nach einer Erhöhung der Clusteranzahl waren fünf weitere Schleifen notwendig, um die in diesem Fall angemessene Parametereinstellung zu testen. Die Ergebnisse der Clusteranalyse waren jedoch weiterhin unscharf und nicht eindeutig, so dass mehrere Male einige weitere Datenfelder hinzugenommen und andere verworfen wurden. Nach diesen Änderungen wurden einige Felder in ihrer Datengranularität verändert und z.t. deutlich zusammengefasst, um die Trennschärfe der Cluster zu verbessern. Jedoch konnten auch nach mehrmaliger weiterer Anpassung der Parametereinstellungen keine zufrieden stellenden Ergebnisse erzielt werden. Das Entfernen einiger Attribute und die nochmalige Verfeinerung der Parametrisierung in mehreren Durchläufen brachten schließlich gut interpretierbare Ergebnisse. [Abb. 6]: Kundensegmentierung mit Self-Acting Data Mining Dieselbe Segmentierung ist in Abbildung 6 dargestellt; hier allerdings im Self-Acting Data Mining. Sofort fällt der schlanke Prozess ins Auge: Bereits bei der Selektion entfielen aufwändige Teilaufgaben; bei der Modifikation entstand eine weitere, große Zeitersparnis durch Wegfall der Attributkodierung, der Behandlung von fehlenden Werten und Ausreißern sowie vor allem der Anpassung der Datengranularität. Abbildung 7 zeigt beispielhaft am KXEN Modeling Assistant eine automatische Anpassung der Datengranularität des Attributs Umsatz ein wichtiges und vielfach auftretendes Attribut (es wird z.b. für einzelne Warengruppen separat berechnet). Die Attributwerte dieses Datenfeldes sind kontinuierlich verteilt, zeigen also im Urzustand sehr viele unterschiedliche Ausprägungen, die in dieser Detailtiefe für eine Segmentierung ungeeignet sind. Die KXEN-Komponente Consistent Coder nutzt das Grundprinzip der strukturierten Risikominimierung, um die Attributausprägungen automatisch in die abgebildeten Werteintervalle zu gruppieren und somit die in den Daten enthaltenen Informationen zu verdichten, ohne die Verteilung insgesamt zu verfälschen. Auch hier wird wieder 14

15 automatisch die richtige Balance gefunden zwischen einer zu detaillierten Darstellung und einer allzu starken Vereinfachung der Verteilung, die wichtige Informationen ausblendet. Diese Diskretisierungen werden für jedes Attribut unter Berücksichtigung der individuellen Verteilung der jeweiligen Attributwerte berechnet. Dies führt im gezeigten Beispiel zu unterschiedlich breiten Werteintervallen: Das zweite Intervall gruppiert beispielsweise alle Kunden, die zwischen 15,71 und 26,15 Umsatz aufweisen; das vorletzte Intervall beinhaltet alle Kunden mit Umsätzen zwischen 935,59 und 1.193,85. Auch nominale und ordinale Attribute werden bei Bedarf auf die beschriebene Weise gruppiert. Die Zeitersparnis im Vergleich zum traditionellen, manuellen Vorgehen ist erheblich und steigt überproportional mit wachsenden Datenmengen und einer zunehmenden Anzahl von Datenfeldern. Branchen, die typischerweise über eine Vielzahl an potentiell relevanten Attributen verfügen, wie z.b. der Handel, Banken und Versicherungen oder Telekommunikationsanbieter, können in besonderem Maße von den Möglichkeiten des Self-Acting Data Mining profitieren. Durch den Wegfall der Parametrisierung kann der Algorithmus direkt ausgeführt werden. Zuweilen muss lediglich die Clusteranzahl angepasst werden; in unserem Projekt war eine Erhöhung notwendig, da mit der Standardvorgabe ein zu hoher Prozentsatz der Datensätze keinem Cluster zugeordnet werden konnten. Anschließend konnte direkt mit der ausführlichen Deutung der Ergebnisse und mit der Ableitung von Handlungsmaßnahmen begonnen werden. Weitere Durchläufe des Prozesses erübrigten sich. [Abb. 7]: Automatische Anpassung der Datengranularität im KXEN Modeling Assistant 15

16 Viele Data-Mining-Projekte werfen neue Fragen auf. Bisher ging man diesen interessanten Anschlussfragen lediglich in wenigen Fällen nach meist aus der Annahme heraus, den Kosten eines erneuten Data-Mining-Projekts stünde kein adäquater Informationsgewinn gegenüber. Durch Self- Acting Data Mining hat sich die Kosten-Nutzen-Relation nun derart grundlegend verschoben, dass viele dieser Entscheidungen neu überdacht werden müssen. Auch aus anderen Gründen sinkt der Analysebedarf nach Projektabschluss in der Regel nicht: Viele Analysen müssen in gewissen zeitlichen Abständen wiederholt werden, um aussagekräftig zu bleiben. Zunehmend schwankendes Kaufverhalten der Kunden führt dazu, dass z.b. Prognosemodelle, die eine Kaufwahrscheinlichkeit für ein bestimmtes Produkt oder die Reaktionswahrscheinlichkeit auf eine Werbeansprache berechnen, schnell ihre Vorhersagegenauigkeit verlieren. Bestimmte Analysen bieten zudem gerade im Zeitablauf interessante Erkenntnisse. So lassen sich etwa bei einer regelmäßig wiederholten Kundensegmentierung wertvolle Erkenntnisse darüber gewinnen, welche Wanderungen die Kunden über mehrere Monate hinweg durch welche Segmente zeigen. In manchen Fällen lassen sich so frühzeitig Abwanderungstendenzen erkennen, die durch entsprechende Maßnahmen verhindert werden können. Selbst ohne das Untersuchen neuer Sachverhalte kommt es also zu einer gewissen Grundlast an Analysen, die mit Self-Acting Data Mining nun sehr viel schneller und kostengünstiger durchgeführt werden können als mit traditionellem Data Mining. 3 Abschließende Beurteilung & Ausblick Wenn wie gezeigt derart grundlegende und seit langem etablierte Konzepte wie das KDD-Prozessmodel die Realität nicht mehr zutreffend abbilden können, weil der Prozessablauf sich grundlegend verändert hat, zentrale Aufgaben vollständig automatisiert ablaufen oder gar ganz wegfallen, erscheint es durchaus angebracht, von einem neuen Paradigma im Data Mining zu sprechen. Im Marketing wurde die Diskussion um neue Paradigmen vor allem im Zuge des Aufkommens des Beziehungsmarketings in den 1990er Jahren geführt. Dort hat sich die Auffassung durchgesetzt, dass der Status eines Paradigmas sich an der Vorteilhaftigkeit des Problemlösungserfolgs [15] bemisst, also von der Zweckmäßigkeit und Ergiebigkeit des Ansatzes her zu beurteilen ist. Diese Voraussetzung wird durch das Self-Acting Data Mining zweifelsohne erfüllt. Nicht nur die Struktur des zugehörigen Datenanalyseprozesses, sondern vor allem dessen Ablaufsicht ändert sich grundlegend: Das iterativ-inkrementelle Vorgehen mit seinen zahlreichen Rücksprüngen zu früheren Prozessschritten als elementares, aber insbesondere in der Praxis ungeliebtes Wesensmerkmal einer Data-Mining-Analyse, verschwindet nahezu vollständig. Dadurch wird ein wesentlicher Beitrag dafür geleistet, die Effizienz des Datenanalyseprozesses maßgeblich zu verbessern, wie es seit vielen Jahren von Wissenschaft und Praxis zu Recht gefordert wird. In der Unternehmenspraxis führt dies zu sehr viel schlankeren Datenanalyseprojekten, die lediglich einen Bruchteil der Kosten traditioneller Data-Mining-Projekte verursachen. Zudem sinkt das Projektrisiko deutlich. Durch den Zeitgewinn (von der Definition der analytischen Fragestellung bis zur Ableitung von Handlungsmaßnahmen) kann weiterhin sehr viel schneller auf aktuelle Ereignisse oder ein verändertes Kundenverhalten reagiert werden ein zunehmend wichtiger Faktor. Das bedeutet nicht, dass das traditionelle Vorgehen im Data Mining vollständig abgelöst wird; vielmehr ergänzen sich die unterschiedlichen Ansätze geradezu ideal, wie in Abbildung 8 deutlich 16

17 wird: Insbesondere bei komplexen Prognosemodellen kann man durch individuelle Parametrisierung traditioneller Data Mining-Werkzeuge (mit entsprechendem Zeitaufwand) einige Prozentpunkte an zusätzlicher Prognosegenauigkeit erzielen. Für spezielle Analyseprobleme von zentraler Bedeutung ist dies sicher auch in naher Zukunft noch betriebswirtschaftlich sinnvoll. Jedoch spricht angesichts der ungeheuer stark steigenden Datenmengen vieles dafür, dass es in den nächsten Jahren zu einer deutlichen Akzentverschiebung kommen wird. Self-Acting Data Mining hat durch die beschriebene Automatisierung einen deutlich explorativeren Charakter als traditionelles Data Mining und deckt einen noch größeren Suchraum ab. Durch die Fähigkeit, extrem große Datenmengen ohne Vorauswahl der Datenfelder oder eingängige manuelle Prüfung zu analysieren, kommt es dem Ideal der vollständig hypothesenfreien Datenanalyse näher als jeder bisher bekannte Analyseansatz. Er eignet sich daher sehr gut für eine erste, schnelle und kostengünstige Datenanalyse in noch unbekanntem Datengebirge. In manchen Fällen wird im Anschluss eine OLAP-Analyse zur Hypothesenprüfung sinnvoll sein; für vergleichsweise komplexe Analysefälle lässt sich eine traditionelle Data-Mining-Analyse zwischenschalten. [Abb. 8]: Self-Acting Data Mining, Traditionelles Data Mining & OLAP Hand in Hand Was bedeutet das für die zukünftige Entwicklung? Aufgrund des Zeitgewinns bei der Modellbildung wird sich die Anzahl der Data-Mining-Modelle vervielfachen. Dadurch rücken andere Aufgaben in den Vordergrund, die bisher weniger im Mittelpunkt des Interesses standen. Die automatisierte Anwendung, Prüfung und Pflege einer großen Zahl von Modellen wird sicher stark an Bedeutung gewinnen. Hier sind die Softwarehersteller gefragt, denn es lohnen sich bereits kleine Automatisierungsfortschritte, weil auch sie, hundert- oder tausendfach wiederholt, zu einer signifikanten Effizienzverbesserung führen. Dazu gehört auch die stärkere Integration der Analyseumgebung in die operativen Systeme, damit die gewonnenen Erkenntnisse so schnell wie möglich umgesetzt und somit als Schmierstoff für die Unternehmensprozesse bereitgestellt werden können. 17

18 4 Literatur [01] Quelle: (Zugriff am ). [02] D. Fischer-Neeb: Customer Relationship Management der Kunde im Mittelpunkt. In: Information Management & Consulting, Heft 1 (2000), S [03] A. K. Kohli, B. J. Jaworski: Market Orientation: The Construct, Research Propositions and Managerial Implications. In: Journal of Marketing, No. 4 (1990), S [04] P. Neckel, B. Knobloch: Customer Relationship Analytics praktische Anwendung des Data Mining im CRM. Dpunkt.verlag, Heidelberg [05] T. H. Davenport, J. G. Harris: Competing on Analytics. The New Science of Winning. McGraw-Hill, [06] C. Babcock: Data, Data Everywhere. In: InformationWeek, Januar Quelle: showarticle.jhtml;jsessionid=rjwqd21r34h22qsndlpskhscjunn2jvn?articleid= (Zugriff am ). [07] Quelle: (Zugriff am ) [08] Quelle: (Zugriff am ) [09] Quelle: (Zugriff am ) [10] G. Nakhaeizadeh (Hrsg.): Data Mining Theoretische Aspekte und Anwendungen. Physica-Verlag, Heidelberg [11] M. J. A. Berry: Data Mining Seven Years Later, Lessons Learned. Veröffentlicht am Quelle: (Zugriff am ) [12] S. Alexander: Zweiter Frühling für Data Mining. In: Computerwoche 13/2007, S [13] V. Vapnik: The Nature of Statistical Learning Theory. Second Edition, Springer-Verlag, Berlin [14] M. J. A. Berry, G. S. Linoff: Data Mining Techniques. Second Edition, Wiley, Indianapolis [15] B. Tietz: Die bisherige und zukünftige Paradigmatik des Marketing in Theorie und Praxis. In: Marketing ZFP, Heft 3/1993, S (Teil 1) & Heft 4/1993, S (Teil 2). Peter Neckel mayato GmbH Am Borsigturm 9, Berlin peter.neckel@mayato.com Über den Autor Peter Neckel ist Unternehmensberater sowie unabhängiger CRM- und Data-Mining-Analyst beim Analysten- und Beraterhaus mayato. Er ist Autor des Buches Customer Relationship Analytics Praktische Anwendung des Data Mining im CRM sowie mehrerer weiterer Veröffentlichungen zu den Themen CRM, Data Mining und Datenschutz. 18

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen

geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Gehen wir einmal davon aus, dass die von uns angenommenen geben. Die Wahrscheinlichkeit von 100% ist hier demnach nur der Vollständigkeit halber aufgeführt. Gehen wir einmal davon aus, dass die von uns angenommenen 70% im Beispiel exakt berechnet sind. Was würde

Mehr

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren

Lineargleichungssysteme: Additions-/ Subtraktionsverfahren Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als

Mehr

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten

Das große ElterngeldPlus 1x1. Alles über das ElterngeldPlus. Wer kann ElterngeldPlus beantragen? ElterngeldPlus verstehen ein paar einleitende Fakten Das große x -4 Alles über das Wer kann beantragen? Generell kann jeder beantragen! Eltern (Mütter UND Väter), die schon während ihrer Elternzeit wieder in Teilzeit arbeiten möchten. Eltern, die während

Mehr

Primzahlen und RSA-Verschlüsselung

Primzahlen und RSA-Verschlüsselung Primzahlen und RSA-Verschlüsselung Michael Fütterer und Jonathan Zachhuber 1 Einiges zu Primzahlen Ein paar Definitionen: Wir bezeichnen mit Z die Menge der positiven und negativen ganzen Zahlen, also

Mehr

Speicher in der Cloud

Speicher in der Cloud Speicher in der Cloud Kostenbremse, Sicherheitsrisiko oder Basis für die unternehmensweite Kollaboration? von Cornelius Höchel-Winter 2013 ComConsult Research GmbH, Aachen 3 SYNCHRONISATION TEUFELSZEUG

Mehr

Persönliche Zukunftsplanung mit Menschen, denen nicht zugetraut wird, dass sie für sich selbst sprechen können Von Susanne Göbel und Josef Ströbl

Persönliche Zukunftsplanung mit Menschen, denen nicht zugetraut wird, dass sie für sich selbst sprechen können Von Susanne Göbel und Josef Ströbl Persönliche Zukunftsplanung mit Menschen, denen nicht zugetraut Von Susanne Göbel und Josef Ströbl Die Ideen der Persönlichen Zukunftsplanung stammen aus Nordamerika. Dort werden Zukunftsplanungen schon

Mehr

infach Geld FBV Ihr Weg zum finanzellen Erfolg Florian Mock

infach Geld FBV Ihr Weg zum finanzellen Erfolg Florian Mock infach Ihr Weg zum finanzellen Erfolg Geld Florian Mock FBV Die Grundlagen für finanziellen Erfolg Denn Sie müssten anschließend wieder vom Gehaltskonto Rückzahlungen in Höhe der Entnahmen vornehmen, um

Mehr

Professionelle Seminare im Bereich MS-Office

Professionelle Seminare im Bereich MS-Office Der Name BEREICH.VERSCHIEBEN() ist etwas unglücklich gewählt. Man kann mit der Funktion Bereiche zwar verschieben, man kann Bereiche aber auch verkleinern oder vergrößern. Besser wäre es, die Funktion

Mehr

Übungsaufgaben Prozentrechnung und / oder Dreisatz

Übungsaufgaben Prozentrechnung und / oder Dreisatz Übungsaufgaben Prozentrechnung und / oder Dreisatz 1. Bei der Wahl des Universitätssprechers wurden 800 gültige Stimmen abgegeben. Die Stimmen verteilten sich so auf die drei Kandidat/innen: A bekam 300,

Mehr

Inhalt. Kundenbindung langfristig Erfolge sichern 5 Kundenbindung als Teil Ihrer Unternehmensstrategie 6 Was Kundenorientierung wirklich bedeutet 11

Inhalt. Kundenbindung langfristig Erfolge sichern 5 Kundenbindung als Teil Ihrer Unternehmensstrategie 6 Was Kundenorientierung wirklich bedeutet 11 2 Inhalt Kundenbindung langfristig Erfolge sichern 5 Kundenbindung als Teil Ihrer Unternehmensstrategie 6 Was Kundenorientierung wirklich bedeutet 11 Die Erfolgsfaktoren für Ihre Kundenbindung 17 Diese

Mehr

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank

Mehr

Wie oft soll ich essen?

Wie oft soll ich essen? Wie oft soll ich essen? Wie sollen Sie sich als Diabetiker am besten ernähren? Gesunde Ernährung für Menschen mit Diabetes unterscheidet sich nicht von gesunder Ernährung für andere Menschen. Es gibt nichts,

Mehr

PIERAU PLANUNG GESELLSCHAFT FÜR UNTERNEHMENSBERATUNG

PIERAU PLANUNG GESELLSCHAFT FÜR UNTERNEHMENSBERATUNG Übersicht Wer ist? Was macht anders? Wir denken langfristig. Wir individualisieren. Wir sind unabhängig. Wir realisieren. Wir bieten Erfahrung. Für wen arbeitet? Pierau Planung ist eine Gesellschaft für

Mehr

Adobe Photoshop. Lightroom 5 für Einsteiger Bilder verwalten und entwickeln. Sam Jost

Adobe Photoshop. Lightroom 5 für Einsteiger Bilder verwalten und entwickeln. Sam Jost Adobe Photoshop Lightroom 5 für Einsteiger Bilder verwalten und entwickeln Sam Jost Kapitel 2 Der erste Start 2.1 Mitmachen beim Lesen....................... 22 2.2 Für Apple-Anwender.........................

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Übungsbuch für den Grundkurs mit Tipps und Lösungen: Analysis Das komplette Material finden Sie hier: Download bei School-Scout.de

Mehr

Anwendungshinweise zur Anwendung der Soziometrie

Anwendungshinweise zur Anwendung der Soziometrie Anwendungshinweise zur Anwendung der Soziometrie Einführung Die Soziometrie ist ein Verfahren, welches sich besonders gut dafür eignet, Beziehungen zwischen Mitgliedern einer Gruppe darzustellen. Das Verfahren

Mehr

Sicher auf Erfolgskurs. Mit Ihrem Treuhand-Betriebsvergleich

Sicher auf Erfolgskurs. Mit Ihrem Treuhand-Betriebsvergleich Sicher auf Erfolgskurs Mit Ihrem Treuhand-Betriebsvergleich Leistungsübersicht Der neue Treuhand-IBV eines der besten Instrumente für Ihre Unternehmensführung Weil Sie jetzt ganz leicht den Überblick behalten

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

Erfolg im Verkauf durch Persönlichkeit! Potenzialanalyse, Training & Entwicklung für Vertriebsmitarbeiter!

Erfolg im Verkauf durch Persönlichkeit! Potenzialanalyse, Training & Entwicklung für Vertriebsmitarbeiter! Wer in Kontakt ist verkauft! Wie reden Sie mit mir? Erfolg im Verkauf durch Persönlichkeit! Potenzialanalyse, Training & Entwicklung für Vertriebsmitarbeiter! www.sizeprozess.at Fritz Zehetner Persönlichkeit

Mehr

Kundenbefragung als Vehikel zur Optimierung des Customer Service Feedback des Kunden nutzen zur Verbesserung der eigenen Prozesse

Kundenbefragung als Vehikel zur Optimierung des Customer Service Feedback des Kunden nutzen zur Verbesserung der eigenen Prozesse Kundenbefragung als Vehikel zur Optimierung des Customer Service Feedback des Kunden nutzen zur Verbesserung der eigenen Prozesse Vieles wurde bereits geschrieben, über die Definition und/oder Neugestaltung

Mehr

Kapitalerhöhung - Verbuchung

Kapitalerhöhung - Verbuchung Kapitalerhöhung - Verbuchung Beschreibung Eine Kapitalerhöhung ist eine Erhöhung des Aktienkapitals einer Aktiengesellschaft durch Emission von en Aktien. Es gibt unterschiedliche Formen von Kapitalerhöhung.

Mehr

AZK 1- Freistil. Der Dialog "Arbeitszeitkonten" Grundsätzliches zum Dialog "Arbeitszeitkonten"

AZK 1- Freistil. Der Dialog Arbeitszeitkonten Grundsätzliches zum Dialog Arbeitszeitkonten AZK 1- Freistil Nur bei Bedarf werden dafür gekennzeichnete Lohnbestandteile (Stundenzahl und Stundensatz) zwischen dem aktuellen Bruttolohnjournal und dem AZK ausgetauscht. Das Ansparen und das Auszahlen

Mehr

Teil A Grundlagen und Methoden 1. 1 Customer Relationship Management ein Bezugsrahmen 3

Teil A Grundlagen und Methoden 1. 1 Customer Relationship Management ein Bezugsrahmen 3 xi Teil A Grundlagen und Methoden 1 1 Customer Relationship Management ein Bezugsrahmen 3 1.1 Die Entwicklung zum kundenzentrierten Unternehmen 3 1.2 Ziel und Kernkonzepte des CRM 5 1.2.1 Ziel: Profitable

Mehr

Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09.

Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09. Abstract zum Thema Handelssysteme Erfolg und Vermögensrückgänge angefertigt im Rahmen der Lehrveranstaltung Nachrichtentechnik von: Eric Hansen, eric-hansen@gmx.de am: 07.09.01 Einleitung: Handelssysteme

Mehr

Ihr Weg in die Suchmaschinen

Ihr Weg in die Suchmaschinen Ihr Weg in die Suchmaschinen Suchmaschinenoptimierung Durch Suchmaschinenoptimierung kann man eine höhere Platzierung von Homepages in den Ergebnislisten von Suchmaschinen erreichen und somit mehr Besucher

Mehr

Kreativ visualisieren

Kreativ visualisieren Kreativ visualisieren Haben Sie schon einmal etwas von sogenannten»sich selbst erfüllenden Prophezeiungen«gehört? Damit ist gemeint, dass ein Ereignis mit hoher Wahrscheinlichkeit eintritt, wenn wir uns

Mehr

Vorgestellt von Hans-Dieter Stubben. BVW GmbH: Partner des Bundes-Versorgungs-Werk der Wirtschaft und der Selbständigen e.v.

Vorgestellt von Hans-Dieter Stubben. BVW GmbH: Partner des Bundes-Versorgungs-Werk der Wirtschaft und der Selbständigen e.v. Der Investitionsoptimierer Vorgestellt von Hans-Dieter Stubben BVW GmbH: Partner des Bundes-Versorgungs-Werk der Wirtschaft und der Selbständigen e.v. Der Investitionsoptimierer ist die Antwort an die

Mehr

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Schwierigkeiten bei der Umsetzung Josef Kolbitsch Manuela Reinisch Übersicht Schwierigkeiten bei der Umsetzung eines BI-Systems Schwierigkeiten der Umsetzung 1/13 Strategische Ziele

Mehr

Selbsttest Prozessmanagement

Selbsttest Prozessmanagement Selbsttest Prozessmanagement Zur Feststellung des aktuellen Status des Prozessmanagements in Ihrem Unternehmen steht Ihnen dieser kurze Test mit zehn Fragen zur Verfügung. Der Test dient Ihrer persönlichen

Mehr

SWOT-Analyse. Der BABOK V2.0 (Business Analysis Body Of Knowledge) definiert die SWOT-Analyse wie folgt:

SWOT-Analyse. Der BABOK V2.0 (Business Analysis Body Of Knowledge) definiert die SWOT-Analyse wie folgt: SWOT-Analyse Die SWOT-Analyse stammt ursprünglich aus dem militärischen Bereich und wurde in den 1960er-Jahren von der Harvard Business School zur Anwendung in Unternehmen vorgeschlagen. Die SWOT-Analyse

Mehr

Customer Relationship Ana lyt ics

Customer Relationship Ana lyt ics Peter Necke1 Bernd Knobloch Customer Relationship Ana lyt ics Praktische Anwendung des Data Mining im CRM d p u n kt.ve r I ag 1 1.1 1.2 1.3 Customer Relationship Management. ein Bezugsrahmen Die Entwicklung

Mehr

Effiziente Prozesse. Die Formel 1 und die Druckindustrie

Effiziente Prozesse. Die Formel 1 und die Druckindustrie Die Formel 1 und die Druckindustrie Was hat die Formel 1 mit der Druckindustrie zu tun? Nun: dass ein Formel-1-Ferrari eine hohe Anziehungskraft hat, ist nicht zu bestreiten. Und dass dies auch für die

Mehr

Informationsblatt Induktionsbeweis

Informationsblatt Induktionsbeweis Sommer 015 Informationsblatt Induktionsbeweis 31. März 015 Motivation Die vollständige Induktion ist ein wichtiges Beweisverfahren in der Informatik. Sie wird häufig dazu gebraucht, um mathematische Formeln

Mehr

WERKZEUG KUNDENGRUPPEN BILDEN

WERKZEUG KUNDENGRUPPEN BILDEN Integrierter MarketinXervice Dr. Rüdiger Alte Wilhelm-Busch-Straße 27 99099 Erfurt Tel.: 0361 / 55 45 84 38 WERKZEUG GRUPPEN BILDEN Die folgenden Fragen mögen Ihnen helfen, Kriterien aufzustellen, anhand

Mehr

Sowohl die Malstreifen als auch die Neperschen Streifen können auch in anderen Stellenwertsystemen verwendet werden.

Sowohl die Malstreifen als auch die Neperschen Streifen können auch in anderen Stellenwertsystemen verwendet werden. Multiplikation Die schriftliche Multiplikation ist etwas schwieriger als die Addition. Zum einen setzt sie das kleine Einmaleins voraus, zum anderen sind die Überträge, die zu merken sind und häufig in

Mehr

Projektmanagement in der Spieleentwicklung

Projektmanagement in der Spieleentwicklung Projektmanagement in der Spieleentwicklung Inhalt 1. Warum brauche ich ein Projekt-Management? 2. Die Charaktere des Projektmanagement - Mastermind - Producer - Projektleiter 3. Schnittstellen definieren

Mehr

Der Fristentransformationserfolg aus der passiven Steuerung

Der Fristentransformationserfolg aus der passiven Steuerung Der Fristentransformationserfolg aus der passiven Steuerung Die Einführung einer barwertigen Zinsbuchsteuerung ist zwangsläufig mit der Frage nach dem zukünftigen Managementstil verbunden. Die Kreditinstitute

Mehr

Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen!

Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen! Erfolgreiche Webseiten: Zur Notwendigkeit die eigene(n) Zielgruppe(n) zu kennen und zu verstehen! www.wee24.de. info@wee24.de. 08382 / 6040561 1 Experten sprechen Ihre Sprache. 2 Unternehmenswebseiten

Mehr

Senkung des technischen Zinssatzes und des Umwandlungssatzes

Senkung des technischen Zinssatzes und des Umwandlungssatzes Senkung des technischen Zinssatzes und des Umwandlungssatzes Was ist ein Umwandlungssatz? Die PKE führt für jede versicherte Person ein individuelles Konto. Diesem werden die Beiträge, allfällige Einlagen

Mehr

Berechnung der Erhöhung der Durchschnittsprämien

Berechnung der Erhöhung der Durchschnittsprämien Wolfram Fischer Berechnung der Erhöhung der Durchschnittsprämien Oktober 2004 1 Zusammenfassung Zur Berechnung der Durchschnittsprämien wird das gesamte gemeldete Prämienvolumen Zusammenfassung durch die

Mehr

CustomerStory. So bringt man sein Markenportfolio erfolgreich an den B2B-Kunden:

CustomerStory. So bringt man sein Markenportfolio erfolgreich an den B2B-Kunden: So bringt man sein Markenportfolio erfolgreich an den B2B-Kunden: Brightpearl-Händler VeloBrands steigert seinen Absatz durch effiziente Order und individuelle KPI-Reports pro B2B-Kunde! Steckbrief Der

Mehr

Business Model Canvas

Business Model Canvas Business Model Canvas Business Model Canvas ist ein strategisches Management Tool, mit dem sich neue und bestehende Geschäftsmodelle visualisieren lassen. Demnach setzt sich ein Geschäftsmodell aus neun

Mehr

Finanzierung: Übungsserie III Innenfinanzierung

Finanzierung: Übungsserie III Innenfinanzierung Thema Dokumentart Finanzierung: Übungsserie III Innenfinanzierung Lösungen Theorie im Buch "Integrale Betriebswirtschaftslehre" Teil: Kapitel: D1 Finanzmanagement 2.3 Innenfinanzierung Finanzierung: Übungsserie

Mehr

Social-CRM (SCRM) im Überblick

Social-CRM (SCRM) im Überblick Social-CRM (SCRM) im Überblick In der heutigen Zeit ist es kaum vorstellbar ohne Kommunikationsplattformen wie Facebook, Google, Twitter und LinkedIn auszukommen. Dies betrifft nicht nur Privatpersonen

Mehr

Social Supply Chain Management

Social Supply Chain Management Social Supply Chain Management Wettbewerbsvorteile durch Social Supply Chain Management aus ressourcenorientierter Sicht (Johannes Nußbaum) Abstract Der Druck, soziale Auswirkungen entlang der Supply Chain

Mehr

Ihre Interessentendatensätze bei inobroker. 1. Interessentendatensätze

Ihre Interessentendatensätze bei inobroker. 1. Interessentendatensätze Ihre Interessentendatensätze bei inobroker Wenn Sie oder Ihre Kunden die Prozesse von inobroker nutzen, werden Interessentendatensätze erzeugt. Diese können Sie direkt über inobroker bearbeiten oder mit

Mehr

Welche Gedanken wir uns für die Erstellung einer Präsentation machen, sollen Ihnen die folgende Folien zeigen.

Welche Gedanken wir uns für die Erstellung einer Präsentation machen, sollen Ihnen die folgende Folien zeigen. Wir wollen mit Ihnen Ihren Auftritt gestalten Steil-Vorlage ist ein österreichisches Start-up mit mehr als zehn Jahren Erfahrung in IT und Kommunikation. Unser Ziel ist, dass jede einzelne Mitarbeiterin

Mehr

Ishikawa-Diagramm. 1 Fallbeispiel 2. 2 Was ist ein Ishikawa-Diagramm 2. 3 Vorgehen bei der Erstellung eines Ishikawa-Diagramms 2.

Ishikawa-Diagramm. 1 Fallbeispiel 2. 2 Was ist ein Ishikawa-Diagramm 2. 3 Vorgehen bei der Erstellung eines Ishikawa-Diagramms 2. Ishikawa-Diagramm 1 Fallbeispiel 2 2 Was ist ein Ishikawa-Diagramm 2 3 Vorgehen bei der Erstellung eines Ishikawa-Diagramms 2 4 Vorteile 5 5 Nachteile 5 6 Fazit 5 7 Literaturverzeichnis 6 1 Fallbeispiel

Mehr

Wir arbeiten mit Zufallszahlen

Wir arbeiten mit Zufallszahlen Abb. 1: Bei Kartenspielen müssen zu Beginn die Karten zufällig ausgeteilt werden. Wir arbeiten mit Zufallszahlen Jedesmal wenn ein neues Patience-Spiel gestartet wird, muss das Computerprogramm die Karten

Mehr

Tutorial: Homogenitätstest

Tutorial: Homogenitätstest Tutorial: Homogenitätstest Eine Bank möchte die Kreditwürdigkeit potenzieller Kreditnehmer abschätzen. Einerseits lebt die Bank ja von der Vergabe von Krediten, andererseits verursachen Problemkredite

Mehr

Was sind Jahres- und Zielvereinbarungsgespräche?

Was sind Jahres- und Zielvereinbarungsgespräche? 6 Was sind Jahres- und Zielvereinbarungsgespräche? Mit dem Jahresgespräch und der Zielvereinbarung stehen Ihnen zwei sehr wirkungsvolle Instrumente zur Verfügung, um Ihre Mitarbeiter zu führen und zu motivieren

Mehr

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

2.1 Präsentieren wozu eigentlich?

2.1 Präsentieren wozu eigentlich? 2.1 Präsentieren wozu eigentlich? Gute Ideen verkaufen sich in den seltensten Fällen von allein. Es ist heute mehr denn je notwendig, sich und seine Leistungen, Produkte etc. gut zu präsentieren, d. h.

Mehr

Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER

Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER Abamsoft Finos im Zusammenspiel mit shop to date von DATA BECKER Abamsoft Finos in Verbindung mit der Webshopanbindung wurde speziell auf die Shop-Software shop to date von DATA BECKER abgestimmt. Mit

Mehr

Additional Cycle Index (ACIX) Thomas Theuerzeit

Additional Cycle Index (ACIX) Thomas Theuerzeit Additional Cycle Index (ACIX) Thomas Theuerzeit Der nachfolgende Artikel über den ACIX stammt vom Entwickler des Indikators Thomas Theuerzeit. Weitere Informationen über Projekte von Thomas Theuerzeit

Mehr

Berechnungen in Access Teil I

Berechnungen in Access Teil I in Access Teil I Viele Daten müssen in eine Datenbank nicht eingetragen werden, weil sie sich aus anderen Daten berechnen lassen. Zum Beispiel lässt sich die Mehrwertsteuer oder der Bruttopreis in einer

Mehr

DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ

DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ Kurzfassung DIE ANWENDUNG VON KENNZAHLEN IN DER PRAXIS: WEBMARK SEILBAHNEN IM EINSATZ Mag. Klaus Grabler 9. Oktober 2002 OITAF Seminar 2002 Kongresshaus Innsbruck K ennzahlen sind ein wesentliches Instrument

Mehr

Inhalt. 1 Einleitung AUTOMATISCHE DATENSICHERUNG AUF EINEN CLOUDSPEICHER

Inhalt. 1 Einleitung AUTOMATISCHE DATENSICHERUNG AUF EINEN CLOUDSPEICHER AUTOMATISCHE DATENSICHERUNG AUF EINEN CLOUDSPEICHER Inhalt 1 Einleitung... 1 2 Einrichtung der Aufgabe für die automatische Sicherung... 2 2.1 Die Aufgabenplanung... 2 2.2 Der erste Testlauf... 9 3 Problembehebung...

Mehr

DAS PARETO PRINZIP DER SCHLÜSSEL ZUM ERFOLG

DAS PARETO PRINZIP DER SCHLÜSSEL ZUM ERFOLG DAS PARETO PRINZIP DER SCHLÜSSEL ZUM ERFOLG von Urs Schaffer Copyright by Urs Schaffer Schaffer Consulting GmbH Basel www.schaffer-consulting.ch Info@schaffer-consulting.ch Haben Sie gewusst dass... >

Mehr

Multicheck Schülerumfrage 2013

Multicheck Schülerumfrage 2013 Multicheck Schülerumfrage 2013 Die gemeinsame Studie von Multicheck und Forschungsinstitut gfs-zürich Sonderauswertung ICT Berufsbildung Schweiz Auswertung der Fragen der ICT Berufsbildung Schweiz Wir

Mehr

Mehr Transparenz für optimalen Durchblick. Mit dem TÜV Rheinland Prüfzeichen.

Mehr Transparenz für optimalen Durchblick. Mit dem TÜV Rheinland Prüfzeichen. Mehr Transparenz für optimalen Durchblick. Mit dem TÜV Rheinland Prüfzeichen. Immer schon ein gutes Zeichen. Das TÜV Rheinland Prüfzeichen. Es steht für Sicherheit und Qualität. Bei Herstellern, Handel

Mehr

Prozessmanagement Modeerscheinung oder Notwendigkeit

Prozessmanagement Modeerscheinung oder Notwendigkeit 1 von5 Prozessmanagement Modeerscheinung oder Notwendigkeit Autor: Dr. Gerd Sonntag Beratender Ingenieur disocon (Unternehmensberatung Diekelmann & Sonntag) Das Thema Prozessmanagement wurde in einem kompakten

Mehr

Partitionieren in Vista und Windows 7/8

Partitionieren in Vista und Windows 7/8 Partitionieren in Vista und Windows 7/8 Windows Vista und Windows 7 können von Haus aus Festplatten partitionieren. Doch die Funktion ist etwas schwer zu entdecken, denn sie heißt "Volume verkleinern".

Mehr

Handbuch Fischertechnik-Einzelteiltabelle V3.7.3

Handbuch Fischertechnik-Einzelteiltabelle V3.7.3 Handbuch Fischertechnik-Einzelteiltabelle V3.7.3 von Markus Mack Stand: Samstag, 17. April 2004 Inhaltsverzeichnis 1. Systemvorraussetzungen...3 2. Installation und Start...3 3. Anpassen der Tabelle...3

Mehr

Projektmanagement. Einleitung. Beginn. Was ist Projektmanagement? In dieser Dokumentation erfahren Sie Folgendes:

Projektmanagement. Einleitung. Beginn. Was ist Projektmanagement? In dieser Dokumentation erfahren Sie Folgendes: Projektmanagement Link http://promana.edulearning.at/projektleitung.html Einleitung Was ist Projektmanagement? In dieser Dokumentation erfahren Sie Folgendes: Definition des Begriffs Projekt" Kriterien

Mehr

Die integrierte Zeiterfassung. Das innovative Softwarekonzept

Die integrierte Zeiterfassung. Das innovative Softwarekonzept Die integrierte Zeiterfassung Das innovative Softwarekonzept projekt - ein komplexes Programm mit Zusatzmodulen, die einzeln oder in ihrer individuellen Zusammenstellung, die gesamte Abwicklung in Ihrem

Mehr

ZIELE erreichen WERTSTROM. IDEEN entwickeln. KULTUR leben. optimieren. KVP und Lean Management:

ZIELE erreichen WERTSTROM. IDEEN entwickeln. KULTUR leben. optimieren. KVP und Lean Management: KVP und Lean Management: Damit machen wir Ihre Prozesse robuster, schneller und kostengünstiger. ZIELE erreichen WERTSTROM optimieren IDEEN entwickeln KULTUR leben 1 Lean Management Teil 1: Das Geheimnis

Mehr

ONLINE-AKADEMIE. "Diplomierter NLP Anwender für Schule und Unterricht" Ziele

ONLINE-AKADEMIE. Diplomierter NLP Anwender für Schule und Unterricht Ziele ONLINE-AKADEMIE Ziele Wenn man von Menschen hört, die etwas Großartiges in ihrem Leben geleistet haben, erfahren wir oft, dass diese ihr Ziel über Jahre verfolgt haben oder diesen Wunsch schon bereits

Mehr

Fehler und Probleme bei Auswahl und Installation eines Dokumentenmanagement Systems

Fehler und Probleme bei Auswahl und Installation eines Dokumentenmanagement Systems Fehler und Probleme bei Auswahl und Installation eines Dokumentenmanagement Systems Name: Bruno Handler Funktion: Marketing/Vertrieb Organisation: AXAVIA Software GmbH Liebe Leserinnen und liebe Leser,

Mehr

Jeopardy and andere Quizformate im bilingualen Sachfachunterricht Tipps zur Erstellung mit Powerpoint

Jeopardy and andere Quizformate im bilingualen Sachfachunterricht Tipps zur Erstellung mit Powerpoint Bilingual konkret Jeopardy and andere Quizformate im bilingualen Sachfachunterricht Tipps zur Erstellung mit Powerpoint Moderner Unterricht ist ohne die Unterstützung durch Computer und das Internet fast

Mehr

Checkliste. Erfolgreich Delegieren

Checkliste. Erfolgreich Delegieren Checkliste Erfolgreich Delegieren Checkliste Erfolgreich Delegieren Erfolgreiches Delegieren ist für Führungskräfte von großer Bedeutung, zählt doch das Delegieren von n und Projekten zu ihren zentralen

Mehr

Dieser PDF-Report kann und darf unverändert weitergegeben werden.

Dieser PDF-Report kann und darf unverändert weitergegeben werden. ME Finanz-Coaching Matthias Eilers Peter-Strasser-Weg 37 12101 Berlin Dieser PDF-Report kann und darf unverändert weitergegeben werden. http://www.matthiaseilers.de/ Vorwort: In diesem PDF-Report erfährst

Mehr

Kulturelle Evolution 12

Kulturelle Evolution 12 3.3 Kulturelle Evolution Kulturelle Evolution Kulturelle Evolution 12 Seit die Menschen Erfindungen machen wie z.b. das Rad oder den Pflug, haben sie sich im Körperbau kaum mehr verändert. Dafür war einfach

Mehr

Welchen Weg nimmt Ihr Vermögen. Unsere Leistung zu Ihrer Privaten Vermögensplanung. Wir machen aus Zahlen Werte

Welchen Weg nimmt Ihr Vermögen. Unsere Leistung zu Ihrer Privaten Vermögensplanung. Wir machen aus Zahlen Werte Welchen Weg nimmt Ihr Vermögen Unsere Leistung zu Ihrer Privaten Vermögensplanung Wir machen aus Zahlen Werte Ihre Fragen Ich schwimme irgendwie in meinen Finanzen, ich weiß nicht so genau wo ich stehe

Mehr

Wie wirksam wird Ihr Controlling kommuniziert?

Wie wirksam wird Ihr Controlling kommuniziert? Unternehmenssteuerung auf dem Prüfstand Wie wirksam wird Ihr Controlling kommuniziert? Performance durch strategiekonforme und wirksame Controllingkommunikation steigern INHALT Editorial Seite 3 Wurden

Mehr

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Portfolio: "Die Ratten" von Gerhart Hauptmann

Unterrichtsmaterialien in digitaler und in gedruckter Form. Auszug aus: Portfolio: Die Ratten von Gerhart Hauptmann Unterrichtsmaterialien in digitaler und in gedruckter Form Auszug aus: Portfolio: "Die Ratten" von Gerhart Hauptmann Das komplette Material finden Sie hier: Download bei School-Scout.de Titel: man zum

Mehr

GeoPilot (Android) die App

GeoPilot (Android) die App GeoPilot (Android) die App Mit der neuen Rademacher GeoPilot App machen Sie Ihr Android Smartphone zum Sensor und steuern beliebige Szenen über den HomePilot. Die App beinhaltet zwei Funktionen, zum einen

Mehr

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über

Güte von Tests. die Wahrscheinlichkeit für den Fehler 2. Art bei der Testentscheidung, nämlich. falsch ist. Darauf haben wir bereits im Kapitel über Güte von s Grundlegendes zum Konzept der Güte Ableitung der Gütefunktion des Gauss im Einstichprobenproblem Grafische Darstellung der Gütefunktionen des Gauss im Einstichprobenproblem Ableitung der Gütefunktion

Mehr

Data Mining-Projekte

Data Mining-Projekte Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein

Mehr

1. Einführung 2. 2. Erstellung einer Teillieferung 2. 3. Erstellung einer Teilrechnung 6

1. Einführung 2. 2. Erstellung einer Teillieferung 2. 3. Erstellung einer Teilrechnung 6 Inhalt 1. Einführung 2 2. Erstellung einer Teillieferung 2 3. Erstellung einer Teilrechnung 6 4. Erstellung einer Sammellieferung/ Mehrere Aufträge zu einem Lieferschein zusammenfassen 11 5. Besonderheiten

Mehr

Insiderwissen 2013. Hintergrund

Insiderwissen 2013. Hintergrund Insiderwissen 213 XING EVENTS mit der Eventmanagement-Software für Online Eventregistrierung &Ticketing amiando, hat es sich erneut zur Aufgabe gemacht zu analysieren, wie Eventveranstalter ihre Veranstaltungen

Mehr

Stammdaten Auftragserfassung Produktionsbearbeitung Bestellwesen Cloud Computing

Stammdaten Auftragserfassung Produktionsbearbeitung Bestellwesen Cloud Computing Stammdaten Auftragserfassung Produktionsbearbeitung Bestellwesen Cloud Computing Finanzbuchhaltung Wenn Sie Fragen haben, dann rufen Sie uns an, wir helfen Ihnen gerne weiter - mit Ihrem Wartungsvertrag

Mehr

Die 5 besten Internet-Ressourcen für Ihren Urlaub

Die 5 besten Internet-Ressourcen für Ihren Urlaub Die 5 besten Internet-Ressourcen für Ihren Urlaub Auch Sie möchten gerne einmal wieder in den Urlaub fahren? Eine entspannte Woche, oder sogar zwei in einem fernen Land verbringen? Sich dabei Wohlfühlen

Mehr

Checkliste. Prioritäten setzen mit dem Pareto-Prinzip

Checkliste. Prioritäten setzen mit dem Pareto-Prinzip Checkliste Prioritäten setzen mit dem Pareto-Prinzip Checkliste Prioritäten setzen mit dem Pareto-Prinzip Das Pareto-Prinzip ist eine Methode des Zeitmanagements. Diese Checkliste stellt Ihnen das Pareto-Prinzip

Mehr

DER SELBST-CHECK FÜR IHR PROJEKT

DER SELBST-CHECK FÜR IHR PROJEKT DER SELBST-CHECK FÜR IHR PROJEKT In 30 Fragen und 5 Tipps zum erfolgreichen Projekt! Beantworten Sie die wichtigsten Fragen rund um Ihr Projekt für Ihren Erfolg und für Ihre Unterstützer. IHR LEITFADEN

Mehr

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung

1 Einleitung. 1.1 Motivation und Zielsetzung der Untersuchung 1 Einleitung 1.1 Motivation und Zielsetzung der Untersuchung Obgleich Tourenplanungsprobleme zu den am häufigsten untersuchten Problemstellungen des Operations Research zählen, konzentriert sich der Großteil

Mehr

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland

OECD Programme for International Student Assessment PISA 2000. Lösungen der Beispielaufgaben aus dem Mathematiktest. Deutschland OECD Programme for International Student Assessment Deutschland PISA 2000 Lösungen der Beispielaufgaben aus dem Mathematiktest Beispielaufgaben PISA-Hauptstudie 2000 Seite 3 UNIT ÄPFEL Beispielaufgaben

Mehr

L10N-Manager 3. Netzwerktreffen der Hochschulübersetzer/i nnen Mannheim 10. Mai 2016

L10N-Manager 3. Netzwerktreffen der Hochschulübersetzer/i nnen Mannheim 10. Mai 2016 L10N-Manager 3. Netzwerktreffen der Hochschulübersetzer/i nnen Mannheim 10. Mai 2016 Referentin: Dr. Kelly Neudorfer Universität Hohenheim Was wir jetzt besprechen werden ist eine Frage, mit denen viele

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

1 Mathematische Grundlagen

1 Mathematische Grundlagen Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.

Mehr

Das Persönliche Budget in verständlicher Sprache

Das Persönliche Budget in verständlicher Sprache Das Persönliche Budget in verständlicher Sprache Das Persönliche Budget mehr Selbstbestimmung, mehr Selbstständigkeit, mehr Selbstbewusstsein! Dieser Text soll den behinderten Menschen in Westfalen-Lippe,

Mehr

Zeichen bei Zahlen entschlüsseln

Zeichen bei Zahlen entschlüsseln Zeichen bei Zahlen entschlüsseln In diesem Kapitel... Verwendung des Zahlenstrahls Absolut richtige Bestimmung von absoluten Werten Operationen bei Zahlen mit Vorzeichen: Addieren, Subtrahieren, Multiplizieren

Mehr

Umfrage Aktuell Neukundengewinnung und Lead Management in mittelständischen Unternehmen: Status quo, Chancen und Potentiale.

Umfrage Aktuell Neukundengewinnung und Lead Management in mittelständischen Unternehmen: Status quo, Chancen und Potentiale. Neukundengewinnung und Lead Management in mittelständischen Unternehmen: Status quo, Chancen und Potentiale. Seite 1 Ergebnisse Lead Management - aber bitte mit Strategie! Lead Management B2B Thema Nr.1

Mehr

Ziel: Abfrage von Vorwissen oder Überprüfung des vermittelten Wissens. Teilweise sind Mehrfachnennungen möglich.

Ziel: Abfrage von Vorwissen oder Überprüfung des vermittelten Wissens. Teilweise sind Mehrfachnennungen möglich. Modul 3 Wo bleibt mein Geld? Über den Umgang mit Finanzen Baustein: G10 Wissenstest Ziel: Abfrage von Vorwissen oder Überprüfung des vermittelten Wissens. Teilweise sind Mehrfachnennungen möglich. Kurzbeschreibung:

Mehr

3. GLIEDERUNG. Aufgabe:

3. GLIEDERUNG. Aufgabe: 3. GLIEDERUNG Aufgabe: In der Praxis ist es für einen Ausdruck, der nicht alle Detaildaten enthält, häufig notwendig, Zeilen oder Spalten einer Tabelle auszublenden. Auch eine übersichtlichere Darstellung

Mehr

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes.

4. Jeder Knoten hat höchstens zwei Kinder, ein linkes und ein rechtes. Binäre Bäume Definition: Ein binärer Baum T besteht aus einer Menge von Knoten, die durch eine Vater-Kind-Beziehung wie folgt strukturiert ist: 1. Es gibt genau einen hervorgehobenen Knoten r T, die Wurzel

Mehr

Umgang mit Schaubildern am Beispiel Deutschland surft

Umgang mit Schaubildern am Beispiel Deutschland surft -1- Umgang mit Schaubildern am Beispiel Deutschland surft Im Folgenden wird am Beispiel des Schaubildes Deutschland surft eine Lesestrategie vorgestellt. Die Checkliste zur Vorgehensweise kann im Unterricht

Mehr

Warum. Natural AnalyticsTM. wichtig ist

Warum. Natural AnalyticsTM. wichtig ist Warum Natural AnalyticsTM wichtig ist Wir sind alle geborene Analytiker. Die Menschheit entwickelte sich in einer Welt voll komplexer Informationen und wichtiger Entscheidungen. Wir erkennen Muster und

Mehr

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN

ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN ERGÄNZUNGEN ZUR ANALYSIS II MITTELWERTSATZ UND ANWENDUNGEN CHRISTIAN HARTFELDT. Zweiter Mittelwertsatz Der Mittelwertsatz Satz VI.3.4) lässt sich verallgemeinern zu Satz.. Seien f, g : [a, b] R auf [a,

Mehr

Anleitung zur Daten zur Datensicherung und Datenrücksicherung. Datensicherung

Anleitung zur Daten zur Datensicherung und Datenrücksicherung. Datensicherung Anleitung zur Daten zur Datensicherung und Datenrücksicherung Datensicherung Es gibt drei Möglichkeiten der Datensicherung. Zwei davon sind in Ges eingebaut, die dritte ist eine manuelle Möglichkeit. In

Mehr