Wolfgang Martin Team. Copyright. Disclaimer

Größe: px
Ab Seite anzeigen:

Download "Wolfgang Martin Team. Copyright. Disclaimer"

Transkript

1

2 Copyright Dieses Dokument wurde von S.A.R.L Martin / Dr. Wolfgang Martin verfasst. Alle Daten und Informationen wurden mit größter Sorgfalt recherchiert und zusammengestellt. Eine Garantie in Bezug auf Vollständigkeit und Richtigkeit wird ausgeschlossen. Alle Rechte am Inhalt dieses Dokuments, auch die der Übersetzung, liegen bei den Autoren. Daten und Informationen bleiben intellektuelles Eigentum der S.A.R.L. Martin im Sinne des Datenschutzes. Kein Teil des Werkes darf in irgendeiner Form (Druck, Photokopie, Mikrofilm oder einem anderen Verfahren) ohne schriftliche Genehmigung durch S.A.R.L Martin reproduziert oder unter Verwendung elektronischer Verfahren verarbeitet, vervielfältigt oder verbreitet werden. S.A.R.L Martin übernimmt keinerlei Haftung für eventuelle aus dem Gebrauch resultierende Schäden. Copyright S.A.R.L. Martin, Annecy, Disclaimer Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen etc. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. In diesem Werk gemachte Referenzen zu irgendeinem spezifischen kommerziellen Produkt, Prozess oder Dienst durch Markenname, Handelsmarke, Herstellerbezeichnung, etc. bedeutet in keiner Weise eine Empfehlung oder Bevorzugung durch die S.A.R.L Martin. BI trifft BPM / Wolfgang Martin März 2011 Seite 2

3 Vorwort Das vorliegende White Paper Performance Management und Analytik erscheint nun im siebten Jahr im August 2010 mit der Version 7.1. Im Januar 2004 habe ich dieses White Paper gemeinsam mit Richard Nußdorfer mit der Version 1.0 begonnen. Nach dem Tode von Richard Nußdorfer im Oktober 2008 habe ich unser Werk fortgesetzt. Die vorliegende Ausgabe beschreibt Business Architekturen und technische Architekturen von Performance Management und Analytik. Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander abzustimmen und konsistent zu halten. Es arbeitet als ein closedloop Modell, um die Leistung ( Performanz ) von Geschäftsprozessen auf operativer, taktischer und strategischer Ebene aktiv zu managen, i.e. zu planen, zu überwachen und zu steuern. Vom Standpunkt des Business ist diese Aufgabe auf allen Ebenen prinzipiell gleichartig, aber aus technischer Sicht treffen hier zwei unterschiedliche Technologien für CPM von verschiedenen Anbietern aufeinander: Traditionelle Business Intelligence trifft auf Business Process Management (BPM) und konvergiert im Modell einer service-orientierten Architektur (SOA). Nach einigen Jahren mit unterschiedlichen Bezeichnungen wie CPM (Corporate Performance Management), BPM (Business Performance Management) oder EPM (Enterprise Performance Management) habe ich mich ab der Version 6.0 entschlossen, nur noch von Performance Management zu sprechen, und nutze den Begriff gemäß der Definition oben als Dach für CPM, BPM und EPM. Ab der Version 6.1 wird konsequenterweise auch der Begriff Enterprise Information Management durch Information Management ersetzt. Traditionelle Business Intelligence Anbieter. Unter diesem Oberbegriff stehen Anbieter, die aus den traditionellen Bereichen Business Intelligence Werkzeuge und Data Warehouse kommen und die sich zu Performance Management-Anbietern entwickelt haben. Zuerst haben sich diese Anbieter mit taktischem und strategischem CPM beschäftigt, inzwischen bewegen sie sich hin zu operativem CPM (manchmal BAM genannt business activity monitoring). Im Zuge dieser Evolution findet man auch inzwischen mehr und mehr BI- Plattformen, Lösungen und Produkte, die SOA basiert sind und Web Services publizieren und kommunizieren. Traditionelle Business Integration und BPM-Anbieter. Anbieter von BPM und Integrations-Plattformen (vgl. Nußdorfer, Martin 2007) haben inzwischen operative CPM- Lösungen unter Begriffen wie Operational Intelligence, BAM, CEP (Complex Event Processing) und PPM (Process Performance Management) anzubieten. Die Herausforderung besteht darin, operative Metriken und auch Sensordaten, wie sie beispielsweise mittels RFID (radio frequency identification) erzeugt werden, in den klassischen Business-Kontext einzubauen. Auch hier ist eine Service-Orientierung die beste technische Voraussetzung. Best-of-Breed-Produkte. Neben den Generalisten der beiden verschiedenen Lager bieten Marktspezialisten Best-of-Breed-Werkzeuge und Technologien an. Diese Produkte sind BI trifft BPM / Wolfgang Martin März 2011 Seite 3

4 beispielsweise dann interessant, wenn BPM- und Business Integrations-Plattformen nicht über eigene Performance Management-Funktionalität verfügen, sondern ein offenes Process Warehouse haben, in dem alle Daten der Prozessinstanzen geloggt werden. Darüberhinaus haben sich andere Spezialisten auf Analytik (im Englischen auch advanced analytics bezeichnet) fokussiert. Solche Lösungen können dann sowohl mit den BPM- und Business Integrations-Plattformen kombiniert werden, sondern ergänzen auch die BI-Plattformen, die in vielen Fällen über solche weitgehende analytischen Funktionen nicht verfügen. Zielsetzung des White Papers. Unternehmen, die Performance Management- oder Analytik-Lösungen entwickeln wollen, werden sich entscheiden müssen, welche Basisplattform sie für diesen Schritt wählen werden und welche Best-of-Breed-Produkte zusätzlich benötigt werden. Dieses White Paper soll Sie bei der Entscheidungsfindung unterstützen. Der Verfasser ist seit 1984 im kommerziellen IT-Business in Managementfunktionen, als Analyst und strategischer Berater tätig. Davor war er von 1973 bis 1984 als Wissenschaftler tätig. Er verbindet so Wissenschaft und Praxis und hat sich mit strategischen Überlegungen und Zukunftsentwicklungen zuerst als Analyst bei der Meta Group seit 1996 auseinandergesetzt. Das vorliegende White Paper gliedert sich in zwei Teile. Der erste, allgemeine Teil beschäftigt sich damit, Konzepte, Vorteile und Nutzen von Performance Management und Analytik zu beschreiben und - damit verbunden - die Referenz-Architektur. Der zweite Teil beschäftigt sich mit im Markt gängigen Anbieter-Lösungen für Performance Management und Analytik. Um den Lesern eine praktische Übersicht über den aktuellen Markt zu geben, wurden zu ausgewählten Anbietern spezielle Beschreibungen aufgestellt. Derzeit verfügbar sind Kompendien zu 1 : arcplan, BOARD, Cubeware, epoq, IBM, Informatica, Kapow Software (in Vorbereitung), Lixto, PitneyBowes/MapInfo, Panoratio, SAP, Stibo Systems, Tibco/Spotfire Die Version dieses White Papers ist im Januar 2011 erschienen. Die hier vorliegende Version 7.1 ist eine überarbeitete und weiterentwickelte Version. In dieser Version 7.1 habe ich insbesondere das Kapitel 7 zur Analyse-Latenz komplett überarbeitet und um ein Kapitel 7.2 zu analytischen Datenbanken ergänzt. Wie immer wurde das Kapitel 9.2 (Anbieterverzeichnis) auf den neuesten Stand gebracht und jetzt in insgesamt 3 Kapitel untergliedert. In diesem Release 7.1 begrüßen wir Exasol als weiteren Sponsor. Über Anregungen, Kommentare, Kritik aber auch über Lob freute sich der Verfasser. Annecy, im März 2011 Dr. Wolfgang Martin, Wolfgang Martin Team 1 Kostenfreier Download auf in den Sektionen White Paper und Research Notes BI trifft BPM / Wolfgang Martin März 2011 Seite 4

5 Biographie des Verfassers: BI trifft BPM / Wolfgang Martin März 2011 Seite 5

6 Inhaltsverzeichnis 1 Zusammenfassung (Management Summary) Business Intelligence im Wandel Die Mängelliste traditioneller Business Intelligence Prozess-Orientierung ein neuer Kontext für BI Service-Orientierung das neue Paradigma Performance Management Strategien, Prozesse, Menschen, Metriken und Governance Prozess- und service-orientierte Business Intelligence Das Prozessträgermodell BI-Governance Performance Management Methoden und Technologien Die fachlichen Elemente von Performance Management Von Business Intelligence zu Performance Management und Analytik Performance Management und Analytik in einer SOA Renaissance von BI im Enterprise Analytik Basis für Performance Management Analytische Services Web-Analyse Trends im Data Mining Textanalytik Location Intelligence Die Bedeutung des Wo Information Management Die Aufgaben von Information Management Datenintegrationsplattform Informations-Services Meta- und Stammdaten-Management Datenqualität Vorsorge tut Not Information Governance Schlüssel zu erfolgreichem Information Management BI trifft BPM / Wolfgang Martin März 2011 Seite 6

7 7 Auf die Latenz kommt es an Business Activity Monitoring und Complex Event Processing Analytische Datenbanken Performance Management und traditionelle BI: fundamentale Unterschiede Der Performance Management/Analytik-Markt und seine Spieler Trends in Performance Management und Analytik Klassifikation der Anbieter von analytischen Datenbanken Klassifikation der Performance Management/Analytik-Anbieter Klassifikation der Anbieter von Information Management Grundsätze zur Performance Management/Analytik-Plattform- und Werkzeugauswahl Zusammenfassung Glossar und Liste der Abkürzungen Die Sponsoren BI trifft BPM / Wolfgang Martin März 2011 Seite 7

8 1 Zusammenfassung (Management Summary) Wenn Umsätze langsamer wachsen oder gar stagnieren und zurückgehen, wenn Budgets immer knapper werden und der Wettbewerbsdruck weiter zunimmt, steigen die Anforderungen an das Management signifikant. Das Aufspüren von Profit, rigorose Kosteneinsparungen, die Intensivierung von Kundenkontakten und effektvoller Einsatz der wenigen noch verfügbaren Mittel und Ressourcen sind absolute Chefsache. Geopolitische Unsicherheiten machen das Planen noch schwieriger, gleichzeitig noch wichtiger denn je. Dazu kommen immer neue Regulierungen wie im Finanzberichtswesen und der Bilanzkonsolidierung. Nur Unternehmen, die in der Lage sind, ihren Kurs jederzeit, flexibel und vor allem schnell zu ändern, sind in der Lage im heutigen New Normal zu überleben. Das New Normal ist das Zeitalter nach der Wirtschaftskrise in Denn nach dieser Krise ist und wird nichts mehr so sein wie vorher. "Strategy, as we knew it, is dead," sagt Walt Shill, Leiter des nordamerikanischen Management Consulting von Accenture. 2 Heute geht es in Unternehmen um Flexibilität im operativen Geschäft und um die Geschwindigkeit, mit der sich auftuende Gelegenheiten ergriffen und umgesetzt werden können. Wenn Strategien und Forecasts wöchentlich oder sogar täglich zu ändern und anzupassen sind, dann muss das eben so sein und funktionieren. Willkommen im New Normal! Mit anderen Worten: Traditionelle Unternehmenssteuerung stößt an ihre Grenzen, da jetzt die alten Prinzipien von operational excellence nicht mehr ausreichen. Operational excellence bewirkte eine Industrialisierung des Unternehmens. Industrialisierung bedeutet Automation und Standardisierung. So werden Geschäftsprozesse beschleunigt und optimiert, so erhöht man den Durchsatz und verbessert die Qualität. Das brauchen wir heute und morgen, aber wir brauchen im New Normal noch mehr. Eine Unternehmenssteuerung im New Normal erfordert zusätzlich Agilität, die man über die traditionellen Unternehmensziele Effektivität und Effizienz, die man durch Industrialisierung erreicht, hinaus braucht. Agilität bedeutet die Fähigkeit einer Organisation zum permanenten Wandel und die Anpassungsfähigkeit der eigenen Geschäftsmodelle und Prozesse an die Markt- und Kundendynamik. Auf das schnelle und richtige Agieren in Zeiten des Wandels und Unsicherheit kommt es an. Da auch der Lebenszyklus von Strategien und Prozessen immer kürzer wird, werden Änderungen in immer schnelleren Zyklen notwendig. Unternehmenssteuerung heute und morgen muss agil sein, um als Unternehmen nicht nur zu überleben, sondern auch zu prosperieren. Unternehmenssteuerung beruht daher nicht nur auf den traditionellen Instrumenten der Unternehmensführung (Planung, Durchführung, Kontrolle und Steuerung), sondern umfasst drei weitere Komponenten: Governance, Risiko-Management und Compliance. Governance bezeichnet die verantwortungsvolle, nachhaltige und auf langfristige Wertschöpfung ausgerichtete 2 Siehe Wall Street Journal (25. Jan.2010) BI trifft BPM / Wolfgang Martin März 2011 Seite 8

9 Organisation und Steuerung von Aktivitäten und Ressourcen im Unternehmen. Risiko- Management bezeichnet alle Aktivitäten der Risikoerkennung, Risikoverminderung und Risikovermeidung. Compliance bedeutet die Erfüllung der von der Unternehmensleitung gemachten Vorgaben ( Policies ) sowie der rechtlichen und regulativen Vorgaben. Weitere und strengere Regulationen sind in Zeiten der aktuellen Krise zu erwarten. Unternehmenssteuerung heute muss diesen Anforderungen gerecht werden. Agilität, Industrialisierung und Compliance sind heute im new normal -Zeitalter für ein Unternehmen entscheidend, ob man zu den Gewinnern oder Verlierern auf dem globalen Markt zählt. Ein weiterer großer Vorteil von Industrialisierung, Agilität und Compliance ist die Fähigkeit, innovative Ideen zügig umsetzen zu können. Neue Produkte und neue Tarife lassen sich in kürzester Zeit in den Markt bringen. Traditionelle Prozesse wie das Mahnwesen können kundenorientiert werden und verloren geglaubte Umsätze wieder aktivieren. Im Cross-/Up-Selling lässt sich durch den Einsatz des Wissens über den Kunden neues Umsatzpotenzial erschließen. Frühzeitiges Erkennen von Risiken und Problemen vermeidet Ausschuss und Retouren. So wird die Wettbewerbskraft entscheidend gesteigert: Man verblüfft den Mitbewerb und begeistert seine Kunden. Der Weg heute zu Industrialisierung, Agilität und Compliance besteht aus einem umfassenden Ansatz zum Geschäftsprozess-Management. Im Zuge einer solchen Prozess-Orientierung wird aber eins meist übersehen, das Prinzip Kein Prozess ohne Daten. Parallel zu einem Prozess- Management muss im Rahmen von Prozess-Orientierung daher ein Information Management aufgebaut werden. In den vergangenen Jahren haben Unternehmen Information Management nur im Kontext von Business Intelligence (BI) gesehen. In umfangreichen Business-Intelligence-Projekten und Initiativen wurde daran gearbeitet, Information verfügbar zu machen, um eine auf Fakten gestützte Unternehmenssteuerung zu unterstützen. Die Erfahrungen haben aber vielfach gezeigt, dass Information zwar oft vorhanden sind, aber nicht in den Kontext der Geschäftsprozesse gebracht wurden und daher nur von beschränktem Nutzen für die Unternehmenssteuerung waren. Um den Nutzen von BI zu erhöhen und um hier einen Durchbruch zu erzielen, muss ein neuer Weg beschritten werden: Information muss in den Kontext von Geschäftsprozessen gestellt werden. Das ist die Grundidee von Performance Management. Dazu braucht man aber ein über das traditionelle BI hinausgehendes Information Management. In einem prozess-orientierten Unternehmen gehören Prozess-Management, Performance Management und Information Management zusammen. Business Process Management (BPM) dient dem Managen des Lebenszyklus von Geschäftsprozessen: Von Analyse und Design über Ablauf und Ausführung bis zum Planen, Überwachen und Steuern der Prozesse. Performance Management ist definiert als ein Geschäftsmodell, das einem Unternehmen ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander abzustimmen und konsistent zu halten. Das Planen, Überwachen und Steuern von Prozessen ist Aufgabe von Performance Management innerhalb von BPM. BI trifft BPM / Wolfgang Martin März 2011 Seite 9

10 Die Zielsetzung von Information Management ist es, vertrauenswürdige Daten zu schaffen. Die Aufgaben von Information Management sind die Definition der Daten (die Unternehmens- Terminologie), die Modellierung der Daten (die Unternehmens-Semantik), das Meta- und Stammdaten-Management (Transparenz und Nachvollziehbarkeit), das Datenqualitäts- Management (Relevanz und Korrektheit), die Datenintegration und die Datensicherheit und - Schutz. Performance Management ist unter den herrschenden Bedingungen der nächste strategische Schritt in Richtung agiler Unternehmenssteuerung, wenn ich mein Unternehmen fit machen will, um die Herausforderungen des globalen Marktes und des Gesetzgebers zu meistern. Der Leitspruch lautet Man kann nur managen, was man auch messen kann. Mit anderen Worten: Prozesse stellen die Wettbewerbskraft des Unternehmens dar. Gewinnen oder Verlieren im Markt hängt von der Qualität, Flexibilität und Compliance der Geschäftsprozesse ab. Prozesse sind der neue Fokus des Managements (vgl. Nußdorfer, Martin, 2007). Es geht um das Industrialisieren von Prozessen, um die Agilität und um die Compliance, damit man Marktsieger ist und bleibt. Das aber ist nur dann erfolgreich, wenn man Prozess-Management um Performance und Information Management ergänzt. Dabei kommt es auch auf die geeignete IT-Unterstützung mit der richtigen Infrastruktur an. Eine service-orientierte Architektur (SOA) als Infrastruktur für BPM, Performance und Information Management ist erforderlich, um den Lebenszyklus von Geschäftsprozessen in einem Kreislaufmodell zu managen. BPM, Performance Management und Information Management auf einer SOA ermöglichen automatisierte, standardisierte, zuverlässige, revisionssichere und anpassungsfähige Prozesse mit Compliance über Geschäftsfunktionen, Abteilungen und sogar Unternehmen hinweg. So spart man Kosten, begeistert Kunden und Mitarbeiter und erhöht den Umsatz. Dank einer SOA werden Prozesse von den zugrunde liegenden IT-Systemen und - Anwendungen unabhängig: Ein Unternehmen kann Prozesse im Einklang mit der Marktdynamik und den Bedürfnissen der Kunden ändern und segelt so immer am Wind. SOA bedeutet deshalb im Endeffekt Software for Change. Außerdem macht eine SOA "intelligente" Prozesse möglich: Analytik kann in Prozesse eingebettet werden. Analytik bezeichnet sowohl den Prozess zur Gewinnung von Information und der Ableitung eines Modells zur Nutzung von Information (beispielsweise prädiktive Modelle aus einem Data Mining Prozess) als auch die Einbettung und Nutzung dieses Modells in Geschäftsprozessen. Die Idee ist, intelligente Prozesse zu schaffen. Analytik ist der Schlüssel für die Planung, Überwachung und Steuerung sowohl der Prozesse als auch ihrer Leistung ( Performance ). Die Aufgabe lautet: Probleme sollen rechtzeitig erkannt werden, um dem Problem gegensteuernde Maßnahmen rechtzeitig einzuleiten. Das schafft Frühwarnsysteme ohne die ein Risiko-Management nicht machbar ist. Ein Beispiel aus dem täglichen Leben erläutert, wie prädiktive Modelle arbeiten: In einem Kaufhaus werden die Verkaufsflächen rechtzeitig disponiert, geliefert und nachgefüllt, bevor BI trifft BPM / Wolfgang Martin März 2011 Seite 10

11 Produkte vergriffen sind. So wird das Problem vermieden, dass ein Kunde mit Kaufabsicht ein leeres Regal vorfindet und das Produkt nicht kaufen kann. Performance Management und Analytik unterscheiden sich deutlich vom traditionellen Business Intelligence Ansatz. Der wesentliche Unterschied besteht darin, dass jetzt im Zuge von Performance Management und Analytik Entscheidungen in den Kontext von Prozessen gestellt werden und so auch operativ umgesetzt werden können. Mit traditionellen Business Intelligence Werkzeugen (etwa Berichtswesen, Adhoc-Abfragen, OLAP (online analytical processing), Data Mining etc.) war es immer schwierig, die richtige Information zum richtigen Zeitpunkt am richtigen Ort für den aktuellen Zweck zu haben. Diese traditionellen Werkzeuge gaben nicht das her, was man wollte: Ergebnisse, die man direkt auf Geschäftsprozesse und Strategien anwenden und umsetzen konnte. Der Return on Investment (ROI) solcher Werkzeuge war in der Regel sehr niedrig, wenn er überhaupt messbar war. Traditionelle Business Intelligence Werkzeuge waren meist schwer zu handhaben. Nur eine Handvoll Experten war in der Lage, aus den traditionellen Werkzeugen die richtige Information herauszuziehen. Management-Entscheidungen und Maßnahmen wurden eher auf Grund von Vermutungen getroffen, weniger auf Grund von Fakten. Die Einbettung von Analytik in die Prozesse mit Hilfe einer SOA beseitigt diese Probleme: Ein Mashing Up 3 von analytischen Services mit operativen und kollaborativen Services wird ohne weitere Integrationsaufwände und total flexibel möglich. Das schafft innovative Geschäftsprozesse in einer neuen Qualität, die über traditionelle Workflow-Modelle deutlich hinausgeht. Performance Management ist ein wichtiger Schritt aufbauend auf Business Intelligence in Richtung des optimalen Planen, Überwachen und Steuern von Geschäftsprozessen auf der Ebene von Operationen, Taktiken und Strategien. Performance Management basiert auf dem Prinzip der Zuordnung von Metriken ( Kennzahlen ) zu Prozessen. Performance Management beginnt schon mit der Modellierung und dem Design operativer Prozesse. Metriken müssen gleichzeitig und parallel mit den operativen Prozessen abgeleitet und entwickelt werden. Ziele müssen messbar gemacht werden. Zielerreichung muss kontinuierlich kontrolliert werden, und es müssen Maßnahmen getroffen werden, um die Leistung der Prozesse ständig und auch in Echtzeit zu kontrollieren. Das schafft Performance Management, weil es ein Kreislaufmodell ( closed-loop ) und Teil von BPM ist. 3 Mashup (engl. für Vermanschung) bezeichnet die Erstellung neuer Inhalte durch die nahtlose (Re-)Kombination bereits bestehender Inhalte. BI trifft BPM / Wolfgang Martin März 2011 Seite 11

12 Performance und Information Management bietet Unternehmen klare Vorteile: Es handelt sich um eine Methodologie, die Geschäftsstrategie über die Geschäftsprozesse mit den Geschäftsergebnissen verknüpft. Es schafft intelligente Prozesse, in dem Analytik in die Prozesse eingebettet wird. Es transformiert Daten in praxisorientierte und in Aktionen umsetzbare Information. Es verteilt die richtige Information an die richtigen Mitarbeiter, nicht nur an fortgeschrittene Anwender und Business Analysten, sondern an jeden innerhalb und außerhalb des Unternehmens, der die Information braucht. Es bietet einen hohen Grad an Genauigkeit und Konsistenz der Information. Es beliefert das Management mit genau der richtigen Information und verbessert so die Ergebnisse. Es liefert die richtige Information an den richtigen Informationsverbraucher an der richtigen Stelle zu genau der richtigen Zeit (Das ist das Echtzeit -Prinzip). Es schafft vertrauenswürdige Daten. Es ist eine Voraussetzung zum Meistern von Governance, Risk und Compliance Herausforderungen. BI trifft BPM / Wolfgang Martin März 2011 Seite 12

13 2 Business Intelligence im Wandel Was genau ist eigentlich Business Intelligence (BI)? Schon 1993 wurde der Begriff BI von der Gartner Group benutzt und verbreitet. Aber selbst heute versteht nicht jeder unter BI dasselbe: Sogar innerhalb der Unternehmen gibt es unterschiedliche Vorstellungen, was BI ist und welchen Nutzen es bringt. Da ist folgende weitgehend anerkannte Definition hilfreich zum Verständnis: Als Business Intelligence bezeichnet man die Fähigkeit, Bereitschaft und Fertigkeit, das Geschäft zu kennen und zu verstehen oder detaillierter ausgedrückt: Unter Business Intelligence verstehen wir alle Strategien, Prozesse und Technologien, bei denen aus Daten Information und aus Information erfolgskritisches Wissen gewonnen wird, so dass Entscheidungen auf Basis von Fakten getroffen werden, die Aktionen zur Unternehmens- und Prozesssteuerung auslösen. Der Anspruch des Konzeptes Business Intelligence ist also, Entscheidungen auf Fakten zu stellen und bessere Entscheidungen zu treffen. BI soll Antworten geben auf Fragen wie: Wissen Sie, welche Ihrer Lieferanten zur Erreichung Ihrer Produktionsziele absolut notwendig sind? Wird deren Lieferunfähigkeit Ihre Produktion stunden- oder gar tagelang zum Stillstand bringen? Wissen Sie, welchen Anteil Ihr Unternehmen an den Geschäftseinnahmen Ihrer Lieferanten hat? Nutzen Sie diese Information, um von den Lieferanten günstige Konditionen zu erhalten? Wissen Sie, mit welchen Kunden Sie den größten Gewinn machen? Bieten Sie diesen Kunden einen überragenden Service, um sie zu binden? Sind Sie in der Lage, Ihren Kunden zum geeigneten Zeitpunkt höherwertige bzw. andere Produkte zu verkaufen (Upselling/Cross- Selling)? Wissen Sie bereits im ersten Quartal, dass Sie Ihr Vertriebsziel im vierten Quartal nicht erreichen werden, weil sie nicht genügend Interessenten (Leads) haben? Wissen Sie, wie viele Einnahmen Ihnen tatsächlich verloren gehen, weil Ihre Kunden in Stoßzeiten telefonisch nicht zu Ihrem Call-Center durchkommen? Wissen Sie, wie viele Geschäfte Ihnen entgehen, weil Sie Cross-Selling-Möglichkeiten im Direktverkauf, im Handel oder über Internetshops nicht voll ausnutzen? Wissen Sie, wie viel Geld das für Ihr Unternehmen bedeutet? Wissen Sie, wie Sie dieses Geld finden, bekommen und dauerhaft behalten können? BI betreiben wir seit rund 20/25 Jahren. Haben wir in dieser Zeit die Antworten gefunden? Das Problem ist, wie man all diese guten Dinge sowohl im Tagesgeschäft als auch auf strategischer Ebene nutzen, umsetzen und leben kann. Wo stehen wir da heute? Was ist noch zu tun? Wo geht es hin? BI trifft BPM / Wolfgang Martin März 2011 Seite 13

14 2.1 Die Mängelliste traditioneller Business Intelligence Traditionelle Business Intelligence diente der Entscheidungsunterstützung im Rahmen strategischer Planung und taktischer Analyse. Die Zielsetzung traditioneller Business Intelligence war schon richtig: Entscheidungen auf Fakten zu stellen. Leider hat das in vielen Fällen nicht den erwarteten Mehrwert und die gewünschte Akzeptanz gebracht. Berichte, Kennzahlen, analytische Applikationen etc., was hat es genutzt? Das Problem ist, wie man all diese guten Dinge im Unternehmen nutzen und umsetzen kann, denn Information erzeugt nur dann Wert, wenn man sie nutzt und einsetzt. Was war falsch an traditioneller Business Intelligence? Business Intelligence war bottom-up und nicht prozessorientiert. Das führte zu einem ungenügenden Einbeziehen der Fachabteilungen. Die wirklichen geschäftlichen prozessorientierten Anforderungen wurden nicht adressiert. Damit hat traditionelle Business Intelligence den Mangel an geschäftlich orientierter Relevanz. Business Intelligence war ausschließlich ein Informationsbereitstellungsmodell zur Entscheidungsunterstützung (Bill Inmons Informationsfabrik ; Inmon, 1996). Damit waren Daten und die analytischen Prozesse zur Erzeugung von Information untrennbar miteinander verbunden. Die Konsequenz ist: Inflexibilität und Komplexität. So wird jede Innovation an der Quelle erstickt. Die Akzeptanz sinkt drastisch. Business Intelligence konnte Entscheidungen zwar unterstützen, es fehlte aber die Rückkopplungskomponente, das Treffen von Maßnahmen. Kennzahlen, die nicht im Kontext von Prozessen stehen, bringen kaum Wert, da sie nicht zu Maßnahmen zur Prozesssteuerung umsetzbar sind. Beispiel: Ist auf der strategischen Ebene eine Kennzahl im roten Bereich, dann müssen in der Regel immer noch vom Menschen Entscheidungen getroffen werden, die taktische und operative Maßnahmen bedeuten. So wird Information genutzt, basierend auf Fakten entschieden und ein deutlich höherer Mehrwert erzeugt als im traditionellen Business Intelligence Modell ohne Rückkopplungskomponente. Operative Aspekte von Business Intelligence wurden nicht mit einem kohärenten Ansatz abgedeckt. Traditionelle Business Intelligence forderte ein Data Warehouse als die einzige Quelle von zuverlässiger, qualitativ hochstehender Information. Damit konnte Business Intelligence nicht im operativen Umfeld eingesetzt werden und wirkte nur im isolierten Raum taktischer und strategischer Analysen. Die potentielle Wertschöpfung durch Echtzeitanalysen wurde außen vorgelassen. Business Intelligence war retrospektiv. Der Fokus lag auf Analyse und Diagnose. Das Potential prädiktiver Modelle zum rechtzeitigen Erkennen und Vermeiden von Problemen und Risiken wurde nicht genutzt. Beispiel. In einem mittelständischen Fertigungsunternehmen wird die Qualität der Produktion nach Abschluss einer Schicht analysiert. So werden die möglichen Schwachstellen einer Produktion schnellstens identifiziert, so dass Maßnahmen ergriffen BI trifft BPM / Wolfgang Martin März 2011 Seite 14

15 werden können, die sicherstellen, dass diese Fehlerquellen für die folgende Schicht eliminiert werden. Pro-aktive BI erzeugt einen deutlichen Mehrwert, den es auszuschöpfen gilt. Business Intelligence Werkzeuge haben vielfach den Informationsverbraucher nicht ausreichend mit Information versorgt. Daher hatte man entweder das Problem, dass Information nicht zugänglich war (oder gar versteckt und zurückgehalten wurde), oder man hatte das Problem einer Datenflut ( information for the masses ). Das führt wieder zu einem drastischen Sinken der Akzeptanz. Business Intelligence war ein werkzeugbezogener Ansatz, der auf proprietären Technologien basierte. Jede analytische Komponente spielte seine eigene Rolle in einem isolierten Umfeld. Das hat Inkompatibilität und Inkonsistenz geschaffen und zu isolierten Informationssilos geführt. Auf der Vorstandsebene passten dann die Zahlen nicht zusammen. Business Intelligence muss neu erfunden werden. Denn die alte Idee, Entscheidungen auf Fakten zu stellen, ist ja nicht falsch. Was ist zu tun? 2.2 Prozess-Orientierung ein neuer Kontext für BI Business Intelligence muss in den Kontext von Prozessen gestellt werden, damit Geschäftsrelevanz gegeben ist. Warum sind Prozesse so wichtig? Was erreichen wir hiermit? Blicken wir dazu zurück in die 90er Jahre. Die große Hoffnung war damals, das Unternehmen als Ganzes durch ein ERP-System ITmäßig zu unterstützen. Die Unternehmen wurden applikations-orientiert. Alle unternehmensrelevanten Daten sollten in einer Datenbank abgebildet werden und alle Geschäftsfunktionen sollten mittels der Standardfunktionalität eines ERP-Systems abgebildet werden. Dieser Traum ist vorbei. Was haben wir gelernt? Ein ERP für alles funktioniert nicht. Die Mehrheit der Unternehmen hat mehrere heterogene ERP-Systeme und weitere Legacy- und andere Systeme im Einsatz. Die durchschnittliche (Median) Anzahl von im Einsatz befindlichen operativen Systemen in einem größeren Unternehmen ist 50. In globalen Konzernen kommt man schnell auf Zahlen von mehreren Hundert. Die Leistungskraft der IT wird in Frage gestellt. Die hohe Zahl von Schnittstellen, um Punktzu-Punkt Applikationen mit anderen Applikationen zu verbinden, treibt die Kosten für Implementierungen neuer Systeme. Das Budget zur Wartung aller dieser Schnittstellen blockiert jede Innovation durch IT. IT wurde zur Altlast. Die IT-Abteilung manchmal sogar zum Bremser. Der erreichte Grad von Prozessautomation ist bescheiden bis nicht existierend. Daten müssen meist händisch von einem System ins nächste übertragen werden. Die Prozessqualität bleibt niedrig, die Fehlerrate aber steigt. Die Kosten bekommt man so nicht in den Griff. BI trifft BPM / Wolfgang Martin März 2011 Seite 15

16 Der erreichte Grad von Prozessintegration ist bescheiden bis nicht existierend. Prozesse enden an den Grenzen der Applikationen. Kollaboration mit den Lieferanten, Partnern und Kunden ist kaum machbar. Das macht die Unternehmen langsam und senkt die Reaktionsfähigkeit. Wieder steigen die Kosten. Strategieänderungen und Anpassen der Geschäftsprozesse an Marktgeschwindigkeit und Dynamik sind nicht möglich. Prozesse sind in den Applikationen einzementiert und applikationsabhängig. Einen Prozess zu ändern heißt die Applikation zu ändern und alle Applikationen, mit denen einen Punkt-zu-Punkt-Verbindung besteht. Die Applikation bestimmt den Takt des Unternehmens, nicht die Strategie. Applikations-orientierte Unternehmen sind starr und unflexibel. Marktsieger findet man hier nicht, Marktsieger sind agil. Stammdaten sind redundant über die Applikationen verstreut. Konsistenz bleibt ein Traum. Jede Applikation hat ihre eigene Terminologie. Produkt- oder Auftragsnummern in einer Applikation stimmen mit denen in anderen Applikationen nicht überein. Die Kollaboration mit Lieferanten und Kunden wird zum Kostentreiber: Jedesmal, wenn ein neuer Lieferant, ein neuer Kunde, ein neues Produkt dazu kommt, muss eine neue Übersetzungstabelle erstellt werden und/oder der neue Begriff in allen Übersetzungstabellen hinzugefügt werden. Das macht Änderungen langsam, fehleranfällig und teuer. Information Management ist nicht machbar. Rechtzeitige Verfügbarkeit und Zugang zu Information bleibt ein Luxus und ist nicht bezahlbar. Das Unbehagen über den Zustand der IT ist groß, Outsourcing packt das Übel nicht an der Wurzel. Eine Auslagerung in individuelle Tabellenkalkulation à la Excel ist keine Lösung, denn so steigt nur die Inkonsistenz der Daten und von Information. Insbesondere ist man dann weder revisions- noch betriebssicher. Das führt uns zu der Kernfrage: Wie lässt sich ein traditionelles applikations-orientiertes Unternehmen in ein innovatives Prozess-Orientiertes transformieren? Die Antwort heißt Business Process Management (BPM). BPM ist ein Kreislaufmodell, das aus drei Phasen besteht (Abb. 1): Phase 1: Analysieren, planen, modellieren, testen und simulieren von Geschäftsprozessen. Phase 2: Ausführen von Geschäftsprozessen durch applikationsübergreifende Arbeitsabläufe ( process flow ) mittels einer Prozessmaschine auf einer service-orientierten Architektur (SOA) als Infrastruktur Phase 3: Planen, Überwachen und Steuern der Prozesse, ihrer Performanz und des Zusammenspiels aller Geschäftsprozesse BPM heißt also Synchronisieren der Prozesse mit kontinuierlichem und umfassendem Planen, Überwachen und Steuern. Diese Synchronisierung hält Geschäftsprozesse kontinuierlich à jour mit Ereignissen und intelligentem Planen und Vorhersagen. BI trifft BPM / Wolfgang Martin März 2011 Seite 16

17 Das prozessorientierte Unternehmen Ausführen Applikationsübergreifende Prozessund Regel-Maschine kollaborativer Geschäfts-Prozess Business Process Management kollaborativer Geschäfts-Prozess 1 Modellieren Infrastruktur: SOA Analyse, Design, Test, Simulation Performance Management Planen Überwachen & Steuern Metriken, Business- Analytik 2010 S.A.R.L. Martin Abbildung 1: Business Process Management (BPM) ist ein Rückkopplungs-Modell ( closed-loop ). Das Managen der Geschäftsprozesse steht im Zentrum des unternehmerischen Handelns. Die Prozesse werden unabhängig von der implementierten Applikationslandschaft modelliert, ausgeführt, geplant, überwacht und gesteuert. Die Infrastruktur dazu ist eine service-orientierte Architektur (SOA). Performance Management ist ebenfalls ein Rückkopplungs-Modell, das innerhalb von BPM das Planen, Überwachen und Steuern der Prozesse und ihrer Performanz übernimmt. Diese Prozess-Orientierung ist eine Basis- Eigenschaft eines intelligenten und agilen Echtzeit-Unternehmens. Geschäftsprozesse werden zur neuen Kommunikationsplattform für Fachabteilungen und IT. Eine echte und dauerhafte Kooperation und Kollaboration zwischen Business und IT bahnt sich an. Business Process Management schafft (Abb. 2): Prozesse, die zu einer gemeinsamen Kommunikationsplattform zwischen Business und IT werden. Die Spezifikation von fachlichen Anforderungen basiert jetzt auf einer gemeinsamen Sprache, die von beiden Parteien, den Fachabteilungen und der IT gesprochen und verstanden wird. Das technische Design von ausführbaren Prozessen und Backend- Services, die die Geschäftslogik bereitstellen, lässt sich ohne Bruchstellen und konsequent ableiten, wenn ein gemeinsam erstelltes fachliches Design vorliegt. Prozesse, die unabhängig von den Applikationen ablaufen. Kollaboration erfordert durchgängige, integrierte und synchronisierte Prozesse, die quer über existierende Applikationen und Systeme auf einer Integrationsdrehscheibe ablaufen. Die Integrationsdrehscheibe besteht aus einem Enterprise Service Bus (ESB) und einer Datenintegrationsplattform (DI). Dabei ist es wesentlich zu verstehen, dass der Charakter solcher Prozesse funktions-, abteilungs- und unternehmensübergreifend ist. Prozesse, die von den Vorteilen der Service-Orientierung profitieren. Eine SOA ist fachlich getrieben. Die Granularität des Prozessmodells bestimmt die Granularität der BI trifft BPM / Wolfgang Martin März 2011 Seite 17

18 fachlichen Services in einer SOA. Eine SOA bildet darüber hinaus technische Services von existierenden Backend-Applikationen auf die fachlichen Services ab. Das bedeutet einen 100% Investitionsschutz in die existierende IT Architektur. Mit Service-Orientierung gehen wir den nächsten Schritt und bauen auf den existierenden IT Investitionen auf. Prozesse, die quer über alle zu Grunde liegenden Applikationsdatenmodelle zugreifen können. Eine Voraussetzung für automatisierte, ereignis-getriebene und durchgängige Prozesse ist, dass alle prozessrelevanten Daten aus allen Schnittstellen und betroffenen Systemen nicht nur integriert und synchronisiert werden, sondern auch in ein gemeinsames applikationsübergreifendes Datenmodell aggregiert werden. Solch ein gemeinsames Business- Vokabular steht im Mittelpunkt des Stammdaten-Managements: Eindeutig definierte und zentral gemanagte Metadaten geben eine gemeinsame konsistente Sicht der gesamten Business-Terminologie für alle Geschäftsparteien. Das ist wesentlich, wenn neue Produkte, neue Kunden oder neue Lieferanten ins Netzwerk der Kollaboration aufgenommen werden. Eine einzige Änderung in den Stammdaten wird sicher und zuverlässig an alle Systeme und Geschäftsparteien weitergeleitet. Das intelligente Unternehmen Management-Fokus Industrialisierung von Prozessen (operational excellence) Flexibilität von Prozessen (agility) Regeltreue von Prozessen (compliance) Lieferanten Unternehmen Kunden Governance, Risiko-Management Eingebettete BI Kollaborativer Prozeß Abteilung Steuerung/Überwachung Prozess-Management trifft Performance Management und Analytik S.A.R.L. Martin Abbildung 2: Ein intelligentes Unternehmen setzt nicht nur auf operational excellence, sondern auch auf die Flexibilität des Geschäftsmodells ( agility ) und auf Regeltreue ( compliance ). Eine Voraussetzung dazu ist die Prozess-Orientierung: Business Process Management trifft Business Intelligence. Das schafft drei unterschiedliche Anwendungsbereiche für Business Intelligence: 1) Performance Management zur Prozess- Planung, -Überwachung und -Steuerung, 2) Analytik im Sinne von Einbettung von BI in die Prozesse, 3) Governance und Risiko-Management. Hier wirkt BI unterstützend im Sinne von rechtzeitiger Bereitstellung von Information mittels Frühwarnsystemen. BI trifft BPM / Wolfgang Martin März 2011 Seite 18

19 Prozesse, die Services konsumieren und publizieren. Das Umdenken hier führt von applikations-orientierten zu service-orientierten Architekturen (SOA Abb. 3). Prozesse werden jetzt von Regel- und Prozessmaschinen ausgeführt, die operative, analytische, kollaborative und Informations-Services orchestrieren. Schließlich kann dann ein Geschäftsprozess selbst wieder ein Service oder eine Gruppe von Services sein. Hier lässt sich auch eine gewisse Wiederverwendbarkeit erreichen, in dem Funktionalität und Daten nicht redundant implementiert werden. Redundanz ist ein typisches Problem des applikationsorientierten Modells. Service-Orientierung hilft, dieses Problem zu vermeiden. Prozesse, die Unternehmen in intelligente Echtzeit-Unternehmen transformieren. Intelligenz kommt aus Geschäftsmetriken, die dazu dienen, Prozesse und ihre Leistung (Performance) zu steuern und zu kontrollieren. Geschäftsmetriken werden aus den Unternehmens- und Prozess-Zielen abgeleitet. So lassen sich Prozesse auf Basis von gemessener Zielerreichung proaktiv mittels Kennzahlen ( Metriken ), Key Performance Metriken (KPM) 4, Regeln und prädiktiven Modellen überwachen und steuern. Beispiel: Angenommen, ein Geschäftsziel ist Liefertreue. Dann muss Liefertreue messbar gemacht werden. Beispielsweise könnte man festsetzen, dass 90 Prozent aller Lieferungen innerhalb von zwei Tagen erfolgen sollen. Das ergibt eine strategische Geschäftsmetrik für diesen Prozess. Eine operative Geschäftsmetrik für diesen Prozess könnte der Lagerbestand gemessen an einem festgelegten Mindestbestand in einem Warenlager sein. Falls der Lagerbestand unter die Mindestmenge fällt, wird die Nachbestellung automatisch ausgelöst: Das Auskommen der Metrik Lagerbestand löst also eine Entscheidung aus, die eine Maßnahme in Gang setzt. Diese Metrik arbeitet proaktiv, da durch die Maßnahme das Problem ausverkauft verhindert wird. Das Beispiel zeigt, dass Metriken nicht nur diagnostische Aufgaben haben wie früher, sondern insbesondere auch vorausschauenden Charakter haben. Mittels Metriken erhalten Prozesse die Fähigkeit, proaktiv und korrektiv zu agieren: Probleme und Risiken werden rechtzeitig erkannt und behandelt bevor Schäden auftreten. Mit anderen Worten: Wir haben Business Intelligence neu erfunden. Wir haben Business Intelligence in den Kontext der Geschäftsprozesse gestellt. Daraus ergeben sich drei Bereiche, in denen Business Intelligence eingesetzt wird (vgl. Abb. 2): 1. Performance Management Definition: Performance Management ist ein Geschäftsmodell, das einem Unternehmen ermöglicht, Unternehmensziele und Geschäftsprozesse kontinuierlich aufeinander abzustimmen und konsistent zu halten. Performance Management bedeutet, Prozesse zu planen, zu überwachen und zu steuern sowie Prozessinhalte als Basis für Auswertungen und Prognosen zu benutzen. 4 Mitunter werden Metriken auch als Indikatoren bezeichnet, entsprechend dann auch KPMs als KPIs. Wir bevorzugen die Begriffe Metrik und KPM, da so der klare Bezug zum Messen ausgedrückt wird. BI trifft BPM / Wolfgang Martin März 2011 Seite 19

20 2. Analytik. Analytik bezeichnet sowohl den Prozess zur Gewinnung von Information und der Ableitung eines Modells zur Nutzung von Information (beispielsweise prädiktive Modelle aus einem Data Mining Prozess) als auch die Einbettung und Nutzung dieses Modells in Geschäftsprozessen. 3. Governance, Risiko-Management und Compliance (GRC). Governance 5 bezeichnet die verantwortungsvolle, nachhaltige und auf langfristige Wertschöpfung ausgerichtete Organisation und Steuerung von Aktivitäten und Ressourcen im Unternehmen. Risiko- Management bezeichnet alle Aktivitäten der Risikoerkennung, Risikoverminderung und Risikovermeidung. Compliance bedeutet die Erfüllung der von der Unternehmensleitung gemachten Vorgaben ( Policies ) sowie der rechtlichen und regulativen Vorgaben. Hier spielt Business Intelligence im Wesentlichen die Rolle einer rechtzeitigen Informationsbereitstellung zur Entscheidungsfindung. Das wird im Risiko-Management besonders deutlich. Hier sind Frühwarnsysteme, also das rechtzeitige Erkennen von Risiken zwecks Risikovermeidung oder Risikominderung, gute Beispiele für einen erfolgreichen Einsatz von BI. 2.3 Service-Orientierung das neue Paradigma Jetzt bleibt noch die Infrastruktur für BPM und Performance Management zu definieren, so dass wir Analytik in die Prozesse einbetten können. Das machen wir, wie schon in Abbildung 1 gezeigt, mit einer SOA (Abb. 3). Agilität und Industrialisierung sind aus der Sicht der Implementierung von Prozessen mittels IT eigentlich zwei sich widersprechende Anforderungen, jedoch wenn Prozesse im Kontext einer service-orientierten Architektur (SOA) gemanagt werden, dann bringt man beide Zielsetzungen zusammen. Denn eine SOA ist eine spezielle Architektur, die darauf abzielt, Software for Change zu ermöglichen. Das ist die Zielsetzung von Service-Orientierung. Das Prinzip einer Service-Orientierung ist recht einsichtig und vor allem nicht technisch oder technologisch. Es beschreibt eine Kollaboration zwischen einem Verbraucher (Konsument, Servicenehmer) und einem Anbieter (Produzent, Servicegeber). Der Verbraucher will eine bestimmte Funktionalität (ein Produkt oder eine Dienstleistung - Service ), den ein Anbieter bereitstellt. Eine solche Kollaboration arbeitet nach den folgenden Prinzipien: Service-Orientierung (SO) Prinzip 1 Konsequente Ergebnisverantwortung. Der Service-Geber übernimmt die Verantwortung für die Ausführung und das Ergebnis des Services. Der Service-Nehmer übernimmt die Verantwortung für die Kontrolle der Service-Ausführung. Prinzip 2 Eindeutige Service Level. Jede Serviceausführung ist eindeutig vereinbart hinsichtlich Zeit, Kosten, Qualität. Input und Output der Services sind klar definiert und beiden Parteien bekannt per Service Level Agreement (SLA). 5 Prof. Dr. Matthias Goeken, Frankfurt School of Finance & Management, anlässlich der Auftaktveranstaltung der Zukunftswerkstatt IT, Frankfurt/Main, 19. April 2007 BI trifft BPM / Wolfgang Martin März 2011 Seite 20

21 Prinzip 3 Pro-aktives Event Sharing. Der Service-Nehmer ist über jede vereinbarte Statusänderung seines Auftrages informiert. Der Service-Geber ist verpflichtet den Service- Nehmer unmittelbar über unvorhergesehene Ereignisse zu informieren. Prinzip 4 Service-Verknüpfung. Ein Service kann zur Leistungserbringung einen oder mehrere andere Services nutzen. Umgekehrt kann jeder Service von anderen Services zur Leistungserbringung genutzt werden. Eine solche Service-Orientierung ergibt ein flexibles Instrumentarium, denn ein Service kann so als eine Lieferung entsprechend einer Bestellung gemäß den Bedingungen eines SLAs verstanden werden. Im SLA wird festgelegt, in welcher Zeit, zu welchen Kosten und mit welchen Ressourcen ein Service geliefert wird. Es wird auch festgelegt, was der Eingang (Input) in den Service ist und wie der Ausgang (Output) aussieht. Services können auch als externe Services von Dritten im Sinne von SaaS (Software as a Service) bezogen werden. Services präsentieren die Geschäftslogik, die traditionell in den Applikationen steckt. Prozesse haben die Aufgabe, Services also die Geschäftslogik gemäß der Prozesslogik zu orchestrieren und zu choreographieren. Das Service-Verknüpfung-Prinzip hat eine interessante Konsequenz, wenn man es mit dem Unterprozess-Prinzip vergleicht: Ein Service verhält sich wie ein Prozess. Die Folge ist, ein Prozess kann ein Service sein und ein Service ein Prozess. Im Sinne der IT können wir jetzt definieren: Ein Service ist eine Funktionalität, die typischerweise mittels einer Anfrage-Antwort über eine standardisierte Schnittstelle ausgelöst und gemäß einem SLA konsumiert wird. Ein Service ist somit eine spezielle Ausprägung einer Softwarekomponente. Jetzt können wir auch eine SOA definieren. Im Ausdruck SOA stecken ja die beiden Bestandteile SO = Service-Orientierung und A = Architektur. SO und Service haben wir bereits definiert, bleibt jetzt noch die Definition des Begriffes Architektur. Dieser Begriff hat leider keine eindeutige Definition, aber unter Zuhilfenahme diverser Online-Lexika lässt sich ableiten: Eine Architektur in der Informatik spezifiziert das Zusammenspiel der Komponenten eines komplexen Systems. Sie beschreibt die Übersetzung fachlicher Anforderungen in Bauinstruktionen. Damit hat eine Architektur Charakteristiken und Konsequenzen. Jetzt können wir die Charakteristiken einer SOA zusammenstellen: Eine SOA ist ein Design-Ansatz für eine spezielle Unternehmensarchitektur und für eine spezielle informationstechnische Software-Architektur. Im Sinne des Prinzips Servicenehmer und Servicegeber erfolgt eine Trennung der traditionellen Applikationslogik in eine Prozess- und Geschäftslogik. Hier findet eine Entkopplung statt. Eine SOA ist in jedem Falle unabhängig von Technologie. Die Technologie zur Implementierung kann also frei gewählt werden. Informationstechnisch gesehen ist die Service-Orientierung eine Evolution von Komponenten- Architekturen (Funktionsweise gemäß den LEGO -Prinzipien) SOA Services sind fachlich getrieben: Die Granularität der Prozess- und Regelmodellierung bestimmt die Granularität der fachlichen Services. BI trifft BPM / Wolfgang Martin März 2011 Seite 21

22 BPM und BI mit einer SOA Eine SOA ist IT Architektur Unternehmensarchitektur Kollaborationsarchitektur Analytik & Performance Management Backend-Services Portal Präsentations- & Kollaborations (Web 2.0)-Services CAD/CAM Office- Applikation Geschäftsprozess- Management Service Bus Information Mgt Content Management B2B ERP SAP CRM SCM PLM etc DW DI Marktplatz, Lieferanten, Partner, Händler, Kunden, soziale Medien Operative Daten S.A.R.L. Martin Abbildung 3: Eine SOA (service-orientierte Architektur) beschreibt das Design einer Infrastruktur für Geschäftsprozess-Management. Kern der Infrastruktur ist ein Service Bus, der das Management und Lebenszyklusmanagement der Prozesse und Services unterstützt. Hierzu gehören auch die Backend- Services, die Informations-Services (DI = Datenintegration) und die Metadaten/Stammdaten-Services. Der Service Bus stellt auch die Schnittstelle zu externen Services für B2B dar. Informationsdomänen wie Content Management, Wissensmanagement, Office und CAD/CAM können über den Service Bus auch als Services orchestriert werden. Performance Management und Analytik agieren dabei wie ein Gehirn des prozessorientierten, intelligenten Unternehmens: Mittels Intelligenz werden die Prozesse und ihre Performance geplant, überwacht und gesteuert. Analytik wird dazu per Services in die Prozesse eingebettet, um Probleme und Risiken rechtzeitig zu erkennen. Das Portal agiert als Mensch-Maschine Schnittstelle und unterstützt die menschlichen Interaktionen durch Kollaborations- und Präsentations-Services, angereichert durch Web 2.0 Werkzeuge. (ERP = enterprise resource planning; CRM = customer relationship management; SCM = supply chain management; PLM = product life cycle management; DW = data warehouse; CAD/CAM = computer aided design/manufacturing; B2B = business to business) Eine weitere Besonderheit einer SOA ist die Standardisierung 6. Der Zugriff auf Services erfolgt nach Standards (Web Services) genauso wie die Orchestrierung und Choreographierung der Services (business process execution language BPEL) oder Infrastrukturdienste wie Authentifizierung und Identifizierung. Eine vor Jahren nicht vorstellbare Zusammenarbeit der verschiedenen IT Anbieter treibt die Standards recht zügig voran. So haben beispielsweise Web Services inzwischen eine allgemeine Akzeptanz im Markt gefunden. Damit diese Service-Orientierung funktionieren kann, ist ein Business Vokabular die Voraussetzung, damit in allen SOA-basierten Prozessen die gleiche Sprachweise verwendet werden kann. Dazu braucht man ein Repository, in dem alle Meta- und Stammdaten einheitlich beschrieben sind. Was die Integrationsdrehscheibe für eine SOA ist, ist das Repository für Meta- 6 Eine Klassifizierung der Standards findet man auf BI trifft BPM / Wolfgang Martin März 2011 Seite 22

23 und Stammdaten. Die Architektur des Repositories ist also eine Hub- and Spoke-Architektur, so dass alle Meta- und Stammdaten über alle Backendsysteme synchronisiert und historisiert werden können. Das ist die Rolle von Stammdaten-Management. Das wird in Kap. 6 weiter im Detail diskutiert. Mehr zu SOA findet man beispielsweise bei Martin (2008) und zu SOA Trends und Einsatz in Unternehmen im deutschsprachigen Raum bei Martin, Eckert und Repp (2010). Achtung: ROI kommt in der Regel nicht von einer SOA, sondern von den implementierten, SOAbasierten Prozessen. BI trifft BPM / Wolfgang Martin März 2011 Seite 23

24 3 Performance Management Strategien, Prozesse, Menschen, Metriken und Governance 3.1 Prozess- und service-orientierte Business Intelligence Wie wir gesehen haben, gehört Business Intelligence in den Kontext von Prozessen und damit natürlich auch in den Kontext von Strategien und Menschen. Geschäftsprozesse sind heutzutage funktionsübergreifend, abteilungsübergreifend, ja, sogar unternehmensübergreifend. Prozesse verbinden die Lieferanten der Lieferanten mit den Kunden der Kunden innerhalb eines kollaborativen Unternehmensnetzwerkes (vgl. Abb. 2). Ein Geschäftsprozess ist. eine Menge von Aktivitäten & Aufgaben ausgeführt von Ressourcen (Services geleistet von Menschen & Maschinen) unter Nutzung unterschiedlicher Information (strukturiert & unstrukturiert) mittels unterschiedlicher Interaktionen (vorhersehbar & unvorhersehbar) gesteuert von Management-Politiken und Prinzipien (Geschäftsregeln & Entscheidungskriterien) mit dem Ziel, vereinbarte Endergebnisse zu liefern (Strategien & Ziele) Die Vorteile solcher integrierten und durchgängigen ( end-to-end ) Prozesse liegen auf der Hand: Kostenreduktion durch schnellere und sichere Prozesse. Durch Automation kommt man zu einer höheren Geschwindigkeit und Qualität von Prozessen, also zu höherem Durchsatz bei geringerem Einsatz von Ressourcen. Schnellere Vermarktung durch integrierte, durchgängige Prozesse. Integrierte Prozesse verbessern die abteilungs- und unternehmensübergreifende Kollaboration und beschleunigen Produkt- und Serviceentwicklung. Risikominimierung durch Steuern und Kontrollieren der Effizienz der Prozesse mittels Metriken zum Messen der Performanz von Prozessen gemäß dem Leitsatz: Man kann nur managen, was man auch messen kann. Maximierung der Flexibilität und Agilität des Unternehmens durch kontinuierliches und schnelles Anpassen der Prozessmodelle an die Marktdynamik und Kundenanforderungen. So kann man beispielsweise auf Störfälle und unerwartete Ausnahmen schneller und flexibler reagieren. Transparenz und Nachvollziehbarkeit durch die Prozesssicht. Damit werden die Auflagen der Behörden zur Compliance und die Anforderungen der Prüfer erfüllt. So wird Revisionssicherheit machbar. BI trifft BPM / Wolfgang Martin März 2011 Seite 24

25 Genau aus diesen Gründen ist Business Process Management (BPM) eine der wichtigsten Anforderungen, die sich zeitgemäßen Unternehmen stellt. BPM und Performance Management sind die prozessorientierte neueste Version der Unternehmensführung und Steuerung: Planung, Ausführung und Performanz Management sind seit jeher die drei Basiselemente jeden Managements gewesen ( mach einen Plan, führe ihn aus und sieh zu, dass dein Ergebnis in Einklang mit dem Plan bleibt ). Performance Management ein Regelkreis Ereignisse Ziel Strategie Geschäftsprozess Ergebnis Zyklustakt Agiere Entscheide Messe S.A.R.L. Martin Abbildung 4: Metrisch-orientiertes Management ist ein top-down Modell für informations-basiertes Management. Messbare Ziele werden aus der Geschäftsstrategie abgeleitet. Auf Basis der Strategie und der Ziele werden parallel Prozesse und Metriken zur effizienten Geschäftssteuerung und kontinuierlichen Optimierung abgeleitet. Informationstechnisch werden dann die Prozesse und die Metriken durch operative, kollaborative und analytische Services im Rahmen einer SOA (service oriented architecture) unterstützt. Auf Basis des Auskommens der Metriken werden Entscheidungen getroffen entweder manuell durch einen Menschen oder automatisiert durch Entscheidungsmaschinen. Entscheidungen führen zu Maßnahmen zur Performanzsteuerung von Prozessen und ihren Aktivitäten (taktisches und operatives Performance Management) als auch zur Anpassung und Änderung der Strategie und der Ziele (strategisches Performance Management): Der Regelkreis schließt sich. Wichtig ist die Synchronisierung zwischen dem Messen und der Prozessausführung: Die Geschwindigkeit des Mess- und Steuerprozesses muss der Geschwindigkeit des Geschäftsprozesses entsprechen Grundvoraussetzung für ein Echtzeit- Unternehmen. Performance Management steht im BPM Modell für das Performanzmanagement aller Prozesse, die sich über alle Funktionen und Abteilungen innerhalb eines Unternehmens erstrecken und sogar darüber hinaus Unternehmen mit Unternehmen und / oder Verbrauchern verbinden. Metrisch-orientiertes Management ist das top-down Prinzip von Performance Management zur Optimierung des Managens eines Unternehmens per Regelkreisansatz (Abb. 4). Die Business-Strategie bestimmt, welche Geschäftsprozesse vom Unternehmen ausgeführt und BI trifft BPM / Wolfgang Martin März 2011 Seite 25

26 gesteuert werden müssen. Geschäftsmetriken werden an jeden Geschäftsprozess gekoppelt. Die Geschäftsmetriken werden abgeleitet aus den Zielen, so dass der Prozess durch Information, Leistungs-(Performanz-)Metriken, Regeln und prädiktive Modelle mess- und steuerbar wird. Das Einbetten von Analytik in die Geschäftsprozesse erfordert einen neuen Ansatz zur Prozess- Modellierung. Das alleinige Modellieren von Prozess-Logik und -Fluss ist nicht mehr ausreichend. Wir müssen jetzt zusätzlich die Metriken und die Verantwortlichkeiten und Rollen modellieren. Das bedeutet, Strategie und Ziele mit den Prozessen, Metriken und Menschen zu verknüpfen, um das Kreislaufmodell zu schaffen. Entscheidend dazu ist eine Governance. Beispiel: Überwachen und Steuern des Vertriebsprozesses. Heutige Vertriebsmethodologien beschreiben und strukturieren die vertrieblichen Tätigkeiten entlang des Vertriebszyklus, der üblicherweise mit dem Identifizieren eines Interessenten beginnt und mit dem Zahlungseingang gemäß Rechnung basierend auf dem abgeschlossen Vertrag endet. Die Methodologie beschreibt die verschiedenen Stufen der Qualifizierung eines Interessenten bis hin zum Vertragsabschluss, sowie der Aktivitäten der Lieferung, Rechnungsstellung und Zahlung des Kunden. Die Anzahl der Stufen hängt von der gewählten Methodologie ab (und spielt in diesem Beispiel keine Rolle). Performance Management kommt hier mit den Metriken der Anzahl der qualifizierten Interessenten/Kunden pro Stufe, des geschätzten/realen Wertes eines Vertrages, der Übergangswahrscheinlichkeit von einer Stufe in die nächstfolgende und der Übergangszeit von einer Stufe in die folgende. Will man also als Ziel des Vertriebsprozesses einen Zahlungseingang von x in einem bestimmten Monat erreichen, so lässt sich anhand der Metriken schätzen, wie viele Interessenten in jeder Qualifizierungsstufe man wann braucht, um das Ziel zu erfüllen. Stellt man fest, dass eine Zielerfüllung nicht möglich ist, so lassen sich die kritischen Parameter ablesen, die man durch Maßnahmen beeinflussen muss, um eine Zielerfüllung zu erreichen. So lässt sich der Vertriebsprozess mittels Performance Management pro-aktiv steuern und kontrollieren. Metrisch-orientiertes Management basiert auf Information Management (siehe Kap. 6). Information muss rechtzeitig verfügbar sein ( rechtzeitig wird häufig nicht ganz korrekt real-time genannt, vgl. Nußdorfer, Martin 2003), um manuelle oder automatisierte Entscheidungen für die Kontrolle des Prozesses auszulösen. Das entspricht dem information supply chain Paradigma: die richtige Information zur richtigen Zeit am richtigen Ort zum richtigen Informationsverbraucher, der so die richtige Entscheidung treffen kann. Also bedeutet real-time die Synchronisierung von Informationsbereitstellung mit Informationsbedarf. (Merke: real-time ist ein relativer Begriff, der nicht notwendigerweise an die Uhrzeit gekoppelt ist.) Eine Menge von Geschäftsmetriken repräsentiert eine Managementpolitik innerhalb des metrisch-orientierten Managements. Die Idee, die dahintersteckt, ist überzeugend: Man kann nur managen, was man auch messen kann. Deshalb ist die Flexibilität zum Ändern und Anpassen aller Metriken eine der wichtigsten Anforderungen an dieses Modell. Darüberhinaus müssen Geschäftsmetriken konsistent sein. Metriken verschiedener Prozesse dürfen sich nicht widersprechen. In der Tat sind Metriken BI trifft BPM / Wolfgang Martin März 2011 Seite 26

27 funktions- und prozessübergreifend: die Performanz eines Geschäftsprozesses kann die Performanz eines anderen Prozesses beeinflussen oder ihm sogar entgegenwirken. Zum Beispiel wird die Liefertreue, eine Metrik, die mit der Supply Chain verbunden ist, die Kundenzufriedenheit beeinflussen, die wiederum eine Metrik des Kundenbeziehungsmanagements ist. Diese Fragestellungen werden von so genannten Business Scorecards adressiert. Eine Business Scorecard verbindet sämtliche Managementpolitiken der Fachbereiche im gesamten Unternehmen zu einer einheitlichen und konsistenten Unternehmens-Managementpolitik. Beispiele spezieller Business Scorecards sind Norton / Kaplans Balanced Scorecard oder das Six Sigma Modell. Die Balanced Scorecard ist beispielsweise eine Menge von Metriken, die nicht nur wie klassisches Controlling auf finanziellen Parametern basiert, sondern sie berücksichtigt ebenso Kunden-, Mitarbeiter- und Shareholderaspekte und ermöglicht so Einblick in die Geschäftsperformanz jenseits der rein finanzorientierten Quartalsergebnisse. Insofern handelt es sich hier um einen speziellen Typ von metrisch-orientiertem Management. Trotz der großen Vielfalt solcher Modelle, bleibt das große Ziel immer das gleiche: Wandle Daten in Information und Wissen um und maximiere deren Wert für das Geschäft durch closing the loop, i.e. die Einbringung von Information und Wissen zur Prozess-Planung, Überwachung und Steuerung. Performance Management wird angewendet auf alle Geschäftsfelder wie Kundenbeziehungsmanagement, Supply Chain Management, Personalwesen etc. Beispiel: Financial Performance Management ist wie jede andere analytische Lösung ein Prozess mit Rückkopplung ( closed-loop ), der das Performance und Information Management finanzieller Prozesse und Information beschreibt. Dieser Prozess erstreckt sich von Planung, Budgetierung, Forecasting und strategischer Planung bis zur Prüfung der Richtigkeit gemäß den gesetzlichen Anforderungen mittels finanzorientierter Metriken. Dazu gehören auch das gesetzliche Berichtswesen sowie die Bilanzkonsolidierung. Das beschreibt dann auch die gesetzlich geforderte Regeltreue im Rahmen der Compliance. Financial Performance Management umfasst auch Profitabilitätsanalyse sowie Werkzeuge wie Simulationen und Alternativanalysen ( what-if-analysen ). Entscheidungen werden getroffen mittels finanzorientierter Metriken und Analysen und werden zurückgekoppelt in die Planungs-, Budgetierungs- und Forecast Aktivitäten: Der Regelkreis wird geschlossen. Wie in Abbildung 4 schon angedeutet, findet Performance Management auf drei Ebenen statt, auf der operativen, der taktischen und der strategischen Ebene (Abb. 5). Business Intelligence war bisher auf Entscheidungsunterstützung im Rahmen strategischer Planung und taktischer Analyse ausgerichtet. Dazu dienen langfristig angelegte Metriken, die die Erfüllung strategischer Ziele messen und überwachen wie zum Beispiel Kundenzufriedenheit, Kundenwert, Liefertreue, Lieferantenbewertung, Personalfluktuation etc. Der Begriff der Langfristigkeit bezieht sich dabei auf die Geschwindigkeit, mit der die zugehörigen Kennzahlen durch Maßnahmen beeinflussbar sind. Dazu wird in der Regel eine Ebene taktischer Ziele eingezogen, deren Erreichung Schritte auf dem Weg der strategischen Zielerfüllung darstellen. Maßnahmen, deren Wirkungen der Erreichung taktischer Ziele dienen, erstrecken sich üblicherweise in einem Zeitraum zwischen einigen Tagen und bis zu einigen Monaten. Im Zuge der Prozess-Orientierung wird nun Business BI trifft BPM / Wolfgang Martin März 2011 Seite 27

28 Intelligence auch operationalisiert, d. h. operative Prozesse werden mittels Intelligenz auch kurzfristig überwacht und gesteuert. Operatives Performance Management wird auch Process Performance Management (PPM) genannt, und es umfasst Business Activity Monitoring (BAM) PM & Analytik Zeitraster und Schichten traditionelle Business Intelligence Strategisch langfristig Taktisch mittelfristig Tage, Wochen, Monate Strategische Planung Taktische Analyse Operative Intelligence (BAM + CEP) Operative kurzfristig Maßnahmen mindestens am gleichen Tag S.A.R.L. Martin Abbildung 5: Performance Management (PM) ist der Prozess, mit Hilfe von Metriken Geschäftsprozesse zu überwachen, Entscheidungen auf Grund dieser Messungen zu treffen und Maßnahmen zur Prozess- und / oder Performanzsteuerung einzuleiten, ein closed-loop Ansatz. Ein ganz wesentlicher Bestandteil aller Performance Management-Ansätze ist, die Metriken auch in einem monetären Zusammenhang zu stellen. Dazu bedarf es eines prozessorientierten Rechnungswesens. Performance Management reicht von operativem zu strategischem Performance Management, aber Performance Management wird bedient von zwei unterschiedlichen Lagern auf der Anbieterseite, die sich beeilen, die neuen Potentiale in diesem rasch wachsenden analytischen Markt auszuschöpfen. Das sind zum einen die Anbieter von BAM- und CEP-Lösungen (business activity monitoring, complex event processing), die von der Prozessorientierung her kommen und zum anderen die traditionellen Business Intelligence Anbieter. Das ist zum Teil recht verwirrend für die Fachabteilungen und die IT, deren Aufgabe es ja ist, praktikable Lösungen zu finden für einen immer komplexer werdenden analytischen Bedarf. Eine Auflistung von Anbietern befindet sich in Kapitel 9.2. Die Ideen zu Performance Management stammen aus der Kontrolltheorie: Genauso wie man eine Raumtemperatur über einen geschlossenen Regelkreis überwachen und steuern kann, so will man jetzt Geschäftsprozesse auch operativ überwachen und steuern. Die Überwachung und Steuerung von operativen Systemen wird durch die (Realtime-)Echtzeitprinzipien der Information Supply Chain ermöglicht. Das Konzept der Information Supply Chain bedeutet wie bereits gesagt, die richtige Information zur richtigen Zeit am richtigen Ort für den richtigen Zweck zur Verfügung zu haben. Im Performance Management-Modell wird also Information als Bringschuld behandelt, i. e. eine eingehende oder entstehende Information wird über die Publish- and Subscribe- BI trifft BPM / Wolfgang Martin März 2011 Seite 28

29 Kommunikationsmethode zeitnah an alle registrierten Informationsverbraucher propagiert. Im traditionellen Data Warehouse Modell war dagegen Information eine Holschuld. Der Informationsverbraucher war dafür verantwortlich, sich seine Information selbst abzuholen. Ein Beispiel gibt hier der Abgleich des Produktangebotes in einem Web Shop mit der Produktverfügbarkeit. Die Produktverfügbarkeit ist eine operative Metrik, die den Bestand von Produkten an Hand der Verkaufs- und Lieferungs-Transaktionen misst. Die Produktverfügbarkeit ist also mit den Transaktionen synchronisiert. Sinkt nun die Produktverfügbarkeit unter einen vordefinierten Schwellenwert, so kann ein Alarm ausgelöst werden. Ein solcher Alarm könnte eine Nachlieferung automatisch auslösen. Ist eine Nachlieferung nicht möglich, dann könnte man das Produkt aus dem Katalog des Web Shops herausnehmen oder sperren, so dass Kunden das Produkt nicht mehr bestellen können. Damit ist proaktiv sichergestellt, dass Kundenaufträge nicht storniert werden müssen, Lieferkosten und Kundenfrust werden vermieden. Zusätzlich könnte man auch noch automatisch einen Vermerk in den Web Shop stellen, wann das Produkt wieder lieferbar wäre. Man sieht an diesem Beispiel, wie auf der operativen Ebene Prozesse proaktiv mit Information überwacht und gesteuert werden können alles voll automatisch, also ohne händische Eingriffe von Produktmanagern. Übrigens, was bedeutet Echtzeit in diesem Beispiel? Produktverfügbarkeit wird in der Praxis typischerweise zweimal am Tag gemessen. Das ist ein Erfahrungswert, bei dem die Kosten des Messens in Einklang stehen mit den Kosten des Risikos, das aufgrund des Ignorierens der Produktverfügbarkeit entsteht. Zuerst tauchte operatives Performance Management bei Anbietern auf, die aus der Prozessmodellierung und der Business Integration kamen, indem sie beschreibende und graphische Elemente zufügten, um operative Performanzmetriken sichtbar zu machen. Mittels Prozesskostenrechnung kann man solche Metriken dann auch in einen monetären Kontext setzen. Technisch betrachtet bedeutet das, Zugang zu finanziellen Daten innerhalb eines Data Warehouse zu haben. Taktisches und strategisches Performance Management wurde zuerst von Anbietern traditioneller Business Intelligence Werkzeugen entwickelt, indem sie sich vom Data Warehouse Modell und von Business Intelligence Werkzeugen hin zu analytischen Applikationen und einem geschlossenen Regelkreis Modell bewegten. Die beiden unterschiedlichen Ansätze, ein und dasselbe Problem zu lösen, bringt eine gewisse Verwirrung in den Markt, aber schon seit 2005 findet eine gewisse Konvergenz zwischen operativem Performance Management einerseits und taktischem, strategischem Performance Management andererseits statt. 3.2 Das Prozessträgermodell Als Nächstes ist die Frage der Nutzung von Information zu diskutieren. Dabei sind zwei Aspekte wichtig. Zum einen ist die Aufgabe der Information Supply Chain zu lösen, kurz gesagt: Wer braucht wann, wo und warum welche Information? Zum anderen ist die Frage zu beantworten, welche Fähigkeiten und Schulungen man braucht, um sich der Information zu bedienen, wenn sie BI trifft BPM / Wolfgang Martin März 2011 Seite 29

30 denn verfügbar ist? Beginnen wir mit dem zweiten Aspekt, der Bedienbarkeit von Werkzeugen zu Performance Management und Analytik. Traditionelle Business Intelligence Werkzeuge waren meist nicht leicht und einfach nutzbar. Kenntnisse zur Bedienung solcher Werkzeuge, die man in der Regel nur per Schulungen erwerben konnte, waren die Voraussetzung, um mit Business Intelligence erfolgreich zu sein. Besondere Business Analysten oder Poweruser bildeten sich heraus, die solche Aufgaben in den Abteilungen übernahmen. Information war eine Art Luxusgut, das nicht allen Mitarbeitern zur Verfügung stand. Das ändert sich im Kontext der Prozess-Orientierung von BI. Performance Management und Analytik zum Anreichern operationaler Prozesse bedeutet, dass BI für jeden am Geschäftsprozess Beteiligten konsumierbar sein muss. Damit haben sich beispielsweise für Performance Management auch die besonderen fachlichen und technischen Elemente heraus geprägt, die das entsprechend unterstützen (siehe folgendes Kap. 4). Natürlich wird man auch weiterhin Business Analysten und Poweruser brauchen, aber ihre Rolle ändert sich. Aufgrund der deutlich besseren Softwareergonomie von Analytik- und Performance Management-Werkzeugen werden die Business Analysten weniger Zeit zur Informationsbeschaffung auf Zuruf verbringen müssen. Das gibt ihnen mehr Zeit für interaktive Analyse (Datenexploration), was zu einer höheren Wertschöpfung für das Unternehmen führt. Als weitere Aufgabe kommt dazu, die fachlichen und technischen Elemente von Analytik und Performance Management zu managen. Das bedeutet insbesondere das Identifizieren und Kommunizieren von Best Practices für analytische Szenarios gemeinsam mit den Informationskonsumenten. Stößt ein Informationskonsument auf ein noch nicht bekanntes Problem in der Prozessüberwachung und Steuerung, dann wird gemeinsam mit einem Analytikspezialisten das analytische Szenario zur Problemlösung entwickelt. Einmal gelöst, kann es im Performance Management als neues Standardszenario genutzt werden. Das System kann so selbst lernend werden. Auch wenn Performance Management eine leicht und ohne tief gehende Schulung nutzbare Arbeitsumgebung bietet, so bleibt noch die Aufgabe der Information Supply Chain, also die Herausforderung der Datenflut zu lösen. Hier bietet wiederum eine Governance die Lösung. Machen wir uns nochmal den Begriff Governance klar: Governance bedeutet nichts anderes als regelkonformes Management und Verhalten. In allen Aktionen unserer Unternehmensressourcen Menschen, Maschinen und Systemen muss sichergestellt sein, dass die Management-Policies und -Leitlinien beachtet und umgesetzt werden. Dieses Prinzip Governance setzen wir im Kontext der Information Supply Chain zur Beantwortung der Frage: Wer soll wann wo welche Information zu welchem Zweck bekommen? Dazu dient das Prozessträgermodell, das Rollen, Verantwortungen und organisatorische Einheiten den Prozessen zuordnet. Das traditionelle Prozessmodell, das sich in der Regel auf die Modellierung der Prozesslogik ( die Abläufe ) beschränkte, wird also nicht nur um die Modellierung der Metriken erweitert, sondern auch um das Prozessträgermodell. In einem Prozessträgermodell wird bestimmt, wer die Beteiligten (Mitarbeiter, Partner, Zulieferer, Kunden etc.) am Prozess sind und für welche Prozesse und Aktivitäten innerhalb der Prozesse er/sie verantwortlich ist. So werden die Rollen aller an den Prozessen Beteiligten sowie die BI trifft BPM / Wolfgang Martin März 2011 Seite 30

31 Kultur Wolfgang Martin Team zugehörigen organisatorischen Einheiten in das Prozessmodell mit aufgenommen. Im metrischorientierten Management umfassen diese Prozessträgermodelle auch die Zuordnung der notwendigen Metriken zur Prozess- und seiner Performanz-Steuerung. Das bedeutet im Endeffekt ein Filtern von Information. Die am Prozess Beteiligten teilen Daten, Information und Wissen innerhalb ihrer prozessorientierten Kommunikation und Kollaboration. Daten und Information, die nicht in diesen Kontext gehören, werden ausgefiltert. Damit entsteht auch das Security-Modell quasi als Beiprodukt dieser Top-Down-Vorgehensweise. Das Teilen und Filtern von Information wird durch Informationsprofile erreicht, die den Kontext einer Kollaboration, basierend auf dem Prozessträgermodell, beschreiben. Das Informationsprofil beschreibt und filtert genau die Information, die die am Prozess beteiligten Geschäftsparteien im Rahmen des Prozessträgermodells für ihren Kollaborationskontext brauchen. Es stellt also die Beziehung zwischen Rollen und den zugehörigen Metriken dar und definiert so die Struktur der entsprechenden Business Scorecard. (Abb. 6) PM und Analytik: die Governance externe interne Policies Policies Policies Governance Policies Organisation Menschen Compliance Prozesse Metriken Sensoren Messwerte Unternehmensstrategie / Ziele S.A.R.L. Martin Abbildung 6: Um Unternehmensstrategien operativ unter der Maßgabe der Zielerreichung umzusetzen, müssen Menschen, Prozesse und Metriken miteinander verknüpft werden, um sicherzustellen, dass das Unternehmen so handelt, wie es handeln soll. Genau dass bedeutet Compliance, ein pro-aktives, regelkonformes Management und Verhalten. Die Regeln werden durch Policies entweder extern vorgegeben (beispielsweise durch den Gesetzgeber) oder ergeben sich intern aus der Organisation und Kultur des Unternehmens. Das fließt in der Governance zusammen. Die Governance regelt die Relationen zwischen Menschen, Prozessen und Metriken. Die Relationen zwischen Menschen und Prozessen beschreiben die Verantwortlichkeiten und Verantwortungen, die Rollen und Rechte. Die Relationen zwischen Prozessen und Metriken werden durch Sensoren und Messwerte beschrieben, die im Sinne des Performance Managements (PM) die Leistung der Prozesse überwachen sollen. Schließlich werden die Relationen zwischen Menschen und Metriken durch Informationsprofile beschrieben, die genau die Menge und Strukturen der Metriken beschreibt, die ein Mensch im Sinne seiner Prozessverantwortung im Rahmen der Governance braucht. Ein Informationsprofil wiederum beschreibt die Struktur einer Scorecard, mit dessen Hilfe die zugeordneten Metriken visualisiert werden. BI trifft BPM / Wolfgang Martin März 2011 Seite 31

32 Abbildung 7: Beispiel eines BI-Portlets zum Einstieg in seine Business Scorecard (Fiktives Unternehmen, Screenshot erstellt mit Cubeware: Verschiedene Komponenten wie Chart, Tabelle mit Trendampeln, Top-1- Tabellen mit Bildampeln, Titeln, Logos und Hintergrund können frei platziert werden. Die Navigation erfolgt über Aktionsschaltflächen.) Zur Visualisierung wird heute vielfach wie in diesem Beispiel zum Stil einer Online-Zeitung gegriffen. Für einen solchen Ansatz hat die Quelle GmbH beispielsweise den BI Award 2008 gewonnen, der auf dem offiziellen Forum BI der Deutschen Messe AG auf der CeBIT 2008 vom BARC vergeben wurde (vgl. Kap. 4.4). Die Visualisierung von Information gemäß einem Informationsprofil geschieht also per Business Scorecard, die als Portlet in einem Portal eingebettet sein sollte (Abb. 7). Ein Portlet ist allgemein ein Behälter für eine gewisse Menge von Information und/oder kollaborativen Werkzeugen. Portale sind aus den Ideen früher Intranet- und Extranet-Lösungen entstanden als ein zentraler Kontrollpunkt im Sinne einer Mensch-Maschine-Schnittstelle P2S (Person to System). Ein Portal wird verstanden als ein System, das Teilen und Filtern von Daten / Information, Funktionen / Funktionalität, Inhalten / Wissen und Prozessen erlaubt. Dieses Teilen und Filtern steht natürlich wieder über das Informationsprofil in Zusammenhang mit der funktionalen Rolle eines kollaborativen Teams innerhalb eines Geschäftsträgermodells. Ein kollaboratives Team ist eine Gruppe von Menschen, die je nach Aufgabenstellung an das Team aus den verschiedenen kollaborativen Geschäftsparteien zusammengesetzt wird. Auf diese Weise unterstützen Portale funktions-, abteilungs- und unternehmensübergreifende virtuelle Teams. In Sonderfällen kann auch BI trifft BPM / Wolfgang Martin März 2011 Seite 32

33 ein einzelner Portalbenutzer als Team gelten. In diesem Sinne unterstützen Portale die Governance in Performance Management und Analytik. Ein Prozess-Portal (vgl. Abb.3) kann verstanden werden als Abstraktionsschicht, die Inhalte und Dienste bündelt und aggregiert und den Zugang erleichtert. In diesem Sinne bestimmt der Teamkontext mittels der Rollen und Informationsprofile die Kollaborationsbandweite, beispielsweise welche Daten / Information, Funktionen / Funktionalität, Inhalte / Wissen und Prozesse an das kollaborative Team geliefert werden, zusammen mit der Business Scorecard und den entsprechenden kollaborativen Werkzeugen. Jeder Portalbenutzer erhält seine individuelle Umgebung, die sich weiter personalisieren lässt. Ein solches Personenportal kann man auch als Integrationstechnologie verstehen: Die ultimative Integration wird erreicht durch menschliches Eingreifen, beispielsweise kann ein Benutzer innerhalb seines Teamkontexts einen Transfer zwischen Inhalten und Diensten durchführen. Kollaborative Werkzeuge in Prozess-Portalen sind sowohl synchrone als auch asynchrone Werkzeuge, wie , Blogs, Co-Browsing, Chat, Foren, Instant-Messaging, Web-Konferenzen, Wikis usw. Hier lassen sich also insbesondere die Technologien aus dem sogenannten Web 2.0 einbringen. Denn Web 2.0 Technologien sind service-orientiert, passen also bestens in eine SOA, und unterstützen die Kollaboration von Menschen und Teams. Die Rolle der Portale und ihre Bedeutung im BPM und SOA sind dargestellt in Martin und Nußdorfer (2006). 3.3 BI-Governance Die Nutzung von Information im Kontext der Geschäftsprozesse braucht eine Governance wie wir im vorigen Kapitel ausgeführt haben. Eine solche Governance zum Performance Management und Analytik wird vielfach auch als BI-Governance bezeichnet. Ziel einer BI-Governance ist das Umsetzen der BI-Strategie in der Praxis BI also im Sinne von Performance Management und Analytik zu leben und im Tagesgeschäft erfolgreich ein- und umzusetzen. BI-Governance besteht wie jede Governance aus vier Elementen, einer Organisationsstruktur, aus den BI-Governance-Prozessen, den entsprechenden Management-Policies und einer Technologieplattform. Die Organisationsstruktur besteht aus einem Leitungsgremium, dem ein BI- Sponsor vorsitzt, dem BI-Kompetenzzentrum und den Data Stewards. Dazu gehören wohldefinierte Rollen und Verantwortlichkeiten. Der Sponsor sollte aus der Geschäftsführung oder dem Vorstand kommen, damit die BI-Strategie und die Policies der BI-Governance auch durchgesetzt werden können. Die Data Stewards sitzen in den Fachbereichen und sind dort über die Information Governance eingebunden. Hier trifft sich die BI-Governance mit der Information Governance. Auf die Aufgaben einer Information Governance gehen wir im Kapitel 6.6 im Einzelnen ein. Das BI-Kompetenzzentrum zentralisiert das Management der BI-Strategie und der BI-Methoden, -Standards, -Regeln und -Technologien (Abb. 8). Sein Leitsatz ist: Das BI-Kompetenzzentrum plant, leitet und koordiniert BI-Projekte und sorgt für den effizienten Einsatz von Personal und Technologie. Seine Aufgaben sind: Steuerung der Anwendungslandschaft für Performance Management und Analytik, BI trifft BPM / Wolfgang Martin März 2011 Seite 33

34 Durchsetzungskraft Wolfgang Martin Team Standardisierung von Methoden und Werkzeugen, Koordination Fachabteilungen und IT in Sachen Performance Management und Analytik, Bereitstellung der Daten mittels Information Management in der richtigen Datenqualität. Das kann allerdings auch durch ein eigenes Information Management Kompetenzzentrum geleistet werden (vgl. Kap. 6.6). Erkennen und kommunizieren der Best Practices von BI-Szenarien bedarf einer besonderen Aufmerksamkeit. Dass erfordert die enge Kooperation und Kollaboration von Business und IT. Auch sollte der Einsatz der IT-orientierten BI-Werkzeuge mit den fachlichen Strategien und Anforderungen abgestimmt werden. Wenn ein Informationskonsument mit einer neuen, noch nicht dagewesenen Herausforderung konfrontiert wird, wie eine Analyse aufgesetzt oder weiterverwendet oder wie die richtige Information dazu gefunden werden kann, wird gemeinsam mit den Business-Analysten des BI-Kompetenzzentrums ein neues Szenario kollaborativ entwickelt. Solche Lösungen werden als Szenarien im BI-Spektrum zur Wiederverwendung eingestellt und kommuniziert. Das BI-Kompetenzzentrum lernt so beständig und verbessert stetig sein Lösungsportfolio, je länger man mit den BI-Modellen und -Verfahren arbeitet. Das Ergebnis der Einrichtung eines BI-Kompetenzzentrums wurde in vielen BI-Programmen aufgezeigt: So lassen sich BI-Vorhaben schneller voranbringen und Überschneidungen vermeiden. Beides senkt die Kosten. Als ständige Einrichtung kann das BI-Kompetenzzentrum sowohl innerhalb der IT-Organisation als auch in einer operativen Fachabteilung wie dem Finanzressort angesiedelt sein. Managen eines BI-Kompetenzzentrums Kultur von Kompetenz-Zentren zentrales CC virtuelles CC Standards Best Practices BI-Kompetenzzentrum Programm Direktor Projekt 1 Lenkungsausschuß Projekt-Leiter Querschnittsaufgaben Projekt n Methodologist... Der Leiter des BI- Kompetenzzentrums Koordiniert Ressourcen aggregiert & koordiniert Projekte setzt die Meilensteine koordiniert das Budget managt Abhängigkeiten priorisiert fängt isolierte Punktlösungen ein managt die Performanz Kommuniziert Best Practices Definiert Methodologie und Standards Managt die Technologie Garantiert die Unternehmenssicht Berichtet an den BI-Sponsor Internes Marketing & Kommunikation S.A.R.L. Martin Abbildung 8: Ein BI-Kompetenzzentrum kann unterschiedlich organisiert werden und so auch mit unterschiedlicher Durchsetzungskraft und Befugnissen ausgestattet sein. Die Darstellung unten zeigt die Architektur, die oben die gelebte Kultur. Man kann mit dem einfachen Sammeln und Vermarkten von Best Practices beginnen, dann Standards aufstellen und kommunizieren und schließlich entweder virtuell oder zentral die proaktive Nutzung der Standards fördern und den BI-Projekten zentrale Dienste zur Unterstützung anbieten. BI trifft BPM / Wolfgang Martin März 2011 Seite 34

35 4 Performance Management Methoden und Technologien Performance Management arbeitet anders als traditionelle Business Intelligence. Da standen Werkzeuge im Mittelpunkt wie OLAP, Spreadsheets, Berichte, Adhoc-Abfragen, statistische und Data Mining Werkzeuge. Performance Management kommt mit neuen fachlichen und technischen Elementen. Ziel ist, dass jeder an Prozessen Beteiligte aus Analytik Nutzen ziehen kann ohne zum Analytik-Spezialisten zu werden. Das beschränkt sich nicht nur auf die Mitarbeiter des Unternehmens, sondern umfasst auch die Lieferanten, Partner, Händler, sogar die Kunden. Analytik muss in diesem Sinne für jedermann konsumierbar sein. 4.1 Die fachlichen Elemente von Performance Management Metrik und Key Performance Metrik Wie wir schon gesehen haben, beschreiben Metriken, wie die Leistung eines Prozesses zu messen und zu managen ist und / oder wie ein Prozess zu überwachen und zu steuern ist. Sie werden durch Metrisierung der Unternehmens- und Prozess- Ziele abgeleitet. Metriken werden wie Sensoren entlang der Prozessstrecke eingesetzt, um ein proaktives Erkennen von Problemen (also beispielsweise das absehbare Nichterreichen des geplanten Endergebnisses) zu ermöglichen, so dass man rechtzeitig gegensteuern kann. (vgl. das Beispiel: Überwachen und Steuern des Vertriebsprozesses auf S. 26) Eine Metrik besteht aus Kennzahlen und ihren Skalen, um das Auskommen der Kennzahl zu interpretieren, zu bewerten und Entscheidungen zu treffen. Eine Key Performance Metrik (KPM) ist eine zusammengesetzte, aggregierte Metrik. Liefertreue ist beispielsweise eine Key Performance Metrik, die sich aus einer Metrik wie Lieferzeit aggregiert über alle Kunden und über einen vordefinierten Zeitraum zusammensetzen könnte. Einem Mitarbeiter werden typischerweise im Rahmen seiner Rollen und Verantwortlichkeiten viele Metriken zugeordnet sein, aber nur wenige KPM. In der Regel werden die KPM mit den persönlichen Zielen der Mitarbeiter verbunden und können so auch einen gehaltsrelevanten Einfluss haben. Im Beispiel der Liefertreue als KPM ist ein Entscheidungsträger verantwortlich für die Interpretation der Metrik und das Treffen der richtigen Entscheidungen zum Einleiten von Maßnahmen. Bei einem solchen menschlichen Eingreifen werden die Skalen üblicherweise visualisiert durch Verkehrsampeln und / oder Tachometer. Grüne, gelbe oder rote Anzeigen erleichtern und beschleunigen die Interpretation des Auskommens der KPM oder Metriken. Gut bewährt hat sich auch eine zusätzliche Anzeige des Trends einer Metrik. So kann eine rot anzeigende Ampel dann einen grünen Trend haben, wenn der aktuelle Wert der Metrik zwar immer noch rot ist, aber doch eine Verbesserung gegenüber dem letzten Status zeigt. Im Webshop-Beispiel (Steuern des Produktkatalogs per Produktverfügbarkeit; S.29) wird die Interpretation automatisch durch eine Entscheidungsmaschine vorgenommen eine Visualisierung ist hier nicht unbedingt notwendig. Business Scorecard Eine Business Scorecard ist eine konsistente, umfassende Gruppe von Metriken gemäß einer Managementpolitik, um die Performanz (Leistung) einer Gruppe von BI trifft BPM / Wolfgang Martin März 2011 Seite 35

36 Prozessen, einer Sparte oder des gesamten Unternehmens zu überwachen und zu steuern. Konsistenz bedeutet insbesondere, dass Metriken sich nicht widersprechen und so Konflikte zwischen Rollen und kollaborativen Teams schaffen, die in unterschiedlichen Kontexten arbeiten. Der Begriff wurde ursprünglich für strategisches Performance Management entwickelt, er lässt sich aber problemlos auf die anderen zeitlichen Ebenen übertragen. Bekannte Modelle von Scorecards sind die schon genannte Balanced Scorecard von Kaplan und Norton (www.bscol.com), das Scorecard-Modell von Baldridge (www.quality.nist.gov) und das Six Sigma Modell (www.isixsigma.com). In der Praxis zeigt sich aber, dass die wenigsten Unternehmen eines dieser Modelle eins-zu-eins umsetzen, sondern meist basierend auf solchen Modellen ein unternehmensspezifisches Scorecard-Modell entwickeln und nutzen. Der Performance Management-Unterschied zu traditionellen Business Scorecards ist die Verbindung der Scorecard- Metriken mit den Geschäftsprozessen im Rahmen der Governance (vgl. Kap. 3.2). Abbildung 9: Beispiel einer Strategy Map eines Balanced Scorecard Modells realisiert mit Actuate/Performancesoft. In der hier gezeigten Strategy Map werden die Eingangs- und Prozess-Metriken in einer Ursache-Wirkungsbeziehung zu ihren entsprechenden Ausgangsmetriken dargestellt. Diese visuelle Darstellung der Strategie erlaubt der Organisation ihre Effektivität zu bewerten, in dem man die KPMs jedes Unternehmensziels verfolgt. BI trifft BPM / Wolfgang Martin März 2011 Seite 36

37 Strategy Maps Strategy Maps (Abb. 9) zeigen, wie eine Strategie ausgewogen aufgebaut wird und wie der unternehmerische Erfolg über Ursache-Wirkungsketten entsteht. Die vorhandenen Kennzahlensysteme der traditionellen BI waren bisher zu stark auf die Daten der Finanzbuchhaltung abgestimmt und beachteten zu wenig die Investitionen in Mitarbeiter, Informatik, Kundenbeziehungen bzw. Netzwerke mit Lieferanten und Partnern. Das auf den klassischen Kennzahlen aufbauende Planungs- und Reportingsystem wie die Bilanz-G+V und Cash Flow Planung stellte daher keine Basis für die Messung und Steuerung dieser Werte dar. Ohne ein wirkliches Performance Management können diese Werte nicht sinnvoll geplant und gesteuert werden. Dies führt zu einem radikalen Umdenken und zum Steuern über Ursache- Wirkungsketten. Die innerhalb der Strategy Map formulierte Unternehmensstrategie legt die Ziele für die Wertschöpfungsprozesse fest. Die Business Scorecard übersetzt diese in konkrete Vorgaben und Messgrößen. Daraus ergeben sich bestimmte strategische Initiativen oder Aktionsprogramme. Diese wiederum sind entscheidend für das Erreichen der Vorgaben. Natürlich dürfen Strategy Maps und Business Scorecards nicht statisch sein. Ändern sich die Rahmenbedingungen, sind auch die Prioritäten der Unternehmensstrategie anzupassen. Geschäftsregeln Geschäftsregeln repräsentieren die prozessübergreifende Entscheidungslogik im Sinne des Fachwissens und der Managementpolitiken (vgl. Definition eines Geschäftsprozesses auf S. 24). Die Modellierung der Regeln geschieht entweder per top-down Ansatz à la Expertensystem oder prädiktive Modelle werden per bottom-up Ansatz generiert (beispielsweise ein Kunden-Verhaltensmodell, das in einer Data Mining basierenden Kunden- Verhaltensmodellierung erstellt wird). Eine Modellierung der Regeln, die den top-down mit dem bottom-up Ansatz kombiniert, ist hier state-of-the-art. Geschäftsregeln müssen zentral und von den Geschäftsprozessen unabhängig in einem Regel-Repository verwaltet werden, da eine Regel in mehreren Prozessen genutzt werden kann und ein Prozess natürlich mehrere Regel nutzen wird. Baut man Geschäftsregeln fest in Prozesse ein, so landet man in kurzer Zeit in einem Wartungsund Pflegechaos, da dann die Konsistenz der Regeln gefährdet ist. Außerdem behindert man so eine Wiederverwendbarkeit von Regeln. Ereignis/Alarm Ereignis-Orientierung ermöglicht Alarm-Services. Ein Ereignis ist gekennzeichnet durch das Eintreffen von prozess-externer Information, die einen Ausnahmezustand kennzeichnet. Beispiel: Im Marketing-Prozess Kampagnenmanagement stellt eine Kampagne eines Mitbewerbers, die in unsere Kampagne eingreift, ein Ereignis dar, das es zu erkennen gilt und dessen Wirkung man gegensteuern sollte. Ein solches Ereignis wirkt operativ. Es gibt aber auch strategische Ereignisse wie der Eintritt eines neuen Mitbewerbers in den Markt. Hier sind unter Umständen alle Vertriebs- und Marketingprozesse auf den Prüfstand zu stellen und gegebenenfalls neu zu modellieren. Jetzt kommt es auf die Geschwindigkeit an, mit der die neuen Prozesse implementiert werden können, sonst verliert man leicht Marktanteile. Das ist einer der Gründe, warum man von der Applikationsorientierung zu SOA-basierten Geschäftsprozessen geht. Tritt ein Ereignis ein, so muss in einem ersten Schritt das Ereignis erkannt und identifiziert werden. In einem zweiten Schritt sollte ein Alarm ausgelöst werden. Das bedeutet eine automatische Versendung einer Nachricht an die Verantwortlichen, die die Aufgabe der Prozesssteuerung BI trifft BPM / Wolfgang Martin März 2011 Seite 37

38 haben. Das kann entweder ein Mensch oder auch eine Maschine (System) sein. Das ist Aufgabe der schon genannten BAM-Werkzeuge. Bei operativen Ereignissen wird hier das Modell der Echtzeit wichtig: Die gesamte Information, die notwendig ist, um ein Ereignis zu verarbeiten, sollte im Augenblick des Eintreffens des Ereignisses zur Verfügung stehen, um auf Basis dieses Wissens die richtige Entscheidung zu treffen. Echtzeit ist hier wieder als Synchronisierung der Informationsbereitstellung mit der Geschwindigkeit des Prozesses zu verstehen. Wenn der Abstand zwischen Ereignis und Reaktion auf das Ereignis immer kleiner wird, wird man zur Automation der Reaktion gezwungen sein. Solche Reaktionsautomaten sind beispielsweise die Vorschlagsmaschinen auf manchen Webseiten. Stand der heutigen Technologie sind Regelmaschinen zur Automatisierung von Entscheidungen (vgl. Kap. 5.1 und 7). Informationsverteilung (Broadcasting): Darunter versteht man Services, die personalisierte Botschaften per , Fax, Twitter, Pager, Mobil-Services oder auf sonstigem Weg auch an Millionen von Empfängern senden. Als Technologie haben hier RSS ( real simple syndication ) Feeds im Zuge der Ausbreitung von Web 2.0 Konzepten eine führende Rolle eingenommen. Durch Ausnahmesituationen und sich wiederholende Ablaufpläne als Auslöser können Ereignisse automatisch erstellt und an Prozesse und Menschen im Unternehmen oder an externe Gruppen übermittelt werden. Der Inhalt kann individuell auf den Empfänger zugeschnitten werden, womit eine Informationsüberfrachtung vermieden wird und die Sicherheitsanforderungen erfüllt werden. 4.2 Von Business Intelligence zu Performance Management und Analytik Im Zuge der Prozess-Orientierung der Unternehmen findet die Evolution von BI zu Performance Management und Analytik statt. Die fachlichen Elemente hierzu erfordern zusätzliche BI- Werkzeuge und Services, eine neue Architektur für den Einsatz von BI-Werkzeugen und Services in Performance Management und Analytik (Abb. 10) sowie ein neues Denken. Wir machen bei den BI-Werkzeugen und ihrer Nutzung den nächsten Schritt, von Business Intelligence zu Performance Management und Analytik. Die substanziellen Unterschiede zu BI sind: Performance Management und Analytik sind jetzt Prozess-getrieben, nicht mehr Datengetrieben. Analytik verbindet die Unternehmensstrategie mit Prozessen und mit Menschen gemäß ihrer Rolle in kollaborativen Teams: Nutzen und Wert von Information werden so für alle Mitarbeiter, ja sogar für Kunden, Partner und Lieferanten im Wertschöpfungsnetz eines Unternehmens erzielbar. Analytik zielt jetzt voll auf die Fachbereiche und deutlich weniger auf die IT. Analytik ist prädiktiv. Analytik ist vorwärts schauend. Es gilt Probleme zu identifizieren und zu lösen, bevor sie auftreten. Damit ist Analytik eine Voraussetzung für Risiko-Management. Es geht um Antworten auf unvorhergesehene Ereignisse, um neue Einsichten und über das Risiko- Management hinaus auch um das Aufspüren neuer Gelegenheiten. Eingebettete Analytik von Strategie zum Operativen. Eine SOA macht es möglich: In operative Prozesse eingebettete Analytik ermöglicht ein Synchronisieren von Informationsbereitstellung mit der Geschwindigkeit der Prozesse, so dass Entscheidungen und BI trifft BPM / Wolfgang Martin März 2011 Seite 38

39 Performance Management Business-Vokabular (Meta Daten) Wolfgang Martin Team Maßnahmen rechtzeitig getroffen werden können. Mittels eingebetteter Analytik werden Prozesse intelligent und ereignis-orientiert. Performance Management und Analytik brauchen ein Information Management. Traditionelle Business Intelligence forderte ein Data Warehouse als die einzige Quelle von zuverlässiger, qualitativ hoch stehender Information. Damit konnte Business Intelligence nicht im operativen Umfeld eingesetzt werden und operierte nur im isolierten Raum taktischer und strategischer Analysen. Die potenzielle Wertschöpfung durch Echtzeitanalysen wurde außen vorgelassen. Analytik in einer SOA hat parallelen Zugriff auf operative und dispositive Daten und Information. Dazu braucht man Informations-Services (Abb. 11), die von einer Datenintegrationsplattform (man sagt auch: Enterprise Service Data Bus) bereitgestellt werden. Per Mashing Up werden simultan Daten aus dem Data Warehouse und operativen Systemen als Informations-Services zusammengesetzt und bereitgestellt. In einer SOA wird das Data Warehouse jetzt zu einem Lieferanten von Backend-Services und liefert insbesondere historische Daten. Mehr zum Thema Information Management finden Sie in Kap. 6. PM und Analytik- Referenzarchitektur Geschäftsstrategie Metrisierte Ziele Prozesse & Metriken eingebettete Analytik analytische Services interaktive Analytik analytische Prozesse Kollaboration adaptiv dynamisch Datenintegrationsplattform S.A.R.L. Martin Abbildung 10: Referenzarchitektur für Performance Management und Analytik. Sie ermöglicht ein Vergleichen der Produktangebote der verschiedenen Anbieter. Herzstück ist die Kopplung der Modellierung von Prozessen, Metriken und Governance sowie die top-down Metrik-Implementierung mittels analytischer Services und bottom-up mittels interaktiver Analyse (Datenexploration). Die Basis für Performance Management ist eine Datenintegrationsplattform, die parallelen und simultanen Zugriff auf operative und dispositive Daten per Services im Rahmen einer SOA erlaubt. So wird das traditionelle Data Warehouse zu einer Komponente der Datenintegrationsplattform. Der single point of truth befindet sich heute im Business- Vokabular, nicht mehr im Data Warehouse (vgl. Kap. 6). BI trifft BPM / Wolfgang Martin März 2011 Seite 39

40 Interaktive Analytik analytische Prozesse und Kollaboration. Interaktive Analytik (auch Datenexploration genannt) ist ein ad hoc, dynamischer, einfach zu handhabender, analytischer, kollaborativer Prozess mit dem Ziel, neue Analytik wie Profile, prädiktive Modelle, Scores, Segmentierungen etc. zu entwickeln zum besseren Verstehen von Märkten, Kunden, Risiken etc. In diesem Sinne ist interaktive Analytik eine bottom-up Entwicklungsumgebung für Metriken und prädiktive Modelle. Typisches Beispiel für interaktive Analyse ist die Ableitung von prädiktiven Modellen, die man per Data Mining oder statistischen Verfahren aus den Daten heraus findet und dann mittels einer Regelmaschine zur Steuerung operativer Prozesse nutzt. Beispiel: Betrachten wir den Prozess der Kreditvergabe. Die Standardregeln, um eine Kundensituation auf Kreditwürdigkeit zu prüfen, lassen sich relativ leicht durch einen Finanzberater aufstellen. Mit Hilfe von Data Mining könnte man nun zusätzlich eine Segmentierung des Kundenbestandes ermitteln, die das Risiko des Kunden modelliert, den Kredit nicht zurückzahlen zu können. Eine Kombination von Expertenregeln und der generierten Segmentierung kann dann das Regelwerk zur Kreditvergabe im Workflow eines automatisierten Kreditvergabeprozesses darstellen, der dem Kunden in Selbstbedienung erlaubt, seinen eigenen Kreditantrag zu bearbeiten. Weitere typische Beispiele findet man im Cross-/Upselling und in der Kundenbestandssicherung. Wichtig ist, dass besondere analytische Kenntnisse oder Kenntnisse von analytischen Werkzeugen zur Anwendung der prädiktiven Modelle nicht notwendig sind. Hier gilt: Analytik wird so einsetzbar nicht nur für Tausende, sondern im Endeffekt für Millionen und mehr Informationskonsumenten. Analytik macht so den Schritt zu intelligenten Prozessen: Operative Prozesse werden mittels eingebetteter Analytik mit Intelligenz angereichert und auch kurzfristig überwacht und gesteuert (BAM). Die Einbettung geschieht per Service-Orientierung. Aus BI-Werkzeugen werden analytische Services. Diese analytischen Services werden genutzt, um die Komponenten von Performance Management im Rahmen einer SOA zu implementieren (vgl. Abb. 10). 4.3 Performance Management und Analytik in einer SOA Wir haben bereits das Konzept einer SOA kennengelernt. Abteilungs- und Unternehmensübergreifende Prozesse werden SOA-basiert als Composite Applications (oder: Business Mashups) siehe dazu Nußdorfer und Martin (2007) oder Martin (2008) implementiert, die die fachliche Logik komponieren und orchestrieren (vgl. Abb. 3). Diese fachliche Logik wird bereitgestellt als Services aus den existierenden Applikationen oder aus neuen Services, die entwickelt oder eingekauft werden müssen, um heute bestehenden Lücken in der Service- Landschaft zu schließen. Prinzipiell gibt es fünf Service-Modelle für Geschäftslogik (Abb. 11): Operative Services. Sie stellen transaktional-orientierte Geschäftslogik zur Verfügung, beispielsweise Anlegen neuer Kunden, neuer Produkte oder neuer Kundenauftrag. BI trifft BPM / Wolfgang Martin März 2011 Seite 40

41 Entwicklungs- Services IT Management- Services Wolfgang Martin Team Kollaborative Services. Dies sind Services, die menschliche Interaktionen und Mensch zu Mensch Kommunikation unterstützen, beispielsweise Aufsetzen eines Meetings, Suchfunktionen und Kommunikationsdienste wie eingebettete , Chats, SMS, Stimme etc. Web 2.0 Werkzeuge lassen sich ebenfalls so nutzen, da die in der Regel auch serviceorientiert sind. Rule-Services. Mittels Regeln beschreibt man Entscheidungslogik. Ein Prozess nutzt typischerweise mehrere Regeln, während eine Regel in verschiedenen Prozessen genutzt werden kann. Daher muss man Prozesslogik und Entscheidungslogik strikt voneinander trennen und fasst in einer SOA Regeln als Services auf, die von der Prozessmaschine orchestriert werden. So erhält man Rule-Services als eine Kategorie von Services. Ein Rule- Service kann auch als Kapselung komplexer Regeln verstanden werden. Mit anderen Worten, ein Rule-Service kann einen anderen Rule-Service als Untermodell aufrufen. Service-Modelle einer SOA Portal Kollaborativer Geschäftsprozess Informations- Services Analytische Services Rule- Services Operative Services Kollaborative Services Data Integration Plattform Repository Enterprise Service & Service Data Bus Drittanbieter- Services (SaaS) Applikations- Services Zugriffs- Services Infrastruktur-Services Web- Daten Externe Daten Data Warehouse Unstrukturierte Daten Operationale Daten S.A.R.L. Martin Abbildung 11: Geschäftsprozesse orchestrieren und choreographieren Services gemäß dem SOA-Modell. Die grundlegende Idee der Service-Orientierung ist die Trennung von Prozess-Logik und Geschäfts- und Entscheidungslogik. Es gibt fünf Service-Modelle von fachlichen Services: Informations- und Daten-Services, analytische Services, Rule-Services, operative Services und kollaborative (Web 2.0) Services: Die fachlichen Services setzen sich aus technischen Services zusammen, die von Drittanbietern (beispielsweise aus der Wolke als SaaS Software as a Service), aus den existierenden Applikationen und unterschiedlichen Datenquellen stammen können. Darüberhinaus braucht man Entwicklungs-Services, um neue Services zu bauen, und IT-Management-Services, um Administration, Ausführung und Sicherheit von Services zu managen. Der Enterprise Service Bus genauso wie der Enterprise Service Data Bus kann als intelligente Middleware zur Service- und Daten-Brokerage verstanden werden. Hierzu gehört auch ein Repository zur Service-Registrierung und zur Publikation aller verwendeten Services in Service-Katalogen. BI trifft BPM / Wolfgang Martin März 2011 Seite 41

42 Analytische Services. Diese Services stellen analytische Geschäftslogik zur Verfügung, beispielsweise einen Schwellenwert für Produktverfügbarkeit, ein prädiktives Modell für Kundenverhalten oder Kundenrisiko, einen Forecasting-Service für die Vertriebssteuerung etc. Informations- und Daten-Services. Solche Services liefern zusammengesetzte Information, die kombiniert werden kann aus strukturierten und unstrukturierten, operativen und analytischen, internen und externen Datenquellen wie beispielsweise Kundenadresse, Kundenwert, Liefertreue etc. Informations- und Daten-Services umfassen auch Meta- und Stammdaten-Services. In diesem White Paper beschränken wir uns auf die Diskussion von analytischen Services (Kap. 5.1) und Informations- und Daten-Services (Kap. 6). Vorher machen wir aber noch eine Bemerkung zu den Rule-Services. Mit Hilfe der so implementierten Entscheidungslogik lassen sich menschliche Entscheidungen automatisieren: Die Regelmaschine wird als Entscheidungsmaschine eingesetzt. Entscheidungsmaschinen sollten eine Planungskomponente enthalten, die eine gezielte Verfolgung von Ereignissen durch ein Aufsetzen von Nachfassaktionen erlaubt. Hier können ebenfalls regelbasiert die Maßnahmen definiert werden, die als Folge eines Ereignisses zu treffen sind, z. B. ein Anruf eines Kundenberaters aus dem Call Center 3 Tage nach dem Besuch einer Webseite mit einer positiven Response des Kunden. Entscheidungsmaschinen erlauben so beispielsweise intelligente Interaktionen mit Kunden, wobei Entscheidungsmaschinen in Echtzeit eine Reaktion auf ein durch den Kunden provoziertes Ereignis ermöglichen. Das findet besonders im Cross- / Upselling im Call Center und auf Webseiten Anwendung. 4.4 Renaissance von BI im Enterprise 2.0 Der Begriff Enterprise 2.0 wurde im Jahre 2006 von Andrew McAfee geprägt 7. McAfee hat auch eine kurze und griffige Definition geliefert: Definition Andrew McAfee: Enterprise 2.0 bezeichnet die Nutzung von Social-Software- Plattformen in einem Unternehmen oder zwischen Unternehmen und seinen Kunden und Partnern. Bei Enterprise 2.0 geht es um das Nutzen und Nutzenkonzepte von Web 2.0 Technologie im Unternehmen, nicht um die Web 2.0 Technologien allein. Enterprise 2.0 erfordert also zum Teil erhebliche Änderungen in der Unternehmenskultur, insbesondere in der Kommunikationskultur, denn die Nutzung von Social-Software-Plattformen bedeutet, dass sie gemeinschaftlich bearbeitet, gepflegt und genutzt werden und zwar als Ergänzung zu den existierenden organisatorischen und technischen Strukturen. Bevor wir das diskutieren, sollte man sich klar machen, was hinter dem Begriff Web 2.0 steckt. Web 2.0 Konzepte. Web 2.0 wird von vielen immer noch als soziale Initiative zur Nutzung des WWW gesehen: Jeder macht mit, ist gleichzeitig Konsument und Produzent. Doch die Web Siehe Enterprise 2.0 The Dawn of Emergent Collaboration BI trifft BPM / Wolfgang Martin März 2011 Seite 42

43 Konzepte gehen über die Kommunikation von Mensch zu Mensch im Sinne von YouTube oder Flickr weit hinaus. Schauen wir mal auf Web 2.0 mit anderen Augen. Der Begriff Web 2.0 geht zurück auf Tim O Reilly, der den Begriff mit anderen erfunden hat. Gehen wir von seinem fundamentalen Artikel What is Web von 2005 aus und denken weiter. Da kommen wir zu folgenden Thesen, die Enterprise 2.0 mit Business Intelligence zusammenbringen: Von Applikationen zu Services. Das heißt weg von monolithischen Applikationen, hin zu einer Service-Orientierung. Die Web 2.0 Idee ist, Services für Mash Ups jedem Konsumenten im Web verfügbar zu machen. Per Mash Ups wird der BI-Anwender und Informationskonsument zum Informationsproduzent und so gezielt und kontrolliert in das Managen des Lebenszyklus von analytischen Prozessen und Services eingebunden. Im BI- Umfeld gibt es heute dazu die sogenannten CPM-Toolkits (vgl. Kap. 9.1). Beispiel. Eine Datenanalyse bringt vielleicht als Ergebnis ein bestimmtes interessantes Datenmuster, aber eine Visualisierung der Daten zum besseren Verstehen und Interpretieren der Daten erfordert eine Anwendungsprogrammierung durch die IT. Das aber ist entweder gar nicht möglich, weil dazu in der IT die Ressourcen fehlen, oder es ist zu teuer, dauert zu lange oder vermutlich sogar beides. Aber, wenn man per Mashing Up als Informationskonsument selber die Daten in ein Kartierungssystem bringen kann, dann ist eine Visualisierung schnell, einfach und kostengünstig machbar. Das treibt dann die Analyse weiter. Volle Flexibilität heißt also das Prinzip. Das ist ja auch der Sinn und Zweck einer SOA, wie wir in Kapitel 2.3 gesehen haben. Das Web 2.0 Konzept ist also auch ein SOA Konzept: kollaborative Services werden mit analytischen Services verknüpfbar. Architektur zur Kollaboration. Auch dieses Web 2.0 Konzept überträgt sich voll auf eine SOA. Das Basiskonzept einer SOA, das per Servicelevel-Agreement (SLA) kontrollierte Bereitstellen und Konsumieren von Services, ist ein Kollaborationsmodell par excellence. Nutzung kollektiver Intelligenz. Hier geht es im Original bei Tim O Reilly erst einmal um den Open Source Gedanken. Aber wenn man etwas weiter denkt und das Web 2.0 Konzept Jeder macht mit auf die Zusammenarbeit IT und Business anwendet, dann werden Anwender zu Entwicklern. Ist das vorstellbar? Ja, das ist heute schon in ausgewählten Bereichen machbar. Business Intelligence hat hier eine gewisse Vorreiterrolle. Bereits in den 80/90iger Jahren sollten die Anwender ihre Reports und Analysen selber machen. Das war damals nicht unbedingt von Erfolg gekrönt, aber heute greift hier das Web 2.0 Konzept des Vertrauens in Anwender als Mitentwickler. Hier kann man auch wieder an die Prinzipien der Mash Ups denken, aber es geht auch um das Arbeiten in Teams, denn BI dient zwar dem Treffen besserer Entscheidungen, aber Entscheidungen werden meistens in Teams getroffen, man spricht ja auch von einem board room style of decision making. Hier entsteht die Chance zu einer völlig neuen Kollaboration zwischen IT und Business allerdings stecken wir hier noch in den ersten Anfängen, aber die eingeschlagene Richtung stimmt. 8 Siehe BI trifft BPM / Wolfgang Martin März 2011 Seite 43

44 Simple Schnittstellen und Modelle. Light Weight Programming sagt hier Tim O Reilly. Ein solches Keep it simple ist ein gutes Prinzip, wenn es um Design und Implementierung von Services in einer SOA geht. Simple Schnittstellen, sogar standardisiert, das sind beispielsweise Web Services, ein heute weitgehend praktizierter Weg bei SOA Implementierungen. Das macht im BI das Einbetten von Analytik in Geschäftsprozesse und damit das Anreichern von Prozessen durch Intelligence einfacher denn je. Medienübergreifende Software. Das passt auf eine SOA. Hier kommt alles zusammen. Jetzt wachsen per SOA die bisher so unterschiedlichen IT-Disziplinen wie Business Intelligence, Geschäftsprozess-Management, Document Management, Office etc. zusammen. Das ist gegenüber traditioneller BI ein entscheidendes Element, denn BI sollte nicht nur strukturierte Information auswerten, sondern besonders in der Kombination mit unstrukturierter Information können sich völlig neue Einsichten ergeben. Im Kapitel 5.3 zu Textanalytik kommen wir darauf zurück. Der Long Tail Effekt. Auch das Web 2.0 Konzept des Erreichens des "Long Tail" mittels Communities ist ein Prinzip, das sich in einer SOA wiederfindet, wenn man das Konzept von Software as a Service (SaaS) mit einer SOA verbindet. Dann kann man den Long Tail Effekt als die Business Opportunity sehen, solche Services in einem Geschäftsmodell erfolgreich zu nutzen, denn im WWW lassen sie sich besser finden. Genutzt wird das heute beispielsweise von Google und ebay. Aber bis das Einzug in die Unternehmens-IT findet, muss noch einiges in Sachen Sicherheit und Zuverlässigkeit getan werden. Die Web 2.0 Konzepte ermöglichen so eine neue Form der Kollaboration und der Kommunikation. Sie stellen in der Tat weitreichende kollaborative Services in einer SOA zur Verfügung (vgl. Abb. 11). Enterprise 2.0 und Business Intelligence. In Kapitel 2.2 (vgl. Abb. 2) hatten wir bereits ausgeführt: In einem Unternehmen brauchen wir Industrialisierung, Agilität und Compliance. Wir hatten auch schon auf die gegensätzlichen Stoßrichtungen von Industrialisierung und Agilität hingewiesen. Industrialisierung meint Automatisierung und Standardisierung, während Agilität insbesondere auch für Kreativität und Innovation steht. Die Konzepte einer Serviceorientierung im Sinne eines Kollaborationsmodells bringen diese beiden Gegensätze zusammen. Das hatten wir bereits technisch diskutiert. Mit dem Nutzen von Web 2.0 Konzepten als kollaborative Services kommt nun auch eine soziale, menschliche Komponente dazu. Fallbeispiel: Einführung einer Online-Zeitung als web-basiertes, intelligentes Reporting. (Quelle GmbH, Sieger BI Award 2008 der CeBIT 2008) Die Jury begründete ihre Entscheidung mit dem innovativen Vorgehen bei der Realisierung und den neuartigen Ansätzen des Wissensaustausches, wie sie aus dem Web 2.0 bekannt sind. Quelle hat mit der Integration von Bildern, Textelementen und klassischen Kennzahlen eine anwenderfreundliche und innovative Lösung geschaffen. Die Nutzung eines Wikis zur Definition von Kennzahlen und Wissenssammlung zur richtigen Interpretation von Berichten und Analysen sorgt für hohe Anwenderakzeptanz. Die Lösung von Quelle liefert nicht nur reine Zahlen, sondern macht Inhalte und Nutzen des Berichtswesens für jeden Anwender transparent. (aus: is report, ) BI trifft BPM / Wolfgang Martin März 2011 Seite 44

45 Das zeigt uns die Richtung, in der wir uns mit BI im Enterprise 2.0 bewegen müssen, um als Marktsieger zu bestehen. Wir hatten ja bereits in Kapitel 2.1 die BI-Mängelliste diskutiert. Diese alten, bekannten Probleme lassen sich in einem Enterprise 2.0 anders angehen und entsprechend der Enterprise 2.0 Prinzipien lösen: Alles hängt von den Mitarbeitern ab. Das Mitmachen der Mitarbeiter muss gefördert werden. Eine Moderation der Kommunikation ist sehr hilfreich wie das Fallbeispiel zu Quelle GmbH gezeigt hat. Mit konkreten Anreizen können Mitarbeiter dazu motiviert werden, sich aktiv am Aufbau und der Belebung der Anwendungen zu beteiligen. Das kann unter anderem durch Prämien für intensive Mitarbeit oder durch die Bewertung von Inhalten durch die Nutzer geschehen. Um die anfängliche Hemmschwelle bei den Nutzern aufzuweichen, können ganze Anwendungen in die Enterprise 2.0-Umgebung verlagert werden. Damit kommt die kritische Masse von Information und Teilnehmern, die für einen Erfolg nötig sind, zustande. Quelle GmbH hat das mit dem Reporting per Online-Zeitung erreicht. Starke Motivation für ein aktives Engagement ist vielfach die persönliche Reputation des Mitarbeiters. Anonyme Beiträge sollten nicht zugelassen werden. Das Management muss seinen Mitarbeitern Vertrauen entgegen bringen. Die Kontrolle der Gemeinschaft ist nicht zu unterschätzen. Das ist ein ganz wesentliches Web 2.0 Konzept. Mut zur Offenheit muss sein! Eine einfache, schnell verständliche und leicht lernbare Oberfläche ermöglicht es Mitarbeitern mit unterschiedlichem Wissensstand, sofort und ohne Umwege, am System teilzunehmen. Quelle GmbH hat das mit einer intuitiven Visualisierung geschafft. Fazit: Unternehmen sollten die Einbeziehung der Web 2.0 Konzepte in Betracht ziehen und auch eine Roadmap entwickeln, wie man ein Enterprise 2.0 bauen kann. Denn Enterprise 2.0 bietet die Chance Industrialisierung mit Innovation und Kreativität zu vereinen. Es bietet die Chance durch das Konzept des Jeder macht mit Wissenspotentiale im Unternehmen zu erschließen, die sich sonst nicht so einfach aktivieren lassen. Insbesondere kann eine Enterprise 2.0 Initiative eine Renaissance von BI bewirken, da sich so BI mit Wissensmanagement verbinden lässt und man dadurch die Benutzerakzeptanz deutlich steigern kann. BI trifft BPM / Wolfgang Martin März 2011 Seite 45

46 5 Analytik Basis für Performance Management 5.1 Analytische Services In einer SOA als Infrastruktur für Geschäftsprozess-Management wird eingebettete Analytik mittels analytischer Services implementiert. Analytische Services sind gekapselte, komponentenbasierte Module zur Publikation von analytischer Geschäftslogik, die per (Web) Services kommunizieren (Abb. 11 und Abb. 14). Dazu gehören analytische Inhalte wie beispielsweise anpass- und erweiterbare Templates für alle Arten von Metriken in einer Business Scorecard und analytische Werkzeuge. Wie bei den anderen Modellen von Services gehören dazu auch Entwicklungs-Services zum Managen des Lebenszyklus der Services Implementieren, Anpassen und Pflegen. So erweitert Analytik die traditionelle auf das Data Warehouse fixierte BI, indem BI per Metriken und prädiktiver Modelle in den Kontext von Strategie, Zielen, Prozessen, Menschen und Governance gestellt wird und per Services implementiert wird. Reporting- und Analyse-Services In einer SOA wird die Funktionalität der traditionellen BI- Werkzeuge für Reporting (interaktives, Produktions- und finanzorientiertes Reporting) und Analyse (Adhoc-Abfragen, OLAP, Datenvisualisierung, Data Mining, Statistik, Text Mining und Textanalytik) mittels Komponenten implementiert, die analytische Services bereitstellen, die in jeden Geschäftsprozess eingebettet werden können. In einer SOA können analytische Services Informations- und Datenservices zur Datenversorgung nutzen, so dass zusammengesetzte Daten aus operativen und dispositiven Systemen verfügbar werden. Analytik kann jetzt in Echtzeit eingesetzt werden, wann immer es geschäftsrelevant ist. Planung und Simulation Die Planung ist ein typischer abteilungsübergreifender Prozess, der am besten als SOA-basierter Prozess implementiert wird. Die Planungsfunktionalität wird somit über Planungs- und Simulationsservices implementiert, die volle Flexibilität und Anpassungsfähigkeit an sich ändernde Geschäftsszenarien bieten. Der Vorteil einer Implementierung der Planung im Rahmen einer SOA liegt auf der Hand: Der Planungsprozess kann aus allen möglichen analytischen oder sonstigen Services zusammengesetzt werden. Hierbei werden Redundanzen in der analytischen Funktionalität vermieden, die durch Planungsanwendungen in einer herkömmlichen Data-Warehouse-/Business-Intelligence- Architektur typischerweise entstehen. So fördert man eine rigorose und revisionssichere Planung durch einen kontrollierten SOA-basierten Prozess statt Planungsprozesse von Hand und auf der Basis von Tabellenkalkulationen durchzuführen. (Abb. 12) Dashboard-Services Eine Instrumententafel (Abb. 13) visualisiert große Mengen von Information aus unterschiedlichen Datenquellen in verdichteter Form. Der Grad der Verdichtung und die Visualisierungsform sind ziel- und adressatenabhängig. Sie kann auch zur Implementierung eines Scorecard-Modells genutzt werden. Ein Dashboard wird typischerweise in ein Portal als Portlet eingebettet (vgl. Kap. 3.2). Herzstück eines Dashboards ist das Informationsprofil, i. e. das Profil des Informationskonsumenten (Mitarbeiter, Kunde, Lieferant, Partner etc.) das beschreibt, an welcher Information und Wissen, an welchen Funktionen und BI trifft BPM / Wolfgang Martin März 2011 Seite 46

47 Prozessen er partizipieren sollte, um seiner funktionalen Rolle im Rahmen der Governance gerecht zu werden. Das Informationsprofil beschreibt so die Personalisierung von Dashboards, damit jeder Verantwortliche genau die richtige Information gemäß dem Prozessträgermodell bekommt. Zu einem Dashboard sollte auch eine Benachrichtigungsfunktion gehören, so dass in bestimmten Situationen (Eskalation, Ereignis / Alarm) auf wichtige Information automatisiert hingewiesen wird. Das führt zu einer aktiven Instrumententafel: nur solche Fälle, die Entscheidungen und menschliches Eingreifen verlangen, werden angezeigt und den Entscheidungsträgern durch message-basierte publish-and-subscribe Kommunikationsmethoden mitgeteilt. So kann ein Management by Exception aufgebaut werden. Abbildung 12: Planung und Simulation mit Cubeware Cockpit V6pro: Die Lösung bildet unterschiedlichste Planstände ab und unterstützt verschiedene Planungsfunktionalitäten wie Top down, Bottom up, Gegenstromverfahren und Simulation. Die Plandaten werden dezentral erfasst, zentral und strukturiert abgelegt und können periodisiert, zusammen mit Ist-Daten sowie in Form von Soll-Ist-Analysen, Zeitreihenanalysen, Forecasting-Analysen oder»was-wäre-wenn«-szenarien ausgewertet werden. BI trifft BPM / Wolfgang Martin März 2011 Seite 47

48 13 Abbildung 13: Beispiel für ein Dashboard realisiert mit Cubeware Cockpit V6pro: Das Dashboard liefert einen schnellen Überblick über die Hauptkennzahlen des Unternehmens und wie sich verschiedene strategische Bereiche aktuell entwickeln. Hier kommen verschiedenste Layout-Komponenten zum Einsatz. Ihre Platzierung geschieht per Drag & Drop an der Oberfläche. Jede Dashboard-Komponente basiert auf DataViews unterschiedlicher Würfel. Ein Drill-Through und Adhoc-Abfragen nach weiteren Details zu den vom Dashboard angezeigte Information ist jederzeit machbar. Die Erstellung und Anpassung von Dashboards ist hoch ergonomisch und kann fast ausschließlich vom Nutzer selbstständig vorgenommen werden. Eine flexible Weiterentwicklung der Berichtsmöglichkeiten von Instrumententafeln sind die sogenannten Briefing Books. Ein Briefing Book besteht aus Kapiteln, die alle analytischen Services entsprechend dem Profil des Informationskonsumenten den Kapiteln zuordnen und so strukturieren. Es bietet daher eine komplette strukturierte Umgebung, die die gesamte Information zum Überwachen und Steuern gemäß dem Governance-Modell in intuitiver Form interaktiv und visuell bereitstellt (Abb. 14). Information Management Während traditionelle BI Werkzeuge auf einer Data Warehouse Architektur aufsetzten, ist wie bereits erwähnt eine Datenintegrationsplattform die Basis für Performance Management und Analytik. Eine Datenintegrationsplattform verbindet auf der technischen Ebene Performance Management und Analytik mittels eines Enterprise Service Data Bus mit operativen Datenbanken auch in Echtzeit und dem Data Warehouse, das jetzt nur noch BI trifft BPM / Wolfgang Martin März 2011 Seite 48

49 Backend-Dienste für analytische Services zur Verfügung stellt (vgl. Abb. 3 und 11). Datenintegration stellt Informations-Services zur Verfügung, um Daten, aber auch Meta- und Stammdaten zu analysieren, Datenmodelle abzuleiten, Daten und Metadaten aufzubereiten und zu profilieren, sowie ETL- (extraction, transformation, load) Dienste. Mehr zu Information Management Echtzeit-Konzepten finden Sie im Kapitel 6 und 7. Abbildung 14: Beispiel für ein Briefing Book realisiert mit Actuate. Eine intuitive Nutzung wird durch die Nachbildung eines Buches unterstützt. Links sieht man die definierten Kapitel, die sich über Reiter aufschlagen lassen. Jedes Kapitel hat hier noch Unterkapitel, dargestellt durch die Reiter rechts oben. Dazu kommt noch eine Blätterfunktion zum Umschlagen der Seiten. Interaktive Analytik Eingebettete Analytik wird ergänzt um interaktive Analytik (Datenexplorationsumgebung). Metriken werden nicht nur top-down aus Strategie, Zielen und Prozessen abgeleitet, sondern können auch aus Daten bottom-up abgeleitet und entwickelt werden. Dazu dient die interaktive Analytik. Hier wurden bisher zumeist traditionelle BI-Werkzeuge eingesetzt (Adhoc-Abfragewerkzeuge, OLAP, statistische Werkzeuge, Data und Text Mining, Textanalytik. etc.), die jetzt aber auf der Datenintegrationsplattform arbeiten. Weite Verbreitung hat vor allem die interaktive Analyse per OLAP gefunden. BI trifft BPM / Wolfgang Martin März 2011 Seite 49

50 OLAP (online analytical processing) ist eine Methode innerhalb der Analytik, die schnelle und interaktive Zugriffe auf relevante Information ermöglicht. Es bietet insbesondere komplexe Analysefunktionen, die sich durch Multidimensionalität auszeichnen. Das bedeutet die Anordnung der verschiedenen Metriken (Kennzahlen) entlang unterschiedlicher Dimensionen, beispielsweise Umsatz in Bezug auf Kunde, Produkt, Region, Berichtsperiode etc. Zu weiteren Details zu OLAP verweisen wir auf Nigel Pendse s Webseite What is OLAP 9. Data und Text Mining sowie Textanalytik behandeln wir in den Kapiteln 5.3, beziehungsweise 5.4. Inzwischen gibt es zusätzlich eine neue zu den mathematischen und statistischen Werkzeugen komplementäre Generation von Werkzeugen, die jetzt stärker Visualisierungstechniken einsetzen. Man spricht von interaktiver visueller Analytik. Interaktive Visualisierung unterstützt mittels Intuition das menschliche Auge und macht es zum Detektor von Strukturen. So werden die Stärken des menschlichen Auges kombiniert mit Visualisierungs-Services, die unterschiedliche Aspekte von Daten und Information gleichzeitig darstellen, Drill down per Mausklick und dynamischen Adhoc-Abfragen, statistischen Methoden und Techniken, konfigurierbarem und dynamischem Zugriff auf alle relevanten Datenquellen ( Mashing Up ). Interaktive Visualisierung besticht im wahrsten Sinne des Wortes durch die Interaktivität und Visualisierung. Das garantiert eine hohe Akzeptanz in den Fachbereichen. Aber man muss sich interaktive Visualisierung ansehen und erleben: Das lässt sich nicht alles in Worten beschreiben: Eine Demonstration von Visualisierungswerkzeugen ist unumgänglich. Werkzeuge zur interaktiven Analytik werden innerhalb interdisziplinärer Teams gemeinsam genutzt: Ein Werkzeug- und Methoden-Spezialist und ein Mitarbeiter aus dem Fachbereich arbeiten gemeinsam mit dem Werkzeug, wobei zwecks Datenbeschaffung noch ein Mitarbeiter der IT dazukommt, der die im Unternehmen vorhandenen Daten und möglichen Datenquellen kennt und identifizieren kann, sowie externe Daten ausfindig machen kann, um die internen Daten entsprechend anzureichern. Mit anderen Worten: Interaktive Analytik ist immer noch eine Spezialaufgabe, die Spezialisten mit Spezialwerkzeugen vorbehalten ist. Die neueren Werkzeuge machen hier den nächsten Schritt und haben kollaborative Werkzeuge hinzugefügt, so dass eine deutlich bessere Teamunterstützung möglich ist. So können Spezialisten und gelegentliche Anwender recht gut miteinander arbeiten. Echtzeit-Analytik Interaktive Analytik ist typischerweise ein von Menschen getriebener Prozess. Wenn die zu analysierenden Datenvolumen groß sind (z.b. im Bereich mehrerer Terabytes), dann ist nicht der Mensch der Engpass in einem solchen Prozess, sondern die Datenexplorationswerkzeuge. Hier versucht man mit Echtzeit-Analytik Abhilfe zu schaffen. Es gibt prinzipiell drei Möglichkeiten, die Analytik in Echtzeit arbeiten zu lassen, wobei diese auf unterschiedliche Weise miteinander kombiniert werden können. Entsprechende Anbieter werden im Kapitel 9.2 aufgelistet. 9 siehe BI trifft BPM / Wolfgang Martin März 2011 Seite 50

51 Spezielle Datenbanktechnologien: Man setzt spezielle Datenbanktechnologie wie Komprimierung, Indexierung, Vektorverarbeitung, speicherbasiertes Caching usw. ein, um die Performance von Adhoc-Abfragen und anderen Business Intelligence Komponenten bzw. - Werkzeugen drastisch zu verbessern. So wird der Explorationsprozess durch schnellere Antwortzeiten (von Stunden auf Minuten und Sekunden) deutlich beschleunigt. In-Memory -Datenbanken: Man nutzt In-Memory -Datenbanken, eine der neueren Entwicklungen auf dem Gebiet der Datenbanktechnologie. Hierbei wird die gesamte Datenbank im Speicher verarbeitet, wodurch eine bessere Leistung erzielt werden kann als dies mit den spezialisierten Datenbanktechnologien, bei denen Daten noch immer physikalisch gespeichert werden, möglich ist. Hier wird auch besonders der 64 bit Adressraum genutzt. Dabei benutzen In-Memory-Datenbanken auch die oben beschriebenen speziellen Verfahren zusätzlich. Spezielle Algorithmen: Man nutzt zum Lesen und Verarbeiten von Daten spezielle Algorithmen, die die Beschränkungen von herkömmlichen SQL- und OLAP-Technologien überwinden. Viele Anbieter kombinieren diese Features mit den oben genannten speziellen Datenbanktechnologien. 5.2 Web-Analyse Web-Analyse meint die Anwendung von Performance Management und Analytik auf das Nutzen von und Verhalten auf Webseiten durch die Besucher ( Internauten ). Hier geht es um Fragen wie: Wie viele Besucher habe ich in welchem Zeitraum, Welche Bereiche werden wie oft aufgesucht und in welcher Reihenfolge, Woher kommen und wohin gehen die Besucher etc. Das Ziel ist klar: Die Webseite soll optimiert werden, und es soll sichergestellt werden, dass die Ziele der Webseite wie Steigerung der Besuche und der Verweildauer, Steigerung von Downloads, Newsletter-Abonnements und Bestellungen gemessen werden und Maßnahmen rechtzeitig eingeleitet werden können, um solche Zielerreichungen auch sicher zu stellen ganz im Sinne von Performance Management. Insofern ist Web-Analyse ein wichtiges Instrument zur Investitionssicherung. Die Kontrolle des Besucherverhaltens kann in Verbindung mit der Weiterentwicklung der eigenen Strategie im Internet den Webauftritt und dessen Effizienz zielgerichtet deutlich verbessern. Daher findet man in der Literatur auch den synonymen Begriff Web-Controlling. Bei der Web-Analyse wird zwischen zwei Verfahren unterschieden: Das Management der Performance der Homepage zur kontinuierlichen Messung und Überwachung der Effektivität einer Homepage und verschiedene Analysemethoden zur Identifikation von möglichen Schwächen auf der Seite, um Gegenmaßnahmen im Sinne einer Optimierung der Homepage einleiten zu können. Web-Analyse gliedert sich also wieder in ein Performance Management und die Analytik. Beim Performance Management geht es jetzt wieder um die Definition der richtigen Metriken, die dann in Berichten oder Scorecards dargestellt werden. Typisch sind hier Verlauf des Umsatzes BI trifft BPM / Wolfgang Martin März 2011 Seite 51

52 über das Jahr, die Anzahl der Besucher der Homepage, die Anzahl der Besucher, die etwas in den Warenkorb legen, die Anzahl der Besucher, die den Kaufprozess abschließen, der durchschnittliche Warenkorbwert, die Kosten pro Kampagne, die Wirksamkeit einzelner Werbemittel wie Banner oder Newsletter etc. Bei der Analytik setzt man verschiedene Szenarien ein. Pfad-Analysen dienen dem Entdecken von besonders beliebten und unbeliebten Abschnitten auf einer Homepage. Segmentierungen unterstützen das Identifizieren und Klassifizieren von Besuchergruppen (beispielsweise Besucher von Suchmaschine X im Vergleich zu Besuchern von Suchmaschine Y). Konversionspfade helfen bei der Messung und Optimierung von definierten, wichtigen Seitenabfolgen in der Homepage. Start- oder Landing Pages werden durch Testen von Änderungen und ihren Auswirkungen auf das Click- und Konversionsverhalten iterativ optimiert. Ähnlich geht man bei der Suchmaschinen- Optimierung vor: Ein höheres Ranking der eigenen Homepage bei den gängigen Suchmaschinen sollte sich in einer Steigerung der Anzahl der Besucher messen lassen. Typischerweise werden für Web-Analyse entweder die Logdateien der Webserver ausgewertet oder bestimmte Tags in der Homepage zur Datengewinnung genutzt. Neben diesen beiden Verfahren existieren noch weitere wie die Web-Server Plug-Ins oder Netzwerk Sniffer. Um einen einzelnen Seitenaufruf einer Sitzung und eine Sitzung einem eventuell wiederkehrenden Besucher zuordnen zu können, werden in der Regel Cookies eingesetzt, die aber von vielen Besuchern sehr kritisch gesehen werden. Hier bewegt man sich auf einem sehr schmalen Grad zwischen der Anonymität und dem Schutz der Persönlichkeit der Besucher und dem Interesse des Homepage- Betreibers, seine Kunden im Sinne von Kundenorientierung zu kennen und das Wissen über seine Kunden in seinem Sinne einzusetzen. Heute ist in der Rechtsprechung noch offen, ob IP-Adressen als personenbezogene Daten angesehen werden. Daher sollte bei allen Fragen der Web-Analyse der Datenschutzbeauftragte immer gehört werden. Eine Auswahl der gängigen Web-Analyse-Werkzeuge befindet sich im Kapitel 9.2. Fazit: Eine Web-Analyse ist im Endeffekt ein wichtiges Element von Kundenorientierung. Es ermöglicht Kundenwünsche besser zu verstehen, das Marketing zu optimieren, die Umsätze zu steigern und Betrugsfälle (Klickbetrug, Affiliate Hopping) zu vermeiden. Aber Achtung: Die Nutzung dieser Daten unterliegt den Datenschutzbestimmungen, wobei heute offen ist, inwieweit die Daten auch als personenbezogene Daten zu verstehen sind. Eine Klärung ist aber hier bald zu erwarten. 5.3 Trends im Data Mining Definition: Data Mining ist definiert als ein Prozess zur Identifizierung und/oder Extraktion vorher unbekannter, nicht-trivialer, unerwarteter und wichtiger Information aus großen bis sehr großen Mengen von (strukturierten) Daten. Data Mining wird als die eigentlich wirklich intelligente Methode und Technologie der Analytik angesehen. Es ist ein Bottom-Up -Ansatz zum Entdecken von Mustern, Strukturen und Zusammenhängen, um Hypothesen zu bilden. Data Mining hat seit Mitte der 90er Jahre einen BI trifft BPM / Wolfgang Martin März 2011 Seite 52

53 Datenintegration Wolfgang Martin Team festen Platz unter den Instrumenten der Kundenansprache gefunden. Data Mining spielt aber nicht nur im CRM eine Rolle, sondern hat heute einen festen Platz in vielen Bereichen eines Unternehmens wie in Produktions-Überwachung und Steuerung, Risiko-Management, Missbrauchsentdeckung, Geldwäsche etc. Eine Vorläufer-Funktion hatten statistische Werkzeuge, die aber auch heute immer noch Anwendung finden und den Einsatz von Data Mining in der Regel vorbereiten oder ergänzen. Data Mining auf unstrukturierten Daten wird als Text Mining bezeichnet. Die folgenden Ausführungen zum Data Mining übertragen sich entsprechend auf Text Mining. Der Data Mining-Prozeß Datenexploration operative Systeme VSAM SAP Oracle DB2 DW Dynamische Data Marts Modellbildung Mikrogeographische Daten Echtzeit PMML Web Services 15 Demo- und soziographische Daten Web-Daten Modellnutzung Modell- Management Menschen und/oder Prozesse 2010 S.A.R.L. Martin Abbildung 15: Am Data Mining-Prozess lassen sich gut die heutigen Herausforderungen an Data Mining ablesen. Links: Die Datenbereitstellung sollte per Datenintegrationsplattform erfolgen. Das (sehr) große Datenvolumen erfordert eine hohe Performanz und Skalierbarkeit der Algorithmen sowie die Handhabung von bis zu tausenden von Variablen. Rechts: Modellbildung und Modellnutzung wurden ursprünglich getrennt, wachsen aber jetzt unter Echtzeitanforderungen zusammen und werden zum Closed Loop, der durch Performance Management gesteuert werden sollte. Die Modellnutzung erfolgt in der Regel durch Einbettung in operative SOA-basierte Prozesse. Modelle arbeiten zudem wirkungsvoller, wenn sie auf die Problemstellung granular eingestellt werden können. Das erfordert die Erstellung von bis zu hunderten von Modellen in wenigen Tagen. Die Menge an Modellen macht ein Modell-Management wichtiger denn je. Zum Data Mining gehört eine Methodologie, die den iterativen, von der Fachabteilung getriebenen Data Mining-Prozess beschreibt plus der Werkzeuge, die den Prozess unterstützen. (Abb. 15) Die erste Phase des Data Mining-Prozesses ist die Datenbereitstellung. Ohne Daten kein Data Mining, das klingt trivial, aber: 60 bis 80 % aller Aufwendungen im Data Mining stecken in der Verfügbarkeit, Erreichbarkeit und der Qualität der Daten fürs Data Mining (siehe dazu auch Kap. 6). Die Automatisierung der Datenbereitstellung ist immer noch eine der großen BI trifft BPM / Wolfgang Martin März 2011 Seite 53

54 Herausforderungen im Data Mining. Das liegt zum Teil auch an der Explosion der Datenvolumen. Beispielsweise hatte 2007 Yahoo! Im Durchschnitt 425 Millionen Besucher im Monat, die pro Tag 10 TB Daten produzierten. Das sind natürlich nicht alles strukturierte Daten, aber ein Mining sollte sich nicht auf die Exploration strukturierter Daten beschränken. Wesentliche Information lässt sich per Text Mining und Textanalytik (vgl. Kap. 5.4) aus unstrukturierten Daten gewinnen, aus Textdokumenten oder aus den Nutzungsdaten von Kunden im Web oder in sozialen Netzen (Web 2.0). Im Supply Chain-Bereich explodieren die Datenvolumen besonders aufgrund von RFID- Technologien zur Verfolgung und Registrierung. Die Anforderungen an Data Mining-Algorithmen sind also hohe Performanz, da sehr große Datenmengen zu bewältigen sind, und Verarbeiten von auch Tausenden und mehr Variablen aufgrund der Datenvielfalt. Die zweite Phase beschreibt die Auswahl der Methoden, Techniken und Werkzeuge. Data Mining kennt verschiedene Methoden zur Lösung betriebswirtschaftlicher Aufgaben: Klassifikation: Mit dieser Methode versucht man ein neues Objekt in vorgegebene Klassen einzuordnen. Einem Datensatz wird also als neues Attribut die Klassenzugehörigkeit zugeordnet. Typische Beispiele sind die Klassifizierung von Kreditanträgen in Risikoklassen oder die Zuordnung von Kunden in Kundensegmente. Schätzung: Klassifikation behandelt diskretes Auskommen, im Prinzip ein ja oder nein. Schätzung behandelt dagegen kontinuierliches Auskommen. Die Aufgabe ist, auf Basis von Eingangsparametern eine Ausgangsgröße schätzen. Typisches Beispiel ist ein Scoring mit dem die Wahrscheinlichkeit ausgedrückt wird, dass ein Kunde auf ein Angebot mit Kauf reagieren wird oder ein Abonnement kündigen wird. Vorhersage: Hier werden Modelle abgeleitet, die die Datenstrukturen sequentiell beschreiben, um zeitliche Vorhersagen zu machen. Beispiel hierzu sind Zeitreihenmodelle im Finanzwesen wie Vorhersage von Börsenkursen etc. Hier geht es auch um das Aufdecken zeitlicher Abfolgen als Grundmuster im Kaufverhalten. Typisches Beispiel aus dem Handelsbereich ist das Aufdecken von Folgekäufen. Assoziationsanalyse: Mit dieser Methode werden Beziehungen zwischen unterschiedlichen Elementen einer Kategorie ermittelt. Typisches Beispiel sind Warenkorbanalysen im Handelsbereich, wobei statistische Zusammenhänge zwischen Produkten aufgedeckt werden. Das erlaubt beispielsweise die Identifizierung von Ko-Produkten für Cross-Selling-Ansätze. Clustering/Mustererkennung: Diese Methode dient der Zusammenfassung von Objekten zu disjunkten Klassen auf Basis von Ähnlichkeitsmassen. Beispiel hierzu ist die Ableitung eines Tarif/Preissystems durch Analyse des kundenspezifischen Verkehrsverhaltens im Telefon-Netz oder durch Analyse des Schadensverhaltens in der Kraftfahrzeugversicherung. Beschreibende Modelle: Hier sollen Zusammenhänge zwischen den Variablen aufgedeckt und beschrieben werden. Das ermöglicht auch, Erklärungen für bestimmte Verhaltensweisen zu finden. BI trifft BPM / Wolfgang Martin März 2011 Seite 54

55 Abbildung 16. Moderne Werkzeuge für Datenanalysen und Data Mining wie hier die Auto-Cluster-Funktion des SPSS PASW Modeler 13 erlauben es, datenbasierte Entscheidungsmodelle mit unterschiedlichen statistischen Verfahren zu berechnen und deren prognostische Fähigkeiten miteinander zu vergleichen. Hat man sich für ein geeignetes Modell oder Modellensemble entschieden, wenden diese Werkzeuge die Regeln automatisch an. Klassifikation, Schätzung und Vorhersage gehören zum zielgerichteten Data Mining. Die Aufgabe ist, ein Modell zu bilden, das aus den Eingangsvariablen Ausgangsvariablen bestimmt. Assoziationsanalyse, Clustering und beschreibende Modelle dagegen gehören zum nicht zielgerichteten Data Mining. Hier gibt es um die Ableitung von Beziehungen zwischen den Variablen. Data Mining-Werkzeuge unterstützen diese Methoden durch verschiedene Techniken. Das sind zum einen mathematisch-statistische Verfahren, wie General Linear Analysis, Diskriminanz- Analyse, Regressionsanalyse, Korrelationsanalyse etc., und zum anderen Verfahren, die aus der informationstheoretischen Kybernetik stammen wie neuronale Netze, Entscheidungsbäume, Induktionsregeln, Self-Organizing Maps (SOM), Support-Vektor-Verfahren, Fuzzy-Logik und wissensbasierende Systeme. Wichtig sind Visualisierungsverfahren zur Unterstützung, denn bei aller Mathematik, Statistik und Informationstheorie ist das menschliche Auge ein gleichwertiger Detektor, wenn man Strukturen adäquat darstellen kann. Die Frage ist nun, mit welcher Data Mining-Technik man welche Methode unterstützt. Hier gibt es aber keine Eins-zu-eins-Zuordnung. Natürlich gibt es gewisse auf Erfahrung beruhende Regeln, die hilfreich sind, die richtige Data Mining-Technik als Lösungsmethode zu wählen, aber diese Regeln sind als heuristisch zu verstehen. Zur Problemlösung zieht man in der Regel verschiedene BI trifft BPM / Wolfgang Martin März 2011 Seite 55

56 Techniken heran, um die Ergebnisse mittels Assessment miteinander vergleichen zu können (Abb. 16). Abbildung 17: Modellierung der Data Mining Prozesse, hier als Beispiel die Visualisierung des Teilprozesses create data mart bei Viscovery. Die dritte Phase beschreibt die Entwicklung des Data Mining-Modells und die Interpretation der Ergebnisse. Trotz deutlicher Fortschritte bei den Data Mining Werkzeugen bleibt hier eine Beratung und ein Einsatz von Spezialisten vielfach erforderlich. Insofern ist diese Phase iterativ: Der Data Mining-Experte leitet das Modell ab und verfeinert es in enger Rückkopplung mit dem das Projekt führenden Fachbereich. Die Verantwortung des Fachbereiches ist die Interpretation der Ergebnisse und das Prüfen auf fachrelevante Verwendbarkeit und Einsetzbarkeit. Die Data Mining-Vorgehensweise sollte als Methodologie dokumentiert sein, visuell unterstützt sein (Abb. 17) und der resultierende Data Mining-Prozess sollte am besten ein SOA-basierter Prozess sein. Bisher dauerte die Modellbildung mehrere Tage bis zu Wochen. Dadurch war man in der Anzahl der einsetzbaren Modelle beschränkt. Konsequenterweise wurden dann Aufgabenstellungen zu Gruppen zusammengefasst und alle Gruppenelemente mit einem Data Mining-Modell bearbeitet. BI trifft BPM / Wolfgang Martin März 2011 Seite 56

57 Besser ist es natürlich, wenn man Modelle schneller erzeugen kann, so dass jedes Modell feiner gemacht werden kann. Beispiel: Ein Clustering-Modell für eine Kundensegmentierung erstellt für ganz Deutschland ist zwar gut, wenn wir aber ein Modell pro Bundesland oder pro Regierungsbezirk erstellen können, dann haben wir in der Regel ein feineres Modell, da es die regionalen Unterschiede in der Demographie besser herausarbeitet und so nachweislich bessere Ergebnisse liefert. Das bedeutet jetzt, dass wir in der Lage sein müssen, eine große Zahl von Modellen in der gleichen Zeit zu erstellen. Wenn wir jetzt noch die zeitliche Dimension des Modells betrachten, vergrößert sich die Anzahl der zu entwickelten Modelle nochmals. Modelle ändern sich nämlich in der Regel über die Zeit. Ein Modell zu Ostern kann ganz anders aussehen als eins zu Weihnachten oder in der Ferienzeit oder wenn ein Mitbewerber eine Kampagne fährt. Die Anforderung ist also, in einem vorgegeben Zeitfenster (1 bis 2 Tage) viele (hunderte und mehr) Modelle zu erstellen. Die große Zahl von Modellen gilt es jetzt zu managen. Ein Data Mining-Modell-Management war zwar schon immer erforderlich, aber bei den großen Zahlen von Modellen, die heute zum Einsatz kommen, ist das Modell-Management wichtiger denn je. Die vierte Phase beschreibt den Einsatz des prädiktiven Modells in einem operativen Prozess. Bisher waren der Data Mining-Modellierungsprozess und der Einsatz des abgeleiteten prädiktiven Modells strikt voneinander getrennt. Die Einbettung des prädiktiven Modells geschieht heutzutage per (Web) Service in den entsprechenden SOA-basierten Prozess. Wenn die Modellierung aber immer noch off-line erfolgt, haben wir mitunter ein Problem: Man weiß nicht, ob nach einiger Zeit das im operativen Prozess eingesetzte prädiktive Modell noch gültig ist, wie wir im Beispiel oben schon beschrieben haben. Es genügt also nicht, die prädiktiven Modelle einmal oder regelmäßig abzuleiten, sondern man muss auch sicherstellen, dass das prädiktive Modell selbst dynamisch den Kontext des Prozesses abbildet: Es muss à jour sein. Dazu setzt man ein Modellmanagement ein, das den Prozess der Modellbildung mit dem operativen Prozess, der das Modell nutzt, per closed-loop zusammenschließt. Hier sind robuste oder adaptive Algorithmen hilfreich. Robuste Algorithmen sind in der Lage, die Präzision der Prädiktion bei jeder Interaktion zu messen. So kann man entdecken, wenn eine Modelländerung oder Anpassung notwendig wird. Damit kann man einen (semi-)automatisierten Prozess aufbauen, der das Remodellieren des prädiktiven Modells automatisch triggert, also beispielsweise eine Benachrichtigung an den Data Mining-Spezialisten sendet. Adaptive prädiktive Modelle sind selbst lernend und liefern im Kontext des Prozessdatenmodells immer aktuelle Prognosen. Mit diesen automatisierten und dynamischen Data Mining-Lösungen lassen sich Prognosen über beliebige Aspekte von Kunden erstellen, zum Beispiel über die Churngefahr, den Kundenwert oder auch die Umsatzerwartung. Solche Lösungen sind auch zur dynamischen Cross- und Up-Selling-Prognose in Prozessen mit sehr kurzen Reaktionszeiten einsetzbar, wie etwa im Telefonmarketing oder auch im E-Commerce. BI trifft BPM / Wolfgang Martin März 2011 Seite 57

58 Positive Erfahrungen mit dynamischem Data Mining hat bereits der Versandhändler Quelle GmbH zur Optimierung seiner Telephonmarketing-Aktionen gemacht. Schließlich muss der Data Mining-Prozess wie jeder andere Prozess auch ein Performanz- Management haben. Es gilt also im Prozess die Messstellen zu definieren, die Metriken zu entwickeln und den Data Mining-Prozess genau wie jeden anderen Prozess per Closed-Loop- Ansatz zu überwachen und zu steuern. Zum Schluss noch ein wichtiger Leitsatz, der für alle Data Mining-Aufgaben gilt: Die Präzision der Ergebnisse als auch die mathematische Eleganz bestimmter Data Mining Techniken sollten weniger wichtig bewertet werden, als die Geschwindigkeit, mit der Ergebnisse erzielt werden können. 5.4 Textanalytik Textanalytik ist eine neue Klasse von Analytik 10, die linguistische Verfahren mit Suchmaschinen, Text Mining, Data Mining und Algorithmen des maschinellen Lernens verbindet. Treiber für Textanalytik ist insbesondere das Web 2.0. Die Nutzer von Facebook, MySpace, StudiVZ oder anderen Netzgemeinschaften ( Social Web ) zählen nach Millionen. Ihre Anzahl wächst beständig. Dazu kommen die vielen, meist spezialisierten Blogs und Foren. Nicht zu vergessen sind Plattformen wie Twitter, die ein Miniblogging erlauben. Das unterstreicht die Attraktivität des Web 2.0, des Mitmach- Webs, bei dem jeder Surfer mitmachen und seine Meinungen, Stimmungen und Vorlieben mitteilen kann. Der Marktforscher, der Produktmanager und jeder im Marketing sieht aber noch etwas ganz Anderes: die neue Dimension an Daten über aktuelle und zukünftige Kunden, über Potenziale, Stimmungen, und Trends im Markt. Denn jeder Internaut kann jetzt im Web 2.0 auch seine persönlichen Daten mit allen anderen teilen. Das Teilen und Teilhaben lassen ist im Web 2.0 der große Renner. Mitunter meint man, man hat es in den Netzgemeinschaften mit digitalen Exhibitionisten zu tun: So freizügig werden persönliche und ganz persönliche Daten eingestellt. Das ergibt für die Marketer in den Unternehmen einen wahren Schatz an Information, den es nur noch zu heben gilt. Vor einigen Jahren haben schon Unternehmen aus der Telekommunikation begonnen, Web- Daten systematisch auszuwerten. Inzwischen sind nicht nur Banken und Versicherungen hinzugekommen, sondern auch Händler und Konsumgüterhersteller machen das aber niemand spricht gerne darüber. Man will seinen Kunden nicht gerne sagen, dass man inzwischen eine nahezu gläserne Transparenz geschaffen hat. Der Nutzen dieser Transparenz durch Web-Daten liegt auf der Hand: Ein Hersteller von Konsumgütern will beispielsweise wissen, wie Konsumenten sein Angebot und/oder das Angebot seiner Mitbewerber in den einschlägigen Blogs diskutieren. Oder eine Hotelkette interessiert sich für das elektronische Feedback ihrer Gäste und/oder für die 10 Quelle und weitere Infos : BI trifft BPM / Wolfgang Martin März 2011 Seite 58

59 Bewertungen der Mitbewerber. Alles wird möglich, wenn all diese Daten zugreifbar und auswertbar werden. (Abb. 18) Als erstes braucht man dazu einen Staubsauger, der die relevanten Daten aus dem Web im wahrsten Sinne des Wortes absaugt. Das leisten heute die semantischen Web-Crawler. Das ist eine Technologie, die es erlaubt, alle öffentlichen Daten im Web zu lesen und zu extrahieren. Damit kein Webmaster das merkt und womöglich Gegenmaßnahmen ergreift, können sie auch bewusst langsam arbeiten, um einen menschlichen Leser vorzutäuschen. Dem Crawler muss man nur sagen, welche Information von welcher Webseite abgegriffen werden sollen. Das lässt sich bereits automatisieren. Im Rahmen einer Quellen-Identifikation lassen sich mit Suchbegriffen und auch komplexen semantischen Suchmustern die relevanten Webseiten und Blogs finden und auch extrahieren. Heutige Crawler besitzen genügend Intelligence, um auch dynamische Webseiten abzugreifen. Wenn sich die Position von abzugreifenden Daten auf der Webseite ändert, dann wird das in gewissen Grenzen auch automatisch vom Crawler erkannt und nachgezogen. Wenn das nicht gelingt, wird das dem Crawler-Kontrollzentrum gemeldet, so dass ein menschlicher Eingriff die Situation schnellstens wieder bereinigen kann. Anbieter solcher Crawler finden Sie im Kap Der Einsatz solcher Crawler ist auch im B2B sehr sinnvoll, wenn es beispielsweise um Online- Preisvergleiche geht, oder man im Rahmen von Unternehmensnetzen Information zwischen Portalen automatisiert austauschen will. Hier hat beispielsweise Brainware Speziallösungen für den Zahlungsverkehr entwickelt und Lixto für Lieferantenportale. So beschafft man sich die notwendigen Web-Daten automatisiert und schnell. Dabei darf man allerdings gesetzliche Aspekte nicht vergessen. Aber wenn Daten nicht geschützt und öffentlich sind, verstößt man höchstens gegen die AGBs der Seiten, wenn man automatisch ausliest. Daten, die auf den Netzgemeinschaften als privat gekennzeichnet sind, darf man so natürlich nicht nutzen. Die juristischen Details wollen wir aber hier nicht weiter vertiefen. Das ist eine eigene Diskussion. Jetzt kommt es auf die Analyse an. Die klassischen Verfahren aus Statistik und Data Mining greifen hier aber zu kurz, da Web-Daten in der Regel unstrukturiert, bestenfalls semi-strukturiert sind. Die neuen Anforderungen, Web-Daten zu analysieren, hat eine neue Klasse analytischer Werkzeuge und Verfahren in den Fokus des Managements gebracht: die Textanalytik ( text analytics ). Die Anforderungen im Web 2.0 an die Analyse-Werkzeuge sind hoch. In den sozialen Medien findet man viel Zynismus, Sarkasmus und Polemik. Dazu kommt eine semantische Armut in den 140-Zeichen Tweets. Da gut 80% aller Daten im Unternehmen nicht in Datenbanken gespeichert sind, sondern in Form von und Dokumenten in unstrukturierter Form vorliegen, eignet sich Textanalytik nicht nur zur Analyse von Web-Daten, sondern auch von Unternehmensdaten. Man findet ja meistens in den s und in den entsprechenden Dokumenten den Kontext, der zur richtigen Interpretation von strukturierter Information führt. Insofern leistet die traditionelle Business Intelligence mit OLAP, Statistik und Data Mining das Erkennen des was im Unternehmen, während aus den Text-Daten das wie gefolgert werden kann. BI trifft BPM / Wolfgang Martin März 2011 Seite 59

60 Textanalytik ist eine Erweiterung von Analytik, insbesondere von Data Mining und Text Mining und bringt Analytik ins Content Management und ins World Wide Web. Textanalytik meint sowohl die Technologie als auch den Prozess zur Wissensentdeckung in unstrukturierten Daten. Ziel von Textanalytik ist es in einem ersten Schritt, Entitäten (beispielsweise Namen, Daten, Orte, Bedingungen) und ihre Attribute sowie die Beziehungen, Konzepte und Stimmungen zwischen Entitäten trennscharf zu identifizieren. In einem zweiten Schritt lassen sich auf diesen Strukturen Klassifikationen aufbauen und visualisieren. Ein Beispiel hierzu ist die Identifikation von Meinungsmachern in sozialen Netzen. Beispiel. Nehmen wir eine fiktive Telefongesellschaft. Nehmen wir an, dass einer seiner Mitbewerber einen aggressiven Familienplan anbietet. Der Kundenservice bekommt auf einmal Nachfragen zu diesem Mitbewerbsangebot. Wie bekommt man das als das Marketingteam mit? Schnell ist der Kundenservice überfordert. Bis zu 10% aller Anfragen drehen sich um dieses Mitbewerbsprodukt. Berge von Notizen türmen sich im Kundenservice, vielleicht sogar weltweit. Wenn jetzt die Telefongesellschaft eine Technologie hätte, um Notizen im Kundenservice regelmäßig auf auffällige neue Muster zu untersuchen, dann wäre dieser Angriff eines Mitbewerbers schnell entdeckt und Marketing könnte rechtzeitig reagieren. Mehr noch, man könnte nicht nur interne Daten so kontinuierlich analysieren, sondern auch externe wie beispielsweise in sozialen Netzen, wo über neue innovative Technologien und Produkte gerne diskutiert wird. Das Beispiel zeigt ein weiteres Einsatzgebiet von Textanalytik: Stimmungsanalysen. Automatische Stimmungsanalyse ( Sentiment Analysis, Opinion Mining ) aus Web Blogs, Diskussionsforen und Produktbewertungen setzen bereits führende europäische Marktforschungsunternehmen ein. Ziel ist es, im Rahmen der Online-Marktforschung automatisch Stimmungsbilder über Produkte und/oder Unternehmen ihrer Kunden zu erstellen wie beispielsweise zur Analyse von Meinungen zu bestimmten Hotelketten oder Hotels, zu Consumer- Produkten wie Waschmitteln oder über technische Produkte wie Mobiltelefone. Der jeweilige Hersteller bekommt dabei nicht nur Stimmungsbilder zu seinen Produkten, sondern auch den Vergleich zu anderen Produkten von Wettbewerbern und die Kennzahlen zum Controlling der Effektivität und Effizienz von Marketing-Maßnahmen sowie Empfehlungen für bestimmte Marketingmaßnahmen. Gerade die Möglichkeiten von multi-lingualen Analysen erlauben heute auch globale Analysen, wie beispielsweise eine Marke in verschiedenen Ländern wahrgenommen wird. Automatische Stimmungsbeobachtung spielt auch in der Pharmaindustrie eine Rolle, unter anderem zur Stimmungsanalyse zu neuen Medikamenten, auch zur Wettbewerbsbeobachtung und zum Monitoring des Ansehens eines Pharma-Unternehmens selbst. Im Finanzbereich wird automatische Stimmungsanalyse eingesetzt, um in Texten ausgedrückte Stimmungen/Meinungen zu bestimmten Wertpapieren/Aktien automatisiert zu erkennen. Gute/schlechte Meinungen entsprechen dann beispielsweise Kaufs- bzw. Verkaufsempfehlungen. Stimmungsanalysen werden auch schon in der Politik angewendet, beispielsweise 2008 im Präsidentschaftswahlkampf in den USA. BI trifft BPM / Wolfgang Martin März 2011 Seite 60

61 Textanalytik und Prozesse kollaborativer Geschäftsprozess Composite/Mashed Application (Web) Services Datenintegration Textanalytik- Modelle Regel- Maschine Text- Analytik Externe/Web- Daten Operative Daten Data Warehouse Files, XML, Spreadsheets Events & Services Dynamischer Datenzugriff S.A.R.L. Martin Abbildung 18: Der Textanalytik-Prozess zur Modellbildung beginnt mit der Datenbereitstellung, die über dynamische, service-orientierte Datenzugriffe auf alle verfügbaren Datenquellen per Datenintegrationsplattform erfolgen sollte. Das (sehr) große Datenvolumen erfordert eine hohe Performanz und Skalierbarkeit der Algorithmen sowie die Handhabung von bis zu tausenden von Variablen. Die Modellnutzung erfolgt idealerweise durch die Einbettung des abgeleiteten Textanalytik-Modells mittels einer Regelmaschine in die relevanten Geschäftsprozesse. Das ist dann besonders schnell und flexibel möglich, wenn eine service-orientierte Architektur vorliegt (mittels Rule-Services, siehe Kap. 4.3). So erhalten wir durch Textanalytik angereicherte intelligente Prozesse. Beispielsweise kann jetzt ein Kunde einem sozialen Profil zugeordnet werden und so ein sehr gezielte Kaufempfehlung ausgesprochen werden. Textanalytik ist auch erfolgreich, wenn es um das Identifizieren und Abgrenzen von kritischen Kunden, die sehr hilfreich beim Beseitigen von Produktschwachstellen sein können, von notorischen Nörglern und Besserwissern geht. Beispiel: BMW arbeitet aktiv mit Blogs. Man hat die Erfahrung gemacht, dass Kunden in den Blogs zum Teil so positive Meldungen verbreiten, wie man sie als BMW selbst nie in Werbesprüchen verwenden sollte. (Achtung: Das Gegenbeispiel ist Sony, die versuchten, Blogs zu manipulieren. Als das bekannt wurde, war der Schaden groß.) Für die Käufer der M-Modelle hat man die BMW M Power World geschaffen, ein soziales Netz, bei dem es rund um das sportliche Fahren geht. Hier werden die Kunden auch eingeladen, sich mit BMW Entwicklern und Designer auszutauschen. Der Kunde wird zum Produktentwickler Web 2.0 pur! BMW hat so eine Web 2.0 Vorwärts-Strategie: Die Möglichkeiten des Web 2.0 sind Teil der CRM Strategie. Die Alternative ist eine passive Strategie des Beobachtens ausgewählter Blogs und Foren per Textanalytik, um kritische Situationen und Stimmungsänderungen möglichst rechtzeitig mitzubekommen. Das funktioniert zwar, aber die Maßnahmen, die man im Falle des Falles ergreifen kann, sind beschränkt. Blogeinträge lassen sich nicht löschen, denn sollte man es BI trifft BPM / Wolfgang Martin März 2011 Seite 61

62 wirklich schaffen, einen Blogeintrag per Gerichtsbeschluss zu löschen, dann taucht der garantiert nicht nur an einer anderen Stelle wieder auf. Das Prinzip semper aliquid haeret ist im Web 2.0 unerbittlich. Textanalytik wie jede Analytik sollte stets mit einem Performance Management verbunden sein ganz im Sinne des bekannten Leitsatzes: Man kann nur managen, was man auch messen kann. Benötigt werden unter anderem Metriken zur Berechnung der Relevanz von Quellen und der Vernetzung von Quellen, Scorecards zum Visualisieren und Verdichten der Monitoring-Ergebnisse und schließlich auch ein Reporting, insbesondere ein Ausnahme-Reporting, um automatisch Auffälligkeiten im Web 2.0 wie ein Anstieg von Tags, von Autoren, von Threads etc. anzuzeigen. Anbieter zu Textanalytik finden Sie im Kapitel 9.2. Auch wenn Textanalytik-Lösungen dem Namen nach als Komplettlösungen daherkommen, heißt das nicht, dass diese Produkte out of the box einsatzbereit sind. Textanalytik stellt im Moment ein arbeitsintensives und sehr lohnendes Feld für Berater dar. Eine individuelle Beratung ist notwendig, bis einerseits die Unternehmen entsprechende Kenntnisse aufgebaut haben, und andererseits die Hersteller ihre Tools soweit standardisiert und parametrisiert haben, dass die Anwender damit aus vordefinierten Bausteinen bestimmte Klassen von Lösungen erstellen können. Zudem stellt sich auch in der Textanalytik ein ähnliches Problem wie in Data Mining: Die Interpretation der Ergebnisse erfordert ein tiefes Fachwissen. Denn mittels mathematischer Verfahren gefundene Strukturen und Beziehungen sind zwar faktisch richtig, aber solche Fakten müssen nicht unbedingt etwas mit der realen Welt zu tun haben. Das gilt ganz besonders für gefundene Fakten auf Basis von Web-Daten, denn Bewertungen können aus Freundschaft erfolgt sein, Meinungen in Blogs können manipuliert und Profile in sozialen Netzen auch frei erfunden sein. Daher ist es ganz wichtig, die durch Textanalytik gefundenen Fakten als Hypothesen auf Plausibilität zu testen. Das ist heute noch in den meisten Fällen dem Menschen/Berater vorbehalten. Beratung ist aber auch deshalb notwendig, weil wir uns mit Textanalytik in Neuland begeben. Es fehlen Best Practices für die Prozesse und die Governance. Wie werden beispielsweise die Web- Daten in die bestehenden Daten integriert? Wie gelangen die relevanten Ergebnisse von Textanalytik an die richtigen Personen im Unternehmen? Und Kern-Fragen, wie man auf bestimmte gefundene Muster und Strukturen reagieren soll, lassen sich heute in manchen Fällen noch gar nicht beantworten. Hier müssen wir erst noch eine ganze Menge lernen. 5.5 Location Intelligence Die Bedeutung des Wo Unter Location Intelligence versteht man die geographische Dimension von Business Intelligence. Location Intelligence nutzt geographische Daten, die beschreiben Wo sich ein Kunde, ein Lieferant, ein Partner, ein Unternehmen oder ein Produkt befindet oder eine Dienstleistung vollbracht wird. Sie beschreibt die Fähigkeiten, komplexe Phänomene zu verstehen und zu organisieren mittels geographischer Beziehungen, die sich in nahezu jeder Information befindet wie in Adressen und Routen. 80% der Information im Unternehmen haben ex- oder BI trifft BPM / Wolfgang Martin März 2011 Seite 62

63 implizit etwas mit Ortsangaben, dem Wo zu tun. 11 Durch die Kombination geographischer und raumbezogener Daten mit anderen Business-Daten lassen sich zusätzliche Einsichten gewinnen, so dass bessere Entscheidungen getroffen und Geschäftsprozesse optimiert werden können. 18 Abbildung 19: Daten-Analyse im Positionskontext von Landkarten mit Cubeware Cockpit V6pro: Besonders gut einsetzen lässt sich diese im Vertrieb, um beispielsweise Umsatzvergleiche, Varianten- und Zeitreihenanalysen, zeitliche Betrachtung von Betreuungs- und Versandstrukturen sowie Abweichungsanalysen geografisch und gebietsbezogen durchzuführen. Im Screenshot zu sehen ist die Analyse der Kundenstreuung zweier Händler im Vergleich, interaktiv visualisiert auf einer mit geopositionierten Linien versehen Europakarte. Die Vorläufer zu Location Intelligence sind geographische Informationssysteme (GIS). Ein GIS war in der Regel eine generische, abteilungsbezogene Nischenapplikation, die von wenigen Experten verstanden und genutzt wurde. Location Intelligence bezieht sich auf das gesamte Unternehmen und ist prozess- und marktbezogen. Sie adressiert prinzipiell jeden Mitarbeiter im Unternehmen. 11 Siehe eid= BI trifft BPM / Wolfgang Martin März 2011 Seite 63

64 Location Intelligence kombiniert Technologie, Daten und Services mit Fachwissen, um Organisationen in die Lage zu versetzen, ihre Geschäftsdaten auch räumlich geographisch zu messen, zu vergleichen, zu visualisieren und zu analysieren. Mit Location Intelligence verfolgt man das gleiche Ziel wie mit Business Intelligence: Aus Daten soll Information, aus Information Wissen und aus Wissen sollen Entscheidungen und Aktionen zur Steuerung des Unternehmens gewonnen werden (Abb. 19). Als Konsequenz folgt, dass Location Intelligence sowohl bei rein analytischen, dispositiven Fragestellungen eingesetzt werden kann als auch operativ, sogar in Echtzeit in Geschäftsprozesse eingebettet werden kann. Daher wird heute Location Intelligence genau wie Analytik per Services angeboten, um IT-mäßig diese beiden Aufgabenbereiche dispositiv und operativ gleichermaßen abdecken zu können. Beispiele für dispositive Location Intelligence sind Netzwerk-Planung und -Design in Branchen wie Versorgung (Wasser und Elektrizität), Telekommunikation und IT, Stadt- und Standortplanung und -Analyse (Öffentliche Verwaltung, Gesundheitswesen, Banken, Handel und Touristik), Risiko- Management (Versicherungen) und Markt- und Kundenanalysen (alle Branchen im B2C). Beispiele für operative Location Intelligence findet man vor allem im Kundenbeziehungsmanagement (Neukundengewinnung, Cross-/Up-Selling und Kundenbindung) und in vielen Branchen wie Versicherung (Schadensmanagement, Risiko-Management) und Transport (Pannen- und Rettungsdienste sowie Tracking und (Echtzeit-)Routen-Management). Wie die Beispiele zeigen, hat operative Location Intelligence vor allem auch ein hohes Potential bei mobilen Diensten, denn hier kommt es ja ganz besonders auf das Wo an. Die Datenquellen für Location Intelligence sind vielfältig. Es beginnt bei den eigenen Kundendaten und geht weiter zu externen Datenquellen wie kunden-demographischen Daten, Luft- und Satellitenbildern und geographischen Daten. Das unterstreicht nochmal die Bedeutung einer Service-Orientierung für Location Intelligence. Das Mashing Up von Information aus den unterschiedlichsten Quellen und die Kombination mit anderen Business-Daten bringen den Mehrwert. Das funktioniert umso besser, wenn die geographischen Daten und Information als Web Services oder andere standardisierte Services angeboten werden. Das ist heute in der Regel der Fall: Das Nutzen von Location Intelligence als neue Dimension zu Business Intelligence wird so einfacher und schneller denn je. Der besondere Nutzen, der durch Location Intelligence sehr schnell erreicht werden kann, wird deutlich, wenn man kundenzentrischen Daten eine räumliche Koordinate zuordnet, und damit in die Lage versetzt wird, den Kundenstamm räumlich darzustellen. Allein hierin liegt bereits ein enormes Wertsteigerungspotential. Die Werkzeuge von Location Intelligence sind die Verortung von Daten (Geocodierung), beschreibende Kartographie, Visualisierung und die analytische Kartographie bis hin zu Vorhersagemodellen (prädiktiv). (Abb. 20) Entscheidend ist hier die Interaktivität und Intuitivität. Wenn man von einer Karte spricht, denkt man immer noch an ein statisches Dokument. Das ist nicht vergleichbar mit interaktiven Kartierungen von heutigen Location Intelligence Werkzeugen. Die Interaktivität macht auch hier das menschliche Auge zum Detektor von bisher unbekannten Mustern, Trends und Strukturen, die sich durch die Kombination von räumlichen und Business- Daten ergeben. Insofern bieten die Location Intelligence Werkzeuge auch ein mächtiges Komplement zu Data Mining und statistischen Auswerteverfahren. Auf das Wo kommt es eben bei Business Intelligence ganz besonders an, im Dispositiven und im Operativen: Location matters! BI trifft BPM / Wolfgang Martin März 2011 Seite 64

65 Location Intelligence Services Predict S.A.R.L. Martin Abbildung 20: Location Intelligence besteht aus geographischen Informations-Services, die unterschiedliche Sichten auf die reale Welt geben wie beispielsweise Straßen-, Parzellen-, Nutzungs- und Höhen- Information, die dann mit Kundeninformation kombiniert werden können. Location Intelligence Prozesse beschreiben das Mashing Up der geographischen Informations-Services in den Phasen Lokalisieren, Visualisieren, Analysieren, Planen und Vorhersagen. BI trifft BPM / Wolfgang Martin März 2011 Seite 65

66 6 Information Management In der traditionellen BI wurde Information Management zum Thema, als es um das Füllen und Auffrischen eines Data Warehouse ging. Die Lösung waren und sind Extraktions-, Transformations- und Lade- (ETL) Prozesse. Die Zielsetzung war es, vertrauenswürdige Daten zu schaffen. Das Data Warehouse wurde zum Ort dieser vertrauenswürdigen Daten und stellte den single point of truth dar. In der Prozess-Orientierung und im Performance Management steigt die Bedeutung von Information Management. Information Management ist jetzt die Grundlage, um Prozesse mit Daten zu versorgen und um die Daten für Performance Management und Analytik zu liefern. Das ändert die Bedeutung eines Data Warehouse. Die vertrauenswürdigen Daten entstehen jetzt im Information Management. Der single point of truth liegt jetzt in den Meta- und Stammdaten, wie wir jetzt zeigen werden. 6.1 Die Aufgaben von Information Management Wie wir schon in Kapitel 3.1 gesehen haben, ist Information Management die Grundlage und Voraussetzung für Prozess-Orientierung im Unternehmen und in Unternehmensnetzwerken, in denen Lieferanten, Partner und Kunden mit dem Unternehmen zusammenarbeiten und gemeinsame Prozesse betreiben. Schauen wir uns die Aufgabenbereiche von Information Management im Einzelnen an: Daten-Definition per Business-Vokabular. Das Business-Vokabular (auch Business- Glossar genannt) spielt die zentrale Rolle in einem prozess-orientierten Unternehmen, denn Prozesse brauchen eine einheitliche gemeinsame Terminologie zur Modellierung und Kommunikation mit allen an den Prozessen Beteiligten, den Mitarbeitern in den Fachabteilungen und in der IT, aber auch den Lieferanten, Partnern und sogar den Kunden. Das Business-Vokabular stellt so die Terminologie der gesamten Fachlichkeit in einem Unternehmen und seinem Unternehmensnetzwerk dar. Daher kann man das Erstellen eines Business-Vokabulars auch nicht in die IT delegieren. Wenn es fehlt, dann herrscht Babylon. Ein bekannter Effekt ist auch auf der Vorstandsebene bekannt: Begriffe wie Umsatz, Deckungsbeitrag oder Storno bedeuten in verschiedenen Fachabteilungen etwas Verschiedenes und passen dann in der Top-Sicht nicht zusammen. Oder anderes Beispiel die Frage Wer ist unser Kunde? kann nicht zweifelsfrei beantwortet werden. Hier helfen auch vorbelegte Business-Vokabulare, die Quasi-Standard-Terminologien in verschiedenen Branchen als Start zum Aufbau des unternehmenseigenen Business-Vokabulars anbieten. Datenmodellierung. Die Beziehungen zwischen den fachlichen Begriffen eines Unternehmens, die im Business-Vokabular definiert sind, werden per Datenmodellierung in einem Datenmodell erfasst. So erhält man die Semantik eines Unternehmens. Daher ist auch Datenmodellierung eine gemeinsame Aufgabe von Fachabteilungen und der IT. BI trifft BPM / Wolfgang Martin März 2011 Seite 66

67 Meta- und Stammdaten-Management. Weil früher jede Applikation ihre eigenen Meta- und Stammdaten hatte, sind wir in ein Fragmentierungsproblem gelaufen. Daher nutzt man heute im Information Management Meta- und Stammdaten-Services, um die isolierten Applikations- Stammdaten auf einheitliche, zentrale Stammdaten abzubilden, die in einem Repository verwaltet werden. Das ist entscheidend, wenn es um die Definition neuer Produkte, das Gewinnen neuer Kunden und/oder das Hinzufügen neuer Lieferanten zum Geschäftsnetzwerk geht. Ein einfaches Update per Meta- oder Stammdaten-Service synchronisiert sicher und zuverlässig alle betroffenen Applikationen. Darauf gehen wir genauer im Kapitel 6.4 ein. Datenqualitäts-Management. Datenqualität ist eine weitere Voraussetzung, um mit Information Management erfolgreich zu sein. Datenqualität bezeichnet die Bedeutsamkeit, Relevanz und Korrektheit von Daten und von Information. Eine Best-Practice für Datenqualitäts-Management ist ein Total Quality Management (TQM) -Ansatz: Baue Datenqualität vom Beginn an in die Prozesse ein. Das diskutieren wir in Kapitel 6.5. Datenintegration. Prozess-Orientierung erfordert durchgängige Prozesse. Daher müssen Prozesse applikationsunabhängig sein: Sie verlaufen ja über die Applikationsinseln und auch über Unternehmensgrenzen hinweg. Folglich müssen die Schnittstellen mit den Applikationen und die Daten intern und extern integriert und synchronisiert werden. Weitere Einzelheiten in Zusammenhang mit Performance Management und Analytik geben wir in Kapitel 6.2 Daten-Klassifikation. Eine Datenklassifikation ist die Unterteilung von Daten in Kategorien anhand eines Merkmals, so dass Daten innerhalb einer Kategorie die gleiche Eigenschaft teilen. Daten-Klassifikationen lassen sich bottom-up mittels Data/Text Mining-Verfahren finden. Sie können aber auch top-down aus bestimmten Unternehmenszielen abgeleitet werden. Das findet besonders bei Storage-Strategien und im Life Cycle Management Anwendung. Beispielsweise kann bei einer solchen top-down Datenklassifikation eine Kategorie Vertraulichkeit gebildet werden, die dann aus Klassen wie streng vertraulich, vertraulich, intern und öffentlich bestehen könnte. Andere Kategorien in diesem Beispiel könnten sein Verfügbarkeit, Aufbewahrungsfrist, Revisionssicherheit etc. Daten-Sicherheit und Schutz. Schließlich gilt es die gesetzlichen Regelungen zu respektieren und auch technisch umzusetzen, die die vom Unternehmen gespeicherten Daten vor unberechtigter Nutzung, Missbrauch und Weitergabe schützen. Analog zur Datenqualität empfiehlt sich auch hier der TQM-Ansatz: Datenschutz und Sicherheit sollte von vorneherein in alle Prozesse mit eingebaut sein. Content Management (Web, Rich Media). Der weitaus größere Teil der Unternehmensdaten ist unstrukturiert (Dokumente, Verträge, Briefe, Memos, , Bilder, Grafiken, Zeichnungen, Videos, Audios etc.). All diese Typen von Information sind gleichermaßen zu managen. Eine Information Governance muss daher allumfassend sein. Fazit: Information Management schafft vertrauenswürdige Daten. Es löst das Problem der Fragmentierung von Daten und ist so die Voraussetzung für Prozess-Orientierung. Es ist eine gemeinsame Aufgabe von Business und IT, die weil kritischer Erfolgsfaktor für Industrialisierung, Agilität und Compliance absolute Chefsache ist. BI trifft BPM / Wolfgang Martin März 2011 Seite 67

68 6.2 Datenintegrationsplattform Anfangs war Datenintegration im Kontext der traditionellen BI nichts anderes als die Datenversorgung eines Data Warehouse über ETL-Prozesse. ETL-Prozesse laufen entweder über einen Stapelprozess und / oder, wenn die Versorgung zeitkritisch wird, per Message / Queuing. Das ist und bleibt weiterhin eine Anforderung, aber jetzt brauchen wir noch mehr. Wir brauchen Informations- und Datenservices (Abb. 11), die simultan Daten aus dem Data Warehouse und operativen Systemen mittels einer Datenintegrationsdrehscheibe per Mashing Up bereitstellen (Abb. 3). In der Vergangenheit hat man versucht, dieses zeitkritische Datenzugriffsproblem mit einem ODS (operational data store) zu lösen. Doch der ODS-Ansatz ist nicht immer ausreichend, weil die Speicherung von Daten im ODS an sich schon Zeit beansprucht, und mitunter sind Geschäftsregeln, die man zur Berechnung komplexer Metriken braucht, zum Teil in der Applikationslogik verborgen und auf der Datenebene nicht verfügbar. Es gibt zwei Optionen als Lösung: Niedriglatenz und Nulllatenz Datenintegration (Abb. 21). Wesentlich an dieser Stelle ist es herauszufinden, welche Latenz im gegebenen Prozess toleriert werden kann. Es ist zu beachten, dass Latenz mit Kosten gekoppelt ist: je niedriger die tolerierte Latenz, umso höher werden die Kosten. Daten-Latenz OLTP System low-latency Daten-Integrations-Plattform OLTP System Daten oder Ereignisse OLTP System OLTP System LLDM OLTP System OLTP System Echtzeit- Analytik Echtzeit- Datenpropagation OLTP System 21 Enterprise Information Integration (EII) zero-latency Echtzeit- Analytik 2010 S.A.R.L. Martin Abbildung 21: Echtzeit Datenintegration kann als Niedrig- oder Nulllatenzlösung aufgesetzt werden. Die Niedriglatenzlösung arbeitet mit einem Low Latency Data Mart (LLDM), der transaktionssynchrone, aber um die Latenzzeit verzögerte Daten für BAM/PPM Lösungen enthält. Die Nulllatenzlösung (EII) besteht aus einem transaktionssynchronen Zugriff auf heterogene und verteilte OLTP-Daten. (OLTP= Online Transaction Processing). Mittels Echtzeit-Daten-Propagation werden operationale Systeme mit prozessübergreifenden Metriken über eine Datenintegrationsplattform getriggert. BI trifft BPM / Wolfgang Martin März 2011 Seite 68

69 Das Niedriglatenz-Modell basiert auf einer Datenintegrationsplattform, die die relevanten Transaktionsdaten und analytischen Daten sammelt und sie in einem so genannten Low-Latency- Data-Mart (LLDM) speichert. Das erfordert die Integration der Datenintegrationsplattform mit dem ESB, der die Transaktionen quer über die operativen Applikationen managt. Der LLDM wird entweder durch Message / Queuing oder durch Stapelläufe aufgefrischt, wobei der Stapellauf in kurzen Zeitabständen entsprechend der tolerierten Latenz ausgeführt wird (z.b. stündlich). Ein LLDM bietet sich zur Niedriglatenz-Datenpropagation an. Das ist eine Rückkopplungsschleife, um Ereignisse in operativen Systemen durch prozessübergreifende Metriken auszulösen. Diese Kopplung mit operativen Systemen verlangt, dass die Datenintegrationsplattform wie ein ESB gemanagt werden muss: Die Datenintegrationsplattform ist ein operatives System. Dieses Modell unterscheidet sich von einem Operational Data Store (ODS), wo Daten aus operationalen Datenbanken durch ETL-Prozesse gespeichert werden. Deshalb ist Transaktionslogik, die nicht in operationalen Datenbanken gespeichert wurde, nicht im ODS gespeichert. Darüberhinaus ist ein ETL-Prozess nicht mit den Transaktionen synchronisiert, i. e. die ODS-Daten sind nicht immer auf dem Stand der Transaktionen. Das unterstreicht die Forderung nach einem LLDM, vor allem wenn Legacy-Systeme im Einsatz sind. Das Null-Latenz-Modell wird auch als EII (enterprise information integration) bezeichnet. EII kann verstanden werden als eine Schicht für logischen Datenbankzugriff, die sich über alle operationalen Datenbanken und das Data Warehouse erstreckt. Der Zugriff erfolgt vielfach per XML, und die EII setzt die Datenanforderung in verschiedene SQL-Abfragen für die entsprechenden Datenbanken um und transformiert die Daten so, dass die angeforderten Daten als Informations-Services publiziert werden. Natürlich kann ein Informations-Service als Web Service publiziert werden. 6.3 Informations-Services Wir haben Informations-Services bereits als ein Service-Modell von SOA-Services kennengelernt (Abb. 11). Zu bemerken bleibt aber, dass Informations-Services nicht nur in einer SOA Sinn machen, sondern auch solchen Unternehmen grossen Wert bringen, die unter dem Problem der Datenfragmentierung leiden. (Daten befinden sich einzementiert in Datensilos wie in isolierten Applikationen oder isolierten Datamarts.) Beginnen wir mit einer detaillierteren Definition von Informations-Services. Ein Informations-Service ist ein modularer, wiederverwendbarer, wohl-definierter, fachlichrelevanter Service, der den Zugriff, die Integration und die rechtzeitige Bereitstellung von strukturierten und unstrukturierten, internen oder externen Daten unternehmensweit und unternehmensübergreifend ermöglicht. Ein Informations-Service ist entweder ein Metadaten-, Stammdaten- oder ein Daten-Service. Nach der Definition eines Informations-Service ist jetzt der nächste Schritt, ausgehend vom Bedarf der Informationskonsumenten die verschiedenen Kategorien von Informations-Services und ihre Architektur zu beschreiben. (Abb. 22) BI trifft BPM / Wolfgang Martin März 2011 Seite 69

70 Administrations- Services Meta und Stamm- Daten-Services Infrastruktur- Services Wolfgang Martin Team Informations-Services: Architektur INTERN Informations-KONSUMENT EXTERN Prozesse Portale Web Services Applikationen Analytische Services Applikationen JMS Web Svc SQL JDBC WebSvc Bereitstellungs-Services Daten-Integrations-Services Universelle Datenzugriffs- Services 22 Datenquellen Datenbanken Flat Files unstrukturierte Daten Applikationen Messages XML Mainframe 2010 S.A.R.L. Martin Abbildung 22. Ein Weg heraus aus der Datenfragmentierung ist die Entkoppelung von Applikationen und Daten per Informations-Services. Information und Daten werden per Services bereitgestellt. Informations- Services bestehen aus sechs Kategorien. Die Architektur ist in der Abbildung dargestellt. Universelle Datenzugriffs-Services erlauben den service-orientierten Zugriff auf jede interne oder externe Datenquelle, strukturiert oder unstrukturiert. Daten-Integration-Services ermöglichen alle Arten von Mapping, Matching und Transformation. Bereitstellungs-Services publizieren Information an alle Informationskonsumenten intern oder extern. Meta- und Stammdaten-Services bilden das gemeinsame Business Vokabular. Infrastruktur-Services definieren Authentifizierung und Security. Administrations-Services liefern Funktionalität für Administratoren, Business Analysten und Entwickler zum Managen des Lebenszyklus aller Services. Universelle Datenzugriffs-Services: Datenzugriffs-Services bestehen aus den Basis- CRUD Services ( create, read, update und delete) für alle Backend-Systeme, strukturiert oder unstrukturiert, intern oder extern. Datenzugriffs-Services ermöglichen auch einen Null- oder Niedrig-Latenz-Zugriff auf verteilte Daten im Sinne von EII. Infrastruktur-Services: Infrastruktur-Services umfassen die Basis-Funktionalität für Authentifizierung, Zugriffskontrolle, Logging, etc. Daten-Integrations-Services: Integrations-Services transportieren Daten aus Quelldatenmodellen in Zieldatenmodelle mittels Synchronisierung, Transformation, Matching, Cleansing, Profiling, Anreicherung, Aufteilung, etc. Meta- und Stammdaten-Services: Ihr Zweck ist das service-orientierte Managen und Konsumieren der technischen und fachlichen Meta- und Stammdaten für Revision, beispielsweise Datenherkunfts- und Impaktanalysen. Daten-Bereitstellungs-Services: Sie automatisieren und standardisieren die Publikation von Information an alle Konsumenten gemäss einem Anfrage/Antwort-Modell oder einem BI trifft BPM / Wolfgang Martin März 2011 Seite 70

71 Publiziere/Subskribiere-Modell (Daten-Syndikation). Bereitstellungs-Mechanismen sind Massendaten- und/oder Einzelsatz-Lieferung im Batch, Echtzeit-Messaging oder per Delta- Mechanismen basierend auf Datenupdates. Administrations-Services: Das sind Services für das Lebenszyklus-Management aller Services, i.e. Entwicklung, Management sowie Überwachung und Steuerung. Das Modell der Service-Orientierung bietet noch einen weiteren Vorteil. Aufgrund des Unter- Service-Prinzips lassen sich jetzt beliebige zusammengesetzte ( composite ) Informations- Services per Mashing Up für alle möglichen Verwendungszwecke komponieren und orchestrieren. Typische Beispiele sind die traditionellen Data Warehouse Belieferungsprozesse und Datenmigrations- und Konsolidierungsprozesse. Wir werden weitere Prozesse wie Stammdaten- Management und Datenqualitätsmanagement in den folgenden Kapiteln kennenlernen. 6.4 Meta- und Stammdaten-Management Prozess-Orientierung braucht Metadaten-Management. Die Metadatenschicht erstreckt sich über alle Schichten der SOA. Metadaten sind der Schlüssel zu einem konsistenten Datenmodell mit Lebenszyklus-Management für konsequentes Verständnis und Kommunikation des Datenmodells, für Datenqualität, Zugriffsschutz und datenschutzrechtliche Aspekte. Metadaten lassen sich in drei Schichten organisieren: Schicht 1 Stammdaten: Das sind fachlich orientierte Metadaten, die die Basis für das Business Vokabular darstellen. Es sind die Metadaten, die die Business-Strukturen wie Anlagen, Produkte und Dienstleistungen und die Geschäftsparteien (beispielsweise Lieferanten, Kunden, Mitarbeiter, Partner etc.) beschreiben. Damit erhält man eine einheitliche Sicht auf alle Unternehmensstrukturen. Schicht 2 - Navigations-Metadaten: Das sind ebenfalls fachlich orientierte Metadaten, die die Informationsflüsse beschreiben. Sie geben Antwort auf Fragen wie: Wo kommen die Daten her? Was ist die Aktualität der Daten? Wo werden die Daten noch verwendet? Schicht 3 - Administrations-Metadaten: Das sind IT-orientierte Metadaten, die die Rollen und Verantwortlichkeiten beschreiben. Sie geben Antwort auf Fragen wie: Wer ist verantwortlich? Wer soll Zugriff haben? Wer hat wann was getan Meta- und Stammdaten ergeben heute den single point of truth, den traditionellerweise das Data Warehouse bereitstellte. Datenintegration hat diese Rolle jetzt geändert. Das Business Vokabular spielt die zentrale Rolle. Es kontrolliert sowohl BPM wie Performance Management: Prozesse und Metriken brauchen eine einheitliche gemeinsame Sprache zur Modellierung und Kommunikation mit allen an den Prozessen Beteiligten. Stammdaten beschreiben die Datenobjekte von Prozessen und Regeln: Keine Prozesse, Metriken und Regeln ohne Daten! Stammdaten in einer SOA sind ja spezielle Informations-Services. In der Vergangenheit wurden Stammdaten in einer immer wieder neuen Variante im Rahmen von Applikationen implementiert. BI trifft BPM / Wolfgang Martin März 2011 Seite 71

72 Beispiel: Wenn Stammdaten redundant gehalten werden und über die Applikationen verstreut sind, dann entwickelt jede Applikation ihre eigene Terminologie. Die mangelnde Konsistenz wird zum Alptraum. Produkt- oder Auftragsnummern in einer Applikation stimmen mit denen in anderen Applikationen nicht überein. Die Kollaboration mit Lieferanten und Kunden wird zum Kostentreiber: Jedes Mal, wenn ein neuer Lieferant, ein neuer Kunde, ein neues Produkt dazu kommt, muss eine neue Übersetzungstabelle erstellt werden und/oder der neue Begriff in allen Übersetzungstabellen hinzugefügt werden. Das macht Änderungen langsam, fehleranfällig und teuer. Das unterstreicht noch mal deutlich ein Problem der Applikations-Orientierung: Applikationen verhalten sich wie Inseln. Innerhalb einer Applikation verwendete Begriffe und Modelle enden an den Grenzen der Applikation. Das führt zu Medienbrüchen bei applikationsüberschreitenden Prozessen und zu Inkonsistenzen und Redundanzen bei Metriken, Regeln und Business Vokabular. Im Endeffekt führen die immer komplexeren Integrations- und Synchronisationsaufwendungen zu nicht mehr erfüllbaren Wartungsaufgaben. Die IT erstarrt und wird zum Bremser für das Business. Agilität ist in der traditionellen Welt der Applikationen nicht möglich und nicht machbar. Meta- und Stammdaten Metadaten (DNA) analytische Stammdaten Kunden Partner Lieferanten Produkte Mitarbeiter operative Stammdaten Raum Zeit Plan Organisation Bestands/Bewegungsdaten operative Daten (OLTP) S.A.R.L. Martin Abbildung 23: Ableitung von Stammdaten aus operativen Daten (der OLTP online transaction processing Systeme) und Klassifikation in operative und analytische Stammdaten. Stammdaten sind Teil der fachlichen Schicht von Metadaten (D = Definition, N = Navigation, A = Administration). Prozess- und Service-Orientierung bietet einen Ausweg aus der traditionellen Applikations- Orientierung. Agilität wird erreicht, in dem Prozesse, Metriken, Regeln und Stammdaten BI trifft BPM / Wolfgang Martin März 2011 Seite 72

73 applikationsunabhängig werden, also aus den Applikationen herausgelöst und zentral verwaltet werden. Als Behälter für die Metadaten dient ein Repository. Es spielt deshalb auch die Rolle einer Integrationsdrehscheibe für die Metadaten aller Backend-Systeme im BPM. Wenn in einer SOA die Services von Backend-Systemen im Rahmen eines Prozesses miteinander kommunizieren sollen, dann müssen sie die Sprache sprechen, die durch das Business Vokabular im Repository festgelegt ist. Eine Punkt-zu-Punkt-Kommunikation führt hier wieder ins Chaos. Die Lösung ist, das Metadaten-Modell jedes Backend-Systems in das zentrale Business Vokabular des Repositories zu transformieren, dann kann über das zentrale Vokabular jeder mit jedem sprechen und das Anschließen neuer Systeme wird deutlich einfacher und schneller. Transparenz und Nachvollziehbarkeit Stammdaten-Management bezeichnet die Menge aller Policies, Services, Prozesse und Technologien zum Anlegen, Warten und Managen von Daten, die mit den Geschäfts-Entitäten als Datensatzsystem des Unternehmens verbunden sind. Lieferanten Unternehmen Meta- und Stammdaten Kunden Die 3 Säulen von Meta- und Stammdaten-Management Datenintegration Data Profiling Datenqualität Synchronisieren Repository Historisieren 24 Meta- und Stammdaten-Management ist Kern-Disziplin und integraler Bestandteil von Information Governance S.A.R.L. Martin Abbildung 24: Meta- und Stammdaten-Management bedeutet Informations-Services für das Synchronisieren und Historisieren von über verschiedene Applikationsinseln verstreute Meta- und Stammdaten einzurichten, um so über ein Repository allen Prozessen ein gemeinsames Business-Vokabular zur Verfügung zu stellen. Die optimale Architektur für ein solches Repository ist eine Hub & Spoke-Architektur analog zur Architektur eines ESBs. Die 3 Säulen von Meta- und Stammdaten-Management werden in Kap. 6.2 (Datenintegration) und Kap. 6.5 (Data Profiling und Datenqualität) diskutiert. Stammdaten sind spezielle fachliche Metadaten aus der Schicht 1. Sie beschreiben die Strukturen eines Unternehmens (Abb. 23). Man unterscheidet operative und analytische Stammdaten. Die operativen Stammdaten sind Teil der operativen Daten der OLTP (online transaction processing) Systeme. Man klassifiziert operative Daten in die (operativen) Stammdaten und die Bestands- und Bewegungsdaten. Die unterschiedlichen Typen von operativen Stammdaten leiten sich aus der Grundstruktur eines Unternehmens ab. Das sind alle an den Prozessen beteiligten Objekte und Personen, also die Produkte und die Geschäftsparteien: Mitarbeiter, Kunden, Händler und BI trifft BPM / Wolfgang Martin März 2011 Seite 73

74 Lieferanten. Die analytischen Stammdaten leiten sich aus dem Performance Management-Modell und Prozessträgermodell ab, also aus dem Prinzip des Messens und der Verantwortlichkeiten: Zeit, Raum, Plan und organisatorische Einheiten (wie Kostenstellen, Kostenträger etc.) Metadaten und Stammdaten sind nicht statisch. Nicht nur die Akquisition eines Unternehmens durch ein anderes Unternehmen verändert die Metadaten und die Stammdaten, in dem neue Strukturen notwendig werden, sondern jede Organisationsänderung, jede Geschäftsregeländerung, jede Marktänderung erfordert eine Fortschreibung des Metadaten- und des Stammdatenmodells. Aber jeweils nur den letzten Zustand des Metadaten- und des Stammdatenmodells in einem Repository, bzw. in einer Datenbank vorrätig zu haben, ist nicht ausreichend. Man braucht den gesamten Lebenszyklus der Meta- und Stammdaten für die Unternehmensplanung und die typischen analytischen Fragestellungen. Deshalb ist ein Meta- und Stammdaten-Management im Sinne eines Meta- und Stammdaten-Lebenszyklus- Management erforderlich. Das Repository muss also auch den Lebenszyklus aller Stamm- und Metadaten im Sinne einer Historisierung verfügbar haben (Abb. 24). Das ist heute eine Schwachstelle auf Anbieter- und Nutzerseite, aber ohne Meta- und Stammdatenmanagement geht es nicht: BPM-, Performance Management- und SOA-Initiativen werden sonst scheitern. 6.5 Datenqualität Vorsorge tut Not An welchem Tag im Jahr haben die meisten Menschen Geburtstag gemäß den in allen Datenbanken der Welt gespeicherten Daten über die Geburtstage? Unsinnige Frage? Ganz und gar nicht, denn das Ergebnis verblüfft: Es ist der Warum der ? Ganz einfach, wenn ein neuer Kunde in einer Datenbank erfasst wird, dann gibt es Muss -Felder und Kann -Felder. Bei den Muss-Feldern wird die Eingabe vom System geprüft, bei den Kann-Feldern nicht. Geburtstagsdaten sind häufig in Kann-Feldern gespeichert. Was passiert: der Mensch ist faul. Die schnellste und einfachste Eingabe ist eben 1,1,1,1,1... Für viele Millionen Euro haben Unternehmen SAP und andere Standardsoftware eingeführt. All die Daten sollten erfasst werden, die man braucht, um im Wettbewerb die Nase vorn zu haben: CRM per Selbstbedienung, Coupons, Pay-Cards, Klubs und Weblogs ist da ein durchaus erfolgreicher Ansatz bei der Jagd auf das Budget des Kunden. Kunden-Orientierung ist die Devise und Marketing, Vertrieb und Kundendienst arbeiten nolens volens in kollaborativen Prozessen zusammen. Mit Lauerkampagnen im Kundenkontaktzentrum und Webshop, mit Analytik, besonders mit Data Mining Lösungen ist die nachfrage- und kundengetriebene Supply Chain teilweise schon Realität. Voraussetzung dazu ist, dass die Datenqualität stimmt. Beispiel. In der Bekleidungsbranche ist es längst usus, die Daten jeder Verkaufstransaktion in einem Data Warehouse zu sammeln. Kundenprofile werden abgeleitet. Daraus setzen sich Nachfrageprofile pro Boutique zusammen. Entsprechend diesen Nachfrageprofilen werden die Waren-Kollektionen individuell pro Boutique zusammengestellt. Ergebnis: Der Kunde findet in seiner Boutique stets das Produkt, das er will. Er wird zufriedener, er kommt wieder, er wird ein immer profitablerer Kunde. Und auf BI trifft BPM / Wolfgang Martin März 2011 Seite 74

75 der Kostenseite lässt sich nachrechnen: Liegt in den Boutiquen die richtige Ware vor Ort, dann liegt weniger Ware auf Lager, und das bedeutet weniger Kosten. Einsparungen von 30% bis 40% Lagerhaltungskosten werden erzielt. Datenqualität ist die wesentliche Voraussetzung, um mit Information erfolgreicher zu werden. Das Prinzip garbage in garbage out ist gnadenlos. Stellt man erst beim Aufbauen von Performance Management Lösungen fest, dass die in SAP oder anderen Systemen gespeicherten Daten nicht den Qualitätsansprüchen von SOA basierenden Geschäftsprozessen genügen, dann ist es in der Regel zu spät. Beispiel. Ein großer europäischer Versandhändler hatte ein Problem mit seinen Geburtstagsdaten. Geburtstagsdaten dienen in einfachster Form der Altersbestimmung der Kunden. Das Alter ist ein überaus wichtiger Parameter in der Kundenbeziehung, vor allem im Konsumgüterbereich. Ausgerechnet die Altersangaben in seiner Datenbank waren unzuverlässig. Eine Lösung konnte gefunden werden, die Verbesserung brachte: Da Vornamen Modetrends unterliegen, lässt sich über den Vornamen mit einer gewissen Wahrscheinlichkeit das Alter des Kunden schätzen. Wie man sich vorstellen kann: Eine teure Lösung, die zudem niemals ganz sicher und zuverlässig ist. Viel teurer und viel ungenauer, als wenn man gleich von Anfang an die richtige Datenqualität in seine operativen Prozesse einbaut. Qualität gleich von Anfang an in die Prozesse einbauen, das klingt nach einer vertrauten, bekannten Maßnahme. Das war nämlich genau die Idee von TQM (total quality management) vor gut 20/25 Jahren in der Fertigungsindustrie. TQM für die Informatik ist nicht erst jetzt das Thema. Mit der Einführung von SAP & Co. hätte man datenqualitäts-sichernde Maßnahmen schon ergreifen sollen. Aber das Thema Datenqualität ist noch heute ein Dauerbrenner. Der Data Quality Check 2007 (Lehmann, Martin, Mielke, 2007), eine Untersuchung des deutschsprachigen Marktes zu Datenqualität und Datenqualitätsmanagement brachte es an den Tag: Nur 10% der Unternehmen betreiben ein Datenqualitätsmanagement wie weiter unten beschrieben, aber so gut wie alle meinen, es sei ein sehr wichtiges Thema. 61% der befragten Unternehmen setzen keine Werkzeuge zum Datenqualitätsmanagement ein! Was in den meisten Unternehmen immer noch fehlt, ist ein hinreichend hoch in der Unternehmenshierarchie angesiedelte(r) Verantwortliche(r) und Sponsor(in) von und für Datenqualität. Denn Datenqualität ist Chefsache. Beispiel. Nehmen wir an, Sie wollen eine 360 Grad Sicht auf den Kunden aufbauen, also den Kunden mit allen möglichen Ausprägungen kennen, damit Sie ihn immer bestens gemäß seinem Kundenwert bedienen können. Man weiß, dass 60% bis 80% der Aufwendungen für den Bau solcher integrierten Kundendaten in die Infrastruktur fließen. Bei dieser Datenintegration gilt es Daten aus unterschiedlichen Quellen zusammenzuführen in ein einheitliches Kundendatenmodell. Die Daten stammen aus unterschiedlichen operativen Systemen (Ein großer Mittelständler hat im Median 50 operative Systeme im Einsatz.), aus historischen und möglicherweise archivierten Datenbeständen und nicht zu vergessen: externe Marktdaten, demographische Daten und BI trifft BPM / Wolfgang Martin März 2011 Seite 75

76 Web-Klickstreamdaten. Weiter in unserem Beispiel. Beim Bauen Ihrer Kundendatenbank merken Sie auf einmal: System A hat eine Tabelle mit Daten über den Kunden, die man nur noch mit der Tabelle Z aus SAP verknüpfen müsste, dann hätte man eine tolle neue Sicht auf den Kunden. Nur leider ist das Verknüpfungsfeld eins der berühmten Kann-Felder (die immer so viele Einser enthalten). Damit scheitert die schöne Idee, diese Daten für den Fachbereich zusammenzuführen. Welcher Projektleiter kann schon zum Betreiber des Prozesses mit dem Kann-Feld in der besagten Tabelle gehen und ihm sagen, er solle ab sofort das Kann-Feld als Muss-Feld behandeln? Datenqualität ist eben Chefsache. In führenden, fortgeschrittenen Unternehmen gibt es bereits Datenqualitäts-Direktoren, die direkt an den CIO (Chef Information Officer) berichten. Der CIO trägt die TQM-Initiative in die Geschäftsleitung und macht sie zu einer Change Culture-Aufgabe. Der Datenqualitäts-Direktor koordiniert die Rollen von Data Custodians und von Data Stewards. Data Custodians sitzen an verantwortlicher Stelle in den Fachabteilungen, sind in der Regel die Prozess-Verantwortlichen. Ihnen wird die Verantwortung für die Stamm- und Bewegungsdateninhalte und die Metadaten delegiert. Die Data Stewards werden den Data Custodians zugeordnet und helfen deren organisatorische Maßnahmen IT-technisch umzusetzen. Sie waren in der Vergangenheit Datenbankadministratoren oder Datenadministratoren. Datenqualität sollte bereits in die operativen Prozesse im Rahmen einer TQM-Initiative eingebaut werden. Die vier Eckpfeiler von Datenqualität sind 12 : Qualität wird als Grad der Übereinstimmung mit Anforderungen definiert. Das Grundprinzip der Qualitätsplanung ist Vorbeugung. Null-Fehler-Prinzip muss zum Standard werden. Qualitätskosten sind die Kosten für Nichterfüllung der Anforderungen. Und was kann man tun, wenn man mit der Vorsorge erst heute beginnt? Was tun, um Datenqualität in die existierenden Datenbestände zu bringen. Da gibt es zwei komplementäre Gruppen von Werkzeugen. Data-Profiling. Mit Data Profiling wird die Beschaffenheit von Daten analysiert und ein Datenprofil mit identifizierten Mängeln und Eigenschaften der untersuchten Daten erstellt. Dazu dienen drei Typen von Analysen: Feld-Profile. Die Analyse von Inhalt und Struktur einzelner Attribute lässt Datenqualitätsprobleme im Zusammenhang mit Datentypen, Wertebereichen, Verteilungen und Varianzen erkennen. Abhängigkeits-Profile. Im Rahmen einer Abhängigkeitsanalyse werden die Verbindungen zwischen Attributen einer Relation überprüft. Das ergibt Aufschluss über erwartete, unerwartete und unscharfe funktionale Abhängigkeiten sowie potenzielle Schlüsselattribute. Damit erhält man eine gute Unterstützung zur Normalisierung von Datenquellen. 12 Nach Philip Bernd Crosby BI trifft BPM / Wolfgang Martin März 2011 Seite 76

77 Redundanz-Profile. Mittels einer Analyse der Überlappungen zwischen Attributen verschiedener Relationen können Redundanzen und Fremdschlüsselbeziehungen innerhalb eines Datenbestandes aufgedeckt werden. Data Profiling Abbildung 25: Informatica-Screenshot als Beispiel für Data Profiling. 1. Auswahl der Datenquelle und Analyseschritte. 2. Aufsetzen von auto-profiling Jobs (Stapelverarbeitung). 3. Ergebnisanzeige mit Drill Down. 4. graphische Darstellung von Ergebnissen. 5. Notizen und Benachrichtigungen. 6. Zusammenfassung der Ergebnisse. Werkzeuge zum Data Profiling (vgl. Abb. 25) setzen Verfahren der deskriptiven Statistik (Verteilungsanalysen, Ausreißertests etc.) sowie des Data Mining (regelbasierende oder Cluster- Analysen und Entscheidungsbaumverfahren) ein. Das Data Profiling dient also zur Ist-Analyse und Aufwandsschätzung für alle weiteren Aktivitäten. Durch den Einsatz von Werkzeugen werden Datenqualitätsprobleme wesentlich schneller erkannt als mit einer manuellen Analyse. Data-Cleansing. Datenbereinigung nutzt verschiedene Methoden: Parsing: Zusammengesetzte Einträge in Datenfeldern werden in deren atomare Bestandteile zerlegt. Semantischer Ansatz: Daten werden nach definierten Regeln in Standardwerte und -formate überführt. BI trifft BPM / Wolfgang Martin März 2011 Seite 77

78 Benchmarking: Vergleich unternehmensinterner Daten mit externen Datenbeständen zur Verifizierung. Matching: Identifikation von ähnlichen Inhalten in unterschiedlichen Datenfeldern (beispielsweise die Zuordnung von Kundeninformation in verschiedenen Applikationen zu ein und demselben Kunden). Dubletten werden bereinigt (typisch für CRM: Adressbereinigung). Konsolidierung: Zusammenführen von verstreuter Information zu vollständigen Datensätzen (beispielsweise das Zusammenführen der Kundenadresse). Householding: Aufdecken von Zusammenhängen in den Daten, beispielsweise das Identifizieren aller Privatpersonen eines Haushalts. Datenanreicherung: Mit Hilfe externer Daten kann der Nutzen der bereinigten unternehmensinternen Daten gesteigert werden. Grundsätzlich lassen sich hier wahrscheinlichkeitstheoretische, deterministische und wissensbasierende Verfahren unterscheiden. Die beiden ersten Ansätze nutzen entsprechende Algorithmen, der wissensbasierende Ansatz nutzt landesspezifische Wissensdatenbanken zur Adresszusammensetzung, Namen oder Rechtsformen. Das Managen der Qualitätsstandards ist ja wie schon gesagt ein Prozess. Hierzu werden Profiling- und Cleansing-Aktivitäten kombiniert, da beide auch Information zum aktuellen Stand der Qualität liefern. Die periodische Ausführung des Prozesses hilft, die Qualität der gesamten Datenbasis kontinuierlich zu überwachen und sollte Bestandteil des TQM Ansatzes für Datenqualität sein. Insofern lässt sich dieser Ansatz auch wieder bestens mittels SOA implementieren, da ja in diesem Prozess der Einsatz der Datenqualitätswerkzeuge per Services mit der Logik des TQM-Modells orchestriert wird. 6.6 Information Governance Schlüssel zu erfolgreichem Information Management Kritischer Erfolgsfaktor für Information Management ist schließlich die Governance. Information Management braucht eine geeignete Organisation mit klaren Rollen und Verantwortlichkeiten, es braucht die richtigen und rigorosen Prozesse und Policies (die Regeln ), und nicht zuletzt braucht es die richtige Technologie und Plattform, auf der die Information Governance abgebildet werden kann. Die richtige Information Governance dient dazu, Information Management zu industrialisieren im Sinne von schlanken Prozessen. Beim Aufbau einer Information Governance sind für die beschriebenen Aspekte von Information Management jetzt die Prozesse und Policies zu modellieren und zu implementieren. Dazu kommt auch ein kontinuierlicher Verbesserungsprozess. Wie die Geschäftsprozesse werden auch die Governance-Prozesse des Information Management mittels eines Performance Management operativ gesteuert. Auf der strategischen und taktischen Ebene dienen die gemachten Erfahrungen BI trifft BPM / Wolfgang Martin März 2011 Seite 78

79 zu einer stetigen Verbesserung der Prozesse. Das ist der Schlüssel zu einem industrialisiertem Information Management. Weiterhin ist im Zuge des Aufbaus von Information Management die Organisation im Sinne von organisatorischer Einheit, Rollen und Verantwortlichkeiten zu bestimmen. Hier hat sich als Best- Practice ein Kompetenzzentrum für Information Management bewährt. Die Organisationsstruktur besteht analog dem eines BI-Kompetenzzentrums (vgl. Kap. 3.3) aus einem Leitungsgremium, dem ein Information Management-Sponsor vorsitzt, dem eigentlichen Information Management-Kompetenzzentrum und den Data Stewards. Der Sponsor sollte aus der Geschäftsführung oder dem Vorstand kommen, damit die Information Management-Strategie und die Policies der Information Governance auch durchgesetzt werden können. Die Data Stewards sitzen in den Fachbereichen und sind dort über die Information Governance eingebunden. Das Information Management-Kompetenzzentrum zentralisiert das Management der Information Management-Strategie und der Information Management-Methoden, -Standards, -Regeln und - Technologien. Sein Leitsatz ist: Das Information Management-Kompetenzzentrum plant, leitet und koordiniert Information Management-Projekte und sorgt für den effizienten Einsatz von Personal und Technologie. Da Information Management sowohl Grundlage für Performance Management und Analyse als auch für Prozess-Management ist, empfiehlt es sich sowohl ein BI-Kompetenzzentrum für die eigentlichen Aufgaben in Performance Management und Analytik zu haben also auch ein Kompetenzzentrum für Information Management. In diesem Sinne sollte eine Information Governance die Governance-Prozesse und Policies der folgenden Aufgaben (vgl. Kap. 6.1) abdecken: Daten-Definition per Business-Vokabular Meta- und Stammdaten-Management Datenmodellierung Datenqualitäts-Management Datenintegration Daten-Klassifikation Daten-Sicherheit und Schutz Content Management (Web, Rich Media) Schließlich ist die Technologie auszuwählen, die die Prozesse entsprechend unterstützt. Hier ist heute eine service-orientierte Plattform state-of-the-art, da so auch die Information Management- Prozesse selbst den Zielen Industrialisierung, Agilität und Compliance gerecht werden. Das Ergebnis sind schlanke Prozesse fürs Information Management. Fazit: Information Management braucht eine Information Governance, um vertrauenswürdige Daten zu schaffen. Information Governance bringt Menschen, Strategien, Prozesse und Organisation zusammen. Mit der richtigen Governance lässt sich ein schlankes Information Management aufbauen: Man erreicht die Industrialisierung des Information Management, mit anderen Worten: den besten Wirkungsgrad im Sinne des Kosten- und Ressourceneinsatzes. BI trifft BPM / Wolfgang Martin März 2011 Seite 79

80 7 Auf die Latenz kommt es an Performance Management und Analytik muss heute alle Aspekte der Überwachung und Steuerung nahtlos bedienen operative, taktische und strategische. Analyse, Überwachung und Steuerung muss ja mit der Prozessgeschwindigkeit synchronisiert werden (vgl. Abb. 4 und 5). Bei der operativen Überwachung und Steuerung von Prozessen spielen Echtzeit-Technologien wie Business Activity Monitoring und Complex Event Processing eine große Rolle. Die Aufgabe ist, aus dem operativen Verlauf eines Prozesses heraus Probleme und Risiken zu erkennen und basierend auf dieser Kenntnis heraus Gegenmaßnahmen zur Prozesssteuerung einzuleiten. Das ist das operative Performance Management von Prozessen wie wir es vom Prinzip her bereits im Kap. 3.1 kennengelernt haben. Das wird in Kap. 7.1 vertieft. Bei der Analyse spielen neue Datenbanktechnologien eine immer größere Rolle. Sie sind darauf ausgelegt, riesige Datenbestände bei gleichzeitig hoher Anzahl von Abfragen durch viele bis sehr viele Nutzer in Sekundenschnelle zu analysieren: Analytik und die analytischen Prozesse werden beschleunigt. Es gibt Ansätze hierzu schon seit über 15 Jahren, aber erst seit 2010 nimmt der Einsatz solcher analytischen Datenbanken zu. Ein weiterer Anstieg der Nachfrage nach analytischen Datenbanken in 2011/12 ist zu erwarten, nicht nur ganz allgemein in Analytik, sondern auch ganz besonders im analytischen CRM, wenn es um den Kunden und das Kundenwissen geht. Analytische Datenbanken diskutieren wir in Kap Business Activity Monitoring und Complex Event Processing Das Konzept der Prozessorientierung verlangt, dass Prozesse, wenn immer möglich und sinnvoll, zu automatisieren sind. Dazu gehört insbesondere, dass Metriken für ein Performance Management automatisierter Prozesse umso wichtiger werden, da in operativ laufenden Prozessen Abweichungen vom Normalverhalten auch automatisch erkannt werden sollten und, wenn möglich, auch per Autopilot gesteuert werden sollten. Das bewirken Metriken, die Entscheidungsmaschinen treiben: So können Maßnahmen automatisch ausgelöst werden. Aber nicht jeder Prozess ist voll automatisierbar: In Ausnahmesituationen, beim Eskalations- Management, bei Genehmigungsverfahren, bei Eingabe von Triggern (im Falle von Selbstbedienung) und vor allem im Rahmen von kollaborativen Diensten sind menschliche Interaktionen stets nötig. Ein Prozess besteht daher in der Regel aus einer Kombination von automatisierten Teilstrecken und manuellen Eingriffen. Wenn jetzt das Entdecken von Alarmsituationen und das Erkennen von Ausnahmesituationen zeitkritisch wird, werden menschliche Reaktionen mitunter zu langsam. Jetzt kommt es auf die Latenz an, die Aktionszeit wird kritisch (Abb. 26). Das Aktionszeitmodell zeigt drei kritische Phasen: Daten-Latenz, Analyse- Latenz, Entscheidungs-Latenz. Datenlatenz wird durch Echtzeit-Datenintegration (Abb. 21) adressiert. Es gibt zwei Optionen, wie wir gesehen haben: Niedriglatenz- und Nulllatenz-Datenintegration. Das hatten wir schon in Kapitel 6.1 diskutiert. BI trifft BPM / Wolfgang Martin März 2011 Seite 80

81 Abbildung 26: Im operativen Performance Management (BAM und CEP) kann Zeit zu einem kritischen Faktor werden. Das Aktionszeitmodell zerlegt Aktionszeit in Daten-Latenz, Analyse-Latenz, Entscheidungs- Latenz, und es zeigt, durch welche Ansätze die Aktionszeit minimiert werden kann. Analyselatenz wird durch Business Activity Monitoring(BAM)- und Complex Event Processing (CEP)-Lösungen adressiert: Analytik muss jetzt in Echtzeit verfügbar sein. Dabei hängt die Analyselatenz von der Komplexität des Ereignisses ab. Deshalb ist es vorteilhaft, unterschiedliche Typen von Ereignissen herauszuarbeiten, um die unterschiedlichen Typen von BAM- und CEP- Lösungen und deren Anforderungen an Analyselatenz zu verstehen. Wir folgen hier den Ansätzen von Luckham (2002). Einfache Ereignisse. Das sind Ereignisse, bei denen alle Daten zur Entdeckung des Ereignisses mit dem Eintreten des Ereignisses zur Verfügung stehen. Beispiele wie Produktverfügbarkeit oder Produktlieferbarkeit hatten wir schon kennengelernt. Im Prinzip geht es hier beim BAM um das Vergleichen einer Metrik mit einem kritischen Schwellenwert um Aktionen zum Gegensteuern auszulösen. Der wirklich kritische Teil der Latenz ist hier in der Regel die Datenlatenz, da die Analyselatenz aufgrund des Berechnens einer solchen Metrik klein gegen die Datenlatenz ist. Analyselatenz wird aber kritisch, wenn man prädiktive Modelle einsetzt. Es ist in der Regel ausgeschlossen, eine Ableitung des prädiktiven Modells im Augenblick der vorzunehmenden Analyse durchzuführen: Data Mining Verfahren arbeiten in der Regel nicht in Echtzeit. Das war der Grund, warum die Ableitung eines prädiktiven Modells per Data Mining von seiner Nutzung in operativen Prozessen strikt getrennt wurde (vergl. Kap. 4.5). Ein einmal abgeleitetes Modell wurde offline eingesetzt, und man half sich hier, indem man das prädiktive Modell regelmäßig (z. B. wöchentlich, monatlich) neu ableitete. Hier bringen neue Ansätze eine Alternative. Mittels adaptiver Algorithmen werden prädiktive Modelle selbstlernend und passen sich im operativen BI trifft BPM / Wolfgang Martin März 2011 Seite 81

Business Intelligence Meets SOA

Business Intelligence Meets SOA Business Intelligence Meets SOA Microsoft People Ready Conference, München, Nov. 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

Intelligente Unternehmens- und Prozesssteuerung durch CPM

Intelligente Unternehmens- und Prozesssteuerung durch CPM Intelligente Unternehmens- und Prozesssteuerung durch CPM 5. IIR Forum BI, Mainz, Sept. 2006 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

Das bessere Unternehmen Industrialisierung von Information Management

Das bessere Unternehmen Industrialisierung von Information Management Das bessere Unternehmen Industrialisierung von Information Management Webcast, April 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Chefsache Information Management Unternehmen

Mehr

Prozessorientierte Applikationsund Datenintegration mit SOA

Prozessorientierte Applikationsund Datenintegration mit SOA Prozessorientierte Applikationsund Datenintegration mit SOA Forum Business Integration 2008, Wiesbaden Dr. Wolfgang Martin unabhängiger Analyst und ibond Partner Business Integration 1998 2008 Agenda Business

Mehr

Das intelligente Unternehmen

Das intelligente Unternehmen Das intelligente Unternehmen Das Office of the CFO als Leitstand SAP Infotage, Düsseldorf, Okt. 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut

Mehr

The Need for Speed. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

The Need for Speed. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor The Need for Speed CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor The Need for Speed Industrialisierung, Agilität und Compliance die Rolle von Performance Management

Mehr

Prozess- und Service-Orientierung im Unternehmen mehr als Technologie

Prozess- und Service-Orientierung im Unternehmen mehr als Technologie Prozess- und Service-Orientierung im Unternehmen mehr als Technologie Presse Talk CeBIT 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010

Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010 Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Information Governance Information Management

Mehr

Unternehmen agil gestalten und die Geschäftsprozesse industrialisieren

Unternehmen agil gestalten und die Geschäftsprozesse industrialisieren Unternehmen agil gestalten und die Geschäftsprozesse industrialisieren Oracle Fusion Middleware Event Dezember 2008 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor

Mehr

Von BI zu Analytik. bessere Entscheidungen basiert auf Fakten. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Von BI zu Analytik. bessere Entscheidungen basiert auf Fakten. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Von BI zu Analytik bessere Entscheidungen basiert auf Fakten Webinar Mai 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Von Business Intelligence zu Analytik Die Bedeutung

Mehr

DMS trifft SOA neue Potentiale erkennen und innovativ umsetzen

DMS trifft SOA neue Potentiale erkennen und innovativ umsetzen DMS trifft SOA neue Potentiale erkennen und innovativ umsetzen DMS, September 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence

Mehr

Business Intelligence Governance

Business Intelligence Governance Business Intelligence Governance von der Vision zur Realität im Unternehmensalltag Webinar September 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das intelligente Unternehmen

Mehr

Die Rolle von Stammdaten-Management in einer SOA

Die Rolle von Stammdaten-Management in einer SOA Die Rolle von Stammdaten-Management in einer SOA Frankfurt, Sept. 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence Rolle

Mehr

Business Intelligence

Business Intelligence Business Intelligence TOP Priorität für CIOs? Köln 08. Mai 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence BI TOP Priorität

Mehr

Rolle des Stammdatenmanagements in einer SOA

Rolle des Stammdatenmanagements in einer SOA Rolle des Stammdatenmanagements in einer SOA Forum Stammdatenmanagement, November 2006 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

Standortbestimmung: Business Integration trifft SOA

Standortbestimmung: Business Integration trifft SOA Standortbestimmung: Business Integration trifft SOA SOA & Business Integration, Zürich 2006 Dr. Wolfgang Martin unabhängiger Analyst ibond Partner Business Integration trifft SOA Prozesse und Services:

Mehr

Konsolidierung & Synchronisierung von strategischer, Finanz- und operativer Planung Executive Breakfast, Juni 2013

Konsolidierung & Synchronisierung von strategischer, Finanz- und operativer Planung Executive Breakfast, Juni 2013 Konsolidierung & Synchronisierung von strategischer, Finanz- und operativer Planung Executive Breakfast, Juni 2013 Dr. Wolfgang Martin Analyst, Mitglied im Boulder BI Brain Trust Planung synchronisieren

Mehr

Business Process Management Geschäftstransformation und -optimierung

Business Process Management Geschäftstransformation und -optimierung Business Process Management Geschäftstransformation und -optimierung BEA Roadshow Jan/Feb 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für

Mehr

Mehr Zeit für das Wesentliche Business Process Management

Mehr Zeit für das Wesentliche Business Process Management Mehr Zeit für das Wesentliche Business Process Management d.forum, Münster im Mai 2009 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Business Process Management Unternehmen und

Mehr

Wachstumsförderung mit CRM

Wachstumsförderung mit CRM Wachstumsförderung mit CRM Computerwoche CRM Initiative Feb. 2007 Dr. Wolfgang Martin Analyst, Mitglied im CRM-Expertenrat und Research Advisor am Institut für Business Intelligence Wachstumsförderung

Mehr

Planung und Effizienz durch optimale Datenqualität sicherstellen Frankfurt, März 2013

Planung und Effizienz durch optimale Datenqualität sicherstellen Frankfurt, März 2013 Planung und Effizienz durch optimale Datenqualität sicherstellen Frankfurt, März 2013 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Immer wieder: Datenqualität Begann es 1805?

Mehr

Master Data Management als Basis für eine Enterprise SOA Strategie

Master Data Management als Basis für eine Enterprise SOA Strategie Master Data Management als Basis für eine Enterprise SOA Strategie Executive Round Table MDM, Wien, Februar 2008 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor

Mehr

Effiziente Geschäftsprozesse durch Datenqualitäts-Initiativen und flexible Datenintegration Uniserv Innovative, Mai 2011

Effiziente Geschäftsprozesse durch Datenqualitäts-Initiativen und flexible Datenintegration Uniserv Innovative, Mai 2011 Effiziente Geschäftsprozesse durch Datenqualitäts-Initiativen und flexible Datenintegration Uniserv Innovative, Mai 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Immer wieder:

Mehr

SOA-enabled Business Intelligence

SOA-enabled Business Intelligence SOA-enabled Business Intelligence 5. IIR Forum BI, Mainz, Sept. 2006 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence Agilität

Mehr

Enterprise Intelligence die Rollen von Performance Management und Analytik: Status Quo und Trends Enterprise Intelligence 2010

Enterprise Intelligence die Rollen von Performance Management und Analytik: Status Quo und Trends Enterprise Intelligence 2010 Enterprise Intelligence die Rollen von Performance Management und Analytik: Status Quo und Trends Enterprise Intelligence 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Enterprise

Mehr

Maximieren Sie Ihr Informations-Kapital

Maximieren Sie Ihr Informations-Kapital Maximieren Sie Ihr Informations-Kapital Zürich, Mai 2014 Dr. Wolfgang Martin Analyst, Mitglied im Boulder BI Brain Trust Maximieren des Informations-Kapitals Die Digitalisierung der Welt: Wandel durch

Mehr

Agile Business Services mit Business Mashups

Agile Business Services mit Business Mashups Agile Business mit Business Mashups München, Feb. 2009 Dr. Wolfgang Martin unabhängiger Analyst und ibond Partner Agile Business Verschlankung der IT: Industrialisierte Software- Produktion Jenseits von

Mehr

BPM: Integrierte Prozesse im ecommerce

BPM: Integrierte Prozesse im ecommerce BPM: Integrierte Prozesse im ecommerce Vom Geschäftsprozess bis zur lauffähigen Applikation. Thomas Grömmer Head of Business Process Solutions Ulf Ackermann Consultant Business Process Solutions Solution

Mehr

Webinar: Mit TIBCO Spotfire wird Business Intelligence jetzt kollaborativ, mobil und social

Webinar: Mit TIBCO Spotfire wird Business Intelligence jetzt kollaborativ, mobil und social Webinar: Mit TIBCO Spotfire wird Business Intelligence jetzt kollaborativ, mobil und social Mit TIBCO Spotfire können nun Geschäftsanwender jederzeit und überall ihre Analytics-Anwendungen selbst entwickeln,

Mehr

Themeneinführung. Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence

Themeneinführung. Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence Themeneinführung Zukunftswerkstatt IT, Workshop Lüneburg, Mai 2007 www.alternus.de Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence

Mehr

Capture Enabled BPM mobile und agile Prozesse

Capture Enabled BPM mobile und agile Prozesse Capture Enabled BPM mobile und agile Prozesse Frankfurt/M, September 2012 Dr. Wolfgang Martin unabhängiger Analyst Capture Enabled BPM BPM: Definitionen Prozess und Prozess-Infrastruktur Performance Management

Mehr

Integration mit Service Repositories zur SOA Governance

Integration mit Service Repositories zur SOA Governance Integration mit Service Repositories zur SOA Governance Nürnberg, 10.11.2009 I N H A L T 1. SOA Governance 2. Service Repository 3. Modelle und Service Repository 4. Modell-Driven SOA I N H A L T 1. SOA

Mehr

SIX SIGMA TEIL 1: EINFÜHRUNG IN DMAIC MARTIN ZANDER. Green Belt Level

SIX SIGMA TEIL 1: EINFÜHRUNG IN DMAIC MARTIN ZANDER. Green Belt Level 2010 SIX SIGMA TEIL 1: EINFÜHRUNG IN SIX SIGMA DMAIC MARTIN ZANDER Green Belt Level 2 M. ZANDER SIX SIGMA TEIL 1: EINFÜHRUNG IN SIX SIGMA Dieses Buch wurde online bezogen über: XinXii.com Der Marktplatz

Mehr

Die Rolle des Stammdatenmanagements im digitalen Unternehmen

Die Rolle des Stammdatenmanagements im digitalen Unternehmen Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Die Rolle des Stammdatenmanagements im digitalen Unternehmen Frankfurt, April 2015 Die Digitalisierung der Welt Nach der Globalisierung

Mehr

Next Generation BI/CRM

Next Generation BI/CRM Next Generation BI/CRM Altran IT Praxistage BI 2006 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence Next Generation BI/CRM

Mehr

Analytisches CRM in der Automobilindustrie

Analytisches CRM in der Automobilindustrie Analytisches CRM in der Automobilindustrie Dr. Frank Säuberlich Practice Manager European Customer Solutions Urban Science International GmbH Automobilhersteller müssen neue Wege gehen Anforderungen in

Mehr

SOA Check 2009 Ergebnisse einer empirischen Studie

SOA Check 2009 Ergebnisse einer empirischen Studie SOA Check 2009 Ergebnisse einer empirischen Studie Dr. Wolfgang Martin Analyst Dipl.-Wirtsch.-Ing. Julian Eckert Stellv. Leiter Forschungsgruppe IT-Architekturen, FG Multimedia Kommunikation, Technische

Mehr

Information Governance Ergebnisse einer Marktbefragung zum Status Quo und Trends. Dr. Wolfgang Martin Analyst

Information Governance Ergebnisse einer Marktbefragung zum Status Quo und Trends. Dr. Wolfgang Martin Analyst Information Governance Ergebnisse einer Marktbefragung zum Status Quo und Trends Dr. Wolfgang Martin Analyst Governance Begriffsbestimmung Governance bezeichnet die verantwortungsvolle, nachhaltige und

Mehr

Cockpits und Standardreporting mit Infor PM 10 09.30 10.15 Uhr

Cockpits und Standardreporting mit Infor PM 10 09.30 10.15 Uhr Cockpits und Standardreporting mit Infor PM 10 09.30 10.15 Uhr Bernhard Rummich Presales Manager PM Schalten Sie bitte während der Präsentation die Mikrofone Ihrer Telefone aus, um störende Nebengeräusche

Mehr

Business Performance Management Next Generation Business Intelligence?

Business Performance Management Next Generation Business Intelligence? Business Performance Management Next Generation Business Intelligence? München, 23. Juni 2004 Jörg Narr Business Application Research Center Untersuchung von Business-Intelligence-Software am Lehrstuhl

Mehr

HYBRID CLOUD IN DEUTSCHLAND 2015/16

HYBRID CLOUD IN DEUTSCHLAND 2015/16 Fallstudie: IBM Deutschland GmbH IDC Multi-Client-Projekt HYBRID CLOUD IN DEUTSCHLAND 2015/16 Mit hybriden IT-Landschaften zur Digitalen Transformation? IBM DEUTSCHLAND GMBH Fallstudie: Panasonic Europe

Mehr

Business Analytics Die Finanzfunktion auf dem Weg zur Strategieberatung? IBM Finance Forum, 20. März 2013 Prof. Dr.

Business Analytics Die Finanzfunktion auf dem Weg zur Strategieberatung? IBM Finance Forum, 20. März 2013 Prof. Dr. v Business Analytics Die Finanzfunktion auf dem Weg zur Strategieberatung? IBM Finance Forum, 20. März 2013 Prof. Dr. Gerhard Satzger Agenda 1. Wie sieht die erfolgreiche Finanzfunktion von morgen aus?

Mehr

SAP Support On Demand - IBMs kombiniertes Service-Angebot für SAP Hosting und SAP Application Management Services (AMS)

SAP Support On Demand - IBMs kombiniertes Service-Angebot für SAP Hosting und SAP Application Management Services (AMS) (IGS) SAP Support On Demand - IBMs kombiniertes Service-Angebot für SAP Hosting und SAP Application Services (AMS) Martin Kadner, Product Manager SAP Hosting, GTS Klaus F. Kriesinger, Client Services Executive,

Mehr

Analytisches CRM und Data Mining

Analytisches CRM und Data Mining Analytisches CRM und Data Mining Magische Zahlen für das Marketing Computerwoche Initiative CRM 2009 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Mitglied im CRM Expertenrat

Mehr

Den Unterschied machen Ein Leitfaden für IT- Entscheider in Versicherungsunternehmen

Den Unterschied machen Ein Leitfaden für IT- Entscheider in Versicherungsunternehmen Den Unterschied machen Ein Leitfaden für IT- Entscheider in Versicherungsunternehmen Den Unterschied machen Ein Leitfaden für IT- Entscheider in Versicherungsunternehmen Das Asskura- Modell ist ein Werkzeug,

Mehr

Die Brücke zwischen Geschäftszielen und der IT BPM & SOA

Die Brücke zwischen Geschäftszielen und der IT BPM & SOA Die Brücke zwischen Geschäftszielen und der IT BPM & SOA Carsten Kreß Corporate BPM Manager June 2005 1 Modernes Dienstleistungsmanagement Herausforderungen stärkere norientierung verbesserter nservice

Mehr

Mobile BI and the Cloud

Mobile BI and the Cloud Mobile BI and the Cloud CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Mobile BI and the Cloud Evolution von Business Intelligence Cloud Computing: auf das Cloud-Modell

Mehr

Business Intelligence was macht Unternehmen intelligent? White Paper

Business Intelligence was macht Unternehmen intelligent? White Paper Business Intelligence was macht Unternehmen intelligent? White Paper Autor: Jens Blank Juli 2012 Wassermann AG Westendstraße 195 80686 München www.wassermann.de Zusammenfassung Über traditionelle Ansätze

Mehr

ALLPLAN BIM ESSENTIAL SERIES BIM MANAGEMENT GUIDE

ALLPLAN BIM ESSENTIAL SERIES BIM MANAGEMENT GUIDE ALLPLAN BIM ESSENTIAL SERIES BIM MANAGEMENT GUIDE WAS IST BIM? Building Information Modeling (BIM) Building information modeling is a process of representation, which creates and maintains multidimensional,

Mehr

Oracle Scorecard & Strategy Management

Oracle Scorecard & Strategy Management Oracle Scorecard & Strategy Management Björn Ständer ORACLE Deutschland B.V. & Co. KG München Schlüsselworte: Oracle Scorecard & Strategy Management; OSSM; Scorecard; Business Intelligence; BI; Performance

Mehr

IDV Assessment- und Migration Factory für Banken und Versicherungen

IDV Assessment- und Migration Factory für Banken und Versicherungen IDV Assessment- und Migration Factory für Banken und Versicherungen Erfassung, Analyse und Migration von Excel- und AccessAnwendungen als User-Selfservice. Sind Ihre Excel- und Access- Anwendungen ein

Mehr

SOA und kollaborative Geschäftsprozessmodellierung im Internet der Dienste. Dr. Walter Waterfeld, Software AG

SOA und kollaborative Geschäftsprozessmodellierung im Internet der Dienste. Dr. Walter Waterfeld, Software AG SOA und kollaborative Geschäftsprozessmodellierung im Internet der Dienste Dr. Walter Waterfeld, Software AG SOA Status Zunehmende Anzahl von SOA Projekten Erfahrungen aus ersten abgeschlossenen Projekte

Mehr

Prozess- und Datenmanagement Kein Prozess ohne Daten

Prozess- und Datenmanagement Kein Prozess ohne Daten Prozess- und Datenmanagement Kein Prozess ohne Daten Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Prozess- und Datenmanagement Erfolgreiche Unternehmen sind Prozessorientiert.

Mehr

COBIT 5/ITIL-Convergence?

COBIT 5/ITIL-Convergence? IT-Tagung 2012 COBIT 5/ITIL-Convergence? Massood Salehi 1 Agenda Ursachen für den fehlenden Gorvernance in den Unternehmen Die Stellung von COBIT im Unternehmen ITIL Sicht im Betrieb Parallelen und Unterschiede

Mehr

Herausforderungen im Stammdaten-Management meistern: Data Governance

Herausforderungen im Stammdaten-Management meistern: Data Governance Herausforderungen im Stammdaten-Management meistern: Data Governance Bad Homburg Ts., Okt. 2009 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Data Governance Balance zwischen

Mehr

Stammdaten-Management 2013

Stammdaten-Management 2013 Stammdaten-Management 2013 Bad Homburg Ts., Okt. 2008 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence Stammdaten-Management

Mehr

Hannover, 20.03.2015 Halle 5 Stand A36

Hannover, 20.03.2015 Halle 5 Stand A36 Integrierte Unternehmensinformationen als Fundament für die digitale Transformation vor allem eine betriebswirtschaftliche Aufgabe Hannover, 20.03.2015 Halle 5 Stand A36 Business Application Research Center

Mehr

Mobile Analytics mit Oracle BI - was steckt in den Apps?

Mobile Analytics mit Oracle BI - was steckt in den Apps? Mobile Analytics mit Oracle BI - was steckt in den Apps? Schlüsselworte Oracle BI, OBIEE, Mobile, Analytics Einleitung Gerd Aiglstorfer G.A. itbs GmbH Eching Oracle erweiterte im Laufe dieses Jahres das

Mehr

Interview zum Thema Management Reporting &Business Intelligence

Interview zum Thema Management Reporting &Business Intelligence Interview zum Thema Management Reporting &Business Intelligence Das ist ja interessant. Können Sie etwas näher beschreiben, wie ich mir das vorstellen kann? Jens Gräf: In einem Technologieunternehmen mit

Mehr

Integral statt fragmentiert Erneuter Weckruf: Digitalisierung ist kein reines IT-Thema!

Integral statt fragmentiert Erneuter Weckruf: Digitalisierung ist kein reines IT-Thema! Integral statt fragmentiert Erneuter Weckruf: Digitalisierung ist kein reines IT-Thema! Die Digitale Transformation ist ein omnipräsentes Thema. Spätestens im Jahr 2015 kommt kein Unternehmen mehr daran

Mehr

Portal-Software. ideale Marketing- und Verkaufs-Plattformen. Peter Schupp. SCMT GmbH Gottlieb-Manz-Str. 10 70794 Filderstadt

Portal-Software. ideale Marketing- und Verkaufs-Plattformen. Peter Schupp. SCMT GmbH Gottlieb-Manz-Str. 10 70794 Filderstadt Peter Schupp SCMT GmbH Gottlieb-Manz-Str. 10 70794 Filderstadt +49 (711) 44080844 peter.schupp@scmt.com SCMT 2009 www.scmt.com womit ich Sie heute nicht quälen will Was ich Ihnen nicht zumuten möchte Quelle:

Mehr

SOA Governance Konzepte und Best Practices

SOA Governance Konzepte und Best Practices SOA Governance Konzepte und Best Practices Gerd Schneider Senior Director SOA Marketing Software AG 2/27/2007 Agenda Überblick SOA Governance Warum SOA Governance? Kundenbeispiel SAS Airlines Technische

Mehr

Data Governance Informationen kontrolliert managen

Data Governance Informationen kontrolliert managen make connections share ideas be inspired Data Governance Informationen kontrolliert managen Michael Herrmann SAS Copyright 2013, SAS Institute Inc. All rights reserved. DATA GOVERNANCE TRENDS UND TREIBER:

Mehr

gallestro BPM - weit mehr als malen...

gallestro BPM - weit mehr als malen... Ob gallestro das richtige Tool für Ihr Unternehmen ist, können wir ohne weitere rmationen nicht beurteilen und lassen hier die Frage offen. In dieser rmationsreihe möchten wir Ihre Entscheidungsfindung

Mehr

Anlegen und mehr aus Ihrem Vermögen machen

Anlegen und mehr aus Ihrem Vermögen machen Anlegen und mehr aus Ihrem Vermögen machen Inhalt 2 4 Professionelle Vermögensberatung 5 Kompetenz und Unabhängigkeit 6 Nachhaltiger Vermögensaufbau 7 Klare und verlässliche Beziehungen 8 Bedürfnisgerechte

Mehr

Prozesse die unbekannten Wesen

Prozesse die unbekannten Wesen Logistiktag 2009 Prozesse die unbekannten Wesen SIRIUSlogic Frankfurt am Main, 23. Juni 2009 www.sirius-consult.com Agenda Vorstellung SIRIUS Consulting & Training AG Projektverständnis und -vorgehensweise

Mehr

Erfolgreiches Zusammenarbeiten von IT und Marketing am Beispiel von Meta Daten Management

Erfolgreiches Zusammenarbeiten von IT und Marketing am Beispiel von Meta Daten Management Erfolgreiches Zusammenarbeiten von IT und Marketing am Beispiel von Meta Daten Management Sprecher: Uwe Nadler, Senior Managing Consultant 1 Marketing braucht unterschiedliche Informationen, um entsprechende

Mehr

CrossmedialeProzesse zum erfolgreichen e-publishing. 4. Medienforum 20. September 2012 Heike Beyer-Wenzel

CrossmedialeProzesse zum erfolgreichen e-publishing. 4. Medienforum 20. September 2012 Heike Beyer-Wenzel CrossmedialeProzesse zum erfolgreichen e-publishing 4. Medienforum 20. September 2012 Heike Beyer-Wenzel Mediennutzung im Jahre 2012 Seite 2 Business Challenges Vor welchen Herausforderungen stehen Verlage?

Mehr

Geyer & Weinig: Service Level Management in neuer Qualität.

Geyer & Weinig: Service Level Management in neuer Qualität. Geyer & Weinig: Service Level Management in neuer Qualität. Verantwortung statt Versprechen: Qualität permanent neu erarbeiten. Geyer & Weinig ist der erfahrene Spezialist für Service Level Management.

Mehr

Corporate Performance Management als Weiterentwicklung von Business Intelligence

Corporate Performance Management als Weiterentwicklung von Business Intelligence Martin Kobrin Corporate Performance Management als Weiterentwicklung von Business Intelligence Grundlagen, Implementierungskonzept und Einsatzbeispiele Diplomica Verlag Martin Kobrin Corporate Performance

Mehr

Menschen gestalten Erfolg

Menschen gestalten Erfolg Menschen gestalten Erfolg 2 Editorial Die m3 management consulting GmbH ist eine Unternehmensberatung, die sich einer anspruchsvollen Geschäftsethik verschrieben hat. Der konstruktive partnerschaftliche

Mehr

Die aktuellen Top 10 IT Herausforderungen im Mittelstand

Die aktuellen Top 10 IT Herausforderungen im Mittelstand Die aktuellen Top 10 IT Herausforderungen im Mittelstand Ronald Boldt, SPI GmbH Über mich Ronald Boldt Leiter Business Solutions SPI GmbH Lehrbeauftragter für Geschäftsprozess orientiertes IT Management

Mehr

Java Forum Stuttgart 7. Juli 2005

Java Forum Stuttgart 7. Juli 2005 Java Forum Stuttgart 7. Juli 2005 Das Versprechen der BPM-Plattform Plattform-Anbieter Eine kritische Analyse Dieter Szegedi Agenda Die zentralen Konzepte Ein Paradigmenwechsel Aufgabenstellung und Grundsätze

Mehr

Vortrag im Rahmen des Arbeitskreis i Informatik an der Schule. Prof. Dr. Stefan Sarstedt 04.02.2009

Vortrag im Rahmen des Arbeitskreis i Informatik an der Schule. Prof. Dr. Stefan Sarstedt 04.02.2009 Service-orientierte Architekturen (SOA) Ein Einblick Vortrag im Rahmen des Arbeitskreis i Informatik an der Schule Prof. Dr. Stefan Sarstedt 04.02.2009 Programmieren heute und damals 2009 182910* *************************************TRACE

Mehr

Leistung schafft Vertrauen

Leistung schafft Vertrauen SOA Hintergrund und Praxis visionäre Praxis oder praxisnahe Vision Toni Gasser Integration Services 27. Oktober 2010 Leistung schafft Vertrauen Private Banking Investment Banking Asset Management Seite

Mehr

Master-Thesis (m/w) für unseren Standort Stuttgart

Master-Thesis (m/w) für unseren Standort Stuttgart Master-Thesis (m/w) für unseren Standort Abschlussarbeit im Bereich Business Process Management (BPM) Effizienzsteigerung von Enterprise Architecture Management durch Einsatz von Kennzahlen Braincourt

Mehr

IT-Sicherheit: Und was sagen die Geschäftsprozesse dazu?

IT-Sicherheit: Und was sagen die Geschäftsprozesse dazu? IT-Sicherheit: Und was sagen die Geschäftsprozesse dazu? Risiken und Chancen moderner Geschäftsprozessarchitekturen Frank Hüther Bereichsleiter System Integration MT AG MT AG managing technology 1994:

Mehr

Business Process Management zur Automatisierung der Büroarbeitswelt

Business Process Management zur Automatisierung der Büroarbeitswelt Business Process Management zur Automatisierung der Büroarbeitswelt Name: Thomas Rychlik Funktion/Bereich: Vorstand Organisation: agentbase AG Liebe Leserinnen und liebe Leser, die Durchdringung der Arbeitswelt

Mehr

Wie wirksam wird Ihr Controlling kommuniziert?

Wie wirksam wird Ihr Controlling kommuniziert? Unternehmenssteuerung auf dem Prüfstand Wie wirksam wird Ihr Controlling kommuniziert? Performance durch strategiekonforme und wirksame Controllingkommunikation steigern INHALT Editorial Seite 3 Wurden

Mehr

Performance Management und Analytik 2011

Performance Management und Analytik 2011 Performance Management und Analytik 2011 Status Quo und Trends Actuate Roadshow, Februar 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Performance Management und Analytik

Mehr

Workflowmanagement. Business Process Management

Workflowmanagement. Business Process Management Workflowmanagement Business Process Management Workflowmanagement Workflowmanagement Steigern Sie die Effizienz und Sicherheit Ihrer betrieblichen Abläufe Unternehmen mit gezielter Optimierung ihrer Geschäftsaktivitäten

Mehr

Innovatives Reporting mit PM10: Analysen und Berichte mit Single Point of Truth 11.00 11.45 Uhr

Innovatives Reporting mit PM10: Analysen und Berichte mit Single Point of Truth 11.00 11.45 Uhr Copyright 2007 Infor. Alle Rechte vorbehalten. Innovatives Reporting mit PM10: Analysen und Berichte mit Single Point of Truth 11.00 11.45 Uhr Hubertus Thoma Presales Consultant PM Schalten Sie bitte während

Mehr

your IT in line with your Business Geschäftsprozessmanagement (GPM)

your IT in line with your Business Geschäftsprozessmanagement (GPM) your IT in line with your Business Geschäftsprozessmanagement (GPM) Transparenz schaffen und Unternehmensziele effizient erreichen Transparente Prozesse für mehr Entscheidungssicherheit Konsequente Ausrichtung

Mehr

Blumatix EoL-Testautomation

Blumatix EoL-Testautomation Blumatix EoL-Testautomation Qualitätsverbesserung und Produktivitätssteigerung durch Automation von Inbetriebnahme-Prozessen DI Hans-Peter Haberlandner Blumatix GmbH Blumatix EoL-Testautomation Qualitätsverbesserung

Mehr

EIN INTEGRIERTER ANSATZ FÜR GOVERNANCE, RISIKOMANAGEMENT UND COMPLIANCE. von Maja Pavlek

EIN INTEGRIERTER ANSATZ FÜR GOVERNANCE, RISIKOMANAGEMENT UND COMPLIANCE. von Maja Pavlek EIN INTEGRIERTER ANSATZ FÜR GOVERNANCE, RISIKOMANAGEMENT UND COMPLIANCE von Maja Pavlek 1 GOVERNANCE, RISIKOMANAGEMENT UND COMPLIANCE EIN INTEGRIERTER ANSATZ Die TIBERIUM AG ist ein Beratungsunternehmen,

Mehr

Horus ISO QM Plug-In. Nachhaltige Unternehmensentwicklung auf Basis internationaler Standards. Warum ISO Qualitätsmanagement?

Horus ISO QM Plug-In. Nachhaltige Unternehmensentwicklung auf Basis internationaler Standards. Warum ISO Qualitätsmanagement? Nachhaltige Unternehmensentwicklung auf Basis internationaler Standards Warum ISO Qualitätsmanagement? ISO Revision neue High Level-Struktur Die Einführung eines Qualitätsmanagementsystems ist eine strategische

Mehr

SOA - Service-orientierte Architekturen. Roger Zacharias

SOA - Service-orientierte Architekturen. Roger Zacharias SOA - Service-orientierte Architekturen Roger Zacharias Wincor World 2007 1. SOA Umfeld Umfeld und Einflußfaktoren Business Strategy Business Processes Standards Projects Applications SOA Business Services

Mehr

Outpacing change Ernst & Young s 12th annual global information security survey

Outpacing change Ernst & Young s 12th annual global information security survey Outpacing change Ernst & Young s 12th annual global information security survey Alfred Heiter 16. September 2010 Vorstellung Alfred Heiter alfred.heiter@at.ey.com Seit 11 Jahren im IT-Prüfungs- und IT-Beratungsgeschäft

Mehr

Hybride und endnutzerorientierte Cloudlösungen sind das Erfolgsmodell der Gegenwart

Hybride und endnutzerorientierte Cloudlösungen sind das Erfolgsmodell der Gegenwart Hybride und endnutzerorientierte Cloudlösungen sind das Erfolgsmodell der Gegenwart Customer and Market Strategy, Cloud Business Unit, SAP AG Mai 2013 Geschwindigkeit. Schnelles Aufsetzen neuer Themen

Mehr

1 + 1 = mehr als 2! Geschwindigkeit, Transparenz und Sicherheit

1 + 1 = mehr als 2! Geschwindigkeit, Transparenz und Sicherheit Seite 1 objective partner 1 + 1 = mehr als 2! Sicherheit Effiziente Prozesse mit SAP Seite 2 objective partner AG Gründung: 1995 Mitarbeiterzahl: 52 Hauptsitz: Weinheim an der Bergstraße Niederlassungen:

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

SOA im Zeitalter von Industrie 4.0

SOA im Zeitalter von Industrie 4.0 Neue Unterstützung von IT Prozessen Dominik Bial, Consultant OPITZ CONSULTING Deutschland GmbH Standort Essen München, 11.11.2014 OPITZ CONSULTING Deutschland GmbH 2014 Seite 1 1 Was ist IoT? OPITZ CONSULTING

Mehr

Die Zukunft der Zukunftsforschung im Deutschen Management: eine Delphi Studie

Die Zukunft der Zukunftsforschung im Deutschen Management: eine Delphi Studie Die Zukunft der Zukunftsforschung im Deutschen Management: eine Delphi Studie Executive Summary Zukunftsforschung und ihre Methoden erfahren in der jüngsten Vergangenheit ein zunehmendes Interesse. So

Mehr

digital business solution SharePoint SAP Integration

digital business solution SharePoint SAP Integration digital business solution SharePoint SAP Integration 1 So geht s. SAP ist das bekannteste und verbreitetste ERP-System und Rückgrat für die Abwicklung Ihres täglichen Kerngeschäfts. Microsoft SharePoint

Mehr

Kollaborative Wertschöpfung mit WissensportalenAspekte aus Theorie und Praxis

Kollaborative Wertschöpfung mit WissensportalenAspekte aus Theorie und Praxis Kollaborative Wertschöpfung mit WissensportalenAspekte aus Theorie und Praxis Thomas Schwenk Agenda! Kollaborative Wertschöpfung?! Web 2.0, Enterprise 2.0 Viel Wind um nichts?! Theorie und Praxis... Zu

Mehr

Process Consulting. Beratung und Training. Branchenfokus Energie und Versorgung. www.mettenmeier.de/bpm

Process Consulting. Beratung und Training. Branchenfokus Energie und Versorgung. www.mettenmeier.de/bpm Process Consulting Process Consulting Beratung und Training Branchenfokus Energie und Versorgung www.mettenmeier.de/bpm Veränderungsfähig durch Business Process Management (BPM) Process Consulting Im Zeitalter

Mehr

[ 5.BI Praxis Forum. Martin Daut I CEO I simple fact AG Nürnberg I 12. November 2015

[ 5.BI Praxis Forum. Martin Daut I CEO I simple fact AG Nürnberg I 12. November 2015 [ 5.BI Praxis Forum ] Martin Daut I CEO I simple fact AG Nürnberg I 12. November 2015 0 1 1 2 3 5 8 13 21 [ ] 2 [ simple fact AG I Business Intelligence und agile Entscheidungen ] >45Consultants >500 Projekte

Mehr

Richtige und schnelle Entscheidungen trotz sich änderner Anforderungen mit Microsoft Dynamics AX und Microsoft SQL Server Reporting Services

Richtige und schnelle Entscheidungen trotz sich änderner Anforderungen mit Microsoft Dynamics AX und Microsoft SQL Server Reporting Services Launch Microsoft Dynamics AX 4.0 Richtige und schnelle Entscheidungen trotz sich änderner Anforderungen mit Microsoft Dynamics AX und Microsoft SQL Server Reporting Services Sonia Al-Kass Partner Technical

Mehr

HERZLICH WILLKOMMEN! Ihr Geschäftsmodell im Mittelpunkt. Mein Name ist Günter Apel - Gründer und Geschäftsführer

HERZLICH WILLKOMMEN! Ihr Geschäftsmodell im Mittelpunkt. Mein Name ist Günter Apel - Gründer und Geschäftsführer HERZLICH WILLKOMMEN! Mein Name ist Günter Apel - Gründer und Geschäftsführer DAS HEUTIGE THEMA ERFOLGSKOMPONENTEN VERTRIEBSMODELL DER CLOUD Ihr Geschäftsmodell im Mittelpunkt ERFOLGSKOMPONENTEN VERTRIEBSMODELL

Mehr

Raus aus der Bl-Falle

Raus aus der Bl-Falle Ronald Bachmann, Dr. Guido Kemper Raus aus der Bl-Falle Wie Business Intelligencezum Erfolg wird mitp Die Autoren 13 Vorwort 15 1 Einleitung 21 1.1 Was ist Business Intelligence (BI)? 21 1.2 Motive zur

Mehr