Datenqualitätsmanagement

Größe: px
Ab Seite anzeigen:

Download "Datenqualitätsmanagement"

Transkript

1 Whitepaper Datenqualitätsmanagement Nachhaltige Erhöhung der Datenqualität steigert den Unternehmenserfolg!

2 Datenqualitätsmanagement Nachhaltige Erhöhung der Datenqualität steigert den Unternehmenserfolg! Autoren: Jochen Wilms und Dr. Markus Vincon für OPITZ CONSULTING Haben Sie Fragen zu diesem Thema? Dann sprechen Sie uns gerne an! Ihr Ansprechpartner: Jochen Wilms, Manager Business Development & Innovation bei OPITZ CONSULTING Inhaltsübersicht 1. Management Summary 2. Vorwort 3. Datenqualität als Wettbewerbsvorteil 3.1 Nutzen von Datenqualität 3.2 Daten + Qualität = Datenqualität? Eine Definition. 3.3 Viele Stellen viele Potenziale 4. Nachhaltigkeit schaffen Datenqualität mit Strategie, Governance und Organisation 4.1 Datenqualität als strategisches Thema 4.2 Zielformulierung 4.3 Organisationsmodell 4.4 DQ-Vorgehensmodell 4.5 Enterprise Architecture 4.6 Generelle Lösungsstrategien als Vorlagen 4.7 Datenqualität braucht Organisation 5. Methodik, Architektur, Techniken und Werkzeuge 5.1 Grundsätzliche Vorgehensmodelle 5.2 Lösungsarchitektur 5.3 Data Profiling 5.4 Data Cleansing 5.5 Data Monitoring 1. Management Summary Entgangene Umsätze, erhöhte Kosten und verlängerte Prozess- und Projektlaufzeiten sind die wesentlichen Konsequenzen mangelnder Datenqualität. Insbesondere in Vertrieb, Rechnungswesen und Management treten die daraus resultierenden Probleme zutage. Häufig sind Kernprozesse der Herstellung und Logistik betroffen. Die Kosten-Nutzen-Argumentation für die Behebung solcher Schwierigkeiten leidet jedoch vielfach unter der Quantifizierung der Kosten und auch des Nutzens. Gründe sind vor allem in der verteilten Verantwortung zu suchen. Wesentlich hierfür sind internes Datenqualitätsmarketing, Aufklärung über Konsequenzen, kontinuierliches Monitoring und Transparenz über Datenqualitätsziele und kennzahlen sowie eine gelebte Fehler- und Verbesserungskultur. Eine Governance, die die Ziele aus der Unternehmensstrategie ableitet, dient als Leitfaden für Aufgaben und Rollen. Eine Etablierung in der Organisation in Form eines Datenqualitätslenkungsausschusses, Datenqualitätsmanagern und fachlichen/technischen Data Stewards sichert die Kontinuität. Über OPITZ CONSULTING Quellenangaben Texte und Abbildungen wurden mit größter Sorgfalt erarbeitet. OPITZ CONSULTING kann jedoch für eventuell verbleibende fehlerhafte Angaben und deren Folgen weder eine juristische Verantwortung noch irgendeine Haftung übernehmen. Das Recht an dargestellten Verfahren, Showcases, Implementierungsbeispielen und Sourcecodes liegt ausschließlich bei OPITZ CONSULTING.

3 Häufig werden aus dem Qualitätsmanagement abgeleitete Methoden eingesetzt, um die einzelnen Datenqualitätsthemen zu verfolgen. Der Plan-Do -Check-Act-Zyklus ist der bekannteste Vertreter dieser Vorgehensmodelle. Speziell die Verfahren des Data Profiling, Data Cleansing und Data Monitoring sind feste Bestandteile solcher Vorgehen. Datenqualitätssoftware unterstützt diese Verfahren. Datenqualitätsmanagement geht jedoch darüber hinaus und beeinflusst die IT-Architektur, den IT-Betrieb und weite Teile der Geschäftsprozesslandschaft. Erfolgreiche Unternehmen begreifen Datenqualitätsmanagement als Möglichkeit zur Effizienzsteigerung, die als ganzheitliche Managementaufgabe wahrgenommen, Potentiale der gesamten Wertschöpfungskette hebt. 2. Vorwort Datenqualität gehört zu den Dauerbrennern in Unternehmen. Oftmals durch einzelne herausragende Negativbeispiele befeuert, schwappt die Datenqualitätswelle mal mehr und mal weniger sichtbar durch die Organisationen. 80% betonen in Umfragen [Data Quality Check 2008, dgiq] deshalb immer wieder die Wichtigkeit der Datenqualität, wohl wissend, welches Potential für die Verbesserung der eigenen Wettbewerbsposition durch qualititativ hochwertige Daten möglich sein könnte. Nur 26 % betrachten ihre eigene Datenqualität jedoch als gut oder sehr gut [Data Quality Check 2008, dgiq], d. h. zwischen Wunsch und Wirklichkeit klafft eine große Lücke. Mit diesem Whitepaper möchten wir dazu beitragen, diese Lücke zu schließen, indem wir gezielt über den Begriff Datenqualität aufklären, idealtypische dennoch pragmatische Organisationsformen und Methoden erläutern, Techniken und Werkzeuge vorstellen und praktische Beispiele aus dem Projektfundus von OPITZ CONSULTING präsentieren. Nichtsdestotrotz kann in der Form eines Whitepapers ein so vielfältiges Thema wie Datenqualität nicht in aller Tiefe behandelt werden. Hierzu empfiehlt sich weitere Literatur und insbesondere ein Austausch mit erfahrenen Fachleuten. 3. Datenqualität als Wettbewerbsvorteil 3.1 Nutzen von Datenqualität Wie im Vorwort erwähnt, sehen Organisationen in der Datenqualität ein Potential für die Verbesserung der eigenen Wettbewerbsposition. Detailliert man diesen Wunsch ergeben sich verschiedene Möglichkeiten, deren Reserven von Analysten auf 8 bis 12 % des Umsatzes beziffert werden [de Fries/Seidl/Windheuser 2001]. Eine häufig beschriebene Variante sind die potenziell entgangenen Umsätze, die aufgrund falscher Bestandsinformationen, unzureichender Kundenclusterung oder inkonsistenter Rechnungslegung entstehen. Etwas weniger aber dennoch häufig beleuchtet werden die entstandenen Kosten, die in Unternehmen durch schlechte Datenqualität entstehen. Beginnend bei fehlerhaften Produktdaten, Zinsausfällen durch Nacharbeiten bei der Faktura bis hin zu entgangenen Skonti durch unvollständige Kreditorendaten: Mängel in der Datenqualität sorgen bei Unternehmen für vermeidbaren Aufwand. Auch wenn Konsequenzen wie Imageverluste, Verstöße gegen gesetzliche oder vertragliche Vorgaben, sinkende Mitarbeitermotivation und falsche unternehmerische Entscheidungen meist nicht direkt bezifferbar sind, schwächen sie die Wettbewerbsposition von Unternehmen. Auch werden Verzögerungen in Prozessen und Projekten durch Nachkorrekturen aufgrund von Datenqualitätsproblemen nur selten in direkten Bezug zur Datenqualität gebracht. Mangelnde Transparenz aufgrund des stark verteilten Auftretens von Datenqualitätsproblemen führt heute häufig dazu, dass Organisationen keine quantifizierbaren Kenntnisse über die Nachteile erhalten, die ihnen durch schlechte Datenqualität entstehen. Um die vorhandenen Potentiale zu nutzen, ist eine ganzheitliche Betrachtung von Datenqualität aus strategischer, methodischer und technischer Sicht notwendig. Das richtige Maß beim Einstieg in das Thema Datenqualität (DQ) zu finden, ist eine Herausforderung. Damit Datenqualitätsinitiativen nicht schon zu Beginn scheitern, sind verständliche und möglichst einheitliche Begrifflichkeiten wichtig. Der Nutzen von Datenqualität sollte für die jeweiligen Rahmenbedingungen aufgezeigt und konkrete und zukünftige Ansatzpunkte dargestellt werden. Abbildung 1 Direkt sichtbare und vermeintlich unsichtbare Konsequenzen von mangelnder Datenqualität

4 3.2 Daten + Qualität = Datenqualität? Eine Definition. Daten sind logisch gruppierte Informationseinheiten, die zwischen Systemen übertragen werden oder dort in gespeicherter Form vorliegen. Datenqualität kann analog zu der Norm DIN EN ISO 9000:2005 beschrieben werden als der Grad, in dem Daten bestimmten Anforderungen entsprechen. Die Anforderungen können sich dabei auf klar messbare Eigenschaften der Daten wie beispielsweise die Korrektheit oder auf persönliche Urteile wie die Relevanz und Verständlichkeit von Daten beziehen. Im Allgemeinen wird Datenqualität auch als fitness for use definiert, was bedeutet, dass die Daten von Personen zu einem bestimmten Zweck genutzt werden können. Von guter Datenqualität der Daten in einem Unternehmen spricht man also, wenn Mitarbeiter ihre Aufgaben mit Hilfe der Daten effizient erledigen können. Das Erreichen von Datenqualität ist eng mit dem Messen der beschriebenen Anforderungen und Kriterien verbunden. Es ist daher wichtig, sich hinsichtlich der Datenqualität auch mit der Frage nach den zu erfassenden Kriterien und der Messbarkeit dieser Kriterien zu beschäftigen. Dabei kann es nötig sein, dass insbesondere bei Kriterien, die auf persönlichen Einschätzungen beruhen, klar definiert wird, wie diese ermittelt und damit sowohl greifbar als auch vergleichbar gemacht werden können. Ein mögliches Vorgehen wäre z. B. die Befragung der Mitarbeiter, die mit den Daten arbeiten. Abbildung 2 Informationsqualität nach DGIQ Von der deutschen Gesellschaft für Informations- und Datenqualität (dgiq) werden fünfzehn Dimensionen der Informations- und Datenqualität in vier verschiedenen Kategorien vorgeschlagen. Basierend auf den konkreten Daten können einige dieser fünfzehn Dimensionen in einzelne Kriterien oder eine Hierarchie von Kriterien zerlegt werden, um beispielsweise die Fehlerfreiheit der Gesamtdaten auf die Fehlerfreiheit von bestimmten Feldern oder auf die Fehlerfreiheit der Querbezüge zwischen Daten zurückzuführen. (Näheres wird hierzu in Kapitel 4.1. erläutert.) Die folgende Tabelle gibt eine Übersicht über die fünfzehn Dimensionen mit kurzen Erläuterungen (angelehnt an [DGIQ IQ-Defintion 2007, dgiq]): 15 Dimensionen der Informationsqualität Dimension Zugänglichkeit Angemessener Umfang Glaubwürdigkeit Vollständigkeit Übersichtlichkeit Einheitliche Darstellung Bearbeitbarkeit Fehlerfreiheit Eindeutige Auslegbarkeit Objektivität Relevanz Hohes Ansehen Aktualität Verständlichkeit Wertschöpfung Erläuterung Daten sind einfach für den Anwender abrufbar. Menge der verfügbaren Daten genügt den gestellten Anforderungen. Zertifikate weisen einen hohen Qualitätsstandard aus oder die Gewinnung und -verbreitung wird mit hohem Aufwand betrieben. Daten müssen zu festgelegten Zeitpunkten komplett zur Verfügung stehen. Daten stellen die Informationen in einem verständlichen Format dar. Daten können fortlaufend auf dieselbe Art und Weise abgebildet werden. Daten sind leicht zu ändern und für unterschiedliche Zwecke zu verwenden. Daten sind fehlerfrei, wenn sie mit der Realität übereinstimmen. Daten lassen sich in gleicher, fachlich korrekter Art und Weise begriffen. Daten sind objektiv, wenn sie streng sachlich und wertfrei sind. Daten liefern für den Anwender notwendige Informationen. Informationsquelle, das Transportmedium und das verarbeitende System stehen im Ruf einer hohen Vertrauenswürdigkeit und Kompetenz. Daten bilden die tatsächliche Eigenschaft der Objekte zeitnah ab Daten können sofort von den Anwendern verstanden und eingesetzt werden. Nutzung führt zu einer quantifizierbaren Steigerung der Wertschöpfung.

5 Unter dem Begriff des Datenqualitätsmanagements (DQM) versteht man den Gesamtprozess der Verbesserung von Datenqualität. Im DQM geht es darum, an welcher Stelle in einem Unternehmen mit einer Datenqualitätsinitiative angesetzt werden soll und welche Schritte unternommen werden müssen, damit die Ziele auch erreicht werden. (Dieser Begriff wird in Kapitel 4 ausführlicher erklärt.) 3.3 Viele Anwendungsgebiete viele Potenziale Die Anwendungsgebiete für Datenqualität sind vielfältig und über die verschiedenen Systeme, Prozesse und Schnittstellen innerhalb eines Unternehmens verteilt. Das erste Anwendungsgebiet von Datenqualität ist schon das Erzeugen von Daten. An dieser Stelle geht es darum, mit welchen Mitteln zum Beispiel bei der manuellen Erfassung von Kundendaten die Datenqualität von vorneherein erhöht werden kann, so dass alle späteren Prozesse davon profitieren können. Laut einer Studie der Omikron Data Quality GmbH [Pressemitteilung Omikron Data Quality, 2007] unter 400 Unternehmen mit mehr als 50 Millionen Euro Jahresumsatz aus dem Jahr 2007 ist in der Hälfte dieser Unternehmen mehr als jede fünfte Kundeninformation fehlerhaft. Nach der Datenerzeugung im Prozess der Datenverarbeitung kommt das sogenannte Stammdatenmanagement (auch als MDM für Master Data Management bezeichnet), das eine möglichst zentrale Verwaltung der vorhandenen Stammdaten nahelegt. Neben Kunden und Produkten könnten die Stammdaten auch noch Kontorahmen und Geschäftspartner enthalten. MDM ist besonders geeignet, um eine möglichst systemübergreifende Konsistenz der Daten herzustellen. Natürlich erlaubt das zentrale Verwalten der Stammdaten auch das Erkennen von beispielsweise doppelt angelegten Kunden und die einfache Integration von externen Datenbeständen für Plausibilitätsprüfungen von Adressen als Bausteine auf dem Weg zu einer besseren Datenqualität. Die Datenqualität selbst kann man sich dann an vielen Stellen zunutze machen, so könnte man zum Beispiel im Rahmen des Customer Relationship Management (CRM) sicherstellen, dass Briefe nur an gültige Adressen, nicht mehrfach an die gleiche Person und auch mit der richtigen Anrede versendet werden. Im Bereich der Ressourcenplanung (ERP) kann Datenqualität genutzt werden, um zum Beispiel falsche Daten über Ressourcen und Bestände zu verhindern, was sich andernfalls im Verkauf eines Produktes sehr negativ niederschlagen bzw. zur unnötigen Lagerung von Produkten führen kann. Im Finanzbereich ist ein hohes Maß an Datenqualität erforderlich, um gesetzliche Vorgaben besser zu erfüllen. Zum Beispiel kann Datenqualität bei der Bewertung von Kunden dabei helfen, so viel Eigenkapital wie nötig aber so wenig wie möglich zur Kreditsicherung zurückstellen zu müssen. Ein Randgebiet, in dem Datenqualität eine Rolle spielen kann, ist das Geschäftspartner-Controlling, zu dem das Bewerten von erbrachten Dienstleistungen gehört (zum Beispiel, ob ein Verkehrsverbund mit den Leistungen eines Bahnunternehmens zufrieden ist). An dieser Stelle kann insbesondere noch einmal die nachweisbar qualitätsgesicherte Datenerzeugung von besonderem Interesse sein. Die Beachtung der Datenqualität sollte grundsätzlich bei der Datenerzeugung ansetzen, um den größtmöglichen Nutzen aus ihr ziehen zu können oder um mögliche Kosten durch Qualitätsprobleme gering zu halten. Der Bereich Business Intelligence und Data Warehousing (BI/DWH) ist für die Datenqualität sogar doppelt interessant. Zum einen, weil spätestens bei der Integration der verschiedenen Datenquellen eines Unternehmens eine schlechte Datenqualität auffällt, und zum anderen, weil ein Data Warehouse insbesondere zur Entscheidungsunterstützung und Unternehmensführung eingesetzt wird. Hier möchte man sich natürlich auf eine entsprechende Datenqualität als Grundlage für weitreichende Entscheidungen verlassen können. Ähnlich der ersten Aufgabenstellung in einem Data Warehouse gibt es noch den Bereich der Fusionen und Unternehmensübernahmen, bei denen im Rahmen der Zusammenführung der jeweils wichtigen Unternehmensdaten viele Fragestellungen aus dem Bereich der Datenqualität auftreten. Zusätzlich kann im Falle von guter Datenqualität in beiden Datenbeständen das Zusammenführen der IT und der Daten der beiden Unternehmen effizienter erfolgen als bei mangelhafter Datenqualität. Es ist daher auch nicht unüblich, dass spezielle Datenqualitätsprojekte im Rahmen von Fusionen und Unternehmensübernahmen angestoßen werden. 4. Nachhaltigkeit schaffen Datenqualität mit Strategie, Governance und Organisation Notwendigkeiten und Ansatzpunkte für hohe Datenqualität sind in Unternehmen unterschiedlich verteilt. Der Umsetzungserfolg hängt immer stark von der strategischen Unterstützung, den Leitlinien und der begleitenden Organisationsform ab. 4.1 Datenqualität als strategisches Thema Möchte man Datenqualitätsmanagement nicht nur als lokalen Feuerlöscher implementieren, sondern als langfristig präventive Feuerschutzmaßnahme, ist die Wahrnehmung als strategisches Managementthema als Corporate Data Quality Management unabdingbar. Die dauerhafte Implementierung in der Firmenstrategie und die Ableitung der Datenqualitätsziele aus den Unternehmenszielen sichert eine hohe nachhaltige Ergebnisorientiertheit. OPITZ CONSULTING Deutschland Whitepaper Datenqualitätsmanagement Seite 5

6 Abbildung 3 Beispielhaftes Auftreten von Datenqualitätsproblemen und deren Zusammenhänge in der betrieblichen Wertschöpfungskette Dieser Umstand liegt im Wesentlichen in Datenqualitätsproblemen begründet, die im Zuge der gesamten Wertschöpfungskette verteilt auftreten (siehe auch Abbildung 3). Eine Schlüsselaufgabe fällt hierbei der Kommunikation und Vermarktung der Datenqualitätsinitiative zu. Gelingt es, die notwendigen prozessualen und technischen Änderungen zusammen mit einer Kultur übergreifender Verantwortungswahrnehmung zu implementieren, wird sich eine dauerhafte Verbesserung der Datenqualität einstellen. Explizit sichtbare und nachvollziehbare Kennzahlen sollten deshalb genauso selbstverständlich sein wie das kontinuierliche Überwachen der Datenqualität. Die Positionierung von DQM in direkter Nähe der Geschäftsführung ist deshalb sinnvoll. Dadurch sichert man: Unternehmensweite kontinuierliche Transparenz der Datenqualität Unabhängige Interpretation der DQ-Messungen und nachhaltigere Priorisierung von Verbesserungsmaßnahmen Die gleichzeitige Berücksichtigung und Koordination unterschiedlicher Interessen und Anspruchsgruppen Aufbau von zentralem DQ-Wissen als Center of Expertise Ausreichende Managementunterstützung zur Umsetzung Das Kapitel 4.7 führt dies weiter aus. Wie alle Qualitätsthemen entsteht schlechte Datenqualität meist aus Unwissenheit. Unmittelbar gilt dies für Mitarbeiter, die Daten in Systemen pflegen, aber auch mittelbar für Softwareentwickler, Prozessverantwortliche und Entscheider. Wichtige Bausteine zur Bekämpfung der Unwissenheit sind Kommunikation und interne Vermarktung von Datenqualität, z. B. durch Transparenz im Intranet, regelmäßige Berücksichtigung in Schulungen und Weiterbildungen und eine Verankerung des Qualitätsbegriffes im Unternehmensleitbild. Hierzu empfiehlt sich vorausgesetzt eine ausreichende Fehlerkultur im Unternehmen liegt vor eine offene Kommunikation von Qualitätsdefiziten. Ergänzt durch eine erfolgreiche Vermarktung, die insbesondere die übergreifenden und nachhaltigen Erfolge betont und diese mit dem Unternehmensziel verknüpft, ergibt sich eine nachhaltige Bewusstseinsbildung für DQM. Die Strukturierung von DQM als strategisches Managementthema erfolgt durch die Formulierung einer Governance. Die Ausgestaltung einer Governance ist im Ergebnis eine unternehmensweite, akzeptierte DQM-Leitlinie. Sie schafft das Steuerungs- und Regelungssystem im Sinne von Strukturen und macht die DQ-Ziele damit systematisch verfolgbar. Die Governance regelt neben den generellen aus der Unternehmensstrategie abgeleiteten Zielen auch die grundsätzliche Definition von Aufgaben-, Rollen- und Zuständigkeiten. Wesentliche Bestandteile sind: 1. Zielformulierung und eine daraus abgeleitete Systematik für DQ- Kennzahlen (z. B. in Form eines Kennzahlenbaums oder eine DQ- Scorecard) 2. Organisationsmodell 3. Ausgestaltung eines DQ-Vorgehensmodells in Anlehnung an Qualitätsmodelle wie ISO 9000 etc. 4. Enterprise Architecture 5. Generelle Lösungsstrategien als Vorlagen 4.2 Zielformulierung Die DQM-Ziele unterstützen die Unternehmensstrategie in den Bereichen Kostenreduktion, Umsatzsteigerung, Risikoreduzierung, Compliance und nachhaltige Steuerung. Hierfür werden Kennzahlen definiert, wie z. B. Zuordnungstreue von Transportbehältern zu Produkten, Anteil Lieferanten- Doubletten oder auch Zufriedenheit der Anwender. Pro Kennzahl werden Sollwert, Messpunkte,- verfahren und -zyklus sowie die Verantwortlichkeit in einer Datenbank abgelegt (hier reicht zu Beginn auch Excel). Abhängigkeiten zwischen Kennzahlen können mithilfe eines Kennzahlenbaums dargestellt werden, ein Beispiel findet sich in Abbildung 4.

7 DQ-Kennzahlen können formal-technisch (z. B.: Anteil an Verletzungen der referentiellen Integrität zwischen Bestellung und Kunde), inhaltlich (z. B.: Anzahl negativer Bestandswert von Artikeln) oder qualitativ (z. B.:Befragung von Anwendern) sein. Zur Einschätzung der Belastbarkeit von Kennzahlen, wie Umsatz, Marge, Bestand, können diese DQ- Kennzahlen auch in fachlichen Berichten angezeigt werden. 4.3 Organisationsmodell Zur Zielverfolgung sind verschiedene Rollen und Gremien nötig, die die Governance mit Leben füllen. Sie sind Ansprechpartner, Mahner aber auch Vermarkter von DQM. In diesem Zusammenhang sollen hier kurz die Begriffe Sponsor, DQ-Lenkungsausschuss, DQ-Manager und Data Steward erwähnt werden, die je nach grundsätzlicher Organisationsform im Spannungsfeld Zentralität vs. Dezentralität und Hierarchie vs. Heterarchie bei Unternehmen unterschiedlich ausgeprägt sind. Eine ausführliche Behandlung folgt in Kapitel DQ-Vorgehensmodell Da der Begriff DQM aus dem Bereich Qualitätsmanagement stammt, leiten sich auch die Modelle und Verfahren von DQM aus bekannten Standards wie ISO 9000, European Foundation for Quality Management oder Total Quality Management ab. Im Wesentlichen basiert das DQM auf dem folgenden Regelkreislauf: PLAN Qualitätsplanung: Es wird ein Ist-Zustand ermittelt und die Rahmenbedingungen für das Qualitätsmanagement festgelegt. Danach werden Konzepte und Abläufe erarbeitet. DO Qualitätslenkung: Die in der Planphase gewonnenen Ergebnisse werden umgesetzt. CHECK Qualitätssicherung: Auswerten qualitativer und quantitativer Qualitätsinformationen (Kosten-Nutzen-Betrachtungen, Überprüfen von gemachten Annahmen). ACT Qualitätsgewinn: Aus vorheriger Phase gewonnene Informationen werden für Strukturverbesserungsmaßnahmen und Prozessoptimierung eingesetzt. Erfolge und Ergebnisse werden kommuniziert. Zitate über Datenqualität 1. Unsere Datenqualität ist gut. Das ist leider selten wahr. Denn nur vereinzelt haben Unternehmen ganzheitliche Analysen oder Befragungen durchgeführt, die die auftretenden Probleme und Potentiale in Summe aufzeigen würden. 2. Wir haben doch ein Datenqualitätswerkzeug das reicht! Werkzeuge helfen punktuell und insbesondere technikbezogen. Eine langfristige Strategie und die unternehmensweite Etablierung von Datenqualitätsmanagement ersetzen sie jedoch nicht. 3. Wenn wir von Umsatz reden, reden alle von der gleichen Zahl. Menschen haben ein unterschiedliches Verständnis von Begriffen. Auf den zweiten Blick herrschen daher in vielen Unternehmen Begriffsverwirrungen. Ein unternehmensweites, allen verständliches Glossar (Metadatenmanagement) schafft hier Klarheit. 4. Wir haben schon ein Datenqualitätsprojekt gemacht. Einzelne Projekte erzeugen kurzfristige Verbesserungen. Nachhaltige Erfolge erreicht jedoch nur, wer die Datenqualität als kontinuierliche Aufgabe im Rahmen einer Qualitätsstrategie begreift. 5. Datenqualität ist für uns kein Thema. Wir haben gerade ein neues System eingeführt. Häufig geht mit einem neuen System der Gedanke einher, dass die Datenqualität automatisch gut ist. Jedoch verschlechtert sich sogar vielfach die Datenqualität durch fehlende Eingewöhnung oder schlechte Migration. Intensive Trainings der Anwender und eine sorgfältige Aufbereitung der Migrationsdaten helfen hier. 6. Wir bleiben im Standard. Die Benutzerführung, die vom Hersteller vorgesehen wurde, reicht aus! Der vom Hersteller vorgesehene Standard hat nicht nur Vorteile, denn Hersteller produzieren Standardsoftware für mehrere Kunden. Jedoch kennen nur die Unternehmen selbst die Bedürfnisse und Fähigkeiten ihrer Anwender und sollten die Software dahingehend anpassen. 7. Datenqualität? Da sprechen Sie am besten mit unserer IT- Abteilung! Datenqualität wird häufig als IT-Thema gesehen. Da die meisten Ursachen und deren Lösungsvorschläge außerhalb von technischen Systemen zu suchen sind, ist Datenqualität ein Teamprojekt von Fachbereich und IT. 8. Es reicht, wenn die Datenqualität im DWH gut ist! Aus Sicht des Managements mag das zu Beginn stimmen. Das Data Warehouse steht jedoch datentechnisch am Ende der Nahrungskette. Alle Daten auch die schlechten landen dort, verringern die Verlässlichkeit von Informationen und Entscheidungen und sorgen so für Unterschiede zwischen Reporting und operativen Systemen. Datenqualität muss deshalb mittel- und langfristig in den Vorsystemen bereinigt werden. 9. Bei uns passt jeder auf seine Daten auf. Das reicht. Die Idee, dass jeder in seinem Verantwortungsbereich für Ordnung sorgt, ist grundsätzlich gut. Jedoch werden Daten oftmals nicht da verwendet, wo sie eingegeben werden. Deshalb ist es wichtig, dass ein übergreifendes Verantwortungsbewusstsein ohne Kirchturmdenken etabliert wird.

8 Abbildung 4 Beispiel für einen Kennzahlenbaum Generelle Datenstandards und einheitliche Begrifflichkeiten im Rahmen eines Glossars vereinfachen die Verfolgung des Regelzyklus. Ebenfalls wichtig sind die Verwendung von Fehlerklassen und die Priorisierung von Maßnahmen anhand einer Kosten-Nutzen-Betrachtung. 4.5 Enterprise Architecture Auch im Zusammenspiel der Elemente von Informationstechnologie und Geschäftsprozessen spielt DQM eine wichtige Rolle. Durch eine ganzheitliche Betrachtung der Geschäfts-, Informations-, Daten-, Anwendungsund Technologiearchitektur nach DQ-Gesichtspunkten werden Datenqualitätsprobleme vermieden. Folgende Ziele sollten deshalb unbedingt berücksichtigt werden: Informationen/Stammdaten eindeutig den Systemen zuordnen Bei der Konzeption für die Verteilung von Daten und die Integration von Systemen den Aspekt der Redundanz- und Verfälschungsvermeidung berücksichtigen Hoheiten und Datenführerschaft sauber zu Prozessen und Rollen sortieren Diese Ziele sollten als Vorgaben in die unternehmensweiten Enterprise- Architecture-Überlegungen einfließen. 4.6 Generelle Lösungsstrategien als Vorlagen Die Verstöße gegen Datenqualitätskriterien lassen sich in Dimensionen einteilen (siehe hierzu auch die Erläuterungen in Kapitel 3.2.). Zur Vereinfachung lassen sich hieraus generelle Lösungsstrategien ableiten, die bei der Behebung von DQ-Problemen zur Verfügung stehen können. Die einzelne operative Ausprägung sollte jedoch immer individuell auf den jeweiligen Unternehmenskontext zugeschnitten werden. Die Verankerung genereller Lösungsstrategien ermöglicht zu Beginn einer Lösungskonzeption die Auswahl zwischen verschiedenen Maßnahmen und verhindert damit u. a., dass das Rad jedes Mal neu erfunden werden muss. Aus der Erfahrung können folgende Ansätze helfen, konkrete DQ- Maßnahmen zu erarbeiten: Verantwortung auf die direkt beteiligten Menschen übertragen Benutzerführung in den Applikationen verbessern Software qualitativ hochwertig und fehlerresistent entwickeln Begriffe einheitlich und verständlich definieren und etablieren DQ-Kennzahlen in fachlichen Reports zeigen Qualität im Sinne des Gesamtprozesses möglichst früh im Datenfluss sichern Die Liste ist natürlich nicht vollständig. Ausführlich wird dieses Modell in Kapitel 5.1 beleuchtet.

9 4.7 Datenqualität braucht Organisation Wie zuvor beschrieben sind es die an den Prozessen beteiligten Personen, die im Wesentlichen für eine Steigerung der Datenqualität sorgen können. Hierfür ist eine Organisationsform notwendig, die sowohl die individuelle Prozessverantwortung berücksichtigt, als auch die unternehmensweite Durchsetzung von DQ-Zielen. Berücksichtigt werden sollte außerdem der gewünschte Integrationsgrad in die bestehende Prozesslandschaft. Abbildung 5 zeigt eine idealisierte Organisationsform: Fachbereiche stellen fachliche Data Stewards, die als Brücke zwischen den Bereichen und der Datenqualitätsarbeitsgruppe funktionieren. Diese Stewards verfolgen in der Datenqualitätsarbeitsgruppe gemeinsam mit den technischen Data Stewards aus der IT-Abteilung die Datenqualitätsziele auf operativer Ebene. Koordiniert wird diese Arbeitsgruppe durch einen Datenqualitätsmanager, der in größeren zeitlichen Abständen an einen Lenkungsausschuss berichtet, in dem sowohl Fachbereiche, IT als auch das Management als Sponsor vertreten ist. Fachliche Data Stewards tragen die DQM- Kultur in ihre jeweiligen Bereiche, setzen dort Standards und Prinzipien durch, definieren DQ- Kennzahlen in Abstimmung mit dem Datenqualitätsmanager und überwachen diese, schulen und coachen Kollegen und setzen initiierte Maßnahmen um. Bereichsspezifischen Anforderungen leiten sie an die DQ-Arbeitsgruppe weiter. Abbildung 5 idealisierte Organisationsstruktur Datenqualitätsmanagement angelehnt an [Apel, Behme, Eberlein, Merighi 2009] Technische Data Stewards sind auf IT-Seite die Pendants der fachlichen Data Stewards. Sie konzipieren Änderungen an den Systemen und setzen diese um. Projektbeispiel Datenqualität als Teil des Qualitätsmanagements etablieren Das eigentliche Projektziel des von uns betreuten Handelsunternehmens war, eine standardisierte und kontinuierliche Lieferantenbewertung mit Kennzahlen aus Umsatz, Liefertermin- und Mengentreue, Rechnungsabgleich und EDI-Informationsqualität zu erreichen. Im Rahmen des Projektes war es jedoch erforderlich geworden, das bestehende Qualitätsmanagement um den Fokus Datenqualität zu erweitern. Auslöser war eine mangelnde Datenqualität. In einem Teilprojekt, bestehend aus den Fachbereichen Logistik, Einkauf und IT, wurden Rollen und Prozesse geklärt und eingeführt. Die bestehende Rolle des Qualitätsmanagers wurde um den Bereich Datenqualität erweitert. Auf fachlicher Seite wurden Key User etabliert, die neben den klassischen Aufgaben des Wissenstransfers und des Change Managements nun auch das operative Datenqualitätsmanagement wahrnahmen. Ergänzt wurde das Datenqualitätsmanagement durch feste Ansprechpartner in der IT-Abteilung. Von nun an wurde die Datenqualität durch ein Managementboard überwacht und gesteuert, mit dem Ziel, die Belastbarkeit der Lieferantenbewertung sicherzustellen. Datenqualitätsmanager koordinieren das DQM. Sie leiten die Arbeitsgruppe, vermitteln bei unterschiedlichen Interessen, überwachen die generelle Datenqualitätskennzahl, bereiten den Lenkungsausschuss vor, sorgen für einen unternehmensweiten Standard und kommunizieren und vermarkten das DQM. Dem Lenkungsausschuss kommt neben dem strategischen Management auch die Aufgabe zu, Eskalationen entgegenzunehmen und Prioritäten festzulegen. Je nach Größe und Branche sind die Rollen mehr oder weniger stärker auszuprägen. Je nach Integrationsgrad sind die einzelnen Rollen und Gremien in Prozesse der IT (Inicident-, Problem,- und Change Management, Beratung zu den Themen Architektur, Integration und Benutzerführung), der Organisation (Organisationsplanung), der Revision (Compliance) und der Fachbereiche (system- und datenqualitätsrelevante Geschäftsprozesse) zu involvieren. Das Handelsunternehmen konnte seine Lieferantenbeziehung durch das Projekt deutlich verbessern. Die internen Prozesskosten des Einkaufs und der Logistik konnten nachhaltig gesenkt werden.

10 5. Methodik, Architektur, Techniken und Werkzeuge Vorweg muss auch für dieses Kapitel gesagt werden, dass das Thema Datenqualität aus sehr vielen Facetten besteht. So gibt es nicht eine Musterlösung, sondern die Lösung hängt eng mit den auftretenden Qualitätsproblemen und dem Einsatzgebiet zusammen. Im Rahmen dieses Whitepapers wird jetzt nur auf ein fast allgemeingültiges Vorgehensmodell, einen allgemein zentralistischen Ansatz und auf mögliche Techniken und Werkzeuge eingegangen. Speziell werden die Techniken Data Profiling, Data Cleansing und Data Monitoring vorgestellt. ACT Qualitätsgewinn: In dieser Phase wird der im vorherigen Schritt definierte Standard auf breiter Front eingeführt, festgeschrieben und regelmäßig auf Einhaltung überprüft (Audits). Hier handelt es sich tatsächlich um eine große Aktion, die im Einzelfall umfangreiche organisatorische Aktivitäten (z. B. Änderung von Arbeitsplänen, NC-Programmen, Stammdaten, die Durchführung von Schulungen, Anpassung von Aufbauund Ablauforganisation) sowie erhebliche Investitionen (an allen vergleichbaren Arbeitsplätzen, in allen Werken) umfassen kann. An dieser Phase sind alle Gremien beteiligt, ein besonderes Gewicht sollte hierbei aber auf die Schulung und Motivation der Data Stewards gelegt werden, da diese für den fortlaufenden Qualitätsgewinn besonders wichtig sind. 5.1 Grundsätzliche Vorgehensmodelle Das grundsätzliche Vorgehen für das Erreichen von Datenqualität orientiert sich an einem Zyklus aus vier Aktionen (auch Plan Do Check Act genannt), der im Deutschen und auch in der DIN EN ISO 9000:2005 als Demingkreis bezeichnet wird. Der Gedanke des Kreises leitet sich hier aus dem kontinuierlichen Verbesserungsprozess ab, der Datenqualität durch die Summe (auch aufeinander aufbauender) kleinerer Verbesserungen erhöht. Der Demingkreis basiert ebenfalls auf dem Prinzip Gemba, welches die Mitarbeiter vor Ort mit ihrer exakten Kenntnis der Arbeitsprozesse in den Mittelpunkt der Planung stellt. Das Erreichen von Datenqualität hat daher auch viel mit Kollaboration und damit der Verankerung des Vorgehens in der Organisation zu tun, wie schon in dem vorherigen Kapitel ersichtlich wird. Der Plan-Do-Check-Act-Zyklus enthält die vier im Folgenden vorgestellten Aktivitäten: PLAN Qualitätsplanung: Dieser Schritt beinhaltet das Erkennen von Verbesserungspotentialen, die Analyse des aktuellen Zustands sowie das Entwickeln eines neuen Konzeptes. In diesem Schritt sollten die Anwender und Mitarbeiter intensiv mit eingebunden werden. Hauptakteure in diesem Schritt sind der Datenqualitätslenkungsausschuss und insbesondere der Datenqualitätsmanager. Abbildung 6 Plan-Do-Check-Act-Zyklus Daneben gibt es natürlich noch andere Vorgehensmodelle. Als ein weiterer recht bekannter Vertreter sei hier das Total Data Quality Management (TDQM) vom Massachusetts Institute of Technology genannt. TDQM umfasst im Grunde drei Schritte, von denen sich der erste auf die unternehmensindividuelle Definition von Datenqualität bezieht (wie schon in Kapitel 1.2 beschrieben). Die beiden weiteren Schritte umfassen die Analyse der Auswirkungen von Datenqualität auf das Unternehmen und die Schritte zur Verbesserung der Datenqualität. DO Qualitätslenkung: In diesem Schritt geht es um das Ausprobieren beziehungsweise Testen und praktische Optimieren des Konzeptes mit schnell realisierbaren, einfachen Mitteln (z. B. provisorische Vorrichtungen an möglicherweise auch nur einem einzelnen Arbeitsplatz). Es geht hier noch nicht um das endgültige Umsetzen der im ersten Schritt erkannten Verbesserungspotentiale. Die Arbeit in diesem Schritt wird von der Datenqualitätsarbeitsgruppe durchgeführt. CHECK Qualitätssicherung: Die Umsetzung aus dem DO-Schritt und die erzielten Resultate werden sorgfältig überprüft. Für die Qualitätssicherung ist neben der Datenqualitätsarbeitsgruppe auch der Datenqualitätslenkungsausschuss zuständig. Der Datenqualitätslenkungsausschuss hat hierbei insbesondere die Aufgabe, das Kosten-Nutzen-Verhältnis der angestrebten Verbesserung zu bewerten. Bei positiver Bewertung erfolgt im nächsten Schritt die Umsetzung als unternehmensweiter Standard. Analyse: Hier geht es darum, den Einfluß der Datenqualität auf das Unternehmen anhand von beispielhaften Fällen zu quantifizieren, mit Hilfe einer Data Quality Value Chain Analysis herauszufinden, wie sich die Datenqualität auswirkt und ein Modell zur Bewertung der Datenqualität in Euro und Cent aufzustellen. Verbesserung: Bei diesem Punkt geht um mehr oder weniger technische Verbesserungsmöglichkeiten. So könnte ein neues Design des Unternehmens und der Prozesse dabei helfen, die Fehleranfälligkeit durch möglichst schlanke Vorgehensweisen zu senken. Oder die Motivation zur Verbesserung der Datenqualität kann durch Belohnungen oder einer wahrnehmbaren Unterstützung der DQ-Initiative durch das Management verbessert werden. Neue Technologien wie Scanner könnten eingesetzt werden, um ein möglicherweise fehleranfälliges Erfassen von Hand zu ersetzen und zu

11 guter Letzt geht es auch hier darum, eine Art Glossar für die Definition der Daten aufzustellen, damit diese nicht fehlerhaft benutzt werden. Es folgt hier nun ein kleines Beispiel aus einem Projekt mit dem Ziel, Unternehmensdaten aus zwei unterschiedlichen Quellen zu integrieren. Obwohl es ein reines Integrationsprojekt war, spielten hier viele Aspekte der Datenqualität und insbesondere der Dublettenerkennung eine große Rolle (auf diese wird in Kapitel 5.4 noch etwas näher eingegangen). Insgesamt zeigt sich, dass das Thema Datenqualität sehr viel damit zu tun hat, sich über die eigenen Daten und die Querbeziehung dieser Daten bewusst zu werden. Aufbauend auf diesen Erkenntnissen können dann zunächst Ziele und Kriterien definiert und später Schritte ergriffen werden, um diese Kriterien zu verbessern und so die gesetzten Ziele zu erreichen. Projektbeispiel Datenqualität bei der Integration von externen Unternehmensstammdaten In dem hier beschreibenen Beispielprojekt ging es um die Integration von Unternehmensdaten aus zwei unterschiedlichen Datentöpfen, wobei der kleinere Datentopf dem deutschen Handelsregister entsprach und der andere extern gepflegten periodischen Unternehmensmeldungen. Ohne einen eindeutigen Schlüssel auf beiden Seiten musste hier ein Ansatz gewählt werden, der einer Dublettenerkennung sehr ähnelt. Etwa die Hälfte der aufgewendeten Zeit wurde in der PLAN-Phase erbracht, wobei es trotzdem zu kleineren Zwischen-Zyklen, d. h. von CHECK nach PLAN ohne ACT, kam, weil nicht alle Qualitätsprobleme schon in der ersten PLAN-Phase bedacht worden waren. Letztendlich wurde entschieden, zur Identifikation eine Kombination aus Unternehmensname, Rechtsform und Standort heranzuziehen. Die Herausforderung lag in allen drei Feldern in der Standardisierung und Normierung. Am Ende bestand die Lösung aus einem mehrschrittigen Verfahren unter Einsatz von Fuzzy Double Batch (einem bekannten Werkzeug zur Dublettenerkennung, mittlerweile von SAP akquiriert) und selbstentwickelter Software, die auf bekannten Standard-Algorithmen aufbaute. Das Projektergebnis war ein abgestuft integrierter Datentopf, der Datensätze mit einer Matchingquote von 96 % zusammenführen konnte. 5.2 Lösungsarchitektur Im Sinne der Architektur von Datenqualitätssystemen ist es wünschenswert, wenn die Datenqualität schon bei der Entwicklung eines neuen Systems oder einer neuen Software ein Designkriterium darstellt. Eine solch starke Betonung der Datenqualität hilft auch, wenn es um die Behebung von Problemen geht: So kann man sich die Mühe ersparen, erst vom Problempunkt aus rückwärts zu evaluieren, um herauszufinden, wie das Problem zustande gekommen ist unter Umständen sogar über mehrere Schnittstellen und Systeme hinweg Daneben ist die Frage nach dem genauen Ansatzpunkt für eine Verbesserung im gesamten Datenverarbeitungsprozess und der Lösungsarchitektur ein wichtiger Aspekt. Der Bereich der Lösungsarchitektur umfasst daher nicht nur Fragestellungen zur grundsätzlichen Organisation der Datenhaltung und deren methodischer Umsetzung, sondern fragt auch genau nach den Stellen und Zeitpunkten, an denen die Maßnahmen zur Datenqualität angesetzt werden. Praktisch alle Lösungsarchitekturen bauen auf dem Gedanken eines Data Hubs (Datenmittelpunkt) auf. In einem solchen Hub können die Daten zentral synchronisiert werden, wobei es unterschiedliche Ausprägungen von solchen Hubs gibt: Registrierung: Der Zweck eines Registrierungs-Hubs ist das Erzeugen von zentralen Referenzen auf die Daten. Die Daten aus den unterschiedlichen Systemen werden hierzu mit ihren Schlüsselattributen im Data Hub registriert. Dabei werden die Schlüsselattribute dort hinterlegt und bereinigt, während die anderen Daten möglicherweise inkonsistent in den Ursprungssystemen verbleiben. Diese Architektur kann schnell implementiert und für die Eliminierung von Duplikaten eingesetzt werden. Dieses Vorgehen behebt allerdings nicht die Ursachen der Probleme, weil beispielsweise doppelte Kundeneinträge in den Ursprungssystemen erhalten bleiben. Koexistenz: Der Zweck eines Koexistenz-Hubs ist neben der zentralen Referenz auch noch eine weitergehende Harmonisierung der Daten. Hier werden nicht nur die Schlüsselattribute sondern alle Datenfelder, die Bestandteil des festgelegten Masterdatenmanagement sind, in dem Hub hinterlegt und können dabei bereinigt und dedupliziert werden. Das Synchronisieren der unterschiedlichen Datenhaltungssysteme und des Hubs muss hierbei besonders sorgfältig geplant und beaufsichtigt werden. Transaktional: Ein solcher Hub ist als Komponente von zentraler Datenhaltung zu sehen und wird auch gerne Repository genannt. Die Daten werden ähnlich wie bei der Koexistenz in den Hub übertragen, dort aber komplett gespeichert. Ab diesem Zeitpunkt laufen alle Datenänderungen und auch Abfragen über den Hub, der damit als zentrale Instanz die Korrektheit und Konsistenz gewährleisten kann. In Abbildung 6 wird ein transaktionaler Hub beispielhaft gezeigt. Es gibt im Sinne der Daten sowohl Quell- als auch Konsumentenanwendungen, wobei eine Anwendung gleichzeitig auf der Seite der Quellen und auf der Seite der Konsumenten liegen kann. Dies wird in der Abbildung durch die gepunkteten Pfeile (für lesenden Zugriff) deutlich gemacht. Datenquellen beinhalten hierbei immer einen Teil der sogenannten Hauptdaten. Diese werden in den Hub übertragen und können dann in der Datenquelle gelöscht werden.

12 Verbesserung der Datenqualität, aber die Prävention von Datenqualitätsproblemen kann schon bei der Datenerfassung ansetzen. So könnte man sich vorstellen, dass Eingabemasken zur Datenerfassung so angefertigt werden, dass in sinnvollen Feldern keine manuelle Eingabe mehr erfolgt und dass die Eingabemasken möglichst nur auf notwendige Daten eingeschränkt werden. Abbildung 6 Beispiel eines transaktionalen Hubs Sollten im Laufe der weiteren Verarbeitung Änderungen anden Hauptdaten in der Datenquelle vorgenommen werden, dann werden diese an den Hub weitergegeben, während die restlichen Daten weiterhin separat in den Datenquellen verwaltet werden können. Der Zugriff der Konsumentenanwendungen erfolgt rein lesend und direkt auf den Hub. Die besten Ergebnisse für die Datenqualität (und allen daraus abgeleiteten Nutzenfaktoren) sind bei einem Transaktionalen Hub zu erwarten, der allerdings auch den Nachteil hat, dass er zentral mit allen anderen vorhandenen oder mindestens betroffenen Systemen in beide Richtungen gekoppelt werden muss. Insbesondere an diesem Beispiel zeigt sich, dass der erwartete (und langfristige) Nutzen von Datenqualität zusammen mit den erwarteten (einmaligen) Kosten für die Datenqualität ansteigt. Außerdem zeigt sich, dass es sich lohnen kann, das Thema Datenqualität im wahrsten Sinne des Wortes in der Mitte des Unternehmens anzusiedeln. Weitere Vorteile durch den Einsatz eines Hubs ergeben sich auch im Umfeld von DWH oder serviceorientierten Architekturen (SOA). Im Grunde könnte man ein DWH sogar als eine Art Koexistenz-Hub einordnen, was vielleicht auch der Grund dafür sein könnte, dass schlechte Datenqualität oftmals erst im BI/DWH-Umfeld auffällt. SOA hingegen profitiert von einem Transaktionalen Hub (und umgekehrt), weil damit ein zentraler Datenservice leicht in die vorhandene Architektur eingebunden werden kann. Eine weitere Frage der Lösungsarchitektur ist die Frage nach dem Ansatzpunkt von Datenqualität. Diese Frage kann auf der einen Seite mit den unterschiedlichen Ausprägungen der Data Hubs in Verbindung gebracht werden, allerdings kann die Prävention von Datenqualitätsproblemen auch schon viel früher ansetzen. So gibt es zwar eine große Überschneidung zwischen einem Transaktionalen Hub und dem präventiven Ansatz zur Ein reaktiver Ansatz zur Datenqualität ist das, was heute (leider) überwiegend im DWH- oder Projektalltag eingesetzt wird. Nicht nur im Umfeld von DWH sondern auch im normalen Projektalltag oder im normalen Betrieb hat man oft mit Datenqualitätsproblemen zu kämpfen. Sicherlich hat jeder schon mehr als einmal erlebt, dass Programme abstürzen oder Berichte nicht erzeugt werden, weil in den Daten bestimmte Felder entweder gar nicht oder aber mit nicht erwarteten oder nicht benutzbaren Werten gefüllt sind. So hatte zum Beispiel ein mittelgroßes Handels- und Versandunternehmen zwei Tage lang mit großen Problemen zu kämpfen, weil Kunden zuerst mit einer leeren Kundennummer angelegt wurden. In der Folge kam es bei der Suche nach Kunden dann häufiger zu kompletten Applikationsabstürzen. Fällt so etwas in einem DWH oder bei den Tests im Rahmen einer Softwareentwicklung auf, so wird meist versucht, den Fehlerfall allgemein und bezogen auf das eigene System zu beheben, zeitgleich mit der Übernahme der Daten in das Programm oder DWH. Fällt ein solches Problem z. B. erst nach der Fertigstellung einer Software auf, wird der Fehler in der Regel manuell nur einmalig im Datenbestand korrigiert. Bestenfalls findet in so einem Fall noch eine Überprüfung der aktuellen Daten auf weitere solche Fehler statt. In den Bereich der präventiven Maßnahmen fällt auch der Begriff Data Quality Firewall (DQF). Eine DQF kann vor das Laden der Daten in ein DWH oder auch an vielen Stellen in einem großen IT-System eingebaut werden. Eine DQF empfiehlt sich insbesondere für die Zusammenarbeit mit einem MDM-System oder einer SOA-Architektur. Regeln zur Steuerung der einzelnen DQF können in der Datenqualitätsarbeitsgruppe erarbeitet werden oder durch einzelne Schritte gewonnen werden, wie dem später erläuterten Data Profiling. Die Aktionen, die eine DQF ergreifen kann, beinhalten das komplette Ablehnen von fehlerhaften Daten, das Rückstellen der Daten zur manuellen Korrektur durch einen Data Steward oder das automatisch korrigierte Weiterleiten der Daten. In jedem der genannten Fälle sollte ein Bericht erzeugt werden.

13 Grundsätzlich ist auch eine Mischung aus reaktivem und präventivem Vorgehen denkbar. Das wäre ein System, in dem präventiv neue oder geänderte Daten anhand von gewissen Regeln kontrolliert und dann reakreaktiv einem Data Steward zur Kontrolle oder Korrektur vorgelegt werden. Ein wichtiger Teil eines präventiven Ansatzes ist das Data Profiling, auf welches im nächsten Abschnitt genauer eingegangen wird. 5.3 Data Profiling Unter dem Begriff Data Profiling versteht man das Analysieren von vorhandenen Daten. Dabei werden Statistiken und Informationen über die Daten erzeugt, die für verschiedene Zwecke und insbesondere dem Erhöhen von Datenqualität genutzt werden können. Im Grunde kann man das Data Profiling mit (möglichst automatisierter) Detektivarbeit auf der Suche nach Ausreißern und Ausnahmen bei einzelnen Attributen im Sinne der Datenqualität vergleichen. Daneben können aber auch Geschäftsregeln, die sich evtl. in Abhängigkeiten innerhalb von Datensätzen oder zwischen solchen niederschlagen, analysiert werden oder ganz neue Abhängigkeiten entdeckt werden, die auf Verbesserungsmöglichkeiten in der bisherigen Datenspeicherung hindeuten können (zum Beispiel nicht abgebildete Fremdschlüsselbeziehungen oder Redundanzen). Während es beim Data Profiling für die einzelnen Attribute beispielsweise um die Frage geht, ob die Werte eines Attributes in einem bestimmten Gültigkeitsbereich liegen, wird bei den textlichen Werten nach einem Grundmuster gesucht, das viele oder fast alle Datensätze erfüllen. So kann man dann ggf. nachhaken, warum es dort Abweichungen gibt. Bei Zahlenwerten wird überprüft, ob fast alle Zahlen in einem ähnlich großem Wertebereich liegen, oder ob es hier Ausreißer gibt. Beim Data Profiling für Datensätze geht es um funktionale Abhängigkeiten innerhalb der Datensätze. Eine funktionale Abhängigkeit bedeutet, dass ein Attribut von einem anderen Attribut vollständig abhängt. Ein solcher Zusammenhang wird in der Datenbanktheorie gerne zur Normalisierung des Datenbankschemas eingesetzt. Der Vorteil eines normalisierten Datenbankschemas ist das Vermeiden von Redundanz, aus der wiederum verschiedenen Arten von Inkonsistenzen entstehen können. Der Nachteil liegt in komplexeren Anfragen und Ausführungsplänen, da die Daten über mehrere Tabellen (im Falle eines DWH aber nur die Dimensionstabellen) verteilt werden. Beim Data Profiling für Tabellen geht es um die referentielle Integrität. Hier wird versucht, den tabellenübergreifenden Bezug zwischen Attributen herzustellen oder Abhängigkeiten zwischen verschiedenen Datensätzen der gleichen Tabelle zu untersuchen. Die Informationen, die im Rahmen des Data Profiling gefunden werden, können anschließend im Rahmen der Datenbereinigung genutzt werden. (Das so genannte Data Cleansing wird im nächsten Abschnitt näher beschrieben.) So kann die durchgeführte Suche nach Mustern in einen Standardisierungs- und Normalisierungs-Schritt münden. Ein solcher Schritt eröffnet unter anderem die Möglichkeit, auf Basis der gefundenen Muster Gültigkeitsregeln zu erstellen, die sogar schon beim Erzeugen von neuen Daten angewendet werden können. Allerdings muss man dazu sagen, dass das Erkennen von Mustern selbst schon von einer vorher durchgeführten Standardisierung und Normierung profitieren kann. Um zum Beispiel ein Muster für einen Unternehmensnamen erstellen zu können, ist es sinnvoll sich über mögliche enthaltene Rechtsformen und unterschiedliche Schreibweisen dieser Rechtsformen Gedanken zu machen. Am besten wäre an der Stelle, dass man die Rechtsform standardisiert erfasst und sich dann später keine Gedanken mehr über Schreibweisen wie GmbH oder G.m.b.H. zu machen braucht. Letztendlich hilft Data Profiling auch sehr, wenn es darum geht, ein Verständnis für die Daten und die Querbezüge zwischen den Daten aufzubauen. Ein Verständnis, welches teilweise auch nötig ist, um die Kennzahlen für die Beurteilung der Datenqualität festzulegen. Außerdem kann wiederholtes Data Profiling zur Messung einiger dieser Kennzahlen eingesetzt werden. 5.4 Data Cleansing Die Ergebnisse des Data Profiling können an verschiedenen Stellen und zu verschiedenen Zwecken eingesetzt werden. Ein wichtiger nächster Schritt kann die Datenbereinigung (Data Cleansing oder auch Data Scrubbing genannt) sein, bei der die vorhandenen Daten korrigiert werden, um eine konsistente Sicht zu erhalten. Das Bereinigen von Daten kann ebenso wie das Data Profiling auf verschiedenen Stufen erfolgen. Neben der Korrektur von einzelnen Attributen aufgrund von erkannten Mustern oder Gültigkeitsbereichen, kann eine Bereinigung auch auf fachlicher Ebene stattfinden. Der bekannte Teilaspekt einer Bereinigung im fachlichen Bereich wird gerne als Dubletten- Elimination bezeichnet. Diese sorgt für schnelle Abhilfe bei einem ganz typischen Datenqualitätsproblem oftmals auch ohne vorhergehendes automatisiertes Data Profiling. Eine solche Dubletten-Elimination kann auf Basis von klar definierten Attributen erfolgen (z. B. der Bankverbindung eines Kundens oder der DUNS-Nummer eines Partners, die identisch sein muss) oder auf Basis von sogenannten unscharfen Kriterien wie sie zum Beispiel bei der möglicherweise unklaren Schreibweise eines Kundennamens, der telefonisch durch einen Kundenbetreuer aufgenommen wurde, auftreten können. Welche Schritte im Rahmen des Data Cleansing insgesamt durchgeführt werden können, zeigt Abbildung 7. Gerade im Bereich der Dubletten-Elimination ohne vorhergehendes (automatisiertes) Data-Profiling gibt es einige Werkzeuge, die entsprechende Funktionalitäten anbieten. Jedes dieser Werkzeuge bietet die Möglichkeit, gewisse Regeln zu definieren, um die sogenannte unscharfe Gleichheit von verschiedenen Werten (bevorzugt Zeichenketten) festzumachen und dann mit diesen Regeln innerhalb eines oder zwischen mehreren OPITZ CONSULTING Deutschland Whitepaper Datenqualitätsmanagement Seite 13

14 Datenbeständen nach Dubletten zu suchen. Zumeist wird die unscharfe Gleichheit auf einer Prozent-Skala als Übereinstimmung der verschiedenen Werte widergegeben. Versierte Nutzer dieser Werkzeuge können oftmals noch auswählen, welcher Algorithmus tatsächlich eingesetzt wird, und ob gewisse Unstimmigkeiten zwischen Werten zu kleineren oder größeren Abwertungen führen. Doch nicht jede Spezialanforderung lässt sich mit einem solchen Werkzeug umsetzen (zum Beispiel, wenn es nicht nur um das Vorhandensein sondern auch die Reihenfolge oder den Abstand von mehreren Wörtern in einem größeren Text geht). Auch empfiehlt es sich trotz Einsatzes eines solchen Werkzeuges noch etwas Data Profiling und Vorverarbeitung zu integrieren, was normalerweise nicht umfassend durch die genannten Werkzeuge angeboten wird. So kann es interessant sein, einen zusätzlichen Normierungsschritt vor der Dubletten-Elimination einzufügen, um unterschiedliche Schreibweisen des gleichen Inhaltes (zum Beispiel GmbH oder G.m.b.H., wenn es um Unternehmensnamen geht) so umzuschreiben, dass diese bei dem Vergleichsschritt auch einfach als gleich erkannt werden und damit die (möglicherweise unnötige) Abwertung der Übereinstimmungswahrscheinlichkeit zu vermeiden. Die Dubletten-Elimination kann übrigens effizienter gestaltet werden, wenn man bei der Vorverarbeitung bereits weiß, ob nur Ergebnisse gesucht werden, bei denen die Länge der gesuchten Übereinstimmungen nicht stark abweichen darf, oder ob ein paar Buchstaben oder Positionen innerhalb der zu vergleichenden Zeichenketten eine besondere Bedeutung haben, was einen Vergleich in vielen Fällen von vorneherein unnötig machen kann. Im Gegensatz zu der Bereinigung von Daten beschreiben die Begriffe Validierung und Filterung ein früheres Ansetzen von Datenqualität. Hier geht es darum, dass Daten möglichst schon bei ihrer Erzeugung abgelehnt werden, wenn sie außerhalb definierter Gültigkeitsbereiche liegen oder vorgegebene Datenmuster nicht erfüllen. Diese frühzeitige Ablehnung führt uns gleich zum nächsten Thema, dem Data Monitoring: Denn natürlich können die Daten nicht nur abgelehnt werden. Sie könnten zur manuellen Bereinigung durch einen Data Steward zurückgehalten oder mit automatischer Bereinigung sofort weiterverarbeitet werden. 5.5 Data Monitoring Data Monitoring beschreibt ein proaktives Vorgehen, mit dessen Hilfe Datenqualitätsprobleme frühzeitig erkannt und die Datenqualitätskennzahlen kontinuierlich erhoben und überwacht werden können. Es ist an dieser Stelle besonders wichtig, sich darüber Gedanken zu machen, wie und an welchen Stellen Data Monitoring eingesetzt werden kann. Oft vernachlässigt, sollte Data Monitoring eigentlich ein wesentlicher Bestandteil der Datenqualitätsinitiative sein, da die Wirksamkeit der getroffenen Maßnahmen erfahrungsgemäß mit der Zeit abnimmt. Zusätzlich sollte der größte Teil des Data Monitorings automatisiert geschehen, da andernfalls geplante manuelle Überprüfungen gerne einmal ausfallen. Beim Data Monitoring werden die Daten auf Basis festgelegter Regeln überwacht und bewertet. Wenn beispielsweise bestimmte Schwellwerte überschritten werden oder ein vorgegebenes Datenmuster nicht erfüllt wird, kann Alarm geschlagen werden oder der Datensatz kann abgelehnt werden. Typische Einsatzszenarien von Data Monitoring beinhalten das Prüfen von neuen Daten, das (wiederholte) Bewerten von Datenqualitätskennzahlen oder das dauerhaft im System verankerte Überprüfen von Geschäftsregeln. Denkbar wäre Data Monitoring auch, um frühzeitig unzulässige Datenmanipulation zu erkennen oder um verfolgen zu können, wo welche Daten hingeflossen sind, und so möglichen Datenlecks nachgehen zu können. Letzteres stellt allerdings eine Definition des Monitoring -Begriffes dar, die weniger mit Datenqualität zu tun hat. Typische Werkzeuge in diesem Gebiet erlauben es, Datenqualitätsregeln zu erstellen, diese zu Jobs zusammenzufassen und die Jobs entweder manuell oder automatisch ablaufen zu lassen. In Abhängigkeit vom vorgesehenen Einsatzszenario und der Verknüpfung mit schon vorhandenen Systemen kann aber auch die Entwicklung einer eigenen Individualsoftware oder das Anpassen der vorhandenen Programme empfohlen werden. Wichtiger als das eigentliche Werkzeug ist hier aber die Fragestellung, wo und wie Data Monitoring innerhalb der IT-Infrastruktur eingesetzt werden sollte und wie gewonnene Ergebnisse kommuniziert werden können. Für das Kommunizieren der Ergebnisse empfiehlt sich beispielsweise ein Ticketing-System mit den auflaufenden Qualitätsberichten. Abbildung 7 Data Cleansing

15 Für die Frage nach dem Ansatzpunkt von Data Monitoring gibt es sowohl eine systembasierte als auch eine prozessbasierte Sicht: Systembasiert bietet sich jede Schnittstelle zwischen zwei Systemen oder Anwendungen an, um die durchfließenden Daten automatisch oder mit Hilfe der Data Stewards zu überwachen. Die prozessbasierte Sicht fokussiert die Übergänge zwischen zwei Prozessen oder Prozessschritten. Die Entscheidung über den Ansatzpunkt sollte nach Machbarkeit und Kosten- Nutzen-Relation entschieden werden. Ein kritischer Erfolgsfaktor des Data Monitorings ist die Integration in die operative Prozesswelt, auf IT-Seite insbesondere in den IT-Betrieb. Data Monitoring sollte in das Incident- und Problem-Management integriert werden. Organisatorisch ist eine Integration der Data Stewards in diese beiden Prozesse möglich. Das Change Management sollte die Belange der Datenqualität ebenfalls berücksichtigen. Quellenangaben [Apel, Behme, Eberlein, Merighi 2009] Datenqualität erfolgreich steuern, Apel/Behme/Eberlein/Merighi, Hanser Verlag, 2009 [Data Quality Check 2008, dgiq] Quality-Check-Analyse-2009_Martin_IBI_dgiq.pdf Informationen zum Thema MDM Master Data Management aus betriebswirtschaftlicher und technischer Sicht In diesem Buch beschreiben Rolf Scheuch, Tom Gansor und Colette Ziller MDM aus betriebswirtschaftlicher und technischer Sicht. Über OPITZ CONSULTING OPITZ CONSULTING trägt als führender Projektspezialist für ganzheitliche IT-Lösungen zur Wertsteigerung von Unternehmen bei und bringt IT und Business in Einklang. Der Nutzen, das Einsatzgebiet und die Positionierung werden analysiert, um die Planung, Konzeption und Umsetzung solcher Lösungen zu realisieren. Auch auf die verschiedenen heute gängigen Ansätze mit ihren jeweiligen Stärken und Schwächen wird eingegangen. Mehr dazu: auf [de Fries/Seidl/Windheuser 2002] Datenqualität: Ein unterschätzter Erfolgsfaktor, ExperPraxis 2001/02, Seite 92 [DGIQ IQ-Definition 2007, dgiq] [Pressemitteilung Omikron Data Quality, 2007] -Unternehmen-haeufig-mangelhaft.html Das Leistungsspektrum umfasst IT-Strategieberatung, individuelle Anwendungsentwicklung, System-Integration, Prozessautomatisierung, Business Intelligence, Betriebsunterstützung der laufenden Systeme sowie Aus- und Weiterbildung im hauseigenen Schulungszentrum. Mit OPITZ CONSULTING als zuverlässigem Partner können sich die Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen. OPITZ CONSULTING wurde 1990 gegründet und beschäftigt heute an acht Standorten mehr als 400 Mitarbeiter. Zum Kundenkreis zählen ¾ der DAX30-Unternehmen sowie branchenübergreifend mehr als 600 bedeutende Mittelstandunternehmen. Folgen Sie uns: youtube.com/opitzconsulting xing.com/net/opitzconsulting

erfolgreich steuern Datenqualität rä dpunkt.verlag Ldwi Praxislösungen für Business-Intelligence-Projekte Rüdiger Eberlein Edition TDWI

erfolgreich steuern Datenqualität rä dpunkt.verlag Ldwi Praxislösungen für Business-Intelligence-Projekte Rüdiger Eberlein Edition TDWI Detlef Apel Wolfgang Behme Rüdiger Eberlein Christian Merighi Datenqualität erfolgreich steuern Praxislösungen für Business-Intelligence-Projekte 3., überarbeitete und erweiterte Auflage Edition TDWI rä

Mehr

Datenqualität erfolgreich steuern

Datenqualität erfolgreich steuern Edition TDWI Datenqualität erfolgreich steuern Praxislösungen für Business-Intelligence-Projekte von Detlef Apel, Wolfgang Behme, Rüdiger Eberlein, Christian Merighi 3., überarbeitete und erweiterte Auflage

Mehr

Die Bedeutung von Datenqualität

Die Bedeutung von Datenqualität Die Bedeutung von Datenqualität Unabhängige Anwenderbefragung von TDWI und emagixx, März 2013 Inhaltsverzeichnis Vorwort...3 1. Executive Summary...4 2. Klassifizierung...5 2.1. Branche...5 2.2. Unternehmensgröße...5

Mehr

Datenqualitätsmanagement im Customer Relationship Management

Datenqualitätsmanagement im Customer Relationship Management Wolfgang Leußer Datenqualitätsmanagement im Customer Relationship Management Verlag Dr. Kovac Hamburg 2011 Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis XVII XIX XXI

Mehr

Agenda. Portfolioübersicht. Business-Case. Zusammenfassung. Das Ziel. SAP EIM Produktportfolio. Datenreorganisation mit SAP EIM

Agenda. Portfolioübersicht. Business-Case. Zusammenfassung. Das Ziel. SAP EIM Produktportfolio. Datenreorganisation mit SAP EIM Datenreorganisation > Effiziente und performante Stammdatenreorganisation mit SAP Data Services < Simon Hartstein / T-Systems Data Migration Consulting AG / Harmonization & Consolidation Mai 21, 2014 Agenda

Mehr

Uniserv Academy, Frankfurt am Main 19.05.2015 Kundendaten effektiv und nachhaltig managen Wie Data Governance hilft, Ihre Kunden besser zu verstehen

Uniserv Academy, Frankfurt am Main 19.05.2015 Kundendaten effektiv und nachhaltig managen Wie Data Governance hilft, Ihre Kunden besser zu verstehen Fakultät Informatik und Wirtschaftsinformatik Sanderheinrichsleitenweg 20 97074 Würzburg Folie 1 Uniserv Academy, Frankfurt am Main 19.05.2015 Kundendaten effektiv und nachhaltig managen Wie Data Governance

Mehr

Datenqualität: allgemeiner Überblick Waldemar Braun. Seminar Datenqualität OvGU Magdeburg 03.12.2009

Datenqualität: allgemeiner Überblick Waldemar Braun. Seminar Datenqualität OvGU Magdeburg 03.12.2009 Datenqualität: allgemeiner Überblick Waldemar Braun Seminar Datenqualität OvGU Magdeburg Gliederung 1. Einleitung 2. Motivation 3. Definition 4. DQ-Probleme 5. DQ-Dimensionen 6. DQ-Modelle 7. Messen der

Mehr

DGIQ Projekt IQ-Definition

DGIQ Projekt IQ-Definition DGIQ Projekt IQ-Definition Definition des Begriffsfeldes Informationsqualität bzw. Datenqualität Ein Projekt der DGIQ, 2007 Normen und Standards Dr. Jan Philipp Rohweder, Andrea Piro, Joachim Schmid GIQMC,

Mehr

Erfolgsfaktor Datenqualität im Immobilienmanagement Eine Strategie zur nachhaltigen Verbesserung der Datenqualität

Erfolgsfaktor Datenqualität im Immobilienmanagement Eine Strategie zur nachhaltigen Verbesserung der Datenqualität Erfolgsfaktor Datenqualität im Immobilienmanagement Eine Strategie zur nachhaltigen Verbesserung der Datenqualität Joachim Sobota und Axel Hummel 16. SAP Forum für die Immobilienwirtschaft, 24.-25. Sept

Mehr

Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter. Chinesische Botschaft in Belgrad

Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter. Chinesische Botschaft in Belgrad Datenqualität mit dem DataFlux dfpower Studio 8.1 Tobias Jansen Zaferna-Hütte, 4. Januar 2009 Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter Nasa Marssonde Mars Climate Orbiter

Mehr

Intelligente Unternehmens- und Prozesssteuerung durch CPM

Intelligente Unternehmens- und Prozesssteuerung durch CPM Intelligente Unternehmens- und Prozesssteuerung durch CPM 5. IIR Forum BI, Mainz, Sept. 2006 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

S I G M A. Knowledge Management in der Unternehmensberatung Eine empirische Darstellung von Six Sigma

S I G M A. Knowledge Management in der Unternehmensberatung Eine empirische Darstellung von Six Sigma S I G M A B R E A K A W A Y P E R F O R M A N C E Knowledge Management in der Unternehmensberatung Eine empirische Darstellung von Six Sigma E-mail: peter.pointner@gmx.at daniel.puehringer@gmx.at Content

Mehr

CMC-KOMPASS: CRM. Der Wegweiser für erfolgreiches Kundenbeziehungsmanagement

CMC-KOMPASS: CRM. Der Wegweiser für erfolgreiches Kundenbeziehungsmanagement CMC-KOMPASS: CRM Der Wegweiser für erfolgreiches Kundenbeziehungsmanagement 1 CROSSMEDIACONSULTING 18.05.2010 Unser Verständnis von CRM: Customer Relationship Management ist weit mehr als ein IT-Projekt

Mehr

EXZELLENTES MASTERDATENMANAGEMENT. Creactives-TAM. (Technical Attribute Management)

EXZELLENTES MASTERDATENMANAGEMENT. Creactives-TAM. (Technical Attribute Management) EXZELLENTES MASTERDATENMANAGEMENT Creactives-TAM (Technical Attribute Management) Datenqualität durch Stammdatenmanagement Stammdaten sind eine wichtige Grundlage für Unternehmen. Oft können diese, gerade

Mehr

Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010

Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010 Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010 Autoren: Alexander Schramm Marcus Mertens MuniConS GmbH Einleitung Unternehmen verfügen heute über viele wichtige Informationen

Mehr

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit BI Konsolidierung: Anspruch & Wirklichkeit Jacqueline Bloemen in Kooperation mit Agenda: Anspruch BI Konsolidierung Treiber Was sind die aktuellen Treiber für ein Konsolidierungsvorhaben? Kimball vs. Inmon

Mehr

Durchgängig IT-gestützt

Durchgängig IT-gestützt Beschaffung aktuell vom 03.09.2012 Seite: 026 Auflage: 18.100 (gedruckt) 10.253 (verkauft) 18.032 (verbreitet) Gattung: Zeitschrift Supplier Lifecycle Management Durchgängig IT-gestützt Obwohl die Identifizierung,

Mehr

Konzeption eines Master-Data-Management-Systems. Sven Schilling

Konzeption eines Master-Data-Management-Systems. Sven Schilling Konzeption eines Master-Data-Management-Systems Sven Schilling Gliederung Teil I Vorstellung des Unternehmens Thema der Diplomarbeit Teil II Master Data Management Seite 2 Teil I Das Unternehmen Vorstellung

Mehr

Bessere Daten durch Stammdatenmanagement

Bessere Daten durch Stammdatenmanagement make connections share ideas be inspired Bessere Daten durch Stammdatenmanagement Mit SAS MDM, bessere Stammdaten für operativen Systeme make connections share ideas be inspired Overview Mit SAS MDM bessere

Mehr

Planung und Effizienz durch optimale Datenqualität sicherstellen Frankfurt, März 2013

Planung und Effizienz durch optimale Datenqualität sicherstellen Frankfurt, März 2013 Planung und Effizienz durch optimale Datenqualität sicherstellen Frankfurt, März 2013 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Immer wieder: Datenqualität Begann es 1805?

Mehr

Innovatives Reporting mit PM10: Analysen und Berichte mit Single Point of Truth 11.00 11.45 Uhr

Innovatives Reporting mit PM10: Analysen und Berichte mit Single Point of Truth 11.00 11.45 Uhr Copyright 2007 Infor. Alle Rechte vorbehalten. Innovatives Reporting mit PM10: Analysen und Berichte mit Single Point of Truth 11.00 11.45 Uhr Hubertus Thoma Presales Consultant PM Schalten Sie bitte während

Mehr

Wie Fusion CRM die Datenqualität im Marketingprozess erhöhen kann (Fusion CRM@ec4u)

Wie Fusion CRM die Datenqualität im Marketingprozess erhöhen kann (Fusion CRM@ec4u) Wie Fusion CRM die Datenqualität im Marketingprozess erhöhen kann (Fusion CRM@ec4u) Jeder kennt folgende Sätze aus seinem eigenen Unternehmen: Wieso sind so viele doppelte Einträge im System? Kann man

Mehr

Data Governance Informationen kontrolliert managen

Data Governance Informationen kontrolliert managen make connections share ideas be inspired Data Governance Informationen kontrolliert managen Michael Herrmann SAS Copyright 2013, SAS Institute Inc. All rights reserved. DATA GOVERNANCE TRENDS UND TREIBER:

Mehr

Nutzen Sie das Potenzial Ihrer Daten durch optimale Datenqualität!

Nutzen Sie das Potenzial Ihrer Daten durch optimale Datenqualität! your way to data excellence Reduzieren Sie Kosten Eliminieren Sie Risiken Optimieren Sie Prozesse Steigern Sie Umsatz und Gewinn Nutzen Sie das Potenzial Ihrer Daten durch optimale Datenqualität! Treffen

Mehr

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5 Das Management von Informations- Systemen im Wandel Die Informations-Technologie (IT) war lange Zeit ausschließlich ein Hilfsmittel, um Arbeitsabläufe zu vereinfachen und Personal einzusparen. Sie hat

Mehr

DIE DATEN IM ZENTRUM: SAS DATA MANAGEMENT

DIE DATEN IM ZENTRUM: SAS DATA MANAGEMENT DIE DATEN IM ZENTRUM: SAS DATA RAINER STERNECKER SOLUTIONS ARCHITECT SAS INSTITUTE SOFTWARE GMBH Copyr i g ht 2013, SAS Ins titut e Inc. All rights res er ve d. NEUE WEGE GEHEN SAS DATA GOVERNANCE & QUALITY

Mehr

Survival Guide für Ihr Business Intelligence-Projekt

Survival Guide für Ihr Business Intelligence-Projekt Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren

Mehr

DDM9000 : Kurz und bündig

DDM9000 : Kurz und bündig LTE Consulting GmbH Ihr Partner für InformationsLogistik DDM9000 : Kurz und bündig Kennen Sie das? Langes Suchen nach Unterlagen, aktuellen Dokumenten und anderen Informationen Wo sind wichtige, aktuelle

Mehr

IT-Compliance -... und die Realität. Was hat Datenqualität mit Compliance zu tun?

IT-Compliance -... und die Realität. Was hat Datenqualität mit Compliance zu tun? IT-Compliance -... und die Realität Was hat Datenqualität mit Compliance zu tun? Situation Stetiger Veränderungsdruck durch immer schnellere Marktveränderungen Auslöser für Veränderungen Globalisierung

Mehr

Data Quality Management. Data Quality Management. Daten organisieren, revisionssicher korrigieren und Informationsqualität steigern.

Data Quality Management. Data Quality Management. Daten organisieren, revisionssicher korrigieren und Informationsqualität steigern. Data Quality Management Data Quality Management Daten organisieren, revisionssicher korrigieren und Informationsqualität steigern zeb Data Quality Management Daten organisieren, revisionssicher korrigieren

Mehr

your IT in line with your Business Geschäftsprozessmanagement (GPM)

your IT in line with your Business Geschäftsprozessmanagement (GPM) your IT in line with your Business Geschäftsprozessmanagement (GPM) Transparenz schaffen und Unternehmensziele effizient erreichen Transparente Prozesse für mehr Entscheidungssicherheit Konsequente Ausrichtung

Mehr

Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010

Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010 Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Information Governance Information Management

Mehr

P R E S S E M I T T E I L U N G

P R E S S E M I T T E I L U N G PRESSEMITTEILUNG KuppingerCole und Beta Systems ermitteln in gemeinsamer Studie die technische Reife von Identity Access Management und Governance in der Finanzindustrie Identity Provisioning als Basistechnologie

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Unternehmensweites DQ Controlling auf Basis von BI-Werkzeugen. Doreen Hartung, TIQ Solutions GmbH 6. GIQMC, Bad Soden, 26.-28.

Unternehmensweites DQ Controlling auf Basis von BI-Werkzeugen. Doreen Hartung, TIQ Solutions GmbH 6. GIQMC, Bad Soden, 26.-28. Unternehmensweites DQ Controlling auf Basis von BI-Werkzeugen Doreen Hartung, TIQ Solutions GmbH 6. GIQMC, Bad Soden, 26.-28. November 2008 2007 TIQ Solutions GmbH All Rights Reserved. GIQMC Bad Soden,

Mehr

Quality Point München Datenqualität

Quality Point München Datenqualität Quality Point München Datenqualität Paul, wie ist denn Eure Datenqualität? Nachdem ich bei der letzten Gehaltszahlung mit Frau... angeredet wurde, bin ich mir nicht mehr so sicher. Autor: W. Ulbrich IT&More

Mehr

Planung, Ziele, Kennzahlenmanagement

Planung, Ziele, Kennzahlenmanagement DGQ-Regionet Nordwest 13.11.2008 Planung, Ziele, Kennzahlenmanagement Guido Kuper Qualitätsmanagement Wilhelm Karmann GmbH 1 Wozu benötigt man Kennzahlen? Zur Beruhigung Zur Orientierung Zur Analyse der

Mehr

Governance, Risk & Compliance für den Mittelstand

Governance, Risk & Compliance für den Mittelstand Governance, Risk & Compliance für den Mittelstand Die Bedeutung von Steuerungs- und Kontrollsystemen nimmt auch für Unternehmen aus dem Mittelstand ständig zu. Der Aufwand für eine effiziente und effektive

Mehr

DSC-Stammdatenmanagement

DSC-Stammdatenmanagement unternehmensberatung und software gmbh Ihre Daten im Fokus DSC-Stammdatenmanagement Effiziente und wirtschaftliche Prozesse durch qualitativ hochwertige und eindeutige Stammdaten Analyse Zusammenführung

Mehr

MATERNA Beschwerde-Management-Check. Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen

MATERNA Beschwerde-Management-Check. Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen MATERNA Beschwerde-Management-Check Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen >> MATERNA Beschwerde-Management-Check Ist in Ihrer Versicherung die Einführung,

Mehr

Analysen sind nur so gut wie die Datenbasis

Analysen sind nur so gut wie die Datenbasis Analysen sind nur so gut wie die Datenbasis Datenaufbereitung und Sicherung der Datenqualität durch den kontextbasierten MIOsoft Ansatz. Daten gelten längst als wichtiger Produktionsfaktor in allen Industriebereichen.

Mehr

Das intelligente Unternehmen

Das intelligente Unternehmen Das intelligente Unternehmen Das Office of the CFO als Leitstand SAP Infotage, Düsseldorf, Okt. 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut

Mehr

ISO & IKS Gemeinsamkeiten. SAQ Swiss Association for Quality. Martin Andenmatten

ISO & IKS Gemeinsamkeiten. SAQ Swiss Association for Quality. Martin Andenmatten ISO & IKS Gemeinsamkeiten SAQ Swiss Association for Quality Martin Andenmatten 13. Inhaltsübersicht IT als strategischer Produktionsfaktor Was ist IT Service Management ISO 20000 im Überblick ISO 27001

Mehr

Master-Thesis (m/w) für unseren Standort Stuttgart

Master-Thesis (m/w) für unseren Standort Stuttgart Master-Thesis (m/w) für unseren Standort Abschlussarbeit im Bereich Business Process Management (BPM) Effizienzsteigerung von Enterprise Architecture Management durch Einsatz von Kennzahlen Braincourt

Mehr

Supply Chain Management

Supply Chain Management Supply Chain Management Freisetzung gebundenen Kapitals Optimierung der Wertschöpfungskette Stärkung von Wettbewerbsvorteilen Zusammenfassung Optimierung erzielen durch die Nutzung der Instrumente des

Mehr

Master Data Management

Master Data Management Master Data Management Warum Stammdatenmanagement Komplexität reduzieren Stammdatenmanagement bringt Ordnung in ihre Stammdaten. Doubletten werden erkannt und gesperrt. Stammdaten verschiedener Quellsysteme

Mehr

Strategie und Self Service BI im Unternehmen. Gegensätze miteinander kombinieren

Strategie und Self Service BI im Unternehmen. Gegensätze miteinander kombinieren Strategie und Self Service BI im Unternehmen Gegensätze miteinander kombinieren Claas Planitzer Düsseldorf Juni 2015 Agenda 5. Herausforderungen 1. Idealbild 2. Realität 3. Self Service 4. BI. Was ist

Mehr

ALLES ÜBER IHRE KUNDEN

ALLES ÜBER IHRE KUNDEN ALLES ÜBER IHRE KUNDEN Data Quality: Die besten und aktuellsten Daten für Ihren Unternehmenserfolg Ansprechpartner bedirect GmbH & Co. KG Ariane Eggers Telefon +49 5241 80-45614 ariane.eggers@bedirect.de

Mehr

Die perfekte Verbindung von Optimierung und Innovation

Die perfekte Verbindung von Optimierung und Innovation Die perfekte Verbindung von Optimierung und Innovation OPTiVATiON Optimized Technology & Business Innovation GmbH Erfolg durch Kompetenz Das können Sie von uns erwarten Wir von OPTiVATiON definieren uns

Mehr

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES]

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES] NOW YOU KNOW [ SERIES] Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management [YVES BRENNWALD, ONTOS INTERNATIONAL AG] 001 Potential ontologiebasierter Wissens- Lösungen

Mehr

Datenintegration, -qualität und Data Governance. Hannover, 14.03.2014

Datenintegration, -qualität und Data Governance. Hannover, 14.03.2014 Datenintegration, -qualität und Data Governance Hannover, 14.03.2014 Business Application Research Center Führendes europäisches Analystenhaus für Business Software mit Le CXP (F) objektiv und unabhängig

Mehr

ZUR BEDEUTUNG VON TRENDS IM INNOVATIONSMANAGEMENT

ZUR BEDEUTUNG VON TRENDS IM INNOVATIONSMANAGEMENT April 2013 ZUR BEDEUTUNG VON TRENDS IM INNOVATIONSMANAGEMENT von Maren Weiß & Prof. Dr. Michael Durst Welche Rolle spielen Trends in den Frühen Phasen im Innovationsmanagement? Wie setzen Unternehmen Trends

Mehr

ERP-Systemeinsatz bewerten und optimieren

ERP-Systemeinsatz bewerten und optimieren ERP-Systemeinsatz bewerten und optimieren Handlungsfelder zur Optimierung des ERP-Systemeinsatzes ERP-Lösungen werden meist über viele Jahre lang eingesetzt, um die Geschäftsprozesse softwaretechnisch

Mehr

Presseinformation. Unser Ansatz ist eben auch operational

Presseinformation. Unser Ansatz ist eben auch operational Unser Ansatz ist eben auch operational Ulrich Rehrmann und Wolfgang Lalakakis, Gründer der GMVK Consulting Group, über den Markt für Geschäftsprozessoptimierungen, ICM Information Chain Management und

Mehr

Business Intelligence - Wie passt das zum Mainframe?

Business Intelligence - Wie passt das zum Mainframe? Business Intelligence - Wie passt das zum Mainframe? IBM IM Forum, 15.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Ressourcen bei BARC für Ihr Projekt Durchführung von internationalen Umfragen,

Mehr

ISMS Teil 3 Der Startschuss

ISMS Teil 3 Der Startschuss ISMS Teil 3 Der Startschuss Nachdem das TOP-Managenment die grundsätzliche Entscheidung getroffen hat ein ISMS einzuführen, kann es nun endlich losgehen. Zu Beginn sollte Sie noch die Grundlagen des ISMS

Mehr

IT-Strategie der zentralen Leistungserbringer der UZH 2014-2016

IT-Strategie der zentralen Leistungserbringer der UZH 2014-2016 Universität Zürich Prorektorat Rechts- und Künstlergasse 15 CH-8001 Zürich Telefon +41 44 634 57 44 www.rww.uzh.ch IT-Strategie der zentralen Leistungserbringer der UZH 2014-2016 Version vom 6. Juni 2014

Mehr

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle 40. Congress der Controller, Themenzentrum C, München Steffen Vierkorn, Geschäftsführer Qunis GmbH, Neubeuern Die

Mehr

Geschäftsanalytik & Informationsqualität. Transparenz schafft Handlungsalternativen

Geschäftsanalytik & Informationsqualität. Transparenz schafft Handlungsalternativen Geschäftsanalytik & Informationsqualität Transparenz schafft Handlungsalternativen InfoZoom Best Practice Day 2010 Methodik zur Identifizierung der Auswirkungen schlechter Datenqualität auf Geschäftsprozesse!

Mehr

Handlungsempfehlung zum Aufbau eines Security-Incident Management

Handlungsempfehlung zum Aufbau eines Security-Incident Management Handlungsempfehlung zum Aufbau eines Security-Incident Management Arbeitskreis IT-Security des bvh was sind ein Security-Incident und ein Security-Incident Management Aufbau eines Security-Incident Management

Mehr

Umfrage zum praktischen Einsatz von Change Management

Umfrage zum praktischen Einsatz von Change Management Umfrage zum praktischen Einsatz von Change Management Ergebnisauswertung einer Umfrage aus dem Sommer 2007, durchgeführt von management in motion, der BPM-Akademie sowie dem Kompetenzzentrum für Prozessmanagment

Mehr

ACT Gruppe. www.actgruppe.de. Effizienz. Innovation. Sicherheit.

ACT Gruppe. www.actgruppe.de. Effizienz. Innovation. Sicherheit. www.actgruppe.de ACT Gruppe Effizienz. Innovation. Sicherheit. ACT Gruppe, Rudolf-Diesel-Straße 18, 53859 Niederkassel Telefon: +49 228 97125-0, Fax: +49 228 97125-40 E-Mail: info@actgruppe.de, Internet:

Mehr

ITSM-Health Check: die Versicherung Ihres IT Service Management. Christian Köhler, Service Manager, Stuttgart, 03.07.2014

ITSM-Health Check: die Versicherung Ihres IT Service Management. Christian Köhler, Service Manager, Stuttgart, 03.07.2014 : die Versicherung Ihres IT Service Management Christian Köhler, Service Manager, Stuttgart, 03.07.2014 Referent Christian Köhler AMS-EIM Service Manager Geschäftsstelle München Seit 2001 bei CENIT AG

Mehr

Chancen und Herausforderungen einer BI Governance als strategischer Enabler

Chancen und Herausforderungen einer BI Governance als strategischer Enabler Chancen und Herausforderungen einer BI Governance als strategischer Enabler Dr. Hans-Martin Sadlers, Schweizerische Bundesbahnen SBB Delia Neuling, CubeServ AG Einleitung E n t w u r f Ausgangslage. Inwieweit

Mehr

Dipl. Inf. Ali M. Akbarian

Dipl. Inf. Ali M. Akbarian Dipl. Inf. Ali M. Akbarian 2012 Einführung Globalisierung, Innovation und Kundenzufriedenheit sind auch in Zukunft die wichtigsten Herausforderungen der Unternehmen. Diese Herausforderungen verlangen:

Mehr

Data Warehousing mit Oracle

Data Warehousing mit Oracle Data Warehousing mit Oracle Business Intelligence in der Praxis von Claus Jordan, Dani Schnider, Joachim Wehner, Peter Welker 1. Auflage Hanser München 2011 Verlag C.H. Beck im Internet: www.beck.de ISBN

Mehr

Vertriebssteuerung & Controlling Konkrete Vertriebsziele, passend zur Unternehmensstrategie

Vertriebssteuerung & Controlling Konkrete Vertriebsziele, passend zur Unternehmensstrategie Konkrete Vertriebsziele, passend zur Unternehmensstrategie Wir ermöglichen Ihnen mit dem Service Vertriebssteuerung die erfolgreiche Umsetzung Ihrer Unternehmensstrategie in operativ umsetzbare Vertriebsziele.

Mehr

Business Intelligence

Business Intelligence Business Intelligence TOP Priorität für CIOs? Köln 08. Mai 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence BI TOP Priorität

Mehr

Inhaltsverzeichnis. Einleitung 15

Inhaltsverzeichnis. Einleitung 15 Inhaltsverzeichnis Einleitung 15 1 Umfang und Aufgabe des IT-Security Managements 19 1.1 Kapitelzusammenfassung 19 1.2 Einführung 19 1.3 Informationen und Daten 20 1.4 IT-Security Management ist wichtig

Mehr

Compliance Monitoring mit PROTECHT.ERM

Compliance Monitoring mit PROTECHT.ERM covalgo consulting GmbH Operngasse 17-21 1040 Wien, Austria www.covalgo.at Compliance Monitoring mit PROTECHT.ERM Autor: DI Mag. Martin Lachkovics, Dr. Gerd Nanz Datum: 20. Oktober 2014, 29. April 2015

Mehr

Sven Bosinger solution architect BI. Data Warehouse Architekturen Der Schlüssel zum Erfolg! DOAG 16.11.2007 1

Sven Bosinger solution architect BI. Data Warehouse Architekturen Der Schlüssel zum Erfolg! DOAG 16.11.2007 1 Sven Bosinger solution architect BI Data Warehouse Architekturen Der Schlüssel zum Erfolg! DOAG 16.11.2007 1 Agenda Kurze Vorstellung its-people Architektur als Erfolgsfaktor Verschiedene Architekturansätze

Mehr

Qualitätsmanagementsystem nach DIN EN ISO 9001:2015

Qualitätsmanagementsystem nach DIN EN ISO 9001:2015 Qualitätsmanagementsystem nach DIN EN ISO 9001:2015 Quick Tour (Foliensatz für das Management) Karlsruhe, im Juni 2015 Qualitätsmanagement ist einfach. Sehr einfach. Wir zeigen Ihnen wie. ipro Consulting

Mehr

Praxisorientiertes Geschäftsprozessmanagement

Praxisorientiertes Geschäftsprozessmanagement Praxisorientiertes Geschäftsprozessmanagement Identifikation von Verbesserungspotenzialen Konsistenz der Prozessziele mit der Unternehmensstrategie Verbesserung der innerbetrieblichen Transparenz Kosten-

Mehr

Product Lifecycle Management Studie 2013

Product Lifecycle Management Studie 2013 Product Lifecycle Studie 2013 PLM Excellence durch die Integration der Produktentwicklung mit der gesamten Wertschöpfungskette Dr. Christoph Kilger, Dr. Adrian Reisch, René Indefrey J&M Consulting AG Copyright

Mehr

IT-Beratung für Entsorger. >go ahead

IT-Beratung für Entsorger. >go ahead IT-Beratung für Entsorger >go ahead Seien Sie neugierig! Ihr Erfolg ist unsere Mission Implico bietet Ihnen als SAP -Experte für die Abfallwirtschaft spezielle, für die Beratung und Implementierung von

Mehr

Data/Information Quality Management

Data/Information Quality Management Data/Information Quality Management Seminar WI/Informationsmanagement im Sommersemester 2002 Markus Berberov, Roman Eder, Peter Gerstbach 11.6.2002 Inhalt! Daten und Datenqualität! Einführung und Definition!

Mehr

Eine ISO-Norm für Wissensmanagement?

Eine ISO-Norm für Wissensmanagement? Eine ISO-Norm für Wissensmanagement? 09.12.2014 von Christian Katz Die aktuelle Revision der ISO 9001 (Qualitätsmanagementsysteme) lädt ein, über die Harmonisierung aller Managementsystem-Normen nachzudenken:

Mehr

CSR und Risikomanagement

CSR und Risikomanagement CSR und Risikomanagement Bedeutung der Risiken aus ökologischen und sozialen Sachverhalten im Rahmen der Prüfung des Risikoberichts und des Risikomanagements XX. April 2010 Risk Management Solutions Agenda

Mehr

Business Intelligence Meets SOA

Business Intelligence Meets SOA Business Intelligence Meets SOA Microsoft People Ready Conference, München, Nov. 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

Prozessmanagement. Fokus Finanzierungen Nutzen und Vorgehen. Kurzpräsentation, April 2012 Dominik Stäuble

Prozessmanagement. Fokus Finanzierungen Nutzen und Vorgehen. Kurzpräsentation, April 2012 Dominik Stäuble Prozessmanagement Fokus Finanzierungen Nutzen und Vorgehen Kurzpräsentation, April 2012 Dominik Stäuble dd li b addval Consulting GmbH ds@addval consulting.ch www.addval consulting.ch Prozessmanagement

Mehr

Erfolgreiche Unternehmensführung durch den Einsatz von Corporate Performance Management

Erfolgreiche Unternehmensführung durch den Einsatz von Corporate Performance Management Andrei Buhrymenka Erfolgreiche Unternehmensführung durch den Einsatz von Corporate Performance Management Für Unternehmen mit Business Intelligence Diplomica Verlag Andrei Buhrymenka Erfolgreiche Unternehmensführung

Mehr

Softwareentwicklung und Application Lifecycle Management als Geschäftsprozess

Softwareentwicklung und Application Lifecycle Management als Geschäftsprozess Softwareentwicklung und Application Lifecycle Management als Geschäftsprozess Von David Chappell Gefördert durch die Microsoft Corporation 2010 Chappell & Associates David Chappell: Softwareentwicklung

Mehr

Aktuelle Trends im CRM

Aktuelle Trends im CRM . CRM-Symposium.. Aktuelle Trends im CRM Prof. Dr. Klaus D. Wilde Lehrstuhl für ABWL und Wirtschaftsinformatik Katholische Universität Eichstätt-Ingolstadt. &. Generation KM ext Best X Aktionsorientiertes

Mehr

Geschäftsprozessmanagement

Geschäftsprozessmanagement Geschäftsprozessmanagement Der INTARGIA-Ansatz Whitepaper Dr. Thomas Jurisch, Steffen Weber INTARGIA Managementberatung GmbH Max-Planck-Straße 20 63303 Dreieich Telefon: +49 (0)6103 / 5086-0 Telefax: +49

Mehr

Daten verstehen. Prozessoptimierung Applikationsmanagement Systemintegration. Daten- u. Prozessmodellierung Applikationsentwicklung Systemintegration

Daten verstehen. Prozessoptimierung Applikationsmanagement Systemintegration. Daten- u. Prozessmodellierung Applikationsentwicklung Systemintegration Actum + MIOsoft Ihr SAP Partner Prozessoptimierung Applikationsmanagement Systemintegration Daten verstehen Daten managen Business Analytics und IT Plattformanbieter Daten- u. Prozessmodellierung Applikationsentwicklung

Mehr

Die Herausforderungen im Key Account Management

Die Herausforderungen im Key Account Management Die Herausforderungen im Key Account Management Immer mehr Unternehmen planen ein professionelles Key Account Management oder wollen das bestehende leistungsfähiger machen, um die Schlüsselkunden noch

Mehr

Neue Produkte 2010. Ploetz + Zeller GmbH Truderinger Straße 13 81677 München Tel: +49 (89) 890 635-0 www.p-und-z.de

Neue Produkte 2010. Ploetz + Zeller GmbH Truderinger Straße 13 81677 München Tel: +49 (89) 890 635-0 www.p-und-z.de Neue Produkte 2010 Ploetz + Zeller GmbH Truderinger Straße 13 81677 München Tel: +49 (89) 890 635-0 Ploetz + Zeller GmbH. Symbio ist eine eingetragene Marke der Ploetz + Zeller GmbH. Alle anderen Marken

Mehr

Business-Coaching und Strategisches Management Passt das zusammen? Potsdam im Mai 2012 Dr. Petra Kalendruschat

Business-Coaching und Strategisches Management Passt das zusammen? Potsdam im Mai 2012 Dr. Petra Kalendruschat Business-Coaching und Strategisches Management Passt das zusammen? Potsdam im Mai 2012 Agenda Strategisches Management Verschiedene Perspektiven Business-Coaching Versuch einer Annäherung Business-Coaching

Mehr

KuppingerCole und Beta Systems untersuchen in aktueller Studie die Treiber von Identity Access Management und Governance in der Finanzindustrie

KuppingerCole und Beta Systems untersuchen in aktueller Studie die Treiber von Identity Access Management und Governance in der Finanzindustrie P R E S S E M I T T E I L U N G KuppingerCole und Beta Systems untersuchen in aktueller Studie die Treiber von Identity Access Management und Governance in der Finanzindustrie KWG und MaRisk sind die mit

Mehr

Hannover, 20.03.2015 Halle 5 Stand A36

Hannover, 20.03.2015 Halle 5 Stand A36 Integrierte Unternehmensinformationen als Fundament für die digitale Transformation vor allem eine betriebswirtschaftliche Aufgabe Hannover, 20.03.2015 Halle 5 Stand A36 Business Application Research Center

Mehr

Unser Wissen und unsere Erfahrung bringen Ihr E-Business-Projekt sicher ans Ziel.

Unser Wissen und unsere Erfahrung bringen Ihr E-Business-Projekt sicher ans Ziel. M/S VisuCom Beratung Unser Wissen und unsere Erfahrung bringen Ihr E-Business-Projekt sicher ans Ziel. Design Auch das Erscheinungsbild Ihres E-Business-Projektes ist entscheidend. Unsere Kommunikationsdesigner

Mehr

Balanced Scorecard Strategien umsetzen. CP-BSC ist ein Modul der Corporate Planning Suite.

Balanced Scorecard Strategien umsetzen. CP-BSC ist ein Modul der Corporate Planning Suite. Balanced Scorecard Strategien umsetzen CP-BSC ist ein Modul der Corporate Planning Suite. UnternehMenSSteUerUng Mit ViSiOn UnD StrAtegie Strategien umsetzen. Jedes Unternehmen hat strategische Ziele und

Mehr

in Unternehmen der Gesundheits- und Sozialbranche - VQSV

in Unternehmen der Gesundheits- und Sozialbranche - VQSV 1. Kundenorientierung Umsetzung im QM-Handbuch Verantwortung gegenüber Kunden Den Kunden / Patienten / Bewohner als Partner und Mensch behandeln. Welches sind meine Kunden? Bedarfsgerechte Leistung Sicherstellen,

Mehr

Müssen Sie Ihre Informationen schützen? Werden Sie aktiv mit ISO/IEC 27001 von BSI.

Müssen Sie Ihre Informationen schützen? Werden Sie aktiv mit ISO/IEC 27001 von BSI. Müssen Sie Ihre Informationen schützen? Werden Sie aktiv mit ISO/IEC 27001 von BSI. ISO/IEC 27001 von BSI Ihre erste Wahl für Informationssicherheit BSI ist die Gesellschaft für Unternehmensstandards,

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

Kundenzentrisches Banking - mit Hilfe von Social Media

Kundenzentrisches Banking - mit Hilfe von Social Media Kundenzentrisches Banking - mit Hilfe von Was versteht man unter kundenzentrischem Banking? Problem: Banken haben heutzutage mit stagnierenden Märkten, starkem Wettbewerb und einer sinkenden Kundenloyalität

Mehr

Customer COE Kundenerfolgsgeschichte Informationsmanagement. Topic. Kundenempfehlung: Wissensmanagement

Customer COE Kundenerfolgsgeschichte Informationsmanagement. Topic. Kundenempfehlung: Wissensmanagement Topic Informationen sind eine wichtige unternehmerische Ressource. Wer zeitnah mit strukturierten Informationen arbeiten kann, generiert eindeutige Wettbewerbsvorteile für sein Unternehmen. Es ist eine

Mehr

Datawarehouse Architekturen. Einheitliche Unternehmenssicht

Datawarehouse Architekturen. Einheitliche Unternehmenssicht Datawarehouse Architekturen Einheitliche Unternehmenssicht Was ist Datawarehousing? Welches sind die Key Words? Was bedeuten sie? DATA PROFILING STAGING AREA OWB ETL OMB*PLUS SAS DI DATA WAREHOUSE DATA

Mehr