Datenqualitätsmanagement

Größe: px
Ab Seite anzeigen:

Download "Datenqualitätsmanagement"

Transkript

1 Whitepaper Datenqualitätsmanagement Nachhaltige Erhöhung der Datenqualität steigert den Unternehmenserfolg!

2 Datenqualitätsmanagement Nachhaltige Erhöhung der Datenqualität steigert den Unternehmenserfolg! Autoren: Jochen Wilms und Dr. Markus Vincon für OPITZ CONSULTING Haben Sie Fragen zu diesem Thema? Dann sprechen Sie uns gerne an! Ihr Ansprechpartner: Jochen Wilms, Manager Business Development & Innovation bei OPITZ CONSULTING Inhaltsübersicht 1. Management Summary 2. Vorwort 3. Datenqualität als Wettbewerbsvorteil 3.1 Nutzen von Datenqualität 3.2 Daten + Qualität = Datenqualität? Eine Definition. 3.3 Viele Stellen viele Potenziale 4. Nachhaltigkeit schaffen Datenqualität mit Strategie, Governance und Organisation 4.1 Datenqualität als strategisches Thema 4.2 Zielformulierung 4.3 Organisationsmodell 4.4 DQ-Vorgehensmodell 4.5 Enterprise Architecture 4.6 Generelle Lösungsstrategien als Vorlagen 4.7 Datenqualität braucht Organisation 5. Methodik, Architektur, Techniken und Werkzeuge 5.1 Grundsätzliche Vorgehensmodelle 5.2 Lösungsarchitektur 5.3 Data Profiling 5.4 Data Cleansing 5.5 Data Monitoring 1. Management Summary Entgangene Umsätze, erhöhte Kosten und verlängerte Prozess- und Projektlaufzeiten sind die wesentlichen Konsequenzen mangelnder Datenqualität. Insbesondere in Vertrieb, Rechnungswesen und Management treten die daraus resultierenden Probleme zutage. Häufig sind Kernprozesse der Herstellung und Logistik betroffen. Die Kosten-Nutzen-Argumentation für die Behebung solcher Schwierigkeiten leidet jedoch vielfach unter der Quantifizierung der Kosten und auch des Nutzens. Gründe sind vor allem in der verteilten Verantwortung zu suchen. Wesentlich hierfür sind internes Datenqualitätsmarketing, Aufklärung über Konsequenzen, kontinuierliches Monitoring und Transparenz über Datenqualitätsziele und kennzahlen sowie eine gelebte Fehler- und Verbesserungskultur. Eine Governance, die die Ziele aus der Unternehmensstrategie ableitet, dient als Leitfaden für Aufgaben und Rollen. Eine Etablierung in der Organisation in Form eines Datenqualitätslenkungsausschusses, Datenqualitätsmanagern und fachlichen/technischen Data Stewards sichert die Kontinuität. Über OPITZ CONSULTING Quellenangaben Texte und Abbildungen wurden mit größter Sorgfalt erarbeitet. OPITZ CONSULTING kann jedoch für eventuell verbleibende fehlerhafte Angaben und deren Folgen weder eine juristische Verantwortung noch irgendeine Haftung übernehmen. Das Recht an dargestellten Verfahren, Showcases, Implementierungsbeispielen und Sourcecodes liegt ausschließlich bei OPITZ CONSULTING.

3 Häufig werden aus dem Qualitätsmanagement abgeleitete Methoden eingesetzt, um die einzelnen Datenqualitätsthemen zu verfolgen. Der Plan-Do -Check-Act-Zyklus ist der bekannteste Vertreter dieser Vorgehensmodelle. Speziell die Verfahren des Data Profiling, Data Cleansing und Data Monitoring sind feste Bestandteile solcher Vorgehen. Datenqualitätssoftware unterstützt diese Verfahren. Datenqualitätsmanagement geht jedoch darüber hinaus und beeinflusst die IT-Architektur, den IT-Betrieb und weite Teile der Geschäftsprozesslandschaft. Erfolgreiche Unternehmen begreifen Datenqualitätsmanagement als Möglichkeit zur Effizienzsteigerung, die als ganzheitliche Managementaufgabe wahrgenommen, Potentiale der gesamten Wertschöpfungskette hebt. 2. Vorwort Datenqualität gehört zu den Dauerbrennern in Unternehmen. Oftmals durch einzelne herausragende Negativbeispiele befeuert, schwappt die Datenqualitätswelle mal mehr und mal weniger sichtbar durch die Organisationen. 80% betonen in Umfragen [Data Quality Check 2008, dgiq] deshalb immer wieder die Wichtigkeit der Datenqualität, wohl wissend, welches Potential für die Verbesserung der eigenen Wettbewerbsposition durch qualititativ hochwertige Daten möglich sein könnte. Nur 26 % betrachten ihre eigene Datenqualität jedoch als gut oder sehr gut [Data Quality Check 2008, dgiq], d. h. zwischen Wunsch und Wirklichkeit klafft eine große Lücke. Mit diesem Whitepaper möchten wir dazu beitragen, diese Lücke zu schließen, indem wir gezielt über den Begriff Datenqualität aufklären, idealtypische dennoch pragmatische Organisationsformen und Methoden erläutern, Techniken und Werkzeuge vorstellen und praktische Beispiele aus dem Projektfundus von OPITZ CONSULTING präsentieren. Nichtsdestotrotz kann in der Form eines Whitepapers ein so vielfältiges Thema wie Datenqualität nicht in aller Tiefe behandelt werden. Hierzu empfiehlt sich weitere Literatur und insbesondere ein Austausch mit erfahrenen Fachleuten. 3. Datenqualität als Wettbewerbsvorteil 3.1 Nutzen von Datenqualität Wie im Vorwort erwähnt, sehen Organisationen in der Datenqualität ein Potential für die Verbesserung der eigenen Wettbewerbsposition. Detailliert man diesen Wunsch ergeben sich verschiedene Möglichkeiten, deren Reserven von Analysten auf 8 bis 12 % des Umsatzes beziffert werden [de Fries/Seidl/Windheuser 2001]. Eine häufig beschriebene Variante sind die potenziell entgangenen Umsätze, die aufgrund falscher Bestandsinformationen, unzureichender Kundenclusterung oder inkonsistenter Rechnungslegung entstehen. Etwas weniger aber dennoch häufig beleuchtet werden die entstandenen Kosten, die in Unternehmen durch schlechte Datenqualität entstehen. Beginnend bei fehlerhaften Produktdaten, Zinsausfällen durch Nacharbeiten bei der Faktura bis hin zu entgangenen Skonti durch unvollständige Kreditorendaten: Mängel in der Datenqualität sorgen bei Unternehmen für vermeidbaren Aufwand. Auch wenn Konsequenzen wie Imageverluste, Verstöße gegen gesetzliche oder vertragliche Vorgaben, sinkende Mitarbeitermotivation und falsche unternehmerische Entscheidungen meist nicht direkt bezifferbar sind, schwächen sie die Wettbewerbsposition von Unternehmen. Auch werden Verzögerungen in Prozessen und Projekten durch Nachkorrekturen aufgrund von Datenqualitätsproblemen nur selten in direkten Bezug zur Datenqualität gebracht. Mangelnde Transparenz aufgrund des stark verteilten Auftretens von Datenqualitätsproblemen führt heute häufig dazu, dass Organisationen keine quantifizierbaren Kenntnisse über die Nachteile erhalten, die ihnen durch schlechte Datenqualität entstehen. Um die vorhandenen Potentiale zu nutzen, ist eine ganzheitliche Betrachtung von Datenqualität aus strategischer, methodischer und technischer Sicht notwendig. Das richtige Maß beim Einstieg in das Thema Datenqualität (DQ) zu finden, ist eine Herausforderung. Damit Datenqualitätsinitiativen nicht schon zu Beginn scheitern, sind verständliche und möglichst einheitliche Begrifflichkeiten wichtig. Der Nutzen von Datenqualität sollte für die jeweiligen Rahmenbedingungen aufgezeigt und konkrete und zukünftige Ansatzpunkte dargestellt werden. Abbildung 1 Direkt sichtbare und vermeintlich unsichtbare Konsequenzen von mangelnder Datenqualität

4 3.2 Daten + Qualität = Datenqualität? Eine Definition. Daten sind logisch gruppierte Informationseinheiten, die zwischen Systemen übertragen werden oder dort in gespeicherter Form vorliegen. Datenqualität kann analog zu der Norm DIN EN ISO 9000:2005 beschrieben werden als der Grad, in dem Daten bestimmten Anforderungen entsprechen. Die Anforderungen können sich dabei auf klar messbare Eigenschaften der Daten wie beispielsweise die Korrektheit oder auf persönliche Urteile wie die Relevanz und Verständlichkeit von Daten beziehen. Im Allgemeinen wird Datenqualität auch als fitness for use definiert, was bedeutet, dass die Daten von Personen zu einem bestimmten Zweck genutzt werden können. Von guter Datenqualität der Daten in einem Unternehmen spricht man also, wenn Mitarbeiter ihre Aufgaben mit Hilfe der Daten effizient erledigen können. Das Erreichen von Datenqualität ist eng mit dem Messen der beschriebenen Anforderungen und Kriterien verbunden. Es ist daher wichtig, sich hinsichtlich der Datenqualität auch mit der Frage nach den zu erfassenden Kriterien und der Messbarkeit dieser Kriterien zu beschäftigen. Dabei kann es nötig sein, dass insbesondere bei Kriterien, die auf persönlichen Einschätzungen beruhen, klar definiert wird, wie diese ermittelt und damit sowohl greifbar als auch vergleichbar gemacht werden können. Ein mögliches Vorgehen wäre z. B. die Befragung der Mitarbeiter, die mit den Daten arbeiten. Abbildung 2 Informationsqualität nach DGIQ Von der deutschen Gesellschaft für Informations- und Datenqualität (dgiq) werden fünfzehn Dimensionen der Informations- und Datenqualität in vier verschiedenen Kategorien vorgeschlagen. Basierend auf den konkreten Daten können einige dieser fünfzehn Dimensionen in einzelne Kriterien oder eine Hierarchie von Kriterien zerlegt werden, um beispielsweise die Fehlerfreiheit der Gesamtdaten auf die Fehlerfreiheit von bestimmten Feldern oder auf die Fehlerfreiheit der Querbezüge zwischen Daten zurückzuführen. (Näheres wird hierzu in Kapitel 4.1. erläutert.) Die folgende Tabelle gibt eine Übersicht über die fünfzehn Dimensionen mit kurzen Erläuterungen (angelehnt an [DGIQ IQ-Defintion 2007, dgiq]): 15 Dimensionen der Informationsqualität Dimension Zugänglichkeit Angemessener Umfang Glaubwürdigkeit Vollständigkeit Übersichtlichkeit Einheitliche Darstellung Bearbeitbarkeit Fehlerfreiheit Eindeutige Auslegbarkeit Objektivität Relevanz Hohes Ansehen Aktualität Verständlichkeit Wertschöpfung Erläuterung Daten sind einfach für den Anwender abrufbar. Menge der verfügbaren Daten genügt den gestellten Anforderungen. Zertifikate weisen einen hohen Qualitätsstandard aus oder die Gewinnung und -verbreitung wird mit hohem Aufwand betrieben. Daten müssen zu festgelegten Zeitpunkten komplett zur Verfügung stehen. Daten stellen die Informationen in einem verständlichen Format dar. Daten können fortlaufend auf dieselbe Art und Weise abgebildet werden. Daten sind leicht zu ändern und für unterschiedliche Zwecke zu verwenden. Daten sind fehlerfrei, wenn sie mit der Realität übereinstimmen. Daten lassen sich in gleicher, fachlich korrekter Art und Weise begriffen. Daten sind objektiv, wenn sie streng sachlich und wertfrei sind. Daten liefern für den Anwender notwendige Informationen. Informationsquelle, das Transportmedium und das verarbeitende System stehen im Ruf einer hohen Vertrauenswürdigkeit und Kompetenz. Daten bilden die tatsächliche Eigenschaft der Objekte zeitnah ab Daten können sofort von den Anwendern verstanden und eingesetzt werden. Nutzung führt zu einer quantifizierbaren Steigerung der Wertschöpfung.

5 Unter dem Begriff des Datenqualitätsmanagements (DQM) versteht man den Gesamtprozess der Verbesserung von Datenqualität. Im DQM geht es darum, an welcher Stelle in einem Unternehmen mit einer Datenqualitätsinitiative angesetzt werden soll und welche Schritte unternommen werden müssen, damit die Ziele auch erreicht werden. (Dieser Begriff wird in Kapitel 4 ausführlicher erklärt.) 3.3 Viele Anwendungsgebiete viele Potenziale Die Anwendungsgebiete für Datenqualität sind vielfältig und über die verschiedenen Systeme, Prozesse und Schnittstellen innerhalb eines Unternehmens verteilt. Das erste Anwendungsgebiet von Datenqualität ist schon das Erzeugen von Daten. An dieser Stelle geht es darum, mit welchen Mitteln zum Beispiel bei der manuellen Erfassung von Kundendaten die Datenqualität von vorneherein erhöht werden kann, so dass alle späteren Prozesse davon profitieren können. Laut einer Studie der Omikron Data Quality GmbH [Pressemitteilung Omikron Data Quality, 2007] unter 400 Unternehmen mit mehr als 50 Millionen Euro Jahresumsatz aus dem Jahr 2007 ist in der Hälfte dieser Unternehmen mehr als jede fünfte Kundeninformation fehlerhaft. Nach der Datenerzeugung im Prozess der Datenverarbeitung kommt das sogenannte Stammdatenmanagement (auch als MDM für Master Data Management bezeichnet), das eine möglichst zentrale Verwaltung der vorhandenen Stammdaten nahelegt. Neben Kunden und Produkten könnten die Stammdaten auch noch Kontorahmen und Geschäftspartner enthalten. MDM ist besonders geeignet, um eine möglichst systemübergreifende Konsistenz der Daten herzustellen. Natürlich erlaubt das zentrale Verwalten der Stammdaten auch das Erkennen von beispielsweise doppelt angelegten Kunden und die einfache Integration von externen Datenbeständen für Plausibilitätsprüfungen von Adressen als Bausteine auf dem Weg zu einer besseren Datenqualität. Die Datenqualität selbst kann man sich dann an vielen Stellen zunutze machen, so könnte man zum Beispiel im Rahmen des Customer Relationship Management (CRM) sicherstellen, dass Briefe nur an gültige Adressen, nicht mehrfach an die gleiche Person und auch mit der richtigen Anrede versendet werden. Im Bereich der Ressourcenplanung (ERP) kann Datenqualität genutzt werden, um zum Beispiel falsche Daten über Ressourcen und Bestände zu verhindern, was sich andernfalls im Verkauf eines Produktes sehr negativ niederschlagen bzw. zur unnötigen Lagerung von Produkten führen kann. Im Finanzbereich ist ein hohes Maß an Datenqualität erforderlich, um gesetzliche Vorgaben besser zu erfüllen. Zum Beispiel kann Datenqualität bei der Bewertung von Kunden dabei helfen, so viel Eigenkapital wie nötig aber so wenig wie möglich zur Kreditsicherung zurückstellen zu müssen. Ein Randgebiet, in dem Datenqualität eine Rolle spielen kann, ist das Geschäftspartner-Controlling, zu dem das Bewerten von erbrachten Dienstleistungen gehört (zum Beispiel, ob ein Verkehrsverbund mit den Leistungen eines Bahnunternehmens zufrieden ist). An dieser Stelle kann insbesondere noch einmal die nachweisbar qualitätsgesicherte Datenerzeugung von besonderem Interesse sein. Die Beachtung der Datenqualität sollte grundsätzlich bei der Datenerzeugung ansetzen, um den größtmöglichen Nutzen aus ihr ziehen zu können oder um mögliche Kosten durch Qualitätsprobleme gering zu halten. Der Bereich Business Intelligence und Data Warehousing (BI/DWH) ist für die Datenqualität sogar doppelt interessant. Zum einen, weil spätestens bei der Integration der verschiedenen Datenquellen eines Unternehmens eine schlechte Datenqualität auffällt, und zum anderen, weil ein Data Warehouse insbesondere zur Entscheidungsunterstützung und Unternehmensführung eingesetzt wird. Hier möchte man sich natürlich auf eine entsprechende Datenqualität als Grundlage für weitreichende Entscheidungen verlassen können. Ähnlich der ersten Aufgabenstellung in einem Data Warehouse gibt es noch den Bereich der Fusionen und Unternehmensübernahmen, bei denen im Rahmen der Zusammenführung der jeweils wichtigen Unternehmensdaten viele Fragestellungen aus dem Bereich der Datenqualität auftreten. Zusätzlich kann im Falle von guter Datenqualität in beiden Datenbeständen das Zusammenführen der IT und der Daten der beiden Unternehmen effizienter erfolgen als bei mangelhafter Datenqualität. Es ist daher auch nicht unüblich, dass spezielle Datenqualitätsprojekte im Rahmen von Fusionen und Unternehmensübernahmen angestoßen werden. 4. Nachhaltigkeit schaffen Datenqualität mit Strategie, Governance und Organisation Notwendigkeiten und Ansatzpunkte für hohe Datenqualität sind in Unternehmen unterschiedlich verteilt. Der Umsetzungserfolg hängt immer stark von der strategischen Unterstützung, den Leitlinien und der begleitenden Organisationsform ab. 4.1 Datenqualität als strategisches Thema Möchte man Datenqualitätsmanagement nicht nur als lokalen Feuerlöscher implementieren, sondern als langfristig präventive Feuerschutzmaßnahme, ist die Wahrnehmung als strategisches Managementthema als Corporate Data Quality Management unabdingbar. Die dauerhafte Implementierung in der Firmenstrategie und die Ableitung der Datenqualitätsziele aus den Unternehmenszielen sichert eine hohe nachhaltige Ergebnisorientiertheit. OPITZ CONSULTING Deutschland Whitepaper Datenqualitätsmanagement Seite 5

6 Abbildung 3 Beispielhaftes Auftreten von Datenqualitätsproblemen und deren Zusammenhänge in der betrieblichen Wertschöpfungskette Dieser Umstand liegt im Wesentlichen in Datenqualitätsproblemen begründet, die im Zuge der gesamten Wertschöpfungskette verteilt auftreten (siehe auch Abbildung 3). Eine Schlüsselaufgabe fällt hierbei der Kommunikation und Vermarktung der Datenqualitätsinitiative zu. Gelingt es, die notwendigen prozessualen und technischen Änderungen zusammen mit einer Kultur übergreifender Verantwortungswahrnehmung zu implementieren, wird sich eine dauerhafte Verbesserung der Datenqualität einstellen. Explizit sichtbare und nachvollziehbare Kennzahlen sollten deshalb genauso selbstverständlich sein wie das kontinuierliche Überwachen der Datenqualität. Die Positionierung von DQM in direkter Nähe der Geschäftsführung ist deshalb sinnvoll. Dadurch sichert man: Unternehmensweite kontinuierliche Transparenz der Datenqualität Unabhängige Interpretation der DQ-Messungen und nachhaltigere Priorisierung von Verbesserungsmaßnahmen Die gleichzeitige Berücksichtigung und Koordination unterschiedlicher Interessen und Anspruchsgruppen Aufbau von zentralem DQ-Wissen als Center of Expertise Ausreichende Managementunterstützung zur Umsetzung Das Kapitel 4.7 führt dies weiter aus. Wie alle Qualitätsthemen entsteht schlechte Datenqualität meist aus Unwissenheit. Unmittelbar gilt dies für Mitarbeiter, die Daten in Systemen pflegen, aber auch mittelbar für Softwareentwickler, Prozessverantwortliche und Entscheider. Wichtige Bausteine zur Bekämpfung der Unwissenheit sind Kommunikation und interne Vermarktung von Datenqualität, z. B. durch Transparenz im Intranet, regelmäßige Berücksichtigung in Schulungen und Weiterbildungen und eine Verankerung des Qualitätsbegriffes im Unternehmensleitbild. Hierzu empfiehlt sich vorausgesetzt eine ausreichende Fehlerkultur im Unternehmen liegt vor eine offene Kommunikation von Qualitätsdefiziten. Ergänzt durch eine erfolgreiche Vermarktung, die insbesondere die übergreifenden und nachhaltigen Erfolge betont und diese mit dem Unternehmensziel verknüpft, ergibt sich eine nachhaltige Bewusstseinsbildung für DQM. Die Strukturierung von DQM als strategisches Managementthema erfolgt durch die Formulierung einer Governance. Die Ausgestaltung einer Governance ist im Ergebnis eine unternehmensweite, akzeptierte DQM-Leitlinie. Sie schafft das Steuerungs- und Regelungssystem im Sinne von Strukturen und macht die DQ-Ziele damit systematisch verfolgbar. Die Governance regelt neben den generellen aus der Unternehmensstrategie abgeleiteten Zielen auch die grundsätzliche Definition von Aufgaben-, Rollen- und Zuständigkeiten. Wesentliche Bestandteile sind: 1. Zielformulierung und eine daraus abgeleitete Systematik für DQ- Kennzahlen (z. B. in Form eines Kennzahlenbaums oder eine DQ- Scorecard) 2. Organisationsmodell 3. Ausgestaltung eines DQ-Vorgehensmodells in Anlehnung an Qualitätsmodelle wie ISO 9000 etc. 4. Enterprise Architecture 5. Generelle Lösungsstrategien als Vorlagen 4.2 Zielformulierung Die DQM-Ziele unterstützen die Unternehmensstrategie in den Bereichen Kostenreduktion, Umsatzsteigerung, Risikoreduzierung, Compliance und nachhaltige Steuerung. Hierfür werden Kennzahlen definiert, wie z. B. Zuordnungstreue von Transportbehältern zu Produkten, Anteil Lieferanten- Doubletten oder auch Zufriedenheit der Anwender. Pro Kennzahl werden Sollwert, Messpunkte,- verfahren und -zyklus sowie die Verantwortlichkeit in einer Datenbank abgelegt (hier reicht zu Beginn auch Excel). Abhängigkeiten zwischen Kennzahlen können mithilfe eines Kennzahlenbaums dargestellt werden, ein Beispiel findet sich in Abbildung 4.

7 DQ-Kennzahlen können formal-technisch (z. B.: Anteil an Verletzungen der referentiellen Integrität zwischen Bestellung und Kunde), inhaltlich (z. B.: Anzahl negativer Bestandswert von Artikeln) oder qualitativ (z. B.:Befragung von Anwendern) sein. Zur Einschätzung der Belastbarkeit von Kennzahlen, wie Umsatz, Marge, Bestand, können diese DQ- Kennzahlen auch in fachlichen Berichten angezeigt werden. 4.3 Organisationsmodell Zur Zielverfolgung sind verschiedene Rollen und Gremien nötig, die die Governance mit Leben füllen. Sie sind Ansprechpartner, Mahner aber auch Vermarkter von DQM. In diesem Zusammenhang sollen hier kurz die Begriffe Sponsor, DQ-Lenkungsausschuss, DQ-Manager und Data Steward erwähnt werden, die je nach grundsätzlicher Organisationsform im Spannungsfeld Zentralität vs. Dezentralität und Hierarchie vs. Heterarchie bei Unternehmen unterschiedlich ausgeprägt sind. Eine ausführliche Behandlung folgt in Kapitel DQ-Vorgehensmodell Da der Begriff DQM aus dem Bereich Qualitätsmanagement stammt, leiten sich auch die Modelle und Verfahren von DQM aus bekannten Standards wie ISO 9000, European Foundation for Quality Management oder Total Quality Management ab. Im Wesentlichen basiert das DQM auf dem folgenden Regelkreislauf: PLAN Qualitätsplanung: Es wird ein Ist-Zustand ermittelt und die Rahmenbedingungen für das Qualitätsmanagement festgelegt. Danach werden Konzepte und Abläufe erarbeitet. DO Qualitätslenkung: Die in der Planphase gewonnenen Ergebnisse werden umgesetzt. CHECK Qualitätssicherung: Auswerten qualitativer und quantitativer Qualitätsinformationen (Kosten-Nutzen-Betrachtungen, Überprüfen von gemachten Annahmen). ACT Qualitätsgewinn: Aus vorheriger Phase gewonnene Informationen werden für Strukturverbesserungsmaßnahmen und Prozessoptimierung eingesetzt. Erfolge und Ergebnisse werden kommuniziert. Zitate über Datenqualität 1. Unsere Datenqualität ist gut. Das ist leider selten wahr. Denn nur vereinzelt haben Unternehmen ganzheitliche Analysen oder Befragungen durchgeführt, die die auftretenden Probleme und Potentiale in Summe aufzeigen würden. 2. Wir haben doch ein Datenqualitätswerkzeug das reicht! Werkzeuge helfen punktuell und insbesondere technikbezogen. Eine langfristige Strategie und die unternehmensweite Etablierung von Datenqualitätsmanagement ersetzen sie jedoch nicht. 3. Wenn wir von Umsatz reden, reden alle von der gleichen Zahl. Menschen haben ein unterschiedliches Verständnis von Begriffen. Auf den zweiten Blick herrschen daher in vielen Unternehmen Begriffsverwirrungen. Ein unternehmensweites, allen verständliches Glossar (Metadatenmanagement) schafft hier Klarheit. 4. Wir haben schon ein Datenqualitätsprojekt gemacht. Einzelne Projekte erzeugen kurzfristige Verbesserungen. Nachhaltige Erfolge erreicht jedoch nur, wer die Datenqualität als kontinuierliche Aufgabe im Rahmen einer Qualitätsstrategie begreift. 5. Datenqualität ist für uns kein Thema. Wir haben gerade ein neues System eingeführt. Häufig geht mit einem neuen System der Gedanke einher, dass die Datenqualität automatisch gut ist. Jedoch verschlechtert sich sogar vielfach die Datenqualität durch fehlende Eingewöhnung oder schlechte Migration. Intensive Trainings der Anwender und eine sorgfältige Aufbereitung der Migrationsdaten helfen hier. 6. Wir bleiben im Standard. Die Benutzerführung, die vom Hersteller vorgesehen wurde, reicht aus! Der vom Hersteller vorgesehene Standard hat nicht nur Vorteile, denn Hersteller produzieren Standardsoftware für mehrere Kunden. Jedoch kennen nur die Unternehmen selbst die Bedürfnisse und Fähigkeiten ihrer Anwender und sollten die Software dahingehend anpassen. 7. Datenqualität? Da sprechen Sie am besten mit unserer IT- Abteilung! Datenqualität wird häufig als IT-Thema gesehen. Da die meisten Ursachen und deren Lösungsvorschläge außerhalb von technischen Systemen zu suchen sind, ist Datenqualität ein Teamprojekt von Fachbereich und IT. 8. Es reicht, wenn die Datenqualität im DWH gut ist! Aus Sicht des Managements mag das zu Beginn stimmen. Das Data Warehouse steht jedoch datentechnisch am Ende der Nahrungskette. Alle Daten auch die schlechten landen dort, verringern die Verlässlichkeit von Informationen und Entscheidungen und sorgen so für Unterschiede zwischen Reporting und operativen Systemen. Datenqualität muss deshalb mittel- und langfristig in den Vorsystemen bereinigt werden. 9. Bei uns passt jeder auf seine Daten auf. Das reicht. Die Idee, dass jeder in seinem Verantwortungsbereich für Ordnung sorgt, ist grundsätzlich gut. Jedoch werden Daten oftmals nicht da verwendet, wo sie eingegeben werden. Deshalb ist es wichtig, dass ein übergreifendes Verantwortungsbewusstsein ohne Kirchturmdenken etabliert wird.

8 Abbildung 4 Beispiel für einen Kennzahlenbaum Generelle Datenstandards und einheitliche Begrifflichkeiten im Rahmen eines Glossars vereinfachen die Verfolgung des Regelzyklus. Ebenfalls wichtig sind die Verwendung von Fehlerklassen und die Priorisierung von Maßnahmen anhand einer Kosten-Nutzen-Betrachtung. 4.5 Enterprise Architecture Auch im Zusammenspiel der Elemente von Informationstechnologie und Geschäftsprozessen spielt DQM eine wichtige Rolle. Durch eine ganzheitliche Betrachtung der Geschäfts-, Informations-, Daten-, Anwendungsund Technologiearchitektur nach DQ-Gesichtspunkten werden Datenqualitätsprobleme vermieden. Folgende Ziele sollten deshalb unbedingt berücksichtigt werden: Informationen/Stammdaten eindeutig den Systemen zuordnen Bei der Konzeption für die Verteilung von Daten und die Integration von Systemen den Aspekt der Redundanz- und Verfälschungsvermeidung berücksichtigen Hoheiten und Datenführerschaft sauber zu Prozessen und Rollen sortieren Diese Ziele sollten als Vorgaben in die unternehmensweiten Enterprise- Architecture-Überlegungen einfließen. 4.6 Generelle Lösungsstrategien als Vorlagen Die Verstöße gegen Datenqualitätskriterien lassen sich in Dimensionen einteilen (siehe hierzu auch die Erläuterungen in Kapitel 3.2.). Zur Vereinfachung lassen sich hieraus generelle Lösungsstrategien ableiten, die bei der Behebung von DQ-Problemen zur Verfügung stehen können. Die einzelne operative Ausprägung sollte jedoch immer individuell auf den jeweiligen Unternehmenskontext zugeschnitten werden. Die Verankerung genereller Lösungsstrategien ermöglicht zu Beginn einer Lösungskonzeption die Auswahl zwischen verschiedenen Maßnahmen und verhindert damit u. a., dass das Rad jedes Mal neu erfunden werden muss. Aus der Erfahrung können folgende Ansätze helfen, konkrete DQ- Maßnahmen zu erarbeiten: Verantwortung auf die direkt beteiligten Menschen übertragen Benutzerführung in den Applikationen verbessern Software qualitativ hochwertig und fehlerresistent entwickeln Begriffe einheitlich und verständlich definieren und etablieren DQ-Kennzahlen in fachlichen Reports zeigen Qualität im Sinne des Gesamtprozesses möglichst früh im Datenfluss sichern Die Liste ist natürlich nicht vollständig. Ausführlich wird dieses Modell in Kapitel 5.1 beleuchtet.

9 4.7 Datenqualität braucht Organisation Wie zuvor beschrieben sind es die an den Prozessen beteiligten Personen, die im Wesentlichen für eine Steigerung der Datenqualität sorgen können. Hierfür ist eine Organisationsform notwendig, die sowohl die individuelle Prozessverantwortung berücksichtigt, als auch die unternehmensweite Durchsetzung von DQ-Zielen. Berücksichtigt werden sollte außerdem der gewünschte Integrationsgrad in die bestehende Prozesslandschaft. Abbildung 5 zeigt eine idealisierte Organisationsform: Fachbereiche stellen fachliche Data Stewards, die als Brücke zwischen den Bereichen und der Datenqualitätsarbeitsgruppe funktionieren. Diese Stewards verfolgen in der Datenqualitätsarbeitsgruppe gemeinsam mit den technischen Data Stewards aus der IT-Abteilung die Datenqualitätsziele auf operativer Ebene. Koordiniert wird diese Arbeitsgruppe durch einen Datenqualitätsmanager, der in größeren zeitlichen Abständen an einen Lenkungsausschuss berichtet, in dem sowohl Fachbereiche, IT als auch das Management als Sponsor vertreten ist. Fachliche Data Stewards tragen die DQM- Kultur in ihre jeweiligen Bereiche, setzen dort Standards und Prinzipien durch, definieren DQ- Kennzahlen in Abstimmung mit dem Datenqualitätsmanager und überwachen diese, schulen und coachen Kollegen und setzen initiierte Maßnahmen um. Bereichsspezifischen Anforderungen leiten sie an die DQ-Arbeitsgruppe weiter. Abbildung 5 idealisierte Organisationsstruktur Datenqualitätsmanagement angelehnt an [Apel, Behme, Eberlein, Merighi 2009] Technische Data Stewards sind auf IT-Seite die Pendants der fachlichen Data Stewards. Sie konzipieren Änderungen an den Systemen und setzen diese um. Projektbeispiel Datenqualität als Teil des Qualitätsmanagements etablieren Das eigentliche Projektziel des von uns betreuten Handelsunternehmens war, eine standardisierte und kontinuierliche Lieferantenbewertung mit Kennzahlen aus Umsatz, Liefertermin- und Mengentreue, Rechnungsabgleich und EDI-Informationsqualität zu erreichen. Im Rahmen des Projektes war es jedoch erforderlich geworden, das bestehende Qualitätsmanagement um den Fokus Datenqualität zu erweitern. Auslöser war eine mangelnde Datenqualität. In einem Teilprojekt, bestehend aus den Fachbereichen Logistik, Einkauf und IT, wurden Rollen und Prozesse geklärt und eingeführt. Die bestehende Rolle des Qualitätsmanagers wurde um den Bereich Datenqualität erweitert. Auf fachlicher Seite wurden Key User etabliert, die neben den klassischen Aufgaben des Wissenstransfers und des Change Managements nun auch das operative Datenqualitätsmanagement wahrnahmen. Ergänzt wurde das Datenqualitätsmanagement durch feste Ansprechpartner in der IT-Abteilung. Von nun an wurde die Datenqualität durch ein Managementboard überwacht und gesteuert, mit dem Ziel, die Belastbarkeit der Lieferantenbewertung sicherzustellen. Datenqualitätsmanager koordinieren das DQM. Sie leiten die Arbeitsgruppe, vermitteln bei unterschiedlichen Interessen, überwachen die generelle Datenqualitätskennzahl, bereiten den Lenkungsausschuss vor, sorgen für einen unternehmensweiten Standard und kommunizieren und vermarkten das DQM. Dem Lenkungsausschuss kommt neben dem strategischen Management auch die Aufgabe zu, Eskalationen entgegenzunehmen und Prioritäten festzulegen. Je nach Größe und Branche sind die Rollen mehr oder weniger stärker auszuprägen. Je nach Integrationsgrad sind die einzelnen Rollen und Gremien in Prozesse der IT (Inicident-, Problem,- und Change Management, Beratung zu den Themen Architektur, Integration und Benutzerführung), der Organisation (Organisationsplanung), der Revision (Compliance) und der Fachbereiche (system- und datenqualitätsrelevante Geschäftsprozesse) zu involvieren. Das Handelsunternehmen konnte seine Lieferantenbeziehung durch das Projekt deutlich verbessern. Die internen Prozesskosten des Einkaufs und der Logistik konnten nachhaltig gesenkt werden.

10 5. Methodik, Architektur, Techniken und Werkzeuge Vorweg muss auch für dieses Kapitel gesagt werden, dass das Thema Datenqualität aus sehr vielen Facetten besteht. So gibt es nicht eine Musterlösung, sondern die Lösung hängt eng mit den auftretenden Qualitätsproblemen und dem Einsatzgebiet zusammen. Im Rahmen dieses Whitepapers wird jetzt nur auf ein fast allgemeingültiges Vorgehensmodell, einen allgemein zentralistischen Ansatz und auf mögliche Techniken und Werkzeuge eingegangen. Speziell werden die Techniken Data Profiling, Data Cleansing und Data Monitoring vorgestellt. ACT Qualitätsgewinn: In dieser Phase wird der im vorherigen Schritt definierte Standard auf breiter Front eingeführt, festgeschrieben und regelmäßig auf Einhaltung überprüft (Audits). Hier handelt es sich tatsächlich um eine große Aktion, die im Einzelfall umfangreiche organisatorische Aktivitäten (z. B. Änderung von Arbeitsplänen, NC-Programmen, Stammdaten, die Durchführung von Schulungen, Anpassung von Aufbauund Ablauforganisation) sowie erhebliche Investitionen (an allen vergleichbaren Arbeitsplätzen, in allen Werken) umfassen kann. An dieser Phase sind alle Gremien beteiligt, ein besonderes Gewicht sollte hierbei aber auf die Schulung und Motivation der Data Stewards gelegt werden, da diese für den fortlaufenden Qualitätsgewinn besonders wichtig sind. 5.1 Grundsätzliche Vorgehensmodelle Das grundsätzliche Vorgehen für das Erreichen von Datenqualität orientiert sich an einem Zyklus aus vier Aktionen (auch Plan Do Check Act genannt), der im Deutschen und auch in der DIN EN ISO 9000:2005 als Demingkreis bezeichnet wird. Der Gedanke des Kreises leitet sich hier aus dem kontinuierlichen Verbesserungsprozess ab, der Datenqualität durch die Summe (auch aufeinander aufbauender) kleinerer Verbesserungen erhöht. Der Demingkreis basiert ebenfalls auf dem Prinzip Gemba, welches die Mitarbeiter vor Ort mit ihrer exakten Kenntnis der Arbeitsprozesse in den Mittelpunkt der Planung stellt. Das Erreichen von Datenqualität hat daher auch viel mit Kollaboration und damit der Verankerung des Vorgehens in der Organisation zu tun, wie schon in dem vorherigen Kapitel ersichtlich wird. Der Plan-Do-Check-Act-Zyklus enthält die vier im Folgenden vorgestellten Aktivitäten: PLAN Qualitätsplanung: Dieser Schritt beinhaltet das Erkennen von Verbesserungspotentialen, die Analyse des aktuellen Zustands sowie das Entwickeln eines neuen Konzeptes. In diesem Schritt sollten die Anwender und Mitarbeiter intensiv mit eingebunden werden. Hauptakteure in diesem Schritt sind der Datenqualitätslenkungsausschuss und insbesondere der Datenqualitätsmanager. Abbildung 6 Plan-Do-Check-Act-Zyklus Daneben gibt es natürlich noch andere Vorgehensmodelle. Als ein weiterer recht bekannter Vertreter sei hier das Total Data Quality Management (TDQM) vom Massachusetts Institute of Technology genannt. TDQM umfasst im Grunde drei Schritte, von denen sich der erste auf die unternehmensindividuelle Definition von Datenqualität bezieht (wie schon in Kapitel 1.2 beschrieben). Die beiden weiteren Schritte umfassen die Analyse der Auswirkungen von Datenqualität auf das Unternehmen und die Schritte zur Verbesserung der Datenqualität. DO Qualitätslenkung: In diesem Schritt geht es um das Ausprobieren beziehungsweise Testen und praktische Optimieren des Konzeptes mit schnell realisierbaren, einfachen Mitteln (z. B. provisorische Vorrichtungen an möglicherweise auch nur einem einzelnen Arbeitsplatz). Es geht hier noch nicht um das endgültige Umsetzen der im ersten Schritt erkannten Verbesserungspotentiale. Die Arbeit in diesem Schritt wird von der Datenqualitätsarbeitsgruppe durchgeführt. CHECK Qualitätssicherung: Die Umsetzung aus dem DO-Schritt und die erzielten Resultate werden sorgfältig überprüft. Für die Qualitätssicherung ist neben der Datenqualitätsarbeitsgruppe auch der Datenqualitätslenkungsausschuss zuständig. Der Datenqualitätslenkungsausschuss hat hierbei insbesondere die Aufgabe, das Kosten-Nutzen-Verhältnis der angestrebten Verbesserung zu bewerten. Bei positiver Bewertung erfolgt im nächsten Schritt die Umsetzung als unternehmensweiter Standard. Analyse: Hier geht es darum, den Einfluß der Datenqualität auf das Unternehmen anhand von beispielhaften Fällen zu quantifizieren, mit Hilfe einer Data Quality Value Chain Analysis herauszufinden, wie sich die Datenqualität auswirkt und ein Modell zur Bewertung der Datenqualität in Euro und Cent aufzustellen. Verbesserung: Bei diesem Punkt geht um mehr oder weniger technische Verbesserungsmöglichkeiten. So könnte ein neues Design des Unternehmens und der Prozesse dabei helfen, die Fehleranfälligkeit durch möglichst schlanke Vorgehensweisen zu senken. Oder die Motivation zur Verbesserung der Datenqualität kann durch Belohnungen oder einer wahrnehmbaren Unterstützung der DQ-Initiative durch das Management verbessert werden. Neue Technologien wie Scanner könnten eingesetzt werden, um ein möglicherweise fehleranfälliges Erfassen von Hand zu ersetzen und zu

11 guter Letzt geht es auch hier darum, eine Art Glossar für die Definition der Daten aufzustellen, damit diese nicht fehlerhaft benutzt werden. Es folgt hier nun ein kleines Beispiel aus einem Projekt mit dem Ziel, Unternehmensdaten aus zwei unterschiedlichen Quellen zu integrieren. Obwohl es ein reines Integrationsprojekt war, spielten hier viele Aspekte der Datenqualität und insbesondere der Dublettenerkennung eine große Rolle (auf diese wird in Kapitel 5.4 noch etwas näher eingegangen). Insgesamt zeigt sich, dass das Thema Datenqualität sehr viel damit zu tun hat, sich über die eigenen Daten und die Querbeziehung dieser Daten bewusst zu werden. Aufbauend auf diesen Erkenntnissen können dann zunächst Ziele und Kriterien definiert und später Schritte ergriffen werden, um diese Kriterien zu verbessern und so die gesetzten Ziele zu erreichen. Projektbeispiel Datenqualität bei der Integration von externen Unternehmensstammdaten In dem hier beschreibenen Beispielprojekt ging es um die Integration von Unternehmensdaten aus zwei unterschiedlichen Datentöpfen, wobei der kleinere Datentopf dem deutschen Handelsregister entsprach und der andere extern gepflegten periodischen Unternehmensmeldungen. Ohne einen eindeutigen Schlüssel auf beiden Seiten musste hier ein Ansatz gewählt werden, der einer Dublettenerkennung sehr ähnelt. Etwa die Hälfte der aufgewendeten Zeit wurde in der PLAN-Phase erbracht, wobei es trotzdem zu kleineren Zwischen-Zyklen, d. h. von CHECK nach PLAN ohne ACT, kam, weil nicht alle Qualitätsprobleme schon in der ersten PLAN-Phase bedacht worden waren. Letztendlich wurde entschieden, zur Identifikation eine Kombination aus Unternehmensname, Rechtsform und Standort heranzuziehen. Die Herausforderung lag in allen drei Feldern in der Standardisierung und Normierung. Am Ende bestand die Lösung aus einem mehrschrittigen Verfahren unter Einsatz von Fuzzy Double Batch (einem bekannten Werkzeug zur Dublettenerkennung, mittlerweile von SAP akquiriert) und selbstentwickelter Software, die auf bekannten Standard-Algorithmen aufbaute. Das Projektergebnis war ein abgestuft integrierter Datentopf, der Datensätze mit einer Matchingquote von 96 % zusammenführen konnte. 5.2 Lösungsarchitektur Im Sinne der Architektur von Datenqualitätssystemen ist es wünschenswert, wenn die Datenqualität schon bei der Entwicklung eines neuen Systems oder einer neuen Software ein Designkriterium darstellt. Eine solch starke Betonung der Datenqualität hilft auch, wenn es um die Behebung von Problemen geht: So kann man sich die Mühe ersparen, erst vom Problempunkt aus rückwärts zu evaluieren, um herauszufinden, wie das Problem zustande gekommen ist unter Umständen sogar über mehrere Schnittstellen und Systeme hinweg Daneben ist die Frage nach dem genauen Ansatzpunkt für eine Verbesserung im gesamten Datenverarbeitungsprozess und der Lösungsarchitektur ein wichtiger Aspekt. Der Bereich der Lösungsarchitektur umfasst daher nicht nur Fragestellungen zur grundsätzlichen Organisation der Datenhaltung und deren methodischer Umsetzung, sondern fragt auch genau nach den Stellen und Zeitpunkten, an denen die Maßnahmen zur Datenqualität angesetzt werden. Praktisch alle Lösungsarchitekturen bauen auf dem Gedanken eines Data Hubs (Datenmittelpunkt) auf. In einem solchen Hub können die Daten zentral synchronisiert werden, wobei es unterschiedliche Ausprägungen von solchen Hubs gibt: Registrierung: Der Zweck eines Registrierungs-Hubs ist das Erzeugen von zentralen Referenzen auf die Daten. Die Daten aus den unterschiedlichen Systemen werden hierzu mit ihren Schlüsselattributen im Data Hub registriert. Dabei werden die Schlüsselattribute dort hinterlegt und bereinigt, während die anderen Daten möglicherweise inkonsistent in den Ursprungssystemen verbleiben. Diese Architektur kann schnell implementiert und für die Eliminierung von Duplikaten eingesetzt werden. Dieses Vorgehen behebt allerdings nicht die Ursachen der Probleme, weil beispielsweise doppelte Kundeneinträge in den Ursprungssystemen erhalten bleiben. Koexistenz: Der Zweck eines Koexistenz-Hubs ist neben der zentralen Referenz auch noch eine weitergehende Harmonisierung der Daten. Hier werden nicht nur die Schlüsselattribute sondern alle Datenfelder, die Bestandteil des festgelegten Masterdatenmanagement sind, in dem Hub hinterlegt und können dabei bereinigt und dedupliziert werden. Das Synchronisieren der unterschiedlichen Datenhaltungssysteme und des Hubs muss hierbei besonders sorgfältig geplant und beaufsichtigt werden. Transaktional: Ein solcher Hub ist als Komponente von zentraler Datenhaltung zu sehen und wird auch gerne Repository genannt. Die Daten werden ähnlich wie bei der Koexistenz in den Hub übertragen, dort aber komplett gespeichert. Ab diesem Zeitpunkt laufen alle Datenänderungen und auch Abfragen über den Hub, der damit als zentrale Instanz die Korrektheit und Konsistenz gewährleisten kann. In Abbildung 6 wird ein transaktionaler Hub beispielhaft gezeigt. Es gibt im Sinne der Daten sowohl Quell- als auch Konsumentenanwendungen, wobei eine Anwendung gleichzeitig auf der Seite der Quellen und auf der Seite der Konsumenten liegen kann. Dies wird in der Abbildung durch die gepunkteten Pfeile (für lesenden Zugriff) deutlich gemacht. Datenquellen beinhalten hierbei immer einen Teil der sogenannten Hauptdaten. Diese werden in den Hub übertragen und können dann in der Datenquelle gelöscht werden.

12 Verbesserung der Datenqualität, aber die Prävention von Datenqualitätsproblemen kann schon bei der Datenerfassung ansetzen. So könnte man sich vorstellen, dass Eingabemasken zur Datenerfassung so angefertigt werden, dass in sinnvollen Feldern keine manuelle Eingabe mehr erfolgt und dass die Eingabemasken möglichst nur auf notwendige Daten eingeschränkt werden. Abbildung 6 Beispiel eines transaktionalen Hubs Sollten im Laufe der weiteren Verarbeitung Änderungen anden Hauptdaten in der Datenquelle vorgenommen werden, dann werden diese an den Hub weitergegeben, während die restlichen Daten weiterhin separat in den Datenquellen verwaltet werden können. Der Zugriff der Konsumentenanwendungen erfolgt rein lesend und direkt auf den Hub. Die besten Ergebnisse für die Datenqualität (und allen daraus abgeleiteten Nutzenfaktoren) sind bei einem Transaktionalen Hub zu erwarten, der allerdings auch den Nachteil hat, dass er zentral mit allen anderen vorhandenen oder mindestens betroffenen Systemen in beide Richtungen gekoppelt werden muss. Insbesondere an diesem Beispiel zeigt sich, dass der erwartete (und langfristige) Nutzen von Datenqualität zusammen mit den erwarteten (einmaligen) Kosten für die Datenqualität ansteigt. Außerdem zeigt sich, dass es sich lohnen kann, das Thema Datenqualität im wahrsten Sinne des Wortes in der Mitte des Unternehmens anzusiedeln. Weitere Vorteile durch den Einsatz eines Hubs ergeben sich auch im Umfeld von DWH oder serviceorientierten Architekturen (SOA). Im Grunde könnte man ein DWH sogar als eine Art Koexistenz-Hub einordnen, was vielleicht auch der Grund dafür sein könnte, dass schlechte Datenqualität oftmals erst im BI/DWH-Umfeld auffällt. SOA hingegen profitiert von einem Transaktionalen Hub (und umgekehrt), weil damit ein zentraler Datenservice leicht in die vorhandene Architektur eingebunden werden kann. Eine weitere Frage der Lösungsarchitektur ist die Frage nach dem Ansatzpunkt von Datenqualität. Diese Frage kann auf der einen Seite mit den unterschiedlichen Ausprägungen der Data Hubs in Verbindung gebracht werden, allerdings kann die Prävention von Datenqualitätsproblemen auch schon viel früher ansetzen. So gibt es zwar eine große Überschneidung zwischen einem Transaktionalen Hub und dem präventiven Ansatz zur Ein reaktiver Ansatz zur Datenqualität ist das, was heute (leider) überwiegend im DWH- oder Projektalltag eingesetzt wird. Nicht nur im Umfeld von DWH sondern auch im normalen Projektalltag oder im normalen Betrieb hat man oft mit Datenqualitätsproblemen zu kämpfen. Sicherlich hat jeder schon mehr als einmal erlebt, dass Programme abstürzen oder Berichte nicht erzeugt werden, weil in den Daten bestimmte Felder entweder gar nicht oder aber mit nicht erwarteten oder nicht benutzbaren Werten gefüllt sind. So hatte zum Beispiel ein mittelgroßes Handels- und Versandunternehmen zwei Tage lang mit großen Problemen zu kämpfen, weil Kunden zuerst mit einer leeren Kundennummer angelegt wurden. In der Folge kam es bei der Suche nach Kunden dann häufiger zu kompletten Applikationsabstürzen. Fällt so etwas in einem DWH oder bei den Tests im Rahmen einer Softwareentwicklung auf, so wird meist versucht, den Fehlerfall allgemein und bezogen auf das eigene System zu beheben, zeitgleich mit der Übernahme der Daten in das Programm oder DWH. Fällt ein solches Problem z. B. erst nach der Fertigstellung einer Software auf, wird der Fehler in der Regel manuell nur einmalig im Datenbestand korrigiert. Bestenfalls findet in so einem Fall noch eine Überprüfung der aktuellen Daten auf weitere solche Fehler statt. In den Bereich der präventiven Maßnahmen fällt auch der Begriff Data Quality Firewall (DQF). Eine DQF kann vor das Laden der Daten in ein DWH oder auch an vielen Stellen in einem großen IT-System eingebaut werden. Eine DQF empfiehlt sich insbesondere für die Zusammenarbeit mit einem MDM-System oder einer SOA-Architektur. Regeln zur Steuerung der einzelnen DQF können in der Datenqualitätsarbeitsgruppe erarbeitet werden oder durch einzelne Schritte gewonnen werden, wie dem später erläuterten Data Profiling. Die Aktionen, die eine DQF ergreifen kann, beinhalten das komplette Ablehnen von fehlerhaften Daten, das Rückstellen der Daten zur manuellen Korrektur durch einen Data Steward oder das automatisch korrigierte Weiterleiten der Daten. In jedem der genannten Fälle sollte ein Bericht erzeugt werden.

13 Grundsätzlich ist auch eine Mischung aus reaktivem und präventivem Vorgehen denkbar. Das wäre ein System, in dem präventiv neue oder geänderte Daten anhand von gewissen Regeln kontrolliert und dann reakreaktiv einem Data Steward zur Kontrolle oder Korrektur vorgelegt werden. Ein wichtiger Teil eines präventiven Ansatzes ist das Data Profiling, auf welches im nächsten Abschnitt genauer eingegangen wird. 5.3 Data Profiling Unter dem Begriff Data Profiling versteht man das Analysieren von vorhandenen Daten. Dabei werden Statistiken und Informationen über die Daten erzeugt, die für verschiedene Zwecke und insbesondere dem Erhöhen von Datenqualität genutzt werden können. Im Grunde kann man das Data Profiling mit (möglichst automatisierter) Detektivarbeit auf der Suche nach Ausreißern und Ausnahmen bei einzelnen Attributen im Sinne der Datenqualität vergleichen. Daneben können aber auch Geschäftsregeln, die sich evtl. in Abhängigkeiten innerhalb von Datensätzen oder zwischen solchen niederschlagen, analysiert werden oder ganz neue Abhängigkeiten entdeckt werden, die auf Verbesserungsmöglichkeiten in der bisherigen Datenspeicherung hindeuten können (zum Beispiel nicht abgebildete Fremdschlüsselbeziehungen oder Redundanzen). Während es beim Data Profiling für die einzelnen Attribute beispielsweise um die Frage geht, ob die Werte eines Attributes in einem bestimmten Gültigkeitsbereich liegen, wird bei den textlichen Werten nach einem Grundmuster gesucht, das viele oder fast alle Datensätze erfüllen. So kann man dann ggf. nachhaken, warum es dort Abweichungen gibt. Bei Zahlenwerten wird überprüft, ob fast alle Zahlen in einem ähnlich großem Wertebereich liegen, oder ob es hier Ausreißer gibt. Beim Data Profiling für Datensätze geht es um funktionale Abhängigkeiten innerhalb der Datensätze. Eine funktionale Abhängigkeit bedeutet, dass ein Attribut von einem anderen Attribut vollständig abhängt. Ein solcher Zusammenhang wird in der Datenbanktheorie gerne zur Normalisierung des Datenbankschemas eingesetzt. Der Vorteil eines normalisierten Datenbankschemas ist das Vermeiden von Redundanz, aus der wiederum verschiedenen Arten von Inkonsistenzen entstehen können. Der Nachteil liegt in komplexeren Anfragen und Ausführungsplänen, da die Daten über mehrere Tabellen (im Falle eines DWH aber nur die Dimensionstabellen) verteilt werden. Beim Data Profiling für Tabellen geht es um die referentielle Integrität. Hier wird versucht, den tabellenübergreifenden Bezug zwischen Attributen herzustellen oder Abhängigkeiten zwischen verschiedenen Datensätzen der gleichen Tabelle zu untersuchen. Die Informationen, die im Rahmen des Data Profiling gefunden werden, können anschließend im Rahmen der Datenbereinigung genutzt werden. (Das so genannte Data Cleansing wird im nächsten Abschnitt näher beschrieben.) So kann die durchgeführte Suche nach Mustern in einen Standardisierungs- und Normalisierungs-Schritt münden. Ein solcher Schritt eröffnet unter anderem die Möglichkeit, auf Basis der gefundenen Muster Gültigkeitsregeln zu erstellen, die sogar schon beim Erzeugen von neuen Daten angewendet werden können. Allerdings muss man dazu sagen, dass das Erkennen von Mustern selbst schon von einer vorher durchgeführten Standardisierung und Normierung profitieren kann. Um zum Beispiel ein Muster für einen Unternehmensnamen erstellen zu können, ist es sinnvoll sich über mögliche enthaltene Rechtsformen und unterschiedliche Schreibweisen dieser Rechtsformen Gedanken zu machen. Am besten wäre an der Stelle, dass man die Rechtsform standardisiert erfasst und sich dann später keine Gedanken mehr über Schreibweisen wie GmbH oder G.m.b.H. zu machen braucht. Letztendlich hilft Data Profiling auch sehr, wenn es darum geht, ein Verständnis für die Daten und die Querbezüge zwischen den Daten aufzubauen. Ein Verständnis, welches teilweise auch nötig ist, um die Kennzahlen für die Beurteilung der Datenqualität festzulegen. Außerdem kann wiederholtes Data Profiling zur Messung einiger dieser Kennzahlen eingesetzt werden. 5.4 Data Cleansing Die Ergebnisse des Data Profiling können an verschiedenen Stellen und zu verschiedenen Zwecken eingesetzt werden. Ein wichtiger nächster Schritt kann die Datenbereinigung (Data Cleansing oder auch Data Scrubbing genannt) sein, bei der die vorhandenen Daten korrigiert werden, um eine konsistente Sicht zu erhalten. Das Bereinigen von Daten kann ebenso wie das Data Profiling auf verschiedenen Stufen erfolgen. Neben der Korrektur von einzelnen Attributen aufgrund von erkannten Mustern oder Gültigkeitsbereichen, kann eine Bereinigung auch auf fachlicher Ebene stattfinden. Der bekannte Teilaspekt einer Bereinigung im fachlichen Bereich wird gerne als Dubletten- Elimination bezeichnet. Diese sorgt für schnelle Abhilfe bei einem ganz typischen Datenqualitätsproblem oftmals auch ohne vorhergehendes automatisiertes Data Profiling. Eine solche Dubletten-Elimination kann auf Basis von klar definierten Attributen erfolgen (z. B. der Bankverbindung eines Kundens oder der DUNS-Nummer eines Partners, die identisch sein muss) oder auf Basis von sogenannten unscharfen Kriterien wie sie zum Beispiel bei der möglicherweise unklaren Schreibweise eines Kundennamens, der telefonisch durch einen Kundenbetreuer aufgenommen wurde, auftreten können. Welche Schritte im Rahmen des Data Cleansing insgesamt durchgeführt werden können, zeigt Abbildung 7. Gerade im Bereich der Dubletten-Elimination ohne vorhergehendes (automatisiertes) Data-Profiling gibt es einige Werkzeuge, die entsprechende Funktionalitäten anbieten. Jedes dieser Werkzeuge bietet die Möglichkeit, gewisse Regeln zu definieren, um die sogenannte unscharfe Gleichheit von verschiedenen Werten (bevorzugt Zeichenketten) festzumachen und dann mit diesen Regeln innerhalb eines oder zwischen mehreren OPITZ CONSULTING Deutschland Whitepaper Datenqualitätsmanagement Seite 13

14 Datenbeständen nach Dubletten zu suchen. Zumeist wird die unscharfe Gleichheit auf einer Prozent-Skala als Übereinstimmung der verschiedenen Werte widergegeben. Versierte Nutzer dieser Werkzeuge können oftmals noch auswählen, welcher Algorithmus tatsächlich eingesetzt wird, und ob gewisse Unstimmigkeiten zwischen Werten zu kleineren oder größeren Abwertungen führen. Doch nicht jede Spezialanforderung lässt sich mit einem solchen Werkzeug umsetzen (zum Beispiel, wenn es nicht nur um das Vorhandensein sondern auch die Reihenfolge oder den Abstand von mehreren Wörtern in einem größeren Text geht). Auch empfiehlt es sich trotz Einsatzes eines solchen Werkzeuges noch etwas Data Profiling und Vorverarbeitung zu integrieren, was normalerweise nicht umfassend durch die genannten Werkzeuge angeboten wird. So kann es interessant sein, einen zusätzlichen Normierungsschritt vor der Dubletten-Elimination einzufügen, um unterschiedliche Schreibweisen des gleichen Inhaltes (zum Beispiel GmbH oder G.m.b.H., wenn es um Unternehmensnamen geht) so umzuschreiben, dass diese bei dem Vergleichsschritt auch einfach als gleich erkannt werden und damit die (möglicherweise unnötige) Abwertung der Übereinstimmungswahrscheinlichkeit zu vermeiden. Die Dubletten-Elimination kann übrigens effizienter gestaltet werden, wenn man bei der Vorverarbeitung bereits weiß, ob nur Ergebnisse gesucht werden, bei denen die Länge der gesuchten Übereinstimmungen nicht stark abweichen darf, oder ob ein paar Buchstaben oder Positionen innerhalb der zu vergleichenden Zeichenketten eine besondere Bedeutung haben, was einen Vergleich in vielen Fällen von vorneherein unnötig machen kann. Im Gegensatz zu der Bereinigung von Daten beschreiben die Begriffe Validierung und Filterung ein früheres Ansetzen von Datenqualität. Hier geht es darum, dass Daten möglichst schon bei ihrer Erzeugung abgelehnt werden, wenn sie außerhalb definierter Gültigkeitsbereiche liegen oder vorgegebene Datenmuster nicht erfüllen. Diese frühzeitige Ablehnung führt uns gleich zum nächsten Thema, dem Data Monitoring: Denn natürlich können die Daten nicht nur abgelehnt werden. Sie könnten zur manuellen Bereinigung durch einen Data Steward zurückgehalten oder mit automatischer Bereinigung sofort weiterverarbeitet werden. 5.5 Data Monitoring Data Monitoring beschreibt ein proaktives Vorgehen, mit dessen Hilfe Datenqualitätsprobleme frühzeitig erkannt und die Datenqualitätskennzahlen kontinuierlich erhoben und überwacht werden können. Es ist an dieser Stelle besonders wichtig, sich darüber Gedanken zu machen, wie und an welchen Stellen Data Monitoring eingesetzt werden kann. Oft vernachlässigt, sollte Data Monitoring eigentlich ein wesentlicher Bestandteil der Datenqualitätsinitiative sein, da die Wirksamkeit der getroffenen Maßnahmen erfahrungsgemäß mit der Zeit abnimmt. Zusätzlich sollte der größte Teil des Data Monitorings automatisiert geschehen, da andernfalls geplante manuelle Überprüfungen gerne einmal ausfallen. Beim Data Monitoring werden die Daten auf Basis festgelegter Regeln überwacht und bewertet. Wenn beispielsweise bestimmte Schwellwerte überschritten werden oder ein vorgegebenes Datenmuster nicht erfüllt wird, kann Alarm geschlagen werden oder der Datensatz kann abgelehnt werden. Typische Einsatzszenarien von Data Monitoring beinhalten das Prüfen von neuen Daten, das (wiederholte) Bewerten von Datenqualitätskennzahlen oder das dauerhaft im System verankerte Überprüfen von Geschäftsregeln. Denkbar wäre Data Monitoring auch, um frühzeitig unzulässige Datenmanipulation zu erkennen oder um verfolgen zu können, wo welche Daten hingeflossen sind, und so möglichen Datenlecks nachgehen zu können. Letzteres stellt allerdings eine Definition des Monitoring -Begriffes dar, die weniger mit Datenqualität zu tun hat. Typische Werkzeuge in diesem Gebiet erlauben es, Datenqualitätsregeln zu erstellen, diese zu Jobs zusammenzufassen und die Jobs entweder manuell oder automatisch ablaufen zu lassen. In Abhängigkeit vom vorgesehenen Einsatzszenario und der Verknüpfung mit schon vorhandenen Systemen kann aber auch die Entwicklung einer eigenen Individualsoftware oder das Anpassen der vorhandenen Programme empfohlen werden. Wichtiger als das eigentliche Werkzeug ist hier aber die Fragestellung, wo und wie Data Monitoring innerhalb der IT-Infrastruktur eingesetzt werden sollte und wie gewonnene Ergebnisse kommuniziert werden können. Für das Kommunizieren der Ergebnisse empfiehlt sich beispielsweise ein Ticketing-System mit den auflaufenden Qualitätsberichten. Abbildung 7 Data Cleansing

15 Für die Frage nach dem Ansatzpunkt von Data Monitoring gibt es sowohl eine systembasierte als auch eine prozessbasierte Sicht: Systembasiert bietet sich jede Schnittstelle zwischen zwei Systemen oder Anwendungen an, um die durchfließenden Daten automatisch oder mit Hilfe der Data Stewards zu überwachen. Die prozessbasierte Sicht fokussiert die Übergänge zwischen zwei Prozessen oder Prozessschritten. Die Entscheidung über den Ansatzpunkt sollte nach Machbarkeit und Kosten- Nutzen-Relation entschieden werden. Ein kritischer Erfolgsfaktor des Data Monitorings ist die Integration in die operative Prozesswelt, auf IT-Seite insbesondere in den IT-Betrieb. Data Monitoring sollte in das Incident- und Problem-Management integriert werden. Organisatorisch ist eine Integration der Data Stewards in diese beiden Prozesse möglich. Das Change Management sollte die Belange der Datenqualität ebenfalls berücksichtigen. Quellenangaben [Apel, Behme, Eberlein, Merighi 2009] Datenqualität erfolgreich steuern, Apel/Behme/Eberlein/Merighi, Hanser Verlag, 2009 [Data Quality Check 2008, dgiq] Quality-Check-Analyse-2009_Martin_IBI_dgiq.pdf Informationen zum Thema MDM Master Data Management aus betriebswirtschaftlicher und technischer Sicht In diesem Buch beschreiben Rolf Scheuch, Tom Gansor und Colette Ziller MDM aus betriebswirtschaftlicher und technischer Sicht. Über OPITZ CONSULTING OPITZ CONSULTING trägt als führender Projektspezialist für ganzheitliche IT-Lösungen zur Wertsteigerung von Unternehmen bei und bringt IT und Business in Einklang. Der Nutzen, das Einsatzgebiet und die Positionierung werden analysiert, um die Planung, Konzeption und Umsetzung solcher Lösungen zu realisieren. Auch auf die verschiedenen heute gängigen Ansätze mit ihren jeweiligen Stärken und Schwächen wird eingegangen. Mehr dazu: auf [de Fries/Seidl/Windheuser 2002] Datenqualität: Ein unterschätzter Erfolgsfaktor, ExperPraxis 2001/02, Seite 92 [DGIQ IQ-Definition 2007, dgiq] [Pressemitteilung Omikron Data Quality, 2007] -Unternehmen-haeufig-mangelhaft.html Das Leistungsspektrum umfasst IT-Strategieberatung, individuelle Anwendungsentwicklung, System-Integration, Prozessautomatisierung, Business Intelligence, Betriebsunterstützung der laufenden Systeme sowie Aus- und Weiterbildung im hauseigenen Schulungszentrum. Mit OPITZ CONSULTING als zuverlässigem Partner können sich die Kunden auf ihr Kerngeschäft konzentrieren und ihre Wettbewerbsvorteile nachhaltig absichern und ausbauen. OPITZ CONSULTING wurde 1990 gegründet und beschäftigt heute an acht Standorten mehr als 400 Mitarbeiter. Zum Kundenkreis zählen ¾ der DAX30-Unternehmen sowie branchenübergreifend mehr als 600 bedeutende Mittelstandunternehmen. Folgen Sie uns: youtube.com/opitzconsulting xing.com/net/opitzconsulting

erfolgreich steuern Datenqualität rä dpunkt.verlag Ldwi Praxislösungen für Business-Intelligence-Projekte Rüdiger Eberlein Edition TDWI

erfolgreich steuern Datenqualität rä dpunkt.verlag Ldwi Praxislösungen für Business-Intelligence-Projekte Rüdiger Eberlein Edition TDWI Detlef Apel Wolfgang Behme Rüdiger Eberlein Christian Merighi Datenqualität erfolgreich steuern Praxislösungen für Business-Intelligence-Projekte 3., überarbeitete und erweiterte Auflage Edition TDWI rä

Mehr

Datenqualität erfolgreich steuern

Datenqualität erfolgreich steuern Edition TDWI Datenqualität erfolgreich steuern Praxislösungen für Business-Intelligence-Projekte von Detlef Apel, Wolfgang Behme, Rüdiger Eberlein, Christian Merighi 3., überarbeitete und erweiterte Auflage

Mehr

Agenda. Portfolioübersicht. Business-Case. Zusammenfassung. Das Ziel. SAP EIM Produktportfolio. Datenreorganisation mit SAP EIM

Agenda. Portfolioübersicht. Business-Case. Zusammenfassung. Das Ziel. SAP EIM Produktportfolio. Datenreorganisation mit SAP EIM Datenreorganisation > Effiziente und performante Stammdatenreorganisation mit SAP Data Services < Simon Hartstein / T-Systems Data Migration Consulting AG / Harmonization & Consolidation Mai 21, 2014 Agenda

Mehr

PDCA Plan Do Check Act Deming-Zyklus der kontinuierlichen Verbesserung

PDCA Plan Do Check Act Deming-Zyklus der kontinuierlichen Verbesserung QUALITY APPs Applikationen für das Qualitätsmanagement PDCA Plan Do Check Act Deming-Zyklus der kontinuierlichen Verbesserung Autor: Jürgen P. Bläsing Der PDCA Prozess, auch bekannt als "Deming-Zyklus"

Mehr

Datenqualitätsmanagement im Customer Relationship Management

Datenqualitätsmanagement im Customer Relationship Management Wolfgang Leußer Datenqualitätsmanagement im Customer Relationship Management Verlag Dr. Kovac Hamburg 2011 Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis XVII XIX XXI

Mehr

your IT in line with your Business Geschäftsprozessmanagement (GPM)

your IT in line with your Business Geschäftsprozessmanagement (GPM) your IT in line with your Business Geschäftsprozessmanagement (GPM) Transparenz schaffen und Unternehmensziele effizient erreichen Transparente Prozesse für mehr Entscheidungssicherheit Konsequente Ausrichtung

Mehr

CMC-KOMPASS: CRM. Der Wegweiser für erfolgreiches Kundenbeziehungsmanagement

CMC-KOMPASS: CRM. Der Wegweiser für erfolgreiches Kundenbeziehungsmanagement CMC-KOMPASS: CRM Der Wegweiser für erfolgreiches Kundenbeziehungsmanagement 1 CROSSMEDIACONSULTING 18.05.2010 Unser Verständnis von CRM: Customer Relationship Management ist weit mehr als ein IT-Projekt

Mehr

Governance, Risk & Compliance für den Mittelstand

Governance, Risk & Compliance für den Mittelstand Governance, Risk & Compliance für den Mittelstand Die Bedeutung von Steuerungs- und Kontrollsystemen nimmt auch für Unternehmen aus dem Mittelstand ständig zu. Der Aufwand für eine effiziente und effektive

Mehr

ERP-Systemeinsatz bewerten und optimieren

ERP-Systemeinsatz bewerten und optimieren ERP-Systemeinsatz bewerten und optimieren Handlungsfelder zur Optimierung des ERP-Systemeinsatzes ERP-Lösungen werden meist über viele Jahre lang eingesetzt, um die Geschäftsprozesse softwaretechnisch

Mehr

EIN INTEGRIERTER ANSATZ FÜR GOVERNANCE, RISIKOMANAGEMENT UND COMPLIANCE. von Maja Pavlek

EIN INTEGRIERTER ANSATZ FÜR GOVERNANCE, RISIKOMANAGEMENT UND COMPLIANCE. von Maja Pavlek EIN INTEGRIERTER ANSATZ FÜR GOVERNANCE, RISIKOMANAGEMENT UND COMPLIANCE von Maja Pavlek 1 GOVERNANCE, RISIKOMANAGEMENT UND COMPLIANCE EIN INTEGRIERTER ANSATZ Die TIBERIUM AG ist ein Beratungsunternehmen,

Mehr

Phase 3: Prozesse. führen. 3.1 Mitarbeiter informieren 3.2 Prozessbeteiligte schulen

Phase 3: Prozesse. führen. 3.1 Mitarbeiter informieren 3.2 Prozessbeteiligte schulen Einleitung Ziel dieses Bands ist es, den Einsteigern und Profis für die Einführung des Prozessmanagements und die systematische Verbesserung von Prozessen in kleinen und mittleren Organisationen (KMO)

Mehr

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit BI Konsolidierung: Anspruch & Wirklichkeit Jacqueline Bloemen in Kooperation mit Agenda: Anspruch BI Konsolidierung Treiber Was sind die aktuellen Treiber für ein Konsolidierungsvorhaben? Kimball vs. Inmon

Mehr

ITSM-Health Check: die Versicherung Ihres IT Service Management. Christian Köhler, Service Manager, Stuttgart, 03.07.2014

ITSM-Health Check: die Versicherung Ihres IT Service Management. Christian Köhler, Service Manager, Stuttgart, 03.07.2014 : die Versicherung Ihres IT Service Management Christian Köhler, Service Manager, Stuttgart, 03.07.2014 Referent Christian Köhler AMS-EIM Service Manager Geschäftsstelle München Seit 2001 bei CENIT AG

Mehr

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5 Das Management von Informations- Systemen im Wandel Die Informations-Technologie (IT) war lange Zeit ausschließlich ein Hilfsmittel, um Arbeitsabläufe zu vereinfachen und Personal einzusparen. Sie hat

Mehr

Bessere Daten durch Stammdatenmanagement

Bessere Daten durch Stammdatenmanagement make connections share ideas be inspired Bessere Daten durch Stammdatenmanagement Mit SAS MDM, bessere Stammdaten für operativen Systeme make connections share ideas be inspired Overview Mit SAS MDM bessere

Mehr

Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010

Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010 Information Governance die unterschätzte Unternehmensdisziplin IBM Inside 2010, Okt. 2010 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Information Governance Information Management

Mehr

Verpflichtung zu Excellence (C2E) 2 Stern. Fragebogen zur Selbstbewertung auf Basis des Kriterienmodells

Verpflichtung zu Excellence (C2E) 2 Stern. Fragebogen zur Selbstbewertung auf Basis des Kriterienmodells Verpflichtung zu Excellence (C2E) 2 Stern Fragebogen zur Selbstbewertung auf Basis des Kriterienmodells EFQM Verpflichtung zur Excellence (C2E) 2 Stern Fragebogen zur Selbstbewertung auf der Basis des

Mehr

Konzeption eines Master-Data-Management-Systems. Sven Schilling

Konzeption eines Master-Data-Management-Systems. Sven Schilling Konzeption eines Master-Data-Management-Systems Sven Schilling Gliederung Teil I Vorstellung des Unternehmens Thema der Diplomarbeit Teil II Master Data Management Seite 2 Teil I Das Unternehmen Vorstellung

Mehr

Master-Thesis (m/w) für unseren Standort Stuttgart

Master-Thesis (m/w) für unseren Standort Stuttgart Master-Thesis (m/w) für unseren Standort Abschlussarbeit im Bereich Business Process Management (BPM) Effizienzsteigerung von Enterprise Architecture Management durch Einsatz von Kennzahlen Braincourt

Mehr

Menschen und Prozesse... mehr als die Summe der einzelnen Teile

Menschen und Prozesse... mehr als die Summe der einzelnen Teile Menschen und Prozesse... mehr als die Summe der einzelnen Teile TÜV SÜD Management Service GmbH Durch ständige Verbesserung unserer Dienstleistungsqualität wollen wir optimale Kundenzufriedenheit erreichen

Mehr

DGIQ Projekt IQ-Definition

DGIQ Projekt IQ-Definition DGIQ Projekt IQ-Definition Definition des Begriffsfeldes Informationsqualität bzw. Datenqualität Ein Projekt der DGIQ, 2007 Normen und Standards Dr. Jan Philipp Rohweder, Andrea Piro, Joachim Schmid GIQMC,

Mehr

Projectmanagement Scorecard. Einsatz und Wirkungsweise der Projektmanagement Scorecard zur Erfolgsmessung in strategischen Projekten

Projectmanagement Scorecard. Einsatz und Wirkungsweise der Projektmanagement Scorecard zur Erfolgsmessung in strategischen Projekten Projectmanagement Scorecard Einsatz und Wirkungsweise der Projektmanagement Scorecard zur Erfolgsmessung in strategischen Projekten Balanced Scorecard Projektmanagement Scorecard Collaborative Project

Mehr

DIE DATEN IM ZENTRUM: SAS DATA MANAGEMENT

DIE DATEN IM ZENTRUM: SAS DATA MANAGEMENT DIE DATEN IM ZENTRUM: SAS DATA RAINER STERNECKER SOLUTIONS ARCHITECT SAS INSTITUTE SOFTWARE GMBH Copyr i g ht 2013, SAS Ins titut e Inc. All rights res er ve d. NEUE WEGE GEHEN SAS DATA GOVERNANCE & QUALITY

Mehr

Quality Point München Datenqualität

Quality Point München Datenqualität Quality Point München Datenqualität Paul, wie ist denn Eure Datenqualität? Nachdem ich bei der letzten Gehaltszahlung mit Frau... angeredet wurde, bin ich mir nicht mehr so sicher. Autor: W. Ulbrich IT&More

Mehr

Die Bedeutung von Datenqualität

Die Bedeutung von Datenqualität Die Bedeutung von Datenqualität Unabhängige Anwenderbefragung von TDWI und emagixx, März 2013 Inhaltsverzeichnis Vorwort...3 1. Executive Summary...4 2. Klassifizierung...5 2.1. Branche...5 2.2. Unternehmensgröße...5

Mehr

Mehrwert durch Beratungen aus einer Hand

Mehrwert durch Beratungen aus einer Hand Mehrwert durch Beratungen aus einer Hand Lösungen für Versicherungen Versicherung Business & Decision für Versicherungen Die Kundenerwartungen an Produkte und Dienstleistungen von Versicherungen sind im

Mehr

Raber+Märcker Business Intelligence Lösungen und Leistungen

Raber+Märcker Business Intelligence Lösungen und Leistungen Business Intelligence Raber+Märcker Business Intelligence Lösungen und Leistungen www.raber-maercker.de 2 LEISTUNGEN Business Intelligence Beratungsleistung Die Raber+Märcker Business Intelligence Beratungsleistung

Mehr

Prozessoptimierung. und. Prozessmanagement

Prozessoptimierung. und. Prozessmanagement Prozessoptimierung und Prozessmanagement Prozessmanagement & Prozessoptimierung Die Prozesslandschaft eines Unternehmens orientiert sich genau wie die Aufbauorganisation an den vorhandenen Aufgaben. Mit

Mehr

Übersicht Kompakt-Audits Vom 01.05.2005

Übersicht Kompakt-Audits Vom 01.05.2005 Übersicht Kompakt-Audits Vom 01.05.2005 Bernhard Starke GmbH Kohlenstraße 49-51 34121 Kassel Tel: 0561/2007-452 Fax: 0561/2007-400 www.starke.de email: info@starke.de Kompakt-Audits 1/7 Inhaltsverzeichnis

Mehr

BPM: Integrierte Prozesse im ecommerce

BPM: Integrierte Prozesse im ecommerce BPM: Integrierte Prozesse im ecommerce Vom Geschäftsprozess bis zur lauffähigen Applikation. Thomas Grömmer Head of Business Process Solutions Ulf Ackermann Consultant Business Process Solutions Solution

Mehr

Erfolgsfaktor Datenqualität im Immobilienmanagement Eine Strategie zur nachhaltigen Verbesserung der Datenqualität

Erfolgsfaktor Datenqualität im Immobilienmanagement Eine Strategie zur nachhaltigen Verbesserung der Datenqualität Erfolgsfaktor Datenqualität im Immobilienmanagement Eine Strategie zur nachhaltigen Verbesserung der Datenqualität Joachim Sobota und Axel Hummel 16. SAP Forum für die Immobilienwirtschaft, 24.-25. Sept

Mehr

IT-Strategie der zentralen Leistungserbringer der UZH 2014-2016

IT-Strategie der zentralen Leistungserbringer der UZH 2014-2016 Universität Zürich Prorektorat Rechts- und Künstlergasse 15 CH-8001 Zürich Telefon +41 44 634 57 44 www.rww.uzh.ch IT-Strategie der zentralen Leistungserbringer der UZH 2014-2016 Version vom 6. Juni 2014

Mehr

Prozessmanagement bei der HPA Instrument für die nachhaltige Prozesse

Prozessmanagement bei der HPA Instrument für die nachhaltige Prozesse Prozessmanagement bei der HPA Instrument für die nachhaltige Prozesse 03.11.2011 Warum Prozessmanagement bei der HPA? Prozessmanagement wird als ganzheitliches und nachhaltiges Managementsystem angesehen.

Mehr

Vom Excel-Chaos zum integrierten Projektportfolio

Vom Excel-Chaos zum integrierten Projektportfolio 1 Vom Excel-Chaos zum integrierten Projektportfolio Martin Bialas, diventis GmbH 2 Agenda Ausgangslage / Stakeholder / Zielsetzung Themen zur Betrachtung Organisatorische Lösungen Softwareunterstützung

Mehr

Datenintegration, -qualität und Data Governance. Hannover, 14.03.2014

Datenintegration, -qualität und Data Governance. Hannover, 14.03.2014 Datenintegration, -qualität und Data Governance Hannover, 14.03.2014 Business Application Research Center Führendes europäisches Analystenhaus für Business Software mit Le CXP (F) objektiv und unabhängig

Mehr

Compliance Monitoring mit PROTECHT.ERM

Compliance Monitoring mit PROTECHT.ERM covalgo consulting GmbH Operngasse 17-21 1040 Wien, Austria www.covalgo.at Compliance Monitoring mit PROTECHT.ERM Autor: DI Mag. Martin Lachkovics, Dr. Gerd Nanz Datum: 20. Oktober 2014, 29. April 2015

Mehr

Integrierte Managementsysteme Eichenstraße 7b 82110 Germering ims@prozess-effizienz.de. 1. Qualitätsmanagement

Integrierte Managementsysteme Eichenstraße 7b 82110 Germering ims@prozess-effizienz.de. 1. Qualitätsmanagement 1. Qualitätsmanagement Die Begeisterung Ihrer Kunden, die Kooperation mit Ihren Partnern sowie der Erfolg Ihres Unternehmens sind durch ein stetig steigendes Qualitätsniveau Ihrer Produkte, Dienstleistungen

Mehr

JOB MANAGEMENT MIT DEM SAP SOLUTION MANAGER. Whitepaper

JOB MANAGEMENT MIT DEM SAP SOLUTION MANAGER. Whitepaper JOB MANAGEMENT MIT DEM SAP SOLUTION MANAGER. Whitepaper Wussten Sie, dass lediglich der kleinere Teil der Datenverarbeitung in Ihrem System von End-Anwendern generiert wird? Der größere Teil der Informationen

Mehr

Die Vision und Strategie bilden die Basis für eine erfolgreiche

Die Vision und Strategie bilden die Basis für eine erfolgreiche Qualitätssicherung mit generischem Leitfaden Der praxisgeprüfte Qualitätsmanagement Leitfaden zeigt den Weg zur Qualitätssicherung in KMU s. Von Ackermann Jörg Das Management von vielen klein- und mittelgrossen

Mehr

Managementbewertung Managementbewertung

Managementbewertung Managementbewertung Managementbewertung Grundlagen für die Erarbeitung eines Verfahrens nach DIN EN ISO 9001:2000 Inhalte des Workshops 1. Die Anforderungen der ISO 9001:2000 und ihre Interpretation 2. Die Umsetzung der Normanforderungen

Mehr

Data Governance Informationen kontrolliert managen

Data Governance Informationen kontrolliert managen make connections share ideas be inspired Data Governance Informationen kontrolliert managen Michael Herrmann SAS Copyright 2013, SAS Institute Inc. All rights reserved. DATA GOVERNANCE TRENDS UND TREIBER:

Mehr

Qualitätsmanagement European Quality Management Licence. Guten Morgen!

Qualitätsmanagement European Quality Management Licence. Guten Morgen! Qualitätsmanagement European Quality Management Licence Guten Morgen! 1 Die 18 Module des EQML: 1 bis 9 Modul 1: Grundbegriffe und Grundsätze Modul 2: QMS aufbauen und betreiben Modul 3: Philosophie und

Mehr

Organisatorische Einbindung eines Risikomanagementsystems in mittelständische Unternehmen

Organisatorische Einbindung eines Risikomanagementsystems in mittelständische Unternehmen Organisatorische Einbindung eines Risikomanagementsystems März 2002 Andreas Henking www.risk-sim.de 1 Einleitung Wichtiger Erfolgsfaktor bei der Einführung von Risikomanagementsystemen ist die richtige

Mehr

ENTERPRISE PERFORMANCE MANAGEMENT FÜR EPM. Sie.

ENTERPRISE PERFORMANCE MANAGEMENT FÜR EPM. Sie. ENTERPRISE PERFORMANCE MANAGEMENT FÜR EPM Sie. WIE SIEHT DIE PERFORMANCE IHRES UNTERNEHMENS AUS? ZIELE MUSS MAN MESSEN KÖNNEN Ihre Mitarbeitenden bilden nicht nur einen grossen Kostenblock in Ihrer Aufwandsrechnung,

Mehr

Das Handwerkszeug. Teil I

Das Handwerkszeug. Teil I Teil I Das Handwerkszeug Beratung in der IT 3 Beratung ist ein häufig gebrauchter und manchmal auch missbrauchter Begriff in der IT. Wir versuchen in diesem Einstieg etwas Licht und Klarheit in diese Begriffswelt

Mehr

Power. Erfolg & Seite 1

Power. Erfolg & Seite 1 Mehr Power Erfolg & Seite 1 Vorwort TELSAMAX ist eine moderne Unternehmensberatung in der Nähe von Frankfurt am Main. Durch die Zusammenarbeit mit uns, nutzen Sie unsere Kernkompetenzen in den Bereichen

Mehr

Kundeninformation DIN EN ISO 9001:2015 - die nächste große Normenrevision

Kundeninformation DIN EN ISO 9001:2015 - die nächste große Normenrevision Kundeninformation DIN EN ISO 9001:2015 - die nächste große Normenrevision Einführung Die DIN EN ISO 9001 erfährt in regelmäßigen Abständen -etwa alle 7 Jahreeine Überarbeitung und Anpassung der Forderungen

Mehr

Create the most powerful customer relations for your business

Create the most powerful customer relations for your business Create the most powerful customer relations for your business Customer Relationship Management Customer Die Ziele von CRM sind rentable und langfristige Kundenbeziehungen. Visionen, Strategien und Ziele

Mehr

Requirements Engineering im Customer Relationship Management: Erfahrungen in der Werkzeugauswahl

Requirements Engineering im Customer Relationship Management: Erfahrungen in der Werkzeugauswahl Requirements Engineering im Customer Relationship Management: Erfahrungen in der Werkzeugauswahl GI-Fachgruppentreffen Requirements Engineering Agenda arvato services innerhalb der Bertelsmann AG Herausforderungen

Mehr

Qualitätsmanagement ISO 9001

Qualitätsmanagement ISO 9001 Qualitätsmanagement ISO 9001 Vorteile und Nutzen der Normenreihe in Ihrer Anwaltskanzlei Die Bedeutung der ISO 9001 Unternehmen befinden sich im Umbruch, traditionsreiche Produktionsstandorte werden aufgegeben,

Mehr

Total Quality Management

Total Quality Management Total Quality Management TQM Grundlagen Total Quality Management ist ein prozessorientiertes System, das auf der Überzeugung gründet, dass Qualität einfach eine Frage der Ausrichtung an den Erfordernissen

Mehr

DIN EN ISO 50001 Was erwarten die Zertifizierer?

DIN EN ISO 50001 Was erwarten die Zertifizierer? Zertifizierung DIN EN ISO 50001 Was erwarten die Zertifizierer? TÜV NORD Energiemanagement-Tag Zerifizierung 13. September 2012, Museum für Energiegeschichte (Hannover) Zur Person Lars Kirchner, Dipl.-Umweltwiss.

Mehr

Workflowmanagement. Business Process Management

Workflowmanagement. Business Process Management Workflowmanagement Business Process Management Workflowmanagement Workflowmanagement Steigern Sie die Effizienz und Sicherheit Ihrer betrieblichen Abläufe Unternehmen mit gezielter Optimierung ihrer Geschäftsaktivitäten

Mehr

Datenqualität: allgemeiner Überblick Waldemar Braun. Seminar Datenqualität OvGU Magdeburg 03.12.2009

Datenqualität: allgemeiner Überblick Waldemar Braun. Seminar Datenqualität OvGU Magdeburg 03.12.2009 Datenqualität: allgemeiner Überblick Waldemar Braun Seminar Datenqualität OvGU Magdeburg Gliederung 1. Einleitung 2. Motivation 3. Definition 4. DQ-Probleme 5. DQ-Dimensionen 6. DQ-Modelle 7. Messen der

Mehr

wagner management consulting

wagner management consulting Customer Relationship Management Unser Verständnis Customer Relationship Management sind alle Interaktionen entlang der gesamten Kommunikation mit internen und externen Kunden. Effektive Prozesse unterstützt

Mehr

wir garantieren Ihnen die BetRIeBsKosten von MoRgen.

wir garantieren Ihnen die BetRIeBsKosten von MoRgen. wir garantieren Ihnen die BetRIeBsKosten von MoRgen. GANZHEITLICH. EFFIZIENZSTEIGERND. NACHHALTIG. BILFINGER ONE IST DAS KONZEPT FÜR DIE NÄCHSTE GENERATION VON PARTNERSCHAFT IN DER IMMOBILIENWIRTSCHAFT.

Mehr

Survival Guide für Ihr Business Intelligence-Projekt

Survival Guide für Ihr Business Intelligence-Projekt Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren

Mehr

Nutzen Sie das in Easy Turtle voll editierbare Modell der DIN EN ISO 9001:2008

Nutzen Sie das in Easy Turtle voll editierbare Modell der DIN EN ISO 9001:2008 Nutzen Sie das in Easy Turtle voll editierbare Modell der DIN EN ISO 9001:2008 Qualität ist keine Funktion Qualität ist ein Weg des Denkens. Qualität ist die Summe aller Tätigkeiten in einem Unternehmen.

Mehr

Datenqualität für Kapital- und Liquiditätssteuerung sicherstellen

Datenqualität für Kapital- und Liquiditätssteuerung sicherstellen make connections share ideas be inspired Datenqualität für Kapital- und Liquiditätssteuerung sicherstellen Datenqualitätsprozesse auf allen Verarbeitungsstufen Carsten Krah, SAS Michael Herrmann, SAS Datenqualität

Mehr

sycat IMS GmbH Business Process Management Fon (0511) 84 86 48 200 Fax (0511) 84 86 48 299 Mail info@sycat.com www.sycat.com

sycat IMS GmbH Business Process Management Fon (0511) 84 86 48 200 Fax (0511) 84 86 48 299 Mail info@sycat.com www.sycat.com sycat IMS GmbH Business Process Management Fon (0511) 84 86 48 200 Fax (0511) 84 86 48 299 Mail info@sycat.com www.sycat.com 1 QUALITÄT IM DIALOG Business Process Management Historie 1985 Dr. Binner Unternehmensberatung

Mehr

RECRUITING EXPERTS EXPERTEN- VERMITTLUNG RESSOURCE ZEIT EXPERTISE

RECRUITING EXPERTS EXPERTEN- VERMITTLUNG RESSOURCE ZEIT EXPERTISE RECRUITING EXPERTS EXPERTEN- VERMITTLUNG RESSOURCE ZEIT EXPERTISE IT EXPERTEN AUF ZEIT Als Systemhaus arbeiten wir seit der Gründung im Jahr 2000 auch mit selbständigen Spezialisten zusammen. Wir beschaffen

Mehr

ISMS Teil 3 Der Startschuss

ISMS Teil 3 Der Startschuss ISMS Teil 3 Der Startschuss Nachdem das TOP-Managenment die grundsätzliche Entscheidung getroffen hat ein ISMS einzuführen, kann es nun endlich losgehen. Zu Beginn sollte Sie noch die Grundlagen des ISMS

Mehr

Den Unterschied machen Ein Leitfaden für IT- Entscheider in Versicherungsunternehmen

Den Unterschied machen Ein Leitfaden für IT- Entscheider in Versicherungsunternehmen Den Unterschied machen Ein Leitfaden für IT- Entscheider in Versicherungsunternehmen Den Unterschied machen Ein Leitfaden für IT- Entscheider in Versicherungsunternehmen Das Asskura- Modell ist ein Werkzeug,

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

Enterprise Architecture Management für Krankenhäuser. Transparenz über die Abhängigkeiten von Business und IT

Enterprise Architecture Management für Krankenhäuser. Transparenz über die Abhängigkeiten von Business und IT Enterprise Architecture Management für Krankenhäuser Transparenz über die Abhängigkeiten von Business und IT HERAUSFORDERUNG Gestiegener Wettbewerbsdruck, höhere Differenzierung im Markt, die konsequente

Mehr

ISO & IKS Gemeinsamkeiten. SAQ Swiss Association for Quality. Martin Andenmatten

ISO & IKS Gemeinsamkeiten. SAQ Swiss Association for Quality. Martin Andenmatten ISO & IKS Gemeinsamkeiten SAQ Swiss Association for Quality Martin Andenmatten 13. Inhaltsübersicht IT als strategischer Produktionsfaktor Was ist IT Service Management ISO 20000 im Überblick ISO 27001

Mehr

Vom Intranet zum Knowledge Management

Vom Intranet zum Knowledge Management Vom Intranet zum Knowledge Management Die Veränderung der Informationskultur in Organisationen von Martin Kuppinger, Michael Woywode 1. Auflage Hanser München 2000 Verlag C.H. Beck im Internet: www.beck.de

Mehr

Die neue ISO 9001:2015 Neue Struktur

Die neue ISO 9001:2015 Neue Struktur Integrierte Managementsysteme Die neue ISO 9001:2015 Neue Struktur Inhalt Neue Struktur... 1 Die neue ISO 9001:2015... 1 Aktuelle Status der ISO 9001... 3 Änderungen zu erwarten... 3 Ziele der neuen ISO

Mehr

it-check EGELI nutzen sie ihr gesamtes it-potenzial informatik

it-check EGELI nutzen sie ihr gesamtes it-potenzial informatik it-check nutzen sie ihr gesamtes it-potenzial EGELI informatik optimieren sie ihre it-welt Dr. Eliane Egeli Mit unseren IT-Checks profitieren Sie in mehrfacher Hinsicht. Etwa durch die bessere Nutzung

Mehr

Process Consulting. Beratung und Training. Branchenfokus Energie und Versorgung. www.mettenmeier.de/bpm

Process Consulting. Beratung und Training. Branchenfokus Energie und Versorgung. www.mettenmeier.de/bpm Process Consulting Process Consulting Beratung und Training Branchenfokus Energie und Versorgung www.mettenmeier.de/bpm Veränderungsfähig durch Business Process Management (BPM) Process Consulting Im Zeitalter

Mehr

Effizienzsteigerung durch Komplexitätsreduktion

Effizienzsteigerung durch Komplexitätsreduktion Effizienzsteigerung durch Komplexitätsreduktion Die Herausforderung Kosten schon kleine Änderungen in den Abläufen Ihres Unternehmens Unsummen? Haben Sie Schwierigkeiten, alle notwendigen Änderungen schnell

Mehr

Horus ISO QM Plug-In. Nachhaltige Unternehmensentwicklung auf Basis internationaler Standards. Warum ISO Qualitätsmanagement?

Horus ISO QM Plug-In. Nachhaltige Unternehmensentwicklung auf Basis internationaler Standards. Warum ISO Qualitätsmanagement? Nachhaltige Unternehmensentwicklung auf Basis internationaler Standards Warum ISO Qualitätsmanagement? ISO Revision neue High Level-Struktur Die Einführung eines Qualitätsmanagementsystems ist eine strategische

Mehr

LOPEZ_SU AREZ_DAT ENANALYS E_ZERZEP

LOPEZ_SU AREZ_DAT ENANALYS E_ZERZEP LEISTUNGSÜBERSICHT 2014 ÜBERBLICK Seite 2 Das Unternehmen Seite 3 Datenanalyse Seite 4 Prozessoptimierung Seite 5 Treuhand & Revision Seite 6 Interim Management Seite 7 Referenzen Seite 8 Kontakt Seite

Mehr

White-Paper zur Studie Lean-IT

White-Paper zur Studie Lean-IT White-Paper zur Studie Lean-IT Riesiges Verbesserungspotential in der Durchführung von IT-Projekten In Zusammenarbeit der Universität Hohenheim mit mm1 Consulting & Management Königstraße 10c D-70173 Stuttgart

Mehr

Projektphase 1: Schaffung der Voraussetzungen für den Start des Projektes

Projektphase 1: Schaffung der Voraussetzungen für den Start des Projektes Detaillierte Anleitung zur Gestaltung, Realisierung, Einführung und produktiven Betreibens eines Projektes / Systems zur Verbesserung und Optimierung der Organisations-, Prozess-, und Kommunikations-Abläufe

Mehr

Qualitätsmanagement ISO 9001

Qualitätsmanagement ISO 9001 Qualitätsmanagement ISO 9001 Vorteile und Nutzen der Normenreihe in Ihrem Unternehmen Die Bedeutung der ISO 9001 im internationalen Markt Unternehmen befinden sich im Umbruch, traditionsreiche Produktionsstandorte

Mehr

Phase I: Angebotsvorbereitung

Phase I: Angebotsvorbereitung 1 Phase I: Angebotsvorbereitung Ziele der Phase I / Angebotsvorbereitung Kontakt herstellen erwartungen an das Angebot erteln Auftrag spezifizieren Rahmenbedingungen feststellen Beziehung aufbauen/vertrauensbasis

Mehr

EXZELLENTES MASTERDATENMANAGEMENT. Creactives-TAM. (Technical Attribute Management)

EXZELLENTES MASTERDATENMANAGEMENT. Creactives-TAM. (Technical Attribute Management) EXZELLENTES MASTERDATENMANAGEMENT Creactives-TAM (Technical Attribute Management) Datenqualität durch Stammdatenmanagement Stammdaten sind eine wichtige Grundlage für Unternehmen. Oft können diese, gerade

Mehr

Qualitätsmanagement. Dienstleistungen im Überblick. Qualitätsmanagement. Dienstleistungen im Überblick

Qualitätsmanagement. Dienstleistungen im Überblick. Qualitätsmanagement. Dienstleistungen im Überblick Einleitung Mit prozessorientiertem lassen sich die Prozesse und Strukturen eines Unternehmens wirksam und effizient gestalten. Das zeitgemäße Verständnis von Qualität umfasst heute alle innerbetrieblichen

Mehr

Intelligente Unternehmens- und Prozesssteuerung durch CPM

Intelligente Unternehmens- und Prozesssteuerung durch CPM Intelligente Unternehmens- und Prozesssteuerung durch CPM 5. IIR Forum BI, Mainz, Sept. 2006 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

INDUSTRIAL SOURCING THOUTBERGER

INDUSTRIAL SOURCING THOUTBERGER www.thoutberger.com - info@thoutberger.com - 052 335 40 22 INDUSTRIAL SOURCING THOUTBERGER SPEZIALIST FÜR SUPPLY CHAIN STRATEGIE UND GLOBAL SOURCING 1. AUSGABE PROFESSIONAL PEOPLE Aktuelles zum Thema Supply

Mehr

Master Data Management

Master Data Management Master Data Management Warum Stammdatenmanagement Komplexität reduzieren Stammdatenmanagement bringt Ordnung in ihre Stammdaten. Doubletten werden erkannt und gesperrt. Stammdaten verschiedener Quellsysteme

Mehr

Business Intelligence-Projekte mit SAP BO - Best Practices für den Mittelstand

Business Intelligence-Projekte mit SAP BO - Best Practices für den Mittelstand Business Intelligence-Projekte mit SAP BO - Best Practices für den Mittelstand Name: Michael Welle Funktion/Bereich: Manager Business Intelligence Organisation: Windhoff Software Services Liebe Leserinnen

Mehr

Projektmanagement im Rundfunk

Projektmanagement im Rundfunk Thesen für ein senderspezifisches Vorgehensmodell Medienberatung Klaus Petersen Nürnberg, Juli 2005 KLAUS PETERSEN Einleitung und Übersicht Erfolgreiche Projekte sind für die konvergente Entwicklung in

Mehr

Durch Zahlen zu Maßnahmen: Verbesserung des Travel Management Programms durch strategische KPIs und sinnvolle Messungen

Durch Zahlen zu Maßnahmen: Verbesserung des Travel Management Programms durch strategische KPIs und sinnvolle Messungen Durch Zahlen zu Maßnahmen: Verbesserung des Travel Management Programms durch strategische KPIs und sinnvolle Messungen Management Summary Durch Zahlen zu Maßnahmen: Verbesserung des Travel Management

Mehr

lösungsgeschäft Kontakt Tel.: 06032 / 8091-0. E-Mail: wir@etimark.de www.etimark.de

lösungsgeschäft Kontakt Tel.: 06032 / 8091-0. E-Mail: wir@etimark.de www.etimark.de lösungsgeschäft Kontakt Tel.: 06032 / 8091-0. E-Mail: wir@etimark.de inhalt 03 Lösungsgeschäft 04 Etikettengestaltungssoftware 05 Betriebliche Anwendungssysteme 06 Beratung/Projektabwicklung 07 Technischer

Mehr

Freigabemanagement in der Produktentwicklung

Freigabemanagement in der Produktentwicklung Freigabemanagement in der Produktentwicklung Beratung Collaborative Engineering Stand 21.6.2006 Menschen Wissen Systeme service@hcm-infosys.com Stammheimer Straße 10 70806 Kornwestheim Tel.: +49/7154/8271-80

Mehr

INFORMATIK-BESCHAFFUNG

INFORMATIK-BESCHAFFUNG Leistungsübersicht Von Anbietern unabhängige Entscheidungsgrundlagen Optimale Evaluationen und langfristige Investitionen Minimierte technische und finanzielle Risiken Effiziente und zielgerichtete Beschaffungen

Mehr

Systemen. Stand der Umsetzung von BSC-Systemen. 3/4 der Unternehmen setzen Balanced Scorecard als neues Instrument der Unternehmensführung ein.

Systemen. Stand der Umsetzung von BSC-Systemen. 3/4 der Unternehmen setzen Balanced Scorecard als neues Instrument der Unternehmensführung ein. Stand der Umsetzung von BSC-Systemen Systemen BSC eingeführt keine Überarbeitung 11% kein Interesse 26% BSC eingeführt Überarbeitung geplant 5% BSC geplant 58% n = 141 3/4 der Unternehmen setzen Balanced

Mehr

MATERNA Beschwerde-Management-Check. Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen

MATERNA Beschwerde-Management-Check. Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen MATERNA Beschwerde-Management-Check Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen >> MATERNA Beschwerde-Management-Check Ist in Ihrer Versicherung die Einführung,

Mehr

Risikogrundsätze Version 2, Stand 10/2011

Risikogrundsätze Version 2, Stand 10/2011 Version 2, Stand 10/2011 1. RISIKOGRUNDSÄTZE 1.1 Verantwortung des Vorstandes Der Vorstand der Schoellerbank Invest AG ist für die ordnungsgemäße Geschäftsorganisation und deren Weiterentwicklung verantwortlich.

Mehr

Mitarbeiterbefragungen effektiv und effizient durchführen

Mitarbeiterbefragungen effektiv und effizient durchführen Mitarbeiterbefragungen effektiv und effizient durchführen Nutzen Sie Ihre Mitarbeiterpotenziale erfolgswirksam! Investieren Sie in Ihren stärksten Wert: Ihre Mitarbeiter! M+M Management + Marketing Consulting

Mehr

Qualitätsmanagement - Umweltmanagement - Arbeitssicherheit - TQM

Qualitätsmanagement - Umweltmanagement - Arbeitssicherheit - TQM Qualitätsmanagement - Umweltmanagement - Arbeitssicherheit - TQM Besteht bei Ihnen ein Bewusstsein für Die hohe Bedeutung der Prozessbeherrschung? Die laufende Verbesserung Ihrer Kernprozesse? Die Kompatibilität

Mehr

Notfallmanagement nach BS25999 oder BSI-Standard 100-4

Notfallmanagement nach BS25999 oder BSI-Standard 100-4 Notfallmanagement nach BS25999 oder BSI-Standard 100-4 Karner & Schröppel Partnerschaft Sachverständige für Informationssicherheit und Datenschutz Unser Konzept Informationssicherheit und Datenschutz als

Mehr

Transparenz mit System Qualität im IT-Management sichert wichtige Ressourcen und schafft Vertrauen

Transparenz mit System Qualität im IT-Management sichert wichtige Ressourcen und schafft Vertrauen IT-DIENST- LEISTUNGEN Transparenz mit System Qualität im IT-Management sichert wichtige Ressourcen und schafft Vertrauen TÜV SÜD Management Service GmbH IT-Prozesse bilden heute die Grundlage für Geschäftsprozesse.

Mehr

Die perfekte Verbindung von Optimierung und Innovation

Die perfekte Verbindung von Optimierung und Innovation Die perfekte Verbindung von Optimierung und Innovation OPTiVATiON Optimized Technology & Business Innovation GmbH Erfolg durch Kompetenz Das können Sie von uns erwarten Wir von OPTiVATiON definieren uns

Mehr

So bin ich, so arbeite ich: Analytisch. Ergebnisorientiert. Umsetzungsstark. Motivierend.

So bin ich, so arbeite ich: Analytisch. Ergebnisorientiert. Umsetzungsstark. Motivierend. OFFICE EXCELLENCE Schlanke Prozesse für Ihre Verwaltung Die Idee einer Verbesserung von administrativen Prozessen ist unter verschiedenen Bezeichnungen wiederzufinden: Kaizen im Office, KVP im Büro, Lean

Mehr

Kundenzentrisches Banking - mit Hilfe von Social Media

Kundenzentrisches Banking - mit Hilfe von Social Media Kundenzentrisches Banking - mit Hilfe von Was versteht man unter kundenzentrischem Banking? Problem: Banken haben heutzutage mit stagnierenden Märkten, starkem Wettbewerb und einer sinkenden Kundenloyalität

Mehr

Urs Fischer, dipl. WP, CRISC, CISA, CIA Fischer IT GRC Beratung & Schulung

Urs Fischer, dipl. WP, CRISC, CISA, CIA Fischer IT GRC Beratung & Schulung Urs Fischer, dipl. WP, CRISC, CISA, CIA Fischer IT GRC Beratung & Schulung 5. November 2012 2012 ISACA & fischer IT GRC Beratung & Schulung. All rights reserved 2 Agenda Einführung Konzepte und Prinzipien

Mehr