Strategien zur Hebung der Datenqualität in Datenbanken

Größe: px
Ab Seite anzeigen:

Download "Strategien zur Hebung der Datenqualität in Datenbanken"

Transkript

1 AKAD Hochschule für Berufstätige Zürich Diplomarbeit im Diplomstudium Betriebsökonomie FH Strategien zur Hebung der Datenqualität in Datenbanken Ursachen für Datenqualitätsmängel und deren Behebung mittels geeigneter Strategien Autor Jürg Wolf Sonnhalde Hallwil Matrikel-Nr.: Betreuender Dozent Hr. Ugo Merkli Datum 29. Januar 2007 Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 1 / 83

2 Management Summary Das uralte Bonmot der IT shit in shit out 1 sollte eigentlich allgemein bekannt sein. Scheinbar muss sie aber noch ihren Weg aus der IT in die anderen Bereiche eines Unternehmens finden, ist doch immer noch verbreitet die Auffassung zu finden, dass Informationen, welche auf zehn Nachkommastellen ausgerechnet sind, vorbehaltlos als richtig anzunehmen sind. Das Problem ist aber, dass die Auswirkungen von mangelhaften Daten bereits schon dort sind. Spätestens seit (fast) alle Bereiche eines Unternehmens kaum mehr ohne IT-Unterstützung auskommen und Datenbanken unaufhaltsam in die verschiedensten Bereiche eines Unternehmens vordringen ist die Beurteilung der Qualität dieser Daten wichtiger denn je. Wird dann die Wichtigkeit des Themas Datenqualität erkannt, sollte innerhalb kurzer Zeit nach der Devise shit in gold out 2 die Qualität der enthaltenen Daten dauerhaft verbessert werden. Solche Bereinigungen bringen aber immer nur einen kurzfristigen Effekt, der bereits nach einigen Monaten nicht mehr spürbar ist. Eine andere Reaktion ist die Erkenntnis, dass die Erfassung stümperhaft gewesen sei und man dort ansetzen müsse, um am Ende ein Resultat in einer besseren Qualität zu erhalten. Soll die Datenqualität dauerhaft auf einem hohen Niveau gehalten werden, kommt man weder mit reaktiven Bereinigungen noch mit dem Benennen von Schuldigen weiter. Hier muss man das Thema Datenqualität mit geeigneten Strategien proaktiv angehen. Aufbau dieser Diplomarbeit Hierbei hilft diese Diplomarbeit, indem sie zuerst beschreibt, was Datenqualität eigentlich ist, wie sie gemessen und visualisiert werden kann und zeigt, wie ein einfaches Datenqualitätsmodell aussieht. Ein entscheidender Schritt hierbei ist, zu messen, was messbar ist - und messbar machen, was noch nicht messbar ist 3. Im Weiteren werden mögliche Ursachen für Datenqualitätsmängel gesucht und identifiziert. Darauf aufbauend werden vier generische Ansätze formuliert, um diesen Ursachen begegnen zu können. Mit den neun detailliert beschriebenen Strategien werden schlussendlich dem Betroffenen Werkzeuge in die Hand gegeben, mit denen die Datenqualität einer Datenbank dauerhaft gesteigert werden kann. Abbildung 1: Aufbau dieser Diplomarbeit 1 Was soviel bedeutet wie gibst Du einen Mist ins System, so erhältst Du als Resultat auch Mist. 2 Was hier soviel bedeutet wie ich gebe Dir einen Misthaufen ins System schau gefälligst, dass Du was Brauchbares daraus machen kannst. 3 Alles messen, was messbar ist - und messbar machen, was noch nicht messbar ist. Zitat nach Galileo Galilei in Wikiquote unter [ 84 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 2 / 83

3 Danksagung Mein Dank geht an Herrn Ugo Merkli für die Vergabe dieser Diplomarbeit. Er hat mir wichtigen methodischen Input gegeben und wertvolle Ergänzungen angeregt, ohne die diese Arbeit nicht vollständig geworden wäre. Mein Dank geht an meinen Vorgesetzten Dr. Michael Sieck, der mir diese Diplomarbeit ermöglicht hat und mir das äusserst interessante Anschauungsbeispiel i-sac zur Verfügung gestellt hat. Dank dieser grossen und vielfältigen Datenbank konnte ich viele Aspekte der Datenqualität direkt kennen lernen. Durch meine Aufgaben in Projekten und im Support konnte ich auch die direkten Auswirkungen von schlechter Datenqualität sozusagen am lebenden Objekt beobachten. Ein weiterer Dank geht an meinen direkten Vorgesetzten Reto Cattaneo, der es mir durch die Einsatzplanung ermöglichte, viele interessante Dinge im Umfeld von i-sac zu realisieren. Ohne sein Engagement und seinen Glauben in meine Fähigkeiten wäre beispielsweise das Datenqualitäts- Cockpit, von dem noch in Kapitel die Rede sein wird, nicht realisiert worden. Auch meine beiden Arbeitskollegen Peter Thut und Volker Würthele haben mir massgeblich bei dieser Arbeit geholfen, indem sie mich mit Rat, Tat und vielen guten Inputs begleitet haben. Nicht vergessen werden dürfen natürlich alle Mitarbeiter in der UBS, welche meinen Fragebogen beantwortet haben und somit mitgeholfen haben, die Datenqualität von i-sac aus einem anderen Licht zu sehen. Sie haben dadurch sowohl meiner Arbeit als auch dem Inventar wichtigen Input verliehen. Speziellen Dank geht an meinen Bruder Peter Wolf, der durch viele Stunden Fehlersuche die Datenqualität dieses Dokumentes stark erhöht hat. Diese Arbeit widme ich meiner lieben Frau Heidi, welche mich mit vielen Fragen zum Vorgehen, der Methodik und den enthaltenen statistischen Auswertungen bombardiert hat und mir dabei auch immer weitergeholfen hat. Sie hat mich immer auf meinem Weg an der Fachhochschule unterstützt. Die Entscheidung, diese Ausbildung zu beginnen und als Schule die AKAD zu wählen, ging vollständig auf sie zurück. Ich freue mich darauf, wieder mehr Zeit mit ihr und unserer lieben Tochter Ira Yanti zu verbringen. Eigenständigkeitserklärung Hiermit erkläre ich, die vorliegende Arbeit selbstständig und nur unter Benutzung der angegebenen Hilfsmittel und Literatur angefertigt zu haben Ort und Datum: Unterschrift: Hallwil, 29. Januar 2007 Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 3 / 83

4 Inhaltsverzeichnis Management Summary 2 Danksagung 3 Eigenständigkeitserklärung 3 Inhaltsverzeichnis 4 1. Das Problem Informationen und deren Qualität Anzeichen schlechter Datenqualität Auswirkungen von Datenqualitätsmängel Beispiele von Datenqualitäts-Problemen in der Realität Wichtigkeit des Themas für die Unternehmensführung Gesetzliche und regulatorische Anforderungen zum Thema Datenqualität Organisatorische Einordnung des Themas im Unternehmen Was ist Datenqualität Was ist Qualität Generelle Definition von Qualität Was ist Datenqualität Geschichte des Begriffs Datenqualität Einfache Definition von Datenqualität Umfassende Definition von Datenqualität Arten von Datenqualität Wie kann man Datenqualität messen Wie kann man Datenqualität identifizieren Wie kann man Datenqualität visualisieren? Anforderungen an ein einfaches Datenqualitäts-Messsystem Quantifizierung von Datenqualitätsmängel und deren Behebung Möglichen Arten von Datenqualitätsmängeln Was Datenqualität nicht ist Kommerzielle Ansätze zum Thema Datenqualität Der Datenqualitätsmarkt Eingekaufte Produkte und Dienstleistungen Generische Ansätze zur Verbesserung der Datenqualität Grundsätzliches zur Datenqualität Bisherige Ansätze Generische Ansätze Thesen Aus diesen Thesen abgeleitete Strategien Strategien für eine grundsätzliche Verbesserung der Datenqualität Strategie A: Transparenz schafft Vertrauen Strategie B: Definition von Verantwortlichkeiten Strategie C: Die Grundsätze der Softwareentwicklung ausnutzen Strategie D: Datenabhängigkeiten sind Gold wert 55 Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 4 / 83

5 5.5. Strategie E: Daten-Lifecycle auf Basis des Prozesses Strategie F: Unternehmensweite Verwendung von Metadaten Strategie G: Niederschwellige Verbesserungs-Werkzeuge Strategie H: Eingabe von Ich weiss es wirklich nicht Strategie I: Definition eines Verfalldatums Auswirkung dieser Strategien auf die Datenqualität Grundsätzliche Nachteile und Risiken aller Strategien Vorgehen bei der Umsetzung dieser Strategien Empfehlungen und Ausblick Erläuterungen, Listen und Quellen Abkürzungsverzeichnis Begriffserklärungen Abbildungsverzeichnis Tabellenverzeichnis Literatur und Referenzen 74 Anhänge a Anhang A: für die Teilnahme an der Umfrage a Anhang B: Fragebogen für die Erfassung der Weichen Faktoren der Datenqualität in i-sac b Anhang C: Die Resultate dieser Umfrage d Anhang D: Inhalt der CD e Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 5 / 83

6 1. Das Problem 1.1. Informationen und deren Qualität Im heutigen Informationszeitalter ist der Umgang mit der Ressource Information entscheidend 4. Darum werden diese möglichst strukturiert in Datenbanken abgelegt und verwaltet. Einmal abgelegt, veralten diese Informationen jedoch dauernd, wenn sie nicht gepflegt und aktualisiert werden. Dies gilt sowohl für Datenbanken mit Bestandesdaten wie beispielsweise Inventare, Produkt- oder Adressstammdaten als auch für Datenbanken mit Bewegungsdaten wie Workflows, Bestell- oder CRM-Systeme. Da für viele Arten von Entscheidungen Daten aus diesen Datenbanken beigezogen werden, ohne deren Qualität zu hinterfragen, resultieren oft schlechte Entscheidungen. In der retrospektiven Analyse dieser Fehlentscheidungen können viele Situationen auf ungenügende Qualität der zugrunde liegenden Daten zurückgeführt werden. 5 Daten, welche man von extern beizieht, werden vielfach verifiziert und durch ein gesundes Misstrauen immer wieder kritisch hinterfragt aber wie steht es mit firmeninternen Daten? Und wenn schon kann man den beigezogenen Daten irgendwie ansehen, ob sie gut sind oder ob deren Verfalldatum schon überschritten ist? Einzelne Informationen wiederum bilden die Grundlage zum Wissen, das in einer Unternehmung vorhanden ist und über verschiedene Wege dem Rest der Firma zugänglich gemacht wird oder eben nicht. Die Firma Federal Express behandelt Informationen als eigene Produkte, welche die firmeninternen Prozesse überhaupt ermöglichen. Den Umgang mit Informationen bezeichnet das Unternehmen als Kernwissen ( core knowledge ), das ihnen einen Wettbewerbsvorteil gegenüber anderen Unternehmen garantiert. Alleine die Möglichkeit, jederzeit auf den Status und den momentanen Aufenthaltsort eines Paketes zugreifen zu können, ist für viele Kunden ein wichtiger Grund, dieses Unternehmen für den Transport ihrer Güter auszuwählen. 6 Abbildung 2: Auswirkungen schlechter Datenqualität 7 In immer mehr Unternehmen werden Data Warehouses aufgebaut, deren Aufgabe es ist, mittels Data Mining aus bestehenden Datenbeständen bisher unbekannte Zusammenhänge zu erkennen und diese mittels Marketingaktionen oder entsprechenden neuen Produkten kommerziell auszunutzen. Die gesamten beschriebenen Aktivitäten laufen unter dem Begriff Business Intelligence (BI). Alle aus diesem beschriebenen Prozess gewonnenen Erkenntnisse sind jedoch nichts wert, wenn die Qualität der verwendeten Daten mangelhaft ist. 4 Immer häufiger wird Information oder Wissen neben den drei traditionellen Produktionsfaktoren als vierter Produktionsfaktor angesehen. Siehe dazu Bullinger et al. in [ 8 ] und andere. Andere Autoren räumen dem Produktionsfaktor Wissen sogar eine Vorrangstellung ein wie Drucker in [ 12 ]. Eine prägnante Zusammenfassung dieser Gedanken macht Henning in [ 24 ], Seiten 59/60. 5 Siehe dazu Block in [ 7 ]. 6 Siehe Huang et al. nach [ 26 ], Seite 3. 7 Grafik entnommen aus Block in [ 7 ], Folie 11. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 6 / 83

7 1.2. Anzeichen schlechter Datenqualität Bezogen auf ERP-Systeme stellt die Universität Bern fest, dass folgende Anzeichen auf eine schlechte Datenqualität hinweisen können 8. Die gleichen Anzeichen können aber für andere Arten von Datenbanken herangezogen werden: Wegen mangelnder Funktionalität werden weitere Systeme angeschafft, die parallel zueinander arbeiten. Es entstehen Schatten-Datenbanken. Geschäftsunterlagen wie beispielsweise Offerten weisen öfters falsche Angaben aus. Für Standardberichte müssen Zahlen aus mehreren Systemen beschafft werden. Steigender Debitorenbestand und Kundenreklamationen wegen falschen oder doppelt ausgestellten Rechnungen. Vermehrte manuelle Eingriffe und Versuche, Integritätssicherungsmechanismen eines Systems zu übersteuern weil Eingabefehler korrigiert werden sollten. Verlorengegangene Aufgaben in einem Workflow-System. Organisatorische Änderungen können nicht oder nur mit grossem Zeitaufwand nachvollzogen werden, weil die Datenbasis oder implementierte Geschäftsregeln nicht angepasst werden können. Differenzen zwischen Inventarlisten und tatsächlich vorhandenen Waren. Steigende Debitorenbestände und Debitorenverluste Auswirkungen von Datenqualitätsmängel Werden weitere Systeme angeschafft, die parallel zueinander arbeiten sollen, entstehen automatisch Schnittstellenprobleme und Redundanzen. Werden solche Redundanz-Systeme und Schattendatenbanken nur selten synchronisiert, entstehen widersprüchliche Informationen. Für Data Mining und Data Warehousing ist Datenqualität nicht nur etwas Wünschenswertes, sondern eines der Hauptkriterien, die darüber bestimmen, ob das Projekt zustande kommt und die daraus gewonnenen Aussagen korrekt sind 9. Eine Untersuchung von QAS über die Auswirkung von Datenqualität auf die Geschäftsergebnisse zeigte, dass über 7 Prozent mehr Umsatz gemacht werden könnte, wenn die Daten im Unternehmen eine bessere Qualität gehabt hätten. 10 Weitere Auswirkungen von schlechter Datenqualität sind operationelle Ineffizienz, behinderte Entscheidungsfindung, falsche Entscheidungen, Kundenschwund, Behinderungen bei System- und Datenmigrationen und im Extremfall Vertrauensverlust in das Unternehmen durch Kunden und Mitarbeiter. Demgegenüber führt gute Datenqualität zu wichtigen Erkenntnissen bei Data Warehousing Projekten, verbesserter Kundenakquisition und einer erhöhten Rendite bei IT-Investitionen Siehe Universität Bern, auf [ 28 ]. 9 Siehe Parr Rud in [ 40 ], Seite 63: There are a lot of data warehouse horror stories; however, there are also a lot of phenomenal success stories. What are the keys to a successful implementation? Data quality is a priority. 10 Siehe QAS in [ 46 ]. 11 Siehe Loshin in [ 34 ], Seiten Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 7 / 83

8 1.4. Beispiele von Datenqualitäts-Problemen in der Realität Generelle Datenqualitätsprobleme Einige Beispiele, welche Auswirkungen eine mangelhafte Datenqualität haben können 12 : Der Verlust von Mars Climate Orbiter 1999 kostete den amerikanischen Steuerzahler 125 Millionen USD, wegen Konversionsfehlern vom metrischen zum angloamerikanischen System 13. Eine weltweit führende Universalbank findet heraus, dass sie 3 Milliarden USD Credit Exposure" im Tierpflegesektor hat. Die Ursache konnte in einem Datenbereinigungsprogramm gefunden werden. Eine Grossbank verrechnet sich bei der Ermittlung ihrer Gewinne um 200 Millionen CHF. Schuld war die mangelhafte Integration der Daten einer akquirierten Versicherung ein Jahr zuvor. Eine Regionalbank stellte fest, dass einige Kunden in den Jahren 930 bis 980 geboren wurden oder sie verstarben noch vor dem Geburtstag. Auch stellte sie eine grosse Häufung von Personen fest, die am 1.1. oder am geboren wurden. Als weitere Ungereimtheit stellte sie Berufsbezeichnungen wie )(#$*ksd. fest. Ein grosses Einzelhandelsunternehmen fand Kunden mit einem negativen Saldo an Bonuspunkten und vielen Kundendubletten. Das bedeutet, dass einige Kunden mehrere Kundenkarten besitzen und das Unternehmen weiss es nicht. In einer Bank wurden Firmenkunden mit unvollständigen Daten gefunden im Gegensatz zu den regulatorischen Anforderungen im Zusammenhang mit der Exportrisikogarantie. Die Ursache lag darin, dass das IT-System nicht für solche Transaktionen ausgelegt war. Um die Geschäfte dennoch abwickeln zu können, wurden jeweils Dummy-Kunden angelegt, bei welchen dann eben nicht alle Daten ausgefüllt wurden Personen als Betroffene von Datenqualitätsproblemen Dass eine hohe Datenqualität nicht nur für den Lieferanten und den Bezüger von Informationen wichtig ist, sondern auch für Personen, von denen die Informationen handeln, zeigen die folgenden Beispiele: Erst als die Boeing 747 der United Airlines bereits in der Luft war, hatte man den potenziellen Terroristen erkannt. Sein Name wurde bei einer Überprüfung der Passagiere auf der Liste der Terrorverdächtigen entdeckt. Die Folge: Der Flug mit der Nummer 919 wurde auf Anweisung der amerikanische Flugsicherheitsbehörde (TSS) 1000 Kilometer weit in Richtung Bangor im US-Staat Maine umgeleitet. Hier musste der verdächtige Passagier das Flugzeug verlassen. Der verdächtige Passagier war der zum Islam konvertierte Popmusiker Cat Stevens alias Yusuf Islam 14 Weil ein Fax falsch gelesen wurde, ist am Uni-Spital Zürich eine Herztransplantation kurzfristig abgesagt worden. Ohne Folgen für den Patienten. Der Koordinator las die Gewichtsangabe auf dem Fax falsch. Erst bei der Überprüfung im Operationssaal merkte man, dass das Spenderherz für den vorgesehenen Empfänger zu klein war. Dem Patienten erwuchs daraus kein Nachteil, sein Herz war noch nicht herausoperiert worden. So ein Vorfall ist laut Conrad Müller, Direktor von Swisstransplant, zum Glück sehr selten. Dass er dennoch passieren kann, erstaunt angesichts der heutigen Datenübermittlung allerdings wenig: Das Spenderspital 12 Siehe Block in [ 7 ], Seiten 4-6; Siehe auch Loshin in [ 34 ], Seite 3 und in Wikipedia [ 80 ]. 14 Siehe Spiegel Online [ 51 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 8 / 83

9 schickt die Angaben per Fax zu Swisstransplant, und von dort geht derselbe Fax weiter ans Empfängerspital. 15 Während dem Wirbelsturm Katrina brachen die Deiche der Stadt New Orleans. Als Folge davon wurde die Stadt überschwemmt und zirka 270'000 Einwohner wurden zu Flüchtlingen. Das Pionierkorps des US-Heeres hat in einem Bericht bereits die Verantwortung für die Überflutung der Metropole New Orleans übernommen. Die Deiche hätten nachgegeben, weil sie unter Verwendung überholter Daten unzusammenhängend gebaut worden seien, hiess es darin. Das ist das erste Mal, dass das Korps einräumen muss: Wir haben katastrophal versagt, sagte dessen Leiter, Generalleutnant Carl Strock bei der Vorstellung des Reports Anfang Juni Unternehmens-Turbulenzen wegen Datenqualitätsproblemen Datenqualitäts-Probleme können ein Unternehmen existentiell bedrohen. So konnte der grösste Personalvermittler der Welt, Adecco, die Bilanzzahlen für 2003 wegen Datenqualitätsproblemen in der US-Gesellschaft erst ein halbes Jahr später als vorgesehen bekannt geben: Immerhin bezeichnete das Westschweizer Unternehmen am Freitag die Bereiche, in welchen die Probleme entstanden sind. Mängel gebe es bei der Sicherheit der Computersysteme, der Abstimmung der Lohn-Bankkonten, der Dokumentation vereinbarter Tarife und Stunden sowie der Ausstellung von Rechnungen. Am vergangenen Montag hatte Adecco in einer knappen Mitteilung erklärt, im nordamerikanischen Geschäft seien bei einer Routineprüfung erhebliche Schwächen bei der internen Kontrolle festgestellt worden. Besonders müssten Fragen im Bereich Buchhaltung und Kontrolle in Nordamerika und gewissen anderen Ländern beantwortet werden, wie es hiess. Deshalb würde sich der Jahresabschluss auf unbestimmte Zeit verzögern. An den Märkten verlor die Adecco-Aktie darauf 35 %. Es wurde daraufhin befürchtet, dass es sich um einen weiteren Bilanz-Skandal handeln könnte, wie bei dem US-Konzern Enron oder Parmalat in Italien. 17 Zusätzlich zu diesem Kurssturz wurde in den USA eine Untersuchung der Börsenaufsicht und der Staatsanwaltschaft eingeleitet und das Unternehmen wurde mit mehreren Sammelklagen konfrontiert. Die Kosten für die Bereinigung dieses Falles bezifferte Adecco mit 100 Mio. Euro 18. Das amerikanische Online Magazin SupplyChainDigest stellte die Top-11 Supply Chain Disasters zusammen 19. Die darin enthaltenen Fälle aus den 1980er Jahren bis 2001 zeigen 11 Fälle von gescheiterten Projekten im Bereich der Beschaffungskette eines Unternehmens. Einige dieser Fälle können direkt mit dem Thema Datenqualität in Verbindung gebracht werden (die anderen Fälle werden in dieser Tabelle ausgelassen). 15 Siehe Tages Anzeiger vom 29. Juli 2006 [ 1 ]. 16 Siehe Stern.de Online-Ausgabe [ 2 ]. 17 Siehe Swissinfo vom 16. Januar 2004 [ 56 ]. 18 Siehe Swissinfo vom 1. Juni 2004 [ 57 ]. 19 Siehe Supply Chain Digest in [ 55 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 9 / 83

10 Rang Firma / Jahr Problem / Auswirkungen 1 Foxmeyer Drug, der damals zweitgrösste Drogerie-Distributor der USA Gepäckabwicklungs- System im Flughafen Denver (USA) Hershey Foods Cisco Nike Gleichzeitige Überarbeitung von IT-System und Distribution. Das IT-System von SAP konnte die riesigen Datenmengen nicht verarbeiten und brach zusammen. Kunden erhielten nur Teile der Bestellung oder erhielten diese doppelt. Nach einem Verlust von 5 Milliarden USD ging das Unternehmen Konkurs. Die Reste wurden von einem Konkurrenten aufgekauft. Das hochautomatisierte Gepäckabwicklungssystem musste wegen der grossen Distanzen auf hohe Geschwindigkeiten ausgelegt werden. Dadurch musste die ganze Infrastruktur, welche bereits erstellt worden war, überarbeitet werden. Als dann das System teilweise produktiv ging, veranlassten die wiederholten Probleme mit falsch abgewickelten Gepäckstücken und hohen operativen Kosten die Fluggesellschaft United Airlines dazu, wieder zu den klassischen Methoden zurückzukehren. Der Flughafen wurde wegen den logistischen Problemen zwei Jahre später eröffnet und das Logistik-System inzwischen total ausgewechselt. Nachdem die Stichtageinführung von mehreren Geschäftskritischen Systemen bereits um einige Monate verschoben werden musste, konnten kurz vor Halloween 1999 (eine Hauptumsatzzeit) keine Bestellungen mehr abgewickelt werden, weil das Order Management keinen Zugriff mehr auf das Inventarsystem hatte. Aufträge im Wert von 150 Millionen USD konnten nicht ausgeführt werden. Der Gewinn brach um 19 % ein, und noch Jahre später wurde die Firmenleitung regelmässig von Analysten zum Zustand des Bestellwesens befragt. Wegen der knappen Verfügbarkeit von Netzwerk Equipment war es für viele Endkunden normal, dieselbe Bestellung mehrfach über verschiedene Distributoren laufen zu lassen. Als mit dem Platzen der Internet-Blase die Nachfrage zusammenbrach, sah die Firma die sinkende Nachfrage nicht voraus und musste insgesamt 2.2 Milliarden USD an neuer Hardware abschreiben. Der Börsenkurs halbierte sich daraufhin und erholte sich nicht mehr. Als Folge einer grossen Stichtagsumstellung im Supply Chain Planungssystem wurden tausende Schuhe zu viel oder zu wenig produziert, weil die Bestellungen zwischen zwei Schuhtypen vertauscht wurden. Die Firma musste wegen Software-Problemen Umsatzeinbussen von 100 Millionen USD bekannt geben. Die Börse reagierte mit einem Kurseinbruch von 20 %. Tabelle 1: Die zum Thema Datenqualität relevanten Einträge aus den Top-11 Supply Chain Disasters von SupplyChainDigest [ 55 ] Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 10 / 83

11 1.5. Wichtigkeit des Themas für die Unternehmensführung Wichtigkeit von Genereller Qualität Die PIMS Studie 20 erfasst seit über 30 Jahren die Erfolgsfaktoren für die Leistungsfähigkeit von Unternehmen und wertet diese wissenschaftlich aus. Als Resultat wurde festgestellt, dass im Vergleich zwischen Produkten tieferer Qualität und Produkten höherer Qualität der Unterschied der Herstellkosten nur 1 % beträgt die Preisdifferenz im Markt jedoch 6 %. Die Folge ist, dass mit Produkten höherer Qualität im Durchschnitt 5 % mehr Gewinn erzielt werden kann. Abbildung 3: Wie Qualität Rentabilität und Wachstum steigert 21 Zusätzlich können noch weitere Vorteile errungen werden, indem die Preisdifferenz nicht abgeschöpft wird, sondern durch den tieferen Preis die Erhöhung des Marktanteiles angestrebt wird. Qualität darf gemäss dieser Studie aber nicht als alleiniges Ziel gesetzt werden, da eine derartige Ausrichtung die Kosten mehr als die Erwähnten 1 % in die Höhe treibt. Ein ausgewogenes Verhältnis dieses Ziels mit anderen Unternehmenszielen ist also anzustreben. 22 Zusammengefasst wird jedoch die Qualität als wichtigster Einzelfaktor genannt, dicht gefolgt vom Marktanteil Wichtigkeit von Datenqualität Huang et al. fordern, dass Unternehmen ihre Daten als Produkte betrachten sollen 24. Wird dieser Gedanke konsequent umgesetzt, so bedeutet dies, dass nicht nur die Produkte, welche das Unternehmen verlassen, einer Qualitätssicherung unterliegen sollen, sondern auch die Daten auch wenn sie nur innerhalb des Unternehmens zirkulieren. Ähnlich wie die höhere Produktqualität dem Unternehmen bessere Verkäufe und höhere Gewinne bringen, ermöglicht auch eine höhere Datenqualität bessere Verkäufe und höhere Gewinne. Abbildung 4: Der Zusammenhang zwischen Daten und Kernkompetenzen nach Yang W. Lee [ 32 ] PIMS Profit Impact of Market Strategy zu deutsch so viel wie Auswirkungen auf den Profit aufgrund der Marktstrategie ; Details dazu siehe [ 36 ] und [ 41 ]. 21 Grafik aus Seghezzi in [ 50 ], Seite 13, welches Buzzle/Gale: Das PIMS Programm (1989) zitiert. 22 Siehe Seghezzi in [ 50 ], Seite 10ff. 23 Siehe Vonlanthen in [ 62 ]; URL: 24 Siehe Huang et al. in [ 26 ], Seite 9ff. 25 Grafik übersetzt aus dem Englischen aus Huang et al. [ 26 ] Seite 115, welche Yang W. Lee in [ 32 ] zitieren. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 11 / 83

12 Möglicherweise lässt sich dies nicht so direkt erfassen und ausweisen, wie es in der PIMS Studie für die Produktqualität geschieht. Mit Sicherheit kann jedoch gesagt werden, dass aufgrund besserer Datengrundlagen die Qualität von Entscheidungen massgeblich verbessert wird. Wie dieses Problem im Detail aussieht, wird im Kapitel 1.5.4ff. genauer betrachtet Daten, Informationen, Wissen und Kernkompetenzen Die Grundlage für jedes Wissen sind Informationen. Grundlagen für Informationen sind Daten. Den direkten Zusammenhang zwischen Daten und Kernkompetenzen zeigt Lee in Form von Abbildung 4. Für den Aufbau und Erhalt von Kernkompetenzen ist es demnach wichtig, die grundlegenden Daten in einer entsprechenden Qualität zu speichern. Zusammen mit der expliziten Formulierung von stillschweigendem Wissen resultiert daraus das Organisationswissen, das nun unabhängig von Personen ist. Wird dieses Organisationswissen in einen spezifischen Kontext gesetzt, kann ein Best Practice aus diesem Wissen resultieren. Wird dieser Best Practice generalisiert für eine Wiederverwendung in anderen Bereichen des Unternehmens, resultiert daraus eine Kernkompetenz Datenqualitätsprobleme in der Entscheidungsfindung Eine effektive Unternehmensführung baut darauf auf, dass die Grundlagen für jede Entscheidung korrekt sind. Sind die Grundlagen dafür fehlerhaft, so kann die getroffene Entscheidung im schlimmsten Fall genau den gegenteiligen Effekt als den ursprünglich geplanten haben. Die im Kapitel 1.4 aufgeführten realen Beispiele zeigen, wie sehr ein Unternehmen auf korrekte Daten angewiesen ist. Ein gutes Beispiel für die Wichtigkeit von Daten hoher Qualität sind die diversen Cockpits, welche immer mehr Verbreitung finden. Abbildung 5 zeigt anhand eines Beispiels aus dem Bereich Human Resources, wie ein solches Cockpit aussehen könnte und welche Elemente es in etwa umfassen könnte. Allen Cockpits gemein ist die Tatsache, dass die Darstellungen auf Verdichtungen von Einzeldaten beruhen. Dazu werden die vorhandenen Daten nach verschiedenen Gesichtspunkten ausgewertet und dargestellt. Weisen die zugrunde liegenden Daten eine schlechte Qualität auf, so zeigt die Verdichtung der Daten etwas Falsches an, und die darauf beruhenden Entscheidungen und Massnahmen erreichen nicht das gewünschte Ziel. Abbildung 5: Beispiel eines Cockpits. In diesem Beispiel ein fiktives Cockpit aus dem Bereich HR Der dargestellte Bildschirm mit den enthaltenen Zahlen dieses Cockpits ist frei erfunden. Die Darstellung beruht auf Elementen aus real existierenden Cockpits verschiedener Softwarehersteller. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 12 / 83

13 Beispiel 1: Im Cockpit von Abbildung 5 werden aus irgendeinem Grund die Geburtsdaten mehrerer Personen falsch erfasst. Der Bereich Geschlechterverteilung nach Alter zeigt dadurch falsche Werte über die Altersverteilung der Mitarbeiter an. Möchte die Geschäftsleitung eine möglichst ausgewogene Altersverteilung im Betrieb erreichen, wird sie fortan Personen im falschen Altersbereich einstellen. Dadurch erreicht sie nicht eine bessere Altersstruktur der Mitarbeiter, sondern sie wird im Gegenteil in dem Altersbereich mehr Leute anstellen, in dem die Personen mit den falschen Geburtsdaten liegen. Ähnliches passiert in einem Aggregationssystem, wie sie es meistens in Managementinformationssystemen (MIS) verwendet wird. Ein Fehler in den Daten einer tieferen Stufe wird entsprechend verdichtet und hinauf propagiert, bis er schliesslich auf einer höheren Stufe zu einer Fehlaussage und damit zu einer Fehlentscheidung führen kann. Eine entsprechende Berechnung von Fehlerquoten in Arbeitsabläufen hat Würthele aufgezeigt 27. Sie wird in Abbildung 6 dargestellt. Durch die Fortpflanzung eines Fehlers von einem Prozessschritt zum Nächsten entstehen in den folgenden Prozessschritten weitere Fehler, welche sich im Extremfall derart aufsummieren können, dass die schliesslich angezeigte Information das Gegenteil von dem aussagt, was aufgrund korrekter Daten hätte angezeigt werden müssen. Abbildung 6: Berechnung von Datenqualitätsfehlern innerhalb eines Prozesses nach Würthele [ 89 ] Das uralte Bonmot der IT shit in shit out 28 findet hier einmal mehr seine Richtigkeit einfach indem die Auswirkungen nicht nur auf die IT beschränkt bleiben, sondern (seit die IT ein nicht mehr wegzudenkendes Werkzeug der Unternehmensführung ist) sich auf das ganze Unternehmen ausbreiten Wenn die mangelnde Datenqualität offensichtlich wird Vor allem Pannen können negative Auswirkung weit über das aktuelle operative Geschäft hinaus haben. Insbesondere der Vorfall vom Universitätsspital Zürich zeigt, dass Datenqualitätsprobleme sogar Auswirkungen auf die strategische Ebene eines Unternehmens haben können. Aufgrund dieser Panne (welche Teil einer ganzen Pannenserie ist, bei der es unter anderem auch um die Datenqualität von Metadaten der Spenderorgane ging) ist die Strategie des Universitätsspitals und von Stadt und Kanton Zürich akut gefährdet, ein nationales Kompetenzzentrum für Herzchirurgie zu werden. Die Fälle von Adecco, Hershey, Cisco und Nike zeigen, dass Fälle von schlechter Datenqualität die Unternehmensführung in arge Bedrängnis bringen können und die Bewältigung solcher Ereignisse riesige Mittel und Ressourcen verschlingen können, die für die operative Führung dann nicht zur Verfügung stehen. Im Normalfall werden Fälle mangelhafter Datenqualität von den Firmen nicht an die grosse Glocke gehängt, da Unregelmässigkeiten im Datenbestand dem Firmenimage grundsätzlich abträglich sind. Ist die Firma aber an der Börse kotiert, besteht eine Pflicht zur unverzüglichen Bekanntgabe mittels 27 Siehe Würthele in [ 89 ], Seite 85ff. 28 was soviel bedeutet wie "gibst Du einen Mist ins System, so erhältst Du als Resultat auch Mist". Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 13 / 83

14 Ad-hoc-Meldungen von Tatsachen, welche Einfluss auf den Kurs haben könnten 29. Es ist davon auszugehen, dass ohne diese Pflicht die Firmen Nike und Hershey die Öffentlichkeit wohl kaum informiert hätten Vorsprung durch die Gestaltung und Optimierung von Geschäftsprozessen Auch können ganze Geschäftsprozesse gestrafft, optimiert oder durch die optimale Nutzung völlig neu gestaltet werden. So konnte beispielsweise ein globaler Chemieproduzent sein Lager um 27 % reduzieren, ein grösserer US Lebensmitteldetaillist durch Konsolidierung der Beschaffungsinformationen 0.5 Mio. USD pro Jahr einsparen. Im Falle einer grösseren Bankenfusion wurde der Aufwand, die Kundendaten manuell zusammenzufügen, auf 225 Personentage geschätzt dadurch, dass die Arbeit durch Datenqualitäts-Software erledigt wurde, fielen lediglich 20 Personentage an. Nach Angaben eines Technologieberatungsunternehmens könnten Fluggesellschaften jährlich rund 650 Millionen USD einsparen alleine durch den Einsatz von RFID- Tags, dem damit verbesserten Wissen über den Aufenthaltsort der einzelnen Gepäckstücke und den dadurch verbesserten Prozessen. 31. Unabhängig von der Branchenzugehörigkeit kann durch den Einsatz von geeignetem Data- Reengineering 32 die Kundenausrichtung stark verbessert werden 33. Dies wiederum führt zu einer grösseren Kundenloyalität 34. Je mehr die Geschäftsprozesse integriert sind und auf der fehlerlosen Speicherung und Verarbeitung von Daten aufbauen, desto wichtiger ist es, diese Daten in einer definierten Qualität vorzuhalten. Unternehmen wie Federal Express haben ihr ganzes Geschäftsmodell so umgestellt, dass der Kunde immer und jederzeit den Aufenthaltsort und den Status seines Paketes abfragen kann 35. Die Firma Dell hat die ganze Wertschöpfungskette durch IT-Unterstützung optimiert 36. Dadurch konnten beide Unternehmen einen entscheidenden Marktvorteil erringen. Andersherum zeigt das Fallbeispiel des Flughafens Denver, dass die mangelhafte Datenqualität auch das operative Geschäft sehr stark einschränken oder sogar zum Erliegen bringen kann, wenn die Abhängigkeit von solchen Datenbanken sehr hoch ist, aber die enthaltene und verarbeitete Qualität nicht den Anforderungen entspricht Zusammenfassung Wie die vorherigen Kapitel zeigen, wirkt das Thema Datenqualität in verschiedene Bereiche eines Unternehmens hinein. Je nach Anwendung hat es das Potential, eine Firma komplett umzugestalten, indem es das Geschäftsmodell beeinflusst. Auf der anderen Seite gehört das Wissen des Managements um die Datenqualität zumindest für die Kernprozesse zum Risk Management, da ein Fall von schlechter Datenqualität das Unternehmen sehr schnell nachhaltig in ein schlechtes Licht rücken kann, wie der Fall Hershey zeigt. 29 In der Schweiz sind Ad-hoc-Meldungen im Kotierungsreglement der Schweizer Börse in Artikel 72 geregelt. Deutschland regelt dies mit 15 des Wertpapierhandelsgesetzes. Die US-Börsen kennen vergleichbare Regeln wie beispielsweise im New York Stock Exchange Listed Company Manual 201ff. 30 Siehe dazu die Details dieser Fälle in Tabelle Siehe Feder in [ 18 ]. 32 Unter Data-Reengineering versteht man das Überprüfen von Datenstrukturen in bestehenden Datensammlungen, die Neuordnung der verwendeten Entitäten und Attribute sowie der anschliessenden Migration der Daten in diese neue Strukturen. 33 Siehe Atkins in [ 4 ]. 34 Siehe Atkins in [ 3 ] und Huang et al. in [ 26 ], Seite 11ff. 35 Siehe Huang et al. in [ 26 ], Seite Siehe Fields in [ 19 ], Seite 230ff. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 14 / 83

15 Auf der anderen Seite taugt das Thema kaum für positive Werbung für die Firma. Weshalb? Sowohl der Kunde wie auch der Investor als die wichtigsten Stakeholder eines Unternehmens gehen stillschweigend davon aus, dass das Unternehmen ihre Prozesse und die Daten im Griff hat. Eine aktive Kommunikation zu diesem Thema kann sogar eher den Eindruck erwecken, dass man es bisher nicht im Griff gehabt habe Gesetzliche und regulatorische Anforderungen zum Thema Datenqualität Aus der Fülle der gesetzlichen und regulatorischen Anforderungen, in welchen die Qualität der Daten eine entscheidende Rolle spielt, kann hier nur eine Auswahl aufgeführt werden: Pflicht zur Etablierung eines Internen Kontrollsystems gemäss OR728a Mit der Revision des Schweizerischen Obligationenrechts zur Revision wird den Unternehmen vorgeschrieben, ein funktionierendes internes Kontrollsystem aufzubauen: Die Revisionsstelle prüft, ob: 4. ein funktionierendes internes Kontrollsystem existiert; 37 Ein internes Kontrollsystem baut vorzugsweise auf vorhandenen Daten auf, welche an irgendeinem Ort eingegeben, in den meisten Fällen noch verarbeitet (beispielsweise verdichtet) werden, bevor sie in einem Kontrollsystem angezeigt werden. Ist die Datenqualität eines derartigen Kontrollsystems schlecht, werden in ihm schlussendlich auch Werte angezeigt, welche nicht der Realität entsprechen oder im schlimmsten Fall sogar der Realität widersprechen. Ein Kontrollsystem, das auf minderwertigen Daten aufbaut, würde nutzlos oder sogar gefährlich, weil aufgrund dieser minderwertigen Daten Entscheidungen getroffen werden, die nicht den gewünschten Effekt zeigen. Diese Revision wird voraussichtlich im Juli 2007 in Kraft treten Geldwäschereigesetz (GwG) Das Geldwäschereigesetz muss von jeder in der Schweiz tätigen Unternehmung beachtet werden, welche im weitesten Sinn mit Finanztransaktionen zu tun hat. Darunter fallen neben den Banken auch die so genannten Finanzintermediäre, welche in treuhänderischer Funktion Gelder von Kunden entgegen nehmen und verwalten. Verhindert werden soll mit diesem Gesetz das Verschleiern und Verwischen der Herkunft der Gelder aus verbrecherischer Tätigkeit wie beispielsweise dem illegalen Handel mit Drogen, Waffen und Menschen oder aus Erpressungen. Neben der darin enthaltenen Sorgfaltspflicht enthält es auch eine Dokumentationspflicht, welche sicherstellen soll, dass alle getätigten Transaktionen lückenlos belegt werden können. Weiter muss der Finanzdienstleister die wirtschaftlichen Hintergründe und den Zweck einer Transaktion abklären, bevor er sie durchführt und muss ungewöhnliche Transaktionen rechtzeitig erkennen, damit er sie genauer untersuchen kann. Dazu muss er alle bisherigen Transaktionen untersuchen und klassifizieren, damit allfällige Muster erkennbar werden. Wird diese Klassifizierung ungenügend durchgeführt, so fallen ungewöhnliche Transaktionen weniger schnell auf und können so zu einem Reputationsrisiko des entsprechenden Finanzinstitutes und des ganzen Bankenplatzes werden. 37 Siehe Änderung zum Firmenrecht unter [ 39 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 15 / 83

16 Datenschutzgesetz Das Datenschutzgesetz bezweckt den Schutz der Persönlichkeit und der Grundrechte von Personen, über die Daten bearbeitet werden 38. Artikel 5 (Richtigkeit der Daten) sagt dazu aus: 1. Wer Personendaten bearbeitet, hat sich über deren Richtigkeit zu vergewissern. 2. Jede betroffene Person kann verlangen, dass unrichtige Daten berichtigt werden. Damit muss jeder, der Daten zu einer Person speichert, sicherstellen, dass diese richtig sind. Betroffene haben dadurch einen direkten Rechtsanspruch, dass die gespeicherten Daten der Realität entsprechen und dadurch eine entsprechende Qualität (im Sinne von Korrektheit) haben. Personen, Unternehmen und Ämter, welche personenbezogene Daten speichern, haben nicht nur aus Eigennutz ein Interesse an korrekten Daten, sondern müssen sich auch diese genannte gesetzliche Vorgabe halten Mehrwertsteuergesetz Zur korrekten Abrechnung der Mehrwertsteuer müssen verschiedene Parameter wie der Ort von Lieferungen, Dienstleistungen und Eigenverbrauch berücksichtigt werden. Weiter müssen die Artikel nach den verschiedenen Mehrwertsteuersätzen klassiert werden. Werden diese Parameter falsch erfasst, so errechnet die eingesetzte Software einen zu hohen oder zu tiefen Mehrwertsteuerbetrag. Bei einer Kontrolle durch die Steuerbehörden kann dies zu massiven Steuernachforderungen führen, wenn die verwendeten Parameter nicht mit denen der Behörden übereinstimmen Basel II Durch Basel II ist jedes Kreditinstitut verpflichtet, seinen Kunden die Kredite risikogerecht zu belasten. Ein solches Rating steht und fällt mit der Verfügbarkeit von korrekten Daten. Wie die Wirkungskette von Daten die Realität überlisten kann, ist bereits im Kapitel dargelegt worden. Werden solche Daten zur Beurteilung eines Ratings eingesetzt, ist es für alle Beteiligten wichtig, die Treibergrössen auf das Rating korrekt zu erfassen und zu verarbeiten. Abbildung 7: Die Treiber für den Shareholder Value Schlägt die korrekte Beurteilung eines Kreditnehmers fehl, so können dadurch folgende Risiken entstehen: Der Kreditnehmer muss zuviel für sein Fremdkapital bezahlen, weil er zu ungünstig eingeschätzt wurde. Die Bank hat unbewusst ein grösseres Kreditrisiko als ausgewiesen. Dadurch kann es im Extremfall trotz der regulatorischen Massnahmen zu einem Bankenzusammenbruch kommen. Die Bank verliert einen möglicherweise guten Kunden, weil er bei einer anderen Bank ein besseres Rating und damit günstigeres Fremdkapital erhält. Eine korrekte Beurteilung des Unternehmens ist also sowohl aus Sicht der Bank als auch aus Sicht des beurteilten Unternehmens sehr wichtig. 38 Zitat aus dem Bundesgesetz über den Datenschutz, Artikel 1 (Zweck) aus [ 9 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 16 / 83

17 Solvency II Solvency II ist ein neues Aufsichtsmodell für die Versicherungsbranche und damit sozusagen das Versicherungs-Gegenstück zu Basel II. Der Inhalt von Solvency II als Weiterführung der Solvency I -Richtlinien ist insbesondere die risikogerechte Ausgestaltung von Versicherungsprämien und Eigenkapitalquoten sowie die Harmonisierung der Aufsicht von Versicherungen innerhalb der EU 39. Wie schon bei den Richtlinien zu Basel II gezeigt, ist auch hier die Qualität der Daten entscheidend, aufgrund derer die Einschätzung der Versicherungskunden vorgenommen wird. Solvency II wird voraussichtlich 2008 von den einzelnen Mitgliedsstaaten umgesetzt werden EU-Richtlinie über Märkte für Finanzinstrumente (MiFID) Die Richtlinie 2002/92/EG des Europäischen Parlaments und des Rates vom 9. Dezember 2002 über Versicherungsvermittlung 40 soll die Finanzmärkte im europäischen Binnenmarkt harmonisieren. Das Ziel der so genannten MiFID-Richtlinie (Abkürzung für Markets in Financial Instruments Directive ) ist es, dass Finanzinstitute in erster Linie die Interessen ihrer Kunden wahrnehmen müssen. Darin enthalten ist beispielsweise die Vorschrift, dass Kundenaufträge zu den für den Kunden günstigsten Konditionen ausgeführt werden müssen bezüglich Kurs, Kosten, Schnelligkeit, Wahrscheinlichkeit der Ausführung und Abwicklung des Umfanges sowie weiterer Kriterien 41. Um diese Vorschrift erfüllen zu können muss der Finanzdienstleister überhaupt selbst einen Überblick haben, wie und wo diese Aufträge am günstigsten ausgeführt werden können. Dazu muss er die Preise und Konditionen an den verschiedenen Märkten genau im Blick haben. Eine entsprechend gefütterte Datenbank muss daher stets auf dem neusten Stand sein Sarbanes Oxley Act (SOX) Der Sarbanes Oxley Act of im Speziellen der Abschnitt 404 ( Management Assessment of Internal Controls ), welcher im Folgenden mit SOX 404 referenziert wird schreibt Unternehmen, welche an US-Börsen kotiert sind, ein Mindestmass an internen Kontrollen vor. Dieses Gesetz wurde als Folge der spektakulären Firmenzusammenbrüche von Enron und Worldcom vom US-Senat verabschiedet, damit Anleger und Investoren wieder vermehrt Vertrauen in die börsenkotierten Unternehmen haben. Im Rahmen von SOX 404 müssen die betreffenden Unternehmen ein Netz von Qualitätsmessstellen im Unternehmen aufbauen, mit dessen Hilfe sie sicherstellen können, dass die Unternehmensbilanz schlussendlich die Werte ausweist, die auch den Gesetzen und der Realität entsprechen. Dieses Netz geht weit über die normale Kostenrechnung hinaus und umfasst beispielsweise auch das Change Management von unternehmenskritischen Applikationen und Systemen. Hier muss beispielsweise über nahtlose Audit Trails nachgewiesen werden können, welche Änderungen in verarbeitenden Applikationen durchgeführt wurden. Damit werden auf einen Schlag viele Applikationen und Datenbanken interessante Lieferanten von SOX 404 relevanten Informationen, welche nicht direkt im Kernprozess des Unternehmens positioniert sind. Solche Applikationen und Datenbanken werden nun Teil des internen Zertifizierungsprozesses und somit für das korrekte Ausweisen des Geschäftserfolgs immer wichtiger. Eine gute Datenqualität in diesem Bereich ist somit wichtig für die internen Kontrollprozesse und sind so die Versicherung der Manager, die jeweils Dutzende von Dokumenten unterschreiben müssen, ohne deren Inhalt im Detail kontrollieren zu können. 39 Siehe dazu Kuli in [ 31 ]. 40 Siehe dazu den Gesetzestext der EU-Richtlinie 2004/39/EG unter [ 16 ]. 41 Die genannten Kriterien werden so ausdrücklich aufgeführt in Artikel 21 der EU-Richtlinie unter [ 16 ]. 42 Siehe Gesetzestext des US-Kongresses. Quelle unter [ 49 ] Benannt nach den beiden US-Senatoren Paul S. Sarbanes (Demokrat) und Michael Oxley (Republikaner), welche dieses Gesetz massgeblich verfasst hatten. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 17 / 83

18 USA PATRIOT Act Für Unternehmen, welche in der Finanz- oder Transportbranche tätig sind und mit den USA Geschäftskontakte unterhalten, ist der USA PATRIOT Act (vollständiger Name Uniting and Strengthening America by Providing Appropriate Tools Required to Intercept and Obstruct Terrorism Act of 2001" 43 ein weiterer wichtiger Rahmengeber. Dieses Gesetz sieht vor, dass Finanzinstitute verdächtige Kunden und Transaktionen erkennen müssen. Fluggesellschaften müssen zudem verschiedene Informationen an die US-Regierung übermitteln. Sind diese Daten fehlerhaft, so kann einem Flugzeug die Landeerlaubnis verweigert werden, wenn dieses eine der US-Regierung ungenehme Person an Bord hat mit entsprechenden terminlichen und finanziellen Folgen 44. Eine entsprechende Qualität der übermittelten Daten ist also sowohl im Interesse der Fluggesellschaft als auch der US-Behörde. Wird eine Person fälschlicherweise als gefährlich eingestuft, hat dies langwierige Flüge über Ausweichrouten oder Zwischenlandungen zur Folge wird eine Person fälschlicherweise nicht als gefährlich eingestuft, so kann dies schwerwiegende politische Folgen haben. Interessanterweise trägt aber das Risiko in jedem Fall nicht die US- Regierung, sondern der einzelne Passagier und die Fluggesellschaft Organisatorische Einordnung des Themas im Unternehmen Das klassische Qualitätsmanagement wird von verschiedenen Autoren als Querschnittsfunktion im Unternehmen verstanden 45, vor allem deshalb, weil bei einer effektiven und effizienten Umsetzung verschiedenste Disziplinen innerhalb und ausserhalb des Unternehmens eingebunden werden wie Informatik, Marketing, Statistik, Operations Research, die Verhaltens- und Organisationswissenschaften sowie das Controlling. Bei der Datenqualität verhält es sich ähnlich, wenn Datenqualitätsmanagement als Teilgebiet des Qualitätsmanagements verstanden wird. Andererseits treffen viele Bereiche der normalen Qualität nicht zu und es müssen zusätzliche Aspekte gegenüber dem klassischen Qualitätsmanagement berücksichtigt werden Datenqualität als Risiko Management Viele der unter Kapitel 1.4 aufgeführten Fälle zeigen, dass sich für das Thema Datenqualität niemand wirklich interessiert bis ein Vorfall, der auf schlechte Datenqualität zurückzuführen ist, hohe Wellen wirft. Das Problem muss ja nicht gleich publik werden auch interne Konflikte binden jeweils viele Ressourcen, die bei rechtzeitiger Aufmerksamkeit nicht hätten eingesetzt werden müssen. Daher geht es beim Thema Datenqualität insbesondere bei geschäftskritischen Daten in erster Linie um Risikomanagement. Bei nicht-geschäftskritischen Anwendungen ist in jedem Fall zu prüfen, welche Rolle diese Datenbank auf die Geschäftstätigkeit hat. Auch wenn nicht direkt ein Einfluss auf die unmittelbaren Geschäftsprozesse erkennbar ist, wird es doch der Normalfall sein, dass solche Daten in irgendeiner Weise in die Geschäftstätigkeit einfliessen. Andernfalls müsste der Einsatz dieser Applikation oder Datenbank im Unternehmen grundsätzlich in Frage gestellt werden. Folglich ist es also nicht eine Frage, wo das Thema der Datenqualität für die verschiedenen Applikationen und Datenbanken angesiedelt wird, sondern wie intensiv sich das Thema für die einzelnen Applikationen und Datenbanken auswirkt. 43 Siehe Gesetzestext des US-Kongresses. Quelle unter [ 59 ] zu Deutsch etwa Gesetz zur Stärkung und Einigung Amerikas durch Bereitstellung geeigneter Werkzeuge, um Terrorismus aufzuhalten und zu blockieren". Übersetzung aus Wikipedia [ 83 ]. 44 Siehe dazu auch [ 51 ] und der Auszug aus dem Artikel von Spiegel Online unter Kapitel Siehe dazu Henning in [ 24 ], Seite 3. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 18 / 83

19 Datenqualität als Management-Thema Betrachtet man die potentiell kritischen Auswirkungen von schlechter Datenqualität, so ist es unabdingbar, dass das Thema Datenqualität seine Aufmerksamkeit im Management erhält. Ohne die notwendige Unterstützung aus der Geschäftsleitung ist es schwierig, die für eine Überprüfung und Sicherung der Datenqualität notwendigen Ressourcen zugesprochen zu bekommen und einzusetzen. Inzwischen liegen aber genügend Methodologien und Studien vor, welche es einem ermöglichen, die schlechte Datenqualität im Unternehmen zu identifizieren und quantifizieren. Literatur, welche sich mit den Kosten von schlechter Qualität und Datenqualität befassen, existiert inzwischen auch im deutschsprachigen Raum 46. Aufgrund dieses Sekundärmaterials sollte es heute möglich sein, entsprechende Business Cases zu erstellen und dadurch dem Management die Wichtigkeit des Themas klar machen zu können Datenqualität und Marketing Sieht man die beschriebenen Chancen aus Kapitel 1.5.6, so muss das Thema Datenqualität auch aus dem Blickwinkel des Marketings und dessen Chancen und Möglichkeiten betrachtet werden. Gehört es sogar zu den Kernkompetenzen eines Unternehmens, mit Informationen zu handeln (wie beispielsweise bei den Firmen Reuters oder Telekurs), dann verdient die Datenqualität der verbreiteten Informationen eine zusätzlich höhere Aufmerksamkeit als in anderen Firmen. Trotzdem sollten auch andere Unternehmen analog zu Federal Express (wie in Kapitel 1.1 beschrieben) die im Unternehmen enthaltenen Informationen als extern wahrgenommenes Produkt verstehen. Dies ergibt gegenüber der Konkurrenz ein Vorsprung, was sich wiederum in Umsatz und Gewinn niederschlägt. Umgekehrt stellt das Marketing Funktionen und Verfahren zur Verfügung, mit denen sich die Zufriedenheit der Datenempfänger und verwender eruieren lässt und sich somit eine indirekte Einschätzung der Datenqualität erreichen lässt. Diese Erhebungen spielen dann eine Rolle, wenn es darum geht, die weichen Faktoren der Datenqualität zu beurteilen Datenqualität und Business Intelligence Im Rahmen von Business Intelligence (BI) werden verschiedene bestehende Datenbanken innerhalb und ausserhalb des Unternehmens in Data Warehouses zusammengeführt mit dem Ziel, mittels Data Mining neue Geschäftsaktivitäten zu entdecken, bestehende Prozesse zu straffen, Risiken zu minimieren und die Wertschöpfung zu vergrössern. Diese Business Intelligence wird heute meistens projektmässig aufgebaut und mittelfristig als eigene Organisationseinheit geführt. Da im Rahmen von BI-Aktivitäten dauernd mit Daten aus den verschiedensten Bereichen des Unternehmens gearbeitet wird, ist es ein viel versprechender Ansatz, das firmeneigene Kompetenzzentrum für Datenqualität in dieser OE anzusiedeln. 46 Siehe dazu auch die Verfahren, die Kosten zu berechnen von Loshin in [ 34 ] und Hinrichs in [ 25 ]. 47 Siehe dazu die Aufteilung der einzelnen Datenqualitätsfaktoren im Datenqualitäts-Radar von Würthele in Kapitel wo neben den harten Faktoren auch weiche Faktoren eine Rolle spielen. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 19 / 83

20 2. Was ist Datenqualität 2.1. Was ist Qualität Herkunft und Ursprung Der Begriff Qualität stammt aus dem Lateinischen qualis, welches wie beschaffen bedeutet 48. Eine weitergehende Definition des Begriffs erweist sich als schwierig, da er von verschiedenen Wissenschaftszweigen auf unterschiedliche Art behandelt wird 49 und sich wegen der dynamischen Entwicklung des Qualitätsmanagements das Verständnis des Begriffes seit den 50er Jahren stark verändert hat 50. Zu Beginn wurde Qualität vor allem als Ergebnis eines Prozesses betrachtet und Qualität wurde vor allem als Qualitätskontrolle verstanden. Als Werkzeug wurde seit ca vor allem die Statistik verwendet. Ab ca kam die Dimension des Prozesses dazu. Qualität wurde nun mehr als Querschnittsfunktion verstanden und bezog zunehmend auch die vor- und nachgelagerten Prozesse mit ein. Eine Folge dieses Denkens waren die Normen ISO 9000 und folgende. Damit kam das Qualitätsmanagement auf. Abbildung 8: Die Entwicklungsphasen des Qualitätsmanagements 51 Erst ab 1990 entstand das Verständnis für eine Qualitätsbetrachtung vom Kunden her (intern oder extern) und von Qualität als undelegierbare Managementaufgabe. Qualität wird als Unternehmensaufgabe verstanden 52 und mit TQM-Systemen wie dem EFQM-Modell 53 umfassend messbar gemacht. Als Weiterentwicklung dieses Konzeptes präsentierte Seghezzi eine Hierarchie der Qualität, die auch noch die Gesellschaft mit einbezieht. 54. Die in diesem Konzept enthaltene Grafik ist in Abbildung 9 ersichtlich. 48 Siehe Pira, 1999, in [ 42 ], Seite Siehe Wonigeit, 1994, in [ 88 ], Seite Siehe Wonigeit, 1994, in [ 88 ], Seite 32ff. 51 In Anlehnung an Pira, 1999, in [ 42 ], Seite Siehe Pira, 1999, in [ 42 ], Seiten 6ff. 53 Definition und Erläuterung des EFQM-Modells in [ 17 ]. 54 Siehe Seghezzi, 1996, in [ 50 ], Seite 27. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 20 / 83

21 Qualität kann nach diesem Konzept nur in einer Gesellschaft mit entsprechenden kulturellen, zivilisatorischen und infrastrukturellen Voraussetzungen entstehen. Erst dies ermöglicht es einer Unternehmung überhaupt, ein Qualitätsbewusstsein zu entwickeln und damit ein eigenes Qualitätsmanagement-System aufzubauen. Dieses sollte als primären Fokus die Prozesse haben. Denn erst wenn diese eine entsprechende Qualität aufweisen, kann auch die erbrachte Leistung die benötigte Qualität aufweisen. Abbildung 9: Die Hierarchie der Qualität nach Seghezzi Generelle Definition von Qualität Im Grunde genommen ist der Begriff Qualität wertneutral und enthält weder eine positive noch eine negative Wertung. Trotzdem wird der Begriff fast immer mit guter Qualität in Verbindung gebracht. Qualität kann auch nicht vorhanden oder absent sein, sondern begleitet den Menschen als Einschätzungshilfe für jede Art von Produkten und Dienstleistungen Bekannte Qualitätsnormen Abgestufte Qualitätsnormen Die wohl bekannteste Qualitätsnorm ist die Benotung in der Schule. Dabei wird über eine festgelegte Abstufung die Leistung der Schüler oder von Arbeiten ausgedrückt und damit auch die Qualität dieser Leistung respektive des Schülers insgesamt. Eine weitere einfache und auch eine der geläufigsten Qualitätsnormen ist die Einteilung von Hotels in Klassen, welche sich in der Vergabe von Sternen äussert. Dabei wird das Hotel regelmässig bezüglich verschiedener vorher festgelegter Qualitätskriterien überprüft und allenfalls die Einstufung verändert, wenn das Hotel diesen geforderten Kriterien nicht genügt - oder es diese übertrifft. Diese Norm ist inzwischen so verbreitet, dass die Systematik vor allem innerhalb der Gastronomiebranche weit verbreitet ist: So vergeben beispielsweise Gastronomiekritiker Kochlöffel und Kochmützen oder Schweiz Tourismus vergibt Q s. Aber auch andere Branchen haben dieses System adaptiert: der Euro-NCAP Crashtest vergibt Sterne für die Sicherheits-Klassifizierung von Autos und verschiedenste Zeitschriften und Webseiten vergeben für die vereinfachte Beurteilung von getesteten 55 Grafik nachgezeichnet aus Seghezzi, 1996, in [ 50 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 21 / 83

22 Produkten eine Anzahl Sterne oder Symbole, welche der Corporate Identity des vergebenden Unternehmen entsprechen. Auch die Unternehmens-Einstufungen von Rating-Agenturen wie Moody s und Standard & Poor s sind ein Ausdruck davon, wie gut die Qualität eines Unternehmens ist, eingegangenen finanziellen Verpflichtungen nachzukommen. Vor allem im Lebensmittelbereich sind noch viele weitere abgestufte Qualitätsauszeichnungen im Gebrauch: Die Auszeichnung von hochwertigem Cognac, Lachs oder Kaviar mit Sternen ist nur eine kleine Auswahl von Versuchen der Hersteller, ihr eigenes Sortiment so zu differenzieren, dass der Kunde auch sicher sein kann, für den bezahlten Preis eine angemessene Qualität zu erhalten Einstufige Qualitätsnormen Neben den abgestuften Qualitätsnormen gibt es auch eine ganze Reihe von einstufigen Qualitätsnormen. Diese sind wesentlich einfacher zu handhaben und dem Kunden auch wesentlich einfacher zu kommunizieren. Dabei geht es in der Regel darum, dass die Produkte oder Dienstleistungen, welche diese Auszeichnung tragen, bestimmte, vorher definierte Anforderungen erfüllen. Die Palette der Label geht von der Materialbeschaffenheit ( Reine Schurwolle ), Produkteigenschaften ( Minergie-Haus ) und Dienstleistungsqualität ( eduqua ) über Versprechen im Umweltbereich ( Bio, FSC-Holz ) bis zum Einhalten von sozialen Standards ( Max Havelaar ). Eine weitere Variante der einstufigen Qualitätsnorm ist die Wahl von Produkten des Jahres, die in verschiedenen Zeitschriften, Organisationen und Fernsehsendungen gepflegt werden. So soll die Vergabe von Auszeichnungen wie dem Oskar, dem Grammy, dem Auto des Jahres aber auch Titel wie Miss Universe dem Publikum eine Hervorhebung signalisieren, dass es sich dabei um das Beste vom Besten handelt. Das Problem solcher Auszeichnungen liegt jedoch in der Behauptung, solche Preisträger seien das Beste vom Besten, denn eine solche Beurteilung muss hochgradig subjektiv sein. Zuerst erfolgt eine Beurteilung der verschiedenen Leistungsmerkmale. Diese kann sehr oft noch relativ objektiv erfolgen problematisch wird es aber dann, wenn eine Beurteilung erfolgen soll, ob eine höhere Klassierung im Kriterium A oder B als besser einzustufen ist. Kommen dann noch Kriterien wie die Ästhetik mit ins Spiel, ist eine Objektivität noch schwieriger zu begründen Definition Aufgrund von Normen Qualität ist die Übereinstimmung zwischen den festgestellten Eigenschaften und den vorher festgelegten Forderungen einer Betrachtungseinheit. 56 Ähnlich sieht dies auch die DIN Norm 8402 für die Qualitätsbewertung: Qualitätsbewertung ist eine systematische Untersuchung, inwieweit eine Einheit fähig ist, die festgelegte Qualitätsanforderung zu erfüllen. 57 Diese generellen Mindestdefinitionen scheinen einerseits simpel, andererseits enthalten sie bereits die entscheidenden Punkte für eine erfolgreiche Messung: 1. Man muss vor der Messung definieren, welche Einheiten untersucht werden sollen 2. Man muss vor der Messung definieren, welche Eigenschaften untersucht werden sollen 3. Man muss vor der Messung definieren, wann eine Forderung als erfüllt gilt 4. Man muss vor der Messung die Qualitätsanforderungen dokumentieren Erst durch diese Definitionen kann geprüft werden, ob eine zu untersuchende Einheit (von Daten) die gestellten Anforderungen überhaupt erfüllt. Das Stellen dieser simplen Anforderungen führt dazu, dass sich jemand (zum Teil erstmalig) darüber Gedanken macht, was ihm in welcher Qualität überhaupt wichtig ist. 56 Definition nach IEC Auszug aus DIN EN ISO 8402, , Ziffer 4.6 (Begriffsdefinitionen für ISO 9000), Quelle unter [ 47 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 22 / 83

23 Dies wird insbesondere dann wichtig, wenn man deren Verwendungszweck mit einbezieht: Man wird wohl kaum Tafeläpfel der Klasse 1A kaufen, wenn man damit Apfelessig herstellen will. Somit ist es nicht entscheidend, dass man immer Top-Qualität erreicht. Entscheidend ist, dass das verwendete Produkt die daran gestellten Anforderungen erfüllt. Somit muss man sich im Klaren sein, wie man etwas verwenden will, bevor man die Anforderungen an deren Qualität definiert Erweiterte Definition aus der Literatur In der produzierenden Industrie existieren verschiedene Ansätze, die Dimensionen der Qualität zu unterscheiden. Garvin definierte 1987 acht Dimensionen der Qualität: Performance Primäre Betriebscharakteristiken 2. Features Charakteristiken, welche die die Basisfunktionen des Produktes ergänzen 3. Reliability Wahrscheinlichkeit der Fehlfunktion oder des Ausfalls innerhalb eines spezifizierten Zeitraums 4. Conformance Der Grad der Übereinstimmung des Produktes mit gängigen Standards 5. Durability Der Nutzen, den man aus diesem Produkt gewinnt, bevor es ausser Betrieb genommen werden muss 6. Serviceability Geschwindigkeit, Verbindlichkeit, Kompetenz und Reparaturfreundlichkeit des Produktes 7. Aesthetics Wie das sich Produkt über die Sinne wahrnehmen lässt 8. Perceived Quality Rückschlüsse auf die Qualität auf der Basis von Image, Markenname (Brand) und der Werbung für dieses Produkt und diese Firma. Ein alternativer Ansatz von Garvin ein Jahr später versuchte, die Perspektiven von verschiedenen Wissenschaftsdisziplinen zu definieren. Dabei verglich er die verschiedenen Qualitätskonzepte verschiedener Autoren: Wert Feigenbaum (1951); Abbott (1955) Übereinstimmung mit Spezifikationen Levitt (1972); Gilmore (1974) Übereinstimmung mit Erfordernissen Crosby (1979) Ständige Verbesserung, da Definition im Grundsatz unmöglich ist Deming (1982) Fitness for use Juran und Gryna (1988) Die daraus gewonnenen Ansätze von Garvin sowie die Bereiche, in denen diese Ansätze gemäss Wagner favorisiert werden, sind in Tabelle 2 aufgezeigt. Nach Wagner haben alle diese Definitionen ihre Berechtigung und werden in der Praxis auch eingesetzt. 58 Siehe Garvin, 1987 in [ 20 ], Seiten 101ff., zitiert und übersetzt aus Wagner, 2005 in [ 64 ], Seite Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 23 / 83

24 Ansatz Kriterium Definition Transzendenter Ansatz Qualität, man weiss, was es ist und man weiss es doch nicht. Aber manche Dinge sind nun mal besser als andere, das heisst, sie haben mehr Qualität Pirsig, 1991, S. 189 Produktorientierter Ansatz differences in quality often consist of differences in the quality of some desired ingredient or attribute. Abbott, 1955, S. 126ff. Herkunft Philosophie Wirtschaftswissensch aften Probleme Kernaussagen Operationalisierbarkeit wird favorisiert von Qualität ist der absolut höchste Standard der Güte einer Leistung. Auch wenn der Begriff nicht exakt definierbar ist, so weiss doch jeder, wann er Qualität vor sich hat. Vage Definition; keine exakte Anwendbarkeit. Kaum operationalisierbar, nicht zum Aufbau eines Messinstrumentarium s geeignet. Kunden und Marketeers Qualitätsunterschiede lassen sich zurückführen auf Unterschiede in der Menge eines Bestandteils oder Attributes die zu einer Leistung gehören. Lässt subjektive Komponente der Einstellungen unberücksichtigt. Käufer können unterschiedliche Massstäbe anlegen. Produktorientierte Qualitätsindikatoren können durch Kommunikationspoliti k der Unternehmen zu Massstäben gemacht werden. Sehr gut operationalisierbar; objektiv messbar; Bildung von Rangfolgen möglich; Kontrolle einmal gesetzter Qualitätsstandards ohne Probleme möglich. Kundenorientierter Ansatz Quality is fitness for use. Juran, 1974, Sec. 2-2 Qualität ist der Grad der Eignung eines Produktes für bestimmte Verwendungszwecke und Nutzenerwartungen. Wimmer, 1987, S. 507 Marketing Ausschliesslich der Kunde bestimmt die Qualität einer Leistung. Qualität ist damit hochgradig subjektiv. Verdichtung einer grossen Anzahl unterschiedlicher Qualitätsurteile zu einem generellen Qualitätsurteil. Gefahr der Gleichsetzung von Qualität und Kundenzufriedenheit. Messinstrumentarium entwickelbar; Anwendung der Methoden der Einstellungsmessung. Herstellungsorientierter Ansatz we must define quality as conformance to requirements. Crosby, 1979, S. 17 Qualitätssicherung und -kontrolle der Produktion Die tatsächlich erbrachte Leistung muss den zuvor festgesetzten Normen und Regeln entsprechen. Enge Auslegung des Qualitätsbegriffes auf Produktionssicht. Festlegung der Standards und Normen muss häufig subjektiv geschehen. Damit erfolgt eine willkürliche Festlegung der Personen, die festlegen, was Qualität ist. Sehr gut operationalisierbar; Messinstrumente vorhanden; Kontrolle und Messung der Abweichung von den festgelegten Standards. Wertbasierter Ansatz Quality means best for certain customer conditions. These conditions are (a) the actual use and (b) the selling price of the product. Feigenbaum, 1961, S. 1 Nutzentheorie Marketing Qualität ist definiert als Austauschverhältnis. Das Individuum als Nutzenmaximierer wägt zu erbringendes Opfer und zu erwartenden Nutzen ab und begründet hierauf sein Qualitätsurteil. Hochgradig subjektiver Ansatz. Qualität wird nicht einer Leistung zugeordnet sondern einem Austauschverhältnis. Schwierigkeiten bei der Operationalisierung. F & E Angehörige Marketeers Produktion Finanzchefs, mündiger Kunde Tabelle 2: Die Qualitätsbegriffe nach Garvin, erweitert um die Favorisierung nach Wagner Siehe Garvin, 1988 in [ 21 ], zitiert aus Wagner, 2005 in [ 64 ], Seite Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 24 / 83

25 2.3. Was ist Datenqualität Definition im deutschsprachigen Raum Datenqualität ist ein mehrdimensionales Mass für die Eignung von Daten, den an ihre Erfassung/Generierung gebundenen Zweck zu erfüllen. Diese Eignung kann sich über die Zeit ändern, wenn sich die Bedürfnisse ändern. 60 Diese Einordnung dieser Definition anhand der Tabelle 2 zeigt, dass hier ein herstellerorientierter Ansatz vorliegt, dessen Messung sehr gut operationalisiert werden kann. Die Komplexität der Definition wiederum zeigt aber wiederum, dass hier die Datenqualität nicht auf einer simplen Skala dargestellt werden kann, wenn man alle Aspekte in Betracht ziehen will. Bei der Berücksichtigung aller Punkte müssten mehrere Dimensionen zur Darstellung bemüht werden. Dies wiederum stellt erhöhte Anforderungen an die Personen, die die Datenqualität messen und überwachen. Zudem werden mehrdimensionale Grafiken nicht von allen auf Anhieb verstanden. Aus diesem Grund ist es notwendig, eine vereinfachte Definition von Datenqualität heranzuziehen, welche die Komplexität bricht und trotzdem den Fokus auf der Fitness for use behält: Gute Datenqualität liegt dann vor, wenn die Daten den vom Nutzer verlangten Zweck erfüllen. 61 Diese Definition kann in die Kategorie des kundenorientierten Ansatzes aus Tabelle 2 eingeordnet werden Datenqualität und Information Quality In der englischsprachigen Literatur wird der Begriff Datenqualität mehrheitlich als Information Quality verwendet. Die deutschen Begriffe Daten und Informationen werden oft synonym verwendet sagen aber nicht das selbe aus. Informationen werden meist als verarbeitete Daten verstanden 62. Im Zusammenhang mit dieser Arbeit und der Messung von Datenqualität spielt es eigentlich keine Rolle, welcher Begriff verwendet wird, da die Messung sowohl vor als auch nach der Verarbeitung erfolgen kann und muss. Standardliteratur wie Quality Information and Knowledge [ 26 ] propagiert denn auch, dass diesbezüglich nicht unterschieden werden soll Geschichte des Begriffs Datenqualität Wie Würthele beschreibt 64, ist der Begriff noch relativ jung (seit ca. 1995) und sein Verständnis uneinheitlich 65 ähnlich wie im Kapitel 2.2 für den Begriff Qualität aufgezeigt. Von einer einheitlichen Begriffsbenutzung ist man weit entfernt und entsprechende Prozesse und Metriken zur reproduzierbaren Erhebung von Datenqualität fehlen vielfach. Die in dieser Arbeit verwendeten Begriffe und Zusammenhänge bauen auf dem Begriffsnetz von Würthele auf, da dieses als einziges auch die weichen Faktoren 66 mit einbezieht. 60 Siehe Würthele, 2004 in [ 89 ], Seite Siehe Wang et al. in [ 63 ]. 62 Siehe Huang et al. In practice, managers differentiate information from data intuitively and describe information as data, that have been processed in [ 26 ], Seite 13 und Stahlknecht et al. in [ 53 ], Seite Siehe Huang et al. Unless specified otherwise, this book will use 'information' interchangeably with 'data' in [ 26 ], Seite Siehe Würthele, 2004 in [ 89 ] Seite 12: Exakte Definitionen oder gar eine Metrik, welche es erlaubt, die unternehmensweite Datenqualität messbar zu machen, fehlen bisher jedoch völlig / Seite 18: Breit etablierte, einheitliche Definitionen fehlen, d.h. Begriffe werden uneinheitlich und auf völlig unterschiedlichen Abstraktionsebenen verwendet. 65 Siehe Huang et al. in [ 26 ], Seite 16: A comprehensive survey of the literature, however, shows that there is no general agreement on information quality dimensions. 66 Für die Definition der Weichen Faktoren siehe Kapitel 2.6.2, Punkt 2. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 25 / 83

26 Die in diesem Begriffsnetz verwendeten Begriffe werden in verschiedene Faktoren gruppiert, die entscheidend zu einer guten Datenqualität beitragen. Dazu zählen nicht nur die technische Datenqualität, die unter anderem die Replikation von Daten zu Data Warehouse Projekten umfasst, sondern auch weiche Faktoren wie dem Können und Willen der an den Prozessen beteiligten Mitarbeiter Einfache Definition von Datenqualität In der Praxis hat sich im Umfeld der Inventardatenbank für Hard- und Software, i-sac, bereits die folgende, auf der generellen Definition von Qualität aufbauende, dreistufige Definition von Datenqualität als praktikabel erwiesen 68 : 1. Ist das Feld korrekt gefüllt? Ist bei einem Personenfeld auch wirklich eine Person eingetragen und nicht etwa ein Gebäude? 2. Ist der Wert im Feld gültig? Existiert der angegebene Mitarbeiter auch wirklich noch im Unternehmen? (Plausibilität) 3. Ist der eingefüllte Wert korrekt? Korrektheitsprüfung des Wertes 2.6. Umfassende Definition von Datenqualität Dimensionen der Datenqualität nach Huang et al. In [ 26 ] schlagen Huang et al. vor, auch für die Datenqualität verschiedene Dimensionen zu verwenden. Die hier vorgeschlagenen Dimensionen sind Accuracy Completeness Consistency Timeliness Die Auswahl, dass gerade diese Dimensionen verwendet werden sollen, begründen sie mit intuitivem Verstehen, Erfahrungen der Industrie und Verwendung in der Literatur. Als Schlüsselfaktor betrachten die Autoren die Dimension Accuracy schreiben aber auch gleich, dass darunter völlig verschiedene Inhalte verstanden werden. 69 Solch unterschiedliches Verständnis kann aber auf dieselben unterschiedlichen Ansätze zum Begriff Qualität aus Kapitel zurückgeführt werden. Dieser empirische Ansatz, die Dimensionen der Datenqualität zu verstehen, kann aber nicht alle Einflussfaktoren befriedigend abbilden. 67 Siehe Würthele, 2004 in [ 89 ] Seite 18: Verbreitet sind Leitfäden, wie Qualitätsteams etabliert und ein Qualitätsdenken durch Schulungs- und Motivationsmassnahmen bei den Mitarbeitern etabliert werden kann. 68 Definiert im firmeninternen Dokument [ 58 ] und öffentlich dokumentiert in [ 86 ]. 69 Siehe Huang et al. in [ 26 ], Seite 17: Although the term accuracy has an intuitive appeal, there is no commonly accepted definition of what it means exactly. For example, Kriebel characterizes accuracy as the correctness of the output information. Ballou and Pazer describe accuracy as when the recorded value is in conformity with the actual value. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 26 / 83

27 Das Datenqualitäts-Radar nach Würthele In [ 89 ], Seite 31 ff definiert Würthele ein sog. Datenqualitätsradar (siehe Abbildung 10), das die verschiedenen Aspekte der Datenqualität betrachtet und so das komplexe Thema in einzelne Einflussbereiche aufteilt, die für sich genommen wiederum beurteilbar sind: In diesem Datenqualitätsradar wird aufgezeigt, dass Datenqualität weit über die vorgenannten Definitionen hinausgeht. Das Problem dieses Radars ist jedoch, dass die bereits erwähnten weichen Faktoren schwierig zu quantifizieren sind. Jedes dieser Felder im Radar entspricht einem Qualitätsmerkmal. Angrenzende Felder bedeuten einen engen Zusammenhang der Merkmale. Im Zentrum des Radars steht die Datenqualität als Ganzes ( DQ ), die gegen aussen immer stärker aufgefächert wird. Dieses Radar ist von innen nach aussen zu lesen: Die Messung der Datenqualität lässt sich in drei Dimensionen aufteilen: 1. Harte Faktoren: Diese sind durch exakte Regeln definiert und können mit maschinellen Checks überprüft werden. Diese Dimension wurde bisher am ehesten mit dem Begriff Datenqualität assoziiert. 2. Weiche Faktoren: Diese wurden bis anhin eigentlich ausschliesslich unter führungstechnischen Aspekten betrachtet. Dass diese Faktoren einen grossen Einfluss auf die Qualität der Arbeit der Mitarbeiter haben und somit auch direkt in die Qualität der von diesen Mitarbeitern erstellen Daten einfliessen, wurde bisher nie unter diesem Aspekt berücksichtigt. Diese Faktoren können nicht objektiv bewertet werden. Abbildung 10: Das Datenqualitätsradar nach Würthele Organisation: Damit sind die Bereiche der Datenqualität gemeint, die stark von Aufbau- und Ablauforganisation des jeweiligen Betriebs(teils) abhängig sind. Jede dieser drei Dimensionen lässt sich weiter in eines oder mehrere Qualitätsmerkmale aufgliedern. Dabei gibt es auch Merkmale, die mehr als einer Dimensionen zugehörig sind. Als weiteres Merkmal lässt sich die Technikqualität erfassen. Diese steht ausserhalb der oben erwähnten Dimensionen und umfasst viele der dargestellten Qualitätsmerkmale, aber bewusst nicht alle, da unter Technikqualität im eigentlichen Sinn die langfristig gesicherte Datenqualitätsunterstützung durch die Informatik-Lösung verstanden wird. 70 Siehe Würthele, 2004, in [ 89 ], Seite 29ff. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 27 / 83

28 Gewichtung der einzelnen Teilaspekte des Radars In diesem Radar lassen sich verschiedenste Anforderungen an die Datenqualität abbilden, messen und visualisieren. In einem Inventar erfolgt die Gewichtung der Anforderungen und damit auch der Messpunkte eher auf den Bereichen Korrektheit, Konsistenz, Prozess und Redundanzfreiheit während in einer Real-Time-Steuerung wie einer Ampelanlage eher Faktoren wie Verfügbarkeit und Eindeutigkeit des Kontextes im Zentrum stehen. Bei einem System wiederum, mit dem externe Kunden arbeiten sollen wie einem Webshop oder einem Informationssystem, liegt die Gewichtung der Messpunkte eher auf der Verständlichkeit und der Eindeutigkeit des Kontextes. Somit sind verschiedenste Anwendungen mit diesem Radar abgedeckt einfach in verschiedener Gewichtung. Dieser Radar ist demnach wie ein Baukasten zu verstehen, aus dem man sich die benötigten Elemente zusammenstellt Arten von Datenqualität Wie schon im Kapitel 1.4 gezeigt, gibt es verschiedene Arten von Datenqualitätsproblemen. Somit existieren auch verschiedene Arten von Datenqualität. Generell lässt sich unterscheiden zwischen: Qualität der Übermittlung von Daten Qualität der Verarbeitung von Daten Qualität von Daten in einer Datenbank Qualität der Datenübermittlung Die Lösung von Datenübermittlungsfehlern wird von der Industrie teilweise intensiv vorangetrieben, unter anderem durch die Standardisierung von Schnittstellen und dem Verbessern und Beschleunigen von Übertragungswegen. Das Problem, dass Daten nicht oder verfälscht an ihren Bestimmungsort gelangen, ist heute weitgehend gelöst. Daher befasst sich diese Arbeit auch nicht mit diesem Aspekt der Datenqualität Qualität der Datenverarbeitung Die Qualität von Datenverarbeitungen in Applikationen und Systemen ist Teil der Qualitätssicherung während Softwareerstellung. Durch ausreichende und sinnvoll definierte Tests lässt sich die korrekte Verarbeitung der Daten einfach überprüfen. Dennoch können auch hier immer wieder Fehler auftreten. Die Qualität der Verarbeitung von Daten ist nicht im Fokus dieser Arbeit Qualität in Datenbanken In diesem Bereich liegt der Hauptfokus dieser Arbeit, existieren doch in den allen Unternehmen mehrere Gigabyte bis Terabyte an Daten, über deren Qualität im Normalfall niemand eine Aussage machen kann. Meist nimmt man mangels Alternativen an, dass die verwendeten Daten durchwegs korrekt sind. Schliesslich weiss man, dass im eigenen Unternehmen nur qualitativ hochwertige Arbeit verrichtet wird. Im Gegenzug begegnet man Daten, welche von ausserhalb ins Unternehmen kommen, immer mit einem gewissen Misstrauen, da man ja nicht weiss, wie sie erstellt, aggregiert und gepflegt wurden. Gerade hinter diese Denkweise sollte jedoch ein grosses Fragezeichen gesetzt werden, da man doch davon ausgehen muss, dass extern zugekaufte Daten wie ein ganz normales Produkt gewisse Qualitätskontrollen durchgelaufen haben. Schliesslich lebt im Normalfall dieses Unternehmen davon, dass es diese Daten verkauft und möchte dies auch in Zukunft tun. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 28 / 83

29 Aber wie steht es mit der Qualität der im eigenen Unternehmen produzierten Daten? Welche Qualitätssicherungsmassnahmen wurden hier getroffen und in welcher Form wird die Qualität hier gemessen? Auf diese Fragen gehen die nun folgenden Kapitel genauer ein Wie kann man Datenqualität messen Datenqualität lässt sich auf unterschiedliche Arten messen. Um diese verschiedenen Methoden genauer zu erläutern, gehen wir von einer kleinen Datenbank mit 10 Objekten à 10 Attributen aus, wie sie in Abbildung 11 dargestellt ist. Einige der enthaltenen Daten sind in irgendeiner Form fehlerhaft. In diesem Beispiel sind sie mit einem roten X gekennzeichnet. Abbildung 11: 3 verschiedene Arten für die Berechnung der Datenqualität Für die Messung dieser Datenbank kann man nun drei verschiedene Methoden verwenden, die alle verschiedene Werte ergeben: Methode 1 Attributmessung In der Datenbank von total 100 Attributen befinden sich 10 fehlerhafte Daten. Das bedeutet, dass 90 % davon in Ordnung sind Methode 2 Objektmessung In der Datenbank von 10 Objekten befinden sich 5 Objekte, bei denen mindestens 1 Attribut fehlerhaft ist. Das bedeutet, dass 50 % der Objekte vollständig in Ordnung sind Methode 3 Attributfüllung In der Datenbank mit 10 Attributen befinden sich 6 Attribute, die in mindestens einem Objekt fehlerhaft sind. Das bedeutet, dass bei 40 % aller Attribute die Füllung in allen Objekten in Ordnung ist. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 29 / 83

30 Unterschiede der Messarten Alle drei Messarten sind korrekt und führen zu einem aussagekräftigen, wenn auch unterschiedlichen, Ergebnis. Es muss jedoch vor der Messung vereinbart werden, welche Methode verwendet werden soll. Dabei muss bereits vor der Festlegung beachtet werden, wie sich die Zahlenbereiche verhalten können: Sowohl die Objektmessung als auch die Attributfüllung wird immer einen tieferen Wert liefern als die Attributmessung. Die Objektmessung wird fast immer einen höheren Wert liefern als die Attributfüllung, wenn die Zahl der Objekte grösser ist als die Anzahl verschiedener Attribute also bei jedem grösseren Datenbestand. Die Attributfüllung kann nur dann einen höheren Wert liefern als die Objektmessung, wenn sich die fehlerhaften Daten auf wenige Attribute verteilen, also beispielsweise in der Tabelle aus Abbildung 11 in fast allen Objekten das Attribut 10 fehlerhaft ist. Die Attributfüllung liefert in diesem Fall den Wert von zirka 90 %, während die Objektmessung um 0 % liegt. Darum muss immer vereinbart werden, welche der drei Messarten verwendet werden soll. Weiter gibt es noch die Möglichkeit, den Prozentsatz gute Daten oder den Prozentsatz schlechte Daten anzugeben. Generell kann gesagt werden, dass es besser ist, den Prozentsatz an guten Daten anzugeben, da es für die meisten Menschen logischer ist, 100 % anzustreben als 0 %. Es entspricht eher dem menschlichen Denken je mehr desto besser Praxisrelevanz dieser drei Methoden Alle vorgestellten Methoden sind für die Praxis relevant, auch wenn sie verschiedene Aussagen transportieren. Tabelle 3 zeigt auf, wie die verschiedenen Messmethoden in der Praxis eingesetzt werden. Methode Attributmessung Objektmessung Attributfüllung Aussage Zeigt, wie viele Attribute der gesamten Datenmenge korrekt sind. Das Problem dieser Messmethode ist, dass sehr schnell ein sehr hoher Datenqualitätswert erreicht und ausgewiesen wird, was die Verantwortlichen wiederum zum Zurücklehnen veranlassen könnte. Zeigt, wie viele Datensätze der Datenbank komplett korrekt sind. Wenn für das operative Geschäft davon ausgegangen werden muss, dass alle Datensätze korrekt sein müssen, gibt dieser Wert an, auf wie viele der gespeicherten Datensätze kompletter Verlass ist, resp. bei wie vielen Datensätzen mindestens eine Information ungenügend oder inkorrekt sind. Zeigt, welche Attribute komplett korrekt gefüllt sind. Diese Messmethode gibt dem Anwender einen Anhaltspunkt, wie vertrauenswürdig ein Attribut über alle Datensätze hinweg ist. Diese Art der Messung gibt dem Verantwortlichen auch gute Hinweise auf die Art und möglicherweise auch die Herkunft von Datenqualitätsmängeln. Diese Art der Messung liefert auch gute Anhaltspunkte, wie aufwändig eine Bereinigung des Datenbestandes ist, indem pro Attribut ein gewisser Aufwand veranschlagt wird und dieser mit der Anzahl fehlerhafter Attribute multipliziert werden kann. Die genaue Formel dafür lautet: Anzahl _ fehlerhafte _ Attribute Aufwand _ pro _ Attribut Tabelle 3: Anwendungsmöglichkeiten der verschiedenen Messmethoden Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 30 / 83

31 2.9. Wie kann man Datenqualität identifizieren Unabhängig von der Messmethode muss zuerst identifiziert werden, welche der untersuchten Datenfelder überhaupt korrekte und inkorrekte Werte enthalten. Das Identifizieren dieser Felder kann auf unterschiedliche Weise erfolgen: durch regelmässige automatisierbare Checks und durch seltener durchgeführte Erhebungen Automatisierte Checks Die einfachste Art, Datenqualität zu identifizieren, ist ein automatisierter Check auf technischer Basis. Dazu kann in den meisten Fällen eine SQL-Abfrage erstellt werden, welche auf einfache Art prüft, ob gewisse Felder gefüllt sind, der Datentyp des Inhaltes dem erwarteten Datentyp entspricht und ob der eingesetzte Wert gültig ist. Solche Checks können einfach programmiert, automatisiert und dargestellt werden. Diese Art von Checks entspricht in etwa den Stufen 1 und 2 der einfachen Definition der Datenqualität (siehe Kapitel 2.5), sofern in der entsprechenden Datenbank die Metadaten bereits eine entsprechende Qualität besitzen Schwer automatisierbare Checks (Erhebungen) Die Identifikation der dritten Stufe von Datenqualitätsdefinition aus Kapitel 2.5 ist ungleich komplizierter und aufwändiger. Diese dritte Stufe Ist der eingefüllte Wert korrekt? umfasst zwar das, was alle unter Datenqualität erwarten, was aber nur möglich ist durch einen Vergleich mit der Realität. Gerade dieser Vergleich kann aber nicht oder nur selten automatisiert durchgeführt werden. Aus diesem Grund muss hier meist mit einer Stichprobe gearbeitet werden, die anschliessend auf die gesamte Datenmenge hochgerechnet wird. Dementsprechend können diese Messungen auch nicht täglich oder wöchentlich, sondern höchstens ein- bis zweimal im Jahr durchgeführt werden Wie kann man Datenqualität visualisieren? Anforderungen an die Visualisierung Für eine sinnvolle Visualisierung der Datenqualität kann man folgende Anforderungen formulieren. Sie müssen folgende Eigenschaften aufweisen 71 : Sie müssen eine anerkannte Basis für Entscheidungen bieten Sie müssen allgemein verständlich sein Sie müssen einheitlich interpretierbar sein Sie müssen allgemein anwendbar sein Sie müssen wirtschaftlich anwendbar sein Sie müssen mit den vorhandenen Sensoren (Messgeräte oder prozesse) vereinbar sein 71 Siehe dazu Juran in [ 29 ], zitiert durch Hinrichs in [ 25 ], Seite 44. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 31 / 83

32 Bewährte Elemente der Visualisierung Für die Visualisierung (Darstellung) der gemessenen Datenqualitätswerte haben sich in der Praxis ein paar einfache Vorgehensweisen bewährt 72 : Diejenigen Personen, die für die Beaufsichtigung der Datenqualität zuständig sind, benötigen eine wesentlich einfachere Darstellung der Datenqualität als diejenigen Personen, die für die Durchführung der Datenqualitätsmassnahmen zuständig sind. Management und Ausführende sollten nicht über verschiedene Wege zu ihren Zahlen oder Listen kommen, sondern beide Personengruppen steigen über den selben Weg ein. Von einer Übersicht, die sich an das Management richtet, kann man im Idealfall direkt zu den Detail-Informationen gelangen (so genannter Drill Down ). Für die Management-Sicht haben sich folgende Sichten bewährt (siehe dazu auch die Darstellungen in Abbildung 12): o o o o o Ein einziger Wert pro klar abgrenzbarem Bereich Balkengrafiken (horizontal oder vertikal angeordnet) Trendangaben bei den Detailwerten (Vergleich zur letzten Messung) Linienverläufe Die Verwendung von Metaphern wie Ampeln oder Wetterkarten Für die Detail-Sicht hat sich die Listenform am besten bewährt. Diese kann dann sozusagen als Arbeitsanweisung verstanden werden, die es abzuarbeiten gilt. Abbildung 12: Verschiedene Arten, wie Datenqualität für die Management-Sicht übersichtlich visualisiert werden kann: Links Balkengrafik mit Trendpfeilen, in der Mitte ein Verlauf und rechts die Wetterkarte Im Idealfall kann man die verschiedenen Datenqualitätsmessungen in eine Übersicht integrieren, um damit ein Cockpit zu erstellen, bei dem alle wichtigen Informationen auf einen Blick ersichtlich sind. 72 Details dazu in Wolf et al. in [ 86 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 32 / 83

33 2.11. Anforderungen an ein einfaches Datenqualitäts-Messsystem Grundsätzliche Überlegungen zum Vorgehen Bezogen auf die Qualitätsbeurteilung haben Lingscheid/Robeck folgende Voraussetzung formuliert: Voraussetzung für die Implementierung effizienter Qualitätsverbesserungsverfahren ist es, die unscharfe Zielgrösse transparent zu machen und möglichst konkret zu beschreiben. Das bedeutet, Anforderungen an die Qualität und Ausprägungen von Qualitätsmerkmalen auf verschiedenen Abstraktionsebenen und innerhalb der unterschiedlichen Wertschöpfungsstufen der Organisation eindeutig erfassbar zu machen. 73 Bezogen auf das Thema Datenqualität bedeutet das: Zuerst muss man sich Gedanken darüber machen, welche Ziele man mit einer verbesserten Datenqualität erreichen will. Danach müssen Fragen gelöst werden, wie die Qualitätswerte erhoben, gemessen und dargestellt werden sollen. Als nächsten Schritt muss man sich im Klaren werden, welche Werte angestrebt werden, um geeignete Massnahmen treffen zu können Aufbau eines einfachen Messsystems Das einfache System baut auf der einfachen Definition von Datenqualität aus Kapitel 2.5 auf und verwendet auch dessen dreistufigen Ansatz. Wie in Abbildung 13 dargestellt, bildet der korrekte Teil der Stufen 1 und 2 dieser Datenqualitätsdefinition die Indikatoren. Diese können relativ schnell und mit einfachen Massnahmen automatisiert überprüft werden. Eine einfache Abfrage mit SQL-Statements kann hier bei einer Datenbank mit entsprechenden Voraussetzungen bereits das gewünschte Resultat liefern. Abbildung 13: Einfaches DQ-Messsystem Nach diesem Test hat man jedoch noch lange keine Aussage darüber, ob die Daten den vom Nutzer verlangten Zweck 74 auch erfüllen können. Eine Aussage darüber erhält man erst, wenn man den Inhalt der Datenfelder daraufhin untersucht, ob er auch korrekt ist 75. Diese Untersuchung erfolgt idealerweise mit einer Vollerhebung, welche aber im Normalfall nicht durchgeführt werden kann. Daher definiert man am besten ein Test-Sample, welches man genauer untersucht. Dies ergibt einen Wert, der aussagt, wie gut die Daten den angeforderten Zweck erfüllen können: den Qualitätswert. Multipliziert man diesen Qualitätswert mit dem Indikatorenwert, ergeben sie einen Wert für die Gesamtdatenqualität. Möchte man in diesem Messsystem nicht nur die Korrektheit der Daten sondern auch weitere Qualitätsmerkmale einfliessen lassen, so empfiehlt sich die Erweiterung des Qualitätswertes um die Weichen Faktoren des Datenqualitäts-Radars aus Kapitel Eine mögliche Vorgehensweise ist 73 Siehe Lingscheid / Robeck in [ 33 ], S. 67 zitiert von Henning in [ 24 ], Seite Siehe dazu auch die Definition aus Kapitel Siehe die Dritte Stufe aus der einfachen Definition von Datenqualität aus Kapitel 2.5. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 33 / 83

34 die Befragung der Benutzer mittels einer Umfrage. In Anhang B wird ein möglicher Aufbau eines solchen Fragebogens gezeigt Probleme dieses Ansatzes und mögliche Lösungen Das Problem des Wertes, der auf diese Art gewonnen wird, ist die schwierige Lesbarkeit. Weil mit einer Stichprobe gearbeitet wird, kann der resultierende Wert nicht mit einer hundertprozentigen Sicherheit angegeben werden. Eine Aussage wie mit 95-prozentiger Sicherheit haben wir einen Datenqualitätswert von 90 % wird von vielen nicht verstanden oder wird allenfalls falsch interpretiert. Eine Aussage in dieser Art widerspricht auch der Anforderung an ein einfaches DQ-Messsystem, einfach und auch einfach lesbar zu sein. In der Realität hat es sich bewährt, nur den Datenqualitätswert alleine anzugeben und den Teil der 95-prozentigen Sicherheit (oder welche Genauigkeit es dann im gegebenen Fall ist) in den Definitionen der Messungen anzugeben. Ein weiteres Problem ist die korrekte Interpretierung und Einarbeitung der aus der Umfrage gewonnenen weichen Faktoren in die Gesamtdatenqualität. Hierzu kann keine Standardlösung angeboten werden, da der Einfluss dieser Weichen Faktoren sehr vom jeweiligen Geschäft abhängt. Eine Lösung muss von Fall zu Fall gefunden werden Quantifizierung von Datenqualitätsmängel und deren Behebung Kosten von Fehler- und Datenqualitätsmassnahmen Bei der Berechnung von Kosten und Nutzen des traditionellen Qualitätsmanagements sind in erster Linie die beiden Kostenarten der Fehlerkosten sowie der Prüf- und Fehlerverhütungskosten zu beachten. Bereits 1974 hat D. Lundvall die Kostenkurve aus Abbildung 14 beschrieben, welche bis heute ihre Gültigkeit hat. Diese Grafik besagt, dass das wirtschaftliche Optimum der Qualität bei Q* liegt. Wo jedoch Q* konkret ist, hängt ab vom Produkt, den Prozessen und dem Qualitätsmanagement. Abbildung 14: Das wirtschaftliche Qualitätsoptimum 76 Soweit lässt sich diese Grafik auch auf das Thema der Datenqualität übertragen. Die im traditionellen Qualitätsmanagement gültige Unterteilung der Fehlerkosten in direkte und indirekte funktioniert hier jedoch nicht, da es keine Analogie zum Ausschuss 77 gibt. Bleibt man bei dieser Sichtweise, sind alle möglichen Kosten indirekt. Hingegen lassen sie sich hier auch in interne und externe Fehlerkosten unterteilen. 76 Grafik von Lundvall in [ 35 ], Seiten 5-12; neu gezeichnet nach der Grafik aus Henning in [ 24 ], Seite Ausschuss im Sinne von nicht brauchbaren Produkten. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 34 / 83

35 Kostenarten im Datenqualitätsmanagement Während im traditionellen Qualitätsmanagement die Rede von Ausschuss, fehlerbedingter Ausfallzeit, Kulanz etc. ist, kann man im Datenqualitätsmanagement zwischen folgenden Arten von Fehlerkosten unterscheiden 78 : Systemfehler und Serviceunterbrüche Kosten für die Datenbereinigung Kosten für die Datenverbesserung Rückgang in Produktivität und Verarbeitungsvolumen Höhere Fluktuation Sinkende Anzahl von Stammkunden Steigende Kundenanforderungen bezüglich Servicedienstleistungen Kleinere Skalierbarkeit der eigenen Lösungen Vorgehen zur Quantifizierung David Loshin entwickelte in [ 34 ] ein Konzept, um die Kosten schlechter Datenqualität zu ermitteln. Das cost-effect of low data quality oder COLDQ genannte Gerüst umfasst 5 Schritte: Ermitteln der Datenflusswege durch das Unternehmen. 2. Kategorisierung der Kosten für schlechte Datenqualität. 3. Identifikation und Quantifizierung der aktuellen Situation mit schlechten Daten. 4. Abschätzung der anfallenden Kosten, um die Datenqualität zu heben entweder durch eine einmalige Aktion oder durch kontinuierliche Aktivitäten. 5. Kalkulation des Return on Investment, um dem Senior Management die Entscheidung pro oder kontra Datenqualitäts-Programm zu erleichtern. Als Endprodukt dieses Vorgehens erhält man einen Hinweis darauf, ob sich die geplanten Datenqualitätsmassnahmen auszahlen oder nicht Kategorien von Verbesserungskosten Die Kosten der Datenqualitätsverbesserung lassen sich in drei Kategorien einteilen: Kosten der ursachenorientierten Datenqualitätsverbesserungen wie das Reengineering von Prozessen oder die ab Kapitel 5 beschriebenen Strategien. Kosten der symptomorientierten Datenqualitätsverbesserungen wie der Ausführung von Verbesserungsmassnahmen oder Bereinigungen. Kosten nicht entdeckter bzw. nicht behobener Datenqualitätsmängel. Die Kosten der dritten Kategorie lassen sich nur schwer quantifizieren, da es sich um Themen wie Frustration der Datennutzer oder Folgekosten falscher Entscheidungen handelt. Eine korrekte Zurechnung ist hier meist schwierig, da solche Kosten entweder gar nicht auftauchen oder (auch) anderen Ursachen zugeordnet werden Vergleiche dazu die Auflistung von Loshin in [ 34 ], Seiten Siehe dazu die Ausführungen von Loshin in [ 34 ], Seiten 73ff. 80 Siehe dazu Hinrichs in [ 25 ], Seite 48. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 35 / 83

36 2.13. Möglichen Arten von Datenqualitätsmängeln Datenqualitätsmängel können ihre Quelle in jedem Schritt des Grundablaufes der klassischen IT- Funktionen haben: Bei der Eingabe, der Verarbeitung und bei der Ausgabe (EVA-Prinzip 81 ) sowie der technischen Speicherung der Daten. Zusätzlich zu diesen technischen Mängelquellen (blauer Bereich) kommen noch mögliche menschliche Quellen (oranger Bereich) dazu. Folgende Arten von Datenqualitätsmängeln mit einigen Beispielen über deren Ursachen können hier aufgelistet werden: Abbildung 15: Mögliche Bereiche, bei denen Datenqualitäts- Mängel auftreten können Prozessfehler - Doppelerfassungen - Daten werden zu einem zu frühen oder zu späten Zeitpunkt verlangt - Ergebnisse, welche den Empfänger nicht erreichen Anwenderfehler - Ungenügende Erhebung - Tippfehler - Verlegenheitseinträge Programmierfehler - Mehrfachvergabe von Schlüsseln - Entschwinden von Datensätzen ins Daten-Nirwana - Nicht eindeutige Auswertungen - Ungenügende oder fehlerhafte Speicherung von Daten Kundenfehler - Falsch oder ungenau angeforderte Daten und Auswertungen - Missverständliche Definitionen 81 Siehe Stahlknecht in [ 53 ], Seite 16ff., Definition des EVA-Prinzips. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 36 / 83

37 2.14. Was Datenqualität nicht ist Aufgrund der oben angeführten Punkte sollte eigentlich klar sein, was unter dem Begriff Datenqualität heute verstanden wird. Trotzdem gibt es immer wieder Missverständnisse und Begriffsverwirrungen. Larry P. English hat in seinem Paper 7 Deadly Misconceptions about Information Quality 82 folgende Punkte identifiziert, welche vielfach als Datenqualität angesehen werden, die Benutzer und das Management aber in die Irre führen können: Information Quality is data cleansing Information Quality is data assessment Conformance to business rules is the same as data accuracy Information quality is data accuracy ; and its counterpoint Information quality is fitness for purpose Information quality problems are caused by information producers ; and its counterpoint Information quality is produced by an information quality group Information quality problems can be edited out by implementing business rules Information quality is too expensive Allen aufgeführten Punkten ist gemeinsam, dass sie die Definition von Datenqualität (oder eben Information Quality ) sehr einseitig auslegen und dadurch zu einem falschen Ergebnis führen können. 82 Siehe Larry P. English in [ 14 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 37 / 83

38 3. Kommerzielle Ansätze zum Thema Datenqualität 3.1. Der Datenqualitätsmarkt Der Markt für Datenqualitäts-Software ist laut dem Business Application Research Center sehr stark zersplittert. Ein Artikel in der deutschen Computerwoche 83 unterteilte dazu den Markt in die drei Bereiche Data Profiling Data Cleansing Datenintegration Wie Abbildung 16 zeigt, gibt es mehrere prominente Mitspieler in diesem Markt. Abbildung 16: Der Markt für Datenqualitäts- Werkzeuge in Deutschland und die Positionierung der Akteure gemäss Computerwoche.de [ 37 ] Data Profiling Data Profiling is a process whereby one examines the data available in an existing database and collects statistics and information about that data. Typical types of metadata sought are: Domain, type (Alphabetic or numeric), pattern, frequency counts, statistics (minimum, maximum, mean, median, modal and standard deviation), interdependency within a table and between tables. 84 Data Profiling ist also das Erstellen einer Bestandesaufnahme aller vorhandenen Daten, eine Kategorisierung und Errechnung von statistischen Grössen. Dies erfolgt beispielsweise durch die Analyse von Formaten und Mustern in den untersuchten Daten und allfälligen Referenzen innerhalb und ausserhalb des vorliegenden Datenbestandes. Dadurch liefert das Data Profiling einen ersten Überblick über eine zuvor unbekannte Datenbank. Die entsprechenden Resultate können anschliessend zum Erstellen von ersten Hypothesen verwendet werden. Dadurch eignet sich diese Methode sehr gut, um als erster standardisierter Ansatz zum Datenqualitätsmanagement in beliebigen Umfeldern angewendet zu werden. Ist jedoch eine Datenbank zu untersuchen, deren Felder und Inhalte man bereits sehr gut kennt, bringt dieser Ansatz nicht mehr viel neues. Nach Angaben von Evoke, einem der ersten Anbieter in diesem Segment, wird Data Profiling als wichtige Komponente angesehen, bevor Daten in ein Data Warehouse integriert werden können. 85 Hier enden aber auch die Möglichkeiten des Data Profiling. Bekannte Anbieter von spezialisierter Standard-Software in diesem Bereich sind: Dataflux (SAS), Human Inference, Informatica, Oracle sowie die inzwischen von Informatica übernommene Evoke. 83 Ausschnitt aus dem Artikel von Computerwoche.de, Quelle unter [ 37 ]. 84 Gekürztes Zitat aus der englischen Wikipedia, Quelle unter [ 68 ]. 85 Siehe dazu die Pressemeldung von Evoke unter [ 43 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 38 / 83

39 Data Cleansing Data Cleansing, also referred to as data scrubbing, the act of detecting and removing and/or correcting a database s dirty data (i.e., data that is incorrect, out-of-date, redundant, incomplete, or formatted incorrectly). The goal of data cleansing is not just to clean up the data in a database but also to bring consistency to different sets of data that have been merged from separate databases. Sophisticated software applications are available to clean a database s data using algorithms, rules and look-up tables, a task that was once done manually and therefore still subject to human error. 86 Data Cleansing ist somit das Eliminieren von Unstimmigkeiten und Schrottdaten in bestehenden Datenbeständen. Data Cleansing ist damit ein wichtiges Werkzeug, um Datenbestände, in denen sich problematische Daten angesammelt haben, einer Reinigung zu unterziehen (cleansing) und dadurch in einen sauberen Ausgangszustand zu versetzen. Data Cleansing sollte daher jeweils am Anfang von Bemühungen zur Verbesserung der Datenqualität stehen. Muss Data Cleansing hingegen als permanentes Werkzeug zur Verbesserung der Datenqualität eingesetzt werden, so ist dies ein wichtiger Hinweis darauf, dass die Prozesse im Umfeld dieser Daten nicht stimmen (siehe dazu auch Kapitel 2.14 Was Datenqualität nicht ist ). Wichtige Anbieter von spezialisierter Standard-Software in diesem Bereich sind: Fuzzy und Omikron Datenintegration Informationsintegration bezeichnet die Aufgabe der Zusammenführung von Daten und Inhalten aus verschiedenen Quellen zu einer einheitlichen Menge von Informationen. Dabei sollen vor allem heterogene Quellen möglichst vollständig und effizient zu einer strukturierten Einheit zusammengeführt werden, die sich effektiver nutzen lässt, als wenn dies bei direktem Zugriff auf die einzelnen Quellen möglich wäre. 87 Bei der Datenintegration geht es darum, bestehende Daten in ein einziges Umfeld zu integrieren. Verknüpfungen zwischen den Datenbeständen von verschiedenen Datenbanken erlauben dabei, die Datenbestände in den einzelnen Datenbanken zu verdichten, indem gezielt Redundanzen zwischen den Datenbanken gesucht werden und diese Informationen dann an die Datenbank übermittelt werden, in welcher diese fehlt. Beispiel 2: Ein Unternehmen verknüpft zwei Adressdatenbanken, welche bisher unabhängig voneinander betrieben worden sind: Die Kundendatenbank und eine Datenbank, die durch den Rücklauf eines Preisausschreibens gefüttert wurde. Durch die Datenintegration findet das Unternehmen heraus, dass eine Kundin bei diesem Preisausschreiben mitgemacht hat. Dort hat sie ihre Telefonnummer angegeben in der Kundendatenbank fehlt diese aber. Wenn die Übereinstimmung dieser beiden Datensätze zutreffend ist, kann durch dieses Vorgehen die Kundendatenbank durch bereits vorhandenes Wissen aus der anderen Datenbank angereichert werden. Da durch diesen Vorgang auch das Wissen der Unternehmung vermehrt wird, wird vielfach auch von Business Intelligence oder BI gesprochen, und das Endresultat solcher Datenverschmelzungen wird meist als Data Warehouse (Datenlager) oder Data Mart (Datenmarkt) bezeichnet. 86 Zitat von Webopedia, Quelle unter [ 65 ]. 87 Zitat von Wikipedia, Quelle unter [ 76 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 39 / 83

40 Mit Hilfe dieser Technik können auch immer detailliertere Profile von Kunden erstellt werden. Ein Mittel, um solche Profile zu erstellen sind beispielsweise die verbreiteten Rabattsysteme der Schweizer Grossdetaillisten Migros und Coop mit der Cumulus-Karte, respektive der Coop Supercard. Datenintegration kann jedoch an rechtliche Schranken stossen. So wurde beispielsweise an einer Konferenz der deutschen Datenschutzbeauftragten darauf hingewiesen, dass damit das Grundrecht auf informelle Selbstbestimmung und Schutz der Privatsphäre in Gefahr geraten könnte, da die Speicherung von bestimmten Daten einer Zweckbindung unterliegt 88. So wäre es beispielsweise rechtswidrig, die eigene Personaldatenbank auch noch zur Anreicherung der Datenbank aus dem Beispiel 2 hinzuzufügen. Da vor allem Data Warehouses momentan eine grosse Aufmerksamkeit bei den Unternehmen geniessen, ist hier auch der Markt um einiges grösser als bei den beiden vorgenannten Bereichen. Andererseits ist auch zu vermerken, dass Data Warehouses nicht primär dazu eingesetzt wurden, um die Datenqualität von anderen Firmendatenbanken zu verbessern, sondern um durch die Verbindung von bisherigen Daten den Kunden besser kennen zu lernen und sich damit neue Geschäftsbereiche zu erschliessen. Wichtige und bekannte Anbieter von spezialisierter Standard-Software in diesem Bereich sind Business Objects, Cognos, Microsoft und Oracle Kombination von mehreren Bereichen Neben den Spezialisten in den oben genannten Bereichen gibt es immer mehr Softwarehersteller, die in mehreren Segmenten präsent sind. Eine solche Kombination macht auch durchaus Sinn, da je nach Fragestellung oder Auftrag der gewünschte Erfolg nur dann eintritt, wenn mehrere Werkzeuge parallel angewendet werden. Eine Spezialisierung der oben erwähnten Firmen ist aber auch sinnvoll, da in verschiedenen Bereichen, speziell in der Bereinigung von Adress-Dubletten (siehe dazu auch Kapitel 3.2.1), ein enorm vielseitiges Wissen angesammelt und in entsprechende Software umgesetzt werden muss. Vor allem grosse Firmen nehmen aber immer mehr die Chance wahr, in mehreren Segmenten tätig zu sein und dem Kunden durch Software von einem Anbieter einen Mehrwert anzubieten. Solche Kombinationen machen auch durchaus Sinn. Vor allem zwischen den Bereichen Data Profiling und Datenintegration besteht eine grosse thematische Nähe. So ist denn auch der Pionier im Data Profiling, die Firma Evoke, durch den Konkurrenten Informatica aufgekauft worden Eingekaufte Produkte und Dienstleistungen Eine Internet-Recherche bei deutschen Firmen, die unter dem Begriff Datenqualität ihre Produkte und Dienstleistungen anbieten, zeigt, dass das Thema Datenqualität vor allem im Kontext von zwei Bereichen erscheint. Für die Schweiz zeigt sich das selbe Bild, da es vor allem grössere Unternehmen sind, die den Markt beherrschen und diese international tätig sind. Kleinere Unternehmen treten vor allem als Berater für die Produkte der grossen Firmen auf Datenqualität in Adressdatenbanken Durch Dubletten und fehlerhafte Adressen in Adressdatenbanken werden Marketing-Massnahmen doppelt oder falsch versendet. Dadurch entstehen Mehraufwände in finanzieller und/oder personeller Hinsicht, die keinen Mehrertrag bringen. Die Namen in solchen Datenbanken lassen sich mit Hilfe von linguistischen Methoden und Regeln klassifizieren und auswerten. Dubletten in der Form von Hans Müller und Müller Hans lassen sich so relativ einfach erkennen und eliminieren. Weitere Ansätze zur Verbesserung der Datenqualität 88 Siehe dazu den Bericht des Bayrischen Datenschutzbeauftragten zur Konferenz vom 14./15. März 2003, Quelle unter [ 6 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 40 / 83

41 beruhen im Abgleich mit anderen Datenbanken wie zum Beispiel Orts-, Strassen- und Telefonverzeichnissen. Entsprechend der Möglichkeit die Datenqualitäts-Massnahmen zu verbessern gibt es auch verschiedene Firmen und Software-Hersteller, die sich diesem Thema angenommen haben und entsprechende Produkte entwickeln und vermarkten. Bei allen Produkten geht es jedoch immer darum, allfällig gefundene Qualitätsprobleme sogleich zu eliminieren, womit die Datenqualität fast immer auf dem höchsten messbaren Stand ist. Die unter dem Begriff Datenqualität laufenden Aktivitäten bei Adressdatenbanken lassen sich fast ausschliesslich dem Data Cleansing (siehe Kapitel 3.1.2) zuordnen. Aktivitäten aus den Bereichen Data Profiling (siehe Kapitel 3.1.1) laufen meistens im Rahmen von Data Warehouse Projekten oder für Customer Relationship Management (CRM) Projekte. Aktivitäten im Bereich der Datenintegration (siehe Kapitel 3.1.3) haben meist eine grössere Dimension als lediglich die Verbesserung von Adressdaten, so dass Datenintegrationsprojekte selten unter diesem Segel laufen Datenqualität in anderen Datenbanken Um die Datenqualität in anderen Datenbanken festzustellen, darzustellen und Verbesserungen vorzunehmen, existieren fast keine standardisierten Produkte von Softwareherstellern. Am besten lassen sich die Produkte in den Bereichen Data Profiling und Data Integration für solche Aktivitäten heranziehen. Da aber die Inhalte und Strukturen dieser Datenbanken sehr vielfältig sein können, kann es kein Tool geben, das alle diese Strukturen und Inhalte standardmässig abdeckt. Daher ist die einzig mögliche Strategie dieser Hersteller, ein möglichst vielfältiges Tool anzubieten, welches dann im Rahmen einer Dienstleistung an das jeweilige Umfeld angepasst werden kann. Wie in den folgenden Kapitel ersichtlich, müssen zur Lösung solcher Datenqualitätsprobleme Prozesse und Denkweisen angepasst werden, so dass der Einsatz eines Tools nicht automatisch die Probleme löst. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 41 / 83

42 4. Generische Ansätze zur Verbesserung der Datenqualität 4.1. Grundsätzliches zur Datenqualität Wie bereits im Kapitel 2.14 vermerkt, kann Datenqualität nicht delegiert, verordnet oder im Nachhinein in ein Produkt integriert werden. Massnahmen für die Hebung der Datenqualität müssen bereits beim Design einer Applikation oder eines Prozesses getroffen werden und während des Projektverlaufes muss sichergestellt werden, dass solche getroffenen Massnahmen umgesetzt werden. Für den Benutzer sind die meisten der zu treffenden Massnahmen unsichtbar, ähnlich einem Eisberg, der nur 10 % seiner Masse aus dem Wasser herausragen lässt und das ist eigentlich auch gut so, da das Thema Datenqualität nicht alleine dem Benutzer aufgebürdet werden kann Bisherige Ansätze Die Literatur zum Thema beschreibt einige Ansätze, wie ein Datenqualitätsmodell aussehen sollte und welche Arten von Projekten es gibt. Zu Verbesserungsstrategien hat meine Literaturrecherche jedoch nichts Nennenswertes zutage gebracht Muster von Datenqualitätsprojekten Strong et al. unterscheiden zwischen drei verschiedenen Mustern 89 : 1. Die intrinsische Datenqualität 2. Verfügbarkeits-Datenqualität und 3. Kontextuelle Datenqualität Bei der intrinsischen Datenqualität stehen die internen Prozesse und Datenproduzenten im Vordergrund. Sie sind der Auslöser für Verbesserungsaktionen. Beim zweiten Muster ist die Verfügbarkeit der Daten das Problem Daten sind nicht verfügbar oder nicht interpretierbar. Beim dritten Muster für Datenqualitätsprojekte ist der Kontext im Vordergrund Daten sind unvollständig, zu wenig verdichtet oder inkompatibel. Aus diesen drei Mustern leiten die Autoren eine mögliche Problemlösung ab, indem sie Prozesse, Datenstrukturen und anderes anpassen. Diese beschriebenen Ansätze sind jedoch nur reaktiv und haben keine oder nur eine kleine proaktive Bedeutung. 89 Siehe Strong, Lee, Wang in [ 54 ] und Huang, Yang, Wang in [ 26 ], Seite 47. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 42 / 83

43 Auf Basis des TQM-Konzeptes Von Peter Wolf wurde eine Übertragung des TQM-Konzeptes auf den Bereich der Datenqualität vorgenommen 90. Der grosse Verdienst dieser Arbeit ist die Integration des Themas in die Gesamtlandschaft der Qualitätswerkzeuge sowie dem Einbezug von Prozessen. Er beschreibt auch, wie Regelprozesse für ein funktionierendes Datenqualitätsmodell aussehen müssen, indem er aus der Werkzeugkiste des TQM schöpft. Diese Dissertation beschreibt detailliert, wie ein TQM-basiertes Mess- und Regelmodell für Datenqualität implementiert werden kann. Abbildung 17: Das Regelkreismodell nach Peter Wolf 91 Der TQM-Ansatz ist sicher das am Detailliertesten beschriebene Konzept eines Datenqualitätsmodells für die Praxis. Es wird beschrieben, welche Werkzeuge dazu benötigt werden sowie wo und wie gemessen werden kann, aber es liefert keine Hinweise darauf, wie die Datenqualität dauerhaft verbessert werden kann Auf statistischer Basis An Universitäten wie dem US-Amerikanischen MIT 92, dem französischen INRIA 93, der kalifornischen UC Berkeley 94 und einzelnen Firmen wird das Thema Datenqualität von der statistischen Seite mit automatischer Fehlererkennung angegangen. Das Ziel ist hierbei, aus einem Datenhaufen mit dem Einsatz von Data-Mining Methoden neue Muster und Regelmässigkeiten sowie Datenanomalien und Ausreisser zu finden. Mittels einer automatisierbaren Fehlersuche werden aus den bestehenden Daten Erkenntnisse über deren Struktur gewonnen. Mit diesen Erkenntnissen können dann die Daten entsprechend bereinigt werden und neue Geschäftsregeln erstellt werden, um künftig die Daten schon bei der Erstellung besser auf ihre Qualität überprüfen zu können Siehe Peter Wolf, 1999 in [ 87 ]. 91 Grafik nachgezeichnet aus Peter Wolf, 1999 [ 87 ], Seite MIT = Massachusetts Institute of Technology 93 INRIA = Institut National de Recherche en Informatique et en Automatique 94 UC Berkeley = Universität Berkeley 95 Eine genaue Beschreibung dieses statistischen Ansatzes und auf welchem Stand die verschiedenen Forschungsarbeiten sind, wird von Hinrichs in [ 25 ], Seiten detailliert beschrieben. Ebenfalls enthalten ist die Beschreibung eines Projektes der DaimlerChrysler AG. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 43 / 83

44 4.3. Generische Ansätze Das Ziel von generischen Ansätzen ist es, unabhängig von den effektiv vorliegenden Verhältnissen Möglichkeiten aufzuzeigen, ein Ziel zu erreichen. In diesem Fall geht es darum, generell formulierte Strategien zu benennen für eine langfristige Verbesserung der Datenqualität und dies losgelöst vom zugrunde liegenden Datenbankmodell und den dazugehörigen Prozessen. Ausgehend von den möglichen Ursachen von schlechter Datenqualität wie sie in Kapitel 2.13 beschrieben sind, sollen hier einige generische Ansätze beschrieben werden, um die Datenqualität zu verbessern. Ausgangspunkt ist dabei Abbildung 15 welche den Zusammenhang zwischen Fehlerquellen und den Fehlerarten aufzeigt. Für jede dieser Fehlerarten kann ein generischer Ansatzpunkt gefunden werden, der nachhaltig zur Behebung von Datenqualitätsmängeln verwendet werden kann. Die vier generischen Ansätze sind: 1. Verantwortung, Messen und Publizieren 2. Freiheit und Führung 3. Standards 4. Definitionen Zu jedem dieser generischen Ansätze kann eine These formuliert werden, mit deren Hilfe man die Wirksamkeit der nachfolgenden Strategien messen kann Thesen These 1 Abbildung 18: Generische Ansätze zu den möglichen Fehlerarten Ohne Wahrnehmen der Verantwortung über den ganzen Prozess kann keine Verbesserung der Datenqualität erfolgen. Schon Peter Drucker sagte Was du nicht messen kannst, kannst du nicht lenken 96. Das gilt nicht nur für die normale Betriebswirtschaft sondern gerade auch für den Bereich der Datenqualität. Je Unternehmenskritischer dabei die Qualität der Daten ist, desto wichtiger ist es, die Prozessperspektive speziell zu berücksichtigen. Auch ist es fahrlässig, jemandem die Verantwortung für die Qualität von Daten aufzubürden ohne ihm auch entsprechende Werkzeuge zu geben, etwas in diesem Verantwortungsbereich zu steuern. 97 Und zum Steuern benötigt man Informationen über den aktuellen Zustand ohne die man nicht definieren kann, in welche Richtung gesteuert werden soll. Somit gehört das Messen und Publizieren dieser Messungen auch in die Kategorie Verantwortung. 96 Originalzitat in Englisch: If you can t measure it, you can t manage it von Peter F. Drucker aus Wikiquote [ 85 ]. 97 Damit ist die Kongruenz zwischen Aufgaben, Kompetenzen und Verantwortung gemeint. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 44 / 83

45 Zudem muss auch im Thema Datenqualität klar werden, dass die Ursache nicht an einem Ort alleine liegt, sondern dass im Kampf um gute Datenqualität die Kräfte aller Beteiligten gebündelt und koordiniert werden müssen. Bleibt nur noch die Frage, wer denn alles zu den Beteiligten gehört. Diese Frage kann nicht so schnell abschliessend beantwortet werden. Abbildung 18 ist dabei ein guter Ansatzpunkt zur Beantwortung dieser Frage. So müssen sicher der Prozessowner, der Anwender, der Programmierer und der Kunde mit einbezogen werden. Es kann aber durchaus sein, dass der Anwender wiederum als Kunde einer anderen Verarbeitung auftritt und somit nicht der Urheber der Daten ist und der Kunde nicht der Endkunde ist. Dann müssen auch diese zum Kreis der Betroffenen gezählt werden, bis die gesamte relevante Verarbeitungskette, wie in Abbildung 19 dargestellt, abgedeckt ist. Abbildung 19: Einbezug von mehreren Applikationen, solange sie dem selben Prozess zugehörig sind These 2 Der Anwender kann gute Datenqualität nur dann produzieren, wenn man ihm an den geeigneten Orten richtig führt an anderen aber notwendige Freiheiten lässt. Betrachtet man Applikationen aus den 1980er-Jahren, so standen die funktionalen Aspekte einer Applikation im Vordergrund 98 dem Kunden musste ein dickes Handbuch mitgeliefert werden, welches ihm sagte, welche Eingaben an welchen Orten verlangt wurden und welche Eingaben nicht gemacht werden durften. Der Anwender hatte durch das Programm keinerlei Führung. Durch die weitere Verbreitung von Grafischen Benutzerschnittstellen (GUI Graphical User Interface) in den 1990er-Jahren 99 wurden dem Benutzer alle Möglichkeiten präsentiert aus denen er nur noch mit der Maus auswählen konnte. So einfach diese Benutzerschnittstellen für Anfänger waren und sind so einengend sind sie für Profis. Ein sogenannter Power User kann aus einem System weit mehr herausholen als dieses über die Grafische Benutzerschnittstelle anbietet. Einem solchen Power User bieten die verschiedenen Kommandozeilen-Tools die notwendige Freiheit, die er benötigt, um aus seinem System das optimale Resultat herauszuholen. Diese Entwicklung hat sich auch in den Office-Programmen von Microsoft wiederholt. Nachdem alle Funktionen nur über die Pulldown-Menüs oder Tastenkombinationen erreichbar waren, haben spätere Word- und Excel-Versionen eine Schnittstelle erhalten, über die die Software mittels weiterer Programme gesteuert werden konnte. Mittlerweile bieten fast alle grösseren Office-Pakete eine solche Schnittstelle an. Dadurch kann der versierte Benutzer das Maximum aus der angebotenen Software holen. Ähnlich ist es mit den Benutzern von Individualsoftware und datenbankbasierter Software. Für die Inhalte ist der Benutzer der Fachmann und möchte als mündiger Mensch nicht bevormundet werden durch starre Prozesse, welche meist einen oder zwei Standardabläufe abdecken und alle Formen 98 Siehe dazu der Wikipedia-Artikel zu Software-Ergonomie in [ 82 ]. 99 Siehe dazu der Wikipedia-Artikel zu Grafische Benutzeroberfläche in [ 74 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 45 / 83

46 von Sonderfällen gar nicht erst zulassen. Im Normalfall, wenn der Standardprozess passt, geniesst der Benutzer die Führung durch die Software, aber bei Sonderfällen muss der Benutzer eine Möglichkeit haben, den Eingabe- oder Verarbeitungsprozess der Realität anzupassen. Besteht diese Einriffsmöglichkeit nicht, werden alle Fälle, die nicht dem Standardablauf entsprechen, eine schlechte Datenqualität aufweisen These 3 Die Art wie eine Software designed und hergestellt wird, beeinflusst massgeblich die Datenqualität in späteren Jahren. Durchläuft die Entwicklung der Software standardisierte Phasen, periodische Qualitätschecks und wird nach standardisierten Verfahren getestet, dann ist die mittel- bis langfristig erreichte Qualität der Daten die mit dieser Software erstellt, verarbeitet, gespeichert und ausgegeben werden mit Sicherheit besser, als wenn die vorgenannten Punkte während der Softwareerstellung nicht berücksichtigt wurden. Beispiel 3: Ein Schraubenzieher kann man sowohl als Qualitätsprodukt wie auch als Billigprodukt einkaufen. Zum Kaufzeitpunkt merkt man ausser im Preis keine oder nur kleine Unterschiede. Die tatsächlichen Unterschiede treten erst dann zu tage, wenn Schrauben verarbeitet werden müssen, deren Schlitz nicht eine optimale Form oder Breite hat oder nach einer gewissen Gebrauchszeit. Abgerundete (verschlissene) Ecken lassen die Kraft nicht mehr so gut auf die Schraube übertragen, abgesplitterte Verchromung verursacht Verletzungen an den Fingern etc. Mit einem derartigen Werkzeug lässt sich keine Qualitätsarbeit mehr verrichten auch wenn zu Beginn dieses Werkzeug seine Funktion bestens erfüllte. Genauso verhält es sich mit der Datenqualität und der verarbeitenden Software. Eine ausführliche Begründung dafür ist im Kapitel auf Seite 52 aufgeführt These 4 Nicht der Datenlieferant, sondern der Kunde trägt den wichtigsten Teil zur Datenqualität bei, indem dieser zuerst einmal definieren muss, was ihm wichtig ist. Vor allem beim transzendenten und dem wertbasierten Ansatz der Qualität (sowie teilweise beim kundenorientierten Ansatz 100 ) ist es für den Kunden relativ einfach zu behaupten, dass etwas der Qualität nicht entsprechen würde, da der Massstab für Qualität in erster Linie subjektivem Empfinden unterworfen ist. Eine Objektivierung dieses Qualitätsbegriffs ist daher notwendig. Als erster Schritt dieser Objektivierung muss zwischen dem Lieferanten und dem Kunden ein gemeinsames Verständnis für Qualität entwickelt werden. Anders als in der Konsumgüterindustrie ist hier ein dauernder direkter Kundenkontakt vorhanden und ermöglicht es den beteiligten Parteien, gemeinsam das Ziel der gewünschten Datenqualität zu erreichen. Dieses Vorgehen entspricht eher der Qualität des produktorientierten Ansatzes und des herstellungsorientierten Ansatzes. Dafür existieren bereits viele Werkzeuge und sie können relativ schnell eingesetzt werden. 100 Siehe dazu die Definitionen von Qualität aus Kapitel 2.2.3, wo in Tabelle 2 ein Überblick über die verschiedenen Definitionen von Qualität geliefert wird. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 46 / 83

47 4.5. Aus diesen Thesen abgeleitete Strategien Aus den in Abbildung 18 aufgeführten generischen Ansätzen und den daraus abgeleiteten Thesen können nun verschiedene Strategien entwickelt werden. Eine Übersicht dazu ist in Tabelle 4 ersichtlich: These: These 1 These 2 These 3 These 4 Generischer Ansatz: Verantwortung Messen und Freiheit und Strategien: Publizieren Führung Standards Definitionen Strategie A: Transparenz schafft Vertrauen Strategie B: Definition von Verantwortlichkeiten Strategie C: Die Grundsätze der Softwareentwicklung ausnutzen Strategie D: Datenabhängigkeiten sind Gold wert Strategie E: Daten-Lifecycle auf Basis des Prozesses Strategie F: Unternehmensweite Verwendung von Metadaten Strategie G: Niederschwellige Verbesserungs- Werkzeuge Strategie H: Eingabe von Ich weiss es wirklich nicht Strategie I: Definition eines Verfalldatums Tabelle 4: Thesen, generische Ansätze und Strategien Wie die Tabelle zeigt, wirken die meisten der aufgelisteten Strategien auf mehrere generische Ansätze. Umgekehrt verwendet die Umsetzung eines generischen Ansatzes Elemente verschiedener Strategien. Somit ist die Umsetzung eines einzelnen Feldes dieser Tabelle nicht möglich, da es sich immer um mehrere vernetzte Abhängigkeiten handelt. Im folgenden Kapitel werden die oben genannten Strategien mit ihrem konkreten Nutzen und je einem Vorschlag zur Umsetzung im Detail erklärt. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 47 / 83

48 5. 9 Strategien für eine grundsätzliche Verbesserung der Datenqualität 5.1. Strategie A: Transparenz schafft Vertrauen Ansatzpunkt dieser Strategie Organisatorische Transparenz Unter Transparenz werden hier vor allem folgende Punkte verstanden: 101 Annahmen und Grundlagen für die Datenqualitätsmessungen werden dokumentiert und offengelegt. Der Umfang der durchgeführten Messungen wird klar definiert und kommuniziert. Die Resultate der Datenqualitätsmessungen sind für alle beteiligten Personen immer einsehbar. Die Art der Messungen bezüglich Methode, Periodizität und Aussage wird offen dargelegt. Zudem wird nur das gemessen, wofür ein Kunde 102 einen Auftrag gibt und allenfalls dafür bezahlt. Sonst verkommt das Messen der Datenqualität zu einer Selbstbeschäftigung Technische Transparenz Wichtig ist hier auch, dass nicht nur die jeweils aktuellen Zahlen zur Datenqualitätsmessung verfügbar sind, sondern auch ein Verlauf über einen grösseren Zeitraum abrufbar ist, um die Entwicklung der Datenqualität verfolgen zu können. Ein weiterer wichtiger Punkt zur Transparenz ist, dass die Messungen zentral durchgeführt werden. Ist die durchführende Stelle noch weitgehend neutral, so ist dies ein weiterer Pluspunkt für eine breit abgestützte Messung und weit anerkannte Durchführung. Idealerweise erfolgt das Publizieren dieser Resultate über eine Intranet-Seite, welche diese Zahlen und Grafiken publiziert. Dadurch sind die Hauptkriterien (öffentliche Dokumentation, zentrale Messung und dauernde freie Verfügbarkeit der Resultate) einfach zu erfüllen Nutzen dieser Strategie Unter allen Beteiligten wird eine gemeinsame Ausgangsbasis gefunden, was, wo und wie gemessen wird. Von dieser Basis aus können gemeinsame Aktionen und Verbesserungen viel einfacher gestartet und koordiniert werden. Durch die Diskussion mit dem Kunden ergibt sich auch eine Sensibilisierung des Themas für alle Beteiligte, was für sich alleine schon eine Verbesserung der Datenqualität ergibt. Sind auch noch entsprechende Messungen vorhanden, welche öffentlich einsehbar sind, ergibt sich daraus ein Wettbewerb, der alle Beteiligten dazu anspornt, etwas zu tun, da die Früchte solcher Arbeit nicht nur nach aussen, sondern auch bei Linienvorgesetzten sehr gut sichtbar sind Nachteile und Risiken dieser Strategie Transparenz wird nicht überall gerne gesehen, da sie anderen Abteilungen einen Einblick in die eigene Organisation, deren Strategie, Effektivität und Effizienz gibt. Damit eröffnet man für sich selbst und den eigenen Mitarbeiter eine Angriffsfläche, was natürlich nicht alle wollen. 101 Vergleiche auch die Grundsätze zur wissenschaftlichen Arbeit in [ 5 ] bezüglich Prämissen und Untersuchungsdesign auf den Seiten 16/ Kunde wird hier verstanden als Auftraggeber und ist nicht gleichzusetzen mit einem Kunden der Firma. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 48 / 83

49 Aus diesem Grund muss diese Strategie in jedem Fall von allen Beteiligten befürwortet werden, damit sie umgesetzt werden und entsprechend positive Auswirkungen auf die Datenqualität haben kann Strategie B: Definition von Verantwortlichkeiten Ansatzpunkt dieser Strategie Wer sich nicht verantwortlich fühlt für etwas, verbessert auch nichts daran. Also muss es im Interesse aller sein, wenn sich die verschiedenen Stellen im Datenverarbeitungsprozess in Form von Rollen benennen lassen und es somit in deren Verantwortung liegt, verschiedene Funktionen und Tätigkeiten auszuführen. Folgende Businessrollen haben sich in der Realität als nützlich erwiesen: Prozess Owner Data Owner Data Definition Owner Data Consumer Data Provider Positionierung dieser Businessrollen im Modell In Abbildung 20 wird eine Positionierung und Zuordnung dieser Businessrollen im Modell aufgezeigt Der Prozess Owner Der Prozess Owner ist verantwortlich dafür, dass der Prozess definiert wird und festgelegt wird, in welchem Prozessschritt welche Daten erfasst und verändert werden. Normalerweise umfasst seine Verantwortung nicht nur den hier behandelten Bereich, sondern alles, was mit dem Prozess zu tun hat, also auch Sachen wie Zeitvorgaben, Prozessverbesserungen etc. Abbildung 20: Positionierung der Rollen im Modell der Fehlerarten In Bezug auf die Beurteilung der Datenqualität hat er auch für entsprechende Werkzeuge zur Messung, Publizierung und Hebung der Datenqualität zu sorgen, da er meistens derjenige ist, der ohnehin schon eine integrative Funktion innehat und auch weitgehend neutral im ganzen Thema agieren kann Der Data Owner Der Data Owner ist verantwortlich für alles, was mit seinen Daten geschieht. Er ist auch zuständig für die Definition, was überhaupt erfasst wird. Werden die Daten nur für den ursprünglich vorgesehenen Zweck verwendet oder auch für andere Prozesse? Wer darf überhaupt Einblick in die Daten erhalten (Datenschutz) und wie werden die Daten vor Verlust und unbeabsichtigter Veränderung (Datensicherheit) geschützt? Zudem ist er dafür verantwortlich, die richtigen Stellen zu finden, die ihm die gewünschten Daten in der gewünschten Qualität liefern. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 49 / 83

50 Er erstellt meistens auch die Business Rules 103, nach denen Dateneingaben überprüft und verarbeitet werden und die ein wichtiges Werkzeug bezüglich der Identifikation der Datenqualität sind. In Bezug auf die Datenqualität muss er dafür sorgen, dass die Bereiche und Methoden definiert werden, und klären, wie die Datenqualität gemessen werden soll. Sehr oft ist der Data Owner identisch mit dem Data Consumer, kann aber auch dem Prozess Owner angegliedert sein oder sogar ganz ausserhalb dieses Modells stehen. Für die korrekte Benennung des Data Owners gibt es keine starren Regeln, sondern nur Hinweise darauf. Loshin beschreibt insgesamt 11 Möglichkeiten, wer der Data Owner sein könnte. Für ihn kommen folgende organisatorische Einheiten in Frage: Der Datenersteller, der Datenbezüger, der Datenverarbeiter, das Unternehmen als Ganzes, der Auftraggeber für die Datenerstellung, der Entdecker von Daten, der Zusammensteller von Datensets, der Leser, das Subjekt, der Lizenznehmer und Jedermann. 104 In der Realität des Unternehmens werden wohl kaum alle dieser möglichen Data Owner in Frage kommen trotzdem zeigt diese Auflistung, dass die korrekte Identifizierung des Data Owners nicht einfach ist und sorgfältig erfolgen sollte Der Data Definition Owner und Data Consumer Der Data Definition Owner ist meistens identisch mit der Stelle, die die Daten verwendet (Data Consumer) und ist somit der Nutzniesser der Daten. Er muss definieren, welche Daten er in welcher Qualität, Granularität und Form sowie in welchem Format benötigt. Werden die gleichen Daten von mehreren Stellen konsumiert, müssen sich diese entsprechend koordinieren Der Data Provider Der Data Provider ist zuständig für die zeitgerechte Beschaffung der benötigten Daten in der benötigten Qualität. Da der Data Provider die Daten ins System einbringt, ist hier auch der klassische Ansatzpunkt für viele Verbesserungsmassnahmen zu finden vor allem für Massnahmen bei den weichen Faktoren nach Abbildung 10. Das heisst aber nicht, dass Initiativen zur Verbesserung der Datenqualität nur hier ansetzen dürfen. Wird nämlich vom Data Consumer nicht definiert, in welchem Format er die Daten benötigt, wird es für den Data Provider schwierig, den unausgesprochenen Anforderungen gerecht zu werden Nutzen dieser Strategie Schon alleine durch die formale Regelung von Verantwortlichkeiten wird Transparenz (siehe dazu auch Strategie A) in das ganze System eingebracht. Wird die abgemachte Verantwortung auch richtig wahrgenommen, so kann das ganze Potential dieser Strategie voll ausgeschöpft werden. Im Idealfall werden diese Geschäftsrollen auch von der Technik mittels Zugriffsrollen adaptiert, so dass ein entsprechendes Abbild in Software gegossen wird und eine Kongruenz zwischen Aufgaben, Kompetenzen und Verantwortung erreicht wird Nachteile und Risiken dieser Strategie Die Definition, Implementation und Wartung von solchen Rollen ist immer ein Aufwand und bedingt eine saubere Verwaltung. Wenn Geschäftsrollen zusätzlich in technische Rollen münden, so sind auch hier entsprechende Verwaltungs- und Autorisierungsprozesse notwendig, welche wiederum einen Mehraufwand bedeuten. 103 Business Rule, englisch für Geschäftsregel. Mehr dazu unter [ 73 ]. 104 Loshin beschreibt diese 11 Ownership Paradigms detailliert in [ 34 ], Seiten Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 50 / 83

51 Eine derartige Implementation erhöht die Komplexität des Systems und die Abhängigkeit zu anderen Prozessen respektive kreiert neue Prozesse, welche wiederum eine entsprechende Datenqualität aufweisen müssen. Daher erhöht diese Strategie den Aufwand rund um die Datenbank, um die es eigentlich geht. Dem kann begegnet werden, indem mehrere Produkte zu Produktgruppen zusammengefasst werden und somit für ganze Produktgruppen Prozesse und Autorisierungsrollen definiert werden können. Das optimiert den Verwaltungs-, Administrations- und Dokumentationsaufwand. Zudem ist ein System auch selten ein Standalone-System in einem Unternehmen, sondern es bewegt sich meistens in einem Kontext von anderen Systemen oder/oder Prozessen, was diese Zusammenfassung weiter erleichtert Strategie C: Die Grundsätze der Softwareentwicklung ausnutzen Ansatzpunkt dieser Strategie Zum Thema Softwareentwicklung gibt es umfangreiche Literatur. Darin werden auch viele Grundsätze der Softwareentwicklung propagiert, welche alle auch ihre Auswirkung auf die Datenqualität haben. Nicht in jedem Fall eine kurzfristige aber immer eine Auswirkung. Volker Würthele umschreibt diese Tatsache mit dem Bild des Eisbergs aus Abbildung 21, von dem man nur den Teil wahrnimmt, der über die Wasserlinie hinausragt. Der Hauptteil des Eisbergs ist unter der Wasserlinie und damit dem Betrachter verborgen. Übertragen auf die Datenqualitätsproblematik nimmt der Datenbezüger nur den Pflegezustand der Daten wahr die Technikqualität bleibt ihm grundsätzlich verborgen. Diese offenbart sich ihm erst über die Zeit hinweg. Zur Technikqualität gehören neben den unten aufgeführten Punkten auch noch die Aspekte der DIN-Norm 66272, welche als Qualitätsmerkmale folgende Punkte festlegt: Funktionalität, Zuverlässigkeit, Benutzbarkeit, Effizienz, Änderbarkeit und Übertragbarkeit. 105 Abbildung 21: Das Verhältnis von Pflegezustand und Technikqualität Zitiert aus Stahlknecht in [ 53 ], Seite Grafik aus Würthele in [ 89 ], Seite 35. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 51 / 83

52 Von der Anforderung zur fertigen Software Markus Helfert hat auf dem Weg vom Benutzerbedürfnis zur fertigen Software die Qualitätsstolpersteine weiter eingekreist: Er nennt hier namentlich die Designqualität und die Ausführungsqualität. 107 Designqualität bedeutet, dass die Spezifikation einer Software tatsächlich den Anforderungen des Kunden entspricht. In diesem Bereich findet laut Helfert auch die Qualitätsplanung statt. Oder knapp formuliert: Wie gut werden die Bedarfe durch die Produktspezifikation erfüllt? Im zweiten Teil, der Ausführungsqualität, wird untersucht, ob die im ersten Teil erstellte Spezifikation entsprechend umgesetzt wurde. In diesem Bereich stellt sich die Frage: Wie gut stimmt das Produkt mit der vorgegebenen Spezifikation überein? Auch in diesem Aufsatz führt Helfert einen Teil der im Kapitel 4.3 aufgeführten Datenqualitätsproblemfelder auf: Datenerfassung, Dateninterpretation und Datentransfer. Weiter nennt er noch die Integration unterschiedlicher operativer Systeme, welche aber eher im Kontext von Data Warehouses zu sehen sind. Abbildung 22: Stolpersteine in der Softwareentwicklung für die Datenqualität Softwaredesign und Dokumentation Auch das Softwaredesign und die Dokumentation tragen dazu bei, die Datenqualität langfristig auf einem hohen Niveau zu halten. Zusammen mit anderen Punkten wie dem Datenbankdesign bilden sie die Softwarequalität, welche insgesamt bestimmt, in welcher Qualität die Verarbeitung der Daten und die langfristige Sinnspeicherung der Daten erfolgt. Obwohl die Erstellung und Funktionsweise einer Applikation weder für den Anwender, noch für den Datenbezüger oder den Prozess Owner sichtbar ist, spielt es eine Rolle, aufgrund welcher Technik ein Resultat zustande gekommen ist. Spätestens wenn es um die Erweiterung der bestehenden Lösung geht, zeigt es sich, ob die Basis für den Ausbau genügend ist oder eben nicht. Würthele beschreibt diesen Punkt anhand von zwei fiktiven Applikationen, die vordergründig gleich aussehen, keine Schnittstellen zu anderen Applikationen besitzen sowie dem Anwender dieselben Daten und Verarbeitungen anzeigen. 107 Zusammenfassend zitiert aus Helfert in[ 22 ] und [ 23 ]. 108 Zitiert aus Helfert in [ 22 ], Folie 11. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 52 / 83

53 Beispiel 4: Die eine Applikation (A) baut auf den Grundlagen der Softwareentwicklung auf, indem eine weit verbreitete Datenbank verwendet wird, sämtlicher Programmcode in einer modernen, objektorientierten Programmiersprache erstellt wurde und durchgängig dokumentiert ist und auch entsprechende Datenmodelle vorhanden sind. Die andere Applikation (B) ist von einem Werkstudenten während einem Wochenende in einer veralteten Programmiersprache geschrieben worden, für den der Hersteller keinen Support mehr bietet. Die Daten werden während der Programmlaufzeit im Speicher gehalten und nur durch Benutzeranweisung in eine Datei gespeichert. Beurteilt man diese beiden Lösungen aufgrund des Pflegezustandes (der Teil, der über der Wasserlinie ist), wird man sicher der Bastellösung den Vorzug geben, da diese wesentlich schneller und günstiger erstellt wurde als die Applikation A und das gleiche leistet. Tritt jedoch ein Störfall ein oder soll die Applikation erweitert werden, kommt der Teil unter der Wasserlinie zum Tragen die Technikqualität. Je mehr Probleme oder Änderungswünsche auftauchen, desto schneller wird die Datenqualität in Applikation B absinken Die Wichtigkeit der Dokumentation Die Wichtigkeit der Dokumentation über die erstellte Software wird in jedem Kurs über Softwareentwicklung thematisiert und herausgestrichen. Trotzdem ist es auch heute noch eher die Ausnahme, wenn ein Entwickler seine Software freiwillig umfassend dokumentiert. Dabei ist hier ein wichtiger Schlüssel zur Datenqualität verborgen, ist in der Software doch die Businesslogik fest verdrahtet. David Loshin beschreibt in [ 34 ] das Problem von so genannten Legacy Databases : Legacy databases pose interesting data quality questions, since it is likely that the people originally involved in the creation and development of the database have long since left the organisation. Legacy databases hold more than just data they hold secrets about embedded business rules folded into the way the information is stored, viewed, manipulated, and so on. 110 Damit es nie soweit kommt, ist es notwendig, dass alle implementierten Regeln rechtzeitig dokumentiert werden und für alle involvierten Personen zugänglich sind Datenbankdesign Die Verwendung von Datentypen Standard-Datenbanken verfügen im Normalfall über verschiedene Datentypen, die dem Programmierer zur Verfügung gestellt werden. Im Normalfall sind dies einfache Typen wie Ganzzahl, Fliesskommazahl, Textfeld und Datum in verschiedenen Grössen. Macht man es sich beim Design der Datenbank einfach, besteht die Datenbank nur aus Textfeldern. Die Konsequenz dieses Designs ist jedoch, dass sich Informationen daraus garantiert nicht konsistent speichern lassen, geschweige denn, dass sich aus solchen Daten konsistente Reports generieren lassen. Der wichtigste Punkt hierbei ist das Wissen um die benötigten Datentypen. Als einfaches Beispiel soll hier eine kleine Adressdatenbank herangezogen werden Beispiel Adresse Bereits in einer Adress-Datenbank in ihrer einfachsten Form kommen spezielle Datentypen vor, welche überprüft werden können und auch sollen. Die Postleitzahl ist beispielsweise so ein Feld. Es ist bekannt, dass in der Schweiz eine Postleitzahl nur aus Zahlen besteht, es immer vier Zahlen sind 109 Gekürztes Beispiel aus Würthele in [ 89 ], Seite 36ff. 110 Zitat aus Loshin in [ 34 ], Seite 57. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 53 / 83

54 und am Beginn niemals eine 0 stehen darf. Dank diesem Wissen lässt sich die Benutzereingabe mit Hilfe einer einfachen Typenprüfung rudimentär überprüfen. Aber Vorsicht: In Deutschland sind es fünf Zahlen, wobei als erste Zahl eine 0 stehen darf und in Grossbritannien kommen sogar Buchstaben in der Postleitzahl vor. Mit diesem Wissen lässt sich die Typenprüfung der Postleitzahl nun international erweitern und sicher auf das korrekte Format überprüfen. Durch die Zuhilfenahme eines zweiten Datenbankfeldes, nämlich dem Land, kann zuverlässig überprüft werden, ob eine gültige Eingabe gemacht wurde. Bei dieser Prüfung geht es um einen Check auf der ersten Stufe nach der einfachen Definition aus Kapitel 2.5. Möchte man auch noch die zweite Stufe nehmen, würde das den Einbezug einer Postleitzahlen-Datenbank benötigen, welche aufgrund der eingegebenen Postleitzahl die Ortschaft ausgibt und im Idealfall gleich noch mitprüft, ob die angegebene Strasse und Hausnummer existiert Beispiel Spezielle Informationen Bei anderen Datenfeldern dürfen nur gewisse Informationen drinstehen. Also darf der Benutzer gar nicht erst die Möglichkeit haben, etwas Inkonsistentes einzugeben. Ein Beispiel dafür ist in einer Personendatenbank das Geschlecht. Es gibt alleine im Deutschen mindestens 10 Möglichkeiten, einer Person das weibliche Geschlecht zuzuordnen, wenn dieses Feld ein Freitextfeld ist. 111 Hier darf der Benutzer nur die Möglichkeit haben, vorgegebene Werte einzugeben. Idealerweise erfolgt dies mit Auswahlfeldern oder sogenannten Listboxen. Für andere Anwendungen kann es vorteilhaft sein, das Datenbank-Modell entsprechend zu erweitern, damit an solchen Orten auf Entitäten verlinkt wird und nicht hart codierte Elemente verwendet werden Usability In der ISO Norm 9241 wird Usability als das Ausmass definiert, in dem ein Produkt durch bestimmte Benutzer in einem bestimmten Nutzungskontext genutzt werden kann, um bestimmte Ziele effektiv, effizient und zufrieden stellend zu erreichen. 112 Die Usability hat in erster Linie den Fokus, dass ein Anwender ein Programm möglichst einfach und problemlos bedienen kann und benötigte Dinge dort auf dem Bildschirm findet, wo er sie erwartet. Als Auswirkung dieser Usability wird der Benutzer schneller, lieber, motivierter und effizienter arbeiten als mit einem System, welches eine schlechte Usability besitzt. 113 Die Folge ist, dass sich der Anwender mehr auf die Arbeit konzentrieren kann und sich weniger um die Bedienung des Programms kümmern muss, womit ihm weniger Fehler unterlaufen und die Qualität der be- und verarbeiteten Daten höher ist Nutzen dieser Strategie Daten werden in einer konsistenten Form abgelegt und können daher auch in einer konsistenten Form ausgewertet werden. Muster, Korrelationen und Verbindungen können nur aus einer konsistenten Datenbasis korrekt ausgewertet werden. Das Design von strukturierten und konsistenten Datenbanken anstelle von ungeordneten Datenhaufen ist eine konzeptionelle Anforderung an das Applikations- und Datenbankdesign. Werden hier Fehler gemacht, müssen hinterher die Probleme mittels Data Cleansing (siehe dazu auch Kapitel 3.1.2) oder aufwändigen manuellen Bereinigungsaktionen wieder korrigiert werden. 111 Nicht unübliche Möglichkeiten in deutscher Sprache (mit Vertipper) ein weibliches Geschlecht in einem Freitextfeld einer Datenbank einzutragen: F, f, Frau, frau, FRAU, FRau, Fräulein, fräulein, FRÄULEIN, Fräulein. Werden noch andere Sprachen oder Schreibfehler berücksichtigt, explodiert die Zahl der Möglichkeiten. 112 Definition von Usability nach usability.ch in [ 60 ]. 113 Siehe usability.ch in [ 61 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 54 / 83

55 Eine hohe Usability bringt den Nutzen, dass sich die Benutzer weniger mit der Technik und der Bedienung der Software beschäftigen müssen und sich mehr auf die effektive Tätigkeit konzentrieren können Nachteile und Risiken dieser Strategie Eine kurzzeitige Betrachtung wird in dieser Strategie (ausser dem Punkt der Usability) nicht viele oder gar keine Vorteile sehen. Erst die mittel- und langfristige Betrachtung eröffnet entsprechende Vorteile. Das grösste Risiko dieser Strategie liegt darin, dass die Software overengineered wird also dass zu viele Ressourcen konzentriert werden in der Software, der Datenbank und den Tools und Prozessen um die Applikation herum in Relation zum Ertrag der dadurch gewonnenen Datenqualität und anderer Effekte dieser Tätigkeit Strategie D: Datenabhängigkeiten sind Gold wert Ansatzpunkt dieser Strategie Informationen, welche lediglich dokumentarisch irgendwo abgelegt sind, veralten viel schneller, als wenn sie in einer technischen oder gar finanziellen Abhängigkeit eingebaut sind. Somit werden Redundanzen innerhalb der Datenbank oder über verschiedene Datenbanken hinweg gezielt zur Validierung von bestehenden Informationen verwendet, um die Datenqualität zu erhöhen. Dabei muss die Information nicht tatsächlich redundant abgespeichert werden es reicht teilweise schon, wenn die Herkunft einer Information bekannt ist. Beispiel 5: Vor Ihnen steht auf zwei separaten Blättern Papier die Information, dass ein entfernter Bekannter von Ihnen ein Auto einer bestimmten Marke fährt. Dummerweise sind die beiden Informationen nicht übereinstimmend. Beide Informationen könnten plausibel sein aber Sie sind sich sicher, dass er nur ein Auto besitzt. Nun stehen Sie vor dem Problem, welcher dieser beiden Informationen sie mehr vertrauen. Das erste Papier ist ein Ausdruck der Webseite dieses Bekannten, auf der er angibt, dass er Fahrzeug A fährt. Das zweite Papier ist ein Ausschnitt von der Parkplatzliste seines Arbeitgebers, auf welchem steht, dass unter seinem Namen das Fahrzeug B für den Parkplatz Nummer 15 angemeldet ist. Welche dieser beiden Informationen ist vertrauenswürdiger? Die vertrauenswürdigere Information ist sicher diejenige, welche aus der Parkplatzliste stammt. Wieso? Immerhin stammt doch die andere Information direkt vom Bekannten selbst. Das Problem liegt hier darin, dass es keinerlei Konsequenzen hat, wenn auf seiner Webseite noch das vorletzte Auto aufgeführt ist vielleicht hat er einfach vergessen, dass er diese Information jemals da hingestellt hat und hat sie deshalb nie aktualisiert. Dagegen wird bei zugewiesenen Parkplätzen einer Firma im Normalfall ein Auto nach einer ersten Mahnung sehr schnell entfernt, wenn es nicht da hingehört. Also hat es direkte Konsequenzen, wenn die Information nicht korrekt ist der Autohalter wird möglichst schnell sein neues Auto in der Parkplatzliste nachtragen lassen, um nicht zu riskieren, dass es abgeschleppt wird. Solche Abhängigkeiten sind auch für Datenbanken Gold wert Gezielte Definition von Master und Slave Redundanzen bergen immer die Gefahr von Doppelspurigkeiten und Widersprüchen in sich. Daher muss sichergestellt werden, dass solche Redundanzen periodisch abgeglichen werden. Dazu wird für jede redundant vorliegende Information ein Master (die vertrauenswürdigere Quelle) bestimmt und dann dessen Informationen in die andere Datenbank kopiert, welche als Slave oder Spiegel betrieben wird unabhängig davon, ob an der Slave-Datenbank Änderungen vorgenommen wurden. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 55 / 83

56 Dadurch müssen die gespiegelten Daten nicht mehr an mehreren Orten gepflegt werden, sondern werden nur noch an demjenigen Ort bewirtschaftet, an dem die benötigte Datenqualität sichergestellt werden kann. Von dort aus werden diese Informationen an alle anderen Applikationen verteilt, welche Interesse an diesen Informationen haben. Wichtig! Dieses Vorgehen hat nichts gemeinsam mit der Datenintegration aus Kapitel 3.1.3, sondern ist als gezielter Datenaustausch zwischen gleichberechtigten Datenbanken zu verstehen. Abbildung 23: Der Datenfluss zwischen verschiedenen Applikationen. Siehe dazu die Beschreibung im Beispiel 6 Während es bei der Datenintegration darum geht, alle Daten an einem Ort zu sammeln, wird bei diesem Ansatz mit gezielt verteilten Datenbanken gearbeitet, welche jede für sich stehen und für einen ganz klar umrissenen Bereich eine Masterfunktion haben. Beispiel 6: Ein gutes Beispiel für den sinnvollen Einsatz der Master-Slave-Technik ist das Personalverzeichnis einer grösseren Firma. Für diese Informationen gibt es in den verschiedensten Applikationen innerhalb der gleichen Firma Abnehmer. Angefangen von der reinen Anzeige im internen Telefonverzeichnis bis zur Verwendung in der Salärabrechnung In Abbildung 23 ist ersichtlich, wie die Daten beispielsweise zwischen verschiedenen Applikationen ausgetauscht werden können: Die Personaldatenbank ist der geeignete Master für Personendaten, da von hier aus auch die Salärzahlungen ausgehen. Eine schlechte Datenqualität im Personenstamm wird hier zuerst bemerkt. Also ist es ideal, wenn für das Telefonverzeichnis die Namen von hier bezogen werden. Für die Telefonnummern ist es aber besser, die Daten direkt von der Telefonzentrale zu beziehen, da eine falsche Telefonnummervergabe hier zuerst bemerkt wird Nutzen dieser Strategie Durch das gezielte Einbinden von Informationen einer Datenbank in technische oder buchhalterische Abläufe werden Abhängigkeiten geschaffen, welche durch eine Rückkopplung aus der Realität die Daten um ein vielfaches genauer beschreiben, als wenn die Informationen rein dokumentarischen Charakter haben. Idealerweise wird diese Strategie mit der Strategie F, der unternehmensweiten Verwendung von Metadaten, kombiniert, um durch die Vereinheitlichung dieser Metadaten die Interoperabilität und damit die Voraussetzungen zum Datenaustausch zu verbessern Nachteile und Risiken dieser Strategie Abhängigkeiten sind nicht nur erwünscht sondern bergen auch negative Effekte in sich. So ist bei jeder Schnittstelle ein Koordinationsaufwand zwischen den beteiligten Applikationen zu berücksichtigen. Auch steigt mit jeder Schnittstelle die Komplexität der ganzen Infrastruktur. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 56 / 83

57 Sind dann noch jeweils verschiedene Technologien bei den Schnittstellen zu berücksichtigen, so kann dieser Ansatz auf dem organisatorischen Gebiet zu einer Komplexität führen, die irgendwann nicht mehr überblickbar ist. In solchen Fällen können Proxyserver 114 oder Datawarehouses/Datamarts verschiedene Datenquellen zusammenführen und diese zentral den Datenbezügern zur Verfügung stellen, wie es in Abbildung 24 dargestellt ist. Dieser Zusammenzug von Informationsquellen ändert aber nichts daran, dass immer noch die einzelnen Applikationen die Masterfunktion innehaben und darum Änderungen an den Daten dort durchgeführt werden müssen. Das Datawarehouse selbst übernimmt nur die Funktion einer zentralen Datenlogistik. Abbildung 24: Die Master-/Slave-Datenbanken in einem erweiterten Konzept mit einem zentralen Datawarehouse als Proxy Wichtig ist hier, dass andere Anforderungen der Informationstechnik und der Organisationslehre wie beispielsweise der Datenschutz weiterhin gewährleistet werden. So darf nicht einfach jeder lesend auf die Personaldatenbank zugreifen, da dort auch vertrauliche Informationen wie Gehalt, Bankverbindung und Privatinformationen abgelegt sind. Solche Informationen müssen dann noch besser als ohne Vernetzung über Zugriffsrechte geschützt werden oder sie werden gar nicht erst übermittelt Strategie E: Daten-Lifecycle auf Basis des Prozesses Ansatzpunkt dieser Strategie Genauso wie es im Fokus der Organisation von Unternehmen eine Verschiebung gibt von der Aufbauorganisation zur Ablauforganisation, respektive dem Prozess 115, gilt auch bei der Organisation von Datenbeständen, dass es weniger wichtig ist, wer zuständig ist für die Kundengewinnung, das Bestellwesen oder das Mahnwesen, sondern dass es wichtiger geworden ist, welchen Prozess ein Datensatz durchläuft vom Zeitpunkt der ersten Erfassung bis zur Eliminierung Der Prozess Diese Abfolge kann als Lifecycle (Lebenszyklus) des Datensatzes beschrieben werden. Analog zum Produktlebenszyklus 116 durchläuft ein Datensatz dabei mehrere verschiedene Phasen. Die Definition und Unterteilung dieser Phasen erfolgt durch das Wissen darüber, wo und unter welchen Umständen 114 Proxy von englisch proxy representative = Stellvertreter. Als Proxyserver wird ein System bezeichnet, welches eine Stellvertreterfunktion zwischen einem Datenlieferant und einem Datenbezüger einnimmt. 115 Siehe Müller-Stewens/Lechner, 2003 in [ 38 ] Seite 450: Ging es bei der Diskussion um geeignete Organisationsstrukturen lange Zeit schwerpunktmässig um Fragen der Aufbauorganisation, ist im Zuge von»business Process Reengineering«die Ablauforganisation verstärkt in den Vordergrund gerückt. 116 Siehe Müller-Stewens, Lechner, 2003 in [ 38 ] Seite 255. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 57 / 83

58 eine Information entsteht oder verändert wird und wo sie am zweckmässigsten erfasst und verändert wird Der Lebenszyklus Schaut man sich um, entdeckt man in fast allen Situationen des Lebens irgendwelche Lebenszyklen oder in englisch Lifecycle 117. Sei es im erdgeschichtlichen oder im kurzzeitigen Massstab: Sowohl die Gattung der Dinosaurier als auch eine Seifenblase haben ihren eigenen Lebenszyklus, der sich in klar unterscheidbare Phasen einteilen lässt. Weshalb soll sich das nicht auch auf Daten anwenden lassen? Tatsächlich zeigt es sich, dass auch eine Kundenbeziehung oder das Leben einer Adresse in einem CRM-System einem Lifecycle unterworfen ist. Beispiel 7: Eine Person interessiert sich für ein Produkt einer Firma. Man soll ihr deshalb einen Katalog zusenden. Dafür ist es notwendig, Name und Adresse im System zu erfassen. Weitere Informationen wie beispielsweise die Bonität sind zu diesem Zeitpunkt der Kundenbeziehung weder praxisgerecht noch notwendig. Im Lifecycle ausgedrückt wäre diese Adresse nun im Lifecycle-Status Interessent. Als Mussfelder existieren hier der Name und die Adresse und sonst nichts. Alles andere wird nur als fakultatives Feld geführt. Wird nun aus der Katalogbestellung eine Produktbestellung, geht der Datensatz vom Status Interessent in den Status Besteller über, bei der einige zusätzliche Felder zu Mussfelder werden können. Mögliche Felder wären beispielsweise der direkte Ansprechpartner. Parallel zur Kommissionierung der Bestellung läuft nun die Abklärung der Bonität. Nur wenn das Resultat positiv ist, kann der Status auf Kunde geändert werden. Von nun an ist dieses Datenbankfeld ein Mussfeld. Idealerweise ist das System so eingerichtet, dass ein Versand von Artikel nur an Adressen in diesem Status möglich ist. Ist die Abklärung der Bonität negativ, wird der Status auf Unerwünscht gesetzt, die Kommissionierung wird wieder rückgängig gemacht und an den abgewiesenen Kunden eine entsprechende Mitteilung versendet. Sollte der Kunde trotzdem noch einmal bestellen, kann schon bei der Aufnahme der Bestellung aufgrund des Lifecycle-Status der Kunde abgewiesen werden. Durch die Implementierung eines solchen Lifecycle-Konzeptes ist es möglich, viele der Probleme mit leeren Datenfeldern, respektive mit unter Zwang gefüllten und damit wertlosen Feldern, einfach und wirkungsvoll zu lösen. Abbildung 25: Lebenszyklus für eine Adresse aus Beispiel Nutzen dieser Strategie Durch die Implementierung eines solchen Lebenszyklus-Modells lassen sich sehr einfach und effizient die starren Möglichkeiten von Datenbanken aufbrechen, die einen vor die Wahl stellen, ein Feld immer als Mussfeld oder immer als fakultatives Feld zu definieren. Durch den Lebenszyklus lässt sich ein Datenbankfeld für einzelne Phasen als Mussfeld definieren, während es in anderen Phasen nicht zwingend gefüllt werden muss. 117 Siehe auch Kotler/Bliemel, 2001, welche den Produktlebenszyklus in [ 30 ] Seite 571ff. beschreiben. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 58 / 83

59 Nachteile und Risiken dieser Strategie Auch bei diesem Vorgehen wird die Komplexität des Gesamtsystems erhöht. Zudem wird die Flexibilität in der Geschäftslogik mit einer erhöhten Komplexität in der Benutzerschnittstelle erkauft. Existieren zu dieser Datenbank Schnittstellen von anderen Applikationen oder gibt es Benutzer, welche unter Umgehung der normalen Benutzerschnittstelle auf die Datenbank schreiben können, dann muss über entsprechende Trigger und Prozeduren sichergestellt werden, dass die Datenmanipulation der Logik des aktuellen Lifecycle-Status entspricht. Zusätzlich müssen Bedingungen für die einzelnen Lebenszyklusphasen erstellt, implementiert und gewartet werden. Da dies aber alles innerhalb der gleichen Applikation und Datenbank erfolgen muss, können die Regeln auch gut dynamisch publiziert werden idealerweise über eine entsprechende Webseite, welche direkt auf die Datenbank zurückgreift. Dadurch kann das Risiko von veralteter und unauffindbarer Dokumentation (siehe dazu auch Kapitel 5.3.4) weitgehend eliminiert werden Strategie F: Unternehmensweite Verwendung von Metadaten Ansatzpunkt dieser Strategie Metadaten beschreiben die einzelnen Felder einer Datenbank. Sie sind somit die Dokumentation der Datenbank und werden bei einem Datenaustausch zwischen verschiedenen Systemen als erstes beigezogen, um abzuklären, welche Übereinstimmungen vorhanden sind. Dabei zeigen sich teils überraschende Probleme: Zwei Datenbanken die miteinander kommunizieren wollen, haben Probleme damit, weil das zu übertragende Feld unterschiedlich definiert ist. Diese Unterschiede können sowohl technischer wie auch inhaltlicher Natur sein. So kann beispielsweise eine Postleitzahl je nach Datenbankdesign völlig unterschiedlich definiert sein. Das Datenfeld kann als String unterschiedlicher Länge oder auch als Zahlenfeld definiert sein (siehe dazu auch Kapitel ). Oder das Geschlecht einer Person kann mit Mann / Frau, Herr / Frau, M / F, Mr / Mrs, Mister / Misses definiert sein. Bei diesem Beispiel lassen sich die Werte noch mittels Übersetzungstabellen zusammenführen. Es dürften sich aber in fast jeder Datenbank Inhalte finden, welche sich nicht so einfach mit Übersetzungstabellen erledigen lassen. Werden die Metadaten unternehmensweit standardisiert, so bedeutet dies, dass alle beteiligten Datenbanken über nur noch eine gemeinsame Definition des Geschlechtsfeldes verfügen, womit der Datenaustausch zwischen Applikationen und Datenbanken wesentlich einfacher wird Nutzen dieser Strategie Sind diese Metadaten-Standards unternehmensweit etabliert, so ist es ein leichtes, verschiedenste Datenbanken miteinander zu verbinden. Zusätzlich erreicht man durch die Vereinheitlichung der Metadaten eine Standardisierung der Interpretation der Daten und damit auch Verbesserung des Verständnisses dieser Daten. Es entstehen weniger Missverständnisse über den konkreten Inhalt und damit kann effizienter gearbeitet werden. Den vollen Vorteil ausspielen kann diese Strategie vor allem dann, wenn sie mit der Strategie D (Datenabhängigkeiten sind Gold wert) kombiniert wird Nachteile und Risiken dieser Strategie Eine Vereinheitlichung der Metadaten bedingt zuerst, dass jede der betroffenen Datenbanken überhaupt erst ihre eigenen Metadaten kennt, definiert und dokumentiert. Erst in einem zweiten Schritt kann begonnen werden, diese Metadaten anzugleichen. Dabei ist es unausweichlich, dass Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 59 / 83

60 alle beteiligten Applikationen angepasst werden müssen und somit die Applikationen einen Aufwand treiben müssen, der sich aus Kundensicht nicht direkt in neuen oder verbesserten Funktionen niederschlägt. Somit ist es schwierig, bei den entsprechenden Entscheidungsträgern die dafür notwendigen Ressourcen zu bekommen. Ein weiteres Problem dieser Strategie ist, dass es aus den erwähnten Gründen sehr lange dauert, bis sie Früchte trägt. Die Umsetzung dieser Strategie ist daher eher als längerfristiges Ziel zu positionieren. Als Risiko lässt sich anführen, dass im Rahmen dieser Strategie Umstellungen in Datenbanken gemacht werden, welche nie mit anderen Datenbanken in einen Datenaustausch treten. Somit wurde ein Aufwand getrieben, für den nie ein Ertrag eingetreten ist Strategie G: Niederschwellige Verbesserungs-Werkzeuge Ansatzpunkt dieser Strategie Manche Verantwortliche wissen um die Datenqualität ihres Bereiches. Spätestens bei der allgemeinen Ausweisung des Datenqualitätswertes sehen es aber auch Andere. Das heisst aber noch lange nicht, dass der Verantwortliche auch willens oder gar fähig ist, diesen Zustand zu ändern. Damit dies geschieht, müssen ihm auch entsprechende Werkzeuge in die Hand gegeben werden. In Anlehnung an die inzwischen weit verbreiteten Cockpits werden zentrale Elemente aller Messungen und auch der Einstiegspunkt für Veränderungen auf einer zentralen Seite dargestellt Beispiel eines niederschwelligen Datenqualitäts-Tools Das hier vorgestellte Cockpit wurde im Rahmen der Inventar-Applikation i-sac der Firma UBS verwirklicht Schritt 1 Einstieg über die Management-Sicht Der Einstieg in dieses System bildet die Management-Sicht aus Abbildung 26, welche in Balkenform die gemessenen Werte anzeigt. Abbildung 26: Schritt 1 Die Management-Sicht in Balkenform Schritt 2 Auswahl des eigenen Bereiches Im nächsten Schritt klickt der Verantwortliche für einen der Streams auf den blauen Link seines Streams (Siehe Abbildung 27) und erhält eine Detail-Fehlerliste im EXCEL-Format. 118 Siehe dazu auch Henning in [ 24 ], Seite 2: Im Idealfall sollte ein Qualitätsmanagementsystem für Dienstleistungen einem Cockpit oder Leitstand entsprechen, in dem alle relevanten Informationen auflaufen und von dem aus Kontroll- und Steuerungsmassnahmen eingeleitet werden können. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 60 / 83

61 Abbildung 27: Schritt 2 Aufruf der Detailliste Schritt 3 Detaillisten für das Fehlertracking Diese Detailliste kann nun in EXCEL nach Belieben sortiert, erweitert und über die Autofilter Funktion von EXCEL eingeschränkt werden. Abbildung 28: Schritt 3 Die Detailliste in EXCEL Wie in Abbildung 28 ersichtlich, ist im EXCEL-Arbeitsblatt die Software Component ID mit einem Link hinterlegt, der direkt auf das Stammblatt dieser Software-Komponente führt Schritt 4 Alle Informationen dieses Objektes auf einen Blick Das Stammblatt dieses Objektes zeigt nun alle zugehörigen Informationen wie Attribute und Verbindungen zu anderen Objekten auf einer einzigen Webseite an. Abbildung 29: Schritt 4 Das Stammblatt der Software-Komponente Schritt 5 Die Verbesserung der Datenqualität Wird nun der Bearbeiten -Knopf in Abbildung 29 angeklickt, wird in die Modifikations-Ansicht (in Abbildung 30) gewechselt, in der sofort die Daten verbessert, ergänzt und abgespeichert werden können. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 61 / 83

62 Abbildung 30: Schritt 5 Auswahl der entsprechenden Information und Speichern Der ganze dargestellte Ablauf dauert im Normalfall zwischen 1 und 3 Minuten, wenn die verantwortliche Person die notwendigen Informationen gleich zur Hand hat Die Infrastruktur dieses Werkzeuges Durch den Einsatz von Web-Applikationen in Verbindung mit Standardprogrammen wie EXCEL entstehen zwar Medienbrüche vom Browser in ein lokales Programm und wieder zurück in den Browser diese Medienbrüche äussern sich aber nicht darin, dass dem Benutzer Mehrarbeit aufgezwungen wird, sondern darin, dass der Benutzer mit gewohnten Werkzeugen arbeiten kann und dank Hyperlinks scheinbar nahtlos von einem Programm ins andere weitergeleitet wird. Im Hintergrund ist die Infrastruktur sogar noch weiter aufgesplittet. Diese Tatsache wird dem Benutzer aber komplett vorenthalten, indem Seiten über HTML-Frames in die Website von i-sac eingebunden werden. Die Datenbanken von i-sac und dem Datenqualitäts-Tool sind komplett voneinander getrennt, was für den Anwender nicht ohne Weiteres ersichtlich ist ihn aber auch nicht zu interessieren braucht Nutzen dieser Strategie Verantwortliche können sich aus diesem sehr oft ungeliebten Thema ab sofort nicht herausreden mit Ausflüchten wie ich weiss nicht wie oder ich bin zwar verantwortlich, aber ich kann nichts daran ändern. Stehen möglichst einfache Mutationsmöglichkeiten bereit, mit denen Verantwortliche einen fehlerhaften Zustand möglichst schnell ändern können, wird dieser auch verändert Nachteile und Risiken dieser Strategie In diesem Fall wurde für dieses Cockpit eine komplett neue und separate Applikation geschaffen, welche wiederum der Problematik der Entwicklung, Dokumentation und Datenqualität untersteht. Zudem erhöht diese Transparenz in den einzelnen Bereichen den Druck auf die verantwortlichen Personen, da diese nun von jedem in der Abteilung beurteilt werden können. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 62 / 83

63 5.8. Strategie H: Eingabe von Ich weiss es wirklich nicht Ansatzpunkt dieser Strategie Oft stehen Informationen zum angenommenen Zeitpunkt nicht oder nur in einer ungenügenden Qualität zur Verfügung. Formulare oder starre Datenbankmasken zwingen den Mitarbeiter aber dazu, eine Eingabe zu tätigen. Somit steht er im Dilemma, jetzt irgendetwas einzugeben, oder seine Tätigkeit abzubrechen. Da letzteres aber nur selten möglich ist (er möchte ja im Normalfall etwas erledigen), wird meistens die erste Variante angewendet, sprich es wird jetzt irgendetwas eingegeben. Wenn man Glück hat, gibt er immer denselben Wert ein (beispielsweise als Geburtsdatum immer den ) wenn man Pech hat, verwendet er irgendein Datum (beispielsweise Heute minus 20 Jahre). Glück hat man im ersten Fall deshalb, weil mit der offensichtlich falschen Eingabe ein späteres Erkennen des Fehlers leichter ist und er damit im Rahmen einer Bereinigung behoben werden kann. Diese Möglichkeit hat man nicht, wenn jedes Mal ein anderes Datum verwendet wird. Zwei schöne Beispiele dafür, dass es von Vorteil sein kann, wenn immer das gleiche Datum eingegeben wird, zeigen die zwei Grafiken aus Abbildung 31. Treten derartige Muster in den Daten auf, können die Anomalien relativ einfach erkannt und bereinigt werden. Abbildung 31: Zwei schöne Beispiele für Datumsausreisser 119 und dass solche bei der Verbesserung der Datenqualität von Vorteil sein können Zwei einfache Wege aus diesem Dilemma sind das Definieren von solchen Feldern als fakultative Felder idealerweise in Abhängigkeit vom Lebenszyklus 120 dieses Datensatzes oder man stellt dem Benutzer die Möglichkeit zur Verfügung, explizit zu sagen ich weiss es wirklich nicht, indem man ihm einen vordefinierten Wert für die schnelle Auswahl präsentiert. Diese zweite Variante ist aber nicht wirklich zufrieden stellend. Vor allem, wenn zu einem späteren Zeitpunkt die Informationen dieses Feldes zwingend benötigt werden Nutzen dieser Strategie Vom Anwender wird der Druck genommen, eine Information zwingend dann einzugeben, wenn der GUI-Designer dies vorsieht, sondern er bekommt die Freiheit, einen Geschäftsfall weiterzuführen auch dann, wenn er nicht gerade alle benötigten Informationen zur Hand hat. Eine wichtige Konsequenz dieser Strategie sind jedoch das Einführen von flankierenden Massnahmen, welche das Anhäufen des Datenhaufens ich weiss es wirklich nicht auf zu grosse Bestände verhindern. Hier muss zwischen den beiden folgenden Konsequenzen abgewogen werden, was schwerer wiegt: 119 Die Grafiken sind entnommen aus Block [ 7 ], Seite Details zum Lebenszyklus für Datensätze werden im Kapitel 5.5 näher erläutert. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 63 / 83

64 a) Eine Datenbank mit einer unbekannten Zahl von Einträgen mit schlechter Qualität, welche ich nicht erkennen kann. b) Eine latente Liste von Daten, welche nicht in Ordnung sind, ich diese aber konkret kenne und die mir einen gewissen Arbeitsaufwand zur Bereinigung bereiten. Die Antwort muss hier nach betriebswirtschaftlichen Gesichtpunkten über Aufwand und Ertrag ermittelt werden. Geht es um das Feld Geburtstag einer Person, so dürfte es der Firma einiges wert sein, diese Information möglichst korrekt zu führen. Geht es hingegen um das Feld Brillenträger, so dürfte es (ausser in Fällen von Optikern oder verwandten Branchen) wohl kaum interessant sein, einen allzu grossen Aufwand in der Korrektheit dieses Feldes zu betreiben. Diese Strategie ist vor allem dann interessant, wenn die Strategie E (Datenlifecycle auf Basis des Prozesses) nicht umgesetzt werden kann. Sie ist sozusagen ein Lifecycle-Management Light, da für ausgewählte Felder nicht in jedem Fall ein Wert eingesetzt werden muss. Gleichzeitig zeigt diese Strategie auch, wo es in einem Prozess allenfalls Unstimmigkeiten gibt, da benötigte Informationen nicht oder noch nicht in der notwendigen Qualität zur Verfügung stehen. Diese Strategie kann daher auch missbraucht werden, um den bestehenden Prozess über einen längeren Zeitraum zu analysieren, wenn andere Analyseinstrumente nicht eingesetzt werden können Nachteile und Risiken dieser Strategie Genau genommen handelt es sich bei dieser Strategie nicht um eine Datenqualitäts-Strategie, sondern eher um eine Entlastung des Benutzers innerhalb des Prozesses. Auch das Kapitel 2.14 Was Datenqualität nicht ist stützt diese Einstufung, da durch diese Umsetzung nicht direkt die Datenqualität verbessert wird. Andererseits trägt diese Strategie dazu bei, die Aussage eines Datensatzes zu verbessern, indem man sicher sein kann, dass der Eintrag in diesem Feld sicher kein Verlegenheitseintrag ist. Zusätzlich produziert diese Strategie täglich einen Haufen von Datensätzen, welche klar aussagen, dass hier eigentlich kein Inhalt vorhanden ist und daher noch zusätzlicher Aufwand in die Bereinigung dieses Feldes gesteckt werden muss Strategie I: Definition eines Verfalldatums Ansatzpunkt dieser Strategie Daten und Informationen veralten grundsätzlich wie jedes andere Produkt dieser Welt. Leider sieht man es ihnen jedoch nicht an, wenn gewisse Qualitätskriterien wie die Übereinstimmung mit der Realität nicht mehr erfüllt sind. Wird nun bei Datenfeldern zusätzlich angegeben, wann der Inhalt das nächste Mal überprüft werden muss, kann sowohl die Validierung der enthaltenen Daten regelmässig erfolgen, als auch die Aktualität der Daten besser beurteilt werden. Wird eine Information mutiert, kann gleichzeitig angenommen werden, dass diese Mutation gleichzeitig eine Validierung darstellt. Es kann aber zu Fehlinterpretationen führen, wenn das Mutationsdatum für den ganzen Datensatz und nicht nur für ein einzelnes Datenfeld gilt. Daher genügt es nicht, ein solches Datum auf Record-Ebene zu führen, sondern es muss effektiv für jedes Feld separat geführt werden. Bei der Umsetzung können zwei völlig unterschiedliche Wege gegangen werden: a) Bei den Daten wird das Datum der letzten Mutation oder Validierung angegeben. b) Bei den Daten wird das Datum angegeben, wenn die Gültigkeit abläuft. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 64 / 83

65 Beide Umsetzungen haben ihre Vor- und Nachteile: Vorteile a) Es ist immer klar ersichtlich, wann die letzte Mutation/Validierung erfolgt ist. Das Datum kann auch für die Beurteilung der Aktualität hinzugezogen werden. Die Programmlogik, welche Daten modifiziert, kann sehr simpel gestaltet werden, da einfach jeweils das aktuelle Datum eingesetzt werden muss. Wenn sich die Gültigkeitsfristen ändern, ist nur eine Änderung an der Auswertlogik notwendig, aber nicht an den Daten. b) Die Auswert-Logik kann sehr simpel gestaltet werden, da sie nur das Verfalldatum mit dem aktuellen Datum vergleichen muss. Nachteile Den abgespeicherten Daten sieht man nicht direkt an, wann die Gültigkeit abläuft. Man muss immer die Gültigkeitsfrist mit einbeziehen, um eine Gültigkeitsaussage treffen zu können. Die Auswertlogik gestaltet sich komplex vor allem bei unterschiedlichen Gültigkeitsfristen. Die Programmlogik für die Mutation muss immer noch die Gültigkeitsfristen berücksichtigen, bevor die Daten geschrieben werden können. Das kann bei performance-kritischen Applikationen zu weiteren Engpässen führen. Das letzte Mutations- oder Validierungsdatum kann nur durch Rechnen ermittelt werden. Hat sich inzwischen die Gültigkeitsfrist verändert, sind solche Aussagen nicht mehr machbar, oder das Datum muss für alle betroffenen Datensätze durch Rechnen neu ermittelt werden. Tabelle 5: Vor- und Nachteile der beiden Umsetzungen zum Verfalldatum Bei Erreichen des Verfalldatums können verschiedene Aktionen ausgeführt werden: Löschen des Inhaltes, Markieren des Inhaltes mit einem Zusatz, Markieren des Inhaltes in einem anderen Datenbankfeld, Markieren des Inhaltes mit einer speziellen Anzeige im GUI, Meldung per oder anderen Kommunikationsmitteln an eine vorher definierte Person, Unterdrücken des gesamten Datensatzes Nutzen dieser Strategie Aufgrund des Verfalldatums ist eindeutig feststellbar, wie aktuell jede einzelne Information ist. Zudem kann für jedes Feld eine andere Gültigkeitsfrist festgelegt werden, was ein fein abgestimmtes Netz über die Gültigkeit jedes abgespeicherten Attributes ermöglicht. Aussagen über die Aktualität lassen sich einfach machen, indem die Fristen bis zum Verfall oder dem Zeitraum seit der letzten Modifikation/Validierung überprüft werden. Dieses Netz kann beliebig fein oder weit gemacht werden, um den Bedürfnissen der jeweiligen Datenbank und des darauf aufbauenden Geschäfts Rechnung zu tragen. Andererseits lassen sich aus der Aktualität einer Information nur bedingt Aussagen über deren Richtigkeit ableiten. Hat man aber über einen längeren Zeitraum Informationen erhoben, die auf die eigene Datenbank abgeleitet werden können, so lassen sich durchaus gewisse Rückschlüsse auf die Datenqualität machen Nachteile und Risiken dieser Strategie Werden alle Datenbankfelder nach dieser Strategie mit Datumsfeldern versehen, so bedeutet dies eine Verdopplung der Anzahl Datenbankfelder und damit eine Erhöhung des gehaltenen Datenvolumens um 10 bis über 50 Prozent je nachdem, welchem Datentyp die gespeicherten Informationen entsprechen. Damit einhergehend wird die Programmlogik komplexer, da bei jeder Mutation auch die Datumsfelder nachgetragen werden müssen. Dadurch erhöht sich auch die Last der Datenbank-Engine bezüglich der Anzahl der vorgenommenen Mutationen und der Daten, die nur indirekt mit dem eigentlichen Geschäft zu tun haben. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 65 / 83

66 Generell muss jedoch betont werden, dass diese Strategie lediglich die Identifikation von schlechter Datenqualität erleichtert und dadurch die Datenqualität nur erhöht, indem der dauernd zu betreibende Bereinigungsaufwand 121 besser strukturiert wird Auswirkung dieser Strategien auf die Datenqualität Die Strategien A (Transparenz), B (Zuordnen von Verantwortlichkeiten) sowie das in Strategie G aufgezeigte niederschwellige Verbesserungswerkzeug wurde auf die Konfigurations- und Inventardatenbank i-sac der UBS angewendet. Im Verlauf der Messungen konnte über den gesamten Datenbestand eine signifikante Verbesserung der Datenqualität beobachtet werden. Von insgesamt 39 Bereichen wiesen 20 Bereiche eine klar steigende Tendenz über den Messraum auf, 3 Bereiche eine leicht sinkende Tendenz in der Grössenordnung von 1.5 Prozentpunkten und 6 Bereiche einen gleich bleibenden Verlauf. 10 Bereiche konnten nicht ausgewertet werden, weil sie eine zu kleine Datenbasis hatten oder das gewählte Statistikmodell die Daten nicht erklären konnten. Das verwendete statistische Modell zur Auswertung dieser Daten lautet: Y i = α + βx i + ε i Abbildung 32: Verlauf der Datenqualität unter Anwendung der Strategien A, B und G dieses Dokuments Die auffällige Kurve, welche in der Mitte der Grafik einen massiven Einbruch aufweist, ist ein gutes Beispiel für die Effektivität des Verbesserungswerkzeuges. Weil in einer Eilübung dutzende von Software-Komponenten in das Inventar aufgenommen werden mussten, ist hier die Datenqualität drastisch gesunken. Drei Monate danach konnte jedoch bereits eine Verbesserung festgestellt werden, indem die Verantwortlichen durch das Werkzeug Ihre Verantwortung wahrnehmen konnten und die fehlenden Informationen kontinuierlich nachlieferten Grundsätzliche Nachteile und Risiken aller Strategien Komplexität des Systems Jede der beschriebenen Strategien erhöht die Komplexität des einzelnen Systems, aber auch der ganzen Systemlandschaft. Teilweise werden auch neue Abhängigkeiten zwischen den Systemen geschaffen und die bestehenden Abhängigkeiten erhöht. Daher ist es unumgänglich, bei jeder aufgezeigten Strategie nicht gleich mit der Top-Lösung einzufahren, sondern einfach zu beginnen und das Ziel in mehreren kleinen Schritten zu erreichen Gespeicherte Datenmenge Jede dieser Strategien produziert neue Daten in irgendeiner Form. Diese Daten unterliegen wiederum den Regeln und Anforderungen der Datenqualität, womit diese Datenqualitätszahlen ebenfalls dauernd hinterfragt und überprüft werden müssen. 121 Siehe dazu auch die Bemerkung über Data Cleansing in Kapitel 2.14 Was Datenqualität nicht ist. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 66 / 83

67 Je nach Strategie werden mehr oder weniger Daten produziert. Diese müssen in irgendeiner Datenbank abgelegt werden, was Speicherplatz und Wartungsaufwand kostet. Während Ersteres heute nicht mehr wesentlich ins Gewicht fällt, darf Zweites nicht unterschätzt werden Abstimm-, Koordinations- und Projektaufwand Alle diese Strategien werden am besten in Form eines Projektes umgesetzt. Der Vorteil dieser Art der Organisation ist, dass dafür die Wirtschaftlichkeit der geplanten Massnahme abgeklärt werden muss und damit nur das umgesetzt wird, was auch aus der wirtschaftlichen Perspektive Sinn macht. Weiter können auf diese Weise die dafür notwendigen Ressourcen aufgebracht werden. Dabei kann die Verbesserung der Datenqualität jedoch wie bei jedem Projekt mit der Nichtbewilligung durch den Projektausschuss verhindert werden Vorgehen bei der Umsetzung dieser Strategien Kontakt zwischen den Parteien Die Umsetzung der hier erläuterten Strategien ist je nach aktuellem Stand der bisherigen Massnahmen ein grösserer oder kleinerer Schritt bezüglich Implementierungsaufwand, Prozessumsetzung, Schulung und Firmenkultur. Daher empfiehlt sich bei allen erläuterten Strategien eine überlegte Umsetzung. Wichtig ist hier jeweils, dass der Kontakt zwischen allen beteiligten Parteien gepflegt wird und die vorgenommenen Änderungen eindeutig kommuniziert werden. Die beteiligten Parteien sind jeweils: der Kunde, der diese Verbesserungen in Auftrag gegeben hat, der Data Owner (falls nicht identisch im dem Kunden), der die Auswirkungen der Massnahmen auf die Datenqualität überwachen muss, die IT, welche die Verbesserungen umsetzt und der Anwender, der direkten Kontakt mit diesen umgesetzten Änderungen hat. Als Vorgehen empfiehlt es sich, die angepeilten Änderungen in kleine Schritte einzuteilen und diese Schritte jeweils im Abstand von zirka zwei bis drei Monaten ins produktive Umfeld einzuführen. Vor allem bei der Strategie A (Transparenz schafft Vertrauen) ist es wichtig, dass die Beteiligten schrittweise in Richtung des angestrebten Ziels geführt werden. Hat man die Komplexität einen Schritt erhöht und haben alle Beteiligten den Sinn und die Auswirkungen dieses Schrittes verstanden, kann der nächste Schritt umgesetzt werden. Dieses Vorgehen ist auch als Kaizen bekannt Management-Unterstützung Entscheidend für das Erreichen der hier gesteckten Ziele ist die Unterstützung des Managements. Von Loshin ist ein gutes Verfahren beschrieben worden, wie die Kosten von schlechter Datenqualität errechnet und kommuniziert werden können. Dieses Vorgehen kann als beispielhaft angesehen werden, um die notwendige Unterstützung des Managements und schliesslich auch die dafür notwendigen Ressourcen zu bekommen Siehe dazu Loshin in [ 34 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 67 / 83

68 Durchführen von Umfragen Statistikformel: y ij = µ i + ε ij Mittels der oben genannten Formel wurde eine Varianzanalyse über die Mittelwerte durchgeführt. Dabei steht X für die Resultate einer Frage und α für die Gruppenzugehörigkeit, welche Hardware, Software und Andere beinhaltet. Es konnten zwei Fragen als signifikant verschieden festgestellt werden und bei vier Fragen konnte eine Übereinstimmung der Antworten festgestellt werden. Bei den anderen Fragen liegen die P-Werte ausserhalb des 5 %-Signifikanzniveaus. Dieser Test überprüft somit die Hypothese, dass es zwischen den Gruppen keine Unterschiede gibt. Bei den zwei Fragen konnte die Hypothese verworfen werden und bei vier anderen Fragen konnte die Frage bestätigt werden. Signifikant verschieden wurden die Fragen 11a und 11d beantwortet. Beide Fragen beurteilen die wahrgenommene Datenqualität in der Inventardatenbank i-sac. 11 a) Wir erhalten die benötigten Daten immer in einem Zustand, in dem wir sie ohne Einschränkungen verwenden können. 11 d) Die erhaltenen Daten sind immer vollständig. In beiden Fällen wurde die Datenqualität im Hardware-Inventar als besser wahrgenommen als im Softwareinventar. Die dritte Gruppe, welche alle anderen Bereiche umfasst, liegt in beiden Fällen irgendwo zwischen diesen beiden Gruppen. Als anderes Extrem konnte bei den Fragen 5f, 10a, 10c und 10f eine vollkommene Übereinstimmung zwischen den Gruppen festgestellt werden: 5 f) In den letzten 3 Monaten wurden von MA gemachte Vorschläge zur Verbesserung der Datenqualität umgesetzt. 10 a) Alle beteiligten MA wurden für ihre Tätigkeit im Zusammenhang mit i-sac ausgebildet. 10 c) Das erworbene und dokumentierte Wissen ist für alle Mitarbeiter im Team jederzeit verfügbar. 10 f) Die MA lernen gerne neues über i-sac und dessen Umsysteme dazu. Alle vier Fragen wurden schlechter als der Durchschnitt über alle Fragen (von 2.95) beantwortet. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 68 / 83

69 6. Empfehlungen und Ausblick Keine der hier dargestellten Strategien schliessen sich gegenseitig aus, sondern sie können parallel zueinander implementiert werden. Teilweise bedingen sie sich sogar gegenseitig. So ist es beispielsweise unmöglich, einen Lifecycle zu definieren (Strategie E), wenn keine Verantwortlichkeiten bekannt sind (Strategie B). Oder die Umsetzung der Möglichkeit, dass die Mitarbeiter sagen können, ich weiss es wirklich nicht (Strategie H), ist am einfachsten, wenn man sie mit dem Lifecycle (Strategie E) kombiniert. Somit stellt sich bei dem Verantwortlichen für die Datenqualität nicht die Frage, welche dieser generischen Ansätze umgesetzt werden sollen, sondern die Frage, in welcher Reihenfolge und in welchem Zeitrahmen sie sinnvoll umgesetzt werden. Dazu kann man wohl generelle Aussagen machen im Endeffekt kommt es aber auf die jeweilige Gegebenheiten im Unternehmen an, welche die Prioritäten dieser verschiedenen Strategien bestimmen. Der von Vielen gehegte Wunsch, die Datenqualität schnell und ohne grossen Aufwand mittels einer Standardsoftware zu lösen, wird sich auf absehbare Zeit aus verschiedenen Gründen nicht erfüllen: Die zu untersuchenden Datenbanken sind so verschieden bezüglich Struktur, Datenfeldern, Abhängigkeiten und den daran hängenden Prozessen, dass die verwendete Standardsoftware eine extreme Flexibilität aufweisen müsste. Wie hier im Kapitel 5 aufgezeigt, liegen die wichtigsten Bereiche, in denen die Datenqualität verbessert werden kann nicht im technischen Bereich sondern im organisatorischen Bereich. Die Anforderungen an die Datenqualität sind so verschieden, dass diese Bedürfnisse nicht einfach abzudecken sind. Eine Inventardatenbank stellt beispielsweise andere Anforderungen an die Datenqualität als eine Logistiksteuerung oder ein Internet Shop. Eine generische Lösung für alle möglichen Anwendungen ist deshalb heute noch undenkbar. Wo Standardsoftware tatsächlich mit Erfolg eingesetzt werden kann, ist in den Bereichen Data Profiling, Data Cleansing und Datenintegration welche im Kapitel 3 schon vorgestellt wurden. Ebenfalls auf Standardsoftware zurückgegriffen werden kann bei der Visualisierung speziell, wenn diese über Cockpits erfolgen soll. Auf dem langen Weg zwischen der zu untersuchenden Datenbank und der Visualisierung der aggregierten Werte im Cockpit gibt es sehr viel zu tun, was erst in einer zweiter Phase von einer Software erledigt werden kann. Zuerst müssen organisatorische Massnahmen getroffen, die Kommunikation sichergestellt werden und die bestehenden Prozesse hinterfragt und gegebenenfalls überarbeitet werden. Erst danach können die Resultate dieser Phase in Regeln für Datenbank-Checks gegossen werden und diese Checks regelmässig durchgeführt werden. Damit ist man aber erst in der Hälfte der gesamten Reise indem man feststellt, wo die Probleme sind. Deren Behebung ist hier aber noch nicht erfolgt. Und zusätzlich muss immer noch bedenkt werden, dass alle Datenbank-Checks und Prozesse nichts bewirken, wenn das Abbild der Datenbank keine Verbindung zur Realität hat. In diesem Bereich gibt es noch einige Lücken, da der Abgleich der Datenbank mit der Realität per Stichprobe nur ein Behelf ist um jeweils eine Vollerhebung zu umgehen. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 69 / 83

70 7. Erläuterungen, Listen und Quellen 7.1. Abkürzungsverzeichnis BI CRM ERP GUI HTML i-sac OE RFID Business Intelligence Customer Relationship Management Enterprise Ressource Planning Graphical User Interface Hypertext Markup Language Inventory for Systems, Applications and Configurations. i-sac ist das UBS-weite Inventar für Hard- und Software. Organisationseinheit Radio Frequency Identification 7.2. Begriffserklärungen Benutzerrolle Customer Relationship Management Business Intelligence Data Mining Data Warehouse oder Data Mart Enterprise Ressource Planning Eine Benutzerrolle definiert Aufgaben, Eigenschaften und vor allem Rechte eines Benutzers in einer Software bzw. in einem Betriebssystem. Benutzerrollen werden verwendet, um die Einstellungen der vorgenannten Bereiche nicht für jeden Nutzer einzeln festlegen zu müssen. 123 oder Kundenbeziehungsmanagement die systematische Verwaltung von Kundenbeziehungen, um den Erfolg des Unternehmens durch gezielte Bewirtschaftung und durch Nutzung dieser Daten die Kundenbindung zu erhöhen. 124 Systeme und Prozesse zur systematischen Gewinnung von Erkenntnissen, die in Hinsicht auf die Unternehmensziele bessere Entscheidungen ermöglichen. Mit den so gewonnenen Erkenntnissen können Unternehmen ihre Geschäftsabläufe straffen, Risiken minimieren und die Wertschöpfung vergrössern. Zentrale Elemente von Business Intelligence sind Data Warehouses oder Data Marts, welche mittels Data Mining ausgewertet werden. 125 Die Anwendung von statistisch-mathematischen Methoden auf einen Datenbestand mit dem Ziel, Muster in den Daten zu erkennen. 126 Eine zentrale Datensammlung, die mehrere Datenbanken zusammenfasst, um diese zentral auswerten zu können. 127 Die Einsatzplanung der im Unternehmen vorhanden Ressourcen. Dazu müssen möglichst alle im Unternehmen vorhandenen Prozesse abgebildet werden Siehe Artikel Benutzerrolle aus Wikipedia; in [ 71 ]. 124 Siehe Artikel Kundenbeziehungsmanagement in Wikipedia; in [ 78 ]. 125 Siehe Artikel Business Intelligence aus Wikipedia; in [ 67 ]. 126 Siehe Artikel Data Mining aus Wikipedia; in [ 69 ]. 127 Siehe Artikel Data Warehouse aus Wikipedia; in [ 70 ]. 128 Siehe Artikel Enterprise Ressource Planning aus Wikipedia; in [ 72 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 70 / 83

71 Geschäftsregel (Business Rule) Hypertext Markup Language (HTML) Implizites Wissen (tacit knowledge) Inventory Object Kernkompetenz Lifecycle Management- Informationssystem Power User Radio Frequency Identification Workflow Der Begriff Geschäftsregel oder englisch Business-Rule bezeichnet in der Wirtschaftsinformatik als Sammelbegriff verschiedene Arten von Regeln, die in oder in Zusammenhang mit Computerprogrammen verwendet werden. Man versteht darunter nicht notwendigerweise eine geschäftliche Angelegenheit, sondern Business-Rules können auch ganz elementare technische Sachverhalte beschreiben. 129 Eine Seitenbeschreibungssprache, um Ausgaben in einem Webbrowser darzustellen. Diverse Standardprogramme wie WORD und EXCEL beherrschen den HTML-Import und -Export. Implizites Wissen oder Stilles Wissen (vom englischen tacit knowledge) bezeichnet nicht formalisiertes Wissen, also solche Kenntnisse oder Fähigkeiten, die nicht explizit formuliert sind und sich möglicherweise auch nicht erklären, sondern nur zeigen lassen. 130 Inventory Objects sind alle Einträge, die in der Inventar-Datenbank i-sac enthalten sind. i-sac unterscheidet insgesamt ca. 40 verschiedene Inventar- Objekte, unterteilt in Hardware und Software. Eine Kernkompetenz beschreibt die Fähigkeit, sich auf eine bestimmte Tätigkeit im Vergleich zu den anderen Unternehmenstätigkeiten zu konzentrieren und diese besonders gut ausführen zu können. 131 Ablauf der Entstehung und Fortentwicklung eines [Software-]Systems, der alle Maßnahmen und Tätigkeiten einschließt, die während dieser Periode erforderlich sind. 132 Ein Management-Informationssystem ist ein dv-technisches Informationssystem. Es stellt dem (in der Regel betriebswirtschaftlichen) Unternehmen Informationen zur Verfügung, mit deren Hilfe das Unternehmen gelenkt bzw. das Controlling betrieben werden kann. 133 Ein sehr kompetenter Benutzer, welcher meist gewisse Bereiche eines Systems oder eines Programms so gut kennt, dass er anderen Benutzer helfen kann. RFID ermöglicht eine automatische Identifikation (Funkerkennung) und Lokalisierung von Objekten mittels Transponder, welcher als RFID Etikett an Gegenstände befestigt werden kann. Mittels geeigneter Lesegeräte können diese RFID Tags je nach Ausführung über Entfernungen von wenigen Zentimeter bis zu über einem Kilometer ausgelesen werden. 134 ein Arbeitsablauf (engl. Workflow) [ist] eine vordefinierte Abfolge von rechnergestützt ablaufenden Aktivitäten Siehe Artikel Geschäftsregel aus Wikipedia; in [ 73 ]. 130 Siehe Artikel Implizites Wissen aus Wikipedia; in [ 75 ]. 131 Siehe Artikel Kernkompetenz aus Wikipedia; in [ 77 ]. 132 Definition aus dem Informatik-Begriffsnetz; in [ 27 ]. 133 Siehe Artikel Management-Informationssystem aus Wikipedia; in [ 79 ]. 134 Siehe Artikel Radio Frequency Identification aus Wikipedia, in [ 81 ]. 135 Siehe Artikel Arbeitsablauf aus Wikipedia; in [ 66 ]. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 71 / 83

72 7.3. Abbildungsverzeichnis Abbildung 1: Aufbau dieser Diplomarbeit... 2 Abbildung 2: Auswirkungen schlechter Datenqualität... 6 Abbildung 3: Wie Qualität Rentabilität und Wachstum steigert Abbildung 4: Der Zusammenhang zwischen Daten und Kernkompetenzen nach Yang W. Lee [ 32 ] 11 Abbildung 5: Beispiel eines Cockpits. In diesem Beispiel ein fiktives Cockpit aus dem Bereich HR.. 12 Abbildung 6: Berechnung von Datenqualitätsfehlern innerhalb eines Prozesses nach Würthele [ 89 ] Abbildung 7: Die Treiber für den Shareholder Value Abbildung 8: Die Entwicklungsphasen des Qualitätsmanagements Abbildung 9: Die Hierarchie der Qualität nach Seghezzi Abbildung 10: Das Datenqualitätsradar nach Würthele Abbildung 11: 3 verschiedene Arten für die Berechnung der Datenqualität Abbildung 12: Verschiedene Arten, wie Datenqualität für die Management-Sicht übersichtlich visualisiert werden kann: Links Balkengrafik mit Trendpfeilen, in der Mitte ein Verlauf und rechts die Wetterkarte Abbildung 13: Einfaches DQ-Messsystem Abbildung 14: Das wirtschaftliche Qualitätsoptimum Abbildung 15: Mögliche Bereiche, bei denen Datenqualitäts-Mängel auftreten können Abbildung 16: Der Markt für Datenqualitäts-Werkzeuge in Deutschland und die Positionierung der Akteure gemäss Computerwoche.de [ 37 ] Abbildung 17: Das Regelkreismodell nach Peter Wolf Abbildung 18: Generische Ansätze zu den möglichen Fehlerarten Abbildung 19: Einbezug von mehreren Applikationen, solange sie dem selben Prozess zugehörig sind Abbildung 20: Positionierung der Rollen im Modell der Fehlerarten Abbildung 21: Das Verhältnis von Pflegezustand und Technikqualität Abbildung 22: Stolpersteine in der Software-entwicklung für die Datenqualität Abbildung 23: Der Datenfluss zwischen verschiedenen Applikationen. Siehe dazu die Beschreibung im Beispiel Abbildung 24: Die Master-/Slave-Datenbanken in einem erweiterten Konzept mit einem zentralen Datawarehouse als Proxy Abbildung 25: Lebenszyklus für eine Adresse aus Beispiel Abbildung 26: Schritt 1 Die Management-Sicht in Balkenform Abbildung 27: Schritt 2 Aufruf der Detailliste Abbildung 28: Schritt 3 Die Detailliste in EXCEL Abbildung 29: Schritt 4 Das Stammblatt der Software-Komponente Abbildung 30: Schritt 5 Auswahl der entsprechenden Information und Speichern Abbildung 31: Zwei schöne Beispiele für Datumsausreisser und dass solche bei der Verbesserung der Datenqualität von Vorteil sein können Abbildung 32: Verlauf der Datenqualität unter Anwendung der Strategien A, B und G dieses Dokuments Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 72 / 83

73 7.4. Tabellenverzeichnis Tabelle 1: Die zum Thema Datenqualität relevanten Einträge aus den Top-11 Supply Chain Disasters von SupplyChainDigest [ 55 ] Tabelle 2: Die Qualitätsbegriffe nach Garvin, erweitert um die Favorisierung nach Wagner Tabelle 3: Anwendungsmöglichkeiten der verschiedenen Messmethoden Tabelle 4: Thesen, generische Ansätze und Strategien Tabelle 5: Vor- und Nachteile der beiden Umsetzungen zum Verfalldatum Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 73 / 83

74 8. Literatur und Referenzen Wird in Weblinks das Zeichen angezeigt, so bedeutet dies lediglich ein Zeilenumbruch und ist bei der Eingabe der URL in den Webbrowser nicht mit einzugeben. Links zu Wikipedia enthalten eine eindeutige Kennung, welche den Stand des Artikels zum Zeitpunkt der Referenzierung beinhalten. [ 1 ] Anderegg, Susanne; 2006; Spenderherz verloren nach Missverständnis ; Tages Anzeiger vom 29. Juli 2006, Seite 9 [ 2 ] Associated Press/Stern.de; 2006; Wir haben katastrophal versagt ; URL: [ 3 ] Atkins, Mark; 2000; Ask the Expert; CIO.com; URL: [ 4 ] Atkins, Mark; 2000; Ask the Expert; CIO.com; URL: [ 5 ] Bänsch, Axel; Wissenschaftliches Arbeiten, Seminar- und Diplomarbeiten; Verlag R. Oldenburg, München, Wien; ISBN [ 6 ] Der Bayerische Landesbeauftragte für den Datenschutz; URL: [ 7 ] Block, Frank; 2005; Die Wechselwirkung zwischen Daten- und Prozessqualität; Vortrag an der 3. GIQMC URL: [ 8 ] Bullinger, H.-J.; Warschat, J.; Pieto, J.; Wörner, K.; 1998; Wissensmanagement Anspruch und Wirklichkeit: Ergebnisse einer Unternehmensstudie in Deutschland; Information Management 13, Nr. 1, Seiten 7-23 [ 9 ] Bundesgesetz über den Datenschutz (Schweizer Datenschutzgesetz); URL: [ 10 ] CFO Research und Deloitte Consulting LLC; 2005; IQ Matters: Senior Finance and IT Executives Seek to Boost Information Quality; CFO Publishing Corp., Boston; URL: [ 11 ] CIO Research Reports; 2004; Strategic Directions: Business Intelligence; CIO White Paper Library; URL: [ 12 ] Drucker, Peter F.; 1993; Post Capitalist Society; Butterworth Heinemann; Oxford [ 13 ] Dubois, L.; 2002; Business Intelligence: The Dirty (and Costly) Little Secret of Bad Data, DM Review September 2002; Faulkner and Gray (S.11, S.15, S.146); URL: [ 14 ] English, Larry P., 1999, 7 Deadly Misconceptions about Information Quality, Information Impact International Inc., Brentwood TN [ 15 ] English, Larry P.; 1998; The High Cost of Low-Quality Data; DM Review Januar 1998; Faulkner and Gray (S.11, S.18); URL: [ 16 ] Europäische Union; 2004; Richtlinie 2004/39/EG - Richtlinie über Märkte für Finanzinstrumente URL: [ 17 ] European Foundation for Quality Management (EFQM), Das EFQM-Modell für Excellence, ISBN [ 18 ] Feder, Barnaby J.; 2005; Radio Tags Can Find Stray Bags, but Can Airlines Afford Them? ; New York Times Online Ausgabe; publiziert am 7. März 2005; URL: 14&ei=5090 Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 74 / 83

75 [ 19 ] Fields Gary; 2003; From Communication and Innovation, To Business Organisation and Territory The Production Networks of Swift Meat Packing and Dell Computer; Berkeley CA URL: [ 20 ] Garvin D. A.; 1987; Competing on the Eight Dimensions of Quality; Harvard Business Review [ 21 ] Garvin D. A.; 1988; Managing Quality: The Strategic and Competitive Edge; The Free Press, A Division of Macmillan, New York [ 22 ] Helfert, Markus; 2002; Datenqualität Eine Herausforderung im CRM; Institut für Wirtschaftsinformatik Universität St. Gallen; Vortrag an EuroForumCRM 2002; URL; [ 23 ] Helfert, Markus; 2002; Planung und Messung der Datenqualität in Data-Warehouse-Systemen; Logos Verlag; ISBN: [ 24 ] Henning Jörg; 2001; Prozessorientiertes Qualitätsmanagement von Dienstleistungen; Deutscher Universitätsverlag, Wiesbaden; ISBN [ 25 ] Hinrichs, Holger; 2002; Datenqualitätsmanagement in Data Warehouse-Systemen URL: [ 26 ] Huang, Kuan-Tsae; Lee, Yang W.; Wang, Richard Y.; Quality Information and Knowledge Management, 1999, Prentice Hall [ 27 ] Informatik-Begriffsnetz, URL: [ 28 ] Institut für Wirtschaftsinformatik / Abteilung Information Engineering der Universität Bern; URL: [ 29 ] Juran, Joseph M.; 1991; Handbuch der Qualitätsplanung; Verlag Moderne Industrie; ISBN [ 30 ] Kotler, Philip; Bliemel, Friedhelm; 2001; Marketing Management, Schäffer-Poeschel Verlag Stuttgart; ISBN X [ 31 ] Kuli, Andreas; 2004; Solvency II: Ein neues Aufsichtsmodell für die Versicherungswirtschaft in der EU; URL: [ 32 ] Lee, Yang W.; 1997; Quality Information, Organisational Knowledge, and Core Competency; Cambridge Research Group; Cambridge MA [ 33 ] Lingscheid, A; Robeck, A.; 1998; Qualität messbar machen Prozess- und Kundenorientierung umsetzen. In: Westkämper, E.; Mai, C. (Herausgeber): Q-Jahrbuch 98/99; Hanser Verlag, München. [ 34 ] Loshin, David; 2001; Enterprise Knowledge Management, The Data Quality Approach; Morgan Kaufmann; ISBN: [ 35 ] Lundvall, D.M.; 1974; Quality Costs. In: Juran: Quality Control Handbook; McGraw-Hill; New York [ 36 ] Malik Management Zentrum St. Gallen; PIMS Profit Impact of Market Strategy URL: [ 37 ] Mathes, Tobias; Computerwoche.de; 16. Juni 2005; Artikel Wie sich Datenqualität steigern lässt - Analyse des Datenqualitäts-Marktes in Deutschland, URL: Der Artikel wiederum greift auf Informationen des Business Application Research Center (BARC) zurück, welche nicht öffentlich sind. [ 38 ] Müller-Stewens, Günther; Lechner, Christoph; 2003; Strategisches Management; 2. überarbeitete und erweiterte Auflage; Schäffer-Poeschel Verlag, Stuttgart; ISBN X [ 39 ] Obligationenrecht; Anpassungen im Firmenrecht; Inkrafttreten voraussichtlich Mitte 2007; URL: Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 75 / 83

76 [ 40 ] Parr Rud, Olivia; 2001; Data Mining Cook Book Modeling Data for Marketing, Risk, and Customer Relationship Management; Wiley Computer Publishing [ 41 ] PIMS Consulting; URL: [ 42 ] Pira, Andreas, 1999, Total Quality Management im Spitalbereich auf der Basis des EFQM-Modells, URL: [ 43 ] PR Newswire; 2003; Evoke Software meldet Rekordquartal; URL: [ 44 ] Promet Methodenhandbuch für den Entwurf von Geschäftsprozessen. Institut für Wirtschaftsinformatik, Universität St. Gallen und The Information Management Group, München [ 45 ] QAS; 2005; The Impact Poor Data Has On Your Organization; QAS Boston; URL: [ 46 ] QAS; 2006; U.S. Business Losing Revenue Through Poorly Managed Customer Data; QAS Boston; URL: [ 47 ] Qualitäts-Lexikon Eintrag Qualitätsbewertung URL: [ 48 ] Redman, Thomas C.; 1996; Data Quality in the Information Age: The Key to a Strategic Enterprise Resource; Artech House Publishers, Boston; ISBN ; Referenz-URL: [ 49 ] Sarbanes Oxley Act of 2002; URL: [ 50 ] Seghezzi, Hans Dieter; 1996; Integriertes Qualitätsmanagement: Das St. Galler Konzept; Verlag Hanser, München; ISBN [ 51 ] Spiegel Online: URL: [ 52 ] Stahel, Werner A.; 2002; Statistische Datenanalyse Eine Einführung für Naturwissenschaftler, 4. Auflage; Verlag Friedrich Vieweg & Sohn, Braunschweig; ISBN [ 53 ] Stahlknecht Peter, Hasenkamp Ulrich; 2002; Einführung in die Wirtschaftsinformatik; 10. überarbeitete und erweiterte Auflage; Springer Verlag, Berlin; ISBN [ 54 ] Strong, D. M., Lee, Y.W und Wang, R.Y.; 1997; Data Quality in Context Communications of the ACM, 40(5), pp [ 55 ] SupplyChainDigest; Januar 2006; The 11 Greatest Supply Chain Disasters ; URL: [ 56 ] Swissinfo; Köpferollen verdeckt Probleme bei Adecco ; Meldung vom 16. Januar 2004 URL: [ 57 ] Swissinfo; Adecco liefert endlich Zahlen ; Meldung vom 1. Juni 2004 URL: [ 58 ] Thut, P. und Stöckli; M. 2002; Konzept zur Datenqualitätsmessung in i-sac UBS Internes Dokument [ 59 ] USA PATRIOT Act, vollständiger Name Uniting and Strengthening America by Providing Appropriate Tools Required to Intercept and Obstruct Terrorism Act of 2001 URL: [ 60 ] usability.ch; Usability Learning Center >> Was ist Usability? URL: [ 61 ] usability.ch; Erzeugen Produktivitätssteigerungen wirtschaftliche Vorteile? URL: [ 62 ] Vonlanthen Michael; URL: Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 76 / 83

77 [ 63 ] Wang, Richard; Madnick, Stuart E.; 1990; A Polygen Model for Heterogeneous Database Systems: The Source Tagging Perspective; Composite Information Systems Labaratory, Massachusetts Institute of Technology (MIT); Cambridge, Massachusetts [ 64 ] Wagner Ulrich; 2005; Value Added Services und deren Management im Krankenhaus [ 65 ] Webopedia-Artikel Data Cleansing URL: [ 66 ] Wikipedia-Artikel Arbeitsablauf : URL: [ 67 ] Wikipedia-Artikel Business-Intelligence URL: [ 68 ] Wikipedia-Artikel Data Profiling auf Englisch: URL: [ 69 ] Wikipedia-Artikel Data-Mining : URL: [ 70 ] Wikipedia-Artikel Data-Warehouse : URL: [ 71 ] Wikipedia-Artikel Benutzerrolle : URL: [ 72 ] Wikipedia-Artikel Enterprise Ressource Planning : URL: [ 73 ] Wikipedia-Artikel Geschäftsregel : URL: [ 74 ] Wikipedia-Artikel Grafische Benutzeroberfläche URL: [ 75 ] Wikipedia-Artikel Implizites Wissen URL: [ 76 ] Wikipedia-Artikel Informationsintegration URL: [ 77 ] Wikipedia-Artikel Kernkompetenz URL: [ 78 ] Wikipedia-Artikel Kundenbeziehungsmanagement URL: [ 79 ] Wikipedia-Artikel Management-Informationssystem : URL: [ 80 ] Wikipedia-Artikel Mars Climate Orbiter": URL: [ 81 ] Wikipedia-Artikel Radio Frequency Identification URL: [ 82 ] Wikipedia-Artikel Software-Ergonomie : URL: [ 83 ] Wikipedia-Artikel USA PATRIOT Act": URL: [ 84 ] Wikiquote-Artikel Galileo Galilei URL: [ 85 ] Wikiquote-Artikel Peter F. Drucker URL: Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 77 / 83

78 [ 86 ] Wolf, Jürg; Würthele, Volker; Thut, Peter; 2005, Messung und Visualisierung von Datenqualität, Vortrag an der 3. GIQMC URL: und URL: [ 87 ] Wolf, Peter; 1999; Konzept eines TQM-basierten Regelkreismodells für ein Information Quality Management" (IQM); Verlag Praxiswissen, Dortmund; ISBN [ 88 ] Wonigeit, Jens; 1994; Total Quality Management Grundzüge und Effizienzanalyse, Deutscher Universitätsverlag, Wiesbaden, ISBN , Referenz: [ 89 ] Würthele, Volker 2003, Datenqualitätsmetrik für Informationsprozesse - Datenqualitätsmanagement mittels ganzheitlicher Messung der Datenqualität; Books on Demand; ISBN Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite 78 / 83

79 Anhänge Anhang A: für die Teilnahme an der Umfrage Über dieses Mail wurden insgesamt 52 Personen direkt eingeladen, an der Umfrage teilzunehmen. Dafür wurden Personen ausgewählt, welche im Hardware- oder Softwareinventar besonders gehäuft vorkamen oder aufgrund ihrer Verantwortlichkeit im organisatorischen Umfeld. Das Resultat dieser Umfrage ist damit in keiner Weise repräsentativ, liefert jedoch bereits einen wichtigen Anhaltspunkt zur Beurteilung der weichen Faktoren der Datenqualität. From: Wolf, Juerg Sent: Donnerstag, 24. August :41 To: Subject: Umfrage zum Thema "Datenqualität in i-sac" Guten Tag Im Rahmen meiner Diplomarbeit zur Fachhochschule in Betriebsökonomie schreibe ich eine Arbeit zum Thema "Datenqualität". Da wir uns bei i-sac schon länger mit diesem Thema beschäftigen, war es für mich naheliegend, das Inventar für Systeme, Applikationen und Configurationen hierzu näher zu betrachten. Da bei der Betrachtung der Qualität eines Produktes oder einer Dienstleistung immer auch die Optik des Kunden berücksichtigt werden sollte, nimmt es mich natürlich Wunder, wie Sie die Datenqualität in i-sac beurteilen. Weiter hat das Arbeitsumfeld einen grossen Einfluss darauf, inwieweit Fehler gemacht werden und inwieweit die Mitarbeiter ein Arbeitsumfeld antreffen, das einer offenen Fehlerkultur zuträglich ist somit eine höhere Qualität der Arbeit erlaubt. Um einen Anhaltspunkt dieser sogenannten "Weichen Faktoren" zu erhalten, habe ich einen Fragebogen erarbeitet der auf anonymer Basis verschiedene Aspekte der Datenqualität in i-sac beleuchtet. Der Zeitraum, in dem diese Umfrage beantwortet werden kann, läuft von Heute bis am 1. September Der Start zur Umfrage ist hier: https://bw.dataweb.ubs.ch/fil_survey/index.cfm?lang=deutsch&surveynumber=31 Ich bitte Sie, sich ca. 10 Minuten Zeit zu nehmen um die Fragen zu beantworten. Bitte denken Sie nicht zu lange nach - meist ist die erste Eingebung die Richtige. Wenn Sie zu einer Frage nicht Stellung nehmen wollen oder können kreuzen Sie einfach das "X" an. Trotzdem ist nicht eruierbar, wer eine Frage wie beantwortet hat - die Anonymität Ihrer Antwort ist also gewährleistet. Zum Schluss möchte ich mich bei Ihnen bedanken, dass Sie mir bei meiner Diplomarbeit geholfen haben. Sollten Sie Fragen haben zur Umfrage, der Methodik, der Bedienung des Umfragetools, zu den Resultaten oder einfach ganz allgemein zum Thema Datenqualität, werde ich Ihnen gerne helfen. Ebenso bin ich offen gegenüber Ihren zusätzlichen Kommentaren und Anregungen. Mit freundlichen Grüssen Jürg Wolf -- Jürg Wolf I6YE - Inventory Services Tel Hotline Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite a / 83

80 Anhang B: Fragebogen für die Erfassung der Weichen Faktoren der Datenqualität in i-sac Diese Umfrage wurde als Web-Umfrage durchgeführt. Inhaltlich entspricht die Umfrage den folgenden Fragen die Darstellung wurde jedoch den Möglichkeiten im Web angepasst. Generelle Fragen 1 Mutieren Sie und Ihre Mitarbeiter Daten direkt in i-sac oder indirekt über eine andere Applikation? Direkt Indirekt Beides 2 Wenn Sie indirekt Daten in i-sac mutieren, über welche Applikation(en) erfolgen diese Datenmutationen? Namen der Applikation(en): 3 Wie intensiv arbeitet die Person im Team mit dem grössten i-sac Know-How im Schnitt mit i-sac, resp. der damit verbundenen Applikation? Täglich mehr als 1 Stunde Wöchentlich über 1 Stunde Monatlich über 1 Stunde seltener 4 Wie intensiv arbeiten Sie und Ihr Team (grob geschätzt!) in den verschiedenen Bereichen von i-sac (Angaben in Prozent - 100% = die Zeit, in der Sie mit i-sac arbeiten)? - im Hardware-Inventar % - im Software-Inventar % - im Netzwerk-Inventar % - in der Integrationsplanung % - andere % 5 Fragen zur Konsistenz X Bitte wählen Sie zu jeder Frage eine der folgenden Optionen: (1=trifft überhaupt nicht zu, 2=trifft eher nicht zu, 3=trifft eher zu, 4=trifft zu, X= weiss nicht) a) Die MA können kleinere Probleme im Zusammenhang mit i-sac selbst lösen. b) Die MA haben mindestens eine, genau definierte teaminterne Ansprechperson, die ihnen bei Problemen helfen kann. c) Diese teaminterne Ansprechperson weiss genau, an wen sie sich wenden muss bei Problemen, die sie nicht selbst lösen kann. d) Vom Team oder von übergeordneten Stellen wurde ein klar definiertes Datenqualitätsziel gesetzt und kommuniziert. e) Die MA haben wirksame Werkzeuge, um die Datenqualität selbst zu überprüfen. f) In den letzten 3 Monaten wurden von MA gemachte Vorschläge zur Verbesserung der Datenqualität umgesetzt. g) In den letzten 3 Monaten umgesetzte Verbesserungen zur Datenqualität haben einen positiven Effekt gezeigt. 6 Fragen zur Ownership X Bitte wählen Sie zu jeder Frage eine der folgenden Optionen: (1=trifft überhaupt nicht zu, 2=trifft eher nicht zu, 3=trifft eher zu, 4=trifft zu, X= weiss nicht) a) Für die bearbeiteten Datenbereiche ist die Datenownership eindeutig definiert. b) Die MA wissen genau, wer der Datenowner der manipulierten Daten ist. 7 Fragen zur Nützlichkeit X Bitte wählen Sie zu jeder Frage eine der folgenden Optionen: (1=trifft überhaupt nicht zu, 2=trifft eher nicht zu, 3=trifft eher zu, 4=trifft zu, X= weiss nicht) a) Die vorhandenen Datenstrukturen entsprechen unseren aktuellen und zukünftigen Bedürfnissen vollständig. b) In den letzten 3 Monaten ist nie der Fall eingetreten, dass die angezeigten Daten nicht der Realität entsprachen. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite b / 83

81 8 Fragen zum Prozess X Bitte wählen Sie zu jeder Frage eine der folgenden Optionen: (1=trifft überhaupt nicht zu, 2=trifft eher nicht zu, 3=trifft eher zu, 4=trifft zu, X= weiss nicht) a) Die MA wissen genau, wo und wofür die bearbeiteten Daten erstellt und verwendet werden. b) Kontakte mit vor- oder nachgelagerten Stellen im Prozess finden regelmässig statt. c) Die MA haben einen guten und direkten Kontakt (persönlich, telefonisch oder per ) mit vor- oder nachgelagerten Stellen im Prozess. 9 Fragen zur Jobkultur X Bitte wählen Sie zu jeder Frage eine der folgenden Optionen: (1=trifft überhaupt nicht zu, 2=trifft eher nicht zu, 3=trifft eher zu, 4=trifft zu, X= weiss nicht) a) Die MA haben in den letzten 3 Monaten keine Fehler bei der Datenbearbeitung mit i- SAC gemacht. b) Die Fehlerkultur im Team lässt es zu, offen über gemachte Fehler zu sprechen. c) Bei gemachten Fehlern arbeitet (wenn notwendig) das ganze Team an der Behebung mit. d) Die MA tauschen untereinander Wissen und Erkenntnisse aus, um künftig bessere Arbeit leisten zu können. e) In den letzten 3 Monaten wurden von MAs konkrete Vorschläge gemacht, wie die Datenqualität verbessert werden könnte. 10 Fragen zu den Mitarbeitern X Bitte wählen Sie zu jeder Frage eine der folgenden Optionen: (1=trifft überhaupt nicht zu, 2=trifft eher nicht zu, 3=trifft eher zu, 4=trifft zu, X= weiss nicht) a) Alle beteiligten MA wurden für ihre Tätigkeit im Zusammenhang mit i-sac ausgebildet. b) Durch einzelne MA erworbenes Wissen wird immer sofort dokumentiert. c) Das erworbene und dokumentierte Wissen ist für alle Mitarbeiter im Team jederzeit verfügbar. d) Das Thema Datenqualität ist unter den MA bekannt und wird von ihnen verstanden. e) Die MA sind immer auf dem laufenden über Änderungen an i-sac und den damit verbundenen Prozessen. f) Die MA lernen gerne neues über i-sac und dessen Umsysteme dazu. 11 Fragen zur Datenqualität der i-sac Daten X Die folgenden Fragen beziehen sich nur auf die letzten 3 Monate und auf die Daten, welche Sie direkt oder indirekt in i-sac bearbeiten Bitte wählen Sie zu jeder Frage eine der folgenden Optionen: (1=trifft überhaupt nicht zu, 2=trifft eher nicht zu, 3=trifft eher zu, 4=trifft zu, X= weiss nicht) a) Wir erhalten die benötigten Daten immer in einem Zustand, in dem wir sie ohne Einschränkungen verwenden können b) Die erhaltenen Daten enthalten keine missverständliche Werte c) Die erhaltenen Daten enthalten keine Redundanzen d) Die erhaltenen Daten sind immer vollständig e) Probleme und Missverständnisse bei Daten können immer innerhalb eines angemessenen Zeitraums behoben werden f) Unsere Datenbezüger sind immer vollständig zufrieden mit der Qualität der Daten, die sie von uns erhalten g) Rückfragen und Problembehebungen von Datenbezügern an uns können immer innerhalb des Zeitraumes erledigt werden, den der Kunde für angemessen erachtet h) Für Problembehebungen wird uns vom Datenbezüger immer genügend Zeit eingeräumt Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite c / 83

82 Anhang C: Die Resultate dieser Umfrage Übersicht über die Resultate der Umfrage aus Anhang B. Strategien zur Hebung der Datenqualität in Datenbanken - Diplomarbeit Jürg Wolf 2007 Seite d / 83

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit BI Konsolidierung: Anspruch & Wirklichkeit Jacqueline Bloemen in Kooperation mit Agenda: Anspruch BI Konsolidierung Treiber Was sind die aktuellen Treiber für ein Konsolidierungsvorhaben? Kimball vs. Inmon

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

INTERNE KONTROLLE IN DER ÖFFENTLICHEN VERWALTUNG

INTERNE KONTROLLE IN DER ÖFFENTLICHEN VERWALTUNG INTERNE KONTROLLE IN DER ÖFFENTLICHEN VERWALTUNG Konzept Vorgehen - Betrieb PIRMIN MARBACHER 7. März 2013 REFERENT Pirmin Marbacher dipl. Wirtschaftsprüfer Betriebsökonom FH Prüfer und Berater von öffentlichen

Mehr

Adlerblick So gewinnen Sie einen Überblick über ein DWH Dr. Andrea Kennel InfoPunkt Kennel GmbH CH-8600 Dübendorf Schlüsselworte Einleitung

Adlerblick So gewinnen Sie einen Überblick über ein DWH Dr. Andrea Kennel InfoPunkt Kennel GmbH CH-8600 Dübendorf Schlüsselworte Einleitung Adlerblick So gewinnen Sie einen Überblick über ein DWH Dr. Andrea Kennel InfoPunkt Kennel GmbH CH-8600 Dübendorf Schlüsselworte DWH Projekt, Methodik, Stärken und Schwächen, Übersicht, Weg der Daten,

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

ERP / IT Strategieleitfaden Vorgehensmodell zur Entwicklung einer ERP / IT-Strategie

ERP / IT Strategieleitfaden Vorgehensmodell zur Entwicklung einer ERP / IT-Strategie ERP / IT Strategieleitfaden Vorgehensmodell zur Entwicklung einer ERP / IT-Strategie Johannes Schwab, MBA Warum strategische IT-Planung? - Zitat Das Internet ist die Technologie, die am nachhaltigsten

Mehr

Zusammenfassung des Berichts vom 15. Mai 2006 von RA Beat Badertscher an Frau Stadträtin Monika Stocker. Sperrfrist bis Montag, 22.

Zusammenfassung des Berichts vom 15. Mai 2006 von RA Beat Badertscher an Frau Stadträtin Monika Stocker. Sperrfrist bis Montag, 22. Time Out Platzierungen Zusammenfassung des Berichts vom 15. Mai 2006 von RA Beat Badertscher an Frau Stadträtin Monika Stocker Sperrfrist bis Montag, 22. Mai 2006 14 Uhr 2 1. Auftrag vom 7. April 2006

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Andreas Seufert Organisation: Institut für Business Intelligence

Mehr

Firmenporträt Acons. Unser Netzwerk. Die Acons AG wurde Ende 2000 gegründet. Ihre drei Geschäftsfelder:

Firmenporträt Acons. Unser Netzwerk. Die Acons AG wurde Ende 2000 gegründet. Ihre drei Geschäftsfelder: Firmenporträt Acons Unser Netzwerk Die Acons AG wurde Ende 2000 gegründet. Ihre drei Geschäftsfelder: Interne Revision / IKS-Beratung SAP-Beratung Human-Resources-Beratung Unternehmen: : Acons Governance

Mehr

Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010

Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010 Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010 Autoren: Alexander Schramm Marcus Mertens MuniConS GmbH Einleitung Unternehmen verfügen heute über viele wichtige Informationen

Mehr

Non-Profit-Organisationen: Vom Controlling zum Strategischen Management

Non-Profit-Organisationen: Vom Controlling zum Strategischen Management Non-Profit-Organisationen: Vom Controlling zum Strategischen Management Einordnung der Begriffe Business Intelligence Strategic Association Management Controlling and Data Warehousing Data Mining, Knowledge

Mehr

IKS PRAKTISCHE UMSETZUNG BEI GEMEINDEN

IKS PRAKTISCHE UMSETZUNG BEI GEMEINDEN IKS PRAKTISCHE UMSETZUNG BEI GEMEINDEN Verband der Verantwortlichen für Gemeindefinanzen und Gemeindesteuern des Kantons Basel-Landschaft (VGFS-BL) PIRMIN MARBACHER 26. NOVEMBER 2010 AGENDA Ausgangslage

Mehr

Big Data Was ist erlaubt - wo liegen die Grenzen?

Big Data Was ist erlaubt - wo liegen die Grenzen? Big Data Was ist erlaubt - wo liegen die Grenzen? mag. iur. Maria Winkler Themen Kurze Einführung ins Datenschutzrecht Datenschutzrechtliche Bearbeitungsgrundsätze und Big Data Empfehlungen für Big Data

Mehr

Interne Revision. Bericht gemäß 386 SGB III. Infrastruktur Überregionale Revision. Revision SGB III

Interne Revision. Bericht gemäß 386 SGB III. Infrastruktur Überregionale Revision. Revision SGB III Revision SGB III Bericht gemäß 386 SGB III Infrastruktur Überregionale Revision Inhaltsverzeichnis 1 Revisionsauftrag 1 2 Zusammenfassung 1 3 Revisionsergebnisse 1 3.1 Geschäftsprozesse des Inventarmanagements

Mehr

Pressemitteilung. Studie: Managing Business Intelligence Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren

Pressemitteilung. Studie: Managing Business Intelligence Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren Pressemitteilung Studie: Managing Business Intelligence Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren 21. Januar 2008, sieber&partners, Norman Briner 1 Vorwort Die bessere Nutzung und Auswertung

Mehr

SQL Server 2012 Datenblatt zur Lizenzierung

SQL Server 2012 Datenblatt zur Lizenzierung SQL Server 2012 Datenblatt zur Lizenzierung Veröffentlicht am 3. November 2011 Produktüberblick SQL Server 2012 ist ein bedeutendes Produkt- Release mit vielen Neuerungen: Zuverlässigkeit für geschäftskritische

Mehr

Governance, Risk & Compliance für den Mittelstand

Governance, Risk & Compliance für den Mittelstand Governance, Risk & Compliance für den Mittelstand Die Bedeutung von Steuerungs- und Kontrollsystemen nimmt auch für Unternehmen aus dem Mittelstand ständig zu. Der Aufwand für eine effiziente und effektive

Mehr

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES]

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES] NOW YOU KNOW [ SERIES] Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management [YVES BRENNWALD, ONTOS INTERNATIONAL AG] 001 Potential ontologiebasierter Wissens- Lösungen

Mehr

Compliance, Risikomanagement & Interne Kontrollsysteme in der Praxis. Prof. Alexander Redlein, Dr. Barbara Redlein

Compliance, Risikomanagement & Interne Kontrollsysteme in der Praxis. Prof. Alexander Redlein, Dr. Barbara Redlein Compliance, Risikomanagement & Interne Kontrollsysteme in der Praxis Prof. Alexander Redlein, Dr. Barbara Redlein Begriffe: Compliance und Risikomanagement Compliance = Einhaltung aller externen und internen

Mehr

Supply Chain Summit 2011 RISIKO-MANAGEMENT UND SUPPLY CHAIN

Supply Chain Summit 2011 RISIKO-MANAGEMENT UND SUPPLY CHAIN Supply Chain Summit 2011 RISIKO-MANAGEMENT UND SUPPLY CHAIN GLIEDERUNG Intro Risiko-Management Was bedeutet Risiko-Managment? Wie wird Risiko-Management umgesetzt? Nutzen von Risiko-Management Relevanz

Mehr

1. Normen für Unternehmen

1. Normen für Unternehmen 1. Normen für Unternehmen Normen sind gut für ein Missverständnis und schlecht für ein Verständnis. Um diesem Wortspiel einen konkreten Inhalt zu geben, seien zwei Thesen angeführt: Das Missverständnis

Mehr

Integriertes Risikomanagement mit GAMP 5 Risiken effizient managen!

Integriertes Risikomanagement mit GAMP 5 Risiken effizient managen! Integriertes Risikomanagement mit GAMP 5 Risiken effizient managen! Autor: Thomas Halfmann Halfmann Goetsch Peither AG Mit GAMP 5 wurde im Jahr 2005 der risikobasierte Ansatz in die Validierung computergestützter

Mehr

Risikomanagement Gesetzlicher Rahmen 2007. SAQ Sektion Zürich: Risikomanagement ein Erfolgsfaktor. Risikomanagement

Risikomanagement Gesetzlicher Rahmen 2007. SAQ Sektion Zürich: Risikomanagement ein Erfolgsfaktor. Risikomanagement SAQ Sektion Zürich: Risikomanagement ein Erfolgsfaktor Risikomanagement Gesetzlicher Rahmen IBR INSTITUT FÜR BETRIEBS- UND REGIONALÖKONOMIE Thomas Votruba, Leiter MAS Risk Management, Projektleiter, Dozent

Mehr

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit IT-basierte Erstellung von Nachhaltigkeitsberichten Diplomarbeit zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover vorgelegt von

Mehr

Start-Ziel-Sieg für Ihren Validierungsprozess

Start-Ziel-Sieg für Ihren Validierungsprozess Risikobasierte Validierung des CSB-Systems Start-Ziel-Sieg für Ihren Validierungsprozess Risikobasierte Validierung des CSB-Systems Programmiert für Ihren Erfolg D DIE VORTEILE FÜR IHR UNTERNEHMEN AUF

Mehr

Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen. Bachelorarbeit

Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen. Bachelorarbeit Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

The Intelligent Choice Fast, competent & secure

The Intelligent Choice Fast, competent & secure The Intelligent Choice Fast, competent & secure May 8, 2013 1 Referenz Beispiele I May 8, 2013 2 Referenz Beispiele II May 8, 2013 3 CRUCELL, Balance Scorecard Operational Reporting... Herr Andrew Ferguson,

Mehr

SIX erreicht starkes operatives Ergebnis im ersten Halbjahr 2013

SIX erreicht starkes operatives Ergebnis im ersten Halbjahr 2013 Medienmitteilung 28. August 2013 SIX erreicht starkes operatives Ergebnis im ersten Halbjahr 2013 SIX Selnaustrasse 30 Postfach 1758 CH-8021 Zürich www.six-group.com Media Relations: T +41 58 399 2227

Mehr

Enterprise Risk Management Due Diligence

Enterprise Risk Management Due Diligence Enterprise Risk Management Due Diligence.proquest Die richtigen Antworten auf die entscheidenden Fragen! A-4661 Roitham/Gmunden OÖ, Pfarrhofstraße 1 Tel. +43.7613.44866.0, Fax - DW 4 e-mail. office@proquest.at

Mehr

IT Security Audit. www.securityaudit.ch. Beschreibung. Kundennutzen. Leistungsumfang

IT Security Audit. www.securityaudit.ch. Beschreibung. Kundennutzen. Leistungsumfang IT Security Audit Beschreibung Die Informatik ist immer stärker verantwortlich für das Erstellen und die Abwicklung von geschäftskritischen Abläufen und wird dadurch zum unmittelbaren Erfolgsfaktor eines

Mehr

Jahresbericht 2015. Datenschutz Grundschutzes. ecs electronic cash syländer gmbh. Lothar Becker Dipl. Betriebswirt DATENSCHUTZ & IT

Jahresbericht 2015. Datenschutz Grundschutzes. ecs electronic cash syländer gmbh. Lothar Becker Dipl. Betriebswirt DATENSCHUTZ & IT Jahresbericht 2015 über den Stand der Umsetzung Datenschutz Grundschutzes gemäß definiertem Schutzzweck bei der ecs electronic cash syländer gmbh Aichet 5 83137 Schonstett erstellt durch Lothar Becker

Mehr

Audit in real life Auf was sollte man vorbereitet sein?

Audit in real life Auf was sollte man vorbereitet sein? IT ADVISORY Audit in real life Auf was sollte man vorbereitet sein? Novell Security Event 03.04.2008 v3 FINAL DRAFT DI Christian Focke Supervisor IT Advisory Wien Agenda Motivation Die Konsequenz Was ist

Mehr

Grundlagen der Logistik

Grundlagen der Logistik Grundlagen der Logistik Autor: Andreas Müller amcon management GmbH Peter Merian-Strasse 58 Postfach CH-4002 Basel Tel: +41 61 283 83 33 Fax: +41 61 283 83 35 E-Mail: info@am-con.ch Internet: www.am-con.ch

Mehr

Datenqualitätsmanagement im Customer Relationship Management

Datenqualitätsmanagement im Customer Relationship Management Wolfgang Leußer Datenqualitätsmanagement im Customer Relationship Management Verlag Dr. Kovac Hamburg 2011 Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis XVII XIX XXI

Mehr

White Paper. 1. GRC und ISMS - Warum Einsatz von Software-Lösungen?

White Paper. 1. GRC und ISMS - Warum Einsatz von Software-Lösungen? e:digital media GmbH software distribution White Paper Information Security Management System Inhalt: 1. GRC und ISMS - Warum Einsatz von Software-Lösungen? 2. Was sind die QSEC-Suiten? 3. Warum ein Information

Mehr

ISACA/SVIR 19.11.2013 ISACA/SVIR-VERANSTALTUNG FIT VOM UKUNFT? Die Prüfung des Datenschutzes im veränderten Umfeld. lic.

ISACA/SVIR 19.11.2013 ISACA/SVIR-VERANSTALTUNG FIT VOM UKUNFT? Die Prüfung des Datenschutzes im veränderten Umfeld. lic. ISACA/SVIR 19.11.2013 ISACA/SVIR-VERANSTALTUNG VOM FIT FÜR DIE ZUKUNFT UKUNFT? Die Prüfung des Datenschutzes im veränderten Umfeld lic. iur. Barbara Widmer, LL.M./CIA REFERAT IM KONTEXT DES TAGUNGSTHEMAS

Mehr

Lean Accounting Teil 1 Performance Messung Von Dr. David Moser, Geschäftsführender Partner der Wertfabrik AG

Lean Accounting Teil 1 Performance Messung Von Dr. David Moser, Geschäftsführender Partner der Wertfabrik AG Fachartikel Lean Accounting Teil 1 Performance Messung Von Dr. David Moser, Geschäftsführender Partner der Wertfabrik AG Anders als Lean Production oder Lean Development ist Lean Accounting noch wenig

Mehr

IT-Sicherheitsmanagement

IT-Sicherheitsmanagement Hagenberg Univ.-Doz.DI ingrid.schaumueller@liwest.at 1 Kennen Sie diese Situation? 2 Heute finden wir meist...... gute technische Einzellösungen... spontane Aktionen bei Bekanntwerden neuer Bedrohungen...

Mehr

3 Social Recruiting Kritik und Erwiderungen

3 Social Recruiting Kritik und Erwiderungen 3 Social Recruiting Kritik und Erwiderungen Das Wichtigste in Kürze Das Verständnis von Social (Media) Recruiting als soziale Aktivität der Mitarbeiter stößt häufig auf Skepsis. Berechtigterweise wird

Mehr

Setzen. Spiel! FACT BOOK DAS NEUE ZEITALTER DER BESCHAFFUNG HAT BEREITS BEGONNEN

Setzen. Spiel! FACT BOOK DAS NEUE ZEITALTER DER BESCHAFFUNG HAT BEREITS BEGONNEN Setzen Sie Ihr Image Nicht auf s FACT BOOK Spiel! DAS NEUE ZEITALTER DER BESCHAFFUNG HAT BEREITS BEGONNEN Wirksam und dauerhaft erfolge sichern Wirkungsvolles Risk- und Compliance Management System Mittelständische

Mehr

Cloud-Update 2012. Rechtssicher in die Wolke. RA Jan Schneider Fachanwalt für Informationstechnologierecht

Cloud-Update 2012. Rechtssicher in die Wolke. RA Jan Schneider Fachanwalt für Informationstechnologierecht Cloud-Update 2012 Rechtssicher in die Wolke Fachanwalt für Informationstechnologierecht Cloud Conf 2011, Frankfurt am Main den 21. November 2011 Cloud-Update 2012 Rechtssicher in die Wolke Fachanwalt für

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik)

W.WIINM32.11 (Datawarehousing) W.WIMAT03.13 (Statistik) Modulbeschrieb Business Intelligence and Analytics 16.10.2013 Seite 1/5 Modulcode Leitidee Art der Ausbildung Studiengang Modultyp W.WIINM42.13 Information ist eine derart wichtige Komponente bei der Entscheidungsfindung,

Mehr

IT-Governance. Standards und ihr optimaler Einsatz bei der. Implementierung von IT-Governance

IT-Governance. Standards und ihr optimaler Einsatz bei der. Implementierung von IT-Governance IT-Governance Standards und ihr optimaler Einsatz bei der Implementierung von IT-Governance Stand Mai 2009 Disclaimer Die Inhalte der folgenden Seiten wurden von Severn mit größter Sorgfalt angefertigt.

Mehr

Customer Relationship Marketing

Customer Relationship Marketing Customer Relationship Marketing Marc Müller Die Entwicklung des Marketings hin zum Customer Relationship Marketing lässt sich unter anderem auf die technologische Entwicklung zurückführen. Die Änderungen

Mehr

Erfahrung aus SOA (SOX) Projekten. CISA 16. Februar 2005 Anuschka Küng, Partnerin Acons AG

Erfahrung aus SOA (SOX) Projekten. CISA 16. Februar 2005 Anuschka Küng, Partnerin Acons AG Erfahrung aus SOA (SOX) Projekten CISA 16. Februar 2005 Anuschka Küng, Partnerin Acons AG Inhaltsverzeichnis Schwachstellen des IKS in der finanziellen Berichterstattung Der Sarbanes Oxley Act (SOA) Die

Mehr

STUDIE ZU IT-RISIKOBEWERTUNGEN IN DER PRAXIS

STUDIE ZU IT-RISIKOBEWERTUNGEN IN DER PRAXIS STUDIE ZU IT-RISIKOBEWERTUNGEN IN DER PRAXIS Stefan Taubenberger und Prof. Jan Jürjens, 22. September 211 Ziele der Studie Konfirmative und explorative Studie mit folgenden Fragestellungen Welche Kriterien

Mehr

lassen Sie mich zunächst den Organisatoren dieser Konferenz für ihre Einladung danken. Es freut mich sehr, zu Ihren Diskussionen beitragen zu dürfen.

lassen Sie mich zunächst den Organisatoren dieser Konferenz für ihre Einladung danken. Es freut mich sehr, zu Ihren Diskussionen beitragen zu dürfen. Mobile Personal Clouds with Silver Linings Columbia Institute for Tele Information Columbia Business School New York, 8. Juni 2012 Giovanni Buttarelli, Stellvertretender Europäischer Datenschutzbeauftragter

Mehr

ISO 5500x-Normenfamilie

ISO 5500x-Normenfamilie ISO 5500x-Normenfamilie 5 Fakten zur ISO 5500x-Normenfamilie ISO 55000 - Overview, principles and terminology ISO 55001 - Requirements ISO 55002 - Guidelines on the application of ISO 55001 Generelles

Mehr

Präsentation Asset Management. Andreas Schlatter

Präsentation Asset Management. Andreas Schlatter Asset management Vertraulich Präsentation Asset Management Andreas Schlatter 12. Juni 2012 Asset Management als Tätigkeit Anlageuniversum Asset Manager als Intermediär Anleger - Kunden «Public» Markets

Mehr

Risiken und Haftungsfragen für Sicherheits- und Führungskräfte

Risiken und Haftungsfragen für Sicherheits- und Führungskräfte Risiken und Haftungsfragen für Sicherheits- und Führungskräfte mag. iur. Maria Winkler Geschäftsführerin der IT & Law Consulting GmbH SSI-Fachtagung vom 28.10.2010 Unternehmenssicherheit - Neue Herausforderungen

Mehr

Unternehmenspolitik zu Sicherheit, Security, Gesundheits- und Umweltschutz im Roche-Konzern

Unternehmenspolitik zu Sicherheit, Security, Gesundheits- und Umweltschutz im Roche-Konzern Deutsche Übersetzung. Im Zweifelsfall gilt das englische Original Unternehmenspolitik zu Sicherheit, Security, Gesundheits- und Umweltschutz im Roche-Konzern Ausgabe 2012 Verpflichtung gegenüber der Gesellschaft

Mehr

Kundenzentrisches Banking - mit Hilfe von Social Media

Kundenzentrisches Banking - mit Hilfe von Social Media Kundenzentrisches Banking - mit Hilfe von Was versteht man unter kundenzentrischem Banking? Problem: Banken haben heutzutage mit stagnierenden Märkten, starkem Wettbewerb und einer sinkenden Kundenloyalität

Mehr

The German Market for Linux & Open Source 2005 2007

The German Market for Linux & Open Source 2005 2007 Informationen zur Marktstudie Linux/ Open Source 2005 Linux/Open Source Research von TechConsult Als neutrales Marktforschungsunternehmen beobachtet TechConsult seit nun mehr als fünf Jahren die Entwicklung

Mehr

E i n f ü h r u n g u n d Ü b e r s i c h t

E i n f ü h r u n g u n d Ü b e r s i c h t E i n f ü h r u n g u n d Ü b e r s i c h t Informationssicherheit in Gemeinden mit einer Bevölkerungszahl < 4 000 und in privaten Organisationen mit einem Leistungsauftrag wie Alters- und Pflegeheime

Mehr

it supreme - das Tüpfelchen auf Ihrer IT

it supreme - das Tüpfelchen auf Ihrer IT it supreme - das Tüpfelchen auf Ihrer IT IT-DOKUMENTATION DATENSCHUTZ IT PROJEKTMANAGEMENT www.koell.com i T supreme Aus unserer langjährigen Tätigkeit im High Quality Consulting und der umfangreichen

Mehr

Durchgängig IT-gestützt

Durchgängig IT-gestützt Beschaffung aktuell vom 03.09.2012 Seite: 026 Auflage: 18.100 (gedruckt) 10.253 (verkauft) 18.032 (verbreitet) Gattung: Zeitschrift Supplier Lifecycle Management Durchgängig IT-gestützt Obwohl die Identifizierung,

Mehr

CSR und Risikomanagement

CSR und Risikomanagement CSR und Risikomanagement Bedeutung der Risiken aus ökologischen und sozialen Sachverhalten im Rahmen der Prüfung des Risikoberichts und des Risikomanagements XX. April 2010 Risk Management Solutions Agenda

Mehr

Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter. Chinesische Botschaft in Belgrad

Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter. Chinesische Botschaft in Belgrad Datenqualität mit dem DataFlux dfpower Studio 8.1 Tobias Jansen Zaferna-Hütte, 4. Januar 2009 Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter Nasa Marssonde Mars Climate Orbiter

Mehr

Supply Chain Controlling: Entwicklung und Diskussion

Supply Chain Controlling: Entwicklung und Diskussion Supply Chain Controlling: Entwicklung und Diskussion von Christoph Eiser Erstauflage Diplomica Verlag 2015 Verlag C.H. Beck im Internet: www.beck.de ISBN 978 3 95485 266 6 schnell und portofrei erhältlich

Mehr

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN CLOUD-ENTWICKLUNG: BESTE METHODEN 1 Cloud-basierte Lösungen sind auf dem IT-Markt immer weiter verbreitet und werden von immer mehr

Mehr

Business Process Management

Business Process Management Business Process Management Eine Einführung und Status quo Dr. oec. Clemente Minonne Lead Principal Business Architekt und VRP Clemente.Minonne@iProcess.ch iprocess AG www.iprocess.ch info@iprocess.ch

Mehr

Aktivität zahlt sich aus

Aktivität zahlt sich aus 4 Betrieblicher Datenschutz: Aktivität zahlt sich aus Mit der zunehmenden Verbreitung moderner Informationstechnologien in den Betrieben fällt dem Datenschutz für Arbeitnehmer eine immer wichtigere Rolle

Mehr

ISO & IKS Gemeinsamkeiten. SAQ Swiss Association for Quality. Martin Andenmatten

ISO & IKS Gemeinsamkeiten. SAQ Swiss Association for Quality. Martin Andenmatten ISO & IKS Gemeinsamkeiten SAQ Swiss Association for Quality Martin Andenmatten 13. Inhaltsübersicht IT als strategischer Produktionsfaktor Was ist IT Service Management ISO 20000 im Überblick ISO 27001

Mehr

Uniserv Academy, Frankfurt am Main 19.05.2015 Kundendaten effektiv und nachhaltig managen Wie Data Governance hilft, Ihre Kunden besser zu verstehen

Uniserv Academy, Frankfurt am Main 19.05.2015 Kundendaten effektiv und nachhaltig managen Wie Data Governance hilft, Ihre Kunden besser zu verstehen Fakultät Informatik und Wirtschaftsinformatik Sanderheinrichsleitenweg 20 97074 Würzburg Folie 1 Uniserv Academy, Frankfurt am Main 19.05.2015 Kundendaten effektiv und nachhaltig managen Wie Data Governance

Mehr

Quality Point München Datenqualität

Quality Point München Datenqualität Quality Point München Datenqualität Paul, wie ist denn Eure Datenqualität? Nachdem ich bei der letzten Gehaltszahlung mit Frau... angeredet wurde, bin ich mir nicht mehr so sicher. Autor: W. Ulbrich IT&More

Mehr

WORLD VISION SCHWEIZ RETO GERBER - CEO 12.11.2014

WORLD VISION SCHWEIZ RETO GERBER - CEO 12.11.2014 WORLD VISION SCHWEIZ RETO GERBER - CEO 12.11.2014 World Vision Schweiz / Präsentation SAP / 12.11.2014 1 INHALT Portfolio WIE DEFINIERE UND MESSE ICH DEN PROJEKTNUTZEN IN DER ENTWICKLUNGSZUSAMMENARBEIT?

Mehr

IKS der Soloth. Landw. Kreditkasse. Suissemelio Tagung vom 1.12.2009

IKS der Soloth. Landw. Kreditkasse. Suissemelio Tagung vom 1.12.2009 IKS der Soloth. Landw. Kreditkasse Suissemelio Tagung vom 1.12.2009 Überblick Risikopolitik Erwartungen an ein IKS Prozessdefinitionen als Grundlage Entwicklung eines IKS Erfahrungen 16.12.2009 2 Risikopolitik

Mehr

Prüfung einer mehrstufigen Datenmigration ein Fall aus der Praxis

Prüfung einer mehrstufigen Datenmigration ein Fall aus der Praxis Prüfung einer mehrstufigen Datenmigration ein Fall aus der Praxis Peter Steuri Partner / Leiter IT-Prüfung und -Beratung BDO AG, Solothurn Ausgangslage / Zielsetzungen Ausgangslage Sehr grosses, global

Mehr

Das ultimative Daten Management

Das ultimative Daten Management Das ultimative Daten Management Beschreibung des Programms Rafisa AG Seestrasse 78 CH 8703 Erlenbach-Zürich Ziel und Zweck Das Program: ist ein multi-funktionales Programm, welches dazu dient, für den

Mehr

Die Bedeutung von Datenqualität

Die Bedeutung von Datenqualität Die Bedeutung von Datenqualität Unabhängige Anwenderbefragung von TDWI und emagixx, März 2013 Inhaltsverzeichnis Vorwort...3 1. Executive Summary...4 2. Klassifizierung...5 2.1. Branche...5 2.2. Unternehmensgröße...5

Mehr

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten von Jürgen Mauerer Foto: Avantum Consult AG Seite 1 von 21 Inhalt Mehrwert aufzeigen nach Analyse des Geschäftsmodells...

Mehr

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Suche schlecht beschriftete Bilder mit Eigenen Abfragen Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere

Mehr

Datenschutz Alles Wichtige im Überblick und wie Ihre ICT-Partner Ihnen helfen können

Datenschutz Alles Wichtige im Überblick und wie Ihre ICT-Partner Ihnen helfen können Whitepaper Datenschutz Alles Wichtige im Überblick und wie Ihre ICT-Partner Ihnen helfen können Welche Unternehmensdaten sollten vertraulich behandelt werden? Was müssen Sie über den Schutz Ihrer Daten

Mehr

Effizientes Änderungsmanagement in Outsourcing- Projekten

Effizientes Änderungsmanagement in Outsourcing- Projekten Effizientes Änderungsmanagement in Outsourcing- Projekten Dr. Henning Sternkicker Rational Software IBM Deutschland GmbH Sittarder Straße 31 52078 Aachen henning.sternkicker@de.ibm.com Abstract: Es werden

Mehr

Human Resources Strategie

Human Resources Strategie Human Resources Strategie unterstützt die Personalabteilung den Unternehmenserfolg nachhaltig? Subjektive Einschätng Bearbeitungshinweise: Bitte beantworten Sie nächst die allgemeinen Fragen Ihrem Unternehmen

Mehr

Consulting Services Effiziente Sicherheitsprozesse nach Mass.

Consulting Services Effiziente Sicherheitsprozesse nach Mass. Consulting Services Effiziente Sicherheitsprozesse nach Mass. Angemessene, professionelle Beratung nach internationalen Sicherheitsstandards. Effektive Schwachstellenerkennung und gezielte Risikominimierung.

Mehr

Wie Fusion CRM die Datenqualität im Marketingprozess erhöhen kann (Fusion CRM@ec4u)

Wie Fusion CRM die Datenqualität im Marketingprozess erhöhen kann (Fusion CRM@ec4u) Wie Fusion CRM die Datenqualität im Marketingprozess erhöhen kann (Fusion CRM@ec4u) Jeder kennt folgende Sätze aus seinem eigenen Unternehmen: Wieso sind so viele doppelte Einträge im System? Kann man

Mehr

MIRO Rechnungen verbuchen. Vanessa Hirt Schneider Electric AG Schermenwaldstrasse11 3063 Ittigen. 2. Lehrjahr. Prozesseinheit 2

MIRO Rechnungen verbuchen. Vanessa Hirt Schneider Electric AG Schermenwaldstrasse11 3063 Ittigen. 2. Lehrjahr. Prozesseinheit 2 MIRO Rechnungen verbuchen Vanessa Hirt Schneider Electric AG Schermenwaldstrasse11 3063 Ittigen 2. Lehrjahr Prozesseinheit 2 Inhaltsverzeichnis MIRO Rechnungen verbuchen... 1 Inhaltsverzeichnis... 2 Pendenzenliste...

Mehr

Risk Management für Unternehmen

Risk Management für Unternehmen Risk Management für Unternehmen Überlassen Sie nichts dem Zufall RM- Risk Management für Unternehmen methodisch vorgehen Dem Risk Management (RM) liegt ein dauernder, sich stets verändernder Prozess im

Mehr

GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013

GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013 OPEN SYSTEMS CONSULTING IT-KOMPLETTDIENSTLEISTER IM MITTELSTAND GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013 Business Analytics Sascha Thielke AGENDA Die Geschichte des Reporting Begriffe im BA Umfeld

Mehr

Sicherung von Unternehmenspotenzialen und Wettbewerbsfähigkeit durch transparente Prozesse und Managementsysteme

Sicherung von Unternehmenspotenzialen und Wettbewerbsfähigkeit durch transparente Prozesse und Managementsysteme Sicherung von Unternehmenspotenzialen und Wettbewerbsfähigkeit durch transparente Prozesse und Managementsysteme DSQM Datenschutzmanagement Qualitätsmanagement Datenschutzmanagement Der Basis-Schritt zum

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note:

Matrikelnr: Name: Vorname: Aufgabe 1 2 3 4 Summe Maximal erreichbare 20 30 30 20 100 Punktzahl Erreichte Punktzahl. Note: Fakultät für Wirtschaftswissenschaft Matrikelnr: Name: Vorname: : Modul 32711 Business Intelligence Termin: 28.03.2014, 9:00 11:00 Uhr Prüfer: Univ.-Prof. Dr. U. Baumöl Aufbau und Bewertung der Aufgabe

Mehr

Mitarbeiter als Teil des Change Management

Mitarbeiter als Teil des Change Management (Publikation in ZHWinfo, Oktober 2005) Mitarbeiter als Teil des Change Management Kurt Spiess, Rebecca Frei In den letzten Jahren waren viele Firmen und Organisationen mit der Notwendigkeit von Veränderungen

Mehr

Managing Business Intelligence. Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren

Managing Business Intelligence. Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren Managing Business Intelligence Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren 2008 Dr. Pascal Sieber & Partners AG Alle Rechte vorbehalten. Die Verwendung, Bearbeitung, Übersetzung, Vervielfältigung

Mehr

Informationssicherheit und Compliance-Erfüllung econet Der Weg zum sicheren Umgang mit Informationen und Zugriffsrechten Wohl nirgends in der IT sind gewachsene Strukturen riskanter, als in Dateisystemen

Mehr

Transparenz!? Moderne Beziehungen zwischen Unternehmen und Kapitalgebern

Transparenz!? Moderne Beziehungen zwischen Unternehmen und Kapitalgebern Transparenz!? Moderne Beziehungen zwischen Unternehmen und Kapitalgebern Michael Diegelmann, cometis AG Frankfurt am Main, 25. Februar 2003 Agenda 1. Einleitung 2. Situationsanalyse deutscher Mittelstand

Mehr

SERVIEW: ITIL und Compliance

SERVIEW: ITIL und Compliance SERVIEW: ITIL und Compliance Seite 1 /7 ITIL und Compliance Definition des Begriffs Compliance (Quelle: Wikipedia): In der betriebswirtschaftlichen Fachsprache wird der Begriff Compliance verwendet, um

Mehr

Carrier Line Service

Carrier Line Service Ausgabedatum 006.2012 Ersetzt Version 1-1 Gültig ab 006.2012 Vertrag Vertrag betreffend Data Services Vertrag betreffend Mietleitungen FMG Gültig ab 006.2012 1/7 Inhaltsverzeichnis 1 Einleitung...3 2 Service

Mehr

ITIL IT Infrastructure Library

ITIL IT Infrastructure Library ITIL IT Infrastructure Library Einführung in das IT-Service-Management Andreas Linhart - 2009 Agenda IT-Service-Management Der ITIL-Ansatz Lizenzen & Zertifizierungen ITIL-Prozessmodell (v2) Service Support

Mehr

READINESS-INDEX Migration Zahlungsverkehr Schweiz. Erste Befragungswelle Februar 2015

READINESS-INDEX Migration Zahlungsverkehr Schweiz. Erste Befragungswelle Februar 2015 READINESS-INDEX Migration Zahlungsverkehr Schweiz Erste Befragungswelle Februar 2015 Inhaltsverzeichnis Zur Studie Untersuchungsansatz Seite 3 Management Summary Seite 5 Ergebnisse der Befragung Stand

Mehr

Customer COE Kundenerfolgsgeschichte Informationsmanagement. Topic. Kundenempfehlung: Wissensmanagement

Customer COE Kundenerfolgsgeschichte Informationsmanagement. Topic. Kundenempfehlung: Wissensmanagement Topic Informationen sind eine wichtige unternehmerische Ressource. Wer zeitnah mit strukturierten Informationen arbeiten kann, generiert eindeutige Wettbewerbsvorteile für sein Unternehmen. Es ist eine

Mehr

Best Execution Policy der HANSAINVEST LUX S.A.

Best Execution Policy der HANSAINVEST LUX S.A. Best Execution Policy der HANSAINVEST LUX S.A. Stand Oktober 2014 Seite 1 von 6 Inhaltsverzeichnis 1. Einleitung... 3 2. Anwendungsbereich... 3 3. Ziel... 3 4. Grundsätze... 4 5. Weiterleitung von Aufträgen

Mehr

Supply Chain Management

Supply Chain Management Supply Chain Management Freisetzung gebundenen Kapitals Optimierung der Wertschöpfungskette Stärkung von Wettbewerbsvorteilen Zusammenfassung Optimierung erzielen durch die Nutzung der Instrumente des

Mehr

Urs Fischer, dipl. WP, CRISC, CISA, CIA Fischer IT GRC Beratung & Schulung

Urs Fischer, dipl. WP, CRISC, CISA, CIA Fischer IT GRC Beratung & Schulung Urs Fischer, dipl. WP, CRISC, CISA, CIA Fischer IT GRC Beratung & Schulung 5. November 2012 2012 ISACA & fischer IT GRC Beratung & Schulung. All rights reserved 2 Agenda Einführung Konzepte und Prinzipien

Mehr

Hinweise zum Erstellen eines Verfahrensverzeichnisses

Hinweise zum Erstellen eines Verfahrensverzeichnisses Hinweise zum Erstellen eines Verfahrensverzeichnisses Eine Information des Datenschutzbeauftragten der PH Freiburg Stand: 11.03.2010 Inhalt Hinweise zum Erstellen eines Verfahrensverzeichnisses... 1 Vorbemerkung...

Mehr