Thema: Datenqualität mit dem DataFlux dfpower Studio 8.1. Seminarausarbeitung im Rahmen des Skiseminars Software Engineering
|
|
- Hermann Bösch
- vor 8 Jahren
- Abrufe
Transkript
1 Westfälische Wilhelms-Universität Münster Thema: Datenqualität mit dem DataFlux dfpower Studio 8.1 Seminarausarbeitung im Rahmen des Skiseminars Software Engineering im Fachgebiet Informatik am Lehrstuhl für Praktische Informatik in der Wirtschaft Themensteller: Betreuer: vorgelegt von: Prof. Dr. Herbert Kuchen Dipl.-Wirt. Inform. Christian Hermanns Tobias Jansen Rudolf-Harbig-Weg Münster Abgabetermin:
2 - II - Inhaltsverzeichnis Inhaltsverzeichnis...II Abbildungsverzeichnis... III Tabellenverzeichnis... IV 1 Einleitung Datenqualität Definition und Grundlagen Begriffsdefinitionen Dimensionen Datenqualitätsmängel Datenqualitätsmanagement Datenqualitätsmetriken Datenbereinigung Datenqualität mit dem DataFlux dfpower Studio DataFlux Methodologie: Five Steps to More Valuable Enterprise Data Funktionsumfang des dfpower Studios dfpower Navigator dfpower Profile (Configurator und Viewer) dfpower Architect dfpower Match Product Reviews im Journal DM Review Alternative Datenqualitätstools und frameworks Resümee Literaturverzeichnis Anhang A Screenshots... 24
3 - III - Abbildungsverzeichnis Abb. 1: Graphische Darstellung der 15 Dimensionen und 4 Kategorien... 6 Abb. 2: Datenqualitätsmängel... 6 Abb. 3: Redudant Data Analysis: Beispiel für Datenfeld COMPANY (DataFlux Sample Datenbank, Tabelle CONTACTS/PURCHASE) Abb. 4: Screenshot dfpower Configurator: Auswahl der Datenquelle Abb. 5: Screenshot dfpower Configurator: Auswahl der Metriken (1/4) Abb. 6: Screenshot dfpower Configurator: Auswahl der Metriken (2/4) Abb. 7: Screenshot dfpower Configurator: Auswahl der Metriken (3/4) Abb. 8: Screenshot dfpower Configurator: Auswahl der Metriken (4/4) Abb. 9: Screenshot dfpower Viewer: Column Profiling für Datenfeld ID (DataFlux Sample Datenbank; Tabelle CONTACTS) Abb. 10: Screenshot dfpower Viewer: Pattern Frequency Distribution für ID (DataFlux Sample Datenbank; Tabelle CONTACTS) Abb. 11: Screenshot dfpower Viewer: Pattern Frequency Distribution für PHONE (DataFlux Sample Datenbank; Tabelle CONTACTS) Abb. 12: Screenshot dfpower Viewer: Pattern Frequency Distribution für STATE (DataFlux Sample Datenbank; Tabelle CONTACTS) Abb. 13: Screenshot dfpower Viewer: Frequency Distribution für STATE (DataFlux Sample Datenbank; Tabelle PURCHASE) Abb. 14: Screenshot dfpower Viewer: Frequency Distribution Visualisierung (DataFlux Sample Datenbank; Tabelle PURCHASE) Abb. 15: Screenshot dfpower Viewer: Frequency Distribution Drill Through (DataFlux Sample Datenbank; Tabelle PURCHASE) Abb. 16: Screenshot dfpower Viewer: Redundant Data Analysis für COMPANY (DataFlux Sample Datenbank; Tabelle CONTACTS/PURCHASE) Abb. 17: Screenshot dfpower Viewer: Historical Trend Analysis Abb. 18: Screenshot dfpower Configurator: Alert Configuration Abb. 19: Screenshot dfpower Architect: Parsing für CONTACT (DataFlux Sample Datenbank; Tabelle CONTACTS) Abb. 20: Screenshot dfpower Architect: Gender Analysis für CONTACT (DataFlux Sample Datenbank; Tabelle CONTACTS) Abb. 21: Screenshot dfpower Architect: Standardization (DataFlux Sample Datenbank; Tabelle CONTACTS) Abb. 22: Screenshot dfpower Match: Match Rules (DataFlux Sample Datenbank; Tabelle CONTACTS) Abb. 23: Screenshot dfpower Match: Eliminate Duplicates (DataFlux Sample Datenbank; Tabelle CONTACTS)... 33
4 - IV - Tabellenverzeichnis Tab. 1: DQ-Dimensionen nach WANG/STRONG mit Übersetzung der DGIQ... 5 Tab. 2: Tab. 3: Tab. 4: Tab. 5: Column Profiling Metriken: Beispielwerte für Datenfeld ID (DataFlux Sample Datenbank; Tabelle CONTACTS) Pattern Frequency Distribution: Beispielwerte für Datenfeld PHONE (DataFlux Sample Datenbank; Tabelle CONTACTS) Pattern Frequency Distribution: Beispielwerte für Datenfeld STATE (DataFlux Sample Datenbank; Tabelle CONTACTS) Frequency Distribution: Beispielwerte für Datenfeld STATE (DataFlux Sample Datenbank; Tabelle PURCHASE) Tab. 6: Stärken des dfpower Studios Tab. 7: Schwächen des dfpower Studios... 18
5 - 1-1 Einleitung Niedrige Datenqualität ist in kommerziellen und wissenschaftlichen Datenbanken allgegenwärtig. Die Tatsache eines ungenügenden Datenqualitätsmanagement fordert daher dringenden Handlungsbedarf. Dass mangelnde Datenqualität dabei kein branchenspezifisches Problem ist, wird durch einige Beispiele aus der Praxis verdeutlicht (vgl. [Nau07, S. 27]): Die Marssonde Mars Climate Orbiter der Nasa verglühte 1999 in der Mars- Atmosphäre aufgrund eines Entfernungsfehlers, der auf einer fehlerhaften Verwendung von Maßeinheiten beruhte (vgl. [Wei08, S. 68]). Das US-Unternehmen Paint Bull stellte fest, dass die Hälfte der für Werbezwecke eingekauften Kundendaten fehlerhaft waren. Jedes nicht zustellbare Werbepaket brachte somit einen Verlust von 10$ ein (vgl. [LLS06, S. 669]). Aufgrund einer falschen bzw. veralteten Adressangabe wurde 1999 irrtümlich die chinesische Botschaft in Belgrad unter Verlust von drei Menschenleben bombardiert (vgl. [Trei06, S. 33]). Untersuchungen ergaben, dass schlechte Datenqualität durchschnittlich Kosten zwischen acht und zwölf Prozent des Unternehmensumsatzes verursachen. Auch in Data Warehouse Projekten schlagen die Kosten von Datenqualitätsmaßnahmen mit mehr als der Hälfte des Budgets zu Buche (vgl. [Kli08, S. 223]). Datenqualität ist demnach ein wichtiger Faktor für den Unternehmenserfolg, der abhängig vom Vertrauen in die bereitgestellten Informationen ist. Hier kommt das sogenannte garbage-in-garbage-out Prinzip zum Tragen, demnach fehlerhafte Daten zu Fehlentscheidungen führen und somit operationale und finanzielle Probleme für das Unternehmen entstehen (vgl. [LLS06, S. 668; Nau07, S. 27]). Um die enorme Bedeutung der Datenqualität besser zu begreifen sind zunächst ihre Merkmale zu erkennen, denn Datenqualität ist viel mehr als fehlerfreie Daten (vgl. [BS06, S. 4 f.]). Darüber hinaus sind Ursachen, Kennzahlen und Verbesserungsmaßnahmen zu erkennen, die mit Hilfe von Softwareunterstützung Anwendung finden. Dazu ist die vorliegende Ausarbeitung in zwei gleichgewichtige Teile gegliedert. Kapitel 2 setzt sich mit der Definition und den Grundlagen von Datenqualität auseinander, während Kapitel 3 die Anwendung der theoretischen Erkenntnisse mit Hilfe eines verbreiteten Softwaretools (DataFlux dfpower Studio 8.1) in der Praxis beleuchtet. Abschließend gibt Kapitel 4 ein Resümee.
6 - 2-2 Datenqualität Definition und Grundlagen 2.1 Begriffsdefinitionen Bevor eine einleitende Definition für den Begriff Datenqualität gegeben wird, werden zunächst seine beiden Wortbestandteile Daten und Qualität getrennt betrachtet, um mit diesem Hintergrundwissen den eigentlichen Begriff Datenqualität zu definieren. Dabei wird der in dieser Betrachtung häufig auftretende Begriff Information aufgegriffen und hinsichtlich seiner Relevanz in dieser Ausarbeitung abgegrenzt. Daten Der Singular Datum des Begriffs Daten kommt aus dem Lateinischen und bedeutet das Gegebene. Im Deutschen Sprachgebrauch wird der Begriff Daten meist nur im Plural verwendet, da der Singular leicht mit dem Kalenderdatum zu verwechseln ist (vgl. [Eng99, S. 18; LWS07, S. 29]). In den Computerwissenschaften, mit denen der Begriff Daten meist in Verbindung gebracht wird, werden Daten meist als Folge maschinell verarbeitbarer Zeichen verstanden. Also als technische Repräsentation von Information durch eine Folge von Nullen und Einsen (vgl. [HHR07, S. 133; GSH06, S. 4, 10]). In der klassischen Informatik wird bei der Verwendung des Begriffs Information insbesondere nicht nach der semantischen Bedeutung gefragt (vgl. [Ern08, S. 52]). Ganz im Gegenteil dazu werden die Schlüsselbegriffe Daten, Information und Wissen in der Wirtschaftsinformatik definiert. 1 Die Begriffe werden zumeist mit Hilfe der Semiotik im Rahmen eines taxonomischen Modells mit den Ebenen Syntax, Semantik und Pragmatik abgegrenzt (vgl. [LWS07, S. 33; GRB04, S. 31]). Die Begriffe und deren Abgrenzung werden in der gängigen Literatur sehr kontrovers diskutiert, welches auch die Gegenüberstellung verschiedener Begriffsdefinitionen aus unterschiedlichen Wissenschaftsbereichen durch TREIBLMAIER verdeutlicht (vgl. [Trei06, S. 24 ff.]). Aufgrund der im Verlauf der Ausarbeitung eher datenbanktechnischen Verwendung des Begriffs Daten sei im Folgenden nicht zwischen Daten und Informationen unterschieden. Die synonyme Verwendung stützt sich zudem auf die Behandlung der Begriffe in der gängigen Literatur zur Datenqualität, die noch genauer auf S. 4 diskutiert wird. 1 Der Vollständigkeit halber sei erwähnt, dass einige Autoren wie z.b. ENGLISH das Schema noch um den Begriff Weisheit erweitern (vgl. [Eng99]).
7 - 3 - Qualität Das Deutsche Institut für Normung e. V. (DIN) definiert Qualität im Mai 1987 unter der Norm DIN als die Gesamtheit von Merkmalen (und Merkmalswerten) einer Einheit bezüglich ihrer Eignung, festgelegte und vorausgesetzte Erfordernisse zu erfüllen (vgl. [Qua08]). Qualität wird häufig auch mit Hilfe des Begriffs Beschaffenheit, vom Lateinischen qualitas, definiert. So auch die Definition von GEIGER/KOTTE, die Qualität als Relation zwischen realisierter Beschaffenheit und geforderter Beschaffenheit definieren (vgl. [GK08, S. 68, 72 f.]). Entgegen einer einheitlichen internationalen Festlegung prägen bekannte Werbekampagnen ein widersprüchliches Verständnis der Qualität als die Übereinstimmung der Leistung mit den Forderungen des Kunden. Nach GEIGER/KOTTE beschreiben diese Formulierung indessen das Ziel des Qualitätsmanagements, nämlich zufriedenstellende Qualität, erfüllte Forderungen an die Beschaffenheit (vgl. [GK08, S. 76 f.]). Datenqualität Ebenso wie die Begriffe Daten und Informationen, werden die Begriffe Datenqualität (DQ) und Informationsqualität (IQ) in der gängigen Literatur unterschiedlich aufgefasst. EPPLER unterscheidet z.b. Daten- und Informationsqualität anhand der domänenspezifischen Probleme (vgl. [Epp06, S. 27 f.]). Jedoch werden die beiden Begriffe in der Literatur überwiegend synonym verwendet. Dieser Umstand beruht auch auf der Tatsache, dass die Qualität von Daten nur im Kontext ihrer Nutzung beurteilbar ist (vgl. [GW08, S. 88; Nau07, S. 27]). Auffällig in der deutschsprachigen Literatur ist die Verwendung des Begriffs Informationsqualität als direkte Übersetzung des Begriffs data quality aus englischsprachigen Quellen. GEBAUER/WINDHEUSER geben eine mögliche pragmatische Definition für Datenqualität: Datenqualität ist die Gesamtheit der Ausprägungen von Qualitätsmerkmalen eines Datenbestandes bezüglich dessen Eignung, festgelegte und vorausgesetzte Erfordernisse zu erfüllen. ([GW08, S. 89]). Die meisten Definitionen für Datenqualität greifen weiter auf unterschiedliche Konzepte zurück, die sich mit verschiedenen Dimensionen oder Attributen beschäftigen. Daher wird im folgenden Kapitel 2.2 ein weit verbreitetes Konzept von WANG/STRONG behandelt.
8 Dimensionen In der gängigen Literatur zum Thema Datenqualität werden verschiedene Dimensionen bzw. Attribute diskutiert. Der Ansatz von WANG/STRONG wird in nahezu jedem wissenschaftlichen Text zum Thema Datenqualität zitiert, da er überschneidungsfreie Dimensionen und somit eine klare Strukturierung bietet. Er beruht auf einer empirischen Studie unter IT-Anwendern. Die Grundidee der Arbeit besteht in der Entwicklung von Datenqualitätsaspekten, die für IT-Anwender von Bedeutung sind (vgl. [WS96, S. 5 f.; Trei06, S. 35 ff.; RKM+08, S. 25 f.]). Die Dimensionen liefern zusätzlich ein notwendiges einheitliches Vokabular für die Kommunikation über Datenqualität (vgl. [Rae08b, S. 30]). Um das Verständnis und die Benutzung der Begriffe im deutschsprachigen Raum zu vereinheitlichen, hat die Projektgruppe Normen und Standards der Deutschen Gesellschaft für Informations- und Datenqualität e.v. (DGIQ) einen Übersetzungsvorschlag entwickelt, der inklusive der Beschreibung der Dimensionen in Tab. 1 aufgelistet ist (vgl. [RKM+08, S. 28]). Dimension (englisch/deutsch) Beschreibung 1 Accessibility Zugänglichkeit 2 Appropriate amount of data Angemessener Umfang 3 Believability Glaubwürdigkeit 4 Completeness Vollständigkeit 5 Concise representation Übersichtlichkeit 6 Consistent representation Einheitliche Darstellung 7 Ease of manipulation Bearbeitbarkeit Informationen sind zugänglich, wenn sie anhand einfacher Verfahren und auf direktem Weg für den Anwender abrufbar sind. Informationen sind von angemessenem Umfang, wenn die Menge der verfügbaren Information den gestellten Anforderungen genügt. Informationen sind glaubwürdig, wenn Zertifikate einen hohen Qualitätsstandard ausweisen oder die Informationsgewinnung und verbreitung mit hohem Aufwand betrieben werden. Informationen sind vollständig, wenn sie nicht fehlen und zu den festgelegten Zeitpunkten in den jeweiligen Prozess-Schritten zur Verfügung stehen. Informationen sind übersichtlich, wenn genau die benötigten Informationen in einem passenden und leicht fassbaren Format dargestellt sind. Informationen sind einheitlich dargestellt, wenn die Informationen fortlaufend auf dieselbe Art und Weise abgebildet werden. Informationen sind leicht bearbeitbar, wenn sie leicht zu ändern und für unterschiedliche Zwecke zu verwenden sind. 8 Free of error Fehlerfreiheit Informationen sind fehlerfrei, wenn sie mit der Realität übereinstimmen.
9 - 5 - Dimension (englisch/deutsch) Beschreibung 9 Interpretability Eindeutige Auslegbarkeit Informationen sind eindeutig auslegbar, wenn sie in gleicher, fachlich korrekter Art und Weise begriffen werden. 10 Objectivity Objektivität Informationen sind objektiv, wenn sie streng sachlich und wertfrei sind. 11 Relevancy Relevanz Informationen sind relevant, wenn sie für den Anwender notwendige Informationen liefern. 12 Reputation Hohes Ansehen Informationen sind hoch angesehen, wenn die Informationsquelle, das Transportmedium und das verarbeitenden System im Ruf einer hohen Vertrauenswürdigkeit und Kompetenz stehen. 13 Timeliness Aktualität Informationen sind aktuell, wenn sie die tatsächliche Eigenschaft des beschriebenen Objektes zeitnah abbilden. 14 Understandability Verständlichkeit Informationen sind verständlich, wenn sie unmittelbar von den Anwendern verstanden und für deren Zwecke eingesetzt werden können. 15 Value-added Wertschöpfung Informationen sind wertschöpfend, wenn ihre Nutzung zu einer quantifizierbaren Steigerung einer monetären Zielfunktion führen kann. Tab. 1: DQ-Dimensionen nach WANG/STRONG mit Übersetzung der DGIQ Eine hohe Gesamtqualität ist erst bei ausreichender Qualität der einzelnen Dimensionen gegeben, die daher auch als kritische Erfolgsfaktoren für das Funktionieren eines Informationssystems angesehen werden können. Abb. 1 visualisiert die 15 Dimensionen, die in den vier Kategorien systemunterstützt, inhärent, darstellungsbezogen und zweckabhängig angeordnet sind. Die Kategorien dienen der Übersichtlichkeit und beruhen ebenfalls auf den Untersuchungen von WANG/STRONG (vgl. [RKM+08, S. 29 ff.; WS96, S. 18 ff.]). Die rechteckige Darstellung der Dimensionen und Kategorien in Abb. 1 ist von vier weiteren so genannten Untersuchungsgegenständen umgeben, die ein Ordnungskonzept repräsentieren, in dem jeder Kategorie ein spezifischer Untersuchungsgegenstand zugeordnet ist (vgl. [RKM+08, S. 30 f.]). Nach ROHWEDDER U.A. können diese vier Untersuchungsgegenstände gemeinsam als Struktur der Informationsverarbeitung eines Unternehmens gesehen werden. Die gleichwertigen Untersuchungsgegenstände sind, jeweils unter Berücksichtigung der Nutzung, im Kontext der Unternehmensprozesse verschachtelt. Dabei wird im System der Kern des Informationssystems, nämlich die Inhalte, verarbeitet und in eine Darstellung überführt (vgl. [RKM+08, S. 31 f.]).
10 - 6 - Abb. 1: Graphische Darstellung der 15 Dimensionen und 4 Kategorien Quelle: [Deu07, S. 1] 2.3 Datenqualitätsmängel Daten von schlechter Qualität enthalten u.a. Fehler, sind falsch formatiert oder widersprüchlich. Darüber hinaus können sie unvollständig sein oder doppelte Werte, sogenannte Dubletten, enthalten. RAHM/DO klassifizieren Datenfehler einerseits auf Schema- bzw. Instanzebene und andererseits aufgrund ihres Auftretens in einer bzw. bei der Integration mehrerer Datenquellen. In Abb. 2 sind einige mögliche Fehler und Probleme innerhalb dieser Klassifikation dargestellt (vgl. [Nau07, S.27 f.; RD00, S. 3 ff.]). Abb. 2: Datenqualitätsmängel Quelle: Vgl. [Nau07, S. 28; RD00, S. 5]
11 - 7 - WOLF stellt mögliche Fehlerquellen und Fehlerarten gegenüber und identifiziert für jede dieser Fehlerarten einen generischen Ansatzpunkt zur Behebung dieses Mangels 2. Demnach können Fehlerquellen in der Erhebung, Eingabe, Verarbeitung, Speicherung, Ausgabe und Interpretation der Daten entstehen. Diesen Fehlerquellen stehen verschiedene Fehlerarten gegenüber: Prozessfehler, Anwenderfehler, Programmierfehler und Kundenfehler (vgl. [Wei08, S. 229 ff.]). 2.4 Datenqualitätsmanagement Die Verbesserung der Datenqualität ist ein komplexer Prozess, der gezielt vom gesamten Unternehmen zu tragen ist. Daher ist ein effektives Datenqualitätsmanagement zur Steuerung des gesamten Prozesses nötig. In der Praxis existieren dazu verschiedene Vorgehensmodelle. U.a. beschreibt WEIGEL ein Modell eines ganzheitlichen Datenqualitätsmanagements, eines sogenannten Total Data Quality Management (TDQM), mit den folgenden Phasen (vgl. hier und im Folgenden [Wei08, S ]): Projektinitiierung: Bei der Initiierung eines Datenqualitätsprojekts sind Zielsetzung, Strategie und Rollen zu bestimmen. Definition der Anforderungen: Je nach Projektstrategie sind unterschiedliche fachliche und technische Anforderungen zu definieren. Messung der vorhandenen Datenqualität: Die aktuell vorhandene Qualität der Daten lässt sich mit Hilfe der in Kapitel 2.5 angesprochenen Metriken ermitteln. Analyse der Fehlerursachen: Wie in Kapitel 2.3 zu sehen ist, sind die Ursachen von Datenqualitätsmängeln sehr vielfältig und nicht nur in den Daten selbst zu finden. Um die Ursachen zu finden, sind also neben den Daten selbst die Prozesse und Menschen zu überprüfen. Verbesserung der Datenqualität: Hier können einmalige Bereinigungen (Kapitel 2.6), vor allem durch Software-Unterstützung, für eine initiale Optimierung sorgen. Darüber hinaus können Optimierungen der IT-Systeme und Geschäftsprozesse sowie die Schulung von Mitarbeiter die Datenqualität verbessern. Permanente Überwachung: Durch Überwachungsmechanismen, u.a. durch Software-Unterstützung, wird der hohe Qualitätsgrad der Daten gesichert. 2 Für detaillierte Informationen zu den von WOLF identifizierten generischen Ansätzen und den darin definierten Maßnahmen siehe [Wei08].
12 Datenqualitätsmetriken Metriken bieten eine ökonomische Betrachtung unter Kosten-Nutzen-Aspekten und identifizieren Handlungsbedarfe. Darüber hinaus sind zum Vergleich der Datenqualität, um z.b. den Erfolg von Verbesserungsmaßnahmen zu ermitteln, konkrete numerische Metriken von Bedeutung. (vgl. [HK08, S. 49; Nau07, S. 28]). Die Schwierigkeit der Greifbarkeit von Datenqualität spiegelt sich in der Fülle an Merkmalen ab, die sie auszeichnen. Allerdings können nicht für alle Merkmale sinnvolle Kennzahlen ermittelt werden. In der Literatur werden vor allem Metriken für die Dimensionen Vollständigkeit, Fehlerfreiheit, Konsistenz und Aktualität diskutiert. 3 Die vorhandenen Metriken werden dabei je nach Anforderung der Aggregierbarkeit auf Attributwert-. Tupel-, Relationen- und Datenbankebene definiert. Zum Vergleich von verschiedenen Datenquellen bietet sich eine Skalierung und Gewichtung verschiedener Metriken zu einem Gesamtqualitätswert an (vgl. [HK08, S. 49, 54; Nau07, S. 28 f.]). 2.6 Datenbereinigung Innerhalb des Datenqualitätsmanagements ist die Datenbereinigung eine Möglichkeit, um die Datenqualität zu verbessern. Datenbereinigung (engl. Data clean(s)ing bzw. data scrubbing) umfasst verschiedene Methoden zum Entfernen und Korrigieren von Fehlern in Datenbanken, die einmalig oder wiederholt (allerdings nicht permanent) durchgeführt werden. Mögliche Aktivitäten sind z.b. (vgl. hier und im Folgenden [Zwi08, S. 102 f., 115 f.]): 4 Korrektur von Formatierungen (z.b. Datumswerte) Standardisierung/Normierung (z.b. Telefonnummern und Titel) Strukturierung (z.b. Auftrennung von Namen in Titel, Vor- und Nachname) Korrektur fehlerhafter Daten (z.b. Adressdaten) Identifikation und Bereinigung von Dubletten 3 4 Für weitere Informationen zum Thema Datenqualitätsmetriken sei u.a. auf [HK08] und [Kli08] verwiesen. Einige Metriken werden in Kapitel 3 im Zusammenhang mit dem Data Profiling erläutert. Einige der hier vorgestellten Aktionen zur Datenbereinigungen werden schwerpunktmäßig in Kapitel 3 am Beispiel des dfpower Architect demonstriert. Detaillierte theoretische Informationen zu Aktivitäten und Techniken der Datenbereinigung finden sich in [BS06, S ].
13 - 9-3 Datenqualität mit dem DataFlux dfpower Studio 8.1 Mit Hilfe des Datenqualitätsframeworks DataFlux dfpower Studio 8.1 sollen in diesem zweiten Teil der Ausarbeitung die im vorigen Kapitel erörterten theoretischen Grundlagen der Datenqualität anhand eines verbreiteten Softwareproduktes demonstriert und diese evaluiert werden. DataFlux ist eine Tochtergesellschaft des größten privaten Software-Herstellers SAS Institute mit Sitz in Cary (North Carolina, USA). DataFlux bietet innovative Datenqualitäts- und Datenintegrationstechnologien zur Wertsteigerung von Unternehmensdaten an. Ihr Kernprodukt, das dfpower Studio, beschreibt DataFlux selbst als [ ] the only true end-to-end data quality improvement solution on the market, complete with all of the necessary functionality to create consistent, accurate and reliable information assets. ([Dat08a; Dat08b]). Die angesprochenen end-to-end -Funktionalitäten des dfpower Studios sind in einer Methodologie zusammengefasst, die zunächst in Kapitel 3.1 behandelt wird. Aufbauend auf den dort beschriebenen Technologiebausteinen folgt eine umfangreiche Evaluation des dfpower Studios in Kapitel 3.2. Den Abschluss bildet eine Zusammenfassung von Produktbewertungen des dfpower Studios aus dem Journal DM Review. 3.1 DataFlux Methodologie: Five Steps to More Valuable Enterprise Data Dem dfpower Studio liegt eine von DataFlux entwickelte Methodologie zugrunde, die jede Phase der Datenqualitätsprozesse abdeckt. Diese Methodologie wird von DataFlux auch AIC Prozess genannt und besteht aus den drei wesentlichen Schritten: analyze (analysieren), improve (verbessern) und control (kontrollieren) (vgl. [Dat08d; Dat08e; Dat08c, S. 20; Dat08f, S. 2]). In den folgenden fünf Unterkapiteln werden die in den drei Methodologieschritten verwendeten Technologiebausteine behandelt, die die Funktionalität des dfpower Studios bilden und von DataFlux auch als die Five Steps to More Valuable Enterprise Data bezeichnet werden (vgl. [Dat08f, S. 2]). Data Profiling Data Profiling untersucht die Struktur, die Beziehungen und den Inhalt bestehender Datenquellen, um zunächst einen ersten Überblick über die Daten zu erhalten. Dabei wird das Data Profiling innerhalb des dfpower Studios vor allem durch den Profile Configurator und den Profile Viewer (Kapitel 3.2.2) unterstützt. Die dabei angewendeten Tech-
14 niken und Prozesse können in die drei folgenden Kategorien unterteilt werden (vgl. [Dat08f, S. 2 f.; Dat08c, S. 28]). Structure Discovery untersucht die Struktur der Daten im Hinblick auf die Entsprechung zugehöriger Metadaten, die Entsprechung erwarteter Datenmuster und die Befolgung von angemessenen Eindeutigkeits- und Null-Wert-Regeln (vgl. [Dat08f, S. 3; Dat08c, S. 28]). Data Discovery untersucht Daten auf Vollständigkeit, Fehlerfreiheit und Eindeutigkeit. Zudem kann überprüft werden, ob die Standardisierung der Daten bekannten Konventionen folgt (vgl. [Dat08f, S. 3; Dat08c, S. 30]). Relationship Discovery untersucht die Daten auf Beziehungen in und zwischen Spalten, Tabellen oder ganzen Datenbanken. Darüber hinaus werden mögliche Redundanzen aufgedeckt (vgl. [Dat08f, S. 3]). Data Quality Die Data Quality Phase wendet die aus dem vorigen Schritt des Data Profilings gewonnen Erkenntnisse an, um die Qualität bestehender Daten durch Fehlerkorrekturen, Standardisierung und Validierung zu verbessern (vgl. [Dat08f, S.4]). Hilfreiche Funktionen im Rahmen des dfpower Studio bietet vor allem der Architect (Kapitel 3.2.3). Data Integration Oft existieren Informationen doppelt in verschiedenen Tabellen oder Datenbanken. Mit Data Integration ist es möglich, diese Redundanzen aufzudecken und sie zu einem Datensatz zusammenzufassen (vgl. [Dat08f, S. 5]). Data Enrichment Data Enrichment kann existierende Daten um externe Informationen ergänzen. Für Adressdaten können z.b. automatisch Koordinaten ermittelt werden. Produktdaten können u.a. mit UNSPSC (United Nations Standard Products and Services Code) erweitert werden, einem Klassifikationscode der Warenwirtschaft (vgl. [Dat08f, S. 6 f.]). Data Monitoring Die in den vorausgehenden Schritten durchgeführte Verbesserung der Datenqualität wird durch das Data Monitoring ständig überwacht. Periodische Überprüfungen sollen somit die erreichte Datenqualität erhalten (vgl. [Dat08f, S.8]).
15 Funktionsumfang des dfpower Studios In den folgenden Unterkapiteln wird eine Auswahl an Tools vorgestellt, die das dfpower Studio zu bieten hat. Dabei werden aufgrund der Größe des Funktionsumfangs nur die wichtigsten Tools vorgestellt. Ebenso sollen Tools vorgestellt werden, die die Funktionen der kompletten Methodologie (Kapitel 3.1) abdecken. Zur Verdeutlichung der Funktionalität und der Bedienung der einzelnen Tools wird in der folgenden Beschreibung des Funktionsumfangs auf zugehörige Screenshots im Text verwiesen. 5 Dabei liegt der Fokus der Betrachtung weniger auf der Bedienung, sondern auf der Funktionalität des dfpower Studios. Beispieldaten sind hauptsächlich der DataFlux Sample Datenbank und dem Getting Started Guide entnommen (siehe [Dat08c]) dfpower Navigator Das DataFlux dfpower Studio ist eine Programmsammlung unterschiedlicher Datenqualitätstools. Dabei stellt der Navigator einen zentralen Navigationspunkt dar, von dem aus alle Tools gestartet werden können. Darüber hinaus bietet der Navigator eine Übersicht über alle Datenqualitätsprozesse, indem er Datenquellen, Reports und zahlreiche weitere Informationen zentral bereitstellt. In allen Tools des dfpower Studios stehen eine große Auswahl an unterschiedlichen Datenquellen zur Verfügung, z.b. ODBC- Quellen, Access-Datenbanken, Excel-Tabellen, etc dfpower Profile (Configurator und Viewer) Im Rahmen des Data Profilings bietet dfpower Profile mit den beiden Tools Profile Configurator und Profile Viewer eine große Anzahl an Funktionalitäten. Die Durchführung einer Data Profiling Aufgabe erstreckt sich dabei grundsätzlich über die folgenden vier Schritte, wobei der Profile Configurator hierbei zur Konfiguration und Auswahl von Datenquellen und Metriken dient (Schritt 1 bis 3), und der Profile Viewer zur Anzeige der ermittelten Ergebnisse (Schritt 4): 1. Auswahl beliebiger Datenfelder aus den Tabellen vorhandener Datenquellen (siehe Abb. 4). 2. Auswahl der anzuwendenden Metriken (siehe Abb. 5 bis Abb. 8). 3. Speichern und Ausführen des Data Profiling Jobs. 5 Aufgrund der hohen Anzahl und Größe der Screenshots und der damit verbundenen Beeinträchtigung des Leseflusses befinden sich die zugehörigen Abbildungen zum Großteil im Anhang dieser Ausarbeitung.
16 Analyse der ermittelten Ergebnisse mit dem Profile Viewer. In den folgenden Unterkapiteln werden vier ausgewählte Metriken näher untersucht und mögliche Anwendungsfälle mit Hilfe von Beispielen verdeutlicht. Innerhalb des Data Profilings fällt Column Profiling und Pattern Frequency Distribution eher in den Bereich Structure Discovery, Frequeny Distribution eher in den Bereich Data Discovery und Redundant Frequency Distribution in den Bereich Relationship Discovery. 6 Column Profiling Für jedes in Schritt 1 ausgewähltes Datenfeld bietet Column Profiling eine Reihe an verschiedenen Kennzahlen an (Abb. 9). Tab. 2 listet eine Auswahl an möglichen Beispielwerten für die ID einer Kontaktdatentabelle (DataFlux Sample Datenbank; Tabelle CONTACTS) auf. Metrik Name Count 3276 Unique Count 3276 Null Count 0 Uniqueness Primary Key Candidate yes Data Type VARCHAR Actual Type Integer Data Length 9 chars Minimum Length 1 Maximum Length 5 Pattern Count 5 Wert Tab. 2: Column Profiling Metriken: Beispielwerte für Datenfeld ID (DataFlux Sample Datenbank; Tabelle CONTACTS) Count entspricht der kompletten Anzahl an Datensätzen, Unique Count der Anzahl eindeutiger Datensätze und Null Count der Anzahl von Null-Werten. Daraus lässt sich einen Wert für die Eindeutigkeit der Datensätze ermitteln (Uniqueness), der bei einem Wert von 100% den jeweiligen Datensatz als möglichen Primärschlüssel ausweist (Primary Key Candidate). Data Type ist der gesetzte Datentyp eines Datenfeldes und Actual Type der wirklich benutzte Datentyp. In diesem Fall wurde ein Datenfeld vom Typ VARCHAR lediglich 6 Die Aufteilung der Metriken auf die verschiedenen Kategorien des Data Profilings ist dabei fließend. So kann z.b. die Benutzung der Frequency Distribution im Bereich der Structure Discovery und im Bereich der Frequency Discovery angewendet werden.
17 mit Zahlenwerten (Integer) gefüllt. Eine Änderung des Datentyps in Integer könnte somit Rechenzeit einsparen, da die Berechnung von Zahlenwerten denen von Zeichenketten überlegen ist. Data Length entspricht dem reservierten Speicher eines jeden Datensatzes, in diesem Fall neun Zeichen. Da die maximale Länge (Maximum Length) aller Datensatzes nur fünf Zeichen beträgt, sind vier Zeichen zuviel reserviert und ungenutzt, die pro Datensatz eingespart werden können. Pattern Count liefert die Anzahl an unterschiedlichen Mustern, die im Folgenden detailliert mittels der Pattern Frequency Distribution untersucht werden können. Pattern Frequency Distribution Pattern Frequency Distribution gibt Auskunft über die verschiedenen Muster der Datenfeldinhalte. Dabei kann die Anzahl an Zeichen, sowie die Art der Zeichen (Ziffern oder Buchstaben) analysiert werden. Im Folgenden soll mit Hilfe von verschiedenen Beispielen die Analyse der Pattern Frequency Distribution verdeutlicht werden. Die Beispieltabellen enthalten jeweils zwei Darstellungsformen des Musters, die Anzahl und den prozentualen Anteil. Innerhalb des Musters drückt 9 eine beliebige Ziffer, A einen beliebigen Großbuchstaben und a einen beliebigen Kleinbuchstaben aus. Während bei der ersten Darstellungsform des Musters alle Zeichen aufgelistet werden, enthält die zweite Darstellungsform die Anzahl an sich wiederholenden Zeichen in Klammern. Pattern Frequency Distribution kann zur Überprüfung von Telefonnummern verwendet werden. Tab. 3 (Abb. 11) listet zwei Muster für die vorhandenen Telefonnummern im Datenfeld PHONE auf. Es kann somit leicht eine Abweichung in der Darstellung festgestellt werden, um im nächsten Schritt Verbesserungsmaßnahmen durchzuführen. 7 Muster Anzahl Anteil (3)-9(3)-9(4) ,97 % (999) (9(3)) 9(3)-9(4) 1 0,03 % Tab. 3: Pattern Frequency Distribution: Beispielwerte für Datenfeld PHONE (DataFlux Sample Datenbank; Tabelle CONTACTS) Ebenso enthält Tab. 4 (Abb. 12) verschiedenartige Schreibweisen nordamerikanischer Staaten im Datenfeld STATE. Die in der Tabelle aufgelisteten Muster lassen zudem fehlerhafte Schreibweisen, wie z.b. vorangestellte Leerzeichen (Zeile 8), erkennen. 7 Das Datenfeld PHONE enthält in diesem Beispiel nur nordamerikanische Telefonnummern, die immer aus einer dreistelligen Vorwahl und einer siebenstelligen Nummer bestehen. Die Verwendung von internationalen Telefonnummern würde die Analyse mittels der Pattern Frequency Distribution aufgrund der Anzahl verschiedenartiger Muster erschweren.
18 Muster Anzahl Anteil AA A(2) % AA. A(2) % Aaaa Aa(3) % Aaaaaaa Aa(6) % Aaaaaaaa Aa(7) % Aa. Aa % AA A(2) % Tab. 4: Pattern Frequency Distribution: Beispielwerte für Datenfeld STATE (DataFlux Sample Datenbank; Tabelle CONTACTS) Frequency Distribution Die Häufigkeitsverteilung von Werten kann mit der Frequency Distribution analysiert werden. Tab. 5 (Abb. 13) enthält die Anzahl aller vorkommenden Werte und deren Häufigkeit für das Feld STATE der Tabelle PURCHASE. Wert Anzahl Anteil (null value) ,89 % CA 131 2,62 % TX 111 2,22 % MA 61 1,22 % FL 60 1,20 % NY 54 1,08 % Tab. 5: Frequency Distribution: Beispielwerte für Datenfeld STATE (DataFlux Sample Datenbank; Tabelle PURCHASE) Das Fehlen von Werten in diesem Datenfeld ist aufgrund der hohen Anzahl an Null- Werten zu erkennen. Mit einem sogenannten Drill Through (Abb. 14) können alle zugehörigen Datensätze angezeigt oder mittels einer Grafik (Abb. 15) visualisiert werden. Redundant Data Analysis Im Rahmen der Relationship Discovery können Zusammenhänge zwischen Datenfeldern unterschiedlicher Tabellen analysiert werden und so Übereinstimmungen und damit Redundanzen aufgedeckt werden. Zwischen dem Feld COMPANY der Tabellen CONTACTS und PURCHASE ergibt sich z.b. folgendes Ergebnis (Abb. 3), das der Profile Viewer ebenfalls in einem Venn-Diagramm visualisiert (Abb. 16).
19 Abb. 3: Redudant Data Analysis: Beispiel für Datenfeld COMPANY (DataFlux Sample Datenbank, Tabelle CONTACTS/PURCHASE) Die Ergebnisse besagen, dass in der Tabelle 1898 Datensätze in beiden Tabellen vorkommen. Die Tabelle PURCHASE enthält 2388 Werte, die nicht in der Tabelle CONTACTS vorhanden sind und die Tabelle CONATCS enthält 2266 Werte, die nicht in der PURCHASE Tabelle vorhanden sind. Die mit dem Configurator erstellten Profiling-Jobs bieten einen aktuellen Schnappschuss der Datenqualität. Um im Sinne eines Data Monitorings die Datenqualität zu überwachen und die Änderung von Metriken zu beobachten, besitzt der Viewer eine Trendanalyse mit den zwei Monitoring-Funktionen Auditing und Alerts. Auditing Um eine historische Analyse der Metriken durchzuführen, muss beim Starten des Jobs die Option Append to Report ausgewählt werden. Eine zeitliche Entwicklung der für den Job ausgewählten Metriken ist somit möglich (Abb. 17). Über Batch- Funktionalitäten des dfpower Studios können die Jobs auch automatisch in regelmäßigen Abständen ausgeführt und die Änderung der Metriken im Zeitverlauf verfolgt werden. Alert Bei einer hohen Anzahl oder einer hohen Erstellungsfrequenz der Jobs können die generierten Reports nicht mehr manuell überprüft werden. Mit der Alert Funktion eines Jobs können für einzelne Metriken Regeln definiert werden, die bei erreichen eines kritischen Werts Warnungen per versenden. Der Profile Configurator bietet dazu einen komfortablen Regelkonfigurator, in dem die Alerts konfiguriert werden können (Abb. 18).
20 dfpower Architect Die mit dfpower Profile aufgedeckten Unstimmigkeiten können u.a. mit dem dfpower Architect behoben werden. Der dfpower Architect kombiniert dabei einige Funktionalitäten der anderen dfpower Tools in einer einzigen Anwendung. Dabei besteht das Vorgehen im Grunde immer aus drei Teilen: der Auswahl einer Datenquelle, einer Sequenz von Operationen und der Auswahl einer Ausgabeart wie z.b. Berichte, SQL Updateoder Insert-Befehle. Den Hauptbestandteil bilden die Operationen, von denen einige im Folgenden vorgestellt werden. Parsing und Gender Analysis Beim Parsing werden Zeichenketten in ihre Einzelbestandteile geteilt, um danach z.b. Adressen zu verifizieren oder Geschlechter zu ermitteln. Das Datenfeld CONTACT der Beispieldatenbank CONTACTS enthält z.b. alle Namensbestandteile einer Kontaktperson und kann mit dem Parsing-Schritt des dfpower Architects in seine einzelnen Bestandteile aufgebrochen werden. Zusätzlich kann das Geschlecht mit Hilfe der Gender Analysis ermittelt werden. Zuerst wird eine Parsing-Definition ausgewählt, die den Typ der aufzuteilenden Zeichenkette darstellt, z.b. Name, Adresse oder Telefonnummer. Für die Definition Name sind in diesem Fall Tokens wie Anrede, Vor- und Familienname als Einzelbestandteile auswählbar (Abb. 19). Die Gender Analysis ermittelt dann aus den extrahierten Namensbestandteilen das zugehörige Geschlecht 8 (Abb. 20). 9 Standardization Mit Hilfe des Standardization-Schrittes können inkonsistente Datenfeldinhalte standardisiert werden. Innerhalb der CONTACTS Tabelle können z.b. ADRESS und STATE mit Hilfe vorhandener oder selbst erstellter Standardization-Definitionen angepasst werden (Abb. 21). 8 9 Der dfpower Architect kennzeichnet männlich als M und weiblich als W. U bedeutet unknown, also Fälle in denen aus den vorhandenen Namen nicht auf das Geschlecht geschlossen werden kann. Zusätzlich zur Definition ist beim Parsing und bei der Gender Analysis ein Locale Profile auszuwählen, das die länderspezifischen Besonderheiten berücksichtigt.
21 Neben den oben genannten Funktionen bietet der Architect vor allem nützliche Funktionen im Bereich Data Enrichment. Dazu werden im Folgenden weitere Operationen des Architects vorgestellt: Phone Validation Mit Hilfe der Phone Validation können Telefonnummern auf ihre Gültigkeit überprüft werden. Dazu wird die Nummer mit einer Referenzdatenbank abgeglichen, um die ganze Telefonnummer bzw. lediglich die Vorwahl als gültig zu überprüfen. Darüber hinaus können zusätzliche Informationen ermittelt werden, z.b. ob es sich um Mobilfunknummern handelt. Geocoding Aus Adressinformationen lassen sich verschiedene Geodaten ermitteln, wie z.b. Erdkoordinaten, mit denen Kundendaten angereichert werden können, um bessere Marketingstrategien zu entwickeln. Zudem lassen sich weiter demographische Informationen gewinnen dfpower Match In großen Datenbeständen treten häufig doppelte Datensätze auf, die es zu vereinen bzw. zu eliminieren gilt. Um mögliche Dubletten zu identifizieren, wird anhand von eingestellten Merkmalen ein Matchcode erzeugt werden, der die Gleichheit von Datensätzen kennzeichnet. Dazu werden in dfpower Match den zu überprüfenden Datenfeldern einer Datenquelle Matchdefinitionen zugeordnet, z.b. Vorname, Nachname oder Adresse. Mit Hilfe eines Sensibilitätswertes kann zudem ein Schwellenwert definiert werden, der angibt wann zwei Datensätze als gleich eingestuft werden können (Abb. 22). Um die so ermittelten Dubletten weiter zu bearbeiten, ist unter Output Eliminate Duplicates auszuwählen. In den dazu gehörigen Einstellungen können dann weitere Optionen, z.b. Sicherung oder manuelle Überprüfung ausgewählt werden. Die über den Matchcode als gleich gekennzeichneten Datensätze können zuvor auch zu einem Datensatz verdichtet werden, da jeder der Datensätze zusätzliche Informationen enthalten kann. Hierzu bietet der dfpower Architect verschiedene Integrationsfunktionen. Der Matchcode kann zudem auch für die Identifizierung von Personen zu Haushalten gebraucht werden, um so z.b. doppelte Werbesendungen an einen Haushalt zu unterbinden.
22 Product Reviews im Journal DM Review Eine gute objektive Bewertung des dfpower Studios bietet das Journal DM Review, das in fast jeder seiner letzten Ausgaben eine kurze Bewertung des dfpower Studios beinhaltete. Verschiedene Autoren aus der Praxis, darunter Produktmanager, Berater und Projektmanager beschreiben darin reale Anwendungsfälle und analysieren Funktionalität, Stärken und Schwächen, Support und Dokumentation des dfpower Studios. Tab. 6 und Tab. 7 listen Stärken und Schwächen des dfpower Studios 10 auf, die aus 11 Ausgaben des Journals DM Review analysiert wurden. Stärke Benutzbarkeit, Intuitivität Support Installation und Betrieb Umgang mit große Datenmengen Einsatz für technikfremde Benutzer Quelle [Wes08; Ger07; Cat07; Bal07; Tis06; Con05; Syk04] [Cat07; Wel07] [Wel07] [Wel07; Con05] [Bal07; Zan06; Tis06] Tab. 6: Stärken des dfpower Studios Dokumentation Fehlermeldungen Schwäche Integrationsfähigkeit in andere Produkte/Prozesse Zu häufige Updates Profiling-XML-Dateien maximal 2GB Hilfe Limitierte Anzahl an vorgefertigten Standardisierungsregeln Tab. 7: Schwächen des dfpower Studios Quelle [Wes08; Cat07] [Ger07] [Cat07; Tis06] [Wel07] [Laf06] [Con05] [Syk04] Die von den Autoren berichteten Stärken und Schwächen decken sich zu einem großen Teil mit den eigenen, während der Untersuchung des Frameworks im Rahmen der Ausarbeitung, gemachten Eindrücken. Probleme, wie z.b. die Dateigrößenbeschränkung, und ähnliche spezielle Probleme, sind aufgrund der weniger intensiven Nutzung nicht zu bestätigen. Allerdings sind Stärken des dfpower Studios vor allem im Bereich der intuitiven Bedienbarkeit, des Supports, des Betriebs und der Installation zu bestätigen. Die Dokumentation und die Fehlerbehandlung sind ebenfalls als Schwächen aufgefallen. 10 Die Bewertungen beziehen sich teilweise auf Vorgängerversionen des dfpower Studios und nicht unbedingt auf die aktuelle, in diesem Kapitel untersuchte Version 8.1.
23 Alternative Datenqualitätstools und frameworks Aktuelle Technologien versuchen Datenqualitätsprobleme auf unterschiedliche Weise zu lösen. Neben ad-hoc geschriebenen Programmen und eingebauten Mechanismen in Datenbank Management Systemen (DBMS), bieten Datenqualitätstools und deren Frameworks, wie das vorgestellte dfpower Studio, die umfangreichsten Funktionalitäten zur Verbesserung der Datenqualität. BATINI/SCANNAPIECO unterscheiden dabei zwischen Tool, Framework und Toolbox (vgl. [BG05, S. 15, BS06, S. 201]). An dieser Stelle soll lediglich die Unterscheidung zwischen Tool und deren Bündelung in einem Framework vorgenommen werden. BARATEIRO/GALHARDAS betrachteten 37 verschiedene Datenqualitätstools und Frameworks auf Grundlage ihrer allgemeinen Funktionalitäten. Aufgrund von Internetseiten, White Papers und wissenschaftlichen Arbeiten analysierten die Autoren 13 verschiedene Funktionen. Auf Grundlage des so ermittelten Funktionsumfangs konnten die Tools sechs verschiedenen Kategorien zugeordnet werden: Data Analysis, Data Profiling, Data Transformation, Data Cleaning, Dublicate Elemination und Data Enrichment (vgl. [BG05, S. 17 ff.]). Dabei entsprechen die aufgelisteten Kategorien dem in diesem Kapitel beschriebenen Funktionsumfang des dfpower Studios, mit Ausnahme einer Überwachungs- und Kontrollfunktion. Die meisten der analysierten Tools fallen in die Kategorien Data Transformation, Data Cleaning und Data Enrichment. Nur sechs Tools sind den Kategorien Data Analysis und Data Profiling zuzuordnen. Neben dem in diesem Kapitel behandelten dfpower Studio wurde nur ETLQ allen sechs Kategorien zugeordnet. Es sei allerdings angemerkt, dass z.b. WizSoft seine Tools nicht in einem Framework anbietet und die Kategorien durch einzelne Tools abdeckt.
24 Resümee Mangelnde Datenqualität kann, wie bereits erwähnt, operative und monetäre Konsequenzen haben, sowie Fehlentscheidungen provozieren. Darüber hinaus sind weitere mögliche Konsequenzen wie Imageschäden, Zusatzaufwand sowie Akzeptanz- und Vertrauensverluste denkbar. Zusätzlich sind die daraus entstehenden Folgekosten schwer abzuschätzen (vgl. [Zwi08, S. 105]). Dass die Sicherung der Datenqualität ein ständig andauernder Prozess ist, wird durch die Tatsache verdeutlicht, dass sich Kundendaten jährlich um zwei Prozent verschlechtern. Trotzdem wird die Sicherstellung der Datenqualität immer noch unterschätzt und punktuelle, ereignisgetriebene Maßnahmen erzielen nur kurzfristige Wirkung. Die Datenqualität sollte daher nicht als einmalige und reaktive Aufgabe betrachtet werden. Es sollten vielmehr organisatorische Maßnahmen ergriffen werden, die ein ganzheitliches Datenqualitätsmanagement unterstützen. Effektivität kann nur durch ein Total Data Quality Management erreicht werden, indem die Daten im Unternehmen entlang ihres gesamten Lebenszyklus analysiert werden und unter einer ständigen Qualitätssicherung stehen (vgl. [Wei08, S. 70, 85; LLS06, S. 668]). Eine Bereinigung der Daten ist nicht immer zweckmäßig, so existieren in der Literatur auch Ansätze, wie die Fehlerrate niedrig zu halten bzw. wie mit Daten minderer Qualität zu verfahren ist, und zwar ohne diese vorher aufzubereiten (vgl. [Trei06, 49; Zwi08, S. 122]). Wenn die Entscheidung für eine aktive Verbesserung der Datenqualität getroffen ist, so unterstützen Datenqualitätstools jede Phase des Datenqualitätsprozesses. Das analysierte Datenqualitätsframework dfpower Studio 8.1 bietet dazu eine breite Palette an Funktionen, um Datenprobleme aufzudecken, diese zu bereinigen und die somit erhöhte Datenqualität durch Überwachungs- und Kontrollmaßnahmen zu konservieren. Die zur Verfügung stehenden Tools sind dabei intuitiv und leicht zu bedienen. Es ist jedoch anzumerken, dass sich der Funktionsumfang der einzelnen Tools teilweise überschneidet. Demnach sind die gleichen Funktionen mit unterschiedlichen Tools durchzuführen. Bei allen Bemühungen ist die Datenqualität selbst nicht als Endziel zu sehen. Sie dient lediglich dem übergeordneten Unternehmensziel und hilft bessere Produkte und Dienstleistungen zu erstellen, sowie die richtigen Entscheidungen zu treffen und damit wichtige Wettbewerbsvorteile zu schaffen (vgl. [Trei06, S. 58]).
25 Literaturverzeichnis [Bal07] [BG05] [BS06] Baldwin-Finke, Jessica: Aspect Software Collects and Cleanses Customer Data with DataFlux, DM Review, 17, S , Barateiro, José; Galhardas, Helena: A survey of data quality tools, Datenbank Spektrum, 14, S , Batini, Carlo; Scannapieco, Monica: Data Quality: Concepts, Methodologies and Techniques. Springer, [Cat07] Catalano, Tony: DataFlux dfpower Studio, DM Review, 17, S , [Con05] Conners, Bob: DataFlux dfpower Studio, DM Review, 15, S , [Dat08a] [Dat08b] DataFlux: About DataFlux. Abrufdatum: 20. Oktober DataFlux: DataFlux and SAS. Us/DataFlux-and-SAS.asp. Abrufdatum: 20. Oktober [Dat08c] DataFlux: dfpower Studio Getting Started Guide Version [Dat08d] [Dat08e] [Dat08f] [Deu07] [Eng99] [Epp06] [Ern08] DataFlux: Methodology. Abrufdatum: 20. Oktober DataFlux: Technology. Abrufdatum: 21. Oktober DataFlux: White Paper 23: Five Steps to More Valuable Enterprise Data Deutsche Gesellschaft für Informations- und Datenqualität e.v.: IQ- Definition. Abrufdatum: 9. November English, Larry P.: Improving Data Warehouse and Business Information Quality : Methods for Reducing Costs and Increasing Profits. Wiley, Eppler, Martin J.: Managing Information Quality: Increasing the Value of Information in Knowledge-intensive Products and Processes. 2. Aufl., Springer, Ernst, Hartmut: Grundkurs Informatik : Grundlagen und Konzepte für die erfolgreiche IT-Praxis ; eine umfassende, praxisorientierte Einführung. 4. Aufl., Vieweg + Teubner, 2008.
26 [GW08] [GK08] [Ger07] [GRB04] [GSH06] [HK08] [HHR07] [Kli08] [Laf06] [LLS06] [LWS07] Gebauer, Marcus; Windheuser, Ulrich: Strukturierte Datenanalyse, Profiling und Geschäftsregeln. In: Daten- und Informationsqualität - Auf dem Weg zur Information Excellence. 2008, S Geiger, Walter; Kotte, Willi: Handbuch Qualität: Grundlagen und Elemente des Qualitätsmanagements: Systeme - Perspektiven. 5. Aufl., Vieweg, Gerush, Jon: DataFlux dfpower Studio and Integration Server, DM Review, 17, S , Grob, Heinz Lothar; Reepmeyer, Jan Armin; Bensberg, Frank: Einführung in die Wirtschaftsinformatik. 5. Aufl., Vahlen, Gumm, Heinz-Peter; Sommer, Manfred; Hesse, Wolfgang: Einführung in die Informatik. 7. Aufl., Oldenbourg, Heinrich, Bernd; Klier, Mathias: Datenqualitätsmetriken für ein ökonomisch orientiertes Qualitätsmanagement. In: Daten- und Informationsqualität - Auf dem Weg zur Information Excellence. 2008, S Heinrich, Lutz J.; Heinzl, Armin; Roithmayr, Friedrich: Wirtschaftsinformatik : Einführung und Grundlegung. 3. Aufl., Oldenbourg, Klier, Mathias: Metriken zur Bewertung der Datenqualität Konzeption und praktischer Nutzen Informatik-Spektrum, 31 (3), S , Lafeir, Joe: RLPTechnologies Fuels Better Data Quality with DataFlux, DM Review, 16, S , Laudon, Kenneth C.; Laudon, Jane Price; Schoder, Detlef: Wirtschaftsinformatik : Eine Einführung. Pearson Studium, Lehner, Franz; Wildner, Stephan; Scholz, Michael: Wirtschaftsinformatik : eine Einführung. Hanser, [Nau07] Naumann, Felix: Datenqualität, Informatik-Spektrum, 30 (1), S , [Qua08] [Rae08b] [RD00] quality-datenbank: Qualität. Abrufdatum: 31. Oktober Raeburn, Vicki P.: Talking with Your Business Partners about Data Quality, DM Review, 18 (6), S , Rahm, Erhard; Do, Hong Hai: Data Cleaning: Problems and Current Approaches, Bulletin of the Technical Committee on Data Engineering, 23 (4), S. 3-13, 2000.
27 [RKM+08] Rohwedder, Jan P.; Kasten, Gerhard; Malzahn, Dirk; Piro, Andrea; Schmid, Joachim: Informationsqualität - Definitionen, Dimensionen und Begriffe. In: Daten- und Informationsqualität - Auf dem Weg zur Information Excellence. Vieweg+Teubner Verlag, 2008, S [Syk04] Sykes, Michael: DataFlux dfpower Studio, DM Review, 14, S , [Tis06] Tiseth, Dave: DataFlux dfpower Studio, DM Review, 16, S , [Trei06] Treiblmaier, Horst: Datenqualität und individualisierte Kommunikation : Potenziale und Grenzen des Internets bei der Erhebung und Verwendung kundenbezogener Daten. Dt. Univ.-Verl., [WS96] [Wei08] Wang, Richard Y; Strong, Diane M: Beyond accuracy: What data quality means to data consumers, Journal of Management Information Systems, 12 (4), S. 5-34, Weigel, Niels: Datenqualitätsmanagement - Steigerung der Datenqualität mit Methode. In: Daten- und Informationsqualität - Auf dem Weg zur Information Excellence. 2008, S [Wel07] Welch, Bill: dfpower Studio, DM Review, 17, S , [Wes08] [Wei08] Wessel, Becki: DataFlux Integration Server and dfpower Studio, DM Review, 18, S , Wolf, Jürg: Organisatorische Maßnahmen für gute Datenqualität. In: Daten- und Informationsqualität - Auf dem Weg zur Information Excellence. 2008, S [Zan06] Zannotti, Gary: DataFlux dfpower Studio, DM Review, 16 (3), S , [Zwi08] Zwirner, Marcus: Datenbereinigung zielgerichtet eingesetzt zur permanenten Datenqualitätssteigerung. In: Daten- und Informationsqualität - Auf dem Weg zur Information Excellence. 2008, S
Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter. Chinesische Botschaft in Belgrad
Datenqualität mit dem DataFlux dfpower Studio 8.1 Tobias Jansen Zaferna-Hütte, 4. Januar 2009 Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter Nasa Marssonde Mars Climate Orbiter
MehrDGIQ Projekt IQ-Definition
DGIQ Projekt IQ-Definition Definition des Begriffsfeldes Informationsqualität bzw. Datenqualität Ein Projekt der DGIQ, 2007 Normen und Standards Dr. Jan Philipp Rohweder, Andrea Piro, Joachim Schmid GIQMC,
MehrFachbericht zum Thema: Anforderungen an ein Datenbanksystem
Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank
MehrDatenübernahme easyjob 3.0 zu easyjob 4.0
Datenübernahme easyjob 3.0 zu easyjob 4.0 Einführung...3 Systemanforderung easyjob 4.0...3 Vorgehensweise zur Umstellung zu easyjob 4.0...4 Installation easyjob 4.0 auf dem Server und Arbeitsstationen...4
MehrHandbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken
Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen
MehrAnalyse zum Thema: Laufzeit von Support-Leistungen für ausgewählte Server OS
Analyse zum Thema: Laufzeit von Support-Leistungen für Axel Oppermann Advisor phone: +49 561 506975-24 mobile: +49 151 223 223 00 axel.oppermann@experton-group.com Januar 2010 Inhalt Summary und Key Findings
MehrDatenqualität: allgemeiner Überblick Waldemar Braun. Seminar Datenqualität OvGU Magdeburg 03.12.2009
Datenqualität: allgemeiner Überblick Waldemar Braun Seminar Datenqualität OvGU Magdeburg Gliederung 1. Einleitung 2. Motivation 3. Definition 4. DQ-Probleme 5. DQ-Dimensionen 6. DQ-Modelle 7. Messen der
Mehr1 Mathematische Grundlagen
Mathematische Grundlagen - 1-1 Mathematische Grundlagen Der Begriff der Menge ist einer der grundlegenden Begriffe in der Mathematik. Mengen dienen dazu, Dinge oder Objekte zu einer Einheit zusammenzufassen.
MehrBüroWARE Exchange Synchronisation Grundlagen und Voraussetzungen
BüroWARE Exchange Synchronisation Grundlagen und Voraussetzungen Stand: 13.12.2010 Die BüroWARE SoftENGINE ist ab Version 5.42.000-060 in der Lage mit einem Microsoft Exchange Server ab Version 2007 SP1
MehrDISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374
DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne
MehrIn diesem Thema lernen wir die Grundlagen der Datenbanken kennen und werden diese lernen einzusetzen. Access. Die Grundlagen der Datenbanken.
In diesem Thema lernen wir die Grundlagen der Datenbanken kennen und werden diese lernen einzusetzen. Access Die Grundlagen der Datenbanken kurspc15 Inhaltsverzeichnis Access... Fehler! Textmarke nicht
MehrSystemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5
Das Management von Informations- Systemen im Wandel Die Informations-Technologie (IT) war lange Zeit ausschließlich ein Hilfsmittel, um Arbeitsabläufe zu vereinfachen und Personal einzusparen. Sie hat
MehrHow to do? Projekte - Zeiterfassung
How to do? Projekte - Zeiterfassung Stand: Version 4.0.1, 18.03.2009 1. EINLEITUNG...3 2. PROJEKTE UND STAMMDATEN...4 2.1 Projekte... 4 2.2 Projektmitarbeiter... 5 2.3 Tätigkeiten... 6 2.4 Unterprojekte...
MehrDas System sollte den Benutzer immer auf dem Laufenden halten, indem es angemessenes Feedback in einer angemessenen Zeit liefert.
Usability Heuristiken Karima Tefifha Proseminar: "Software Engineering Kernkonzepte: Usability" 28.06.2012 Prof. Dr. Kurt Schneider Leibniz Universität Hannover Die ProSeminar-Ausarbeitung beschäftigt
MehrResearch Note zum Thema: Laufzeit von Support-Leistungen für Server OS
Research Note zum Thema: Laufzeit von Support-Leistungen für Axel Oppermann Advisor phone: +49 561 506975-24 mobile: +49 151 223 223 00 axel.oppermann@experton-group.com November 2009 Inhalt 1 EINFÜHRUNG
MehrOP-LOG www.op-log.de
Verwendung von Microsoft SQL Server, Seite 1/18 OP-LOG www.op-log.de Anleitung: Verwendung von Microsoft SQL Server 2005 Stand Mai 2010 1 Ich-lese-keine-Anleitungen 'Verwendung von Microsoft SQL Server
MehrZentraler Wertungsrichtereinsatz
Zentraler Wertungsrichtereinsatz Anleitung zur erstmaligen Registrierung beim Online-System des zentralen Wertungsrichtereinsatzes des LTVB Zur Nutzung des Online-Systems des zentralen Wertungsrichtereinsatzes
MehrAccess 2010. Grundlagen für Anwender. Andrea Weikert 1. Ausgabe, 1. Aktualisierung, Juli 2012. inkl. zusätzlichem Übungsanhang ACC2010-UA
Andrea Weikert 1. Ausgabe, 1. Aktualisierung, Juli 2012 Access 2010 Grundlagen für Anwender inkl. zusätzlichem Übungsanhang ACC2010-UA 3 Access 2010 - Grundlagen für Anwender 3 Daten in Formularen bearbeiten
MehrProzessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08
Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements von Stephanie Wilke am 14.08.08 Überblick Einleitung Was ist ITIL? Gegenüberstellung der Prozesse Neuer
Mehrmobilepoi 0.91 Demo Version Anleitung Das Software Studio Christian Efinger Erstellt am 21. Oktober 2005
Das Software Studio Christian Efinger mobilepoi 0.91 Demo Version Anleitung Erstellt am 21. Oktober 2005 Kontakt: Das Software Studio Christian Efinger ce@efinger-online.de Inhalt 1. Einführung... 3 2.
MehrWhitepaper. Produkt: address manager 2003. David XL Tobit InfoCenter AddIn für den address manager email Zuordnung
combit GmbH Untere Laube 30 78462 Konstanz Whitepaper Produkt: address manager 2003 David XL Tobit InfoCenter AddIn für den address manager email Zuordnung David XL Tobit InfoCenter AddIn für den address
MehrUmgang mit der Software ebuddy Ändern von IP Adresse, Firmware und erstellen von Backups von ewon Geräten.
ewon - Technical Note Nr. 001 Version 1.3 Umgang mit der Software ebuddy Ändern von IP Adresse, Firmware und erstellen von Backups von ewon Geräten. 19.10.2006/SI Übersicht: 1. Thema 2. Benötigte Komponenten
MehrStellen Sie bitte den Cursor in die Spalte B2 und rufen die Funktion Sverweis auf. Es öffnet sich folgendes Dialogfenster
Es gibt in Excel unter anderem die so genannten Suchfunktionen / Matrixfunktionen Damit können Sie Werte innerhalb eines bestimmten Bereichs suchen. Als Beispiel möchte ich die Funktion Sverweis zeigen.
MehrDie Excel Schnittstelle - Pro Pack
Die Excel Schnittstelle - Pro Pack Die Excel Pro Pack ist eine Erweiterung der normalen Excel Schnittstelle, die in der Vollversion von POSWare Bestandteil der normalen Lizenz und somit für alle Lizenznehmer
MehrStundenerfassung Version 1.8 Anleitung Arbeiten mit Replikaten
Stundenerfassung Version 1.8 Anleitung Arbeiten mit Replikaten 2008 netcadservice GmbH netcadservice GmbH Augustinerstraße 3 D-83395 Freilassing Dieses Programm ist urheberrechtlich geschützt. Eine Weitergabe
MehrIT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit
IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft
MehrInformationssystemanalyse Problemstellung 2 1. Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse:
Informationssystemanalyse Problemstellung 2 1 Problemstellung Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse: große Software-Systeme werden im Schnitt ein Jahr zu spät
MehrDatenübernahme von HKO 5.9 zur. Advolux Kanzleisoftware
Datenübernahme von HKO 5.9 zur Advolux Kanzleisoftware Die Datenübernahme (DÜ) von HKO 5.9 zu Advolux Kanzleisoftware ist aufgrund der von Update zu Update veränderten Datenbank (DB)-Strukturen in HKO
MehrIn diesem Tutorial lernen Sie, wie Sie einen Termin erfassen und verschiedene Einstellungen zu einem Termin vornehmen können.
Tutorial: Wie erfasse ich einen Termin? In diesem Tutorial lernen Sie, wie Sie einen Termin erfassen und verschiedene Einstellungen zu einem Termin vornehmen können. Neben den allgemeinen Angaben zu einem
MehrDok.-Nr.: Seite 1 von 6
Logo Apotheke Planung, Durchführung und Dokumentation von QM-Audits Standardarbeitsanweisung (SOP) Standort des Originals: Dok.-Nr.: Seite 1 von 6 Nummer der vorliegenden Verfaßt durch Freigabe durch Apothekenleitung
MehrAnti-Botnet-Beratungszentrum. Windows XP in fünf Schritten absichern
Windows XP in fünf Schritten absichern Inhalt: 1. Firewall Aktivierung 2. Anwendung eines Anti-Virus Scanner 3. Aktivierung der automatischen Updates 4. Erstellen eines Backup 5. Setzen von sicheren Passwörtern
MehrData Quality Management: Abgleich großer, redundanter Datenmengen
Data Quality Management: Abgleich großer, redundanter Datenmengen Westendstr. 14 809 München Tel 089-5100 907 Fax 089-5100 9087 E-Mail Datras@Datras.de Redundanz und relationales Datenbankmodell Redundanz:
MehrSo importieren Sie einen KPI mithilfe des Assistenten zum Erstellen einer Scorecard
1 von 6 102013 18:09 SharePoint 2013 Veröffentlicht: 16.07.2012 Zusammenfassung: Hier erfahren Sie, wie Sie einen KPI (Key Performance Indicator) mithilfe des PerformancePoint Dashboard Designer in SharePoint
MehrAnwenderdokumentation AccountPlus GWUPSTAT.EXE
AccountPlus Inhaltsverzeichnis Inhaltsverzeichnis Anwenderdokumentation AccountPlus GWUPSTAT.EXE (vorläufig) ab Version 6.01 INHALTSVERZEICHNIS...1 1 ALLGEMEINES...2 2 INSTALLATION UND PROGRAMMAUFRUF...2
MehrIhre Interessentendatensätze bei inobroker. 1. Interessentendatensätze
Ihre Interessentendatensätze bei inobroker Wenn Sie oder Ihre Kunden die Prozesse von inobroker nutzen, werden Interessentendatensätze erzeugt. Diese können Sie direkt über inobroker bearbeiten oder mit
MehrSybase Central Dokumentation Aktivierung der Monitoringfunktion
Sybase Central Dokumentation Aktivierung der Monitoringfunktion Version 1.0 14. Dezember 2012 Inhaltsverzeichnis 1 EINLEITUNG... 3 2 ZIELSETZUNG... 3 3 VORGEHENSWEISE... 3 4 ANHANG... 7 4.1 DOKUMENTHISTORIE...
MehrOhne Fehler geht es nicht Doch wie viele Fehler sind erlaubt?
Ohne Fehler geht es nicht Doch wie viele Fehler sind erlaubt? Behandelte Fragestellungen Was besagt eine Fehlerquote? Welche Bezugsgröße ist geeignet? Welche Fehlerquote ist gerade noch zulässig? Wie stellt
MehrKostenstellen verwalten. Tipps & Tricks
Tipps & Tricks INHALT SEITE 1.1 Kostenstellen erstellen 3 13 1.3 Zugriffsberechtigungen überprüfen 30 2 1.1 Kostenstellen erstellen Mein Profil 3 1.1 Kostenstellen erstellen Kostenstelle(n) verwalten 4
MehrLineargleichungssysteme: Additions-/ Subtraktionsverfahren
Lineargleichungssysteme: Additions-/ Subtraktionsverfahren W. Kippels 22. Februar 2014 Inhaltsverzeichnis 1 Einleitung 2 2 Lineargleichungssysteme zweiten Grades 2 3 Lineargleichungssysteme höheren als
MehrHandbuch zum Excel Formular Editor
Handbuch zum Excel Formular Editor Mit diesem Programm können Sie die Zellen von ihrer Excel Datei automatisch befüllen lassen. Die Daten können aus der Coffee Datenbank, oder einer weiteren Excel Datendatei
Mehr4. BEZIEHUNGEN ZWISCHEN TABELLEN
4. BEZIEHUNGEN ZWISCHEN TABELLEN Zwischen Tabellen können in MS Access Beziehungen bestehen. Durch das Verwenden von Tabellen, die zueinander in Beziehung stehen, können Sie Folgendes erreichen: Die Größe
MehrDiese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress.
Anmeldung http://www.ihredomain.de/wp-admin Dashboard Diese Ansicht erhalten Sie nach der erfolgreichen Anmeldung bei Wordpress. Das Dashboard gibt Ihnen eine kurze Übersicht, z.b. Anzahl der Beiträge,
MehrProfessionelle Seminare im Bereich MS-Office
Serienbrief aus Outlook heraus Schritt 1 Zuerst sollten Sie die Kontakte einblenden, damit Ihnen der Seriendruck zur Verfügung steht. Schritt 2 Danach wählen Sie bitte Gerhard Grünholz 1 Schritt 3 Es öffnet
MehrAUF LETZTER SEITE DIESER ANLEITUNG!!!
BELEG DATENABGLEICH: Der Beleg-Datenabgleich wird innerhalb des geöffneten Steuerfalls über ELSTER-Belegdaten abgleichen gestartet. Es werden Ihnen alle verfügbaren Belege zum Steuerfall im ersten Bildschirm
MehrDieser Ablauf soll eine Hilfe für die tägliche Arbeit mit der SMS Bestätigung im Millennium darstellen.
Millennium SMS Service Schnellübersicht Seite 1 von 6 1. Tägliche Arbeiten mit der SMS Bestätigung Dieser Ablauf soll eine Hilfe für die tägliche Arbeit mit der SMS Bestätigung im Millennium darstellen.
MehrDas Handbuch zu KSystemLog. Nicolas Ternisien
Nicolas Ternisien 2 Inhaltsverzeichnis 1 KSystemLog verwenden 5 1.1 Einführung.......................................... 5 1.1.1 Was ist KSystemLog?................................ 5 1.1.2 Funktionen.....................................
MehrAvira Management Console 2.6.1 Optimierung für großes Netzwerk. Kurzanleitung
Avira Management Console 2.6.1 Optimierung für großes Netzwerk Kurzanleitung Inhaltsverzeichnis 1. Einleitung... 3 2. Aktivieren des Pull-Modus für den AMC Agent... 3 3. Ereignisse des AMC Agent festlegen...
MehrInstallation & Konfiguration AddOn Excel Export Restriction
Installation & Konfiguration AddOn Excel Export Restriction Spezifische Vergabe von Excel-Export Rechten Version 7.1.0 für Microsoft Dynamics CRM 2013 & 2015 Datum 25. März 2015 Inhalt 1. Ausgangslage...
Mehr4. AUSSAGENLOGIK: SYNTAX. Der Unterschied zwischen Objektsprache und Metasprache lässt sich folgendermaßen charakterisieren:
4. AUSSAGENLOGIK: SYNTAX 4.1 Objektsprache und Metasprache 4.2 Gebrauch und Erwähnung 4.3 Metavariablen: Verallgemeinerndes Sprechen über Ausdrücke von AL 4.4 Die Sprache der Aussagenlogik 4.5 Terminologie
MehrSEPA Lastschriften. Ergänzung zur Dokumentation vom 27.01.2014. Workshop Software GmbH Siemensstr. 21 47533 Kleve 02821 / 731 20 02821 / 731 299
SEPA Lastschriften Ergänzung zur Dokumentation vom 27.01.2014 Workshop Software GmbH Siemensstr. 21 47533 Kleve 02821 / 731 20 02821 / 731 299 www.workshop-software.de Verfasser: SK info@workshop-software.de
MehrFolgeanleitung für Klassenlehrer
Folgeanleitung für Klassenlehrer 1. Das richtige Halbjahr einstellen Stellen sie bitte zunächst das richtige Schul- und Halbjahr ein. Ist das korrekte Schul- und Halbjahr eingestellt, leuchtet die Fläche
MehrInsiderwissen 2013. Hintergrund
Insiderwissen 213 XING EVENTS mit der Eventmanagement-Software für Online Eventregistrierung &Ticketing amiando, hat es sich erneut zur Aufgabe gemacht zu analysieren, wie Eventveranstalter ihre Veranstaltungen
MehrSoftware Release Notes
Software Release Notes dss V1.1.0 Mit Software Release Notes (SRN) informiert aizo über Software-Änderungen bei bestehenden Produkten, welche vom Endkunden aktualisiert werden können. Dokument-Nummer SRN-2011-01
MehrFunktionsbeschreibung. Lieferantenbewertung. von IT Consulting Kauka GmbH
Funktionsbeschreibung Lieferantenbewertung von IT Consulting Kauka GmbH Stand 16.02.2010 odul LBW Das Modul LBW... 3 1. Konfiguration... 4 1.1 ppm... 4 1.2 Zertifikate... 5 1.3 Reklamationsverhalten...
Mehrmalistor Phone ist für Kunden mit gültigem Servicevertrag kostenlos.
malistor Phone malistor Phone ist die ideale Ergänzung zu Ihrer Malersoftware malistor. Mit malistor Phone haben Sie Ihre Adressen und Dokumente (Angebote, Aufträge, Rechnungen) aus malistor immer dabei.
MehrDokumentation zum Spielserver der Software Challenge
Dokumentation zum Spielserver der Software Challenge 10.08.2011 Inhaltsverzeichnis: Programmoberfläche... 2 Ein neues Spiel erstellen... 2 Spielfeldoberfläche... 4 Spielwiederholung laden... 5 Testdurchläufe...
MehrFolgeanleitung für Fachlehrer
1. Das richtige Halbjahr einstellen Folgeanleitung für Fachlehrer Stellen sie bitte zunächst das richtige Schul- und Halbjahr ein. Ist das korrekte Schul- und Halbjahr eingestellt, leuchtet die Fläche
MehrDelta Audit - Fragenkatalog ISO 9001:2014 DIS
QUMedia GbR Eisenbahnstraße 41 79098 Freiburg Tel. 07 61 / 29286-50 Fax 07 61 / 29286-77 E-mail info@qumedia.de www.qumedia.de Delta Audit - Fragenkatalog ISO 9001:2014 DIS Zur Handhabung des Audit - Fragenkatalogs
MehrIntegration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.
Integration mit Die Integration der AristaFlow Business Process Management Suite (BPM) mit dem Enterprise Information Management System FILERO (EIMS) bildet die optimale Basis für flexible Optimierung
Mehr2.5.2 Primärschlüssel
Relationale Datenbanken 0110 01101110 01110 0110 0110 0110 01101 011 01110 0110 010 011011011 0110 01111010 01101 011011 0110 01 01110 011011101 01101 0110 010 010 0110 011011101 0101 0110 010 010 01 01101110
MehrEinrichtung eines E-Mail-Kontos bei Mac OS X Mail Stand: 03/2011
Einrichtung eines E-Mail-Kontos bei Mac OS X Mail Stand: 03/2011 1. Starten Sie Mail per Klick auf das Symbol im Dock. 2. Sie sehen die Ausgangsansicht von Mac OS X Mail. 3. Klicken Sie in der Fensterleiste
MehrHandbuch ZfEditor Stand 24.08.2012
Handbuch ZfEditor Stand 24.08.2012 Inhaltsverzeichnis Einführung... 1 Ansprechpartner... 1 Installation und Update... 1 Installation... 1 Update... 2 Bedienung des ZfEditors... 2 Aufruf... 2 Auswahl Gemeinde,
MehrWhitepaper. Produkt: address manager 2003. Outlook AddIn für den address manager email Zuordnung. combit GmbH Untere Laube 30 78462 Konstanz
combit GmbH Untere Laube 30 78462 Konstanz Whitepaper Produkt: address manager 2003 Outlook AddIn für den address manager email Zuordnung Outlook AddIn für den address manager email Zuordnung - 2 - Inhalt
MehrE-Mail-Inhalte an cobra übergeben
E-Mail-Inhalte an cobra übergeben Sie bieten ihren potentiellen oder schon bestehenden Kunden über ihre Website die Möglichkeit, per Bestellformular verschiedene Infomaterialien in Papierform abzurufen?
Mehretutor Benutzerhandbuch XQuery Benutzerhandbuch Georg Nitsche
etutor Benutzerhandbuch Benutzerhandbuch XQuery Georg Nitsche Version 1.0 Stand März 2006 Versionsverlauf: Version Autor Datum Änderungen 1.0 gn 06.03.2006 Fertigstellung der ersten Version Inhaltsverzeichnis:
MehrTestplan. Hochschule Luzern Technik & Architektur. Software Komponenten FS13. Gruppe 03 Horw, 16.04.2013
Software Komponenten FS13 Gruppe 03 Horw, 16.04.2013 Bontekoe Christian Estermann Michael Moor Simon Rohrer Felix Autoren Bontekoe Christian Studiengang Informatiker (Berufsbegleitend) Estermann Michael
Mehr«Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen
18 «Eine Person ist funktional gesund, wenn sie möglichst kompetent mit einem möglichst gesunden Körper an möglichst normalisierten Lebensbereichen teilnimmt und teilhat.» 3Das Konzept der Funktionalen
MehrDokumentation von Ük Modul 302
Dokumentation von Ük Modul 302 Von Nicolas Kull Seite 1/ Inhaltsverzeichnis Dokumentation von Ük Modul 302... 1 Inhaltsverzeichnis... 2 Abbildungsverzeichnis... 3 Typographie (Layout)... 4 Schrift... 4
MehrKurzanleitung fu r Clubbeauftragte zur Pflege der Mitgliederdaten im Mitgliederbereich
Kurzanleitung fu r Clubbeauftragte zur Pflege der Mitgliederdaten im Mitgliederbereich Mitgliederbereich (Version 1.0) Bitte loggen Sie sich in den Mitgliederbereich mit den Ihnen bekannten Zugangsdaten
MehrEinrichten eines Postfachs mit Outlook Express / Outlook bis Version 2000
Folgende Anleitung beschreibt, wie Sie ein bestehendes Postfach in Outlook Express, bzw. Microsoft Outlook bis Version 2000 einrichten können. 1. Öffnen Sie im Menü die Punkte Extras und anschließend Konten
MehrRegistrierung am Elterninformationssysytem: ClaXss Infoline
elektronisches ElternInformationsSystem (EIS) Klicken Sie auf das Logo oder geben Sie in Ihrem Browser folgende Adresse ein: https://kommunalersprien.schule-eltern.info/infoline/claxss Diese Anleitung
MehrAnleitungen zum KMG-Email-Konto
In dieser Anleitung erfahren Sie, wie Sie mit einem Browser (Firefox etc.) auf das Email-Konto zugreifen; Ihr Kennwort ändern; eine Weiterleitung zu einer privaten Email-Adresse einrichten; Ihr Email-Konto
MehrAnleitung zum Anlegen und Bearbeiten einer News in TYPO3 für www.fk-havelland-mitte.de
WEBandIT.net - Anleitung zum Anlegen und Bearbeiten einer News in TYPO3 für www.fk-havelland-mitte.de Die Internet-Seite wird intern durch das Programm TYPO3 verwaltet. Eine Anmeldung ist nur durch Zugangsdaten
MehrÜberprüfung der digital signierten E-Rechnung
Überprüfung der digital signierten E-Rechnung Aufgrund des BMF-Erlasses vom Juli 2005 (BMF-010219/0183-IV/9/2005) gelten ab 01.01.2006 nur noch jene elektronischen Rechnungen als vorsteuerabzugspflichtig,
MehrAgile Vorgehensmodelle in der Softwareentwicklung: Scrum
C A R L V O N O S S I E T Z K Y Agile Vorgehensmodelle in der Softwareentwicklung: Scrum Johannes Diemke Vortrag im Rahmen der Projektgruppe Oldenburger Robot Soccer Team im Wintersemester 2009/2010 Was
MehrTask: Nmap Skripte ausführen
Task: Nmap Skripte ausführen Inhalt Einfache Netzwerkscans mit NSE Ausführen des Scans Anpassung der Parameter Einleitung Copyright 2009-2015 Greenbone Networks GmbH Herkunft und aktuellste Version dieses
MehrMaintenance & Re-Zertifizierung
Zertifizierung nach Technischen Richtlinien Maintenance & Re-Zertifizierung Version 1.2 vom 15.06.2009 Bundesamt für Sicherheit in der Informationstechnik Postfach 20 03 63 53133 Bonn Tel.: +49 22899 9582-0
MehrFragebogen ISONORM 9241/110-S
Fragebogen ISONORM 9241/110-S Beurteilung von Software auf Grundlage der Internationalen Ergonomie-Norm DIN EN ISO 9241-110 von Prof. Dr. Jochen Prümper www.seikumu.de Fragebogen ISONORM 9241/110-S Seite
MehrAccess Grundlagen. David Singh
Access Grundlagen David Singh Inhalt Access... 2 Access Datenbank erstellen... 2 Tabellenelemente... 2 Tabellen verbinden... 2 Bericht gestalten... 3 Abfragen... 3 Tabellen aktualisieren... 4 Allgemein...
MehrÜbungsblatt 4: Requirements Engineering (2) (für die Übungswoche 14.11. 18.11.2011)
Übungsblatt 4: Requirements Engineering (2) (für die Übungswoche 14.11. 18.11.2011) Daueraufgabe: Fünf in Fünf Präsentationsaufgabe. Bereiten Sie eine fünfminütige Präsentation vor, in der Sie die fünf
MehrSuche schlecht beschriftete Bilder mit Eigenen Abfragen
Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere
MehrQuality Point München Datenqualität
Quality Point München Datenqualität Paul, wie ist denn Eure Datenqualität? Nachdem ich bei der letzten Gehaltszahlung mit Frau... angeredet wurde, bin ich mir nicht mehr so sicher. Autor: W. Ulbrich IT&More
MehrHinweise zum Ausfüllen der Zeiterfassung
Hinweise zum Ausfüllen der Zeiterfassung Generelle Hinweise zu Excel Ab Version VSA 4.50 wird die dezimale Schreibweise für Zeiteingaben verwendet. Die Zeiterfassung, die Sie erhalten haben wurde für Excel
MehrIshikawa-Diagramm. 1 Fallbeispiel 2. 2 Was ist ein Ishikawa-Diagramm 2. 3 Vorgehen bei der Erstellung eines Ishikawa-Diagramms 2.
Ishikawa-Diagramm 1 Fallbeispiel 2 2 Was ist ein Ishikawa-Diagramm 2 3 Vorgehen bei der Erstellung eines Ishikawa-Diagramms 2 4 Vorteile 5 5 Nachteile 5 6 Fazit 5 7 Literaturverzeichnis 6 1 Fallbeispiel
MehrDer Kundenmanager. Der Kundenmanager der Firma AED-SICAD ist ein Bestandteil des Web Order System (WOS) und unterscheidet zwischen folgenden Kunden:
Der Kundenmanager Der Kundenmanager der Firma AED-SICAD ist ein Bestandteil des Web Order System (WOS) und unterscheidet zwischen folgenden Kunden: Geschäftskunden Bei Geschäftskunden handelt es sich um
Mehr7. Übung - Datenbanken
7. Übung - Datenbanken Informatik I für Verkehrsingenieure Aufgaben inkl. Beispiellösungen 1. Aufgabe: DBS a Was ist die Kernaufgabe von Datenbanksystemen? b Beschreiben Sie kurz die Abstraktionsebenen
MehrWhite Paper. Konfiguration und Verwendung des Auditlogs. 2012 Winter Release
White Paper Konfiguration und Verwendung des Auditlogs 2012 Winter Release Copyright Fabasoft R&D GmbH, A-4020 Linz, 2011. Alle Rechte vorbehalten. Alle verwendeten Hard- und Softwarenamen sind Handelsnamen
MehrAnleitung zur Verwendung der VVW-Word-Vorlagen
Anleitung zur Verwendung der VVW-Word-Vorlagen v1.0. Feb-15 1 1 Vorwort Sehr geehrte Autorinnen und Autoren, wir haben für Sie eine Dokumentenvorlage für Microsoft Word entwickelt, um Ihnen die strukturierte
MehrPKV- Projektanlage Assistent
Desk Software & Consulting GmbH PKV- Projektanlage Assistent Edith Freundt DESK Software und Consulting GmbH Im Heerfeld 2-4 35713 Eibelshausen Tel.: +49 (0) 2774/924 98-0 Fax: +49 (0) 2774/924 98-15 info@desk-firm.de
Mehreuro-bis Import von Bestellungen aus Buch- und Aboauskunft Stand 22.02.2007
euro-bis Import von Bestellungen aus Buch- und Aboauskunft Stand 22.02.2007 INHALTSVERZEICHNIS Konfiguration... 3 Buch- und Aboauskunft... 3 euro-bis... 3 Aufträge einlesen... 5 Kundendaten prüfen... 6
MehrFachdidaktik der Informatik 18.12.08 Jörg Depner, Kathrin Gaißer
Fachdidaktik der Informatik 18.12.08 Jörg Depner, Kathrin Gaißer Klassendiagramme Ein Klassendiagramm dient in der objektorientierten Softwareentwicklung zur Darstellung von Klassen und den Beziehungen,
Mehrrobotron*e count robotron*e sales robotron*e collect Anmeldung Webkomponente Anwenderdokumentation Version: 2.0 Stand: 28.05.2014
robotron*e count robotron*e sales robotron*e collect Anwenderdokumentation Version: 2.0 Stand: 28.05.2014 Seite 2 von 5 Alle Rechte dieser Dokumentation unterliegen dem deutschen Urheberrecht. Die Vervielfältigung,
MehrIBIS Professional. z Dokumentation zur Dublettenprüfung
z Dokumentation zur Dublettenprüfung Die Dublettenprüfung ist ein Zusatzpaket zur IBIS-Shopverwaltung für die Classic Line 3.4 und höher. Dubletten entstehen dadurch, dass viele Kunden beim Bestellvorgang
MehrDossier: Rechnungen und Lieferscheine in Word
www.sekretaerinnen-service.de Dossier: Rechnungen und Lieferscheine in Word Es muss nicht immer Excel sein Wenn Sie eine Vorlage für eine Rechnung oder einen Lieferschein erstellen möchten, brauchen Sie
MehrInhalt. 1 Einleitung AUTOMATISCHE DATENSICHERUNG AUF EINEN CLOUDSPEICHER
AUTOMATISCHE DATENSICHERUNG AUF EINEN CLOUDSPEICHER Inhalt 1 Einleitung... 1 2 Einrichtung der Aufgabe für die automatische Sicherung... 2 2.1 Die Aufgabenplanung... 2 2.2 Der erste Testlauf... 9 3 Problembehebung...
MehrEinfach A1. Anleitung A1 TV aufnehmen. A1.net. Bitte beachten Sie: Aufnahmen sind nur mit dem A1 Mediabox Recorder möglich.
Anleitung A1 TV aufnehmen A1.net Einfach A1. Bitte beachten Sie: Aufnahmen sind nur mit dem A1 Mediabox Recorder möglich. Stand: November 2012 Der A1 Mediabox Recorder bietet Ihnen mehr Möglichkeiten.
MehrKommunikations-Management
Tutorial: Wie importiere und exportiere ich Daten zwischen myfactory und Outlook? Im vorliegenden Tutorial lernen Sie, wie Sie in myfactory Daten aus Outlook importieren Daten aus myfactory nach Outlook
MehrSchulberichtssystem. Inhaltsverzeichnis
Schulberichtssystem Inhaltsverzeichnis 1. Erfassen der Schüler im SBS...2 2. Erzeugen der Export-Datei im SBS...3 3. Die SBS-Datei ins FuxMedia-Programm einlesen...4 4. Daten von FuxMedia ins SBS übertragen...6
Mehr