Datenqualitätsmetrik für Informationsprozesse

Größe: px
Ab Seite anzeigen:

Download "Datenqualitätsmetrik für Informationsprozesse"

Transkript

1 DISS. ETH Nr Datenqualitätsmetrik für Informationsprozesse ABHANDLUNG zur Erlangung des Titels DOKTOR DER WISSENSCHAFTEN (Dr. sc. der ETH Zürich) EIDGENÖSSISCHEN TECHNISCHEN HOCHSCHULE ZÜRICH vorgelegt von Volker Gerhard Würthele Diplom Informatiker (Universität Stuttgart) geboren am 17. August 1969 Angenommen auf Antrag von: Prof. Dr. CA. Zehnder Referent Prof. Dr. M. Norrie Korreferentin 2003

2

3 3 Vorwort Alles, was überhaupt gedacht werden kann, kann klar gedacht werden. Alles, was sich aus sprechen lässt, lässt sich klar aussprechen. Wittgenstein1 Man sollte es zumindest versuchen. Falls es mir ansatzweise gelungen sein sollte, so gilt der Dank dafür vor allem meinen Korrekturlesern. Die vorliegende Arbeit ist das Ergebnis einer viele Jahre dauernden Beschäftigung mit Fragen der Datenqualität in grossen Bank unternehmen, zuerst bei der Westdeutschen Landsbank (WestLB AG, Düsseldorf), danach bei der UBS AG (Zürich). Erst viele praktische Erfahrungen in unterschiedlichen Bankbe reichen führten schliesslich zu einem systematischen Ansatz für eine Datenqualitätsmetrik. Dabei haben mir sehr viele Menschen geholfen. Besonderer Dank gilt Ulrich Stingl und FranzJosef Kurpicz, beide noch immer für die WestLB tätig. Ihre Anregungen sind bereits in Vorarbeiten für die Universität Stuttgart eingeflossen, von ihnen stammen aber auch konstruktive Beiträge für die vorliegende Ar beit. Ich danke Dr. Peter Janes, von Anfang an mein Mentor dieser Arbeit bei der UBS AG, für seine Unterstützung und Martin Kunzi für wiederholtes Korrekturlesen. Den Herren Martin Becker und Dr. Michael Wolf danke ich für die Möglichkeit, im Projekt Daten qualitätsanalyse im Kreditrisikomanagement" mitzuarbeiten und dieses in den Praxisteil dieser Arbeit einzubringen. Den Kollegen Markus Serena, Martin Stöckli und Peter Thut danke ich für die Anregung, Schwellenwerte in die Metrik einfliessen zu lassen. Die Pra xisnähe des der Metrik zugrunde gelegten Modells hat sich dadurch stark erhöht. Ganz speziell bedanken möchte ich mich bei Dr. Urs Matter, Unternehmensberater für die UBS AG, für seine Unterstützung, insbesondere für die sorgfältige Prüfung der mathema tischen Passagen. Schliesslich möchte ich mich bei meinen Professoren an der ETH Zürich bedanken. Durch Frau Prof. Dr. Moira Norrie sind Überlegungen zu modernen objektorientierten Methoden in die Arbeit eingeflossen. Prof. Dr. Carl August Zehnder hat diese Arbeit persönlich mit grossem Einsatz betreut. Er verstand es immer wieder, die Fokussierung der Arbeit und die Abgrenzung zu Randthe men kritisch, aber konstruktiv zu hinterfragen. Gleichzeitig unterstützte er die Neuausrich tung der Notation und später den Wechsel des Praxisbeispiels. Den relativ spät getroffenen Entscheid, eine Simulation in die Arbeit zu integrieren, wurde durch Prof. getragen; sie bereichert diese Arbeit stark. Zehnder mit Ohne Prof. Zehnders seltene Kombination aus Akribie und Flexibilität wäre diese Arbeit so nicht zustande gekommen. Volker Würthele, 1. August 2003 ^löö, 4.116]

4 4 INHALTSVERZEICHNIS Inhaltsverzeichnis Vorwort 3 Inhaltsverzeichnis 4 Zusammenfassung 9 Abstract 10 1 Einleitung Datenqualität Terminologie Gliederung der Arbeit 13 1 Taxonomie der Datenqualität 13 2 Begriffe im Bereich der Datenqualität Begriffe in der Literatur Ein konsistentes Begriffssystem Gesamtmodell: Daten, Information und Wissen Begriffsdefinitionen Datenqualität in Prozessen Der Qualitätsbaum 24 3 Dimensionen der Datenqualität Modellabhängigkeit Zeitabhängigkeit Das Datenqualitätsradar Technikqualität Schwierige Sichtbarkeit: Das Eisbergmodell Variantenreichtum am Beispiel objektorientierter Modellierung Technikqualität umfasst viele Aspekte Qualitätsmerkmal Stabilität 41

5 INHALTSVERZEICHNIS Qualitätsmerkmal Adaptabilität Qualitätsmerkmal Architektur 42 II Prozessmodell und Metrik 45 4 Prozessmodell Anforderungen an das Prozessmodell Die Basisnotation Der Gesamtprozess und Datenflüsse zwischen Subprozessen Alternativen und der Pfadbegriff Dekomposition in Subprozesse Datenqualitätsangaben in Prozessen Modell der Verarbeitung Gestaltungsrichtlinien für Graphen Modellierung vom Generellen ins Detail (Topdown) Natürliche Leseweise übernehmen Übersichtlichkeit und Komplexität Transparenz durch Swimlanes" Erweiterte Notation für komplexe Prozesse Vorbemerkung zur grafischen Notation Detaillierungen und Wiederverwendbarkeit von Subprozessen Erweiterte grafische Symbole Daten, Signale und Eingangswarteschlangen Trigger, Datenspreizung und synchronisation Quellen, Senken und Datenbanken Entscheidungen und resultierende Ereignisse Erweiterte beschreibende Elemente Normalisierung (Erweiterte Notation nach Basisnotation) Normalisierung von Signalen und Bereitstellungsdaten Normalisierung von Triggern, Spreizungen und Synchronisation Normalisierung von Schleifen 77

6 6 INHALTSVERZEICHNIS Normalisierung von Quellen, Senken und Datenbanken Normalisierung von Entscheidungen mit Ereignissen Zusammenfassung der Normalisierungen 78 5 Die Datenqualitätsmetrik Die Aggregationsaufgabe Berechnung der Pfaddurchlaufwahrscheinlichkeiten Durchlaufzeiten Aggregation der Datenqualität Einige Simulationen Simulationen zum einführenden Beispiel Ein Beispiel mit nichtlinearer QFunktion Erweiterung um Schwellenwerte Erweiterung um fehlerabhängige Pfaddurchlaufwahrscheinlichkeiten Betrachtung zur Fehlernivellierung 100 III Von Einzelmessungen zum Metriksystem Messverfahren Generelles Vorgehen Schätzung Vorgehen Zur Qualitätsdimension Vollständigkeit" Zur Qualitätsdimension Korrektheit" Zu Qualitätsdimensionen mit weichen Faktoren Echte Messung Messung mit Datenqualitätsindikatoren DataMining 118

7 INHALTSVERZEICHNIS 7 7 Aggregation zum Metriksystem Aggregationsmethodik Vorgehensweise bei der Anwendung der Metrik 123 IV Praktische Anwendung Praxisbeispiel UBS Ein Prozessmodell aus dem Kreditrisikomanagement Ein Beispiel aus dem zentralen ITInventar der UBS Ergebnis und Ausblick 140 Anhänge 142 A Checklisten und Fragebögen 142 A.l Ein Bewertungsbogen von Dritten [69] 142 A.2 Eigene Checklisten 143 B Die Simulationsumgebung 155 C InternetVerweise 157 Abbildungsverzeichnis 158 Literatur 161 Lebenslauf 172

8

9 9 Zusammenfassung Der Begriff Datenqualität taucht erst seit ca vermehrt in Literatur und Praxis auf, ist also ein relativ junger Begriff der Informatik. Dabei fällt auf, dass der Begriff meist ungenau oder gar nicht definiert wird. Diese Arbeit liefert eine Taxonomie der Datenqualität, welche auch schlecht quantifizier bare weiche Faktoren, die Zeitabhängigkeit der Qualität sowie Effekte der Modellbildung berücksichtigt. Als Novum und wichtiges Arbeitsergebnis entstand das Datenqualitätsra dar, welches eine so bis dato noch nicht gekannte Übersicht zum Thema Datenqualität liefert. Ausgehend vom Datenqualitätsradar wurde eine Notation zur Modellierung von Datenqua litätsprozessen erarbeitet und ein Metriksystem entworfen, welches es erlaubt, die Daten qualität messbar zu machen. Datenqualität wird hierbei nicht nur als ein reines Informatik Thema, sondern eingebettet in das Organisationssystem verstanden. Manche Dimensionen der Datenqualität können quantitativ gemessen werden. Im vorlie genden Metriksystem werden die entsprechenden Qualitätszahlen subprozessweise unter sucht und ausgewertet. Aber auch die weichen Dimensionen der Datenqualität fliessen in dieses Metriksystem ein; gemessene Werte werden mit Werten ergänzt, welche durch Experten mit Hilfe von Checklisten geschätzt werden. Das in dieser Arbeit vorgestellte Metriksystem ist das erste so umfassende System zur Beurteilung der Datenqualität. Das erarbeitete Modell berücksichtigt Datenqualitätsverbesserungen, die in den Daten qualitätsprozessen vorkommen können und erlaubt es sogar, Schwellenwerte und von der Datenqualität gesteuerte Teilprozesse zu modellieren. Dabei entstand eine übersichtliche grafische Notation, eine kompakte textuelle Notation und eine Simulationsumgebung. Die implementierte Simulationsumgebung erlaubt es, die Fehlerfortpflanzung von Daten qualitätsproblemen zu modellieren. Die Gespräche mit Experten der UBS AG haben ge zeigt, dass der Begriff der Fehlerfortpflanzung im Finanzdienstleistungsbereich bisher we nig bekannt ist, inzwischen aber grosses Interesse der Praktiker geweckt hat.

10 10 Abstract The term "data quality" first appeared in both the literature and practice around 1995, making it a relatively new area in computer science. Surprisingly, the term is often not defined at all, and where this has been attempted, the result is inaccurate in most cases. This thesis provides a taxonomy for data quality. It also takes nonquantifiable soft factors, dependencies between quality and time and effects that arise from modelling into account. A data quality radar chart is introduced which provides a novel overview of all aspects of data quality. Based on the data quality radar, a notation for modelling data quality processes was developed. This new notation then led to a metering system enabling data quality to be measured. The concept of data quality is not treated as a mere computer science issue, but rather is seen in the much larger context of a corporate organisation and its internal processes. Some dimensions of data quality can be quantified. The metering system at hand exami nes the corresponding quality figures on subprocess level and evaluates them. The soft dimensions of data quality also belong to the metering system. Quantified values are sup plemented by values that were put forward by experts in this field, supported by checklists for their estimation. The metering system in this thesis is the first allembracing system to fathom data quality. The model presented here also considers data quality improvements that can be achie ved within the processes of an organisation. The model even allows threshold values and qualitydriven subprocesses to be specified. The deliverables include a concise graphi cal notation, a compact textual notation and a simulation environment, which was also developed in the context of this work. The implemented simulation programs allow the propagation of errors due to data quality problems to be modelled. Interviews with experts from UBS have shown that the concept of error propagation is hardly known in the sector of financial services, but produced substantial interest.

11 sind etwa 11 1 Einleitung 1.1 Datenqualität Daten haben in der Datenverarbeitung eine zentrale Bedeutung Grossere betriebliche In formatikanwendungen sind heute kaum noch ohne Datenbankunterstutzung denkbar, und ganze Zweige der Industrie, aber auch weite Teile der in den letzten Jahren immer starker expandierenden Dienstleistungsbranchen (z B Finanzdienstleister oder die Versicherungs branche), arbeiten so intensiv mit Daten, dass man sagen kann, die Daten haben in vielen Bereichen die Rolle eines zentralen Produktionsmitteis eingenommen Gerade in Bran chen, deren Produkte immateriell sind im Bereiche der Banken und Versicherungen sich die Produkte der Konkurrenten sehr ähnlich Wer im Wettbewerb bestehen und sich von den Mitbewerbern positiv unterscheiden will, muss durch die Qualität der insgesamt vom Kunden wahrgenommenen Dienstleistung, speziell aber durch die Quali tät, mit der die Dienstleitungskomponenten (Bankprodukte) dargestellt und gehandhabt werden, ansprechen, also durch die Datenquahtat in diesen Branchen einen immensen Stellenwert Die Datenqualitat hat deshalb gerade Es kann davon ausgegangen werden, dass dieser Stellenwert mit steigender Globalisierung der betroffenen Markte und steigendem Wettbewerbsdruck in Zukunft noch weiter an Bedeutung gewinnen wird Wahrend in der Industrie der Qualitatsbegriff eine traditionell wichtige Bedeutung hat, liegt hier der tertiäre Wirtschaftssektor insgesamt, aber insbesondere die noch junge" In formatikbranche, deutlich hinter den Qualitatsstandards der industriellen Fertigung zurück Fur die Softwareentwicklung gibt es ren des Software Engineering ausreichende Grundlagen, Bewusstsem fur Qualität der Software zu schaffen insbesondere auf Grund der Methoden und Verfah um bei den Informatikern ein Qualitatsstandards, Tools, Vorgehens weisen usw sind vorhanden und praktisch erprobt, ähnlich wie in der Industrie wurden Verfahren zur Qualitätssicherung eingeführt Fur den Soitw&reBetrieb, der in der Praxis eines Betriebes einen Gesamtprozess mit meh reren Informatiksystemen in ablauforgamsatorischen Prozessen umfasst, fühlen sich die Informatiker meist nicht verantwortlich, ebenso wenig fur die verarbeiteten und gespei cherten Daten Sie treten erst wieder an, wenn eine Wartung von Programmen notwendig wird Wartung tritt aber typischerweise erst bei gefundenen Fehlern oder neuen Anfor derungen2 an die Anwendung ein Fehler werden aber oft erst spat entdeckt und über verschiedene Arbeitsschritte im Gesamtprozess hinweg weitergereicht Fachlich fehlerhaf te Angaben, die technisch plausibel sind, lassen im laufenden Betrieb die Datenquahtat schlechter werden, obwohl alle Einzelsysteme fehlerfrei funktionieren Dass das Thema Datenquahtat sehr wichtig ist, wurde mittlerweile allgemein erkannt Aus Literatur und Praxis zusammengetragene Fakten belegen, dass eine schlechte Datenquah tat immense Kosten3 verursacht Besonders unangenehm sind die monetär nicht exakt quantifizierbaren Kosten, die entstehen, wenn auf der Basis einer schlechten Datenlage falsche Entscheidungen getroffen werden Ist die Qualität der zugrunde liegenden Daten schlecht, so liefern die Auswertungen ein Zerrbild der tatsächlichen Situation und die nachfolgenden Entscheidungen können falsche operationale, oder schlimmer, falsche stra tegische Massnahmen zur Folge haben Demnach hangt der Unternehmenserfolg einer guten Datenquahtat ab mit von 2 in der Praxis vielfach Erweiterungen der Funktionalität oder Verbesserungen der Ergonomie 3Vgl [41],[43], einige Beispiele folgen in 2 1

12 12 1 EINLEITUNG Der Begriff Datenquahtat" ist ein relativ neuer Begriff und der Verbesserung der Daten quahtat wird heute in der Praxis eine hohe Bedeutung beigemessen. Exakte Definitionen oder gar eine Metrik, welche es erlaubt, die unternehmensweite Datenquahtat messbar zu machen, fehlen bisher jedoch völlig.4 Leider erweist es sich aber als sehr schwierig, eine Grosse verbessern zu wollen, die man bisher nicht messen oder gar nicht einmal hinreichend definieren konnte. Im Rahmen der Vorarbeiten zu dieser Arbeit beim Datenqualitatsbeauftragten der West deutschen Landesbank (WestLB AG) hat sich gezeigt, dass Datenquahtat im Kontext des Gesamtprozesses des betrachteten Betriebes zu sehen ist. Nicht ein einzelnes Informatik System, sondern das Zusammenspiel vieler Einzelsysteme, Schnittstellen und teilweise auch manueller Tätigkeiten innerhalb der Unternehmensprozesse beeinflussen im Zusammen spiel die Datenquahtat. Das Ziel dieser Arbeit ist es, ein Metriksystem fur Datenquahtat in Informationsprozessen zu erstellen. Als Anwendungsbeispiel dient die Finanzdienstleistungsbranche5, eine Aus weitung auf andere Anwendungsgebiete ware möglich, Arbeit. ist aber nicht Bestandteil dieser Durch das hier erarbeitete Metriksystem lasst tikprozesse gewinnen und Datenquahtat quantifizierbar6 machen. sich Transparenz über komplexe Informa Zum einen kann damit der IstZustand hinsichtlich Datenquahtat analysiert werden, um mögliche Handlungsbedarfe abzuleiten. Zum anderen können damit kurz, mittel oder langfristig geplante Veränderungen be trachtet und deren Auswirkungen auf die Datenquahtat simuliert werden. Damit kann das Metriksystem auch als Managementinstrument eingesetzt werden, um bestmögliche operationelle (und zu einem gewissen Grade sogar strategische) Entscheidungen zu treffen. 1.2 Terminologie Bevor in Kapitel 2 die fur diese Arbeit zentralen Begriffe definiert werden, seien hier einige Begriffe kurz umrissen. Ein Informatiksystem ist ein technisches Hilfsmittel, mit welchem Informatikbenutzer oder Informatikfachleute arbeiten. Informatiksysteme arbeiten mit digitalisierten Daten. Daten werden als auf einem geeigneten Medium gespeicherte Fakten betrachtet. Informatiksyste me können Daten verarbeiten (und aus Eingangsdaten neue Ergebnisdaten der Verarbei tung erzeugen), dem Benutzer präsentieren oder beides (das ist der Regelfall). Interpretiert der Benutzer Daten des Informatiksystems, so abstrahiert er Information aus den Daten. Integriert der Benutzer diese neue Information in sein Wissen, wird diese Information 4Vorhandene Ansätze sind Datenbankenfokussiert, beziehen sich auf ein einzelnes Informatiksystem oder einen einzelnen Datenherstellungsprozess, die grundsatzliche Bedeutung von Prozessen wurde in [145], [15] und [89] erkannt Bei Datenabfragen aus heterogenen verteilten DatenbankSystemen stehen noch Implementierungsfragen, nicht Datenqualitatsfragen im Vordergrund (Vgl [139]) 5Fur die Metrik selbst wurden keine branchenspezifischen Einschränkungen zugrunde gelegt, hier ist eine Übertragung auf beliebige Informatikprozesse, ja überhaupt auf beliebige Prozesse, möglich Die hier vor gestellten Checklisten, Beispiele und Arbeitsmaterialien sind jedoch auf den Fmanzdienstleistungsbereich ausgerichtet 6vgl [46, S 2] Management has no mcentivce to change the status quo until they understand and feel the pam of the cost of nonquality information "

13 1 3 Gliederung der Arbeit 13 zu seinem persönlichen Wissenszuwachs In Unternehmen können Informatiksysteme in Arbeitsablaufe, auch Geschaftsprozesse oder im Folgenden kurz Prozesse genannt, einge bunden sein Prozesse können in kleinere Abschnitte, sogenannte Subprozesse, detailliert werden Prozesse, die einen Wissenszuwachs beim Benutzer auslosen7, werden als Infor mationsprozesse bezeichnet Die Datenquahtat ist der Grad der Eignung von Daten, den an ihre Erfassung oder Generierung gebundenen Zweck zu erfüllen Die Effektivität (und in vielen Fallen die Wertschopfung) eines Informationsprozesses ist stark von der Datenquahtat der betroffenen Daten abhangig 1.3 Gliederung der Arbeit Diese Arbeit hat drei Schwerpunkte Sie beginnt mit dem Ordnen einer Vielzahl von Be griffen, die im Zusammenhang mit Datenquahtat verwendet werden Zum zweiten folgt die Auswahl/Erstellung einer geeigneten Notation zur Prozessmodelherung im dritten Schwerpunkt dieser Arbeit zu erstellende Metriksystem unterstutzen Sie soll das Gewünscht wird grundsätzlich eine einfache, berechenbare, deskriptive Metrik Nun sind aber viele Dimensionen der Datenquahtat per se qualitativer Natur und daher numerisch kaum fassbar Eine Metrik, die ganz auf diese weichen" Faktoren der Datenquahtat ver zichtet, kann jedoch in der Praxis nicht tauglich sein und damit der Anforderung nach Relevanz (die noch hoher zu gewichten ist als die Forderung nach Einfachheit) nicht ge recht werden Statt einer einfachen Metrik ist deshalb ein Metriksystem notwendig, in welches einerseits messbare, andererseits aber auch bloss schatzbare Grossen emfhessen Aus diesem Grunde wurde im Rahmen dieser Dissertation ein Metriksystem entwickelt, welches eine geschätzte Metrik als Subsystem enthalt In den Kapiteln 2 und 3 wird zunächst eine Taxonomie8 fur Datenquahtat entwickelt Hier werden verschiedene Dimensionen der Datenquahtat unterschieden und erläutert Im Kapitel 4 wird das Prozessmodell, insbesondere die grafische Notation, definiert Kapitel 5 definiert die Datenquahtatsmetrik über dem in Kapitel 4 definierten Prozessmo dell auf einer einzelnen Dimension der Datenquahtat Im Kapitel 6 ist beschrieben, wie die Datenquahtat auf den im Rahmen des Prozessmodells atomar angesehenen Subprozessen effektiv gemessen, respektive geschätzt wird Hierfür können Arbeitsmaterialien, vor allem Checklisten, verwendet werden Das Kapitel 7 beschreibt schliesslich die Aggregation aller Dimensionen der Datenquahtat in einen fur das Gesamtsystem geltenden, globalen Datenquahtatsbegriff Eine Erprobung der im Rahmen dieser Arbeit entwickelten Notation zur Prozessmodelhe rung sowie des Metriksystems im Praxisumfeld der schweizerischen Grossbank UBS runden diese Arbeit ab (Kapitel 8) Verschiedene Arbeitsmaterialien, die im Rahmen dieser Arbeit zusammengetragen und erstellt wurden, sind als Fundus im Anhang A zusammengestellt 7Dann passt der in dieser Arbeit zu Informatiksystem" synonym verwendete Begriff ITSystem" be sonders gut (Information Technology System) 8Taxonomie gemeint als sinnvolle Gliederung eines Wissensgebietes taxonomy (IEEE Std [9] A scheme that partitions a body of knowledge and defines the relationship among the pieces It is used for classifying and understanding the body of knowledge " [76]

14 anders das ohne Daten 14 2 BEGRIFFE IM BEREICH DER DATENQ DALITA T 2 Begriffe im Bereich der Datenqualität 2.1 Begriffe in der Literatur Bei der Datenquahtat handelt es sich um einen zusammengesetzten Begriff und Qualität. Fur sich genommen gibt es fur diese beiden Teilbegriffe sehr viele Definitionen in der Literatur. Der Gesamtaspekt der Datenquahtat und damit die Verbindung beider Begriffe ist aber relativ neu und bisher wenig definiert. Der Begriff Datum" geht auf das lateinische dare (datum, gegeben kument) zurück. am..." fur ein Do Der Plural Daten" (in Englisch data") wird seit Jahrzehnten viel allgemeiner verstanden im Sinne von Angaben jeder Art (Messungen, Aufzeichnungen, Wert...) Fakten [17],[56] definiert. und meistens als Im deutschen Sprachgebrauch kommt der Singular von Daten in dieser Bedeutung nicht vor (Datum wird nur kalendarisch als Zeitpunkt verwendet), und man muss sich mit Begriffen wie Datenelement" behelfen, wenn ein einzelner Datenwert bzw. dessen Wertauspragung gemeint ist. In der Literatur werden Daten oft als Ergebnisse von Messung oder Beobachtung [32],[157] definiert und repräsentieren Eigenschaften von Entitaten der Realität [25] in Informatik systemen. Qualität Fur den Begriff Qualität existieren sehr viele Definitionen. Der Begriff Qualität kommt ebenfalls aus dem Lateinischen quahtas und bedeutet Eigenschaft oder Beschaffenheit; er ist zunächst weder positiv noch negativ belegt.9 Im Weiteren gibt es sehr viele spezifische Definitionen, etwa aus dem Bereich der industriellen Fertigung, wo häufig die reziproke Abweichung eines Prüflings von einem Ideal als Qualitatsmass fur die vorausgegangene Fertigung des Prüflings definiert wird10 (geringe Abweichung hohe Qualität). Wo Definitionen zur Datenquahtat in der Literatur fehlen oder vage sind, werden vielfach statt genauer Definitionen einfach Beispiele aufgeführt. Entgegen zur umgangssprachlich positiven Belegung des Qualitatsbegriffes tauchen Beispiele zur Datenquahtat teratur fast durchweg als in der Li NegativBeispiele" auf. Die Beispiele der Literatur, von denen nachstehend einige aufgeführt sind, zeigen einerseits, Praxis mit hohen Kosten verbunden ist. dass schlechte Datenquahtat in der Zum anderen zeigen die Beispiele, dass auch wei che Faktoren (wie Vertrauenswürdigkeit) eine Rolle in der Praxis spielen genauer definiert werden: dass sie A telecommunication company suffered a loss of 3 million dollar in their bill collections along with customer complaints. The company suspected poor information quality might have contributed to the problem of not sending out bills to all customers." [69, S.2] 9Auch eine sehr schlechte Qualität stellt eine Ausprägung von Qualität dar stellt man automatisch eine gute Qualität und benutzt den Begriff nur positiv belegt Umgangssprachlich unter 10In der Informatik ist nicht die Fertigung einer Kopie möglichst nahe am Ideal das Problem, da die Produkte der Informatik immateriell und digital sind zu erstellen, so dass identisch ist als bei materiellen Industrieprodukten Es ist möglich, mit kleinem Aufwand exakte Kopien Duplikat mit dem Original

15 2.1 Begriffe in der Literatur 15 The U.S. Army lost confidence in using some of their wellguarded logistic information for decision making and operations." [69, S.l] A data error within a bank allowed 300 creditworthy customers to receive mortgage default notices." [12, S.7 ff] A marketing organization sends multiple response pieces to the same individual (through the failure to attain integrity). A six percent redundancy in each mailing costs the company hundreds of thousands of dollars over the course of a year." [12, S.7 ff] A global chemical company stopped their data warehousing project upon recognizing that the inconsistent representation of information was tarshing their global business operati on." [69, S.l] Online customers submit false information in Web forms to protect their privacy." [41] In the U.S. alone, false credit card applications accounted for more than $41 million in lost revenue in 1999." [41] Call center operators take short cuts, entering default or fake values in tracking systems to increase call turnover rates." [41] A consumer product company lost track of trends in product reorders from their retailers. Their computer order system showed no technical problems." [69, S.l] An eyewear company lost its market share and incurred significant rework on their pro ducts and services." [69, S.l] Datenqualität: Im Zusammenhang mit Datenqualität stellen die Qualitätsdefinitionen aus der Literatur meist die Gebrauchsqualität11 in den Vordergrund. Eine hohe Datenqualität wird heute in der Literatur vielfach als teuer" und gegenüber dem Management als schwer zu rechtfertigen angesehen: Die umfassende und dauerhaf te Verbesserung der Datenqualität eines Unternehmens ist ein umfangreiches Vorhaben. Auf der anderen Seite ist für Entscheidungsträger der Nutzen der verbesserten Datenqua lität oft nicht transparent, so dass Investitionen in diesen Bereichen nur zögerlich getätigt werden." [120, S.17] Definitionen zur Datenqualität und zum bezüglich Qualitätsüberlegungen ähnlich gelager ten Begriff Informationsqualität" sind aber noch relativ wenig verbreitet. Data quality is consistently meeting knowledge worker's expectations." [44] n Fitness for Use" (Juran), Conformance to requirements" (Philip Crosby), Eine Dienstleistung oder ein Produkt, welches die Erwartungen des Kunden übertrifft" Business). (University of Chicago, Graduate School of

16 16 2 BEGRIFFE IM BEREICH DER DATENQUALITAT Nach [44] lässt sich Datenqualität in drei Komponenten untergliedern: DatendefinitionsQualität (Qualität der Datenspezifikation auf Basis der Business Rules) DateninhaltsQualität (Korrektheit der Datenwerte content quality", Vollständig keit, Eindeutigkeit, Fehlerfreiheit) PräsentationQualität (Daten angemessen rasch in geeigneter Aufbereitung unter angemessenem Aufwand zur Verfügung stellen) Informationsqualität (1): Larry English unterscheidet eine inhärente und eine pragmatische Informationsqualität [45]. Unter inhärenter Informationsqualität versteht er die Korrektheit der Information, unter pragmatischer Informationsqualität deren korrekte Darstellung. Für die Dimensionen von Informationsqualität finden sich in der Literatur unterschied liche Angaben. Häufig finden sich diese fünf: Genauigkeit, Vollständigkeit, Konsistenz, Verfügbarkeit und Aktualität. Die Genauigkeit" wird fast überall genannt. Definition, was Genauigkeit bedeutet, fehlt. Das zeigen diese drei Beispiele: Eine exakte Genauigkeit: the correctness of the output information" [92] Genauigkeit: the recorded value is in conformity with the actual value" [13] Accuracy: Accuracy is the inverse of error. An error is a discrepancy between the encoded and the actual value of a particular attribute for a given entity." [137, S.3] Informationsqualität (2): Huang nennt [69, S. 33ff] drei Ansätze, wie Informationsqualität definiert werden kann: Intuitiv (intuitive), systemseitig (system) und empirisch (empirical). Intuitiv" bedeutet, dass Wertungen der Informationsqualität von Erfahrungen oder in tuitiven Auffassungen einzelner Individuen festgelegt werden. Veränderung Modellierung und Messung Abbildung 1: Wissen als Informationsqualität aus Daten

17 eine der 2.1 Begriffe in der Literatur 17 Systemseitig" wird so verstanden, dass die Definition direkt am Herstellungsprozess der Informationen festgemacht wird. Das System bzw. der Prozess wird nicht als Black Box" angesehen, sondern Systemdesign und Datenerzeugung werden einer Prüfung unterzogen. Das System soll einen Zusammenhang aus der realen Welt repräsentieren, d.h. eine Infor mation wird mit einem zugehörigen realen Sachverhalt verglichen. Unter Empirisch" verstehen die Autoren, dass die dem Kunden gelieferten Daten an der Erwartungshaltung des Kunden gemessen werden. Dies kann durch Kundenbefragungen erfolgen. Positiv ist bei diesem Ansatz, dass der Kunde einbezogen wird. Negativ ist, dass so kein harter Beweis über die Richtigkeit von Daten möglich ist. Einige empirische Untersuchungen zur Datenqualität sind auch in [29], [132] und [148] zu finden; typische Qualitätsmängel sind demnach mehrfach vorkommende, inkonsistente, unvollständige und inkompatible Daten, auch zu viele Informationen" werden als Pro blemfeld empfunden, d.h. eine zu grosse Quantität von Informationen wird offenbar auch problematisch. Im Weiteren fehlen oft Rechnerressourcen zur Auswertung von Informa tionen, Berechtigungskonzepte sind ungeeignet und Daten nicht aktuell verfügbar oder Abfragen zu umständlich. Huang et al [69, S. 43ff] legen folgende 4 Kategorien fest, die diese Ergebnisse recht gut zusammenfassen : Kategorisierung von Datenqualität, Wissen der Organisation ([69]): intrinsische (intrinsic) Informationsqualität: Genauigkeit, Objektivität, Glaubwürdig keit, Reputation12 kontextuelle (contextual) Informationsqualität: Relevanz, Mehrwert für den Nutzer, Verfügbarkeit, Vollständigkeit, Umfang der Information repräsentative (representative) Informationsqualität: Interpretierbarkeit, Verständ lichkeit, korrekte Repräsentation, konsistente Repräsentation Zugreifbarkeit (accessibility): Zugriff und Sicherheit Datenqualitätsprobleme werden auch in Designprobleme (es werden nicht die eigentlich benötigten Daten produziert), Implementierungsprobleme (Programmfehler) und Anwen dungsprobleme (unzureichende Schulung) gegliedert [69, S.15]. Aus dem Total Quality Ma nagement (Deming, vgl. [37]) leiten die Autoren einen TDQM Cycle (Total Data Quality Management Cycle) her [69, S.16] und kommen zum Schluss, das Wissen einer Organisa tion im Umfeld der Datenqualität in folgende Kategorien zu unterteilen: KnowWhat: Faktisches Wissen über das Geschäftsumfeld KnowHow: Prozedurales Wissen, wie etwas zu tun ist KnowWhy: Axiomatisches Wissen und die Erfahrung des Managements Arbeitspraxis zugrunde liegende Annahmen Besonders interessant ist hierbei, dass der gute Ruf" einer Information als Qualitätskriterium ange geben wird keine Qualität. [69] Information, von der man keine gute Qualität erwartet, hat für die Autoren überhaupt

18 18 2 BEGRIFFE IM BEREICH DER DATENQ DALITA T Damit schaffen die Autoren einen fliessenden Übergang zu den Themengebieten der be triebswirtschaftlichen Organisation und des Wissensmanagements im Allgemeinen. Was im Buch als Datenqualitätsverbesserungsmassnahmen begonnen wurde, gipfelt in der Her ausbildung und Pflege der Kernkompetenz des Unternehmens. Zusammenfassung In der Literatur sind verschiedene Aspekte der Datenqualität definiert. Breit etablierte, einheitliche Definitionen fehlen, d.h. Begriffe werden uneinheitlich und auf völlig unter schiedlichen Abstraktionsebenen verwendet. Verbreitet sind Leitfäden, wie Qualitätsteams etabliert und ein Qualitätsdenken durch Schulungs und Motivationsmassnahmen bei den Mitarbeitern etabliert werden kann. Da mit spiegelt die Literatur zutreffend wieder, dass Qualität namentlich auch von wei chen Faktoren wie dem Können und Willen der in den Prozessen beteiligten Mitarbeiter abhängt. In der Literatur zu Data Warehouse"Konzepten bildet die Datenqualität ein wichtiges Randthema, und oft wird die schlechte Datenqualität als Auslöser für den Aufbau des Da ta Warehouse angegeben. Umfassende Anleitungen, wie in einer verteilten ITLandschaft Datenqualität sichergestellt werden kann, fehlen aber bzw. sie beschränken sich auf Replikationskonzepte vom Data Warehouse auf die übrigen Systeme. Gemäss [43] scheitern sogar die meisten Data WarehouseProjekte an der schlechten Datenqualität. 2.2 Ein konsistentes Begriffssystem Die für die vorliegende Arbeit im Folgenden formulierten Definitionen zur Datenquali tät gehen davon aus, dass es Prozesse gibt, in deren Kontext mit den Daten gearbeitet wird. Es kann sich um ein sehr einfaches (geschlossenes autonomes System) oder aber um ein komplexes Prozessmodell handeln. Die Daten fliessen zwischen Teilprozessen. tätsbegriffe, die nicht direkt zur Datenqualität gehören, eine Rolle spielen, werden im Folgenden ebenfalls einbezogen. Quali aber im Umfeld dieses Modells Gesamtmodell: Daten, Information und Wissen Als Grundlage dienen hier die Definitionen aus [122], die erweitert werden; die im Rahmen dieser Arbeit verwendeten Definitionen gliedern sich in folgendes erweitertes Schema nach Schucan [122, S.66] ein:

19 2.2 Ein konsistentes Begriffssystem 19 Wissen Information Metrik gespeicherte Daten Modellierung flüchtige Daten Bezug Realwelt Daten wird zu Bezug Abbildung 2: Übersicht der wichtigsten Begriffe der Definition Daten sind vorerst wahrgenommene konkrete Strukturen der realen Welt; sie sind das Roh material für die Informationsbildung. Durch aktuelle Auswahl und Interpretation der Da ten können aus Daten Informationen werden, d.h. es findet eine erste Ebene der Abstrakti on statt. Bei weiterer Abstraktion werden Informationen zu noch abstrakteren Strukturen, dem Wissen, aggregiert (Information Wissenszuwachs). Das ursprüngliche Schema aus [122] wird hier um die Aspekte der Modellierung und der Speicherung erweitert. Information kann sowohl aus gespeicherten Daten als auch aus flüchtigen Daten heraus gewonnen werden. Gespeicherte Daten setzen ein implizites Modell voraus. Die in dieser Arbeit erstellte Metrik für Datenqualität bezieht sich nur auf nichtflüchtige, d.h. während des betrachteten Prozesses stabile und gespeicherte Daten (vgl. nachfolgende Definition gespeicherte Daten"). Es ist zu erwähnen, dass Informationen und Wissen Aktionen bei den jeweiligen Perso nen auslösen, die Veränderungen in der realen Welt anstossen. Das Schema wird dann insgesamt zu einem Kreislauf, er soll als äussere Schleife des Schemas bezeichnet werden. Im oberen Teil des Schemas (Abbildung 2), bei den gespeicherten Daten, ist ein weiterer Kreislauf möglich: Gespeicherte Daten werden verarbeitet, optional zu Information und Wissen, oder werden zunächst ohne Einfluss auf die Realität einfach wieder gespeichert. Dieser Kreislauf soll als innere Schleife des Schemas bezeichnet werden. Für die Nomenklatur von Daten kann nun unterschieden werden, ob die Daten durch die äussere Schleife im Informatiksystem neu eingegangen (Rohdaten) oder durch Iteration der inneren Schleife verändert wurden (verarbeitete Daten).

20 nicht 20 2 BEGRIFFE IM BEREICH DER DATENQ DALITA T Rohdaten sind somit aus der Realität hervorgegangene und nach Durchfuhrung des Mo dellierungsschrittes gespeicherte Daten. Es findet keine weitere Transformation der Daten statt, die nicht Bestandteil des Modellierungsschrittes ist. Verarbeitete Daten sind somit Daten, die nach Verarbeitung durch ein Informatiksystem gespeichert wurden. Noch weiter entfernt" vom Original sind Statistikdaten; das sind konzentrierte verarbeite te Daten, die keine eindeutige Zuordnung mehr zu den der Verarbeitung zugrunde gelegten verarbeiteten Daten oder Rohdaten zulassen. Diese sowie weitere Begriffe, genden naher erläutert.13 die im Laufe dieser Arbeit benutzt werden, werden im Fol Begriffsdefinitionen Def. 1: Realwelt: Welt der konkreten oder abstrakten Strukturen der Realität (entspricht den Strukturen" in [122]). Def. 2: Daten: Werte zur Abbildung eines Ausschnitts der Realwelt nach An wendung eines Messverfahrens, dieses kann auch künstliche oder natürli che sensorische Wahrnehmung, z.b. Beobachtung, sein.14 Def. 3: gespeicherte Daten: Daten, die auf einem hinreichend nichtßüchtigen15 Medium gespeichert16 sind. Def. 4: Datenelement: Einzelwert (in Englisch data item"),17 meistens Zahl oder Wert aus einem bestimmten Wertebereich. Die Definition des Da tenelements erfolgt unabhängig von der späteren physischen Präsen tation als Feld" oder Wert" in der Datenbank. Def. 5: Information: Auswahl und Interpretationen von Daten zu einem be stimmten Zeitpunkt für einen Empfänger.18 13Spater nur in einem Kapitel benotigte Defitionen werden jeweils dort eingefügt Hier stehen alle Defini tionen von kapitelubergreifender Bedeutung mit Ausnahme der Modellierung, ihr ist ein eigener Abschnitt (3 1) gewidmet 14Praziser definiert [122] Daten als Symbole (gemessene Teilmenge von identifizierenden Signalen eines Objekts) oder Symbolkombinationen, mit denen Sachverhalte in einem relevanten Wahrnehmungsbereich dargestellt werden können 15Hinreichend mchtfluchtig bedeutet, dass sie die Speicherung zumindest wahrend der maximalen Durchlaufzeit des auf höchster Ebene definierten Gesamtprozesses besteht 16Speichern bedeutet hier das Schreiben der Daten auf ein Speichermedium dergestalt, dass eine spatere Reproduktion der gespeicherten Daten garantiert und verlustfrei möglich ist Im Arbeitsspeicher eines Computers abgelegte Daten sind als fluchtig anzusehen Ebenso sind implizite Daten, z B die Stockwerk Nummer in einer in Hardware realisierten FahrstuhlSteuerung (technisch über einen bestimmten Zustand der Schaltung codiert), keine gespeicherten Daten Auch das in den Köpfen der Mitarbeiter gespeicherte Wissen und das gesprochene Wort erfüllen die Kriterien an gespeicherte Daten nicht 17Nicht zu verwechseln mit dem kleinsten Element der physikalischen Speicherung in einer Datenbank (Bit, bzw je nach Implementierung Byte) 18Die Unterscheidung des Singulars (Information) vom Plural (Informationen) ist sprachlich nicht ein deutig Im Englischen gibt es fur diesen Begriff Unterscheidung zwischen Singular und Plural wie auch fur den Begriff Daten einmal eine

Quality Point München Datenqualität

Quality Point München Datenqualität Quality Point München Datenqualität Paul, wie ist denn Eure Datenqualität? Nachdem ich bei der letzten Gehaltszahlung mit Frau... angeredet wurde, bin ich mir nicht mehr so sicher. Autor: W. Ulbrich IT&More

Mehr

Anforderungen, KEFs und Nutzen der Software- Prozessverbesserung

Anforderungen, KEFs und Nutzen der Software- Prozessverbesserung Process flow Remarks Role Documents, data, tool input, output Important: Involve as many PZU as possible PZO Start Use appropriate templates for the process documentation Define purpose and scope Define

Mehr

ISO 15504 Reference Model

ISO 15504 Reference Model Prozess Dimension von SPICE/ISO 15504 Process flow Remarks Role Documents, data, tools input, output Start Define purpose and scope Define process overview Define process details Define roles no Define

Mehr

Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter. Chinesische Botschaft in Belgrad

Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter. Chinesische Botschaft in Belgrad Datenqualität mit dem DataFlux dfpower Studio 8.1 Tobias Jansen Zaferna-Hütte, 4. Januar 2009 Motivation: Datenqualitätsprobleme in der Praxis (1/2) Mars Climate Orbiter Nasa Marssonde Mars Climate Orbiter

Mehr

Cloud Architektur Workshop

Cloud Architektur Workshop Cloud Architektur Workshop Ein Angebot von IBM Software Services for Cloud & Smarter Infrastructure Agenda 1. Überblick Cloud Architektur Workshop 2. In 12 Schritten bis zur Cloud 3. Workshop Vorgehensmodell

Mehr

Lehrstuhl für Allgemeine BWL Strategisches und Internationales Management Prof. Dr. Mike Geppert Carl-Zeiß-Str. 3 07743 Jena

Lehrstuhl für Allgemeine BWL Strategisches und Internationales Management Prof. Dr. Mike Geppert Carl-Zeiß-Str. 3 07743 Jena Lehrstuhl für Allgemeine BWL Strategisches und Internationales Management Prof. Dr. Mike Geppert Carl-Zeiß-Str. 3 07743 Jena http://www.im.uni-jena.de Contents I. Learning Objectives II. III. IV. Recap

Mehr

A Framework for Planing and Controlling Data Quality in Data-Warehouse-Systems

A Framework for Planing and Controlling Data Quality in Data-Warehouse-Systems A Framework for Planing and Controlling Data Quality in Data-Warehouse-Systems markus.helfert@unisg.ch Slide 2 Überblick Data-Warehouse-Systeme und Datenqualität Datenqualitätsmanagement Datenqualität

Mehr

Systematisches Testen von Software

Systematisches Testen von Software Programmierung Systematisches Testen von Software Markus Eckstein Systematika Information Systems GmbH Kurfürsten-Anlage 36 69115 Heidelberg markus.eckstein@systematika.com Zusammenfassung Die wichtigsten

Mehr

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit IT-basierte Erstellung von Nachhaltigkeitsberichten Diplomarbeit zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover vorgelegt von

Mehr

Datenqualitätsmanagement im Customer Relationship Management

Datenqualitätsmanagement im Customer Relationship Management Wolfgang Leußer Datenqualitätsmanagement im Customer Relationship Management Verlag Dr. Kovac Hamburg 2011 Inhaltsverzeichnis Abbildungsverzeichnis Tabellenverzeichnis Abkürzungsverzeichnis XVII XIX XXI

Mehr

Kybernetik Das Kybernetische Modell

Kybernetik Das Kybernetische Modell Kybernetik Das Kybernetische Modell Mohamed Oubbati Institut für Neuroinformatik Tel.: (+49) 731 / 50 24153 mohamed.oubbati@uni-ulm.de 05. 06. 2012 Das Modell Das Modell Was ist ein Modell? Ein Modell

Mehr

Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann

Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann Andreas Ditze MID GmbH Kressengartenstraße 10 90402 Nürnberg a.ditze@mid.de Abstract: Data Lineage

Mehr

Group and Session Management for Collaborative Applications

Group and Session Management for Collaborative Applications Diss. ETH No. 12075 Group and Session Management for Collaborative Applications A dissertation submitted to the SWISS FEDERAL INSTITUTE OF TECHNOLOGY ZÜRICH for the degree of Doctor of Technical Seiences

Mehr

1 Problematik eines uneinheitlichen Verständnisses der SOA... 201. 2 SOA als unternehmensweites Architekturkonzept... 203

1 Problematik eines uneinheitlichen Verständnisses der SOA... 201. 2 SOA als unternehmensweites Architekturkonzept... 203 Mehr als alter Wein in neuen Schläuchen 199 1 Problematik eines uneinheitlichen Verständnisses der SOA... 201 2 SOA als unternehmensweites Architekturkonzept........... 203 3 Struktur einer SOA..................................

Mehr

Gute Modelle Wie bewerten Sie die Ergebnisse von Modellierungsprojekten?

Gute Modelle Wie bewerten Sie die Ergebnisse von Modellierungsprojekten? Gute Modelle Wie bewerten Sie die Ergebnisse von Modellierungsprojekten? Präsentation bei MID Insight 2012 Nürnberg, 20. November 2012 Dr. Jürgen Pitschke BCS Dr. Jürgen Pitschke www.enterprise-design.eu

Mehr

Asset Management für Instandhalter: Alter Wein in neuen Schläuchen?

Asset Management für Instandhalter: Alter Wein in neuen Schläuchen? Asset Management für Instandhalter: Alter Wein in neuen Schläuchen? Prof. Dr. Christoph Heitz Institut für Datenanalyse und Prozessdesign Zürcher Hochschule für Angewandte Wissenschaften Winterthur, Switzerland

Mehr

DGIQ Projekt IQ-Definition

DGIQ Projekt IQ-Definition DGIQ Projekt IQ-Definition Definition des Begriffsfeldes Informationsqualität bzw. Datenqualität Ein Projekt der DGIQ, 2007 Normen und Standards Dr. Jan Philipp Rohweder, Andrea Piro, Joachim Schmid GIQMC,

Mehr

Software-Qualität Ausgewählte Kapitel

Software-Qualität Ausgewählte Kapitel Martin Glinz Software-Qualität Ausgewählte Kapitel Kapitel 1 Einführung Universität Zürich Institut für Informatik 2009 Martin Glinz. Alle Rechte vorbehalten. Speicherung und Wiedergabe sind für den persönlichen,

Mehr

Customer-specific software for autonomous driving and driver assistance (ADAS)

Customer-specific software for autonomous driving and driver assistance (ADAS) This press release is approved for publication. Press Release Chemnitz, February 6 th, 2014 Customer-specific software for autonomous driving and driver assistance (ADAS) With the new product line Baselabs

Mehr

Analysen sind nur so gut wie die Datenbasis

Analysen sind nur so gut wie die Datenbasis Analysen sind nur so gut wie die Datenbasis Datenaufbereitung und Sicherung der Datenqualität durch den kontextbasierten MIOsoft Ansatz. Daten gelten längst als wichtiger Produktionsfaktor in allen Industriebereichen.

Mehr

eurex rundschreiben 094/10

eurex rundschreiben 094/10 eurex rundschreiben 094/10 Datum: Frankfurt, 21. Mai 2010 Empfänger: Alle Handelsteilnehmer der Eurex Deutschland und Eurex Zürich sowie Vendoren Autorisiert von: Jürg Spillmann Weitere Informationen zur

Mehr

ITIL & TOGAF die Doppelspitze für IT Governance

ITIL & TOGAF die Doppelspitze für IT Governance 1 ITIL Day 2014 ITIL & TOGAF die Doppelspitze für IT Governance Referenten: Arif Chughtai, Matthias Gessenay 2 Referenten Arif Chughtai mail@arifchughtai.org www.arifchughtai.org Matthias Gessenay matthias.gessenay@corporatesoftware.ch

Mehr

Qualität 1. 1 Qualität

Qualität 1. 1 Qualität Qualität 1 1 Qualität Nach dem Durcharbeiten dieses Kapitels sollten Sie die Qualität für ein Softwaresystem definieren können, typische Qualitätskriterien kennen, Qualitätskriterien messbar festlegen

Mehr

Modellgetriebene Entwicklungsprozesse in der Praxis - eine Bestandsaufnahme. Tillmann Schall, anaptecs GmbH

Modellgetriebene Entwicklungsprozesse in der Praxis - eine Bestandsaufnahme. Tillmann Schall, anaptecs GmbH Modellgetriebene Entwicklungsprozesse in der Praxis - eine Bestandsaufnahme Tillmann Schall, anaptecs GmbH : Agenda Grundlagen modellgetriebener Entwicklungsprozesse Schritte zur Einführung Erfahrungen

Mehr

Experience. nr.52. ERNI Erfahrungsberichte rund um Management-, Prozess- und Technologiethemen. märz 2012

Experience. nr.52. ERNI Erfahrungsberichte rund um Management-, Prozess- und Technologiethemen. märz 2012 ERNI Erfahrungsberichte rund um Management-, Prozess- und Technologiethemen Experience nr.52 märz 2012 RequIREMENTs EngINEERINg Ins Schwarze treffen Ins SchwARze treffen Requirements Engineering: die Grundlagen

Mehr

BPMN vs. EPK & Co. oder auf was es wirklich ankommt

BPMN vs. EPK & Co. oder auf was es wirklich ankommt BPMN vs. EPK & Co. oder auf was es wirklich ankommt Sebastian Adam, Norman Riegel 15. Mai 2012, St. Augustin Die Fraunhofer-Gesellschaft e.v. Benannt nach: Rolle der FraunhoferGesellschaft: Größe: Forschungsvolumen:

Mehr

Datenqualität: allgemeiner Überblick Waldemar Braun. Seminar Datenqualität OvGU Magdeburg 03.12.2009

Datenqualität: allgemeiner Überblick Waldemar Braun. Seminar Datenqualität OvGU Magdeburg 03.12.2009 Datenqualität: allgemeiner Überblick Waldemar Braun Seminar Datenqualität OvGU Magdeburg Gliederung 1. Einleitung 2. Motivation 3. Definition 4. DQ-Probleme 5. DQ-Dimensionen 6. DQ-Modelle 7. Messen der

Mehr

Titel der Präsentation

Titel der Präsentation Titel der Präsentation Untertitel der Präsentation Kreativität in der Produktion audiovisueller Unterhaltung Strategie für eine digitale Medienwelt? Pamela Przybylski Institut für Kommunikationswissenschaft

Mehr

Einsatz einer Dokumentenverwaltungslösung zur Optimierung der unternehmensübergreifenden Kommunikation

Einsatz einer Dokumentenverwaltungslösung zur Optimierung der unternehmensübergreifenden Kommunikation Einsatz einer Dokumentenverwaltungslösung zur Optimierung der unternehmensübergreifenden Kommunikation Eine Betrachtung im Kontext der Ausgliederung von Chrysler Daniel Rheinbay Abstract Betriebliche Informationssysteme

Mehr

Was funktioniert und was nicht? Agile Softwareentwicklung in der Praxis Martin Lippert, martin.lippert@akquinet.de

Was funktioniert und was nicht? Agile Softwareentwicklung in der Praxis Martin Lippert, martin.lippert@akquinet.de Was funktioniert und was nicht? Agile Softwareentwicklung in der Praxis Martin Lippert, martin.lippert@akquinet.de Über mich Martin Lippert Senior IT-Berater bei akquinet it-agile GmbH martin.lippert@akquinet.de

Mehr

Digital Customer Experience Notwendiges Übel oder überlebenswichtige Notwendigkeit? Datalympics, 2. Juli 2014

Digital Customer Experience Notwendiges Übel oder überlebenswichtige Notwendigkeit? Datalympics, 2. Juli 2014 Digital Customer Experience Notwendiges Übel oder überlebenswichtige Notwendigkeit? Datalympics, 2. Juli 2014 Digitale Realität Die Welt verändert sich in rasantem Tempo Rom, Petersplatz, März 2013 Franziskus

Mehr

Six Sigma Messungen. 2004 KnowHow 4U Seite 1 von 5

Six Sigma Messungen. 2004 KnowHow 4U Seite 1 von 5 Six Sigma Messungen Definition: Six Sigma wird benutzt um einen Null Fehler Status zu beschreiben und aufzuzeigen wie nah ein Prozessablauf an diesen Zustand heranreicht. Per Definition sind 3,4 Fehler

Mehr

Funktionale Sicherheit ISO 26262 Schwerpunkt Requirements Engineering,

Funktionale Sicherheit ISO 26262 Schwerpunkt Requirements Engineering, Funktionale Sicherheit ISO 26262 Schwerpunkt Requirements Engineering, Manfred Broy Lehrstuhl für Software & Systems Engineering Technische Universität München Institut für Informatik ISO 26262 Functional

Mehr

ITIL V3. Service Mehrwert für den Kunden. Ing. Martin Pscheidl, MBA, MSc cert. ITIL Expert. SolveDirect Service Management

ITIL V3. Service Mehrwert für den Kunden. Ing. Martin Pscheidl, MBA, MSc cert. ITIL Expert. SolveDirect Service Management ITIL V3 Ing. Martin Pscheidl, MBA, MSc cert. ITIL Expert SolveDirect Service Management martin.pscheidl@solvedirect.com Service Mehrwert für den Kunden mit Unterstützung von 1 Wie Service für den Kunden

Mehr

Inequality Utilitarian and Capabilities Perspectives (and what they may imply for public health)

Inequality Utilitarian and Capabilities Perspectives (and what they may imply for public health) Inequality Utilitarian and Capabilities Perspectives (and what they may imply for public health) 1 Utilitarian Perspectives on Inequality 2 Inequalities matter most in terms of their impact onthelivesthatpeopleseektoliveandthethings,

Mehr

Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen. Bachelorarbeit

Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen. Bachelorarbeit Diskussion eines IT-Outsourcing unter Berücksichtigung von Compliance Anforderungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Dipl. Inf. Ali M. Akbarian

Dipl. Inf. Ali M. Akbarian Dipl. Inf. Ali M. Akbarian 2012 Einführung Globalisierung, Innovation und Kundenzufriedenheit sind auch in Zukunft die wichtigsten Herausforderungen der Unternehmen. Diese Herausforderungen verlangen:

Mehr

Data Mining-Projekte

Data Mining-Projekte Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein

Mehr

Accounting course program for master students. Institute of Accounting and Auditing http://www.wiwi.hu-berlin.de/rewe

Accounting course program for master students. Institute of Accounting and Auditing http://www.wiwi.hu-berlin.de/rewe Accounting course program for master students Institute of Accounting and Auditing http://www.wiwi.hu-berlin.de/rewe 2 Accounting requires institutional knowledge... 3...but it pays: Lehman Bros. Inc.,

Mehr

1 Einleitung. Software Engineering. Vorgehensweisen

1 Einleitung. Software Engineering. Vorgehensweisen 1 Noch ein Buch über Software Engineering? Warum nicht! Wir folgen einem Prinzip, das zur Lösungsfindung in den verschiedensten Domänen Einzug gehalten hat: die Betrachtung aus verschiedenen Blickwinkeln.

Mehr

Code-Quality-Management

Code-Quality-Management Code-Quality-Management Technische Qualität industrieller Softwaresysteme transparent und vergleichbar gemacht von Frank Simon, Olaf Seng, Thomas Mohaupt 1. Auflage Code-Quality-Management Simon / Seng

Mehr

Alina Schneider. Erfolg in Data-Warehouse-Projekten. Eine praxisnahe Analyse von Erfolgsfaktoren und -kriterien. Diplomica Verlag

Alina Schneider. Erfolg in Data-Warehouse-Projekten. Eine praxisnahe Analyse von Erfolgsfaktoren und -kriterien. Diplomica Verlag Alina Schneider Erfolg in Data-Warehouse-Projekten Eine praxisnahe Analyse von Erfolgsfaktoren und -kriterien Diplomica Verlag Alina Schneider Erfolg in Data-Warehouse-Projekten: Eine praxisnahe Analyse

Mehr

Universität Passau. Prof. Dr. Carola Jungwirth. Bachelorarbeit

Universität Passau. Prof. Dr. Carola Jungwirth. Bachelorarbeit Universität Passau Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth Bachelorarbeit Der Einsatz moderner Medien und Kommunikationsmöglichkeiten

Mehr

Optimieren von Requirements Management & Engineering

Optimieren von Requirements Management & Engineering Xpert.press Optimieren von Requirements Management & Engineering Mit dem HOOD Capability Model Bearbeitet von Colin Hood, Rupert Wiebel 1. Auflage 2005. Buch. xii, 245 S. Hardcover ISBN 978 3 540 21178

Mehr

TOGAF The Open Group Architecture Framework

TOGAF The Open Group Architecture Framework TOGAF The Open Group Architecture Ein Überblick Gesellschaft für Informatik, Regionalgruppe München Dr. Michael Bulenda München, 7.12.2009 Vorstellung Dr. M. Bulenda Seit 2001 bei Cirquent IT Management

Mehr

Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen. Bachelorarbeit

Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen. Bachelorarbeit Analyse kritischer Erfolgsfaktoren für Enterprise Social Networking Anwendungen Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaften

Mehr

Praktikum Entwicklung von Mediensystemen mit ios

Praktikum Entwicklung von Mediensystemen mit ios Praktikum Entwicklung von Mediensystemen mit ios WS 2011 Prof. Dr. Michael Rohs michael.rohs@ifi.lmu.de MHCI Lab, LMU München Today Heuristische Evaluation vorstellen Aktuellen Stand Software Prototyp

Mehr

S I G M A. Knowledge Management in der Unternehmensberatung Eine empirische Darstellung von Six Sigma

S I G M A. Knowledge Management in der Unternehmensberatung Eine empirische Darstellung von Six Sigma S I G M A B R E A K A W A Y P E R F O R M A N C E Knowledge Management in der Unternehmensberatung Eine empirische Darstellung von Six Sigma E-mail: peter.pointner@gmx.at daniel.puehringer@gmx.at Content

Mehr

Diplomarbeit. Entwurf eines generischen Prozessleitstandes für Change Request Systeme

Diplomarbeit. Entwurf eines generischen Prozessleitstandes für Change Request Systeme Fakultät für Mathematik, Informatik und Naturwissenschaften Forschungsgruppe Softwarekonstruktion Diplomarbeit Entwurf eines generischen Prozessleitstandes für Change Request Systeme Development of a Generic

Mehr

Projektrisikomanagement im Corporate Risk Management

Projektrisikomanagement im Corporate Risk Management VERTRAULICH Projektrisikomanagement im Corporate Risk Management Stefan Friesenecker 24. März 2009 Inhaltsverzeichnis Risikokategorien Projekt-Klassifizierung Gestaltungsdimensionen des Projektrisikomanagementes

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

Künstliche Intelligenz

Künstliche Intelligenz Künstliche Intelligenz Data Mining Approaches for Instrusion Detection Espen Jervidalo WS05/06 KI - WS05/06 - Espen Jervidalo 1 Overview Motivation Ziel IDS (Intrusion Detection System) HIDS NIDS Data

Mehr

Support Technologies based on Bi-Modal Network Analysis. H. Ulrich Hoppe. Virtuelles Arbeiten und Lernen in projektartigen Netzwerken

Support Technologies based on Bi-Modal Network Analysis. H. Ulrich Hoppe. Virtuelles Arbeiten und Lernen in projektartigen Netzwerken Support Technologies based on Bi-Modal Network Analysis H. Agenda 1. Network analysis short introduction 2. Supporting the development of virtual organizations 3. Supporting the development of compentences

Mehr

Data Loss Prevention (DLP) Überlegungen zum praktischen Einsatz

Data Loss Prevention (DLP) Überlegungen zum praktischen Einsatz Heinz Johner, IBM Schweiz AG 30. November 2009 Data Loss Prevention (DLP) Überlegungen zum praktischen Einsatz Agenda, Inhalt Begriff und Definition Umfang einer DLP-Lösung Schutz-Szenarien Typische Fragestellungen

Mehr

CMMI und SPICE im Automotive Umfeld

CMMI und SPICE im Automotive Umfeld Vorträge 2006 CMMI und SPICE im Automotive Umfeld Inhalt Motivation Übersicht zu CMMI Anwendung in Entwicklungsprojekten Prozess Management als Lösungsansatz SPICE Motivation Jährliche Kosten für Prozessverbesserung

Mehr

Geschäftsprozessmanagement

Geschäftsprozessmanagement Geschäftsprozessmanagement Der INTARGIA-Ansatz Whitepaper Dr. Thomas Jurisch, Steffen Weber INTARGIA Managementberatung GmbH Max-Planck-Straße 20 63303 Dreieich Telefon: +49 (0)6103 / 5086-0 Telefax: +49

Mehr

Neue Strategien und Innovationen im Umfeld von Kundenprozessen

Neue Strategien und Innovationen im Umfeld von Kundenprozessen Neue Strategien und Innovationen im Umfeld von Kundenprozessen BPM Forum 2011 Daniel Liebhart, Dozent für Informatik an der Hochschule für Technik Zürich, Solution Manager, Trivadis AG Agenda Einleitung:

Mehr

Toolgestützte Prozessdokumentation. Prozessorientiertes E-Government, 28.10.2005 Joel Meir, jmeir@csc.com, +41 31 998 46 46

Toolgestützte Prozessdokumentation. Prozessorientiertes E-Government, 28.10.2005 Joel Meir, jmeir@csc.com, +41 31 998 46 46 Toolgestützte Prozessdokumentation Prozessorientiertes E-Government, 28.10.2005 Joel Meir, jmeir@csc.com, +41 31 998 46 46 Wir bieten unseren Kunden End-to-End Lösungen an Consulting Systems Integration

Mehr

ISO 5500x-Normenfamilie

ISO 5500x-Normenfamilie ISO 5500x-Normenfamilie 5 Fakten zur ISO 5500x-Normenfamilie ISO 55000 - Overview, principles and terminology ISO 55001 - Requirements ISO 55002 - Guidelines on the application of ISO 55001 Generelles

Mehr

Master-Thesis (m/w) für unseren Standort Stuttgart

Master-Thesis (m/w) für unseren Standort Stuttgart Master-Thesis (m/w) für unseren Standort Abschlussarbeit im Bereich Business Process Management (BPM) Effizienzsteigerung von Enterprise Architecture Management durch Einsatz von Kennzahlen Braincourt

Mehr

Diplomarbeit. vorgelegt von. Ivan Mahnet. Matrikel Nr. 612904 13. Fachsemester. Wintersemester 2009/2010

Diplomarbeit. vorgelegt von. Ivan Mahnet. Matrikel Nr. 612904 13. Fachsemester. Wintersemester 2009/2010 Diplomarbeit Zur Erlangung des akademischen Titels Diplom-Gesundheitsökonom (FH) Dimensionierung einer Rohrpostanlage in einem Krankenhaus der Maximalversorgung vorgelegt von Ivan Mahnet Matrikel Nr. 612904

Mehr

Towards Automated Analysis of Business Processes for Financial Audits

Towards Automated Analysis of Business Processes for Financial Audits Towards Automated Analysis of Business Processes for Financial Audits Michael Werner Universität Hamburg michael.werner@wiso.uni hamburg.de Max Brauer Allee 60 22765 Hamburg StB Prof. Dr. Nick Gehrke Nordakademie

Mehr

Swiss Marketing Leadership Studie 2015. Man agement Summary

Swiss Marketing Leadership Studie 2015. Man agement Summary 3 Man agement Summary Marketing ändert sich fundamental und sollte in modernen Unternehmen eine steuernde Funktion in Richtung Kunden- und Marktorientierung einnehmen. Vor diesem Hintergrund entschied

Mehr

Lohnt sich Requirements Engineering?

Lohnt sich Requirements Engineering? Lohnt sich Requirements Engineering? Seminar Messbarkeit von Anforderungen am Fachgebiet Software Engineering Wintersemester 2007/2008 Betreuer: Eric Knauss Oleksandr Kazandzhi Gliederung Einleitung Messen

Mehr

Ways and methods to secure customer satisfaction at the example of a building subcontractor

Ways and methods to secure customer satisfaction at the example of a building subcontractor Abstract The thesis on hand deals with customer satisfaction at the example of a building subcontractor. Due to the problems in the building branch, it is nowadays necessary to act customer oriented. Customer

Mehr

MATERNA Beschwerde-Management-Check. Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen

MATERNA Beschwerde-Management-Check. Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen MATERNA Beschwerde-Management-Check Umsetzungsorientierte Bestandsaufnahme zum Beschwerde-Management in Versicherungen >> MATERNA Beschwerde-Management-Check Ist in Ihrer Versicherung die Einführung,

Mehr

ITSM (BOX & CONSULTING) Christian Hager, MSc

ITSM (BOX & CONSULTING) Christian Hager, MSc ITSM (BOX & CONSULTING) Christian Hager, MSc INHALT Ausgangssituation ITSM Consulting ITSM Box Zentrales Anforderungsmanagement Beispielhafter Zeitplan Nutzen von ITSM Projekten mit R-IT Zusammenfassung

Mehr

IT-Projekte effektiv steuern durch Integration von Modellierung und ALM bzw. Änderungsmanagement

IT-Projekte effektiv steuern durch Integration von Modellierung und ALM bzw. Änderungsmanagement IT-Projekte effektiv steuern durch Integration von Modellierung und ALM bzw. Änderungsmanagement Basierend auf einem zentralen SOA-Projekt wird die Integration von Änderungsmanagement aus dem ApplicationLifeCycle

Mehr

arlanis Software AG SOA Architektonische und technische Grundlagen Andreas Holubek

arlanis Software AG SOA Architektonische und technische Grundlagen Andreas Holubek arlanis Software AG SOA Architektonische und technische Grundlagen Andreas Holubek Speaker Andreas Holubek VP Engineering andreas.holubek@arlanis.com arlanis Software AG, D-14467 Potsdam 2009, arlanis

Mehr

Dem Wissen auf der Spur

Dem Wissen auf der Spur k+k information services wir machen aus daten verwertbares wissen Dem Wissen auf der Spur DGQ-Regionalkreis Stuttgart Referent: Olaf Schmidt, Geschäftsführer k+k information services GmbH 22. September

Mehr

Gruppe 2: Rui Gu, Wei Zhu, Veysel Imamoglu, Dimitar Dimitrov, Karl Oppermann, Nathalie Hrycej, Markus Schnalke, Christoph Galler

Gruppe 2: Rui Gu, Wei Zhu, Veysel Imamoglu, Dimitar Dimitrov, Karl Oppermann, Nathalie Hrycej, Markus Schnalke, Christoph Galler Gruppe 2: Rui Gu, Wei Zhu, Veysel Imamoglu, Dimitar Dimitrov, Karl Oppermann, Nathalie Hrycej, Markus Schnalke, Christoph Galler Modellgetriebene Softwareentwicklung auf Basis von TOPCASED am Beispiel

Mehr

Business Intelligence Praktikum 1

Business Intelligence Praktikum 1 Hochschule Darmstadt Business Intelligence SS 2014 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 07.05.2014 Business Intelligence Praktikum

Mehr

Einführung in die Wissensverarbeitung und Data Mining

Einführung in die Wissensverarbeitung und Data Mining Einführung in die Wissensverarbeitung und Data Mining Peter Becker FH Bonn-Rhein-Sieg Fachbereich Angewandte Informatik!" $# Vorlesung Wintersemester 2001/02 1. Einführung Vorbemerkungen 1 Einführung Vorbemerkungen

Mehr

Modul Strategic Management (PGM-07)

Modul Strategic Management (PGM-07) Modul Strategic Management (PGM-07) Beschreibung u. Ziele des Moduls Dieses Modul stellt als eine der wesentlichen Formen wirtschaftlichen Denkens und Handelns den strategischen Ansatz vor. Es gibt einen

Mehr

Daten haben wir reichlich! 25.04.14 The unbelievable Machine Company 1

Daten haben wir reichlich! 25.04.14 The unbelievable Machine Company 1 Daten haben wir reichlich! 25.04.14 The unbelievable Machine Company 1 2.800.000.000.000.000.000.000 Bytes Daten im Jahr 2012* * Wenn jedes Byte einem Buchstaben entspricht und wir 1000 Buchstaben auf

Mehr

Systemarchitektur und SPICE

Systemarchitektur und SPICE Systemarchitektur und SPICE systems.camp 2015 Version 1.0, 2015-04-18, pv Systemarchitektur und SPICE Gliederung Ebene 1 Motivation von SPICE Anforderungen von SPICE an eine Systemarchitektur 12.05.2015

Mehr

Phasen. Gliederung. Rational Unified Process

Phasen. Gliederung. Rational Unified Process Rational Unified Process Version 4.0 Version 4.1 Version 5.1 Version 5.5 Version 2000 Version 2001 1996 1997 1998 1999 2000 2001 Rational Approach Objectory Process OMT Booch SQA Test Process Requirements

Mehr

Liste der Handbücher. Liste der Benutzerhandbücher von MEGA

Liste der Handbücher. Liste der Benutzerhandbücher von MEGA Liste der Handbücher Liste der Benutzerhandbücher von MEGA MEGA 2009 SP4 1. Ausgabe (Juni 2010) Die in diesem Dokument enthaltenen Informationen können jederzeit ohne vorherige Ankündigung geändert werden

Mehr

Beschwerdemanagement / Complaint Management

Beschwerdemanagement / Complaint Management Beschwerdemanagement / Complaint Management Structure: 1. Basics 2. Requirements for the implementation 3. Strategic possibilities 4. Direct Complaint Management processes 5. Indirect Complaint Management

Mehr

Gliederung. Einführung Phasen Ten Essentials Werkzeugunterstützung Aktivitäten, Rollen, Artefakte Werkzeug zur patternorientierten Softwareentwicklung

Gliederung. Einführung Phasen Ten Essentials Werkzeugunterstützung Aktivitäten, Rollen, Artefakte Werkzeug zur patternorientierten Softwareentwicklung Peter Forbrig RUP 1 Gliederung Einführung Phasen Ten Essentials Werkzeugunterstützung Aktivitäten, Rollen, Artefakte Werkzeug zur patternorientierten Softwareentwicklung Peter Forbrig RUP 2 Rational Unified

Mehr

Der Unified Process ist ein generischer Prozeß zur objektorientierten Software- Erstellung

Der Unified Process ist ein generischer Prozeß zur objektorientierten Software- Erstellung Unified Process Eine Einführung von Hannes Fischer Fischer Software Elfenstr. 64 70567 Stuttgart Deutschland Copyright 2000 Hannes Fischer Unified Process Wie wird heute gearbeitet? Der Unified Process

Mehr

CHAMPIONS Communication and Dissemination

CHAMPIONS Communication and Dissemination CHAMPIONS Communication and Dissemination Europa Programm Center Im Freistaat Thüringen In Trägerschaft des TIAW e. V. 1 CENTRAL EUROPE PROGRAMME CENTRAL EUROPE PROGRAMME -ist als größtes Aufbauprogramm

Mehr

Bessere Daten durch Stammdatenmanagement

Bessere Daten durch Stammdatenmanagement make connections share ideas be inspired Bessere Daten durch Stammdatenmanagement Mit SAS MDM, bessere Stammdaten für operativen Systeme make connections share ideas be inspired Overview Mit SAS MDM bessere

Mehr

Transparenz optimieren durch Managed Services. Dr. Armin Metzger, sepp.med gmbh MID Insight, Nürnberg 2012-11-20

Transparenz optimieren durch Managed Services. Dr. Armin Metzger, sepp.med gmbh MID Insight, Nürnberg 2012-11-20 Transparenz optimieren durch Managed Services Dr. Armin Metzger, sepp.med gmbh MID Insight, Nürnberg 2012-11-20 Inhalt Managed Services was ist das? Motivation und Benefits von Managed Services Parameter

Mehr

Social Business Erfolgsmessung

Social Business Erfolgsmessung Social Business Erfolgsmessung Praxisbericht aus dem Social Business Projekt bei der Robert Bosch GmbH 8.10.2013, Cordula Proefrock (Robert Bosch GmbH), Dr. Christoph Tempich (inovex GmbH) 1 The Bosch

Mehr

Praxisorientiertes Geschäftsprozessmanagement

Praxisorientiertes Geschäftsprozessmanagement Praxisorientiertes Geschäftsprozessmanagement Identifikation von Verbesserungspotenzialen Konsistenz der Prozessziele mit der Unternehmensstrategie Verbesserung der innerbetrieblichen Transparenz Kosten-

Mehr

Was ist Language Based BPM? Eine kurze Erklärung Version 1.0

Was ist Language Based BPM? Eine kurze Erklärung Version 1.0 Was ist Language Based BPM? Eine kurze Erklärung Version 1.0 Dieses Dokument wurde verfasst von Dr. Jürgen Pitschke, BCS-Dr. Jürgen Pitschke, www.enterprise-design.eu Diese Unterlagen können frei für nicht-kommerzielle

Mehr

Ausarbeitung des Interpreter Referats

Ausarbeitung des Interpreter Referats Ausarbeitung des Interpreter Referats Gliederung 1. Programmiersprache 1.2. Syntax 1.2.1. Konkrete Syntax 1.2.2. Abstrakter Syntax Baum (Abstrakte Syntax) 2. Parser 2.1. Syntaktische Struktur einer Sprache

Mehr

Wie man mit Change Management IT-Projektkosten senken kann

Wie man mit Change Management IT-Projektkosten senken kann Wie man mit Change Management IT-Projektkosten senken kann ein Artikel von Ulrike Arnold Kaum ein Projekt wird in der vorgegebenen Zeit und mit dem geplanten Budget fertiggestellt. Und das, obwohl die

Mehr

DIGICOMP OPEN TUESDAY AKTUELLE STANDARDS UND TRENDS IN DER AGILEN SOFTWARE ENTWICKLUNG. Michael Palotas 7. April 2015 1 GRIDFUSION

DIGICOMP OPEN TUESDAY AKTUELLE STANDARDS UND TRENDS IN DER AGILEN SOFTWARE ENTWICKLUNG. Michael Palotas 7. April 2015 1 GRIDFUSION DIGICOMP OPEN TUESDAY AKTUELLE STANDARDS UND TRENDS IN DER AGILEN SOFTWARE ENTWICKLUNG Michael Palotas 7. April 2015 1 GRIDFUSION IHR REFERENT Gridfusion Software Solutions Kontakt: Michael Palotas Gerbiweg

Mehr

1. General information... 2 2. Login... 2 3. Home... 3 4. Current applications... 3

1. General information... 2 2. Login... 2 3. Home... 3 4. Current applications... 3 User Manual for Marketing Authorisation and Lifecycle Management of Medicines Inhalt: User Manual for Marketing Authorisation and Lifecycle Management of Medicines... 1 1. General information... 2 2. Login...

Mehr

Understanding and Improving Collaboration in Distributed Software Development

Understanding and Improving Collaboration in Distributed Software Development Diss. ETH No. 22473 Understanding and Improving Collaboration in Distributed Software Development A thesis submitted to attain the degree of DOCTOR OF SCIENCES of ETH ZURICH (Dr. sc. ETH Zurich) presented

Mehr

1. Einleitung. 1.1. Ausgangssituation

1. Einleitung. 1.1. Ausgangssituation 1. Einleitung In der vorliegenden Arbeit wird untersucht, welche Faktoren den erfolgreichen Ausgang eines Supply-Chain-Projektes zwischen zwei Projektpartnern beeinflussen. Dazu werden zum einen mögliche

Mehr

IT Wirtschaftlichkeit. Themenenabend 01.09.2009 der Gesellschaft für Informatik, Regionalgruppe Köln

IT Wirtschaftlichkeit. Themenenabend 01.09.2009 der Gesellschaft für Informatik, Regionalgruppe Köln IT Wirtschaftlichkeit Themenenabend 01.09.2009 der Gesellschaft für Informatik, Regionalgruppe Köln Wirtschaftlichkeit IT / Olaf Sprenger / IT Controlling T-Mobile Deutschland 01.09.2009 Agenda Herausforderungen

Mehr

Taxonomy of Evolution and Dependability. Integration Engineering SS 2009 Andreas Landerer

Taxonomy of Evolution and Dependability. Integration Engineering SS 2009 Andreas Landerer Taxonomy of Evolution and Dependability Integration Engineering SS 2009 Andreas Landerer Agenda Informationen über Massimo Felici Definition zentraler Begriffe Inhalt des Artikels Kernaussagen des Artikels

Mehr

Multi-Vendor-Outsourcing und Produktisierung von IT-Services. Dr. Serguei Dobrinevski serguei.dobrinevski@hypersoft.com

Multi-Vendor-Outsourcing und Produktisierung von IT-Services. Dr. Serguei Dobrinevski serguei.dobrinevski@hypersoft.com Multi-Vendor-Outsourcing und Produktisierung von IT-Services Dr. Serguei Dobrinevski serguei.dobrinevski@hypersoft.com Einführung Hypersoft Information Systems Mehr als 200 Großkunden für die Service-Metrics-Software

Mehr

Eine ISO-Norm für Wissensmanagement?

Eine ISO-Norm für Wissensmanagement? Eine ISO-Norm für Wissensmanagement? 09.12.2014 von Christian Katz Die aktuelle Revision der ISO 9001 (Qualitätsmanagementsysteme) lädt ein, über die Harmonisierung aller Managementsystem-Normen nachzudenken:

Mehr

1 Einleitung. 1.1 Unser Ziel

1 Einleitung. 1.1 Unser Ziel 1 Dieses Buch wendet sich an alle, die sich für agile Softwareentwicklung interessieren. Einleitend möchten wir unser mit diesem Buch verbundenes Ziel, unseren Erfahrungshintergrund, das dem Buch zugrunde

Mehr

Exercise (Part II) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1

Exercise (Part II) Anastasia Mochalova, Lehrstuhl für ABWL und Wirtschaftsinformatik, Kath. Universität Eichstätt-Ingolstadt 1 Exercise (Part II) Notes: The exercise is based on Microsoft Dynamics CRM Online. For all screenshots: Copyright Microsoft Corporation. The sign ## is you personal number to be used in all exercises. All

Mehr