Engineering von Datawarehouse ETL-Prozessen als Bestandteil eines Business Performance Management Systems

Größe: px
Ab Seite anzeigen:

Download "Engineering von Datawarehouse ETL-Prozessen als Bestandteil eines Business Performance Management Systems"

Transkript

1 Freie wissenschaftliche Arbeit Zur Erlangung des akademischen Grades einer Diplom-Informatikerin über das Thema Engineering von Datawarehouse ETL-Prozessen als Bestandteil eines Business Performance Management Systems eingereicht im Fachbereich 2, Studiengang Informatik und Ingenieurwissenschaften der Fachhochschule Frankfurt vorgelegt von: Evgenia Davidenko Großer Hasenpfad Frankfurt am Main Matrikelnummer: Abgabetermin: Betreut von: Dr. Dipl.-Phys. Erwin Hoffmann und Dr. Matthias Schubert

2

3 Eidesstattliche Erklärung Ich versichere wahrheitsgemäß, die Diplomarbeit selbständig angefertigt, alle benutzten Hilfsmittel vollständig und genau angegeben und alles kenntlich gemacht zu haben, was aus Arbeiten anderer unverändert oder mit Abänderung entnommen wurde. Frankfurt am Main, Evgenia Davidenko

4

5 Danksagung Ich danke an erster Stelle der Fachhochschule Frankfurt und der Fachhochschule Coburg, die mir die benötigte Basis an Wissen und praktische Anwendung für dieses Projekt innerhalb Studienzeit gegeben haben. Ich danke der Colt Frankfurt und ganz besonders der Abteilung Controlling für die Bereitstellung der Thematik dieser Diplomarbeit. Besonders möchte ich mich bei dem Projektleiter Andrej Antonov für die Möglichkeit in seinem Projektteam diese Diplomarbeit zu entwickeln, und ebenso für seine Unterstützung, Geduld und engagierte Betreuung herzlich bedanken. Die Zusammenarbeit mit Colt- Team in einer freundlichen Atmosphäre hat mir viel neu erworbenes Fachwissen und Erfahrung für mein zukünftiges professionelles Leben gebracht. Ich danke ebenso dem AIS-Team in London, das als externes Team an dem Entwurf und Entwicklung des Projektes mitgearbeitet haben. Für die fachliche Betreuung der vorliegenden Arbeit im Fachbereich 2 an der Fachhochschule Frankfurt danke ich Dr. Erwin Hoffmann. Ganz besonders möchte ich Dipl.-Inf. Alexander Schoch für die mühsame Korrektur und fachliche Hilfe bei meiner Diplomarbeit danken. Zudem möchte ich meiner Familie danken, die mich von Anfang an moralisch unterstützt und mir immer die Kraft gegeben hat, diese Arbeit zu Ende bringen.

6

7 Einleitung i Einleitung Der Nachteil der Intelligenz besteht darin, dass man ununterbrochen gezwungen ist, dazuzulernen. George Bernard Shaw Mit dem Begriff Business Integration muss sich heutzutage jede Kapitalgesellschaft mehr oder weniger auseinander setzen. Der Begriff beschreibt das Unternehmenskonzept, das die verschiedenen Taktiken für maximale Leistungsfähigkeit und Profitabilität der Unternehmen enthält. Die beiden Faktoren sind nicht die einzigen Erfolgsmaßeinheiten. Die Eigenschaft eines Unternehmens sich gegen eine große Konkurrenz durchzusetzen, große Krisen zu überleben, rechtzeitig Risiken und Chancen zu erkennen das alles macht aus einem Unternehmen ein nicht nur heute erfolgreiches Unternehmen, sondern auch morgen. Um dies zu realisieren, haben die Unternehmensführungskräfte und Geschäftsanalytiker in den 1990er Jahren einen bisher fast unbekannten, IT-basierten Ansatz mit dem Namen Business Intelligence (BI) eingeführt. Der Begriff BI hat höchstwahrscheinlich seinen Ursprung in einer im Jahr 1958 veröffentlichten Arbeit A Business Intelligence System von einem deutschen Informatiker bei IBM Hans-Peter Luhn. Da beschreibt er ein System, das in automatisierter Form Dokumente analysiert und dann in einer Berichtsform an eine bestimmte Organisationsstelle weiterleitet. Im Punkt automatisiertes Analysieren klingt dieser Definition zuerst sehr technisch ist aber nicht nur das. Howard Dresner, ein Analyst der Gartner Group und ein BI-Visionär erläutert in einem Interview: Der Fokus muss auf dem Geschäft liegen, nicht auf der Technologie. Es geht einzig darum, die Menschen und die Prozesse zusammen zu bringen und mit dem Zweck der Organisation zu verschmelzen. [DrHoward] Später führt er noch einen weiteren innovativen Begriff ein: Business-Performance- Management (BPM). BPM wird als Weiterentwicklung von BI betrachtet. BPM konzen-

8 Einleitung ii triert sich mehr auf die Geschäftsprozesse eines Unternehmens. Deren Analyse, Monitoring, Kontrolle, Planung und Prognose, das alles sind Key-Prozesse für die unternehmensleitenden Positionen zur Unterstützung beim Treffen von Entscheidungen über Ziele und Richtlinien der Organisation. Das Performance Management liefert Ergebnisse über den Erfolg der Unternehmensführung und ist auch in der Lage die Aussagen über zukunftsbezogene Prozesse wie Planung und Prognose zu treffen. Technisch gesehen ist das Performance Management die Vermittlungsschicht bei der Kommunikation zwischen Enterprise Performance Management(ERP)- und Reportkomponenten. Mit Hilfe von BPM- Werkzeugen werden die Daten aus ERP-Applikationen extrahiert, transformiert in das für die BI-Plattform verständliche Format und für weitere Reporting- und Analyseprozesse fertiggestellt. Die Planungs- und Forecast-Daten aus Reporting-Komponenten werden dann wiederum anhand der BPM-Planungswerkzeuge in die ERP und Data Warehouse(DWh) transportiert. Diese Zusammenarbeit zwischen operativen und strategischen Ebenen wird durch BPM optimiert, teilweise automatisiert und dazu benötigte Ressourcen besser verteilt. Der detaillierte Blick über die BPM-relevanten Grundlagen und Techniken folgt in den nächsten Abschnitten dieser Arbeit.

9 Abstrakt iii Abstrakt Diese Diplomarbeit wurde in Colt Technology & Services im Zeitraum von 3 Monaten durchgeführt. Das Ziel der Arbeit ist die Unterstützung des Colt Teams bei der Business Performance Optimierung. Das Colt Management Team hat am Ende 2009 die Entscheidung getroffen, seine über 10 Jahre im Einsatz befindende Business Performance Management Plattform MIK durch eine leistungsfähigere Performance Plattform von SAP zu ersetzen. Dabei grenzen die Gestaltung und Implementierung von ETL-Prozessen mit anschließender Testphase dieses Projekt als Diplomthema ab. Den Durchblick von alten und neuen Systemen als Ganzes ist für die Realisierung der Diplomarbeit notwendig gewesen. Die Kennenlernphase reflektiert sich in dieser Arbeit im Kapitel 1 zuerst in Colt-Unternehmensvorstellung. Colt, als einer der größten europäischen Informations- und Telekommunikationsanbieter stellt eine umfangreiche Palette an Dienstleistungen für seine Kunden zur Verfügung. Die Beschreibung dieser Dienste stellt ebenso erstes Kapitel der vorliegenden Arbeit dar. Im Kapitel 2 (Theoretische Grundlagen) wurden die Recherchen in den Bereichen Business Intelligence und Business Performance zusammengefasst. Die dazu relevanten Definitionen von den einzelnen BI-Komponenten sind ebenfalls erklärt. Im Kapitel 3 ist das gesamte Migrationsprojekt Hercules, welches die Grundlage dieser Diplomarbeit darstellt, beschrieben. In Kapiteln 3.1 bis 3.3 sind die festgelegten Projektpläne und die zu erreichenden Projektziele erläutert. Diese Pläne und Ziele beziehen sich sowohl auf das gesamte Projekt, als auch auf das Diplomthema. Dabei wird ausführlicher auf die Business Performance-Problematik eingegangen. Der Ansatz zur Performanceoptimierung, die Erwartungen an die neuen Systeme, die Anforderungen an die ETL-Tools sowie die zur Verfügung stehenden Ressourcen werden in diesem Kapitel formuliert.

10 Abstrakt iv Kapitel 3.4 bis 3.7 repräsentieren die Ausgangslage, das Zielsystem und die Projektergebnisse. Kapitel 3.4 stellt das zu ersetzende Informationssystem MIK und die Gründe für ihre Ablösung vor. Kapitel 3.5 schafft einen Überblick über das neue System Business Planning and Consolidation (BPC) und erklärt die Auswahlkriterien, die Colt bei seiner Entscheidung für den BPC-Einsatz überzeugt haben. Im Kapitel 3.6 wird das SQL Server 2008 Enterprise Edition als Entwicklungs- und Datenplattform kurz dargestellt. Im Kapitel 3.7 wird der eigenentwickelte Teil des ETL-Prozesses, sowie ETL-Werkzeuge für das neue BPC-System beschrieben. In Kapiteln 4 und 5 werden die Ergebnisse sowohl dieser Diplomarbeit als auch des gesamten Projektes zusammengefasst.

11 Inhaltsverzeichnis v Inhaltsverzeichnis EINLEITUNG... I ABSTRAKT... III INHALTSVERZEICHNIS... V ABKÜRZUNGSVERZEICHNIS... VII 1 EINFÜHRUNG Colt Vorstellung Zielsetzung THEORETISCHE GRUNDLAGEN Business Intelligence(BI) Definition und Erklärung Phasen und Werkzeuge Business Performance Management(BPM) Vorteile von BPM Business Performance Management (BPM)-Modell BPM-Anbieter im Überblick Data Warehouse(DWh) Definition DWh-System Architektur ETL-Prozesse ETL-Entwurfskonzeption Klassische Architektur Online Analytical Processing (OLAP) OLAP-Charakterisik Multidimensionales Datenmodell Data Cubes OLAP-Architektur und Speicherungsarten PROJEKT HERCULES Projektziele Projektpläne Das Team Ausgangslage: MIKsolution+ als vorhandene BI-Plattform Komponenten Die Beschaffung und Speicherung der Daten... 28

12 Inhaltsverzeichnis vi Hauptkriterien für MIK-Ersetzung SAP BO Business Planning and Consolidation (BPC) als die künftige BPM-Plattform Warum BPC? Architektur im Überblick BPC-Umsetzung für Colt Vorteile gegenüber MIK MS SQL Server 2008 Enterprise Edition Das Datenbankmodul SQL Server Management Studio SQL Server Integration Services (SSIS) Business Intelligence Development Studio (BIDS) ETL-Prozesse ETL-Architektur und -Prozessablauf Quelldatenbanken BPC-Applikationen ETL-Views Übersicht OHS-Paket für Waterfall-Applikation ZUSAMMENFASSUNG FAZIT UND AUSBLICK ANHANG LITERATURVERZEICHNIS ABBILDUNGSVERZEICHNIS TABELLENVERZEICHNIS GLOSSAR... 73

13 Abkürzungsverzeichnis vii Abkürzungsverzeichnis API... Application Programming Interface BI... Business Intelligence BPM... Business-Performance-Management ERP... Enterprise Resource Planning ETL... Extract, Transform, Load ODBC... Open Database Connectivity JDBC... Java Database Connectivity COM... Component Object Model CRM... Customer -Relationship -Management CMS... Colt Content-Management Services-System KPI... Key Performance Indicators MOLAP... Multidimensional Online Analytical Processing OHS... Order Handling System ODBC... Open Database Connectivity OLAP... Online Analytical Processing OLE DB... Object Linking and Embedding, Database OLTP... Online Transaction Processing PR... Public Relations ETL... Extract, Transform, Load ERP... Enterprise Resource Planning FH... Fachhochschule BI... Business Intelligence IBM... International Business Machines Corp. BPM... Business-Performance-Management IP... Internet Protocol IT... information technology MIK... Management Information Kommunikation Technology SRM... Supplier Relationship Management TCO... Total Cost of Ownership UML... Unified Modeling Language E/R... Entity/ Relationship (Model) SSIS... SQL Server Integration Services BIDS... Business Intelligence Development Studio UAT... User Acceptance Test DEV... Development

14

15 Einführung 1 1 Einführung 1.1 Colt Vorstellung Colt als einer der führenden Anbieter von Informations- und Telekommunikationstechnologie in Europa bietet heutzutage seinen Kunden eine ganze Palette an Telekommunikations- und Dienstleistungen. Die Colt-Kunden: Großunternehmen, kleine bis mittlere Unternehmen sowie Großhandel, stellen Daten-, Sprach- und Managed Services zur Verfügung. Die weltweit 25 wichtigsten Finanzinstitute, 67 der 100 wichtigsten europäischen Banken und 20 europäische Börsen sind die Stammkunden von Colt. Die Colt Telecom Group S.A. wird an der Londoner Börse gehandelt und hat mehr als 50 Auszeichnungen erhalten, darunter den Preis «EMEA Ethernet Service Provider of the Year» des Metro Ethernet Forum (2008) sowie den World Communication Award für «Best Brand» (2007). Das Netz von COLT umfasst eigene Stadtnetze in den 34 wichtigsten europäischen Metropolen mit direkten Glasfaserverbindungen in Gebäuden und 19 eigenen Rechenzentren. Die Muttergesellschaft COLT Telecom Group S. A. beschäftigt rund 3850 Mitarbeiter und ist an der London Stock Exchange gelistet. Im Geschäftsjahr 2006 wurde ein Gesamtumsatz von über 1,8 Milliarden Euro erzielt.

16 Einführung 2 Das Nutzungsverhalten und die Kundenanforderungen waren für Colt immer die Entscheidungspunkte bei der Produktentwicklung. Um die dazu benötigten Daten schneller analysieren zu können, hat sich Colt für ein zentrales DWh entschieden. Colt s DWh dient als Informationslager für verschiedene Systemeinheiten und bietet mehr als drei Terabytes an Datenkapazität. Als Software für das DWh hat sich Colt für ein Produkt von Oracle entschieden. Die wichtigen Anforderungen an das neue System waren: Möglichkeit einer Ad-hoc-Analyse Unterstützung der Standartberichte und weiteren erforderlichen Analysen über das Internet Geschäftsdatenkonsolidierung Ab Februar 2010 hat sich Colt von seinem Dreieckbrand und dem Namen Colt Telecom verabschiedet. Seit diesem Moment besteht der Name Colt Technology Services GmbH. In Deutschland befindet sich der Hauptsitz von Colt in Frankfurt. Die weiteren Informationen über Colt befindet sich unter

17 Einführung Zielsetzung Die bei Colt zur Projektbeginn vorhandene MIK-Plattform wird aus Performance Gründen durch SAP BPC ausgewechselt. Der Datenintegrationsprozess im neuen BPC-System soll durch einen ETL-Werkzeug unterstützt werden. Der MS SQL Server 2008 Enterprice Edition als BPC-Applikations- und Entwicklungsserver, bietet eine vielfältige Integrationsplattform. Das Ziel dieser Diplomarbeit ist die Konzeption der ETL-Architektur, Erstellung der ETL- Interfaces (Views) und Server-seitige SSIS-Implementierung. Das Ziel der Implementierung ist die Bereitstellung der Daten für die in BPC definierten Cubes. Die Views stellen dabei die Mapping-Funktionen dar, welche die Daten aus externen Quellen entsprechend einem für BPC geeigneten Format zusammenfassen.

18 Theoretische Grundlagen 4 2 Theoretische Grundlagen Um einen Einblick in das Diplomthema zu verschaffen, werden zuerst die Grundlagen der Business Intelligence und Business Performance erläutert. 2.1 Business Intelligence(BI) Definition und Erklärung Der Begriff BI wird immer wieder stark diskutiert. Allgemein versteht man darunter die Aufbereitung und die Bereitstellung von Information in elektronischer Form für analytische Zwecke. Die Information kann dabei sowohl aus internen als auch aus externen Quellen gewonnen werden. Je rechtzeitiger und vertraulicher die Informationsquellen sind, desto höher ist die Relevanz der gewonnenen Erkenntnisse. Das Wort Intelligence muss man hier als die aus diesen Informationen kommenden Erkenntnisse verstehen. Man kann auch sagen, dass aus geschäftlicher Perspektive ein Unternehmen dann intelligent ist, wenn die operativen und strategischen Entscheidungen richtig getroffen werden. Hier spricht man gleichzeitig über Erfolg oder gute Performance des Unternehmens Phasen und Werkzeuge Technisch gesehen, lässt sich BI in die drei Bereiche unterteilen: Datenerfassung, Datenhaltung und Datenbereitstellung. Bei der Datenerfassung werden die aus operativen Systemen gewonnenen Daten für die analytischen Zwecke zusammengeführt. Operative Systeme, wie Buchungs- oder Warenwirtschaftssysteme sind häufig heterogene Quellen, die große Datenmengen für das

19 Theoretische Grundlagen 5 Unternehmen liefern. Diese Daten sind meist transaktionsorientiert und auf eine bestimmte Ist-Situation und -Zeit bezogen. Die Qualität solcher Daten ist oft sehr mangelhaft. Die Situationen wie mehrfach gespeicherte, fehlende oder inhaltlich falsch gespeicherte Daten sind kein seltenes Ereignis. Solche Daten sind für die Benutzer kaum verwertbar. Die Informationen müssen zuerst transformiert, bereinigt und meist in einer zentralen Datenbank (oft in Form eines DWh) persistiert werden. Für diese Zwecke steht eine große Menge der ETL-Werkzeuge zur Verfügung. Eine sichere, dauerhafte und strukturierte Datenhaltung ist heute bei jedem Unternehmen, das mit mehr oder weniger großen Datenmengen arbeitet ein primäres Ziel geworden. Dabei müssen die Risiken, wie physikalischer Verlust, Verlust an der Integrität, oder Verwendung der unvertraulichen Daten vermieden werden. Der Ansatz für die Datenmodellierung verdient an dieser Stelle die höchste Aufmerksamkeit. Ein Datenmodell entsteht aus einem Fachkonzept nach einer genauen Analyse mit Hilfe von einem geeigneten Modellierungswerkzeug. Der standardisierte und sich als sehr nutzbar erwiesene Ansatz dafür ist die Entity-Relationship-Modellierung (ERM). Auf dessen Grundlage entsteht eine konzeptionelle Datenstruktur, die Informationsobjekte und deren Beziehungen beschreibt und identifiziert. Im BI-Umfeld werden die Objekte dann in der Form von multidimensionalen Datenbanken gespeichert. Die letzte Phase des BI-Prozesses ist die Datenbereitstellung. Diese Ebene gibt den Benutzern Zugang zu den Daten, um solche Analysewerkzeugen, wie Online Analytical Processing(OLAP), Data Mining, Reporting, Balanced Score Card und Dashboards nutzen zu können. Die genaue Erklärung und Beschreibung dieser Werkzeuge folgt in den nächsten Abschnitten dieses Kapitels. Die folgende Abbildung zeigt die typischen Einsatzbereiche der BI-Lösungen.

20 Theoretische Grundlagen 6 Abbildung 1: Die häufigsten Einsatzbereiche von BI-Funktionalitäten in deutschen Unternehmen [dynamicit]

21 Theoretische Grundlagen Business Performance Management(BPM) Business Performance Management oder auch Corporate Performance Management (CPM) kann man als Weiterentwicklung von BI ansehen. Der traditionelle Business Intelligence-Ansatz hat mit der Zeit einige kritische Schwachstellen besonders im Bereich der Wertschöpfung und den Zukunftsanalysen eines Unternehmens gezeigt. Der BPM-Ansatz macht die permanente Messung und kontinuierliche Kontrolle der Unternehmenszielerreichung möglich Vorteile von BPM Das BPM deckt die oben genannten BI-Defizite in dem es: eine sehr präzise und konsistente Informationen dem Anwender bietet, die Informationen mit Echtzeit - Geschwindigkeit bereitstellt, einen messbaren Vergleichswert von Strategie und Ergebnis des Unternehmens liefert, die Geschäftsprognose genauer definieren lässt, die Verwaltung von Informationsressourcen und zwar Informationsbereitstellung nach Bedarf und Informationszugang optimiert, und bessere Prozesskontrolle und Transparenz bietet. Das BPM orientiert sich gegenüber BI mehr auf Prozesse. Die Automatisierung, die Integration und die Kommunikation zwischen den Geschäftsprozessen ist der zentrale Punkt. Man spricht ab jetzt nicht nur über die Unternehmensziele, sondern über eine Symbiose zwischen Unternehmens- und Prozesszielen. Die Grundlage für die Messung der Prozesszielerreichung sind sogenannte Key Performance Indicators (KPIs). Die Aufgabe von KPIs ist die Bewertung von Leistungsfähigkeit und Qualität der Unternehmensperformance. Also man kann sagen, das BPM hat BI noch intelligenter gemacht, indem es einen weiteren Aspekt mit sich gebracht hat, und zwar Geschäftsanalytik.

22 Theoretische Grundlagen Business Performance Management (BPM)-Modell BPM funktioniert nach dem Prinzip des Closed-Loop-Modells, welches in der nächsten Abbildung schematisch dargestellt ist. Abbildung 2: BPM-Modell Von der traditionellen BI-Lösung unterscheidet sich dieses Modell in dem Sinne, dass hier zwei für die BI neuen Aspekte berücksichtigt werden. Als erstes verbindet die BPM- Lösung die strategische Unternehmenszielsetzung-Ebene mit der Unternehmenszielerreichung-Ebene. Zweitens kommt eine schnelle, echtzeitbezogene Reaktion auf die Zielerreichungsleistung. Die operativen und analytischen Informationen sind keine Einzeleinheiten mehr, sondern die Teile eines großen Systems, die ihrerseits gegenseitige Abhängigkeiten aufweisen BPM-Anbieter im Überblick Der Markt der BPM-Lösungen entwickelt sich rasant und verspricht auch in der Zukunft ein großes Wachstum. Die führenden Hersteller wie SAS, IBM, SAP, Oracle und Microsoft bieten den Kunden eine große Auswahl an Tools, Technologien und Anwendungen an. Der Ausbau von Business Intelligence-Plattformen zu Enterprise Performance Management (EPM) rentiert sich. Die Marktforscher von Gartner prognostizieren in ihrem Magic Quadrant for Business Intelligence Platforms, dass EPM-Anwender bis 2011 um 30 Prozent besser abschneiden als ihre Wettbewerber. Der Grund: EPM fördert die Leistungsorientierung, und das schlägt positiv in der Bilanz zu Buche. [CFOworld]

23 Theoretische Grundlagen 9 Wie es aus der nächsten Abbildung sichtbar wird, könnten die Unternehmen, welche die eigenen BI-Lösungen anbieten, ihre Umsätze im Jahr 2008 deutlich steigern. Abbildung 3: Umsätze mit BI-Software 2008 in Deutschland [beyenetwork] Der Markt der Anbieter ist sehr stark von der Konkurrenz ausgeprägt und es gibt keine unangefochtenen Marktführer, obwohl SAP mit den 110 Mio. Umsatz seine Positionen immer stärker ausbaut. SAP folgt dicht Oracle mit den 104 Mio. Umsatz. Die weiteren großen Anbieter sind SAS, IBM und Microsoft.

24 Theoretische Grundlagen Data Warehouse(DWh) Eine der zentralen strategischen Aufgaben der BI ist die Konsolidierung des unternehmensweiten Datenbestandes als Quelle für das gesamte Berichtswesen eines Unternehmens. Diese Zentralisierung kann durch verschiedene Systemkomponenten, wie eine oder mehrere zusammenverbundene physische Datenbanken oder Data Warehouse, umgesetzt werden. Die klassische und meistangewendete BI-Lösung stellt Data Warehouse dar Definition Die am häufigsten verwendete Definition von DWh ist die Definition von Inmon 1 (1996): A data warehouse is a subject-oriented, integrated, time-variant, non-volatile collection of data in support of management s decision-making process. [WikiDWh] Wikipedia definiert so die obengenannten Aspekte: subject-oriented (Themenorientierung): Die Auswahl der in das Data-Warehouse zu übernehmenden Daten geschieht nach bestimmten Datenobjekten (Produkt, Kunde, Firma, u.ä.), welche für die Analysen von Kennzahlen für Entscheidungsprozesse relevant sind, nicht hingegen nach operativen Prozessen. integrated (Vereinheitlichung): Im DWh werden die in verschiedenen operativen Quellsystemen in meist heterogenen Strukturen vorliegenden ausgewählten Daten in vereinheitlichter Form gehalten. time-variant (Zeitorientierung): Analysen über zeitliche Veränderungen und Entwicklungen sollen im DWh ermöglicht werden; daher ist die langfristige Speicherung der Daten im DWh nötig (Einführung der Dimension Zeit ). non-volatile (Beständigkeit): Daten werden dauerhaft (nicht-flüchtig) gespeichert. 1 William Harvey Bill Inmon ist ein US-Informatiker und gilt als Vater des Data-Warehousing (Wikipedia)

25 Theoretische Grundlagen 11 Diese Definition beschreibt das DWh als reines physisches Datenlager, das eine einheitliche Sicht auf die Daten zur Verfügung stellt. Das DWh ist ein Bestandteil eines Data Warehouse Systems. Dieses enthält außer der DWh-Datenbank noch weitere Komponenten, wie Datenbereitstellungskomponente (ETL), Repositorium (DWh-Metadaten Datenbank), Data Warehouse Manager und Metadatenmanager DWh-System Architektur Data Warehouse System, welches eine Architekturgrundlage für die BPM bildet, konzipiert sich nach dem Motto: richtige Informationen zur richtigen Zeit und am richtigen Ort. Data Warehouse ist ein zentrales heterogenes Datenlager eines Unternehmens. Die Daten werden aus verschiedenen internen und externen Quellsystemen gespeist, und werden per ETL-Tools für die Analyse integriert und bereitgestellt. In der Abbildung 4 ist der Prozess des Data Warehousing dargestellt. Das Data Warehouse Datenmodell ist in der Regel multidimensional strukturiert. Der DWh-Manager ist ein Steuerungselement des ganzen Systems. Er kontrolliert den ganzen ETL-Prozess und steuert die Analysekomponente. Das Metadata-Repository verwaltet die Metadaten, die alle Datensatzdefinitionen beinhalten. Abbildung 4: Data Warehouse System Architektur

26 Theoretische Grundlagen ETL-Prozesse Der Extract, Transform, Load (ETL)-Prozess ist für die Datenbeschaffungskomponente in einer BI-Lösung verantwortlich. Dabei werden die operativen Daten in einer für die Analyse passenden Struktur transformiert. Man spricht hier von dem Datenintegrationsprozess. Eine umfassende Analyse der auf dem Markt bereits existierenden ETL-Tools und eine grundlegende Entscheidung für die Werkzeuge und deren unternehmensspezifische Anpassung sind schon im Vorfeld jedes ETL-Projektes sehr wichtig. Die eigene Entwicklung von ETL-Prozessen kostet Zeit, Geld und die Risiken der Zielerreichung steigern sich dabei immens. Hier darf man nicht intuitiv handeln. Über wichtige Aspekte, wie Konzeption, Architektur, Engineering, Integrität, Bedienbarkeit und Unternehmensanpassung von ETL-Tools wird in weiteren Abschnitten dieses Kapitels diskutiert ETL-Entwurfskonzeption Die Entwicklung von ETL-Tools fängt bei der genauen Analyse des IST-Zustands an. Der IST-Zustand entspricht einer zum Projektbeginn vorhandenen Ausgangslage des ganzen Informationssystems. Dabei werden alle Funktionsabläufe und Datenmodelle (falls vorhanden) genau untersucht, um die noch nicht bekannten Schwachstellen des Systems zu finden und ihre Ursachen festzustellen. Die dabei häufig auftretenden Mängel sind zum Beispiel: unvollständige, falsch gebuchte, schwer zu findende oder nicht dem Standard entsprechende Daten, sowie fehlende oder schlechtprogrammierte Kommunikationsschnittstellen und viele andere Defizite. Eine Zusammenarbeit von Entwickler und System-Benutzer ist an dieser Stelle sehr wichtig.

27 Theoretische Grundlagen 13 Während der Ist-Analysephase entsteht ein dokumentiertes IST-Konzept, das später als Vorlage für das SOLL-Konzept eingesetzt wird. Bei dem SOLL-Konzept werden die Maßnahmen und Alternativen diskutiert, welche als Lösung für die in der IST-Analysephase entdeckten Defizite und Potenziale dient. Nachdem die IST-Analyse- und die SOLL-Konzeptphase abgeschlossen sind und die Zielsystemanforderungen klar definiert sind, entsteht ein erstes Fachkonzept und Plan für das Projekt. Für die konkrete SW-Umsetzung wird in diesem Konzept noch eine technische Sicht, bezogen auf Datenqualität, Datenabfragehäufigkeit, Datenstrukturen, Datenmanipulationsmöglichkeiten und Schnittstellen, beschrieben. Dabei werden solche Design-Elemente wie E/R-Diagramme oder UML-Mechanismen verwendet, damit eine einheitliche Sicht verschiedener Projektteilnehmer entsteht, sowohl Kunden- als auch Entwickler-seitig. Der Detailierungsgrad dieses Konzepts kann unterschiedlich sein. Aber je ausführlicher dieses Dokument geschrieben wird, desto weniger Missverständnisse entstehen und desto weniger Anpassungsaufwände in der SW-Entwicklungsphase nötig sind. Das Feinkonzept oder Pflichtenheft, das als letztes Konzeptionsdokument entsteht, dient als eine Art von Vertrag zwischen Projektbeauftragtem und Projektentwickler. Dieses Dokument wird von beiden Seiten unterschrieben und damit verbindlich anerkannt Klassische Architektur Alle heute auf dem ETL-Markt vorhandenen ETL-Tools funktionieren allgemein nach dem Prinzip der klassischen ETL-Architektur. Wie in der Abbildung 5 dargestellt ist, besteht diese Architektur aus den drei miteinander kommunizierenden Komponenten: Quelldaten-, Arbeits- und Datenhaltungsbereich.

28 Theoretische Grundlagen 14 Abbildung 5: Klassische ETL-Architektur Quelldaten sind die für das DWh relevanten Daten, die aus unterschiedlichen externen oder internen Informationssystemen, wie ERP, CRM, CMS regelmäßig, meist asynchron extrahiert werden. Während der Extraktionsphase werden die Daten minimal transformiert. Der Grund dafür ist, dass die Quellsysteme durch den Extraktionsprozess sehr belastet werden und der Prozess zeitbezogen möglichst minimal sein muss. Die Schnittstellen zu den operativen Systemen sind heterogen. Diese sind: offene Standards, proprietäre Schnittstellen, API(Application Programming Interface)-basierte Schnittstellen und Interfaces zu externen Informationssystemen [DWhKatalog, S.43] Arbeitsbereich oder Staging-Area ist ein Zwischenspeicherbereich, welcher zur Transformation und zur Qualitätssicherung der extrahierten Daten dient. Erster Schritt des Transformationsprozesses ist die Schemaintegration dieser heterogenen Daten. Die Quelldaten werden strukturiert und normiert, so dass diese am Ende des Prozesses einem einheitlichen globalen Schema entsprechen. Die Daten, die aus unterschiedlichen Systemen geholt werden, können dupliziert gebucht werden. An dieser Stelle wird ein automatisches Duplikatenerkennungsverfahren eingesetzt. Um Datenkonflikte

29 Theoretische Grundlagen 15 zu vermeiden ist die weitere Aufgabe der Transformationsfunktion die Datenfusion oder Datenverdichtung. Datenfusion ist ein Teil eines Datenbereinigungsprozesses oder Data Cleaning. Data Cleaning ist eine Transformation, welche die Datenqualität erhöht. Die primäre Aufgabe des Arbeitsbereiches ist die Garantie eines konsistenten und vollständigen Datenbestandes für den Präsentationsbereich. Datenhaltungsbereich (DWh): Nachdem die Daten in eine für das DWh geeignete Form standardisiert und bereinigt worden sind, sind sie bereit für den Load-Prozess. Dafür werden Ladewerkzeuge, sogenannte Loader verwendet. Zusätzlich werden die Daten historisiert. Das bedeutet, sie sollen im DWh nicht überschrieben werden. Die Schnittstellen, welche zum Load benötigt werden, sind Standard-Datenbank-Schnittstellen (zum Beispiel ODBC, JDBC).

30 Theoretische Grundlagen Online Analytical Processing (OLAP) Nach dem die Daten erfolgreich in das DWh geladen wurden, sind sie noch nicht bereit für die analytische Verarbeitung. Sie repräsentieren allerdings eine homogene Basis für die analytischen Werkzeuge des DWh-Systems. Drei Arten von diesen Werkzeugen stehen heute zur Verfügung: Data Mining, Data Access und OLAP. Das Data-Access Tool ist ein Berichtswesen-Tool, das unter Verwendung einfacher arithmetischer Operationen die Daten verändern kann. Data Mining sucht automatisiert nach Datenzusammenhängen und Mustern, um ein gemeinsames Verhalten der Daten zu erkennen. Das Ziel dabei ist, dem Unternehmen Prognosen zu liefern, die später strategisch eingesetzt werden können OLAP-Charakterisik OLAP ist eine Datenhaltung-Softwaretechnologie, die benutzerfreundlich und flexibel die Zugriffe auf die in Data Warehouse oder operativen Systemen gespeicherten Daten ermöglicht. Das OLAP-Konzept lässt sich durch FASMI-Regeln charakterisieren. Das Akronym FASMI steht für Fast Analysis of Shared Multidimensional Information und besteht aus folgenden Eigenschaften, welche in der nächsten Tabelle aufgezeigt sind: Eigenschaft Fast Analysis Shared Multidimensional Information Beschreibung stabile Antworten auf zeitkritische Abfragen Verfahren zu mathematischen Berechnungen und Strukturanalyse Sicheres System für Mehrbenutzerbetrieb Multidimensionale Datensicht aus den Daten gewonnenen Informationen für die Benutzer Tabelle 1: Die FASMI-Eigenschaften Die Eigenschaft Multidimensional verdient eine gesonderte und detaillierte Beschreibung.

31 Theoretische Grundlagen Multidimensionales Datenmodell OLAP basiert auf einer multidimensionalen Datenanalyse. Relationale Datenbanken bestehen aus miteinander verknüpften zweidimensionalen Tabellen. In einer multidimensionalen Datenbank werden Dimensionen miteinander verknüpft. Die multidimensionale Darstellung der Daten hat wesentliche Vorteile gegenüber der Relationalen: subjektorientiert, schnelle Antwortzeiten auf komplexe Abfragen, Mechanismen zur automatisierten Verarbeitung von historischen, aggregierten Daten geringer Speicherbedarf durch Kompressions-Techniken schnelle Kalkulation bessere Erweiterbarkeit In einem multidimensionalen Modell werden die Daten in die Fakten- und die Dimensionstabellen gespeichert. In den Fakten-Tabellen werden die Kennzahlen gespeichert. Die Dimensionen betrachten die Kennzahlen aus unterschiedlichen Perspektiven (kundenbezogen, zeitbezogen, produktbezogen usw.). Die Dimensionen bilden eine mehrdimensionale Struktur, die Data Cube heißt Data Cubes Ein Data Cube oder ein Würfel ist eine logische Datenstruktur, die unterschiedliche Sichten auf Unternehmenskennzahlen darstellt. Abbildung 6: Data Cube

32 Theoretische Grundlagen 18 Der in Abbildung 6 vorgestellte Würfel besitzt die drei Dimensionen: Zeit, Kunde und Produkt. Der Würfel selbst ist eine Kennzahl, zum Beispiel Umsatz, Gewinn. Diese dreidimensionale Darstellung ist einfach und visuell gut verständlich. In der Praxis aber besitzen solche Cubes mehrere Dimensionen und heißen Hypercubes. Die Dimensionen sind auf dem Bild als große Einheiten oder aggregiert (vereinigt oder gruppiert) dargestellt. Bei den Data Cubes wird aus den einzelnen Werten der Dimensionselemente eine Summe gebildet. Die aggregierten Daten stellen eine gute Basis zur Berechnung solcher mathematischer Funktionen, wie Mittelwert, Maximum, Minimum und Summe dar. Eine OLAP Hyper-Cubes-Darstellung wird in der folgenden Abbildung dargestellt. Abbildung 7: OLAP-Cube [basegroup] Jeder einzelne kleine Cube in diesem OLAP-Cube lässt sich durch seine Dimensionsausprägungen genau identifizieren. Die Dimensionsausprägungen nennt man auch die Dimensionshierarchien. Den aggregierten Wert einer Dimension nennt man Vater (Parent). Das hierarchische Element -Kind (Child). Es gibt eine Reihe von den OLAP- Standardoperationen.

33 Theoretische Grundlagen 19 Abbildung 8: OLAP-Filterfunktionen: Slice und Dice ([olapcube]) Slice Das Herausschneiden einer Dimensionsscheibe aus dem OLAP-Cube. Dice ist das Herausschneiden eines kleinen Cubes aus dem OLAP-Cube. Und die Navigationsfunktionen: Roll-up, Drill-down: Abbildung 9: OLAP-Funktionen: Roll-up und Drill-down Roll-up generalisiert die einzelnen Werte der Dimensionshierarchie. Drill-down detailliert die aggregierten Werte.

34 Theoretische Grundlagen OLAP-Architektur und Speicherungsarten Die multidimensionale logische Datendarstellung wird anhand der Würfel realisiert. Die Speicherung der Daten in der relationalen Datenbank wird über das Star-Schema oder das Snowflake-Schema dargestellt. Abbildung 10: Star-Schema [2cool4u] Das Star-Schema enthält eine Fakten-Tabelle und mehrere Dimensionstabellen. Der große Vorteil dieses Schemas liegt darin, dass es die Anzahl der relationalen Tabellen reduziert und dadurch schnellere Leseoperationen liefert. Die Faktentabelle entspricht einem Würfel aus der multidimensionalen Sicht. Die Fakten- und Dimensionstabellen sind anhand der Schlüssel miteinander verbunden. Das Snowflake-Schema ist eine normalisierte Form des Star-Schemas. Hier wird jedes Element einer Dimensionshierarchie in einer weiteren Tabelle gespeichert.

35 Theoretische Grundlagen 21 Abbildung 11: Snowflake-Schema [2cool4u] Das Schema besitzt zwar eine bessere Datenstruktur und ist weniger redundant, liefert aber wegen der großen Anzahl von Joins die sehr langsamen Antwortzeiten. Von diesen zwei Schemas wird das Star-Schema aufgrund des schnelleren Lesezugriffs bevorzugt, da der große Speicherbedarf der Dimensionstabellen vergleichsweise weniger Nachteile darstellt. Der Speicherungstechnik von den multidimensionalen Daten stehlen aktuell die drei häufig eingesetzten Alternativen zur Verfügung: Relationales OLAP (ROLAP), Multidimensionales OLAP (MOLAP) und Hybrides OLAP (HOLAP). ROLAP speichert dimensionale Daten in Form von relationalen Tabellen (Star-Schema, Snowflake-Shema) und nutzt die SQL-Abfragesprache. Bei der Abfrage wird auf den gesamten Datenbestand zugegriffen. Es wird meistens bei den OLTP-Systemen verwendet.

36 Theoretische Grundlagen 22 MOLAP dagegen speichert die Daten in einer multidimensionalen Form. Es basiert nicht auf SQL, sondern auf einer eigenen Softwareschnittstelle. Die Daten werden zuerst in eine multidimensionale Struktur kopiert und erst anschließend zugegriffen. Abbildung 12: ROLAP- und MOLAP-Implementierung [gravitar] HOLAP ist eine gemischte Form von ROLAP und MOLAP. Die Dimensionen bei HOLAP sind in einer relationalen Form und die Aggregationen in einer multidimensionalen Form gespeichert. Damit können die Vorteile beider Speicherungsvarianten genutzt werden.

37 Projekt Hercules 23 3 Projekt Hercules Colt benutzte zu Beginn des Projektes MIKsolution+. Dies ist ein Datenbank-Tool, welches primär beim Berichtswesen und bei der Finanzanalyse eingesetzt wird. In letzter Zeit gab es mehr und mehr Performanceprobleme. Die zwei wichtigsten Kriterien, warum Colt sich entschieden hat MIK zu ersetzen, ist die Performance, sowie der Fakt, dass von MIK kein IT-Support zur Verfügung gestellt wird. 3.1 Projektziele Der Zweck des Projektes ist die Ersetzung aller derzeit vorhandenen Funktionalitäten von MIK mit SAP BO Business Planning and Consolidation und deren Erweiterung mit der relevanten Prozessoptimierung und Konsolidierung von Berichtswesen, Einführung der neuen Produktfunktionalitäten, wie dem Process-Workflow und Drill-through zu den transaktionalen Datenquellen (z.b. Data Warehouse). Zusammengefasst ist das wichtigste Ziel des Projektes- die Migration der in MIK vorhandenen Funktionen (Forecasting, Prognose-Rechnung, Budgeting und Management Reporting) auf eine stabile Plattform. Das Colt-IT-Team sollte dabei die in der BPC-Technologie eingesetzten Best Practices umsetzen(verwenden). Die Colt-Finanz-Fachleute erwarten von diesem Projekt eine aussagekräftige Verbesserung des Systems durch zusätzliche Funktionen und optimierte Reporting-Tools (Drill-through zu den Transaktionen, umfangreiche und automatisierte Report-Erstellung).

38 Projekt Hercules Projektpläne Der Schwerpunkt des Projektes Hercules ist die Implementierung des fit for purpose Prozesses für das BPM. Das Projekt besteht aus den folgenden, in den verschiedenen Phasen implementierten Ansätzen (Abbildung 13): Abbildung 13: Phase 1 (geplanter Produktiveinsatz Juli 2010) Die zum Projekt gehörenden Meilensteine sind: März 2010 die BPC-Applikationen und -Strukturen sind implementiert und bereit für das Reporting April erste Version von go live. Import-Prozesse sind basierend auf dem vorhandenen Import-Prozess von Oracle zu MIK implementiert. Juli 2010 Die Workflow-, die Budget- und die Forecast-Prozesse sind implementiert. Drill-Through zu den im Data Warehouse transaktionalen Daten steht zur Verfügung.

39 Projekt Hercules Das Team An dem Projekt Hercules arbeiten zurzeit 14 Teammitglieder. Drei Kollegen sind auf der Seite von AIS tätig. AIS ist ein englisches Performance Management Beratungsunternehmen, das sich auf die Umsetzung von SAP Business Planning and Consolidation (BPC) spezialisiert hat. Weitere Informationen über AIS befinden sich unter Auf der Seite von Colt sind elf Mitarbeiter an dem Projekt beschäftigt. Das Colt-Team ist verstreut, so dass sich vier Kollegen in London, fünf in Indien und zwei weitere in Frankfurt befinden. Die Projektsprache ist Englisch. Durch tägliche Telefonkonferenzen und gepflegte Projektdokumentation sind alle Projektbeteiligten immer über den neuesten Stand der Projektentwicklung informiert. 3.4 Ausgangslage: MIKsolution+ als vorhandene BI-Plattform Das im Jahr 1986 in Deutschland gegründete Beratungs- und Softwareentwicklungsunternehmen MIK AG ist der Hersteller der bis zu diesem Zeitpunkt bei Colt verwendeten MIS- Plattform MIKsolution+ (im Folgenden MIK genannt). MIK ist eine durchgängige Data Warehouse Lösung für alle Systemanwender, wie Top-Management, Controlling und Fachabteilungen. MIK stellt ihren Anwendern eine konsistente Datenbasis zur Verfügung, damit die Unternehmensentscheidungen vergleichbar und nutzbar sein können. Die für Kunden angebotenen Komplettlösungen unterstützen vor allem die Bereiche Planung, Analyse und Reporting. Der große MIK-Erfolgsfaktor besteht darin, dass MIK als deutscher BI-Hersteller mit seiner mehr als zwei Jahrzehnte langen Erfahrung seiner Business-Intelligence-Produkte die speziellen Unternehmensbedürfnisse des europäischen Marktes kennt und realisiert. Die MIK-Berater unterstützen ihre Kunden nicht nur bei der Analyse von betriebswirtschaftlichen Unternehmenspositionen, sondern auch während der Produktintegration des dazugehörenden Projektmanagements sowie der Projektrealisierungs- und Trainingsphasen.

40 Projekt Hercules 26 Heutzutage zählen mehr als Unternehmen aus verschieden Branchen zu den MIK- Kunden. Die Audi AG, Daimler AG, Mercedes-Benz AG, Porsche AG, EDEKA GmbH, Deutsche Telekom AG, Siemens AG und viele weitere große Unternehmen kontrollieren ihre Geschäftsprozesse und treffen unternehmenswichtige strategische Entscheidungen mit Hilfe von intelligenten Businesslösungen von MIK Komponenten Die im Bild 14 vorgestellten Komponenten stehen dem Benutzer von MIK zur Verfügung. Abbildung 14: MIKsolution+ Komponente [mik.de] MIK OLAP ist eine leistungs- und anpassungsfähige, multidimensionale Datenbank. Mit dem unterstützten Mehrbenutzerbetrieb ist eine schnelle und flexible Datenanalyse und - abfrage problemlos durchzuführen. MIK OLAP beinhaltet eine Reihe von Anwendungen mit einer großen Anzahl von hierarchisch strukturierten Dimensionen.

41 Projekt Hercules 27 Typische Anwenderbereiche sind: Qualitäts-Controlling Systeme Human Resources (HR) Informationssysteme Customer Relationship Management (CRM) Systeme Marketing Informationssysteme Logistik Informationssysteme MIK-ONE ist ein interaktives Management- und Controlling-Tool, das alle benötigten Informationen in einem geeigneten Format zeigt. MIK-ONE mit seinen verschiedenen Tabellen, Graphiken, Spreadsheets, kundenorientierten Abfrage-Tools und anspruchsvollen, standardisierten Analysemöglichkeiten unterstützt hauptsächlich die Benutzer, die für Reviews und Diagnostik-Arbeit verantwortlich sind. Das Tool enthält auch eine zentrale Sammlung von Standard-Dokumenten, Dateien und Berichte. Abbildung 15: MIK-ONE Oberfläche MIK-XLREPORT ist ein für das Reporting geeignetes Front-End-Tool. Die in diesem Tool zu sehenden Daten sind auf einem aktuellen Stand und in einem verständlichen Format

42 Projekt Hercules 28 schnell erreichbar. MIK-XLREPORT nutzt die Vorteile der multidimensionalen Sicht der Daten und der Funktionalitäten von MS Excel. Dem Benutzer steht der dynamische Zugriff auf MIK Datenbanken und die automatische Report-Aktualisierung zur Verfügung. Die MIK-XLReport-Oberfläche bei Colt sieht aus wie ein normales MS Excel, hat aber zusätzlich noch folgende zwei Add-ins: MIK-ONE und MIK-Analysis. Abbildung 16: MIK-XLReport Hier kann man entweder manuelle Bedarfsberichte oder aus MIK-ONE extrahierte Standartberichte erstellen Die Beschaffung und Speicherung der Daten Das Datenhaltungsmodul von MIKsolution+ ist MIK-OLAP. Die für OLAP relevanten Daten werden aus Oracle ERP und analytischen Systemen (SFDC, OHS, CN s) entweder in einer MS Access Datenbank gespeichert und anhand einfacher SQL SELECT- und INSERT-Abfragen (ETL) transformiert oder direkt dann in OLAP-Cubes gespeichert.

43 Projekt Hercules 29 Abbildung 17: Colt s MIK- Systemarchitektur Die OLAP-multidimensionale Struktur des Datenmodells entspricht dem Geschäftsmodell mit seinen natürlichen Dimensionen. Dieses Modell wird oft als n-dimensionaler Cube bezeichnet, wobei n für die Anzahl der Dimensionen steht. Beispiele von Dimensionen sind: Jahre Zeit-Perioden (Monate) Zahlen (Sales, Costs, Headcount) Produkt Kostenstellen Geographie Business Unit Currency usw.

44 Projekt Hercules 30 In MIK stellt ein Würfel eine Sammlung von zusammengehörenden Dimensionen dar. Es gibt die elf aktiven Würfel innerhalb der Colt-Datenbank: Profit & Loss (P&L) Balance Sheet Cash Flow (drei Cubes: zwei für Cash Flow-Kalkulation und dritte für Reporting) COLT Managed Services (CMS) P&L Waterfall Days Sales Outstanding (DSO) Fixed Asset Currency Sales Pipeline Jeder Würfel kann mit Hilfe von OLAP-Funktionen (Slicing, Dicing usw.) analysiert werden. Die dazu erforderlichen Datensätze liefern die betriebswirtschaftlichen Kennzahlen wie Umsatz, Kosten usw. Die Tabelle 2 zeigt einen zusammenfassenden Überblick über MIK- Cubes, Dimensionen und Funktionen:

45 Projekt Hercules 31 Cube Dimensionen Anforderungen Profit & Loss (P&L) Balance Sheet (BS) Cash Flow CMS P&L DSO Fixet Asset Currency Sales Pipeline Year Period Data Type P&L Measure Country Year Period Data Type BS Measures Country Year Period Data Type Cash Flow Measure... Year Period Data Type Country Currency Year Period Data Type DSO Measure Year Period Data Type Fixed Asset Measure Data Type Period Year Currency Data Type Currency Period All Years... Tabelle 2: MIK Cubes Beschreibung Profit & Loss Data, HR Data Actuals, Budget und Forecast Historic Actual Daten Balance Sheet Daten Actual and Budget Daten Historic Actual Daten aus Dec Actual Financial Daten aus Oracle Financials Daten aus P&L- und BSCubes Datensätze für Divisional- und Country-Reporting Actual und Budget Daten aus P&L Cube Days Sales -Kalkulation manuelle Datenextraktion für unterschiedliche Fixed Assets Transfers alle Börsen Wechselkurse für den Datentransfer in allen Cubes einer entsprechenden Währung Buchungs- und Verluste Daten. Große Datenvolumen.

46 Projekt Hercules Hauptkriterien für MIK-Ersetzung Die Entscheidungsfaktoren für die MIK-Ersetzung bauen sich auf schlechter Performance, mangelnder Stressresistenz der MIK-Plattform und der fehlenden IT-Unterstützung. Die häufigen Abstürze des gesamten Systems haben zu einer totalen Betriebsunterbrechung bei Colt geführt. Die dadurch entstehendem Kosten und der Datenverlust bedeutet für jedes Unternehmen eine große Belastung. Die Möglichkeit durch diese Systemausfälle die Kunden zu verlieren ist ein weiterer, daraus folgender Risikofaktor. Solche Ausfälle müssen vermieden werden, da die Ausfallsfolgen nicht zu unterschätzen sind. Ein in der Tabelle 3 dargestelltes Beispiel der Monatsabschluss-Phase im September 2008 zeigt die Häufigkeiten von MIK-Abstürzen. Ausfall-Zeitpunkt Häufigkeit Erster/zweiter Tag nach der Actual data- Abgabephase Monatsabschluss-Reporting Big fix sind implementiert 10 Mal 6 Mal 2 Mal Tabelle 3: MIK-Abstürze Zusätzlich zu diesen Migrationsgründen kommt noch mangelnde Funktionsumfang der MIK-Lösung. Die fehlenden Funktionalitäten wie das erweiterte Treibermodell für das Budgeting und Forecast, Drill-Through bei Transaktionen und automatisierte Report- Erstellung sind die ausschlaggebenden davon. Im Sommer 2009 hat der Vorstand von Colt sich entschieden, aufgrund der oben genannten Beeinträchtigungsfaktoren des Unternehmensgeschäfts die vorhandene MIK-BI- Plattform komplett durch SAP BO Business Planning and Consolidation (BPC) zu ersetzen. Dazu wurde ein externes Beratungsunternehmen AIS AG beauftragt, um zusammen mit dem Finanzmanager und IT-Fachleuten von Colt im Rahmen des Projektes Hercules den Umstieg auf die neue Plattform zu realisieren.

47 Projekt Hercules SAP BO Business Planning and Consolidation (BPC) als die künftige BPM-Plattform Als weltweit führender Anbieter von ERP- und zugehörigen Anwendungen, wie Supply Chain Management(SCM), Customer Relation Management(CRM), Product Lifecycle Management(PLM) und Supplier Relationship Management(SRM) liefert SAP an seine Kunden innovative Lösungen und Dienste. Weitere Informationen über SAP und deren Produkte befinden sich auf der SAP-Homepage: Das für diese Arbeit relevante SAP-Produkt BPC enthält alle konsistenten Finanz- und Betriebsdaten und Funktionen für die unternehmensweite Planung, Steuerung, externes und internes Reporting, Konsolidierung, Budgeting und Forecast. Die zwei wichtigsten BPM-Aspekte Industrialisierung der Geschäftsprozesse und Agilität sind heute die Erfolgsfaktoren jedes Unternehmens. Colt hat sich nach der gründlichen BI-Markt-Analyse für BPC entschieden. Wichtige Auswahlkriterien sind im nächsten Abschnitt dieses Kapitels aufgelistet.

48 Projekt Hercules Warum BPC? Nach der Summierung aller negativen Erfahrungen mit MIK hat Colt eine klare Vorstellung von Anforderungen bekommen, die an das neue System gestellt werden müssen. Oberste Akzeptanzfaktoren sind eine angemessene Total Cost of Ownership(TCO) sowie eine erträgliche Implementierungsdauer. Die zu implementierende Lösung soll sich als stabile, zuverlässige und schnelle Plattform erweisen. Die IT-Unterstützung des Systems soll gewährleistet werden. Die Datenqualität soll entsprechend erhöht werden. Es muss möglich sein, die Administration und Wartung des neuen Systems teilweise durch die Fachabteilung zu realisieren. Weiterhin ist entschlossen worden, den für die Colt-Mitarbeiter nötigen Schulungsaufwand zu minimieren, indem die gewohnte MS-Excel-Oberfläche weiterhin als primäres Front-End bleiben soll. Anhand dieser Excel-Oberfläche werden seitens Colt nicht nur die Abfrage der Daten und die Auswertungen durchgeführt, sondern auch die Administration und die Wartung des Systems. Die Applikationen des neuen Systems müssen für die Anwender flexibel, transparent und nachvollzierbar sein. Die Sammlung aller dieser Aspekte und eine detaillierte Untersuchung des aktuellen BI- Markts haben überzeugt, dass SAP BO BPC eine der geeignetsten Lösungen für die Bedürfnisse von Colt ist.

49 Projekt Hercules Architektur im Überblick BPC ist eine multidimensionale Datenbankplattform, die über das MS Excel-Front-End eine große Auswahl von Reporting-Tools anbietet. BPC basiert auf einer serviceorientierten Architektur (SOA). Dies bedeutet, dass BPC sich mehr auf die Abstraktion von Geschäftsprozessen als Implementierungsgrundlage orientiert. Das System entspricht einer klassischen dreischichtigen Architektur, die in Datenhaltungs-, Anwendungs- und Präsentationsschicht aufgeteilt ist. Die auf der nächsten Abbildung gezeigte Architektur stellt eine High-Level Gestaltung des Systems dar: Abbildung 18: SAP BPC High-Level Architektur Die Datenhaltungsschicht setzt sich aus internen und externen Datenquellen zusammen, die alle verfügbaren Daten in Form einer relationalen als auch einer multidimensionalen Datenbankstruktur haben. Die Anwendungsschicht stellt eine serviceorientierte Plattform dar, die Services wie Business Logik, XML-Services und SQL zur Verfügung stellt. Die Präsentationsschicht liefert dem Systemanwender eine geeignete Benutzerschnittstelle, für den bequemen Datenzugriff.

50 Projekt Hercules BPC-Umsetzung für Colt Die genaue Analyse der MIK-Prozesse ist eine gute Basis für einen Vorschlag zur Verbesserung der Unternehmensleistung von Colt für die neue BPC-Plattform. Die in der Analyse-Phase festgestellten MIK-Plattformdefizite sollten durch den BPC-Ansatz eliminiert und die fehlenden Funktionen zugefügt werden. Die in der Abbildung 19 vorgestellte Architektur zeigt die technische Umsetzung von BPC. Die Architektur gliedert sich in Datenquellen-, Datenspeicherungs-, Datenauswertungs- und Präsentationsbereich. Die Daten aus ERP (Oracle-Tabellen) und Auftragsabwicklungs- und Vertriebssysteme (Access-Tabellen) sind Rohdaten für die spätere Analyse und Auswertungen. Mit Hilfe von ODBC- und OLEDB-Schnittstellen werden die Datenquellen mit der MS SQL-Datenbank verbunden. Anhand von ETL-Tools werden diese extrahiert, vereinigt und in den SQL- Server geladen. Abbildung 19: BPC Architektur von Colt Microsoft SQL Server 2008 ist ein zuverlässiges, produktives und intelligentes Datenbank- Managementsystem. Der Server wird in sieben Varianten angeboten. Das von Colt

51 Projekt Hercules 37 verwendete Produkt ist die Enterprise-Version. Der Server vereint Datenverwaltungs- und Business-Intelligence Komponenten. Die Datenverwaltungskomponente ist in der Lage alle Datenbanksysteme und zugehörige Dienste zu überwachen, verwalten und abzustimmen. SQL-Server Integration Services (SSIS) bietet ein mächtiges Entwicklungstool für die Datenintegration aus unterschiedlichen Datenquellen und Datenzielen. Eine weitere detaillierte Beschreibung befindet sich im nächsten Kapitel dieser Diplomarbeit. Nachdem der SQL-Server die extrahierten Daten nach der vom Entwickler festgelegten Struktur gespeichert hat, kommt die BPC-Engine zum Ansatz. Für OLAP- und Ad-hoc- Abfragen müssen die Daten als Cubes gespeichert werden. Das BPC mit seinen analytischen Diensten enthält alle Techniken und implementierten Business-Logik-Tools zur Unterstützung der Entwickler beim Design und Entwurf von Data-Cubes. Die in MIK bereits vorhandenen elf Cubes werden in der BPC-Applikation auf acht reduziert. Eine detaillierte Beschreibung der Dimensionen und Funktionen dieser Cubes befindet sich in Kapitel 3.7: ETL-Prozesse. BPC ermöglicht eine für Colt neue Funktion. Dies ist das Drill Through auf transaktionale Daten in der Data Warehouse Komponente. Unter Drill Through versteht man die Fähigkeit des Data Warehouses auf die Daten Reports anzulegen, die in den OLTP-Systemen gespeichert werden. Das Data Warehouse von Colt ist ein Produkt von Netezza, einem globalen Marktführer für Data Warehouse Anwendungen. Der Präsentationsbereich der Systemarchitektur stellt eine Abstraktionsebene dar. Die Benutzer des Systems, beispielsweise das Controlling, der Manager, die Systemadministratoren und weitere besitzen intuitiv bedienbare Microsoft Office-Oberflächen, die über Internet, Intranet und LAN verfügbar sind.

52 Projekt Hercules Vorteile gegenüber MIK Laut einer Colt-Umfrage waren 40% aller MIK-Benutzer mit der Performance unzufrieden. Die Gründe dazu sind ständig wiederkehrende Abstürze und Systemblockierungen. Die Folge solcher Systemfehler waren verschobene Reporting-Meilensteine und der begrenzte Parallelbetrieb während der Budgetierungsphase. Im Vergleich dazu wurden bei Anwendung von BPC weniger als 10% unzufriedener Benutzer festgestellt. Abbildung 20: Einfacher MIK-Report Ein großer Unterschied zwischen dem MIK- und BPC-Berichtswesen ist die Art, wie Daten in den Excel-Sheets abgefragt werden. Das MIK-Reportingtool ist ein Zellen-basiertes Excel Programm. Dies bedeutet, dass jede Zelle innerhalb des Reports eine zusätzliche Abfrage auf dem MIK-Applikationsserver generiert. In Abbildung 20 ist ein relativ einfacher und kleiner Report dargestellt. Der Report generiert 44 (11 Produktelemente x 4 Zeitelemente) individuelle OLAP-Abfragen. Dies ist noch nicht problematisch. Wenn die Berichte allerdings aus mehreren hundert Zellen bestehen, wie es im Berichtswesen ist, wächst die Latenzzeit enorm groß an. Im Vergleich zu MIK ist das BPC bereichsbasiert.

53 Projekt Hercules 39 Abbildung 21: Vergleichbarer BPC-Report In dem auf dem Bild 21 gezeigten BPC-Report wird nur eine einzige Abfrage aus dem gesamten Data Range an den BPC-Applikationsserver gesendet. Dies ist ein erheblicher Unterschied bei den Antwortzeiten und im Netzwerkverkehr. Die Reporterstellung, die bei MIK manchmal bis zu mehrere Stunden dauern konnte, nimmt jetzt nur wenige Minuten von dem Benutzer und die Belastung von ganzem System ist wesentlich geringer. Durch mehrere Stress-Tests hat sich BPC als stabile und leistungsfähige Plattform erwiesen. Die IT-Unterstützung ist im Gegensatz zu MIK bei BPC vorhanden.

54 Projekt Hercules MS SQL Server 2008 Enterprise Edition Um alle im Colt-Unternehmen vorhandenen Daten in die BPC-Plattform richtig transferieren zu können, benötigten die Projektentwickler SQL Server Datenbankbankmanagementsystem. Die Daten sollten zuerst durch passende ETL-Interfaces im SQL-Server extrahiert und in Form von relationalen Tabellen umgestaltet werden, um mittels integrierten ETL-Packages des SQL-Servers weiter als Flat Files für BPC zur Verfügung gestellt zu werden. Microsoft präsentiert auf dem Markt mehrere Editionen seiner SQL-Server-Lösung, die sich nach Gebrauch und Besonderheiten unterscheiden. Um einen Überblick über diese Unterschiede zu schaffen, sind die unten aufgelisteten Editionen kurz zusammengefasst: Standard-Edition eignet sich für kleine bis mittelgroße Unternehmen. Der Kern des Produktes ist ein Datenbankmodul, das zusammen mit den integrierten Business- Intelligence-Tools eine einfache Nutzung aller enthaltenen Anwendungen dem Benutzer zur Verfügung stellt. Allerdings ist die Anzahl der vernetzten Cluster (Computer, Server) begrenzt und die Hochverfügbarkeitsfunktion ist nur teilweise integriert. Die Möglichkeit der parallelen Indexvorgänge (bei Multiprozessor- Rechnern eine Fähigkeit die Leistung der Datenbankvorgänge zu manipulieren) ist ebenfalls nicht enthalten. Express ist eine kostenfreie und leichtgewichtige SQL Server Version, die mehr zur Übung von Datenbankentwicklungstechniken und Prototyperstellung gedacht ist. Enterprise-Ausgabe ist für die großen Unternehmen entwickelt worden. Diese Edition ist eine Vollversion des SQL Server Produktes und beinhaltet alle Hardware-Funktionen wie beispielsweise Cluster, Hochverfügbarkeit, Multiprozessorunterstützung, alle Leistungen des Datenbankmoduls und alle Business-Intelligence-Werkzeuge. Bei Colt wird die Microsoft SQL Server 2008 Enterprise Edition eingesetzt, und daher wird im Weiteren nur die Enterprise Edition betrachtet. In der nächsten Tabelle sind die wichtigsten Komponenten des Enterprise MS SQL Servers dargestellt:

55 Projekt Hercules 41 Komponente Datenbankmodul Unified Dimension Model (UDM) SQL Server Integration Services (SSIS) Analysis Services (OLAP Server) SQL Server Reporting Services (SSRS) SQL Server Management Studio Business Intelligence Development Studio Funktion Speicherung der Rohdaten (Speichermedien wie Dateien oder Datenbanken), die für die gesuchten Informationen notwendig sind. UDM ermöglicht die Modellierung von Anwendern und Speichermedien zur Erleichterung des Datenzugriffs. Dienen zur Extraktion und Aufbereitung der Rohdaten in das weiterverarbeitende System und stellt hochwertige Möglichkeiten des Datenaustauschs zur Verfügung. Server-Komponente zur mehrdimensionalen Aufbereitung und Auswertung von Daten und realisiert somit das Data-Warehousing- Konzept. Ermöglicht eine effiziente und teilautomatisierte Bereitstellung von Berichten. Damit können tabellarische und grafische Berichte erstellt werden. Administrationsoberfläche für die datenbankseitigen Tätigkeiten. Oberfläche zur Realisierung von BI-Projekten. Tabelle 4: BI-Komponenten des SQL Servers [HSchroedl] Die in der Tabelle gezeigten Komponenten und deren Funktionen werden in folgenden Kapiteln einzeln erläutert Das Datenbankmodul Das Datenbankmodul enthält die Kernfunktionalität des MS SQL Servers für das Speichern, Verarbeiten und Sichern von Daten. Das Modul stellt mit seinen Diensten eine Transaktionsverarbeitung, einen kontrollierten Zugriff auf die heterogenen Datenquellen, welche die zu verarbeitenden Daten liefern, und darüber hinaus auch vielseitige Unterstützung für die Aufrechterhaltung hoher Verfügbarkeit bereit.[mstechnetdb] Das Datenbankmodul ermöglicht somit die Realisierung des servereigenen bzw. die Anbindung eines externen Data Warehouses (bei Colt von Netezza) für OLTP- (Onlinetransaktionsverarbeitung) oder OLAP- (Analytische Onlineverarbeitung) Daten. Beim Data Warehouse handelt es sich um eine zentrale Zusammenführung der Daten aus den verteilten Systemen. Zur MS SQL Server-Datenbank gehören Tabellen zur Datenspeicherung und Datenbankobjekte, wie z. B. Indizes, Sichten, gespeicherte Prozeduren, Funktionen und Trigger, zum

56 Projekt Hercules 42 Anzeigen, Verwalten und Sichern von Daten. Datentabellen, die in der Datenbank gespeichert sind, werden einem Vorgang oder einem bestimmten Thema, zugeordnet, z.b. Waterfall bei Colt. Außerdem besitzt MS SQL Server die vier Systemdatenbanken master, model, msdb und tempdb, die für den störfreien Betrieb des Servers benötigt und gleich bei der Installation des Servers eingespielt werden. Die master -Datenbank enthält alle Konfigurationen des Servers und Informationen zu den Benutzerdatenbanken. Die model - Datenbank stellt die Schablone dar, nach welcher alle neuen Benutzerdatenbanken sowie die tempdb -Datenbank erstellt werden. Die msdb wird zur Speicherung von Daten der Wartungsläufe und tempdb wird zur Speicherung der temporären Daten, welche der MS SQL Server während der Datenverarbeitung erstellt, verwendet. Um einen einheitlichen und effizienten Zugriff auf die verschiedenen Datenquellen realisieren zu können, steht dem Benutzer OLE(Object Linking and Embedding) DB zur Verfügung. OLE DB ist eine auf COM(Component Object Model) basierende API, die aus einzelnen Komponenten besteht. Anders als bei ODBC wird hier keine SQL-Verwendung vorausgesetzt. Im Mittelpunkt von OLE DB steht die OLE-Technologie, die ein von Microsoft entwickeltes Protokoll und zugleich ein Objektsystem bezeichnet. Unter OLE ist eine Objektverbindung zu verstehen, mit der die Daten aus den heterogenen Dokumenten, wie Excel-Tabellen, Textdateien, HTML, XML oder Datenbanken, dynamisch verknüpft werden können. OLE bezeichnet bereits durch seine Namensgebung die Fähigkeit, Objekte in ein Dokument zu integrieren, entweder eingebettet (Embedding) oder mit der objekterzeugenden Anwendung verknüpft (Linking). Dabei wird beim Linking das eingefügte Objekt nach der Integration nicht zum realen Element der Anwendung, sondern nur der Verweis auf das Objekt angelegt. Im Gegensatz dazu wird beim Embedding das entsprechende Objekt vollständig in die anfordernde Anwendung kopiert, so dass, wenn die Quelldaten nicht mehr vorhanden sein sollten, das Objekt in der Anwendung erhalten bleibt. [WebFactoryOLE] So können zum Beispiel in Access Objekte (Tabellen, Bilder) die Daten aus Excel, Paint etc. eingebettet oder dynamisch verknüpft werden. Genauso ist es über OLE möglich, in Excel

57 Projekt Hercules 43 die Access Objekte einzufügen. Diese Dokumente, die aus mehreren Dateiformaten zusammengesetzt sind, werden als Verbunddokumente bezeichnet. Konzeptionell wird bei OLE DB eine Trennung in Anbieter (Provider) und Verbraucher (Consumer) vollzogen. Die Verbraucher sind Anwendungen, die Zugang zu den Daten brauchen, und der Anbieter ist die Softwarekomponente, welche die notwendige Schnittstellen implementiert und folglich die Daten dem Verbraucher zur Verfügung stellt. Die nächste Tabelle stellt einige Implementierungen der OLE DB-Provider und die dazugehörigen Datenquellen dar: OLE DB Provider MS OLE DB Provider for Jet MS OLE DB Provider for SQL Server MS OLE DB Provider for Oracle MS OLE DB Provider for Indexing Service Microsoft OLE DB Provider for ODBC OLE DB Data Source Access(*.mdb), Excel(*.xls), Textdateien (*.txt, *.doc, ), HTML Instanz eines Servers wie z.b. Northwind Oracle Datenbanken Indexserver Andere ODBC-Datenquellen Tabelle 5: OLE DB Provider [MSLinkedServer] Alle Abfragen an die OLE DB-Datenquellen werden in Transact -SQL formuliert. Transact - SQL (auch T-SQL) wird am Ende des Kapitels kurz erläutert. SQL Server zerlegt jede Transact-SQL-Anweisung in eine Reihe von Vorgängen für einfache OLE DB-Rowsets, so dass einfache OLE DB-Rowsets auch für jede einzelne OLE DB- Datenquelle geöffnet werden können. SQL Server unterstützt zwei Methoden, um auf die heterogene OLE DB-Datenquellen in Transact-SQL-Anweisungen zu verweisen: Ad-Hoc-Konnektor Ein Ad-hoc-Konnektorname kann als Tabellenreferenz angewendet werden, wenn auf die OLE DB-Datenquelle selten zugegriffen wird. Die Verbindung kann unter SQL

58 Projekt Hercules 44 Server mit den Funktionen OPENROWSET und OPENDATASOURCE erreicht werden. Für die häufigeren Zugriffe kann ein Verbindungsserver konfiguriert werden. [TechNetAdHoc] Verbindungsserver Ein Verbindungsserver ist eine OLE DB-Datenquelle, welche auf dem lokalen Server mit SQL Server registriert ist. Durch die Verbindungsserver werden die SQL Serverübergreifenden Verknüpfungen und Abfragen auf die Daten realisiert, wenn diese Datenquellen bereits im Vorfeld bekannt sind. Beim Verweis auf diese Quelle weiß der lokale Server, wo die Remotedaten zu finden sind. Dabei kann jede Datenquelle als Verbindungsserver definiert werden, wenn dafür ein OLE DB-Provider implementiert ist, obwohl die durch verbundene Server definierten Datenquellen meist Datenbanken sind. Die folgende Abbildung zeigt schematisch die allgemeinen OLE DB- Versorger und Datenquellen für den SQL Server. In der nächsten Abbildung ist die Konfiguration der Verbindungsserver schematisch dargestellt: Abbildung 22: Konfiguration der Verbindungsserver [MSLinkedServer] Im Unterschied zu einer Ad-Hoc-Abfrage Steuerung stehen bestimmte Funktionen für den Zugriff auf eine bestimmte Datenquelle nur über Verbindungsserver zur Verfügung, wie z. B. die Verwaltung von Benutzernamenzuordnungen, die Fähigkeit der

59 Projekt Hercules 45 Abfrage der Metadaten eines Verbindungsservers und die Fähigkeit, verschiedene Verbindungseinstellungen, wie Timeoutwerte, zu konfigurieren. [TechNetLinkServ] Der Verbindungsservername kann in einer OPENQUERY-Anweisung angegeben werden, um ein Rowset aus einer OLE DB-Datenquelle zu öffnen. In Transact-SQL- Anweisungen kann dann auf dieses Rowset wie auf eine Tabelle verwiesen werden. Transact-SQL(T-SQL) kann als die prozedurale Sprache des SQL Servers bezeichnet werden. Bei der T-SQL handelt es sich um die Weiterentwicklung der Standard-SQL, welche um das Transaktion-Management, Fehlerbehandlung und lokale Variablen erweitert wurde. T-SQL wird im SQL-Server-Umfeld für Verwaltungsaufgaben von Datenbanksystemen, zur Erstellung und Bearbeitung von Objekten sowie zur Datenmanipulation angewendet. [MSTSQL] SQL Server stellt zahlreiche integrierte Funktionen in TSQL zur Verfügung und erlaubt zudem das Erstellen benutzerdefinierter Funktionen. Es gibt vier verschiedene Typen der integrierten Funktionen: Rowset-Funktionen (Geben ein Objekt zurück, das wie Tabellenverweis in einer reinen SQL-Abfrage eingesetzt werden kann. Dazu zählen auch die obengenannten Funktionen wie OPENQUERY, OPENROWSET und OPENDATASOURCE.) Aggregatfunktionen (Bewältigen Berechnungen für eine Wertemenge und geben einen einzelnen Wert zurück, z.b. MIN, MAX und COUNT) Rangfolgefunktionen (Geben für jede Partitionszeile einen Rangfolgenwert zurück, z.b. ROW_NUMBER) Skalare Funktionen (Prozessieren nur einen einzelnen Wert und stellen die größte Gruppe dar. Dazu gehören Konfigurations-, Cursor-, Metadaten-, Datums-, Zeichenketten-,Text-,System- oder mathematische Funktionen.) Und genauso wird T-SQL bei der Erstellung der Trigger oder Stored Procedures eingesetzt, die das Datenbankmodul um weitere benutzerdefinierte Funktionalität erweitern. Eine benutzerdefinierte Funktion kann mit CREATE FUNCTION erstellt werden. T-SQL gilt als ein grundlegender Bestandteil des SQL Servers.

60 Projekt Hercules 46 Es wurden kurz die Technologien benannt, welche im Datenbankmodul eingesetzt werden und welche für diese Diplomarbeit von Bedeutung waren. Die Verwaltung des Datenbankmoduls wird über SQL Server Management Studio getätigt.

61 Projekt Hercules SQL Server Management Studio SQL Server Management Studio ist ein Werkzeug, welches dem Anwender alle Funktionen zur Verwaltung, Konfiguration, Administration und Entwicklung aller Datenbank-Komponenten des Servers zur Verfügung stellt. Das Management Studio hat einen zentralen und einfach zu benutzenden Object-Explorer. Der Object-Explorer ist die erste graphische Oberfläche, die beim Starten vom Studio angezeigt wird. Alle Instanzen, die sich auf dem Server befinden sind durch den Explorer erreichbar. Das Management Studio enthält alle möglichen Schnittstellen für das Import und Export von Daten. Der graphische Abfrage Designer (Abbildung 23) von SQL Server Management Studio ist die Entwicklungsumgebung, die bei der Erstellung der Views verwendet wird. Abbildung 23: SQL Server Abfrage Designer [msdn.microsoft.com]

62 Projekt Hercules 48 Auf der graphischen Benutzeroberfläche des Designertools sind vier Bereiche zu sehen. Im SQL-Bereich werden Abfragen unter Verwendung von T-SQL geschrieben. Nach deren Ausführung werden die resultierende Sichten und Relationen (falls vorhanden) in Diagramm-, Ergebnis- und Rasterbereich präsentiert SQL Server Integration Services (SSIS) Die SQL Server Integration Services ist ein BI-Tool, das eine Plattform für Datenintegrations- und Datentransformationslösungen zur Verfügung stellt. Integration Service ist in der Lage die aus mehreren heterogenen Datenquellen gewonnenen Daten zu transformieren und an die beliebigen Zielen zu liefern. Nebenbei bietet die Plattform alle möglichen Funktionen zur Sicherstellung der Datenkonsistenz. In Form von ETL-Paketen, die diversen Datenflüsse in einem Sequenzcontainer zusammenfassen, stellt die SSIS den ganzen Integrationsprozess für das Data Warehousing bereit. Hauptanwendungen für SSIS sind: Laden eines Data-Warehouses Einlesen externer Datenquellen Datenbereitstellung für externe IT-Systeme Datenbereitstellung für OLAP Datenbereitstellung für Data Mining Datenqualitätsmanagement [ssis.de] Eine der wichtigsten Besonderheiten der SSIS 2008 ist die Verarbeitung des Datenflüsses. Diese Version eignet sich hervorragend für die multiprozessorfähigen Rechner. Die Leistungs- und Funktionalitätsmöglichkeiten des SSIS-Ansatzes sind anspruchsvoll und flexibel erweiterbar. Die ETL-Prozesse waren und bleiben immer noch sehr komplexe und unternehmensspezifische Werkzeuge. Ein von den SSIS-Entwickler durchdachte Konzept und eine professionelle Umsetzung der SSIS stellen dem Unternehmen einen leistungsfähigen Datenintegrationsdienst zur Verfügung. Die Paketentwicklungsumgebung lässt den Benutzer selbst definieren, ob die Pakete programmgesteuert (selbst programmiert)

63 Projekt Hercules 49 entwickelt oder durch den in graphischen Integration Services angebotenen Tools erstellt werden. Die SSIS-Plattform besitzt das Verwaltungsprogramm zur Erstellung von SSIS-Paketen. Das sogenannte Business Intelligence Development Studio ist eine graphische Entwicklungsumgebung für die Projektverwaltung von Analysis-, Integrations- und Reporting-Services Business Intelligence Development Studio (BIDS) BIDS ist das von Microsoft speziell für BI-Lösungen entwickelte Visual Studio, das als eine Entwicklungsumgebung für die Erstellung von Analysis-, Reporting- und Integration- Services dient. Analysis Services-Plattform organisiert die Geschäftsdaten aus einem Data Warehouse für OLAP- und Data Mining-Analyse. Dabei werden die Daten als multidimensionalen Strukturen (Cubes) aggregiert gespeichert, um die schnellen Ergebnisse für die Analyse-Anfragen zu liefern. Reporting Services ist eine Berichtsplattform, welche die zur Erstellung und Verwaltung von Reports benötigten Services, Tools und Programmierschnittstellen (API) dem Benutzer zur Verfügung stellt. Reporting Services überwacht die Unternehmenskennzahlen und die operativen Daten. Der sinnvolle Einsatz dieser Plattform verschafft der Überblick über dem Unternehmenskapitaleinsatz und verbessert die Business Performance des Unternehmens. 3.7 ETL-Prozesse In der Entwurfsphase des Projekts Hercules sind die Anforderungen an ETL-Prozess und Architektur festgelegt worden. Das Ziel des ETL-Ansatzes ist die korrekte und rechtzeitige Übertragung von Finanzinformationen aus Oracle ERP und anderen Datenquellen nach dem SAP BPC-System. Die in der BPC-Anwendung präsentierten Informationen sind

64 Projekt Hercules 50 erforderlich für das Management- und Budget-Reporting. Damit der Vorgang des Datenintegrationsprozesses möglichst transparent und einfach abläuft, ist die folgende Architekturlösung entworfen und später implementiert worden ETL-Architektur und -Prozessablauf Die Entwicklung des ETL-Prozesses hat parallel zur Implementierung der BPC-Cubes stattgefunden. Die Schemadefinitionen für die relationalen ETL-Views entsprechen den in den BPC-Cubes festgelegten Dimensionen und Elementen. Die allgemeine Architektur der ETL- Prozessabläufe ist in der Abbildung 24 dargestellt: Abbildung 24: ETL-Architektur

65 Projekt Hercules 51 Allgemein werden die Unternehmensdaten mithilfe der SSIS-Pakete aus Datenquellen extrahiert, transformiert und für die analytischen BPC-Werkzeuge bereitgestellt. Die Daten kommen aus den heterogenen Quellen. Die ERP-Daten sind in der Oracle- Datenbank und die OHS-und Sales Force-Daten in einer MS Access-Datenbank gespeichert. Die Tabellen aus ERP-Systemen werden durch den aus Performancegründen eingerichteten Verbindungsserver (Linked Server) angesprochen. Die OHS- und Sales Force- Daten werden dagegen komplett in den SQL Server importiert und als SQL Server-Tabellen in eine ColtDev-Datenbank gespeichert. Da es in beiden Fällen um einen Zugriff auf die externen Daten geht, wird die OLE DB als die dafür geeignete Schnittstelle verwendet. ColtDev ist eine Entwicklungsdatenbank-Instanz. Dort werden Views und Tabellen erzeugt, die für den ETL-Transformationsschritt erforderlich sind. Wie bereits oben erwähnt, stellen die Tabellen Kopien der OHS- und Sales Force-Quelldaten dar, die durch Import-Routinen auf dem SQL Server eingelagert werden. Die Views der ColtDev-Instanz sind virtuelle Hilfstabellen, welche die Oracle- und Access-Quelldaten anhand von T-SQL Befehlen auf BPC-vorgeschriebene Weise darstellen. Die Views sind als Referenzen in den SSIS-Paketen enthalten. SSIS-Paket ist eine von dem SQL Server angebotene ETL-Lösung, in der alle ETL-Funktionen, wie Extract, Convert, Transformation und Load, in einer Reihenfolge erzeugt und durchgeführt werden. Das Paket wird in dem SQL Server Business Intelligence Development Studio erstellt und im BPC modifiziert. Für jeden BPC-Cube bzw. jeder BPC-Applikation, wie es in SAP-Terminologie bezeichnet wird, existiert ein SSIS-Paket, das die Daten in diese Applikation integriert. Die Paket-Ausführung erfolgt entweder automatisch in einem definierten Zeitabschnitt durch die BPC-Engine oder manuell durch den BPC-Administrator. Die in der Abbildung 24 vorgestellte ETL-Architektur beschreibt allgemein, wie die SSIS- Pakete den Datenintegrationsprozess technisch umsetzen. In den nächsten Abschnitten dieses Kapitels werden die im Prozess beteiligten Quell-Datenbanken, Ziel-Applikationen

66 Projekt Hercules 52 und ihnen zugeordnete SSIS-Pakete differenziert betrachtet. Als Beispiel, wie die Pakete aufgebaut und konfiguriert sind, wird das SSIS-Paket für die OHS-Applikation ausgewählt und detailliert erklärt.

67 Projekt Hercules Quelldatenbanken In der Tabelle 6 sind die Quelldatenbanken, sowie -Tabellen und Ziel-Applikationen zusammengefasst: Datenbank Format Oracle Source DB Oracle GL (Balance Sheet part) Oracle GL (P&L part) Export Tabelle XXC.XXC_MIK_FSG_GL_BALANCES Ziel Applikation Summary Reporting Oracle XXC.XXC_MIK_FSG_GL_BALANCES Summary Reporting Oracle Oracle HR XXC.XXC_MIK_MIK_EXTRACT_DA Detailed TA Reporting Oracle Oracle GL_TRANSLATION_RATES_V Rate Exchange Rate Application MS Access OHS OHS Mapping Waterfall MS Access Sales Force tbl_mikfeed Waterfall MS Access MS Access Sales Force weekly Sales Force monthly tbl_oso_analysis tbl_oso_analysis Pipeline Pipeline Tabelle 6: Quelldaten und Ziel Applikationen

68 Projekt Hercules BPC-Applikationen In der Abbildung 25 wird ein Überblick über alle Applikationen und deren Input/Output- Daten gegeben. Balance Sheet Budgets Oracle GL Manual Budget / Forecast Input P&L Actuals Balance Sheet Actuals P&L Budgets Summary (Reporting Cube) 10 Dimensions Detail (P&L Planning, Budgeting and Analysis) 13 Dimensions P&L Actuals & Budget P&L Measures and P&L Budgets / Forecasts Manual Budget / Forecast Input Account (P&L measures only, Balance Sheet, Cash Flow) Entity (Countries) Time (months, quarters and years) Category (Actuals, Budget, Forecast etc.) Data Source Division Location Intercompany Currency AccountDetail Fixed Asset movements Account (P&L and statistical only) Entity (shared dimension with Summary cube) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) DataSource (shared dimension with Summary cube) Division (shared dimension with Summary cube) CostCentre (shared dimension with Summary cube) Intercompany (shared dimension with Summary cube) Currency (shared dimension with Summary cube) Location CustomerClass SalesChannel Product Cash Flow calculations Detail Currency Calculations Constant Currency Red Book Reporting Divisional Reporting Country Reporting Revenue Reporting Detailed Budget Forecast Reporting Headcount Driver Based calculations Standard Currency Constant Currency Ad-hoc P&L Reporting Cost Centre Reports CMS P&L (6 Dimensions) CMSAccount Entity (shared dimension with Summary cube) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) DataSource (shared dimension with Summary cube) Currency (shared dimension with Summary cube) CMS Reports Manual Forecast Input Rate (5 Dimensions) RateAccount holds rates (Avg, End etc.) RateEntity (holds methods) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) InputCurrency (Fortsetzung siehe nächste Seite)

69 Projekt Hercules 55 Oracle GL Rate (5 Dimensions) RateAccount holds rates (Avg, End etc.) RateEntity (holds methods) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) InputCurrency Salesforce Sales Pipeline (12 Dimensions) SalesAccount Entity (shared dimension with Summary cube) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) Currency (shared dimension with Summary cube) Location (shared dimension with Summary cube) CustomerClass (shared dimension with P&L Detail cube) Opportunitystat Opportunity Status Opportunityprod - Opportunity Product Snapshotwk Weekly Snapshot Offertype Offer Type Winprob Win Probability Order Handling Waterfall (10 Dimensions) WaterfallAcct Entity (shared dimension with Summary cube) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) Currency (shared dimension with Summary cube) Location (shared dimension with P&L Detail cube) CustomerClass (shared dimension with P&L Detail cube) Waterfallprod waterfall-specific product dimension Ordertype Status Waterfall Report Credit Notes Abbildung 25: Daten-Input und Output bei BPC-Applikationen Die in MIK vorhandenen elf Cubes werden in BPC auf acht reduziert. Drei Cubes: CMS P&L(3), Sales Pipeline und Waterfall sind ohne Änderungen in den BPC-Applikationen übernommen worden. Um die Daten aus den MIK-Systemen erfolgreich zu migrieren und die externen Datenquellen in die BPC-Applikationen korrekt abzubilden, werden diese mittels SQL Server- Views in die von BPC erforderliche Darstellung umgeformt.

70 Projekt Hercules ETL-Views Übersicht Nach dem alle für die ETL-Prozesse benötigen Ressourcen (Tabellen aus Quellsystemen und BPC-Applikationen) zur Verfügung gestellt sind, kann mit der Erstellung der SSIS- Pakete begonnen werden. Der SQL Server Abfrage Designer bietet dem Entwickler die Möglichkeit, die Quelltabellen (im Weiteren Basistabellen genannt) anhand von T-SQL abzufragen, sowie die Tabellenfelder zu filtern und zu gruppieren. Die durch diese Abfragen resultierenden Tabellen werden von den SSIS-Paketen in der Transformationsphase verwendet. Die detaillierte Erklärung dazu folgt im nächsten Abschnitt dieses Kapitels. Die Aufgaben der im Rahmen dieser Arbeit vorgestellten Sichten ist: den direkten Zugriff auf die Basistabellen zu vermeiden, die Daten aus den Basistabellen nach SQL Server zu kopieren, nur die für den Benutzer relevanten Daten aus den Basistabellen anzuzeigen und neue Beziehungen zwischen mehreren Tabellen hinzuzufügen. Außerdem bieten die Views performante und vereinfachte Abfragen der Basisdaten, deren Schema sich vom SQL Server-Schema unterscheidet. Bei der View-Erstellung ist zu beachten, dass die aus einer SELECT-Abfrage resultierenden Datenspalten und -Zeilen nicht in der Datenbank persistent gespeichert werden. Stattdessen werden diese dynamisch bei jeder Abfrageverwendung erstellt. Die aus MIK- und Oracle-Datenbanken extrahierten Tabellen werden anhand der T-SQL Befehle an die BPC-Applikationstabellen angepasst. Es stehen insgesamt sechs ETL-Views (View-Kombinationen) zur Verfügung. Die folgende Abbildung zeigt die Zugehörigkeit der Views zu den BPC-Applikationen.

71 Projekt Hercules 57 DETREP SUMREP Sales Pipeline Rate Waterfall Abbildung 26: ETL-Views und BPC Ziel-Applikationen Im folgenden Abschnitt werden die Beziehungen einer ETL-View und anderen Paketkomponenten an einem SSIS-Paket-Beispiel dargestellt.

72 Projekt Hercules OHS-Paket für Waterfall-Applikation Die Colt-Datenintegrationsprozesse werden mit den SQL Server Integration Services (SSIS) umgesetzt. In dem Business Intelligence Development Studio (BIDS) von SQL Server werden die SSIS-Pakete erstellt und vom BPC Data Manager anhand der BPC-spezifischen Parameter an das BPC-System angepasst. Im Rahmen dieser Arbeit wird lediglich die Server-seitige Implementierung betrachtet. Ein SSIS-Paket stellt eine Folge von SSIS-Objekten dar, die sich in zwei Gruppen unterteilen lassen: Control Flow Objects - Objekte, welche die Ausführungsreihenfolge in dem SSIS- Paket bestimmen. Data Flow Objects - Objekte, welche die Datenbewegungen steuern. Bevor die Daten nach BPC integriert werden, müssen die Datenquellen, Ziel-Applikation und die Integrationsablaufstruktur genau definiert werden. Die OHS-Daten für die Waterfall-Applikation werden aus den externen OHS-Datenbanken in den SQL Server automatisch ein Mal pro Monat importiert. Es handelt sich hier um einen Incremental Load. Dabei werden bei jeder Ausführung nur die aktuellen Daten von SSIS-Paket importiert. Die Quelldaten sind in MS Access-Tabellen gespeichert. Die importierte Tabelle wird als Flatfile in dem BPC-System gespeichert. In der Abbildung 27 ist der Ablauf von OHS- SSIS graphisch erklärt.

73 Projekt Hercules 59 Abbildung 27: OHS-Integration Workflow Da die Tabelle OHS_Mapping Table (im Weiteren OHS-Tabelle genannt) die Daten aus dem vorherigen Import enthält, werden alle Tabelleninhalte mit dem Befehl Truncate SQL Table gelöscht. Bei dem Load OHS Daten - Schritt werden die aktuellen Daten aus der OHS Access- Tabelle in die OHS SQL Server-Tabelle gespeichert. Im Schritt 3 werden die Daten anhand des YY3_OHS_UNION-View(YY3-Union) gelesen. Dieser View vereinigt zwei Views miteinander: die YY1_qT_Create_OHS_Mapping for MIK upload (YY1) und YY2_qA_adds_New Orders Recurring (YY2). Die OHS-Quelltabelle enthält unter anderen im Feld [Order type specific] New Business -Werte, [Install Charge]-Feld (Installationskosten) und [ACV](gesammte New Business-Einnahmen).

74 Projekt Hercules Order Type specific Install Charge ACV New Order New Tabelle 7: OHS-Basistabelle Die erste Abfrage YY1 lifert alle Daten aus Basistabelle. Die Datenfelder bekommen dabei BPC-Felderbezeichnungen entsprechend den Dimensionsnamen. Die zweite Abfrage YY2 fügt dazu noch [ACV]-[Install Charge]-Werte in [ACV]-Feld. In BPC sollen nicht nur [Install-Charge]-Werte erscheinen, sondern auch der New Business- Gewinn (ohne Installationskosten). So sieht die OHS-Tabelle nach dem YY3-Union.... Order Type [ACV] New Order New Tabelle 8: Die aus YY3-Union resultierende Tabelle Im Anhang dieser Arbeit befindet sich der Quellcode dieser Views. Anschließend werden die Tabellen als Flat-File gespeichert (von BPC vorrausgesetzt). Der nächste Schritt 4 ist ein reines Standardstruktur-Mapping von BPC und wird hier nicht weiter erklärt. Der vorletzte Schritt ist das Loading von Daten in die BPC-Applikation. Die letzte Phase (Logik) wird auf der BPC-Seite durchgeführt. Hier werden verschiedene Applikationsformeln miteingebaut, um die Kalkulationen und andere Geschäftsregeln dieser Applikation durchzuführen.

75 Projekt Hercules 61 Die im Paket-Workflow entworfenen Schritte sind nun als Objekte dieses SSIS-Pakets implementiert. In dem Control Flow-Fenster des BIDS repräsentieren die zusammenverbundenen Objekte den kompletten OHS-Datenintegrationsprozess: Execute SQL Task enthält einen eizigen SQL Befehl: TRUNCATE TABLE OHS_Mapping und damit werden alle Daten in dieser Tabelle gelöscht. Data Flow Task. In diesem Task werden die Daten aus der Access-Quelltabelle in die SQL Server-Tabelle importiert. Bei dem Import sind zwei folgende Connection Manager beteiligt: Access als Datenquelle und SQL als Datenziel. Access enthält in der Konfiguration den SQL SELECT-WHERE -Befehl, der nur die aktuellen Daten für den Import selektiert. Der SQL Connection Manager enthält alle Zieltabelleninformationen wie: Servername, Datenbankname und Tabellename. Data Flow Task. Der Task importiert die OHS-Tabelle in das Text- File und enthält zwei Connection Manager: SQL als Quelltabelle und Txt als Ziel-File. Hier wird es auf die UNION-Sicht referenziert, welche die Daten vor dem Import modifiziert. Convert Task Dumpload Task Logic Task

76 Projekt Hercules 62 Die letzten drei Tasks werden im BPC Data Manager modifiziert nachdem das SSIS-Paket im BPC-System gespeichert wurde. Das Microsoft SSIS lässt die Tasks nicht SQL Serverseitig modifizieren. Stattdessen werden nur die Standard-Konfigurationsdialoge angeboten. Das SAP BPC Design mit seiner Data Manager-Komponente ermöglicht einem Administrator das Anpassen der SSIS-Pakete an die entsprechenden Applikationen. Die drei Tasks: Convert, Dumpload und Logic sind speziell von Microsoft für SAP-SSIS-Pakete entworfen worden und werden von BPC-Administratoren weiter gepflegt. Das Testen des Datenintegrationsprozesses begleitete die Entwicklungsphase in jedem einzelnen Schritt. Bei dem Datenextraktionsvorgang wurde kontrolliert, dass alle Datensätze der Quelltabelle in die Zieltabelle gespeichert sind. Bei jedem der Data Flow-Tasks sind BIDS-Standard-Fehlerbehandlungen eingebaut. Anschließend wurden die SSIS-Pakete vom BPC Data Manager ausgeführt und kotrolliert. Das Erreichen solcher Qualitätsmerkmale, wie Korrektheit, Konsistenz, Vollständigkeit, Einheitlichkeit und Verständlichkeit der durch den ETL-Prozess gewonnen Daten, war der Erfolgsfaktor des SSIS-Ansatzes. Dies wurde durch den abschließenden Abnahmetest bestätigt. Die Testphase war relativ mühsam und aufwändig. Dabei wurden die vergleichbaren Berichte aus MIK und BPC erstellt. Die BPC-Excel-Daten wurden dann von den MIK-Excel-Daten subtrahiert und in das dritte Ergebnis-Excel-Blatt gespeichert. In dieser resultierenden Excel-Datei dürfen nur Null-Werte auftreten. Die Tabellenfelder für BPC und MIK sind unterschiedlich und mussten erst für das Subtrahieren äquivalent ausgewählt werden. Falls in dem Ergebnis- Excel-Sheet Abweichungen aufgetreten sind, mussten alle möglichen Szenarien, wie Transformationslogikfehler, Loading-Prozessfehler etc. analysiert werden. Nachdem alle SSIS-Pakete und BPC-Applikationen implementiert und der gesamte Abnahmetest erfolgreich durchgeführt wurde, war der Entwicklungsprozess für das erste Produktionsrelease erfolgreich abgeschlossen.

77 Zusammenfassung 63 4 Zusammenfassung Ziel dieser Arbeit war Design, Entwurf und Implementierung eines ETL-Prozesses anhand der im Projekt Hercules vordefinierten Anforderungen. Der Zweck des Projekts war die Migration des von Colt vorhandenen Informationssystems MIKSolution+ nach eine SAP- Lösung Business Planning and Consolidation. Colt, als einer der Europa-weit-führenden Anbieter der Informations- und Telekommunikationstechnologie mit einer großen Anzahl von Kunden und stetig wachsendem Datenstrom, hat in den letzten Jahren einen wesentlichen Optimierungsbedarf für die geschäftlichen Entscheidungsprozesse und Unternehmenssteuerung erkannt. Als der wichtigste Aspekt stand dabei der Informationsgewinnungsprozess aus den vorhandenen Unternehmensdaten im Vordergrund. Das diesen Prozess unterstützende Produkt MIKSolution+ hat sich nach dem langjährigen Einsatz als eine unstabile Plattform erwiesen. Nach der Zustandsprüfung des BI-Marktes ist SAP BPC als neue Colt-Informationsplattform ausgewählt worden. Im Rahmen des Hercules - Projektes hat Colt zusammen mit den externen Beratern von AIS die MIK Plattform- Auswechslung mittels BPC durchgeführt. Die für die Projektumsetzung wichtigen Begriffe und Techniken sind als Einführung in die Projektthematik im theoretischen Kapitel untergebracht. Die allgemeinen Prinzipien und Vorgehensweisen des BI-Ansatzes mit dem Schwerpunkt Business Performance Management wurden in diesem Kapitel betrachtet. Durch den BPC-Ansatz erhält Colt nicht nur eine stabile und in Echtzeit -betriebene Plattform, sondern erweitert damit auch eigene Möglichkeitshorizonte im Bereich Business Analytik. Als Business Performance Management Plattform enthält BPC das breite Angebot an Analysemodellen und Methoden. Die BPC-Umsetzungsphasen, wie Bedarfsanalyse, Anforderungsanalyse und Lösungsarchitektur sind zunächst im Bezug auf das gesamte Projekt beschrieben worden. Die BPC- Architektur des von AIS vorgeschlagenen Konzepts wird durch ein Cluster aus zwei SQL Server realisiert: Produktionsserver(UAT) und Entwicklungsserver(DEV). UAT ist ein Testserver und wird durch Colt-Mitarbeiter getestet. DEV steht den Systementwicklern und

78 Fazit und Ausblick 64 Administratoren zur Verfügung. Im Rahmen dieser Arbeit wird nur der DEV Server betrachtet. Die BPC-Umsetzung wird durch die Implementierung und Konfigurierung aller im Architekturkonzept definierten Komponenten und Funktionalitäten realisiert. Die Bereitstellung des Datenintegrationsprozesses liegt im Fokus dieser Arbeit. Die dafür zuständigen SSIS-Pakete sind das Ziel der Integrationsentwicklungsphase. In dem SQL Server Business Intelligence Studio erstellt, entsprechen diese Pakete den an ETL-Prozessen gestellten Anforderungen. In der BPC-Applikationsumgebung gespeichert, liefern die Pakete die aus den externen Datenquellen extrahierten, anhand von SQL Server-Views modifizierten sowie dem BPC-Standard entsprechenden Ziel-Applikationen, transformierten Daten. Die Testphase umfasst den gesamten Entwicklungsprozess. Als Abschluss wurde der Abnahmetest durchgeführt. In diesem Test wurde kontrolliert, ob die für ETL-Prozesse definierte Performance-, Funktional-, Qualitäts und Integrationsanforderungen erfüllt sind. Nach der erfolgreichen Durchführung des Abnahmetests wurden die ETL-Interfaces der SSIS- Pakete in den Produktionsserver UAT für weitere Tests durch Colt-Mitarbeiter übernommen. 5 Fazit und Ausblick Die im Rahmen dieser Arbeit beschriebene Datenintergrationsprozesserstellung war ein komplexes Thema und hat eine große Herausforderung während der Entwicklungsphase geboten. Der sehr hohe Lernfaktor und die fehlende Erfahrung in diesem Gebiet haben den Entwicklungsprozess noch mehr belastet. In einem engen Zeitraum neben den MS Server Komponenten und Werkzeugen sollten sowohl die grundlegende MIK- und BPC- Architektur und Funktionalitäten, als auch das prinzipielle Verständnis des Kerngeschäftsprozesses von Colt eingearbeitet werden. Das größte Defizit bei der ETL-Entwurfsphase war der durch lange Recherchen festgelegte Fakt, dass bisher noch kein ETL-spezifische Vorgehensmodell existierte. Die ETL-Prozesserstellung war also einerseits spannend, andererseits brachte sie viel neues technisches Wissen und praktische Erfahrung.

79 Fazit und Ausblick 65 Das Ziel der Arbeit war die SQL Server-seitige SSIS-Implementierung. Die BPC-seitige SSIS- Transformation und Applikationsanpassung sind aufgrund der begrenzten Zeit nur allgemein erklärt worden. Das bereits bekannte Verbesserungspotenzial der Datenintegrationsleistung steckt in der Qualitätserhöhung der Quelldaten.

80 ANHANG 66 ANHANG Waterfall OHS Data Import Data-Views YY3_OHS_UNION CREATE VIEW [dbo].[yy3_ohs_union] AS SELECT FROM UNION ALL SELECT FROM dbo.[yy1_qt_create_ohs_mapping for MIK upload].* dbo.[yy1_qt_create_ohs_mapping for MIK upload] dbo.[yy2_qa_adds_new Orders Recurring].* dbo.[yy2_qa_adds_new Orders Recurring] Resultierende Tabelle: YY1_qT_Create_OHS_Mapping for MIK upload CREATE VIEW [dbo].[yy1_qt_create_ohs_mapping for MIK upload] AS SELECT N'ACT' AS Category, CASE WHEN CC.[ID] IS NULL THEN CASE [Segment code] WHEN 'MIDSIZE-AGENTS' THEN 'MIDSIZE-PARTNERS' WHEN 'MIDSIZE-TEMPORARY' THEN 'MIDSIZE PARTNERS'

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank

Mehr

Einführungsveranstaltung: Data Warehouse

Einführungsveranstaltung: Data Warehouse Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring

Mehr

1Ralph Schock RM NEO REPORTING

1Ralph Schock RM NEO REPORTING 1Ralph Schock RM NEO REPORTING Bereit für den Erfolg Business Intelligence Lösungen Bessere Entscheidungen Wir wollen alle Mitarbeiter in die Lage versetzen, bessere Entscheidungen schneller zu treffen

Mehr

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator Agenda Was ist Business Intelligence? Was ist OLAP? Unterschied zwischen OLAP und OLTP? Bestandteile

Mehr

360 - Der Weg zum gläsernen Unternehmen mit QlikView am Beispiel Einkauf

360 - Der Weg zum gläsernen Unternehmen mit QlikView am Beispiel Einkauf 360 - Der Weg zum gläsernen Unternehmen mit QlikView am Beispiel Einkauf Von der Entstehung bis heute 1996 als EDV Beratung Saller gegründet, seit 2010 BI4U GmbH Firmensitz ist Unterschleißheim (bei München)

Mehr

2006 COGNOSCO AG, 8057 ZUERICH, SWITZERLAND All rights reserved. Performance Management Markterfolg dank Kundenrating

2006 COGNOSCO AG, 8057 ZUERICH, SWITZERLAND All rights reserved. Performance Management Markterfolg dank Kundenrating Performance Management Markterfolg dank Kundenrating Welches sind Ihre besten Kunden? Frage 1: Kennen Sie die Umsatzentwicklung jedes Kunden über die letzten 5 Jahre? Frage 2: Kennen Sie den Produkte-Mix

Mehr

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Schwierigkeiten bei der Umsetzung Josef Kolbitsch Manuela Reinisch Übersicht Schwierigkeiten bei der Umsetzung eines BI-Systems Schwierigkeiten der Umsetzung 1/13 Strategische Ziele

Mehr

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5

Systemen im Wandel. Autor: Dr. Gerd Frenzen Coromell GmbH Seite 1 von 5 Das Management von Informations- Systemen im Wandel Die Informations-Technologie (IT) war lange Zeit ausschließlich ein Hilfsmittel, um Arbeitsabläufe zu vereinfachen und Personal einzusparen. Sie hat

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Virtual Roundtable: Business Intelligence - Trends

Virtual Roundtable: Business Intelligence - Trends Virtueller Roundtable Aktuelle Trends im Business Intelligence in Kooperation mit BARC und dem Institut für Business Intelligence (IBI) Teilnehmer: Prof. Dr. Rainer Bischoff Organisation: Fachbereich Wirtschaftsinformatik,

Mehr

pro4controlling - Whitepaper [DEU] Whitepaper zur CfMD-Lösung pro4controlling Seite 1 von 9

pro4controlling - Whitepaper [DEU] Whitepaper zur CfMD-Lösung pro4controlling Seite 1 von 9 Whitepaper zur CfMD-Lösung pro4controlling Seite 1 von 9 1 Allgemeine Beschreibung "Was war geplant, wo stehen Sie jetzt und wie könnte es noch werden?" Das sind die typischen Fragen, mit denen viele Unternehmer

Mehr

Business Intelligence für Controller

Business Intelligence für Controller Controllers Best Practice Fachbuch Business Intelligence für Controller Hermann Hebben und Dr. Markus Kottbauer Verlag für ControllingWissen ÄG, Freiburg und Wörthsee Ein Unternehmen der Haufe Mediengruppe

Mehr

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen Open Source professionell einsetzen 1 Mein Background Ich bin überzeugt von Open Source. Ich verwende fast nur Open Source privat und beruflich. Ich arbeite seit mehr als 10 Jahren mit Linux und Open Source.

Mehr

software, hardware und wissen für business intelligence lösungen software, hardware and knowledge for business intelligence solutions

software, hardware und wissen für business intelligence lösungen software, hardware and knowledge for business intelligence solutions software, hardware und wissen für business intelligence lösungen software, hardware and knowledge for business intelligence solutions Vom OLAP-Tool zur einheitlichen BPM Lösung BI orientiert sich am Business

Mehr

Kampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht

Kampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht Kampagnenmanagement mit Siebel Marketing/Oracle BI ein Praxisbericht Thomas Kreuzer ec4u expert consulting ag Karlsruhe Schlüsselworte: Kampagnenmanagement Praxisbericht Siebel Marketing Oracle BI - ec4u

Mehr

C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl

C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl C09: Einsatz SAP BW im Vergleich zur Best-of-Breed-Produktauswahl Ein Seminar der DWH academy Seminar C09 Einsatz SAP BW im Vergleich zur Best-of-Breed- Produktauswahl Befasst man sich im DWH mit der Auswahl

Mehr

.. für Ihre Business-Lösung

.. für Ihre Business-Lösung .. für Ihre Business-Lösung Ist Ihre Informatik fit für die Zukunft? Flexibilität Das wirtschaftliche Umfeld ist stärker den je im Umbruch (z.b. Stichwort: Globalisierung). Daraus resultierenden Anforderungen,

Mehr

Survival Guide für Ihr Business Intelligence-Projekt

Survival Guide für Ihr Business Intelligence-Projekt Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren

Mehr

MetaNavigation der effizienteste Weg maximalen Mehrwert aus BI Metadaten zu ziehen

MetaNavigation der effizienteste Weg maximalen Mehrwert aus BI Metadaten zu ziehen MetaNavigation der effizienteste Weg maximalen Mehrwert aus BI Metadaten zu ziehen Pasquale Grippo Senior Manager/Business Unit Manager BI 18/20.10.2011 Oracle Business Analytics Summits Düsseldorf/München

Mehr

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage.

Integration mit. Wie AristaFlow Sie in Ihrem Unternehmen unterstützen kann, zeigen wir Ihnen am nachfolgenden Beispiel einer Support-Anfrage. Integration mit Die Integration der AristaFlow Business Process Management Suite (BPM) mit dem Enterprise Information Management System FILERO (EIMS) bildet die optimale Basis für flexible Optimierung

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features. Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features Seite 2 von 11 1. Übersicht MIK.mobile for ipad ist eine Business Intelligence

Mehr

Dieser Handlungsbedarf wird organisatorisch durch das Aufsetzen konkreter (Teil-)Projekte wahrgenommen

Dieser Handlungsbedarf wird organisatorisch durch das Aufsetzen konkreter (Teil-)Projekte wahrgenommen Vorlesung vom 13.06.2005 - Geschäftsprozessmangement / Standardsoftware 08.30 Begrüßung durch Dr. Wolfram Jost, Vorstand der IDS Scheer AG 08.35 Prozessmanagement (Fortsetzung des Vorlesunginhalts vom

Mehr

Die Bedeutung der Prozessmodellierung bei der Weiterentwicklung des DWHs der DAK Der Innovator als Missing Link

Die Bedeutung der Prozessmodellierung bei der Weiterentwicklung des DWHs der DAK Der Innovator als Missing Link Die Bedeutung der Prozessmodellierung bei der Weiterentwicklung des DWHs der DAK Der Innovator als Missing Link Konrad Linner, solvistas GmbH Nürnberg, 20.November 2012 Inhaltsverzeichnis Vorstellung solvistas

Mehr

BI in der Cloud eine valide Alternative Überblick zum Leistungsspektrum und erste Erfahrungen 11.15 11.45

BI in der Cloud eine valide Alternative Überblick zum Leistungsspektrum und erste Erfahrungen 11.15 11.45 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08

Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements. von Stephanie Wilke am 14.08.08 Prozessbewertung und -verbesserung nach ITIL im Kontext des betrieblichen Informationsmanagements von Stephanie Wilke am 14.08.08 Überblick Einleitung Was ist ITIL? Gegenüberstellung der Prozesse Neuer

Mehr

Marketing Intelligence Vorstellung der Softwarekomponenten. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Vorstellung der Softwarekomponenten. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Vorstellung der Softwarekomponenten Josef Kolbitsch Manuela Reinisch Übersicht Übersicht über die Systemlandschaft Übersicht über die Werkzeuge Workshop Systemlandschaft 1/8 Klassische

Mehr

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Architektur und Konzepte Josef Kolbitsch Manuela Reinisch Übersicht Mehrstufiges BI-System Architektur eines Data Warehouses Architektur eines Reporting-Systems Benutzerrollen in

Mehr

Infor PM 10 auf SAP. Bernhard Rummich Presales Manager PM. 9.30 10.15 Uhr

Infor PM 10 auf SAP. Bernhard Rummich Presales Manager PM. 9.30 10.15 Uhr Infor PM 10 auf SAP 9.30 10.15 Uhr Bernhard Rummich Presales Manager PM Schalten Sie bitte während der Präsentation die Mikrofone Ihrer Telefone aus, um störende Nebengeräusche zu vermeiden. Sie können

Mehr

Berichte für Domino-Infrastrukturen

Berichte für Domino-Infrastrukturen Service-orientierte Auswertungen und Berichte für Domino-Infrastrukturen Geschäftsrelevante Betriebsinformationen White Paper www.hypersoft.com Hypersoft Informationssysteme GmbH, 2007 1 Einführung: Domino

Mehr

IT-basierte Kennzahlenanalyse im Versicherungswesen

IT-basierte Kennzahlenanalyse im Versicherungswesen Angelina Jung IT-basierte Kennzahlenanalyse im Versicherungswesen Kennzahlenreporting mit Hilfe des SAP Business Information Warehouse Diplomica Verlag Angelina Jung IT-basierte Kennzahlenanalyse im Versicherungswesen:

Mehr

Business Intelligence Data Warehouse. Jan Weinschenker

Business Intelligence Data Warehouse. Jan Weinschenker Business Intelligence Data Warehouse Jan Weinschenker 28.06.2005 Inhaltsverzeichnis Einleitung eines Data Warehouse Data Warehouse im Zusammenfassung Fragen 3 Einleitung Definition: Data Warehouse A data

Mehr

Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers

Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers Ist Excel das richtige Tool für FMEA? Steve Murphy, Marc Schaeffers Ist Excel das richtige Tool für FMEA? Einleitung Wenn in einem Unternehmen FMEA eingeführt wird, fangen die meisten sofort damit an,

Mehr

IDV Assessment- und Migration Factory für Banken und Versicherungen

IDV Assessment- und Migration Factory für Banken und Versicherungen IDV Assessment- und Migration Factory für Banken und Versicherungen Erfassung, Analyse und Migration von Excel- und AccessAnwendungen als User-Selfservice. Sind Ihre Excel- und Access- Anwendungen ein

Mehr

OLAP und der MS SQL Server

OLAP und der MS SQL Server OLAP und der MS SQL Server OLAP und der MS SQL Server OLAP-Systeme werden wie umfangreiche Berichtssysteme heute nicht mehr von Grund auf neu entwickelt. Stattdessen konzentriert man sich auf die individuellen

Mehr

THEOBALD XTRACT PPS IXTO GMBH. Mathias Slawik, Linda Kallinich

THEOBALD XTRACT PPS IXTO GMBH. Mathias Slawik, Linda Kallinich THEOBALD XTRACT PPS IXTO GMBH Mathias Slawik, Linda Kallinich Projekt BWA: Analytische Anwendungen, WS 2010/2011 Agenda 2/14 Projektaufgabe Technologien / Xtract PPS Projektablauf Dashboard-Prototyp Bewertung

Mehr

Projektmanagement in der Spieleentwicklung

Projektmanagement in der Spieleentwicklung Projektmanagement in der Spieleentwicklung Inhalt 1. Warum brauche ich ein Projekt-Management? 2. Die Charaktere des Projektmanagement - Mastermind - Producer - Projektleiter 3. Schnittstellen definieren

Mehr

Best Practice Infor PM 10 auf Infor Blending

Best Practice Infor PM 10 auf Infor Blending Best Practice Infor PM 10 auf Infor Blending, 11.11.2008 Infor Performance Management Best Practice Infor PM 10 auf Infor Blending Leistungsübersicht Infor PM 10 auf Infor Blending eine Data Warehouse

Mehr

Corporate Design leicht gemacht. officeatwork für Microsoft Dynamics AX und Microsoft Dynamics CRM

Corporate Design leicht gemacht. officeatwork für Microsoft Dynamics AX und Microsoft Dynamics CRM Corporate Design leicht gemacht officeatwork für Microsoft Dynamics AX und Microsoft Dynamics CRM officeatwork Dynamics Connector Corporate Design leicht gemacht officeatwork ist die Business-Lösung für

Mehr

Research Note zum Thema: Laufzeit von Support-Leistungen für Server OS

Research Note zum Thema: Laufzeit von Support-Leistungen für Server OS Research Note zum Thema: Laufzeit von Support-Leistungen für Axel Oppermann Advisor phone: +49 561 506975-24 mobile: +49 151 223 223 00 axel.oppermann@experton-group.com November 2009 Inhalt 1 EINFÜHRUNG

Mehr

Leseauszug DGQ-Band 14-26

Leseauszug DGQ-Band 14-26 Leseauszug DGQ-Band 14-26 Einleitung Dieser Band liefert einen Ansatz zur Einführung von Prozessmanagement in kleinen und mittleren Organisationen (KMO) 1. Die Erfolgskriterien für eine Einführung werden

Mehr

GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013

GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013 OPEN SYSTEMS CONSULTING IT-KOMPLETTDIENSTLEISTER IM MITTELSTAND GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013 Business Analytics Sascha Thielke AGENDA Die Geschichte des Reporting Begriffe im BA Umfeld

Mehr

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374

DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN. Nr. 374 DISKUSSIONSBEITRÄGE DER FAKULTÄT FÜR BETRIEBSWIRTSCHAFTSLEHRE MERCATOR SCHOOL OF MANAGEMENT UNIVERSITÄT DUISBURG-ESSEN Nr. 374 Eignung von Verfahren der Mustererkennung im Process Mining Sabrina Kohne

Mehr

Allgemeines zu Datenbanken

Allgemeines zu Datenbanken Allgemeines zu Datenbanken Was ist eine Datenbank? Datensatz Zusammenfassung von Datenelementen mit fester Struktur Z.B.: Kunde Alois Müller, Hegenheimerstr. 28, Basel Datenbank Sammlung von strukturierten,

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Richtige und schnelle Entscheidungen trotz sich änderner Anforderungen mit Microsoft Dynamics AX und Microsoft SQL Server Reporting Services

Richtige und schnelle Entscheidungen trotz sich änderner Anforderungen mit Microsoft Dynamics AX und Microsoft SQL Server Reporting Services Launch Microsoft Dynamics AX 4.0 Richtige und schnelle Entscheidungen trotz sich änderner Anforderungen mit Microsoft Dynamics AX und Microsoft SQL Server Reporting Services Sonia Al-Kass Partner Technical

Mehr

----------------------------------------------------------------------------------------------------------------------------------------

---------------------------------------------------------------------------------------------------------------------------------------- 0 Seite 0 von 20 03.02.2015 1 Ergebnisse der BSO Studie: Trends und Innovationen im Business Performance Management (BPM) bessere Steuerung des Geschäfts durch BPM. Bei dieser BSO Studie wurden 175 CEOs,

Mehr

Business Intelligence in NRW

Business Intelligence in NRW Fragebogen zur Erhebung von Unternehmensdaten für die Business Intelligence Studie in Nordrhein-Westfalen ishot, wwwphotocasede Sehr geehrte Teilnehmerin, sehr geehrter Teilnehmer, wir führen für das Land

Mehr

Analyse zum Thema: Laufzeit von Support-Leistungen für ausgewählte Server OS

Analyse zum Thema: Laufzeit von Support-Leistungen für ausgewählte Server OS Analyse zum Thema: Laufzeit von Support-Leistungen für Axel Oppermann Advisor phone: +49 561 506975-24 mobile: +49 151 223 223 00 axel.oppermann@experton-group.com Januar 2010 Inhalt Summary und Key Findings

Mehr

Informationssystemanalyse Problemstellung 2 1. Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse:

Informationssystemanalyse Problemstellung 2 1. Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse: Informationssystemanalyse Problemstellung 2 1 Problemstellung Trotz aller Methoden, Techniken usw. zeigen Untersuchungen sehr negative Ergebnisse: große Software-Systeme werden im Schnitt ein Jahr zu spät

Mehr

Content Management System mit INTREXX 2002.

Content Management System mit INTREXX 2002. Content Management System mit INTREXX 2002. Welche Vorteile hat ein CM-System mit INTREXX? Sie haben bereits INTREXX im Einsatz? Dann liegt es auf der Hand, dass Sie ein CM-System zur Pflege Ihrer Webseite,

Mehr

Data Mining-Projekte

Data Mining-Projekte Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein

Mehr

Seminar im Sommersemester 2004 an der Universität Karlsruhe (TH)

Seminar im Sommersemester 2004 an der Universität Karlsruhe (TH) Seminar im Sommersemester 2004 an der Universität Karlsruhe (TH) Verteilung und Integration von Informationen im Verkehrsbereich Thema: OLAP in verteilten Data-Warehouse- Umgebungen Vortrag: Christian

Mehr

Business Intelligence Praktikum 1

Business Intelligence Praktikum 1 Hochschule Darmstadt Business Intelligence WS 2013-14 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 14.10.2013 Business Intelligence Praktikum

Mehr

Aufgabe 1: [Logische Modellierung]

Aufgabe 1: [Logische Modellierung] Aufgabe 1: [Logische Modellierung] a) Entwerfen Sie für das von Ihnen entworfene Modell aus Aufgabe 2 des 1. Übungsblattes ein Star-Schema. b) Entwerfen Sie für das vorangegangene Modell einen Teil eines

Mehr

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit BI Konsolidierung: Anspruch & Wirklichkeit Jacqueline Bloemen in Kooperation mit Agenda: Anspruch BI Konsolidierung Treiber Was sind die aktuellen Treiber für ein Konsolidierungsvorhaben? Kimball vs. Inmon

Mehr

PRESSE-INFORMATION NEU: LÜNENDONK -MARKTSTICHPROBE 2012 BUSINESS INTELLIGENCE ALS KERNKOMPETENZ

PRESSE-INFORMATION NEU: LÜNENDONK -MARKTSTICHPROBE 2012 BUSINESS INTELLIGENCE ALS KERNKOMPETENZ PRESSE-INFORMATION BI-22-08-12 NEU: LÜNENDONK -MARKTSTICHPROBE 2012 BUSINESS INTELLIGENCE ALS KERNKOMPETENZ Spezialisierte BI-Anbieter wachsen um 19,3 Prozent Datenintegration ist das Top-Thema Anbieter

Mehr

Speicher in der Cloud

Speicher in der Cloud Speicher in der Cloud Kostenbremse, Sicherheitsrisiko oder Basis für die unternehmensweite Kollaboration? von Cornelius Höchel-Winter 2013 ComConsult Research GmbH, Aachen 3 SYNCHRONISATION TEUFELSZEUG

Mehr

Der beste Plan für Office 365 Archivierung.

Der beste Plan für Office 365 Archivierung. Der beste Plan für Office 365 Archivierung. Der Einsatz einer externen Archivierungslösung wie Retain bietet Office 365 Kunden unabhängig vom Lizenzierungsplan viele Vorteile. Einsatzszenarien von Retain:

Mehr

Von ODBC zu OLE DB. Neue Möglichkeiten der Datenintegration. Harald Gladytz, Team Vertrieb ESRI Niederlassung Leipzig

Von ODBC zu OLE DB. Neue Möglichkeiten der Datenintegration. Harald Gladytz, Team Vertrieb ESRI Niederlassung Leipzig Von ODBC zu OLE DB Neue Möglichkeiten der Datenintegration Harald Gladytz, Team Vertrieb ESRI Niederlassung Leipzig Von ODBC zu OLE DB Begriffsbestimmung ODBC, OLE DB, COM, ADO... Unterschiede zwischen

Mehr

Raber+Märcker Business Intelligence Lösungen und Leistungen

Raber+Märcker Business Intelligence Lösungen und Leistungen Business Intelligence Raber+Märcker Business Intelligence Lösungen und Leistungen www.raber-maercker.de 2 LEISTUNGEN Business Intelligence Beratungsleistung Die Raber+Märcker Business Intelligence Beratungsleistung

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

aito for Abacus Excellente Dokumentation Juli 11

aito for Abacus Excellente Dokumentation Juli 11 aito for Abacus Excellente Dokumentation Juli 11 2 / 5 aito for Abacus ist eine, auf Microsoft Basis-Technologie aufgebaute, BI-Lösung welche die Vorteile einer Individuallösung mit dem hohem Vorfertigungsgrad

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit

IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit IT-Governance und Social, Mobile und Cloud Computing: Ein Management Framework... Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaft

Mehr

Projektarbeit POS II zum Thema Branchensoftware in der Druckindustrie. Ben Polter, Holger Räbiger, Kilian Mayer, Jochen Wied

Projektarbeit POS II zum Thema Branchensoftware in der Druckindustrie. Ben Polter, Holger Räbiger, Kilian Mayer, Jochen Wied Projektarbeit POS II zum Thema Branchensoftware in der Druckindustrie Ben Polter, Holger Räbiger, Kilian Mayer, Jochen Wied Die SAP AG ist der größte europäische und weltweit drittgrößte Softwarehersteller.

Mehr

Workflow Systeme mit der Windows Workflow Foundation

Workflow Systeme mit der Windows Workflow Foundation Studiengang Electronic Business (EB) Diplomarbeit (280000) Workflow Systeme mit der Windows Workflow Foundation externe Betreuung durch Christoph Müller vorgelegt bei Prof. Dr. Michael Gröschel von Hans-Martin

Mehr

Seminar C02 - Praxisvergleich OLAP Tools

Seminar C02 - Praxisvergleich OLAP Tools C02: Praxisvergleich OLAP Tools Ein Seminar der DWH academy Seminar C02 - Praxisvergleich OLAP Tools Das Seminar "Praxisvergleich OLAP-Tools" bietet den Teilnehmern eine neutrale Einführung in die Technologien

Mehr

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

SUMMARY. 1. Wer wir sind 2. Der ExcelNova «Value Add» 3. Referenzen aus dem Kundenportfolio 4. Fachwissen & Kompetenzen 5. Produkte und Angebote

SUMMARY. 1. Wer wir sind 2. Der ExcelNova «Value Add» 3. Referenzen aus dem Kundenportfolio 4. Fachwissen & Kompetenzen 5. Produkte und Angebote 1. Wer wir sind 2. Der ExcelNova «Value Add» 3. Referenzen aus dem Kundenportfolio 4. Fachwissen & Kompetenzen 5. Produkte und Angebote SUMMARY Wer wird sind ExcelNova entwickelt Lösungen basierend auf

Mehr

Master-Thesis (m/w) für unseren Standort Stuttgart

Master-Thesis (m/w) für unseren Standort Stuttgart Master-Thesis (m/w) für unseren Standort Abschlussarbeit im Bereich Business Process Management (BPM) Effizienzsteigerung von Enterprise Architecture Management durch Einsatz von Kennzahlen Braincourt

Mehr

Wie wirksam wird Ihr Controlling kommuniziert?

Wie wirksam wird Ihr Controlling kommuniziert? Unternehmenssteuerung auf dem Prüfstand Wie wirksam wird Ihr Controlling kommuniziert? Performance durch strategiekonforme und wirksame Controllingkommunikation steigern INHALT Editorial Seite 3 Wurden

Mehr

BPM im Kontext von Unternehmensarchitekturen. Konstantin Gress

BPM im Kontext von Unternehmensarchitekturen. Konstantin Gress BPM im Kontext von Unternehmensarchitekturen Konstantin Gress Agenda 1 Worum geht s BPM, EA und SOA im Überblick 2 Link zwischen EA und BPM 3 Link zwischen SOA und BPM 4 Wie spielt das zusammen? 5 Q&A

Mehr

Ein subjektiver Vergleich zwischen SSIS und Kettle mit Ausblick auf die Generierung von BI-Lösungen

Ein subjektiver Vergleich zwischen SSIS und Kettle mit Ausblick auf die Generierung von BI-Lösungen Ein subjektiver Vergleich zwischen SSIS und Kettle mit Ausblick auf die Generierung von BI-Lösungen vorgestellt am 29.09.2008 in der PASS Regionalgruppe Karlsruhe Michael Riedmüller inovex GmbH Project

Mehr

Leistungsstarke Enterprise Apps. Für Menschen erdacht. Für Veränderungen entwickelt.

Leistungsstarke Enterprise Apps. Für Menschen erdacht. Für Veränderungen entwickelt. Plattform, Apps und App-Entwicklung Onit Apps für Ihr Unternehmen App [ap] Nomen Computer, informell 1. Anwendung (in der Regel ein kleines spezialisiertes Programm), die auf Mobilgeräte heruntergeladen

Mehr

Marketing Intelligence Übersicht über Business Intelligence. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Übersicht über Business Intelligence. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Übersicht über Business Intelligence Josef Kolbitsch Manuela Reinisch Übersicht Beispiel: Pantara Holding Der Begriff Business Intelligence Übersicht über ein klassisches BI-System

Mehr

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery

Seminar Business Intelligence Teil II. Data Mining & Knowledge Discovery Seminar Business Intelligence Teil II Data Mining & Knowledge Discovery Was ist Data Mining? Sabine Queckbörner Was ist Data Mining? Data Mining Was ist Data Mining? Nach welchen Mustern wird gesucht?

Mehr

Strategisches Informationsmanagement auf Basis von Data Warehouse-Systemen

Strategisches Informationsmanagement auf Basis von Data Warehouse-Systemen Strategisches Informationsmanagement auf Basis von Data Warehouse-Systemen SAS PharmaHealth & Academia Gabriele Smith KIS-Tagung 2005 in Hamburg: 3. März 2005 Copyright 2003, SAS Institute Inc. All rights

Mehr

Seminar C16 - Datenmodellierung für SAP BW

Seminar C16 - Datenmodellierung für SAP BW C16: Datenmodellierung für SAP BW Ein Seminar der DWH academy Seminar C16 - Datenmodellierung für SAP BW Dieses Seminar soll einen umfassenden Einblick in die Datenmodellierung beim Einsatz von SAP BW

Mehr

Autorisierung. Sicherheit und Zugriffskontrolle & Erstellen einer Berechtigungskomponente

Autorisierung. Sicherheit und Zugriffskontrolle & Erstellen einer Berechtigungskomponente Autorisierung Sicherheit und Zugriffskontrolle & Erstellen einer Berechtigungskomponente Dokumentation zum Referat von Matthias Warnicke und Joachim Schröder Modul: Komponenten basierte Softwareentwickelung

Mehr

Microsoft Office Visio 2007 Infotag SemTalk Thema: Prozessmodellierung

Microsoft Office Visio 2007 Infotag SemTalk Thema: Prozessmodellierung Microsoft Office Visio 2007 Infotag SemTalk Thema: Prozessmodellierung Dr.-Ing. Frauke Weichhardt, Semtation GmbH Christian Fillies, Semtation GmbH Claus Quast, Microsoft Deutschland GmbH Prozessmodellierung

Mehr

Business Intelligence Praktikum 1

Business Intelligence Praktikum 1 Hochschule Darmstadt Business Intelligence SS 2014 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 07.05.2014 Business Intelligence Praktikum

Mehr

INDIVIDUELLE SOFTWARELÖSUNGEN CUSTOMSOFT CS GMBH

INDIVIDUELLE SOFTWARELÖSUNGEN CUSTOMSOFT CS GMBH 01 INDIVIDUELLE SOFTWARELÖSUNGEN 02 05 02 GUMMERSBACH MEHRWERT DURCH KOMPETENZ ERIC BARTELS Softwarearchitekt/ Anwendungsentwickler M_+49 (0) 173-30 54 146 F _+49 (0) 22 61-96 96 91 E _eric.bartels@customsoft.de

Mehr

Von der spezialisierten Eigenentwicklung zum universellen Analysetool. Das Controlling-Informationssystem der WestLB Systems

Von der spezialisierten Eigenentwicklung zum universellen Analysetool. Das Controlling-Informationssystem der WestLB Systems Von der spezialisierten Eigenentwicklung zum universellen Analysetool Das Controlling-Informationssystem der WestLB Systems Begriffe und Definitionen Data Warehouse - Datensammlung oder Konzept?! Data

Mehr

Intelligente Prozesse für das Kundenbeziehungsmanagement. Rainer Wendt, in der IHK Aachen, 23.02.2011

Intelligente Prozesse für das Kundenbeziehungsmanagement. Rainer Wendt, in der IHK Aachen, 23.02.2011 CRM Process Performance Intelligence Intelligente Prozesse für das Kundenbeziehungsmanagement Rainer Wendt, in der IHK Aachen, 23.02.2011 masventa Business GmbH Von-Blanckart-Str. 9 52477 Alsdorf Tel.

Mehr

Business Intelligence im Krankenhaus

Business Intelligence im Krankenhaus Business Intelligence im Krankenhaus Dr. Thomas Lux Holger Raphael IT-Trends in der Medizin 03.September 2008 Essen Gliederung Herausforderungen für das Management im Krankenhaus Business Intelligence

Mehr

! APS Advisor for Automic

! APS Advisor for Automic APS Advisor for Automic Business Service Monitoring für Fachanwender, IT- Manager and IT- Experten www.apsware.com Überblick for Automic ist eine auf die spezifischen Bedürfnisse von Fachanwendern, IT-

Mehr

gallestro BPM - weit mehr als malen...

gallestro BPM - weit mehr als malen... Ob gallestro das richtige Tool für Ihr Unternehmen ist, können wir ohne weitere rmationen nicht beurteilen und lassen hier die Frage offen. In dieser rmationsreihe möchten wir Ihre Entscheidungsfindung

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

www.odgersberndtson.de HUMAN ASSET REVIEW

www.odgersberndtson.de HUMAN ASSET REVIEW www.odgersberndtson.de HUMAN ASSET REVIEW DAS STRATEGISCHE WERKZEUG HUMAN ASSET REVIEW Erfolgreiche Strategen schauen durch das Fernglas und das Mikroskop sie erkennen Trends und gleichzeitig analysieren

Mehr

Die aktuellen Top 10 IT Herausforderungen im Mittelstand

Die aktuellen Top 10 IT Herausforderungen im Mittelstand Die aktuellen Top 10 IT Herausforderungen im Mittelstand Ronald Boldt, SPI GmbH Über mich Ronald Boldt Leiter Business Solutions SPI GmbH Lehrbeauftragter für Geschäftsprozess orientiertes IT Management

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

Data Warehouse Technologien

Data Warehouse Technologien Veit Köppen Gunter Saake Kai-Uwe Sattler Data Warehouse Technologien Inhaltsverzeichnis Inhaltsverzeichnis vii 1 Einführung in Data-Warehouse-Systeme 1 1.1 Anwendungsszenario Getränkemarkt...............

Mehr

Planung, Analyse und Reporting dezentral im Web

Planung, Analyse und Reporting dezentral im Web Planung, Analyse und Reporting dezentral im Web CP-Web ist ein Modul der Corporate Planning Suite. Informationen - jederzeit an jedem Ort. Um zielgerichtet den Unternehmenskurs bestimmen zu können, werden

Mehr

Übungen zur Softwaretechnik

Übungen zur Softwaretechnik Technische Universität München Fakultät für Informatik Lehrstuhl IV: Software & Systems Engineering Markus Pister, Dr. Bernhard Rumpe WS 2002/2003 Lösungsblatt 9 17. Dezember 2002 www4.in.tum.de/~rumpe/se

Mehr

Leistungssteuerung beim BASPO

Leistungssteuerung beim BASPO Leistungssteuerung beim BASPO Organisationsstruktur Advellence die Gruppe. Advellence Consulting Advellence Solutions Advellence Products Advellence Services HR-Migrator & albislex powered byadvellence

Mehr

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features 1. Übersicht Der MIK.etl.connector ist ein ETL-Tool - die Abkürzung steht für

Mehr

Lizenzierung von SharePoint Server 2013

Lizenzierung von SharePoint Server 2013 Lizenzierung von SharePoint Server 2013 Das Lizenzmodell von SharePoint Server 2013 besteht aus zwei Komponenten: Serverlizenzen zur Lizenzierung der Serversoftware und CALs zur Lizenzierung der Zugriffe

Mehr

Architekturen. Von der DB basierten zur Multi-Tier Anwendung. DB/CRM (C) J.M.Joller 2002 131

Architekturen. Von der DB basierten zur Multi-Tier Anwendung. DB/CRM (C) J.M.Joller 2002 131 Architekturen Von der DB basierten zur Multi-Tier Anwendung DB/CRM (C) J.M.Joller 2002 131 Lernziele Sie kennen Design und Architektur Patterns, welche beim Datenbankzugriff in verteilten Systemen verwendet

Mehr