Engineering von Datawarehouse ETL-Prozessen als Bestandteil eines Business Performance Management Systems

Größe: px
Ab Seite anzeigen:

Download "Engineering von Datawarehouse ETL-Prozessen als Bestandteil eines Business Performance Management Systems"

Transkript

1 Freie wissenschaftliche Arbeit Zur Erlangung des akademischen Grades einer Diplom-Informatikerin über das Thema Engineering von Datawarehouse ETL-Prozessen als Bestandteil eines Business Performance Management Systems eingereicht im Fachbereich 2, Studiengang Informatik und Ingenieurwissenschaften der Fachhochschule Frankfurt vorgelegt von: Evgenia Davidenko Großer Hasenpfad Frankfurt am Main Matrikelnummer: Abgabetermin: Betreut von: Dr. Dipl.-Phys. Erwin Hoffmann und Dr. Matthias Schubert

2

3 Eidesstattliche Erklärung Ich versichere wahrheitsgemäß, die Diplomarbeit selbständig angefertigt, alle benutzten Hilfsmittel vollständig und genau angegeben und alles kenntlich gemacht zu haben, was aus Arbeiten anderer unverändert oder mit Abänderung entnommen wurde. Frankfurt am Main, Evgenia Davidenko

4

5 Danksagung Ich danke an erster Stelle der Fachhochschule Frankfurt und der Fachhochschule Coburg, die mir die benötigte Basis an Wissen und praktische Anwendung für dieses Projekt innerhalb Studienzeit gegeben haben. Ich danke der Colt Frankfurt und ganz besonders der Abteilung Controlling für die Bereitstellung der Thematik dieser Diplomarbeit. Besonders möchte ich mich bei dem Projektleiter Andrej Antonov für die Möglichkeit in seinem Projektteam diese Diplomarbeit zu entwickeln, und ebenso für seine Unterstützung, Geduld und engagierte Betreuung herzlich bedanken. Die Zusammenarbeit mit Colt- Team in einer freundlichen Atmosphäre hat mir viel neu erworbenes Fachwissen und Erfahrung für mein zukünftiges professionelles Leben gebracht. Ich danke ebenso dem AIS-Team in London, das als externes Team an dem Entwurf und Entwicklung des Projektes mitgearbeitet haben. Für die fachliche Betreuung der vorliegenden Arbeit im Fachbereich 2 an der Fachhochschule Frankfurt danke ich Dr. Erwin Hoffmann. Ganz besonders möchte ich Dipl.-Inf. Alexander Schoch für die mühsame Korrektur und fachliche Hilfe bei meiner Diplomarbeit danken. Zudem möchte ich meiner Familie danken, die mich von Anfang an moralisch unterstützt und mir immer die Kraft gegeben hat, diese Arbeit zu Ende bringen.

6

7 Einleitung i Einleitung Der Nachteil der Intelligenz besteht darin, dass man ununterbrochen gezwungen ist, dazuzulernen. George Bernard Shaw Mit dem Begriff Business Integration muss sich heutzutage jede Kapitalgesellschaft mehr oder weniger auseinander setzen. Der Begriff beschreibt das Unternehmenskonzept, das die verschiedenen Taktiken für maximale Leistungsfähigkeit und Profitabilität der Unternehmen enthält. Die beiden Faktoren sind nicht die einzigen Erfolgsmaßeinheiten. Die Eigenschaft eines Unternehmens sich gegen eine große Konkurrenz durchzusetzen, große Krisen zu überleben, rechtzeitig Risiken und Chancen zu erkennen das alles macht aus einem Unternehmen ein nicht nur heute erfolgreiches Unternehmen, sondern auch morgen. Um dies zu realisieren, haben die Unternehmensführungskräfte und Geschäftsanalytiker in den 1990er Jahren einen bisher fast unbekannten, IT-basierten Ansatz mit dem Namen Business Intelligence (BI) eingeführt. Der Begriff BI hat höchstwahrscheinlich seinen Ursprung in einer im Jahr 1958 veröffentlichten Arbeit A Business Intelligence System von einem deutschen Informatiker bei IBM Hans-Peter Luhn. Da beschreibt er ein System, das in automatisierter Form Dokumente analysiert und dann in einer Berichtsform an eine bestimmte Organisationsstelle weiterleitet. Im Punkt automatisiertes Analysieren klingt dieser Definition zuerst sehr technisch ist aber nicht nur das. Howard Dresner, ein Analyst der Gartner Group und ein BI-Visionär erläutert in einem Interview: Der Fokus muss auf dem Geschäft liegen, nicht auf der Technologie. Es geht einzig darum, die Menschen und die Prozesse zusammen zu bringen und mit dem Zweck der Organisation zu verschmelzen. [DrHoward] Später führt er noch einen weiteren innovativen Begriff ein: Business-Performance- Management (BPM). BPM wird als Weiterentwicklung von BI betrachtet. BPM konzen-

8 Einleitung ii triert sich mehr auf die Geschäftsprozesse eines Unternehmens. Deren Analyse, Monitoring, Kontrolle, Planung und Prognose, das alles sind Key-Prozesse für die unternehmensleitenden Positionen zur Unterstützung beim Treffen von Entscheidungen über Ziele und Richtlinien der Organisation. Das Performance Management liefert Ergebnisse über den Erfolg der Unternehmensführung und ist auch in der Lage die Aussagen über zukunftsbezogene Prozesse wie Planung und Prognose zu treffen. Technisch gesehen ist das Performance Management die Vermittlungsschicht bei der Kommunikation zwischen Enterprise Performance Management(ERP)- und Reportkomponenten. Mit Hilfe von BPM- Werkzeugen werden die Daten aus ERP-Applikationen extrahiert, transformiert in das für die BI-Plattform verständliche Format und für weitere Reporting- und Analyseprozesse fertiggestellt. Die Planungs- und Forecast-Daten aus Reporting-Komponenten werden dann wiederum anhand der BPM-Planungswerkzeuge in die ERP und Data Warehouse(DWh) transportiert. Diese Zusammenarbeit zwischen operativen und strategischen Ebenen wird durch BPM optimiert, teilweise automatisiert und dazu benötigte Ressourcen besser verteilt. Der detaillierte Blick über die BPM-relevanten Grundlagen und Techniken folgt in den nächsten Abschnitten dieser Arbeit.

9 Abstrakt iii Abstrakt Diese Diplomarbeit wurde in Colt Technology & Services im Zeitraum von 3 Monaten durchgeführt. Das Ziel der Arbeit ist die Unterstützung des Colt Teams bei der Business Performance Optimierung. Das Colt Management Team hat am Ende 2009 die Entscheidung getroffen, seine über 10 Jahre im Einsatz befindende Business Performance Management Plattform MIK durch eine leistungsfähigere Performance Plattform von SAP zu ersetzen. Dabei grenzen die Gestaltung und Implementierung von ETL-Prozessen mit anschließender Testphase dieses Projekt als Diplomthema ab. Den Durchblick von alten und neuen Systemen als Ganzes ist für die Realisierung der Diplomarbeit notwendig gewesen. Die Kennenlernphase reflektiert sich in dieser Arbeit im Kapitel 1 zuerst in Colt-Unternehmensvorstellung. Colt, als einer der größten europäischen Informations- und Telekommunikationsanbieter stellt eine umfangreiche Palette an Dienstleistungen für seine Kunden zur Verfügung. Die Beschreibung dieser Dienste stellt ebenso erstes Kapitel der vorliegenden Arbeit dar. Im Kapitel 2 (Theoretische Grundlagen) wurden die Recherchen in den Bereichen Business Intelligence und Business Performance zusammengefasst. Die dazu relevanten Definitionen von den einzelnen BI-Komponenten sind ebenfalls erklärt. Im Kapitel 3 ist das gesamte Migrationsprojekt Hercules, welches die Grundlage dieser Diplomarbeit darstellt, beschrieben. In Kapiteln 3.1 bis 3.3 sind die festgelegten Projektpläne und die zu erreichenden Projektziele erläutert. Diese Pläne und Ziele beziehen sich sowohl auf das gesamte Projekt, als auch auf das Diplomthema. Dabei wird ausführlicher auf die Business Performance-Problematik eingegangen. Der Ansatz zur Performanceoptimierung, die Erwartungen an die neuen Systeme, die Anforderungen an die ETL-Tools sowie die zur Verfügung stehenden Ressourcen werden in diesem Kapitel formuliert.

10 Abstrakt iv Kapitel 3.4 bis 3.7 repräsentieren die Ausgangslage, das Zielsystem und die Projektergebnisse. Kapitel 3.4 stellt das zu ersetzende Informationssystem MIK und die Gründe für ihre Ablösung vor. Kapitel 3.5 schafft einen Überblick über das neue System Business Planning and Consolidation (BPC) und erklärt die Auswahlkriterien, die Colt bei seiner Entscheidung für den BPC-Einsatz überzeugt haben. Im Kapitel 3.6 wird das SQL Server 2008 Enterprise Edition als Entwicklungs- und Datenplattform kurz dargestellt. Im Kapitel 3.7 wird der eigenentwickelte Teil des ETL-Prozesses, sowie ETL-Werkzeuge für das neue BPC-System beschrieben. In Kapiteln 4 und 5 werden die Ergebnisse sowohl dieser Diplomarbeit als auch des gesamten Projektes zusammengefasst.

11 Inhaltsverzeichnis v Inhaltsverzeichnis EINLEITUNG... I ABSTRAKT... III INHALTSVERZEICHNIS... V ABKÜRZUNGSVERZEICHNIS... VII 1 EINFÜHRUNG Colt Vorstellung Zielsetzung THEORETISCHE GRUNDLAGEN Business Intelligence(BI) Definition und Erklärung Phasen und Werkzeuge Business Performance Management(BPM) Vorteile von BPM Business Performance Management (BPM)-Modell BPM-Anbieter im Überblick Data Warehouse(DWh) Definition DWh-System Architektur ETL-Prozesse ETL-Entwurfskonzeption Klassische Architektur Online Analytical Processing (OLAP) OLAP-Charakterisik Multidimensionales Datenmodell Data Cubes OLAP-Architektur und Speicherungsarten PROJEKT HERCULES Projektziele Projektpläne Das Team Ausgangslage: MIKsolution+ als vorhandene BI-Plattform Komponenten Die Beschaffung und Speicherung der Daten... 28

12 Inhaltsverzeichnis vi Hauptkriterien für MIK-Ersetzung SAP BO Business Planning and Consolidation (BPC) als die künftige BPM-Plattform Warum BPC? Architektur im Überblick BPC-Umsetzung für Colt Vorteile gegenüber MIK MS SQL Server 2008 Enterprise Edition Das Datenbankmodul SQL Server Management Studio SQL Server Integration Services (SSIS) Business Intelligence Development Studio (BIDS) ETL-Prozesse ETL-Architektur und -Prozessablauf Quelldatenbanken BPC-Applikationen ETL-Views Übersicht OHS-Paket für Waterfall-Applikation ZUSAMMENFASSUNG FAZIT UND AUSBLICK ANHANG LITERATURVERZEICHNIS ABBILDUNGSVERZEICHNIS TABELLENVERZEICHNIS GLOSSAR... 73

13 Abkürzungsverzeichnis vii Abkürzungsverzeichnis API... Application Programming Interface BI... Business Intelligence BPM... Business-Performance-Management ERP... Enterprise Resource Planning ETL... Extract, Transform, Load ODBC... Open Database Connectivity JDBC... Java Database Connectivity COM... Component Object Model CRM... Customer -Relationship -Management CMS... Colt Content-Management Services-System KPI... Key Performance Indicators MOLAP... Multidimensional Online Analytical Processing OHS... Order Handling System ODBC... Open Database Connectivity OLAP... Online Analytical Processing OLE DB... Object Linking and Embedding, Database OLTP... Online Transaction Processing PR... Public Relations ETL... Extract, Transform, Load ERP... Enterprise Resource Planning FH... Fachhochschule BI... Business Intelligence IBM... International Business Machines Corp. BPM... Business-Performance-Management IP... Internet Protocol IT... information technology MIK... Management Information Kommunikation Technology SRM... Supplier Relationship Management TCO... Total Cost of Ownership UML... Unified Modeling Language E/R... Entity/ Relationship (Model) SSIS... SQL Server Integration Services BIDS... Business Intelligence Development Studio UAT... User Acceptance Test DEV... Development

14

15 Einführung 1 1 Einführung 1.1 Colt Vorstellung Colt als einer der führenden Anbieter von Informations- und Telekommunikationstechnologie in Europa bietet heutzutage seinen Kunden eine ganze Palette an Telekommunikations- und Dienstleistungen. Die Colt-Kunden: Großunternehmen, kleine bis mittlere Unternehmen sowie Großhandel, stellen Daten-, Sprach- und Managed Services zur Verfügung. Die weltweit 25 wichtigsten Finanzinstitute, 67 der 100 wichtigsten europäischen Banken und 20 europäische Börsen sind die Stammkunden von Colt. Die Colt Telecom Group S.A. wird an der Londoner Börse gehandelt und hat mehr als 50 Auszeichnungen erhalten, darunter den Preis «EMEA Ethernet Service Provider of the Year» des Metro Ethernet Forum (2008) sowie den World Communication Award für «Best Brand» (2007). Das Netz von COLT umfasst eigene Stadtnetze in den 34 wichtigsten europäischen Metropolen mit direkten Glasfaserverbindungen in Gebäuden und 19 eigenen Rechenzentren. Die Muttergesellschaft COLT Telecom Group S. A. beschäftigt rund 3850 Mitarbeiter und ist an der London Stock Exchange gelistet. Im Geschäftsjahr 2006 wurde ein Gesamtumsatz von über 1,8 Milliarden Euro erzielt.

16 Einführung 2 Das Nutzungsverhalten und die Kundenanforderungen waren für Colt immer die Entscheidungspunkte bei der Produktentwicklung. Um die dazu benötigten Daten schneller analysieren zu können, hat sich Colt für ein zentrales DWh entschieden. Colt s DWh dient als Informationslager für verschiedene Systemeinheiten und bietet mehr als drei Terabytes an Datenkapazität. Als Software für das DWh hat sich Colt für ein Produkt von Oracle entschieden. Die wichtigen Anforderungen an das neue System waren: Möglichkeit einer Ad-hoc-Analyse Unterstützung der Standartberichte und weiteren erforderlichen Analysen über das Internet Geschäftsdatenkonsolidierung Ab Februar 2010 hat sich Colt von seinem Dreieckbrand und dem Namen Colt Telecom verabschiedet. Seit diesem Moment besteht der Name Colt Technology Services GmbH. In Deutschland befindet sich der Hauptsitz von Colt in Frankfurt. Die weiteren Informationen über Colt befindet sich unter

17 Einführung Zielsetzung Die bei Colt zur Projektbeginn vorhandene MIK-Plattform wird aus Performance Gründen durch SAP BPC ausgewechselt. Der Datenintegrationsprozess im neuen BPC-System soll durch einen ETL-Werkzeug unterstützt werden. Der MS SQL Server 2008 Enterprice Edition als BPC-Applikations- und Entwicklungsserver, bietet eine vielfältige Integrationsplattform. Das Ziel dieser Diplomarbeit ist die Konzeption der ETL-Architektur, Erstellung der ETL- Interfaces (Views) und Server-seitige SSIS-Implementierung. Das Ziel der Implementierung ist die Bereitstellung der Daten für die in BPC definierten Cubes. Die Views stellen dabei die Mapping-Funktionen dar, welche die Daten aus externen Quellen entsprechend einem für BPC geeigneten Format zusammenfassen.

18 Theoretische Grundlagen 4 2 Theoretische Grundlagen Um einen Einblick in das Diplomthema zu verschaffen, werden zuerst die Grundlagen der Business Intelligence und Business Performance erläutert. 2.1 Business Intelligence(BI) Definition und Erklärung Der Begriff BI wird immer wieder stark diskutiert. Allgemein versteht man darunter die Aufbereitung und die Bereitstellung von Information in elektronischer Form für analytische Zwecke. Die Information kann dabei sowohl aus internen als auch aus externen Quellen gewonnen werden. Je rechtzeitiger und vertraulicher die Informationsquellen sind, desto höher ist die Relevanz der gewonnenen Erkenntnisse. Das Wort Intelligence muss man hier als die aus diesen Informationen kommenden Erkenntnisse verstehen. Man kann auch sagen, dass aus geschäftlicher Perspektive ein Unternehmen dann intelligent ist, wenn die operativen und strategischen Entscheidungen richtig getroffen werden. Hier spricht man gleichzeitig über Erfolg oder gute Performance des Unternehmens Phasen und Werkzeuge Technisch gesehen, lässt sich BI in die drei Bereiche unterteilen: Datenerfassung, Datenhaltung und Datenbereitstellung. Bei der Datenerfassung werden die aus operativen Systemen gewonnenen Daten für die analytischen Zwecke zusammengeführt. Operative Systeme, wie Buchungs- oder Warenwirtschaftssysteme sind häufig heterogene Quellen, die große Datenmengen für das

19 Theoretische Grundlagen 5 Unternehmen liefern. Diese Daten sind meist transaktionsorientiert und auf eine bestimmte Ist-Situation und -Zeit bezogen. Die Qualität solcher Daten ist oft sehr mangelhaft. Die Situationen wie mehrfach gespeicherte, fehlende oder inhaltlich falsch gespeicherte Daten sind kein seltenes Ereignis. Solche Daten sind für die Benutzer kaum verwertbar. Die Informationen müssen zuerst transformiert, bereinigt und meist in einer zentralen Datenbank (oft in Form eines DWh) persistiert werden. Für diese Zwecke steht eine große Menge der ETL-Werkzeuge zur Verfügung. Eine sichere, dauerhafte und strukturierte Datenhaltung ist heute bei jedem Unternehmen, das mit mehr oder weniger großen Datenmengen arbeitet ein primäres Ziel geworden. Dabei müssen die Risiken, wie physikalischer Verlust, Verlust an der Integrität, oder Verwendung der unvertraulichen Daten vermieden werden. Der Ansatz für die Datenmodellierung verdient an dieser Stelle die höchste Aufmerksamkeit. Ein Datenmodell entsteht aus einem Fachkonzept nach einer genauen Analyse mit Hilfe von einem geeigneten Modellierungswerkzeug. Der standardisierte und sich als sehr nutzbar erwiesene Ansatz dafür ist die Entity-Relationship-Modellierung (ERM). Auf dessen Grundlage entsteht eine konzeptionelle Datenstruktur, die Informationsobjekte und deren Beziehungen beschreibt und identifiziert. Im BI-Umfeld werden die Objekte dann in der Form von multidimensionalen Datenbanken gespeichert. Die letzte Phase des BI-Prozesses ist die Datenbereitstellung. Diese Ebene gibt den Benutzern Zugang zu den Daten, um solche Analysewerkzeugen, wie Online Analytical Processing(OLAP), Data Mining, Reporting, Balanced Score Card und Dashboards nutzen zu können. Die genaue Erklärung und Beschreibung dieser Werkzeuge folgt in den nächsten Abschnitten dieses Kapitels. Die folgende Abbildung zeigt die typischen Einsatzbereiche der BI-Lösungen.

20 Theoretische Grundlagen 6 Abbildung 1: Die häufigsten Einsatzbereiche von BI-Funktionalitäten in deutschen Unternehmen [dynamicit]

21 Theoretische Grundlagen Business Performance Management(BPM) Business Performance Management oder auch Corporate Performance Management (CPM) kann man als Weiterentwicklung von BI ansehen. Der traditionelle Business Intelligence-Ansatz hat mit der Zeit einige kritische Schwachstellen besonders im Bereich der Wertschöpfung und den Zukunftsanalysen eines Unternehmens gezeigt. Der BPM-Ansatz macht die permanente Messung und kontinuierliche Kontrolle der Unternehmenszielerreichung möglich Vorteile von BPM Das BPM deckt die oben genannten BI-Defizite in dem es: eine sehr präzise und konsistente Informationen dem Anwender bietet, die Informationen mit Echtzeit - Geschwindigkeit bereitstellt, einen messbaren Vergleichswert von Strategie und Ergebnis des Unternehmens liefert, die Geschäftsprognose genauer definieren lässt, die Verwaltung von Informationsressourcen und zwar Informationsbereitstellung nach Bedarf und Informationszugang optimiert, und bessere Prozesskontrolle und Transparenz bietet. Das BPM orientiert sich gegenüber BI mehr auf Prozesse. Die Automatisierung, die Integration und die Kommunikation zwischen den Geschäftsprozessen ist der zentrale Punkt. Man spricht ab jetzt nicht nur über die Unternehmensziele, sondern über eine Symbiose zwischen Unternehmens- und Prozesszielen. Die Grundlage für die Messung der Prozesszielerreichung sind sogenannte Key Performance Indicators (KPIs). Die Aufgabe von KPIs ist die Bewertung von Leistungsfähigkeit und Qualität der Unternehmensperformance. Also man kann sagen, das BPM hat BI noch intelligenter gemacht, indem es einen weiteren Aspekt mit sich gebracht hat, und zwar Geschäftsanalytik.

22 Theoretische Grundlagen Business Performance Management (BPM)-Modell BPM funktioniert nach dem Prinzip des Closed-Loop-Modells, welches in der nächsten Abbildung schematisch dargestellt ist. Abbildung 2: BPM-Modell Von der traditionellen BI-Lösung unterscheidet sich dieses Modell in dem Sinne, dass hier zwei für die BI neuen Aspekte berücksichtigt werden. Als erstes verbindet die BPM- Lösung die strategische Unternehmenszielsetzung-Ebene mit der Unternehmenszielerreichung-Ebene. Zweitens kommt eine schnelle, echtzeitbezogene Reaktion auf die Zielerreichungsleistung. Die operativen und analytischen Informationen sind keine Einzeleinheiten mehr, sondern die Teile eines großen Systems, die ihrerseits gegenseitige Abhängigkeiten aufweisen BPM-Anbieter im Überblick Der Markt der BPM-Lösungen entwickelt sich rasant und verspricht auch in der Zukunft ein großes Wachstum. Die führenden Hersteller wie SAS, IBM, SAP, Oracle und Microsoft bieten den Kunden eine große Auswahl an Tools, Technologien und Anwendungen an. Der Ausbau von Business Intelligence-Plattformen zu Enterprise Performance Management (EPM) rentiert sich. Die Marktforscher von Gartner prognostizieren in ihrem Magic Quadrant for Business Intelligence Platforms, dass EPM-Anwender bis 2011 um 30 Prozent besser abschneiden als ihre Wettbewerber. Der Grund: EPM fördert die Leistungsorientierung, und das schlägt positiv in der Bilanz zu Buche. [CFOworld]

23 Theoretische Grundlagen 9 Wie es aus der nächsten Abbildung sichtbar wird, könnten die Unternehmen, welche die eigenen BI-Lösungen anbieten, ihre Umsätze im Jahr 2008 deutlich steigern. Abbildung 3: Umsätze mit BI-Software 2008 in Deutschland [beyenetwork] Der Markt der Anbieter ist sehr stark von der Konkurrenz ausgeprägt und es gibt keine unangefochtenen Marktführer, obwohl SAP mit den 110 Mio. Umsatz seine Positionen immer stärker ausbaut. SAP folgt dicht Oracle mit den 104 Mio. Umsatz. Die weiteren großen Anbieter sind SAS, IBM und Microsoft.

24 Theoretische Grundlagen Data Warehouse(DWh) Eine der zentralen strategischen Aufgaben der BI ist die Konsolidierung des unternehmensweiten Datenbestandes als Quelle für das gesamte Berichtswesen eines Unternehmens. Diese Zentralisierung kann durch verschiedene Systemkomponenten, wie eine oder mehrere zusammenverbundene physische Datenbanken oder Data Warehouse, umgesetzt werden. Die klassische und meistangewendete BI-Lösung stellt Data Warehouse dar Definition Die am häufigsten verwendete Definition von DWh ist die Definition von Inmon 1 (1996): A data warehouse is a subject-oriented, integrated, time-variant, non-volatile collection of data in support of management s decision-making process. [WikiDWh] Wikipedia definiert so die obengenannten Aspekte: subject-oriented (Themenorientierung): Die Auswahl der in das Data-Warehouse zu übernehmenden Daten geschieht nach bestimmten Datenobjekten (Produkt, Kunde, Firma, u.ä.), welche für die Analysen von Kennzahlen für Entscheidungsprozesse relevant sind, nicht hingegen nach operativen Prozessen. integrated (Vereinheitlichung): Im DWh werden die in verschiedenen operativen Quellsystemen in meist heterogenen Strukturen vorliegenden ausgewählten Daten in vereinheitlichter Form gehalten. time-variant (Zeitorientierung): Analysen über zeitliche Veränderungen und Entwicklungen sollen im DWh ermöglicht werden; daher ist die langfristige Speicherung der Daten im DWh nötig (Einführung der Dimension Zeit ). non-volatile (Beständigkeit): Daten werden dauerhaft (nicht-flüchtig) gespeichert. 1 William Harvey Bill Inmon ist ein US-Informatiker und gilt als Vater des Data-Warehousing (Wikipedia)

25 Theoretische Grundlagen 11 Diese Definition beschreibt das DWh als reines physisches Datenlager, das eine einheitliche Sicht auf die Daten zur Verfügung stellt. Das DWh ist ein Bestandteil eines Data Warehouse Systems. Dieses enthält außer der DWh-Datenbank noch weitere Komponenten, wie Datenbereitstellungskomponente (ETL), Repositorium (DWh-Metadaten Datenbank), Data Warehouse Manager und Metadatenmanager DWh-System Architektur Data Warehouse System, welches eine Architekturgrundlage für die BPM bildet, konzipiert sich nach dem Motto: richtige Informationen zur richtigen Zeit und am richtigen Ort. Data Warehouse ist ein zentrales heterogenes Datenlager eines Unternehmens. Die Daten werden aus verschiedenen internen und externen Quellsystemen gespeist, und werden per ETL-Tools für die Analyse integriert und bereitgestellt. In der Abbildung 4 ist der Prozess des Data Warehousing dargestellt. Das Data Warehouse Datenmodell ist in der Regel multidimensional strukturiert. Der DWh-Manager ist ein Steuerungselement des ganzen Systems. Er kontrolliert den ganzen ETL-Prozess und steuert die Analysekomponente. Das Metadata-Repository verwaltet die Metadaten, die alle Datensatzdefinitionen beinhalten. Abbildung 4: Data Warehouse System Architektur

26 Theoretische Grundlagen ETL-Prozesse Der Extract, Transform, Load (ETL)-Prozess ist für die Datenbeschaffungskomponente in einer BI-Lösung verantwortlich. Dabei werden die operativen Daten in einer für die Analyse passenden Struktur transformiert. Man spricht hier von dem Datenintegrationsprozess. Eine umfassende Analyse der auf dem Markt bereits existierenden ETL-Tools und eine grundlegende Entscheidung für die Werkzeuge und deren unternehmensspezifische Anpassung sind schon im Vorfeld jedes ETL-Projektes sehr wichtig. Die eigene Entwicklung von ETL-Prozessen kostet Zeit, Geld und die Risiken der Zielerreichung steigern sich dabei immens. Hier darf man nicht intuitiv handeln. Über wichtige Aspekte, wie Konzeption, Architektur, Engineering, Integrität, Bedienbarkeit und Unternehmensanpassung von ETL-Tools wird in weiteren Abschnitten dieses Kapitels diskutiert ETL-Entwurfskonzeption Die Entwicklung von ETL-Tools fängt bei der genauen Analyse des IST-Zustands an. Der IST-Zustand entspricht einer zum Projektbeginn vorhandenen Ausgangslage des ganzen Informationssystems. Dabei werden alle Funktionsabläufe und Datenmodelle (falls vorhanden) genau untersucht, um die noch nicht bekannten Schwachstellen des Systems zu finden und ihre Ursachen festzustellen. Die dabei häufig auftretenden Mängel sind zum Beispiel: unvollständige, falsch gebuchte, schwer zu findende oder nicht dem Standard entsprechende Daten, sowie fehlende oder schlechtprogrammierte Kommunikationsschnittstellen und viele andere Defizite. Eine Zusammenarbeit von Entwickler und System-Benutzer ist an dieser Stelle sehr wichtig.

27 Theoretische Grundlagen 13 Während der Ist-Analysephase entsteht ein dokumentiertes IST-Konzept, das später als Vorlage für das SOLL-Konzept eingesetzt wird. Bei dem SOLL-Konzept werden die Maßnahmen und Alternativen diskutiert, welche als Lösung für die in der IST-Analysephase entdeckten Defizite und Potenziale dient. Nachdem die IST-Analyse- und die SOLL-Konzeptphase abgeschlossen sind und die Zielsystemanforderungen klar definiert sind, entsteht ein erstes Fachkonzept und Plan für das Projekt. Für die konkrete SW-Umsetzung wird in diesem Konzept noch eine technische Sicht, bezogen auf Datenqualität, Datenabfragehäufigkeit, Datenstrukturen, Datenmanipulationsmöglichkeiten und Schnittstellen, beschrieben. Dabei werden solche Design-Elemente wie E/R-Diagramme oder UML-Mechanismen verwendet, damit eine einheitliche Sicht verschiedener Projektteilnehmer entsteht, sowohl Kunden- als auch Entwickler-seitig. Der Detailierungsgrad dieses Konzepts kann unterschiedlich sein. Aber je ausführlicher dieses Dokument geschrieben wird, desto weniger Missverständnisse entstehen und desto weniger Anpassungsaufwände in der SW-Entwicklungsphase nötig sind. Das Feinkonzept oder Pflichtenheft, das als letztes Konzeptionsdokument entsteht, dient als eine Art von Vertrag zwischen Projektbeauftragtem und Projektentwickler. Dieses Dokument wird von beiden Seiten unterschrieben und damit verbindlich anerkannt Klassische Architektur Alle heute auf dem ETL-Markt vorhandenen ETL-Tools funktionieren allgemein nach dem Prinzip der klassischen ETL-Architektur. Wie in der Abbildung 5 dargestellt ist, besteht diese Architektur aus den drei miteinander kommunizierenden Komponenten: Quelldaten-, Arbeits- und Datenhaltungsbereich.

28 Theoretische Grundlagen 14 Abbildung 5: Klassische ETL-Architektur Quelldaten sind die für das DWh relevanten Daten, die aus unterschiedlichen externen oder internen Informationssystemen, wie ERP, CRM, CMS regelmäßig, meist asynchron extrahiert werden. Während der Extraktionsphase werden die Daten minimal transformiert. Der Grund dafür ist, dass die Quellsysteme durch den Extraktionsprozess sehr belastet werden und der Prozess zeitbezogen möglichst minimal sein muss. Die Schnittstellen zu den operativen Systemen sind heterogen. Diese sind: offene Standards, proprietäre Schnittstellen, API(Application Programming Interface)-basierte Schnittstellen und Interfaces zu externen Informationssystemen [DWhKatalog, S.43] Arbeitsbereich oder Staging-Area ist ein Zwischenspeicherbereich, welcher zur Transformation und zur Qualitätssicherung der extrahierten Daten dient. Erster Schritt des Transformationsprozesses ist die Schemaintegration dieser heterogenen Daten. Die Quelldaten werden strukturiert und normiert, so dass diese am Ende des Prozesses einem einheitlichen globalen Schema entsprechen. Die Daten, die aus unterschiedlichen Systemen geholt werden, können dupliziert gebucht werden. An dieser Stelle wird ein automatisches Duplikatenerkennungsverfahren eingesetzt. Um Datenkonflikte

29 Theoretische Grundlagen 15 zu vermeiden ist die weitere Aufgabe der Transformationsfunktion die Datenfusion oder Datenverdichtung. Datenfusion ist ein Teil eines Datenbereinigungsprozesses oder Data Cleaning. Data Cleaning ist eine Transformation, welche die Datenqualität erhöht. Die primäre Aufgabe des Arbeitsbereiches ist die Garantie eines konsistenten und vollständigen Datenbestandes für den Präsentationsbereich. Datenhaltungsbereich (DWh): Nachdem die Daten in eine für das DWh geeignete Form standardisiert und bereinigt worden sind, sind sie bereit für den Load-Prozess. Dafür werden Ladewerkzeuge, sogenannte Loader verwendet. Zusätzlich werden die Daten historisiert. Das bedeutet, sie sollen im DWh nicht überschrieben werden. Die Schnittstellen, welche zum Load benötigt werden, sind Standard-Datenbank-Schnittstellen (zum Beispiel ODBC, JDBC).

30 Theoretische Grundlagen Online Analytical Processing (OLAP) Nach dem die Daten erfolgreich in das DWh geladen wurden, sind sie noch nicht bereit für die analytische Verarbeitung. Sie repräsentieren allerdings eine homogene Basis für die analytischen Werkzeuge des DWh-Systems. Drei Arten von diesen Werkzeugen stehen heute zur Verfügung: Data Mining, Data Access und OLAP. Das Data-Access Tool ist ein Berichtswesen-Tool, das unter Verwendung einfacher arithmetischer Operationen die Daten verändern kann. Data Mining sucht automatisiert nach Datenzusammenhängen und Mustern, um ein gemeinsames Verhalten der Daten zu erkennen. Das Ziel dabei ist, dem Unternehmen Prognosen zu liefern, die später strategisch eingesetzt werden können OLAP-Charakterisik OLAP ist eine Datenhaltung-Softwaretechnologie, die benutzerfreundlich und flexibel die Zugriffe auf die in Data Warehouse oder operativen Systemen gespeicherten Daten ermöglicht. Das OLAP-Konzept lässt sich durch FASMI-Regeln charakterisieren. Das Akronym FASMI steht für Fast Analysis of Shared Multidimensional Information und besteht aus folgenden Eigenschaften, welche in der nächsten Tabelle aufgezeigt sind: Eigenschaft Fast Analysis Shared Multidimensional Information Beschreibung stabile Antworten auf zeitkritische Abfragen Verfahren zu mathematischen Berechnungen und Strukturanalyse Sicheres System für Mehrbenutzerbetrieb Multidimensionale Datensicht aus den Daten gewonnenen Informationen für die Benutzer Tabelle 1: Die FASMI-Eigenschaften Die Eigenschaft Multidimensional verdient eine gesonderte und detaillierte Beschreibung.

31 Theoretische Grundlagen Multidimensionales Datenmodell OLAP basiert auf einer multidimensionalen Datenanalyse. Relationale Datenbanken bestehen aus miteinander verknüpften zweidimensionalen Tabellen. In einer multidimensionalen Datenbank werden Dimensionen miteinander verknüpft. Die multidimensionale Darstellung der Daten hat wesentliche Vorteile gegenüber der Relationalen: subjektorientiert, schnelle Antwortzeiten auf komplexe Abfragen, Mechanismen zur automatisierten Verarbeitung von historischen, aggregierten Daten geringer Speicherbedarf durch Kompressions-Techniken schnelle Kalkulation bessere Erweiterbarkeit In einem multidimensionalen Modell werden die Daten in die Fakten- und die Dimensionstabellen gespeichert. In den Fakten-Tabellen werden die Kennzahlen gespeichert. Die Dimensionen betrachten die Kennzahlen aus unterschiedlichen Perspektiven (kundenbezogen, zeitbezogen, produktbezogen usw.). Die Dimensionen bilden eine mehrdimensionale Struktur, die Data Cube heißt Data Cubes Ein Data Cube oder ein Würfel ist eine logische Datenstruktur, die unterschiedliche Sichten auf Unternehmenskennzahlen darstellt. Abbildung 6: Data Cube

32 Theoretische Grundlagen 18 Der in Abbildung 6 vorgestellte Würfel besitzt die drei Dimensionen: Zeit, Kunde und Produkt. Der Würfel selbst ist eine Kennzahl, zum Beispiel Umsatz, Gewinn. Diese dreidimensionale Darstellung ist einfach und visuell gut verständlich. In der Praxis aber besitzen solche Cubes mehrere Dimensionen und heißen Hypercubes. Die Dimensionen sind auf dem Bild als große Einheiten oder aggregiert (vereinigt oder gruppiert) dargestellt. Bei den Data Cubes wird aus den einzelnen Werten der Dimensionselemente eine Summe gebildet. Die aggregierten Daten stellen eine gute Basis zur Berechnung solcher mathematischer Funktionen, wie Mittelwert, Maximum, Minimum und Summe dar. Eine OLAP Hyper-Cubes-Darstellung wird in der folgenden Abbildung dargestellt. Abbildung 7: OLAP-Cube [basegroup] Jeder einzelne kleine Cube in diesem OLAP-Cube lässt sich durch seine Dimensionsausprägungen genau identifizieren. Die Dimensionsausprägungen nennt man auch die Dimensionshierarchien. Den aggregierten Wert einer Dimension nennt man Vater (Parent). Das hierarchische Element -Kind (Child). Es gibt eine Reihe von den OLAP- Standardoperationen.

33 Theoretische Grundlagen 19 Abbildung 8: OLAP-Filterfunktionen: Slice und Dice ([olapcube]) Slice Das Herausschneiden einer Dimensionsscheibe aus dem OLAP-Cube. Dice ist das Herausschneiden eines kleinen Cubes aus dem OLAP-Cube. Und die Navigationsfunktionen: Roll-up, Drill-down: Abbildung 9: OLAP-Funktionen: Roll-up und Drill-down Roll-up generalisiert die einzelnen Werte der Dimensionshierarchie. Drill-down detailliert die aggregierten Werte.

34 Theoretische Grundlagen OLAP-Architektur und Speicherungsarten Die multidimensionale logische Datendarstellung wird anhand der Würfel realisiert. Die Speicherung der Daten in der relationalen Datenbank wird über das Star-Schema oder das Snowflake-Schema dargestellt. Abbildung 10: Star-Schema [2cool4u] Das Star-Schema enthält eine Fakten-Tabelle und mehrere Dimensionstabellen. Der große Vorteil dieses Schemas liegt darin, dass es die Anzahl der relationalen Tabellen reduziert und dadurch schnellere Leseoperationen liefert. Die Faktentabelle entspricht einem Würfel aus der multidimensionalen Sicht. Die Fakten- und Dimensionstabellen sind anhand der Schlüssel miteinander verbunden. Das Snowflake-Schema ist eine normalisierte Form des Star-Schemas. Hier wird jedes Element einer Dimensionshierarchie in einer weiteren Tabelle gespeichert.

35 Theoretische Grundlagen 21 Abbildung 11: Snowflake-Schema [2cool4u] Das Schema besitzt zwar eine bessere Datenstruktur und ist weniger redundant, liefert aber wegen der großen Anzahl von Joins die sehr langsamen Antwortzeiten. Von diesen zwei Schemas wird das Star-Schema aufgrund des schnelleren Lesezugriffs bevorzugt, da der große Speicherbedarf der Dimensionstabellen vergleichsweise weniger Nachteile darstellt. Der Speicherungstechnik von den multidimensionalen Daten stehlen aktuell die drei häufig eingesetzten Alternativen zur Verfügung: Relationales OLAP (ROLAP), Multidimensionales OLAP (MOLAP) und Hybrides OLAP (HOLAP). ROLAP speichert dimensionale Daten in Form von relationalen Tabellen (Star-Schema, Snowflake-Shema) und nutzt die SQL-Abfragesprache. Bei der Abfrage wird auf den gesamten Datenbestand zugegriffen. Es wird meistens bei den OLTP-Systemen verwendet.

36 Theoretische Grundlagen 22 MOLAP dagegen speichert die Daten in einer multidimensionalen Form. Es basiert nicht auf SQL, sondern auf einer eigenen Softwareschnittstelle. Die Daten werden zuerst in eine multidimensionale Struktur kopiert und erst anschließend zugegriffen. Abbildung 12: ROLAP- und MOLAP-Implementierung [gravitar] HOLAP ist eine gemischte Form von ROLAP und MOLAP. Die Dimensionen bei HOLAP sind in einer relationalen Form und die Aggregationen in einer multidimensionalen Form gespeichert. Damit können die Vorteile beider Speicherungsvarianten genutzt werden.

37 Projekt Hercules 23 3 Projekt Hercules Colt benutzte zu Beginn des Projektes MIKsolution+. Dies ist ein Datenbank-Tool, welches primär beim Berichtswesen und bei der Finanzanalyse eingesetzt wird. In letzter Zeit gab es mehr und mehr Performanceprobleme. Die zwei wichtigsten Kriterien, warum Colt sich entschieden hat MIK zu ersetzen, ist die Performance, sowie der Fakt, dass von MIK kein IT-Support zur Verfügung gestellt wird. 3.1 Projektziele Der Zweck des Projektes ist die Ersetzung aller derzeit vorhandenen Funktionalitäten von MIK mit SAP BO Business Planning and Consolidation und deren Erweiterung mit der relevanten Prozessoptimierung und Konsolidierung von Berichtswesen, Einführung der neuen Produktfunktionalitäten, wie dem Process-Workflow und Drill-through zu den transaktionalen Datenquellen (z.b. Data Warehouse). Zusammengefasst ist das wichtigste Ziel des Projektes- die Migration der in MIK vorhandenen Funktionen (Forecasting, Prognose-Rechnung, Budgeting und Management Reporting) auf eine stabile Plattform. Das Colt-IT-Team sollte dabei die in der BPC-Technologie eingesetzten Best Practices umsetzen(verwenden). Die Colt-Finanz-Fachleute erwarten von diesem Projekt eine aussagekräftige Verbesserung des Systems durch zusätzliche Funktionen und optimierte Reporting-Tools (Drill-through zu den Transaktionen, umfangreiche und automatisierte Report-Erstellung).

38 Projekt Hercules Projektpläne Der Schwerpunkt des Projektes Hercules ist die Implementierung des fit for purpose Prozesses für das BPM. Das Projekt besteht aus den folgenden, in den verschiedenen Phasen implementierten Ansätzen (Abbildung 13): Abbildung 13: Phase 1 (geplanter Produktiveinsatz Juli 2010) Die zum Projekt gehörenden Meilensteine sind: März 2010 die BPC-Applikationen und -Strukturen sind implementiert und bereit für das Reporting April erste Version von go live. Import-Prozesse sind basierend auf dem vorhandenen Import-Prozess von Oracle zu MIK implementiert. Juli 2010 Die Workflow-, die Budget- und die Forecast-Prozesse sind implementiert. Drill-Through zu den im Data Warehouse transaktionalen Daten steht zur Verfügung.

39 Projekt Hercules Das Team An dem Projekt Hercules arbeiten zurzeit 14 Teammitglieder. Drei Kollegen sind auf der Seite von AIS tätig. AIS ist ein englisches Performance Management Beratungsunternehmen, das sich auf die Umsetzung von SAP Business Planning and Consolidation (BPC) spezialisiert hat. Weitere Informationen über AIS befinden sich unter Auf der Seite von Colt sind elf Mitarbeiter an dem Projekt beschäftigt. Das Colt-Team ist verstreut, so dass sich vier Kollegen in London, fünf in Indien und zwei weitere in Frankfurt befinden. Die Projektsprache ist Englisch. Durch tägliche Telefonkonferenzen und gepflegte Projektdokumentation sind alle Projektbeteiligten immer über den neuesten Stand der Projektentwicklung informiert. 3.4 Ausgangslage: MIKsolution+ als vorhandene BI-Plattform Das im Jahr 1986 in Deutschland gegründete Beratungs- und Softwareentwicklungsunternehmen MIK AG ist der Hersteller der bis zu diesem Zeitpunkt bei Colt verwendeten MIS- Plattform MIKsolution+ (im Folgenden MIK genannt). MIK ist eine durchgängige Data Warehouse Lösung für alle Systemanwender, wie Top-Management, Controlling und Fachabteilungen. MIK stellt ihren Anwendern eine konsistente Datenbasis zur Verfügung, damit die Unternehmensentscheidungen vergleichbar und nutzbar sein können. Die für Kunden angebotenen Komplettlösungen unterstützen vor allem die Bereiche Planung, Analyse und Reporting. Der große MIK-Erfolgsfaktor besteht darin, dass MIK als deutscher BI-Hersteller mit seiner mehr als zwei Jahrzehnte langen Erfahrung seiner Business-Intelligence-Produkte die speziellen Unternehmensbedürfnisse des europäischen Marktes kennt und realisiert. Die MIK-Berater unterstützen ihre Kunden nicht nur bei der Analyse von betriebswirtschaftlichen Unternehmenspositionen, sondern auch während der Produktintegration des dazugehörenden Projektmanagements sowie der Projektrealisierungs- und Trainingsphasen.

40 Projekt Hercules 26 Heutzutage zählen mehr als Unternehmen aus verschieden Branchen zu den MIK- Kunden. Die Audi AG, Daimler AG, Mercedes-Benz AG, Porsche AG, EDEKA GmbH, Deutsche Telekom AG, Siemens AG und viele weitere große Unternehmen kontrollieren ihre Geschäftsprozesse und treffen unternehmenswichtige strategische Entscheidungen mit Hilfe von intelligenten Businesslösungen von MIK Komponenten Die im Bild 14 vorgestellten Komponenten stehen dem Benutzer von MIK zur Verfügung. Abbildung 14: MIKsolution+ Komponente [mik.de] MIK OLAP ist eine leistungs- und anpassungsfähige, multidimensionale Datenbank. Mit dem unterstützten Mehrbenutzerbetrieb ist eine schnelle und flexible Datenanalyse und - abfrage problemlos durchzuführen. MIK OLAP beinhaltet eine Reihe von Anwendungen mit einer großen Anzahl von hierarchisch strukturierten Dimensionen.

41 Projekt Hercules 27 Typische Anwenderbereiche sind: Qualitäts-Controlling Systeme Human Resources (HR) Informationssysteme Customer Relationship Management (CRM) Systeme Marketing Informationssysteme Logistik Informationssysteme MIK-ONE ist ein interaktives Management- und Controlling-Tool, das alle benötigten Informationen in einem geeigneten Format zeigt. MIK-ONE mit seinen verschiedenen Tabellen, Graphiken, Spreadsheets, kundenorientierten Abfrage-Tools und anspruchsvollen, standardisierten Analysemöglichkeiten unterstützt hauptsächlich die Benutzer, die für Reviews und Diagnostik-Arbeit verantwortlich sind. Das Tool enthält auch eine zentrale Sammlung von Standard-Dokumenten, Dateien und Berichte. Abbildung 15: MIK-ONE Oberfläche MIK-XLREPORT ist ein für das Reporting geeignetes Front-End-Tool. Die in diesem Tool zu sehenden Daten sind auf einem aktuellen Stand und in einem verständlichen Format

42 Projekt Hercules 28 schnell erreichbar. MIK-XLREPORT nutzt die Vorteile der multidimensionalen Sicht der Daten und der Funktionalitäten von MS Excel. Dem Benutzer steht der dynamische Zugriff auf MIK Datenbanken und die automatische Report-Aktualisierung zur Verfügung. Die MIK-XLReport-Oberfläche bei Colt sieht aus wie ein normales MS Excel, hat aber zusätzlich noch folgende zwei Add-ins: MIK-ONE und MIK-Analysis. Abbildung 16: MIK-XLReport Hier kann man entweder manuelle Bedarfsberichte oder aus MIK-ONE extrahierte Standartberichte erstellen Die Beschaffung und Speicherung der Daten Das Datenhaltungsmodul von MIKsolution+ ist MIK-OLAP. Die für OLAP relevanten Daten werden aus Oracle ERP und analytischen Systemen (SFDC, OHS, CN s) entweder in einer MS Access Datenbank gespeichert und anhand einfacher SQL SELECT- und INSERT-Abfragen (ETL) transformiert oder direkt dann in OLAP-Cubes gespeichert.

43 Projekt Hercules 29 Abbildung 17: Colt s MIK- Systemarchitektur Die OLAP-multidimensionale Struktur des Datenmodells entspricht dem Geschäftsmodell mit seinen natürlichen Dimensionen. Dieses Modell wird oft als n-dimensionaler Cube bezeichnet, wobei n für die Anzahl der Dimensionen steht. Beispiele von Dimensionen sind: Jahre Zeit-Perioden (Monate) Zahlen (Sales, Costs, Headcount) Produkt Kostenstellen Geographie Business Unit Currency usw.

44 Projekt Hercules 30 In MIK stellt ein Würfel eine Sammlung von zusammengehörenden Dimensionen dar. Es gibt die elf aktiven Würfel innerhalb der Colt-Datenbank: Profit & Loss (P&L) Balance Sheet Cash Flow (drei Cubes: zwei für Cash Flow-Kalkulation und dritte für Reporting) COLT Managed Services (CMS) P&L Waterfall Days Sales Outstanding (DSO) Fixed Asset Currency Sales Pipeline Jeder Würfel kann mit Hilfe von OLAP-Funktionen (Slicing, Dicing usw.) analysiert werden. Die dazu erforderlichen Datensätze liefern die betriebswirtschaftlichen Kennzahlen wie Umsatz, Kosten usw. Die Tabelle 2 zeigt einen zusammenfassenden Überblick über MIK- Cubes, Dimensionen und Funktionen:

45 Projekt Hercules 31 Cube Dimensionen Anforderungen Profit & Loss (P&L) Balance Sheet (BS) Cash Flow CMS P&L DSO Fixet Asset Currency Sales Pipeline Year Period Data Type P&L Measure Country Year Period Data Type BS Measures Country Year Period Data Type Cash Flow Measure... Year Period Data Type Country Currency Year Period Data Type DSO Measure Year Period Data Type Fixed Asset Measure Data Type Period Year Currency Data Type Currency Period All Years... Tabelle 2: MIK Cubes Beschreibung Profit & Loss Data, HR Data Actuals, Budget und Forecast Historic Actual Daten Balance Sheet Daten Actual and Budget Daten Historic Actual Daten aus Dec Actual Financial Daten aus Oracle Financials Daten aus P&L- und BSCubes Datensätze für Divisional- und Country-Reporting Actual und Budget Daten aus P&L Cube Days Sales -Kalkulation manuelle Datenextraktion für unterschiedliche Fixed Assets Transfers alle Börsen Wechselkurse für den Datentransfer in allen Cubes einer entsprechenden Währung Buchungs- und Verluste Daten. Große Datenvolumen.

46 Projekt Hercules Hauptkriterien für MIK-Ersetzung Die Entscheidungsfaktoren für die MIK-Ersetzung bauen sich auf schlechter Performance, mangelnder Stressresistenz der MIK-Plattform und der fehlenden IT-Unterstützung. Die häufigen Abstürze des gesamten Systems haben zu einer totalen Betriebsunterbrechung bei Colt geführt. Die dadurch entstehendem Kosten und der Datenverlust bedeutet für jedes Unternehmen eine große Belastung. Die Möglichkeit durch diese Systemausfälle die Kunden zu verlieren ist ein weiterer, daraus folgender Risikofaktor. Solche Ausfälle müssen vermieden werden, da die Ausfallsfolgen nicht zu unterschätzen sind. Ein in der Tabelle 3 dargestelltes Beispiel der Monatsabschluss-Phase im September 2008 zeigt die Häufigkeiten von MIK-Abstürzen. Ausfall-Zeitpunkt Häufigkeit Erster/zweiter Tag nach der Actual data- Abgabephase Monatsabschluss-Reporting Big fix sind implementiert 10 Mal 6 Mal 2 Mal Tabelle 3: MIK-Abstürze Zusätzlich zu diesen Migrationsgründen kommt noch mangelnde Funktionsumfang der MIK-Lösung. Die fehlenden Funktionalitäten wie das erweiterte Treibermodell für das Budgeting und Forecast, Drill-Through bei Transaktionen und automatisierte Report- Erstellung sind die ausschlaggebenden davon. Im Sommer 2009 hat der Vorstand von Colt sich entschieden, aufgrund der oben genannten Beeinträchtigungsfaktoren des Unternehmensgeschäfts die vorhandene MIK-BI- Plattform komplett durch SAP BO Business Planning and Consolidation (BPC) zu ersetzen. Dazu wurde ein externes Beratungsunternehmen AIS AG beauftragt, um zusammen mit dem Finanzmanager und IT-Fachleuten von Colt im Rahmen des Projektes Hercules den Umstieg auf die neue Plattform zu realisieren.

47 Projekt Hercules SAP BO Business Planning and Consolidation (BPC) als die künftige BPM-Plattform Als weltweit führender Anbieter von ERP- und zugehörigen Anwendungen, wie Supply Chain Management(SCM), Customer Relation Management(CRM), Product Lifecycle Management(PLM) und Supplier Relationship Management(SRM) liefert SAP an seine Kunden innovative Lösungen und Dienste. Weitere Informationen über SAP und deren Produkte befinden sich auf der SAP-Homepage: Das für diese Arbeit relevante SAP-Produkt BPC enthält alle konsistenten Finanz- und Betriebsdaten und Funktionen für die unternehmensweite Planung, Steuerung, externes und internes Reporting, Konsolidierung, Budgeting und Forecast. Die zwei wichtigsten BPM-Aspekte Industrialisierung der Geschäftsprozesse und Agilität sind heute die Erfolgsfaktoren jedes Unternehmens. Colt hat sich nach der gründlichen BI-Markt-Analyse für BPC entschieden. Wichtige Auswahlkriterien sind im nächsten Abschnitt dieses Kapitels aufgelistet.

48 Projekt Hercules Warum BPC? Nach der Summierung aller negativen Erfahrungen mit MIK hat Colt eine klare Vorstellung von Anforderungen bekommen, die an das neue System gestellt werden müssen. Oberste Akzeptanzfaktoren sind eine angemessene Total Cost of Ownership(TCO) sowie eine erträgliche Implementierungsdauer. Die zu implementierende Lösung soll sich als stabile, zuverlässige und schnelle Plattform erweisen. Die IT-Unterstützung des Systems soll gewährleistet werden. Die Datenqualität soll entsprechend erhöht werden. Es muss möglich sein, die Administration und Wartung des neuen Systems teilweise durch die Fachabteilung zu realisieren. Weiterhin ist entschlossen worden, den für die Colt-Mitarbeiter nötigen Schulungsaufwand zu minimieren, indem die gewohnte MS-Excel-Oberfläche weiterhin als primäres Front-End bleiben soll. Anhand dieser Excel-Oberfläche werden seitens Colt nicht nur die Abfrage der Daten und die Auswertungen durchgeführt, sondern auch die Administration und die Wartung des Systems. Die Applikationen des neuen Systems müssen für die Anwender flexibel, transparent und nachvollzierbar sein. Die Sammlung aller dieser Aspekte und eine detaillierte Untersuchung des aktuellen BI- Markts haben überzeugt, dass SAP BO BPC eine der geeignetsten Lösungen für die Bedürfnisse von Colt ist.

49 Projekt Hercules Architektur im Überblick BPC ist eine multidimensionale Datenbankplattform, die über das MS Excel-Front-End eine große Auswahl von Reporting-Tools anbietet. BPC basiert auf einer serviceorientierten Architektur (SOA). Dies bedeutet, dass BPC sich mehr auf die Abstraktion von Geschäftsprozessen als Implementierungsgrundlage orientiert. Das System entspricht einer klassischen dreischichtigen Architektur, die in Datenhaltungs-, Anwendungs- und Präsentationsschicht aufgeteilt ist. Die auf der nächsten Abbildung gezeigte Architektur stellt eine High-Level Gestaltung des Systems dar: Abbildung 18: SAP BPC High-Level Architektur Die Datenhaltungsschicht setzt sich aus internen und externen Datenquellen zusammen, die alle verfügbaren Daten in Form einer relationalen als auch einer multidimensionalen Datenbankstruktur haben. Die Anwendungsschicht stellt eine serviceorientierte Plattform dar, die Services wie Business Logik, XML-Services und SQL zur Verfügung stellt. Die Präsentationsschicht liefert dem Systemanwender eine geeignete Benutzerschnittstelle, für den bequemen Datenzugriff.

50 Projekt Hercules BPC-Umsetzung für Colt Die genaue Analyse der MIK-Prozesse ist eine gute Basis für einen Vorschlag zur Verbesserung der Unternehmensleistung von Colt für die neue BPC-Plattform. Die in der Analyse-Phase festgestellten MIK-Plattformdefizite sollten durch den BPC-Ansatz eliminiert und die fehlenden Funktionen zugefügt werden. Die in der Abbildung 19 vorgestellte Architektur zeigt die technische Umsetzung von BPC. Die Architektur gliedert sich in Datenquellen-, Datenspeicherungs-, Datenauswertungs- und Präsentationsbereich. Die Daten aus ERP (Oracle-Tabellen) und Auftragsabwicklungs- und Vertriebssysteme (Access-Tabellen) sind Rohdaten für die spätere Analyse und Auswertungen. Mit Hilfe von ODBC- und OLEDB-Schnittstellen werden die Datenquellen mit der MS SQL-Datenbank verbunden. Anhand von ETL-Tools werden diese extrahiert, vereinigt und in den SQL- Server geladen. Abbildung 19: BPC Architektur von Colt Microsoft SQL Server 2008 ist ein zuverlässiges, produktives und intelligentes Datenbank- Managementsystem. Der Server wird in sieben Varianten angeboten. Das von Colt

51 Projekt Hercules 37 verwendete Produkt ist die Enterprise-Version. Der Server vereint Datenverwaltungs- und Business-Intelligence Komponenten. Die Datenverwaltungskomponente ist in der Lage alle Datenbanksysteme und zugehörige Dienste zu überwachen, verwalten und abzustimmen. SQL-Server Integration Services (SSIS) bietet ein mächtiges Entwicklungstool für die Datenintegration aus unterschiedlichen Datenquellen und Datenzielen. Eine weitere detaillierte Beschreibung befindet sich im nächsten Kapitel dieser Diplomarbeit. Nachdem der SQL-Server die extrahierten Daten nach der vom Entwickler festgelegten Struktur gespeichert hat, kommt die BPC-Engine zum Ansatz. Für OLAP- und Ad-hoc- Abfragen müssen die Daten als Cubes gespeichert werden. Das BPC mit seinen analytischen Diensten enthält alle Techniken und implementierten Business-Logik-Tools zur Unterstützung der Entwickler beim Design und Entwurf von Data-Cubes. Die in MIK bereits vorhandenen elf Cubes werden in der BPC-Applikation auf acht reduziert. Eine detaillierte Beschreibung der Dimensionen und Funktionen dieser Cubes befindet sich in Kapitel 3.7: ETL-Prozesse. BPC ermöglicht eine für Colt neue Funktion. Dies ist das Drill Through auf transaktionale Daten in der Data Warehouse Komponente. Unter Drill Through versteht man die Fähigkeit des Data Warehouses auf die Daten Reports anzulegen, die in den OLTP-Systemen gespeichert werden. Das Data Warehouse von Colt ist ein Produkt von Netezza, einem globalen Marktführer für Data Warehouse Anwendungen. Der Präsentationsbereich der Systemarchitektur stellt eine Abstraktionsebene dar. Die Benutzer des Systems, beispielsweise das Controlling, der Manager, die Systemadministratoren und weitere besitzen intuitiv bedienbare Microsoft Office-Oberflächen, die über Internet, Intranet und LAN verfügbar sind.

52 Projekt Hercules Vorteile gegenüber MIK Laut einer Colt-Umfrage waren 40% aller MIK-Benutzer mit der Performance unzufrieden. Die Gründe dazu sind ständig wiederkehrende Abstürze und Systemblockierungen. Die Folge solcher Systemfehler waren verschobene Reporting-Meilensteine und der begrenzte Parallelbetrieb während der Budgetierungsphase. Im Vergleich dazu wurden bei Anwendung von BPC weniger als 10% unzufriedener Benutzer festgestellt. Abbildung 20: Einfacher MIK-Report Ein großer Unterschied zwischen dem MIK- und BPC-Berichtswesen ist die Art, wie Daten in den Excel-Sheets abgefragt werden. Das MIK-Reportingtool ist ein Zellen-basiertes Excel Programm. Dies bedeutet, dass jede Zelle innerhalb des Reports eine zusätzliche Abfrage auf dem MIK-Applikationsserver generiert. In Abbildung 20 ist ein relativ einfacher und kleiner Report dargestellt. Der Report generiert 44 (11 Produktelemente x 4 Zeitelemente) individuelle OLAP-Abfragen. Dies ist noch nicht problematisch. Wenn die Berichte allerdings aus mehreren hundert Zellen bestehen, wie es im Berichtswesen ist, wächst die Latenzzeit enorm groß an. Im Vergleich zu MIK ist das BPC bereichsbasiert.

53 Projekt Hercules 39 Abbildung 21: Vergleichbarer BPC-Report In dem auf dem Bild 21 gezeigten BPC-Report wird nur eine einzige Abfrage aus dem gesamten Data Range an den BPC-Applikationsserver gesendet. Dies ist ein erheblicher Unterschied bei den Antwortzeiten und im Netzwerkverkehr. Die Reporterstellung, die bei MIK manchmal bis zu mehrere Stunden dauern konnte, nimmt jetzt nur wenige Minuten von dem Benutzer und die Belastung von ganzem System ist wesentlich geringer. Durch mehrere Stress-Tests hat sich BPC als stabile und leistungsfähige Plattform erwiesen. Die IT-Unterstützung ist im Gegensatz zu MIK bei BPC vorhanden.

54 Projekt Hercules MS SQL Server 2008 Enterprise Edition Um alle im Colt-Unternehmen vorhandenen Daten in die BPC-Plattform richtig transferieren zu können, benötigten die Projektentwickler SQL Server Datenbankbankmanagementsystem. Die Daten sollten zuerst durch passende ETL-Interfaces im SQL-Server extrahiert und in Form von relationalen Tabellen umgestaltet werden, um mittels integrierten ETL-Packages des SQL-Servers weiter als Flat Files für BPC zur Verfügung gestellt zu werden. Microsoft präsentiert auf dem Markt mehrere Editionen seiner SQL-Server-Lösung, die sich nach Gebrauch und Besonderheiten unterscheiden. Um einen Überblick über diese Unterschiede zu schaffen, sind die unten aufgelisteten Editionen kurz zusammengefasst: Standard-Edition eignet sich für kleine bis mittelgroße Unternehmen. Der Kern des Produktes ist ein Datenbankmodul, das zusammen mit den integrierten Business- Intelligence-Tools eine einfache Nutzung aller enthaltenen Anwendungen dem Benutzer zur Verfügung stellt. Allerdings ist die Anzahl der vernetzten Cluster (Computer, Server) begrenzt und die Hochverfügbarkeitsfunktion ist nur teilweise integriert. Die Möglichkeit der parallelen Indexvorgänge (bei Multiprozessor- Rechnern eine Fähigkeit die Leistung der Datenbankvorgänge zu manipulieren) ist ebenfalls nicht enthalten. Express ist eine kostenfreie und leichtgewichtige SQL Server Version, die mehr zur Übung von Datenbankentwicklungstechniken und Prototyperstellung gedacht ist. Enterprise-Ausgabe ist für die großen Unternehmen entwickelt worden. Diese Edition ist eine Vollversion des SQL Server Produktes und beinhaltet alle Hardware-Funktionen wie beispielsweise Cluster, Hochverfügbarkeit, Multiprozessorunterstützung, alle Leistungen des Datenbankmoduls und alle Business-Intelligence-Werkzeuge. Bei Colt wird die Microsoft SQL Server 2008 Enterprise Edition eingesetzt, und daher wird im Weiteren nur die Enterprise Edition betrachtet. In der nächsten Tabelle sind die wichtigsten Komponenten des Enterprise MS SQL Servers dargestellt:

55 Projekt Hercules 41 Komponente Datenbankmodul Unified Dimension Model (UDM) SQL Server Integration Services (SSIS) Analysis Services (OLAP Server) SQL Server Reporting Services (SSRS) SQL Server Management Studio Business Intelligence Development Studio Funktion Speicherung der Rohdaten (Speichermedien wie Dateien oder Datenbanken), die für die gesuchten Informationen notwendig sind. UDM ermöglicht die Modellierung von Anwendern und Speichermedien zur Erleichterung des Datenzugriffs. Dienen zur Extraktion und Aufbereitung der Rohdaten in das weiterverarbeitende System und stellt hochwertige Möglichkeiten des Datenaustauschs zur Verfügung. Server-Komponente zur mehrdimensionalen Aufbereitung und Auswertung von Daten und realisiert somit das Data-Warehousing- Konzept. Ermöglicht eine effiziente und teilautomatisierte Bereitstellung von Berichten. Damit können tabellarische und grafische Berichte erstellt werden. Administrationsoberfläche für die datenbankseitigen Tätigkeiten. Oberfläche zur Realisierung von BI-Projekten. Tabelle 4: BI-Komponenten des SQL Servers [HSchroedl] Die in der Tabelle gezeigten Komponenten und deren Funktionen werden in folgenden Kapiteln einzeln erläutert Das Datenbankmodul Das Datenbankmodul enthält die Kernfunktionalität des MS SQL Servers für das Speichern, Verarbeiten und Sichern von Daten. Das Modul stellt mit seinen Diensten eine Transaktionsverarbeitung, einen kontrollierten Zugriff auf die heterogenen Datenquellen, welche die zu verarbeitenden Daten liefern, und darüber hinaus auch vielseitige Unterstützung für die Aufrechterhaltung hoher Verfügbarkeit bereit.[mstechnetdb] Das Datenbankmodul ermöglicht somit die Realisierung des servereigenen bzw. die Anbindung eines externen Data Warehouses (bei Colt von Netezza) für OLTP- (Onlinetransaktionsverarbeitung) oder OLAP- (Analytische Onlineverarbeitung) Daten. Beim Data Warehouse handelt es sich um eine zentrale Zusammenführung der Daten aus den verteilten Systemen. Zur MS SQL Server-Datenbank gehören Tabellen zur Datenspeicherung und Datenbankobjekte, wie z. B. Indizes, Sichten, gespeicherte Prozeduren, Funktionen und Trigger, zum

56 Projekt Hercules 42 Anzeigen, Verwalten und Sichern von Daten. Datentabellen, die in der Datenbank gespeichert sind, werden einem Vorgang oder einem bestimmten Thema, zugeordnet, z.b. Waterfall bei Colt. Außerdem besitzt MS SQL Server die vier Systemdatenbanken master, model, msdb und tempdb, die für den störfreien Betrieb des Servers benötigt und gleich bei der Installation des Servers eingespielt werden. Die master -Datenbank enthält alle Konfigurationen des Servers und Informationen zu den Benutzerdatenbanken. Die model - Datenbank stellt die Schablone dar, nach welcher alle neuen Benutzerdatenbanken sowie die tempdb -Datenbank erstellt werden. Die msdb wird zur Speicherung von Daten der Wartungsläufe und tempdb wird zur Speicherung der temporären Daten, welche der MS SQL Server während der Datenverarbeitung erstellt, verwendet. Um einen einheitlichen und effizienten Zugriff auf die verschiedenen Datenquellen realisieren zu können, steht dem Benutzer OLE(Object Linking and Embedding) DB zur Verfügung. OLE DB ist eine auf COM(Component Object Model) basierende API, die aus einzelnen Komponenten besteht. Anders als bei ODBC wird hier keine SQL-Verwendung vorausgesetzt. Im Mittelpunkt von OLE DB steht die OLE-Technologie, die ein von Microsoft entwickeltes Protokoll und zugleich ein Objektsystem bezeichnet. Unter OLE ist eine Objektverbindung zu verstehen, mit der die Daten aus den heterogenen Dokumenten, wie Excel-Tabellen, Textdateien, HTML, XML oder Datenbanken, dynamisch verknüpft werden können. OLE bezeichnet bereits durch seine Namensgebung die Fähigkeit, Objekte in ein Dokument zu integrieren, entweder eingebettet (Embedding) oder mit der objekterzeugenden Anwendung verknüpft (Linking). Dabei wird beim Linking das eingefügte Objekt nach der Integration nicht zum realen Element der Anwendung, sondern nur der Verweis auf das Objekt angelegt. Im Gegensatz dazu wird beim Embedding das entsprechende Objekt vollständig in die anfordernde Anwendung kopiert, so dass, wenn die Quelldaten nicht mehr vorhanden sein sollten, das Objekt in der Anwendung erhalten bleibt. [WebFactoryOLE] So können zum Beispiel in Access Objekte (Tabellen, Bilder) die Daten aus Excel, Paint etc. eingebettet oder dynamisch verknüpft werden. Genauso ist es über OLE möglich, in Excel

57 Projekt Hercules 43 die Access Objekte einzufügen. Diese Dokumente, die aus mehreren Dateiformaten zusammengesetzt sind, werden als Verbunddokumente bezeichnet. Konzeptionell wird bei OLE DB eine Trennung in Anbieter (Provider) und Verbraucher (Consumer) vollzogen. Die Verbraucher sind Anwendungen, die Zugang zu den Daten brauchen, und der Anbieter ist die Softwarekomponente, welche die notwendige Schnittstellen implementiert und folglich die Daten dem Verbraucher zur Verfügung stellt. Die nächste Tabelle stellt einige Implementierungen der OLE DB-Provider und die dazugehörigen Datenquellen dar: OLE DB Provider MS OLE DB Provider for Jet MS OLE DB Provider for SQL Server MS OLE DB Provider for Oracle MS OLE DB Provider for Indexing Service Microsoft OLE DB Provider for ODBC OLE DB Data Source Access(*.mdb), Excel(*.xls), Textdateien (*.txt, *.doc, ), HTML Instanz eines Servers wie z.b. Northwind Oracle Datenbanken Indexserver Andere ODBC-Datenquellen Tabelle 5: OLE DB Provider [MSLinkedServer] Alle Abfragen an die OLE DB-Datenquellen werden in Transact -SQL formuliert. Transact - SQL (auch T-SQL) wird am Ende des Kapitels kurz erläutert. SQL Server zerlegt jede Transact-SQL-Anweisung in eine Reihe von Vorgängen für einfache OLE DB-Rowsets, so dass einfache OLE DB-Rowsets auch für jede einzelne OLE DB- Datenquelle geöffnet werden können. SQL Server unterstützt zwei Methoden, um auf die heterogene OLE DB-Datenquellen in Transact-SQL-Anweisungen zu verweisen: Ad-Hoc-Konnektor Ein Ad-hoc-Konnektorname kann als Tabellenreferenz angewendet werden, wenn auf die OLE DB-Datenquelle selten zugegriffen wird. Die Verbindung kann unter SQL

58 Projekt Hercules 44 Server mit den Funktionen OPENROWSET und OPENDATASOURCE erreicht werden. Für die häufigeren Zugriffe kann ein Verbindungsserver konfiguriert werden. [TechNetAdHoc] Verbindungsserver Ein Verbindungsserver ist eine OLE DB-Datenquelle, welche auf dem lokalen Server mit SQL Server registriert ist. Durch die Verbindungsserver werden die SQL Serverübergreifenden Verknüpfungen und Abfragen auf die Daten realisiert, wenn diese Datenquellen bereits im Vorfeld bekannt sind. Beim Verweis auf diese Quelle weiß der lokale Server, wo die Remotedaten zu finden sind. Dabei kann jede Datenquelle als Verbindungsserver definiert werden, wenn dafür ein OLE DB-Provider implementiert ist, obwohl die durch verbundene Server definierten Datenquellen meist Datenbanken sind. Die folgende Abbildung zeigt schematisch die allgemeinen OLE DB- Versorger und Datenquellen für den SQL Server. In der nächsten Abbildung ist die Konfiguration der Verbindungsserver schematisch dargestellt: Abbildung 22: Konfiguration der Verbindungsserver [MSLinkedServer] Im Unterschied zu einer Ad-Hoc-Abfrage Steuerung stehen bestimmte Funktionen für den Zugriff auf eine bestimmte Datenquelle nur über Verbindungsserver zur Verfügung, wie z. B. die Verwaltung von Benutzernamenzuordnungen, die Fähigkeit der

59 Projekt Hercules 45 Abfrage der Metadaten eines Verbindungsservers und die Fähigkeit, verschiedene Verbindungseinstellungen, wie Timeoutwerte, zu konfigurieren. [TechNetLinkServ] Der Verbindungsservername kann in einer OPENQUERY-Anweisung angegeben werden, um ein Rowset aus einer OLE DB-Datenquelle zu öffnen. In Transact-SQL- Anweisungen kann dann auf dieses Rowset wie auf eine Tabelle verwiesen werden. Transact-SQL(T-SQL) kann als die prozedurale Sprache des SQL Servers bezeichnet werden. Bei der T-SQL handelt es sich um die Weiterentwicklung der Standard-SQL, welche um das Transaktion-Management, Fehlerbehandlung und lokale Variablen erweitert wurde. T-SQL wird im SQL-Server-Umfeld für Verwaltungsaufgaben von Datenbanksystemen, zur Erstellung und Bearbeitung von Objekten sowie zur Datenmanipulation angewendet. [MSTSQL] SQL Server stellt zahlreiche integrierte Funktionen in TSQL zur Verfügung und erlaubt zudem das Erstellen benutzerdefinierter Funktionen. Es gibt vier verschiedene Typen der integrierten Funktionen: Rowset-Funktionen (Geben ein Objekt zurück, das wie Tabellenverweis in einer reinen SQL-Abfrage eingesetzt werden kann. Dazu zählen auch die obengenannten Funktionen wie OPENQUERY, OPENROWSET und OPENDATASOURCE.) Aggregatfunktionen (Bewältigen Berechnungen für eine Wertemenge und geben einen einzelnen Wert zurück, z.b. MIN, MAX und COUNT) Rangfolgefunktionen (Geben für jede Partitionszeile einen Rangfolgenwert zurück, z.b. ROW_NUMBER) Skalare Funktionen (Prozessieren nur einen einzelnen Wert und stellen die größte Gruppe dar. Dazu gehören Konfigurations-, Cursor-, Metadaten-, Datums-, Zeichenketten-,Text-,System- oder mathematische Funktionen.) Und genauso wird T-SQL bei der Erstellung der Trigger oder Stored Procedures eingesetzt, die das Datenbankmodul um weitere benutzerdefinierte Funktionalität erweitern. Eine benutzerdefinierte Funktion kann mit CREATE FUNCTION erstellt werden. T-SQL gilt als ein grundlegender Bestandteil des SQL Servers.

60 Projekt Hercules 46 Es wurden kurz die Technologien benannt, welche im Datenbankmodul eingesetzt werden und welche für diese Diplomarbeit von Bedeutung waren. Die Verwaltung des Datenbankmoduls wird über SQL Server Management Studio getätigt.

61 Projekt Hercules SQL Server Management Studio SQL Server Management Studio ist ein Werkzeug, welches dem Anwender alle Funktionen zur Verwaltung, Konfiguration, Administration und Entwicklung aller Datenbank-Komponenten des Servers zur Verfügung stellt. Das Management Studio hat einen zentralen und einfach zu benutzenden Object-Explorer. Der Object-Explorer ist die erste graphische Oberfläche, die beim Starten vom Studio angezeigt wird. Alle Instanzen, die sich auf dem Server befinden sind durch den Explorer erreichbar. Das Management Studio enthält alle möglichen Schnittstellen für das Import und Export von Daten. Der graphische Abfrage Designer (Abbildung 23) von SQL Server Management Studio ist die Entwicklungsumgebung, die bei der Erstellung der Views verwendet wird. Abbildung 23: SQL Server Abfrage Designer [msdn.microsoft.com]

62 Projekt Hercules 48 Auf der graphischen Benutzeroberfläche des Designertools sind vier Bereiche zu sehen. Im SQL-Bereich werden Abfragen unter Verwendung von T-SQL geschrieben. Nach deren Ausführung werden die resultierende Sichten und Relationen (falls vorhanden) in Diagramm-, Ergebnis- und Rasterbereich präsentiert SQL Server Integration Services (SSIS) Die SQL Server Integration Services ist ein BI-Tool, das eine Plattform für Datenintegrations- und Datentransformationslösungen zur Verfügung stellt. Integration Service ist in der Lage die aus mehreren heterogenen Datenquellen gewonnenen Daten zu transformieren und an die beliebigen Zielen zu liefern. Nebenbei bietet die Plattform alle möglichen Funktionen zur Sicherstellung der Datenkonsistenz. In Form von ETL-Paketen, die diversen Datenflüsse in einem Sequenzcontainer zusammenfassen, stellt die SSIS den ganzen Integrationsprozess für das Data Warehousing bereit. Hauptanwendungen für SSIS sind: Laden eines Data-Warehouses Einlesen externer Datenquellen Datenbereitstellung für externe IT-Systeme Datenbereitstellung für OLAP Datenbereitstellung für Data Mining Datenqualitätsmanagement [ssis.de] Eine der wichtigsten Besonderheiten der SSIS 2008 ist die Verarbeitung des Datenflüsses. Diese Version eignet sich hervorragend für die multiprozessorfähigen Rechner. Die Leistungs- und Funktionalitätsmöglichkeiten des SSIS-Ansatzes sind anspruchsvoll und flexibel erweiterbar. Die ETL-Prozesse waren und bleiben immer noch sehr komplexe und unternehmensspezifische Werkzeuge. Ein von den SSIS-Entwickler durchdachte Konzept und eine professionelle Umsetzung der SSIS stellen dem Unternehmen einen leistungsfähigen Datenintegrationsdienst zur Verfügung. Die Paketentwicklungsumgebung lässt den Benutzer selbst definieren, ob die Pakete programmgesteuert (selbst programmiert)

63 Projekt Hercules 49 entwickelt oder durch den in graphischen Integration Services angebotenen Tools erstellt werden. Die SSIS-Plattform besitzt das Verwaltungsprogramm zur Erstellung von SSIS-Paketen. Das sogenannte Business Intelligence Development Studio ist eine graphische Entwicklungsumgebung für die Projektverwaltung von Analysis-, Integrations- und Reporting-Services Business Intelligence Development Studio (BIDS) BIDS ist das von Microsoft speziell für BI-Lösungen entwickelte Visual Studio, das als eine Entwicklungsumgebung für die Erstellung von Analysis-, Reporting- und Integration- Services dient. Analysis Services-Plattform organisiert die Geschäftsdaten aus einem Data Warehouse für OLAP- und Data Mining-Analyse. Dabei werden die Daten als multidimensionalen Strukturen (Cubes) aggregiert gespeichert, um die schnellen Ergebnisse für die Analyse-Anfragen zu liefern. Reporting Services ist eine Berichtsplattform, welche die zur Erstellung und Verwaltung von Reports benötigten Services, Tools und Programmierschnittstellen (API) dem Benutzer zur Verfügung stellt. Reporting Services überwacht die Unternehmenskennzahlen und die operativen Daten. Der sinnvolle Einsatz dieser Plattform verschafft der Überblick über dem Unternehmenskapitaleinsatz und verbessert die Business Performance des Unternehmens. 3.7 ETL-Prozesse In der Entwurfsphase des Projekts Hercules sind die Anforderungen an ETL-Prozess und Architektur festgelegt worden. Das Ziel des ETL-Ansatzes ist die korrekte und rechtzeitige Übertragung von Finanzinformationen aus Oracle ERP und anderen Datenquellen nach dem SAP BPC-System. Die in der BPC-Anwendung präsentierten Informationen sind

64 Projekt Hercules 50 erforderlich für das Management- und Budget-Reporting. Damit der Vorgang des Datenintegrationsprozesses möglichst transparent und einfach abläuft, ist die folgende Architekturlösung entworfen und später implementiert worden ETL-Architektur und -Prozessablauf Die Entwicklung des ETL-Prozesses hat parallel zur Implementierung der BPC-Cubes stattgefunden. Die Schemadefinitionen für die relationalen ETL-Views entsprechen den in den BPC-Cubes festgelegten Dimensionen und Elementen. Die allgemeine Architektur der ETL- Prozessabläufe ist in der Abbildung 24 dargestellt: Abbildung 24: ETL-Architektur

65 Projekt Hercules 51 Allgemein werden die Unternehmensdaten mithilfe der SSIS-Pakete aus Datenquellen extrahiert, transformiert und für die analytischen BPC-Werkzeuge bereitgestellt. Die Daten kommen aus den heterogenen Quellen. Die ERP-Daten sind in der Oracle- Datenbank und die OHS-und Sales Force-Daten in einer MS Access-Datenbank gespeichert. Die Tabellen aus ERP-Systemen werden durch den aus Performancegründen eingerichteten Verbindungsserver (Linked Server) angesprochen. Die OHS- und Sales Force- Daten werden dagegen komplett in den SQL Server importiert und als SQL Server-Tabellen in eine ColtDev-Datenbank gespeichert. Da es in beiden Fällen um einen Zugriff auf die externen Daten geht, wird die OLE DB als die dafür geeignete Schnittstelle verwendet. ColtDev ist eine Entwicklungsdatenbank-Instanz. Dort werden Views und Tabellen erzeugt, die für den ETL-Transformationsschritt erforderlich sind. Wie bereits oben erwähnt, stellen die Tabellen Kopien der OHS- und Sales Force-Quelldaten dar, die durch Import-Routinen auf dem SQL Server eingelagert werden. Die Views der ColtDev-Instanz sind virtuelle Hilfstabellen, welche die Oracle- und Access-Quelldaten anhand von T-SQL Befehlen auf BPC-vorgeschriebene Weise darstellen. Die Views sind als Referenzen in den SSIS-Paketen enthalten. SSIS-Paket ist eine von dem SQL Server angebotene ETL-Lösung, in der alle ETL-Funktionen, wie Extract, Convert, Transformation und Load, in einer Reihenfolge erzeugt und durchgeführt werden. Das Paket wird in dem SQL Server Business Intelligence Development Studio erstellt und im BPC modifiziert. Für jeden BPC-Cube bzw. jeder BPC-Applikation, wie es in SAP-Terminologie bezeichnet wird, existiert ein SSIS-Paket, das die Daten in diese Applikation integriert. Die Paket-Ausführung erfolgt entweder automatisch in einem definierten Zeitabschnitt durch die BPC-Engine oder manuell durch den BPC-Administrator. Die in der Abbildung 24 vorgestellte ETL-Architektur beschreibt allgemein, wie die SSIS- Pakete den Datenintegrationsprozess technisch umsetzen. In den nächsten Abschnitten dieses Kapitels werden die im Prozess beteiligten Quell-Datenbanken, Ziel-Applikationen

66 Projekt Hercules 52 und ihnen zugeordnete SSIS-Pakete differenziert betrachtet. Als Beispiel, wie die Pakete aufgebaut und konfiguriert sind, wird das SSIS-Paket für die OHS-Applikation ausgewählt und detailliert erklärt.

67 Projekt Hercules Quelldatenbanken In der Tabelle 6 sind die Quelldatenbanken, sowie -Tabellen und Ziel-Applikationen zusammengefasst: Datenbank Format Oracle Source DB Oracle GL (Balance Sheet part) Oracle GL (P&L part) Export Tabelle XXC.XXC_MIK_FSG_GL_BALANCES Ziel Applikation Summary Reporting Oracle XXC.XXC_MIK_FSG_GL_BALANCES Summary Reporting Oracle Oracle HR XXC.XXC_MIK_MIK_EXTRACT_DA Detailed TA Reporting Oracle Oracle GL_TRANSLATION_RATES_V Rate Exchange Rate Application MS Access OHS OHS Mapping Waterfall MS Access Sales Force tbl_mikfeed Waterfall MS Access MS Access Sales Force weekly Sales Force monthly tbl_oso_analysis tbl_oso_analysis Pipeline Pipeline Tabelle 6: Quelldaten und Ziel Applikationen

68 Projekt Hercules BPC-Applikationen In der Abbildung 25 wird ein Überblick über alle Applikationen und deren Input/Output- Daten gegeben. Balance Sheet Budgets Oracle GL Manual Budget / Forecast Input P&L Actuals Balance Sheet Actuals P&L Budgets Summary (Reporting Cube) 10 Dimensions Detail (P&L Planning, Budgeting and Analysis) 13 Dimensions P&L Actuals & Budget P&L Measures and P&L Budgets / Forecasts Manual Budget / Forecast Input Account (P&L measures only, Balance Sheet, Cash Flow) Entity (Countries) Time (months, quarters and years) Category (Actuals, Budget, Forecast etc.) Data Source Division Location Intercompany Currency AccountDetail Fixed Asset movements Account (P&L and statistical only) Entity (shared dimension with Summary cube) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) DataSource (shared dimension with Summary cube) Division (shared dimension with Summary cube) CostCentre (shared dimension with Summary cube) Intercompany (shared dimension with Summary cube) Currency (shared dimension with Summary cube) Location CustomerClass SalesChannel Product Cash Flow calculations Detail Currency Calculations Constant Currency Red Book Reporting Divisional Reporting Country Reporting Revenue Reporting Detailed Budget Forecast Reporting Headcount Driver Based calculations Standard Currency Constant Currency Ad-hoc P&L Reporting Cost Centre Reports CMS P&L (6 Dimensions) CMSAccount Entity (shared dimension with Summary cube) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) DataSource (shared dimension with Summary cube) Currency (shared dimension with Summary cube) CMS Reports Manual Forecast Input Rate (5 Dimensions) RateAccount holds rates (Avg, End etc.) RateEntity (holds methods) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) InputCurrency (Fortsetzung siehe nächste Seite)

69 Projekt Hercules 55 Oracle GL Rate (5 Dimensions) RateAccount holds rates (Avg, End etc.) RateEntity (holds methods) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) InputCurrency Salesforce Sales Pipeline (12 Dimensions) SalesAccount Entity (shared dimension with Summary cube) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) Currency (shared dimension with Summary cube) Location (shared dimension with Summary cube) CustomerClass (shared dimension with P&L Detail cube) Opportunitystat Opportunity Status Opportunityprod - Opportunity Product Snapshotwk Weekly Snapshot Offertype Offer Type Winprob Win Probability Order Handling Waterfall (10 Dimensions) WaterfallAcct Entity (shared dimension with Summary cube) Time (shared dimension with Summary cube) Category (shared dimension with Summary cube) Currency (shared dimension with Summary cube) Location (shared dimension with P&L Detail cube) CustomerClass (shared dimension with P&L Detail cube) Waterfallprod waterfall-specific product dimension Ordertype Status Waterfall Report Credit Notes Abbildung 25: Daten-Input und Output bei BPC-Applikationen Die in MIK vorhandenen elf Cubes werden in BPC auf acht reduziert. Drei Cubes: CMS P&L(3), Sales Pipeline und Waterfall sind ohne Änderungen in den BPC-Applikationen übernommen worden. Um die Daten aus den MIK-Systemen erfolgreich zu migrieren und die externen Datenquellen in die BPC-Applikationen korrekt abzubilden, werden diese mittels SQL Server- Views in die von BPC erforderliche Darstellung umgeformt.

70 Projekt Hercules ETL-Views Übersicht Nach dem alle für die ETL-Prozesse benötigen Ressourcen (Tabellen aus Quellsystemen und BPC-Applikationen) zur Verfügung gestellt sind, kann mit der Erstellung der SSIS- Pakete begonnen werden. Der SQL Server Abfrage Designer bietet dem Entwickler die Möglichkeit, die Quelltabellen (im Weiteren Basistabellen genannt) anhand von T-SQL abzufragen, sowie die Tabellenfelder zu filtern und zu gruppieren. Die durch diese Abfragen resultierenden Tabellen werden von den SSIS-Paketen in der Transformationsphase verwendet. Die detaillierte Erklärung dazu folgt im nächsten Abschnitt dieses Kapitels. Die Aufgaben der im Rahmen dieser Arbeit vorgestellten Sichten ist: den direkten Zugriff auf die Basistabellen zu vermeiden, die Daten aus den Basistabellen nach SQL Server zu kopieren, nur die für den Benutzer relevanten Daten aus den Basistabellen anzuzeigen und neue Beziehungen zwischen mehreren Tabellen hinzuzufügen. Außerdem bieten die Views performante und vereinfachte Abfragen der Basisdaten, deren Schema sich vom SQL Server-Schema unterscheidet. Bei der View-Erstellung ist zu beachten, dass die aus einer SELECT-Abfrage resultierenden Datenspalten und -Zeilen nicht in der Datenbank persistent gespeichert werden. Stattdessen werden diese dynamisch bei jeder Abfrageverwendung erstellt. Die aus MIK- und Oracle-Datenbanken extrahierten Tabellen werden anhand der T-SQL Befehle an die BPC-Applikationstabellen angepasst. Es stehen insgesamt sechs ETL-Views (View-Kombinationen) zur Verfügung. Die folgende Abbildung zeigt die Zugehörigkeit der Views zu den BPC-Applikationen.

71 Projekt Hercules 57 DETREP SUMREP Sales Pipeline Rate Waterfall Abbildung 26: ETL-Views und BPC Ziel-Applikationen Im folgenden Abschnitt werden die Beziehungen einer ETL-View und anderen Paketkomponenten an einem SSIS-Paket-Beispiel dargestellt.

72 Projekt Hercules OHS-Paket für Waterfall-Applikation Die Colt-Datenintegrationsprozesse werden mit den SQL Server Integration Services (SSIS) umgesetzt. In dem Business Intelligence Development Studio (BIDS) von SQL Server werden die SSIS-Pakete erstellt und vom BPC Data Manager anhand der BPC-spezifischen Parameter an das BPC-System angepasst. Im Rahmen dieser Arbeit wird lediglich die Server-seitige Implementierung betrachtet. Ein SSIS-Paket stellt eine Folge von SSIS-Objekten dar, die sich in zwei Gruppen unterteilen lassen: Control Flow Objects - Objekte, welche die Ausführungsreihenfolge in dem SSIS- Paket bestimmen. Data Flow Objects - Objekte, welche die Datenbewegungen steuern. Bevor die Daten nach BPC integriert werden, müssen die Datenquellen, Ziel-Applikation und die Integrationsablaufstruktur genau definiert werden. Die OHS-Daten für die Waterfall-Applikation werden aus den externen OHS-Datenbanken in den SQL Server automatisch ein Mal pro Monat importiert. Es handelt sich hier um einen Incremental Load. Dabei werden bei jeder Ausführung nur die aktuellen Daten von SSIS-Paket importiert. Die Quelldaten sind in MS Access-Tabellen gespeichert. Die importierte Tabelle wird als Flatfile in dem BPC-System gespeichert. In der Abbildung 27 ist der Ablauf von OHS- SSIS graphisch erklärt.

73 Projekt Hercules 59 Abbildung 27: OHS-Integration Workflow Da die Tabelle OHS_Mapping Table (im Weiteren OHS-Tabelle genannt) die Daten aus dem vorherigen Import enthält, werden alle Tabelleninhalte mit dem Befehl Truncate SQL Table gelöscht. Bei dem Load OHS Daten - Schritt werden die aktuellen Daten aus der OHS Access- Tabelle in die OHS SQL Server-Tabelle gespeichert. Im Schritt 3 werden die Daten anhand des YY3_OHS_UNION-View(YY3-Union) gelesen. Dieser View vereinigt zwei Views miteinander: die YY1_qT_Create_OHS_Mapping for MIK upload (YY1) und YY2_qA_adds_New Orders Recurring (YY2). Die OHS-Quelltabelle enthält unter anderen im Feld [Order type specific] New Business -Werte, [Install Charge]-Feld (Installationskosten) und [ACV](gesammte New Business-Einnahmen).

74 Projekt Hercules Order Type specific Install Charge ACV New Order New Tabelle 7: OHS-Basistabelle Die erste Abfrage YY1 lifert alle Daten aus Basistabelle. Die Datenfelder bekommen dabei BPC-Felderbezeichnungen entsprechend den Dimensionsnamen. Die zweite Abfrage YY2 fügt dazu noch [ACV]-[Install Charge]-Werte in [ACV]-Feld. In BPC sollen nicht nur [Install-Charge]-Werte erscheinen, sondern auch der New Business- Gewinn (ohne Installationskosten). So sieht die OHS-Tabelle nach dem YY3-Union.... Order Type [ACV] New Order New Tabelle 8: Die aus YY3-Union resultierende Tabelle Im Anhang dieser Arbeit befindet sich der Quellcode dieser Views. Anschließend werden die Tabellen als Flat-File gespeichert (von BPC vorrausgesetzt). Der nächste Schritt 4 ist ein reines Standardstruktur-Mapping von BPC und wird hier nicht weiter erklärt. Der vorletzte Schritt ist das Loading von Daten in die BPC-Applikation. Die letzte Phase (Logik) wird auf der BPC-Seite durchgeführt. Hier werden verschiedene Applikationsformeln miteingebaut, um die Kalkulationen und andere Geschäftsregeln dieser Applikation durchzuführen.

75 Projekt Hercules 61 Die im Paket-Workflow entworfenen Schritte sind nun als Objekte dieses SSIS-Pakets implementiert. In dem Control Flow-Fenster des BIDS repräsentieren die zusammenverbundenen Objekte den kompletten OHS-Datenintegrationsprozess: Execute SQL Task enthält einen eizigen SQL Befehl: TRUNCATE TABLE OHS_Mapping und damit werden alle Daten in dieser Tabelle gelöscht. Data Flow Task. In diesem Task werden die Daten aus der Access-Quelltabelle in die SQL Server-Tabelle importiert. Bei dem Import sind zwei folgende Connection Manager beteiligt: Access als Datenquelle und SQL als Datenziel. Access enthält in der Konfiguration den SQL SELECT-WHERE -Befehl, der nur die aktuellen Daten für den Import selektiert. Der SQL Connection Manager enthält alle Zieltabelleninformationen wie: Servername, Datenbankname und Tabellename. Data Flow Task. Der Task importiert die OHS-Tabelle in das Text- File und enthält zwei Connection Manager: SQL als Quelltabelle und Txt als Ziel-File. Hier wird es auf die UNION-Sicht referenziert, welche die Daten vor dem Import modifiziert. Convert Task Dumpload Task Logic Task

76 Projekt Hercules 62 Die letzten drei Tasks werden im BPC Data Manager modifiziert nachdem das SSIS-Paket im BPC-System gespeichert wurde. Das Microsoft SSIS lässt die Tasks nicht SQL Serverseitig modifizieren. Stattdessen werden nur die Standard-Konfigurationsdialoge angeboten. Das SAP BPC Design mit seiner Data Manager-Komponente ermöglicht einem Administrator das Anpassen der SSIS-Pakete an die entsprechenden Applikationen. Die drei Tasks: Convert, Dumpload und Logic sind speziell von Microsoft für SAP-SSIS-Pakete entworfen worden und werden von BPC-Administratoren weiter gepflegt. Das Testen des Datenintegrationsprozesses begleitete die Entwicklungsphase in jedem einzelnen Schritt. Bei dem Datenextraktionsvorgang wurde kontrolliert, dass alle Datensätze der Quelltabelle in die Zieltabelle gespeichert sind. Bei jedem der Data Flow-Tasks sind BIDS-Standard-Fehlerbehandlungen eingebaut. Anschließend wurden die SSIS-Pakete vom BPC Data Manager ausgeführt und kotrolliert. Das Erreichen solcher Qualitätsmerkmale, wie Korrektheit, Konsistenz, Vollständigkeit, Einheitlichkeit und Verständlichkeit der durch den ETL-Prozess gewonnen Daten, war der Erfolgsfaktor des SSIS-Ansatzes. Dies wurde durch den abschließenden Abnahmetest bestätigt. Die Testphase war relativ mühsam und aufwändig. Dabei wurden die vergleichbaren Berichte aus MIK und BPC erstellt. Die BPC-Excel-Daten wurden dann von den MIK-Excel-Daten subtrahiert und in das dritte Ergebnis-Excel-Blatt gespeichert. In dieser resultierenden Excel-Datei dürfen nur Null-Werte auftreten. Die Tabellenfelder für BPC und MIK sind unterschiedlich und mussten erst für das Subtrahieren äquivalent ausgewählt werden. Falls in dem Ergebnis- Excel-Sheet Abweichungen aufgetreten sind, mussten alle möglichen Szenarien, wie Transformationslogikfehler, Loading-Prozessfehler etc. analysiert werden. Nachdem alle SSIS-Pakete und BPC-Applikationen implementiert und der gesamte Abnahmetest erfolgreich durchgeführt wurde, war der Entwicklungsprozess für das erste Produktionsrelease erfolgreich abgeschlossen.

77 Zusammenfassung 63 4 Zusammenfassung Ziel dieser Arbeit war Design, Entwurf und Implementierung eines ETL-Prozesses anhand der im Projekt Hercules vordefinierten Anforderungen. Der Zweck des Projekts war die Migration des von Colt vorhandenen Informationssystems MIKSolution+ nach eine SAP- Lösung Business Planning and Consolidation. Colt, als einer der Europa-weit-führenden Anbieter der Informations- und Telekommunikationstechnologie mit einer großen Anzahl von Kunden und stetig wachsendem Datenstrom, hat in den letzten Jahren einen wesentlichen Optimierungsbedarf für die geschäftlichen Entscheidungsprozesse und Unternehmenssteuerung erkannt. Als der wichtigste Aspekt stand dabei der Informationsgewinnungsprozess aus den vorhandenen Unternehmensdaten im Vordergrund. Das diesen Prozess unterstützende Produkt MIKSolution+ hat sich nach dem langjährigen Einsatz als eine unstabile Plattform erwiesen. Nach der Zustandsprüfung des BI-Marktes ist SAP BPC als neue Colt-Informationsplattform ausgewählt worden. Im Rahmen des Hercules - Projektes hat Colt zusammen mit den externen Beratern von AIS die MIK Plattform- Auswechslung mittels BPC durchgeführt. Die für die Projektumsetzung wichtigen Begriffe und Techniken sind als Einführung in die Projektthematik im theoretischen Kapitel untergebracht. Die allgemeinen Prinzipien und Vorgehensweisen des BI-Ansatzes mit dem Schwerpunkt Business Performance Management wurden in diesem Kapitel betrachtet. Durch den BPC-Ansatz erhält Colt nicht nur eine stabile und in Echtzeit -betriebene Plattform, sondern erweitert damit auch eigene Möglichkeitshorizonte im Bereich Business Analytik. Als Business Performance Management Plattform enthält BPC das breite Angebot an Analysemodellen und Methoden. Die BPC-Umsetzungsphasen, wie Bedarfsanalyse, Anforderungsanalyse und Lösungsarchitektur sind zunächst im Bezug auf das gesamte Projekt beschrieben worden. Die BPC- Architektur des von AIS vorgeschlagenen Konzepts wird durch ein Cluster aus zwei SQL Server realisiert: Produktionsserver(UAT) und Entwicklungsserver(DEV). UAT ist ein Testserver und wird durch Colt-Mitarbeiter getestet. DEV steht den Systementwicklern und

78 Fazit und Ausblick 64 Administratoren zur Verfügung. Im Rahmen dieser Arbeit wird nur der DEV Server betrachtet. Die BPC-Umsetzung wird durch die Implementierung und Konfigurierung aller im Architekturkonzept definierten Komponenten und Funktionalitäten realisiert. Die Bereitstellung des Datenintegrationsprozesses liegt im Fokus dieser Arbeit. Die dafür zuständigen SSIS-Pakete sind das Ziel der Integrationsentwicklungsphase. In dem SQL Server Business Intelligence Studio erstellt, entsprechen diese Pakete den an ETL-Prozessen gestellten Anforderungen. In der BPC-Applikationsumgebung gespeichert, liefern die Pakete die aus den externen Datenquellen extrahierten, anhand von SQL Server-Views modifizierten sowie dem BPC-Standard entsprechenden Ziel-Applikationen, transformierten Daten. Die Testphase umfasst den gesamten Entwicklungsprozess. Als Abschluss wurde der Abnahmetest durchgeführt. In diesem Test wurde kontrolliert, ob die für ETL-Prozesse definierte Performance-, Funktional-, Qualitäts und Integrationsanforderungen erfüllt sind. Nach der erfolgreichen Durchführung des Abnahmetests wurden die ETL-Interfaces der SSIS- Pakete in den Produktionsserver UAT für weitere Tests durch Colt-Mitarbeiter übernommen. 5 Fazit und Ausblick Die im Rahmen dieser Arbeit beschriebene Datenintergrationsprozesserstellung war ein komplexes Thema und hat eine große Herausforderung während der Entwicklungsphase geboten. Der sehr hohe Lernfaktor und die fehlende Erfahrung in diesem Gebiet haben den Entwicklungsprozess noch mehr belastet. In einem engen Zeitraum neben den MS Server Komponenten und Werkzeugen sollten sowohl die grundlegende MIK- und BPC- Architektur und Funktionalitäten, als auch das prinzipielle Verständnis des Kerngeschäftsprozesses von Colt eingearbeitet werden. Das größte Defizit bei der ETL-Entwurfsphase war der durch lange Recherchen festgelegte Fakt, dass bisher noch kein ETL-spezifische Vorgehensmodell existierte. Die ETL-Prozesserstellung war also einerseits spannend, andererseits brachte sie viel neues technisches Wissen und praktische Erfahrung.

79 Fazit und Ausblick 65 Das Ziel der Arbeit war die SQL Server-seitige SSIS-Implementierung. Die BPC-seitige SSIS- Transformation und Applikationsanpassung sind aufgrund der begrenzten Zeit nur allgemein erklärt worden. Das bereits bekannte Verbesserungspotenzial der Datenintegrationsleistung steckt in der Qualitätserhöhung der Quelldaten.

80 ANHANG 66 ANHANG Waterfall OHS Data Import Data-Views YY3_OHS_UNION CREATE VIEW [dbo].[yy3_ohs_union] AS SELECT FROM UNION ALL SELECT FROM dbo.[yy1_qt_create_ohs_mapping for MIK upload].* dbo.[yy1_qt_create_ohs_mapping for MIK upload] dbo.[yy2_qa_adds_new Orders Recurring].* dbo.[yy2_qa_adds_new Orders Recurring] Resultierende Tabelle: YY1_qT_Create_OHS_Mapping for MIK upload CREATE VIEW [dbo].[yy1_qt_create_ohs_mapping for MIK upload] AS SELECT N'ACT' AS Category, CASE WHEN CC.[ID] IS NULL THEN CASE [Segment code] WHEN 'MIDSIZE-AGENTS' THEN 'MIDSIZE-PARTNERS' WHEN 'MIDSIZE-TEMPORARY' THEN 'MIDSIZE PARTNERS'

Einführungsveranstaltung: Data Warehouse

Einführungsveranstaltung: Data Warehouse Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

Datawarehouse Architekturen. Einheitliche Unternehmenssicht

Datawarehouse Architekturen. Einheitliche Unternehmenssicht Datawarehouse Architekturen Einheitliche Unternehmenssicht Was ist Datawarehousing? Welches sind die Key Words? Was bedeuten sie? DATA PROFILING STAGING AREA OWB ETL OMB*PLUS SAS DI DATA WAREHOUSE DATA

Mehr

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Architektur und Konzepte Josef Kolbitsch Manuela Reinisch Übersicht Mehrstufiges BI-System Architektur eines Data Warehouses Architektur eines Reporting-Systems Benutzerrollen in

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Einführung in OLAP und Business Analysis. Gunther Popp dc soft GmbH

Einführung in OLAP und Business Analysis. Gunther Popp dc soft GmbH Einführung in OLAP und Business Analysis Gunther Popp dc soft GmbH Überblick Wozu Business Analysis mit OLAP? OLAP Grundlagen Endlich... Technischer Background Microsoft SQL 7 & OLAP Services Folie 2 -

Mehr

Marketing Intelligence Übersicht über Business Intelligence. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Übersicht über Business Intelligence. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Übersicht über Business Intelligence Josef Kolbitsch Manuela Reinisch Übersicht Beispiel: Pantara Holding Der Begriff Business Intelligence Übersicht über ein klassisches BI-System

Mehr

Data Warehouse Grundlagen

Data Warehouse Grundlagen Seminarunterlage Version: 2.10 Version 2.10 vom 24. Juli 2015 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen sind Warenzeichen

Mehr

Agenda. Hype oder Mehrwert. Herausforderungen. Methoden Werkzeuge. Kosten Nutzen. Definition Ziele

Agenda. Hype oder Mehrwert. Herausforderungen. Methoden Werkzeuge. Kosten Nutzen. Definition Ziele Agenda Definition Ziele Methoden Werkzeuge Herausforderungen Kosten Nutzen Hype oder Mehrwert Definition / Ziele Google Suche: define:business Intelligence Mit Business Intelligence können alle informationstechnischen

Mehr

Andreas Emhart Geschäftsführer Alegri International Group

Andreas Emhart Geschäftsführer Alegri International Group Andreas Emhart Geschäftsführer Alegri International Group Agenda Vorstellung Alegri International Überblick Microsoft Business Intelligence Sharepoint Standard Business Intelligence Tool Excel Service

Mehr

Komponenten und Architekturen von Analytischen Informationssystemen (AIS)

Komponenten und Architekturen von Analytischen Informationssystemen (AIS) Komponenten und Architekturen von Analytischen Informationssystemen (AIS) Melanie Pfoh Konsultation 27. Juni 2013 Hinweis Diese Folien ersetzen keinesfalls den Übungsstoff des zugehörigen e-learning-kurses.

Mehr

Logische Modellierung von Data Warehouses

Logische Modellierung von Data Warehouses Logische Modellierung von Data Warehouses Vertiefungsarbeit von Karin Schäuble Gliederung. Einführung. Abgrenzung und Grundlagen. Anforderungen. Logische Modellierung. Methoden.. Star Schema.. Galaxy-Schema..

Mehr

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Datei: Asklepius DA Flyer_Leistung_2 Seite: 1 von:5 1 Umfassende Datenanalyse Mit Asklepius-DA

Mehr

software, hardware und wissen für business intelligence lösungen software, hardware and knowledge for business intelligence solutions

software, hardware und wissen für business intelligence lösungen software, hardware and knowledge for business intelligence solutions software, hardware und wissen für business intelligence lösungen software, hardware and knowledge for business intelligence solutions Vom OLAP-Tool zur einheitlichen BPM Lösung BI orientiert sich am Business

Mehr

1Ralph Schock RM NEO REPORTING

1Ralph Schock RM NEO REPORTING 1Ralph Schock RM NEO REPORTING Bereit für den Erfolg Business Intelligence Lösungen Bessere Entscheidungen Wir wollen alle Mitarbeiter in die Lage versetzen, bessere Entscheidungen schneller zu treffen

Mehr

BARC-Studie Data Warehousing und Datenintegration

BARC-Studie Data Warehousing und Datenintegration Ergebnisse der BARC-Studie Data Warehouse Plattformen Dr. Carsten Bange BARC-Studie Data Warehousing und Datenintegration Data-Warehouse -Plattformen und Datenintegrationswerkzeuge im direkten Vergleich

Mehr

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII Vorwort zur zweiten Auflage...V Vorwort zur ersten Auflage... VIII 1 Management Support Systeme und Business Intelligence Anwendungssysteme zur Unterstützung von Managementaufgaben...1 1.1 Computergestützte

Mehr

Corporate Performance Management als Weiterentwicklung von Business Intelligence

Corporate Performance Management als Weiterentwicklung von Business Intelligence Martin Kobrin Corporate Performance Management als Weiterentwicklung von Business Intelligence Grundlagen, Implementierungskonzept und Einsatzbeispiele Diplomica Verlag Martin Kobrin Corporate Performance

Mehr

Self Service BI. - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge

Self Service BI. - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge Self Service BI - Business Intelligence im Mittelstand - schnelle Ergebnisse, nachhaltige Erfolge 04. Juli 2013 Cubeware GmbH zu Gast im Hause der Raber+Märcker GmbH Referent: Uwe van Laak Presales Consultant

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

MIS by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001

MIS by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001 MIS Glossar by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001 Aggregat Data Cube Data Marts Data Mining Data Warehouse (DWH) Daten Decision Support Systeme (DSS)

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Business Intelligence Center of Excellence

Business Intelligence Center of Excellence Center of Excellence Eine Businessinitiative von Systematika und Kybeidos Werner Bundschuh Was ist das? In der Praxis versteht man in den meisten Fällen unter die Automatisierung des Berichtswesens (Reporting).

Mehr

Cubeware Connectivity for SAP Solutions

Cubeware Connectivity for SAP Solutions Cubeware Connectivity for SAP Solutions Beispiele und Anwendungsfälle 1. Modellierung, Extraction, Transformation und Loading mit Datenquelle SAP R/3 und mysap ERP Mit Hilfe des Cubeware Importers und

Mehr

Michael Bauer Niederlassungsleiter Köln

Michael Bauer Niederlassungsleiter Köln Click to edit Master title style 1 Michael Bauer Niederlassungsleiter Köln Hamburg, 18. Juni 2009 2009 IBM Corporation Agenda Click to edit Master title style 2 zur Person Wo, Warum.., Was - CPM liefert

Mehr

Business Intelligence im Krankenhaus

Business Intelligence im Krankenhaus Business Intelligence im Krankenhaus Dr. Thomas Lux Holger Raphael IT-Trends in der Medizin 03.September 2008 Essen Gliederung Herausforderungen für das Management im Krankenhaus Business Intelligence

Mehr

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator Agenda Was ist Business Intelligence? Was ist OLAP? Unterschied zwischen OLAP und OLTP? Bestandteile

Mehr

Titel1. Titel2. Business Analytics als Werkzeug zur. Unternehmenssteuerung. Business Excellence Day 2015. Michael Shabanzadeh, 10.

Titel1. Titel2. Business Analytics als Werkzeug zur. Unternehmenssteuerung. Business Excellence Day 2015. Michael Shabanzadeh, 10. Titel1 Business Analytics als Werkzeug zur Titel2 Unternehmenssteuerung Business Excellence Day 2015 Michael Shabanzadeh, 10. Juni 2015 World Communication GmbH 2015 Seite 1 Definition Business Analytics

Mehr

Master-Thesis (m/w) für unseren Standort Stuttgart

Master-Thesis (m/w) für unseren Standort Stuttgart Master-Thesis (m/w) für unseren Standort Abschlussarbeit im Bereich Business Process Management (BPM) Effizienzsteigerung von Enterprise Architecture Management durch Einsatz von Kennzahlen Braincourt

Mehr

Kapitel 2 Terminologie und Definition

Kapitel 2 Terminologie und Definition Kapitel 2 Terminologie und Definition In zahlreichen Publikationen und Fachzeitschriften tauchen die Begriffe Data Warehouse, Data Warehousing, Data-Warehouse-System, Metadaten, Dimension, multidimensionale

Mehr

Bachelor/Master-Thesis (für den Standort Stuttgart) Treiberbasierte Planung

Bachelor/Master-Thesis (für den Standort Stuttgart) Treiberbasierte Planung Bachelor/Master-Thesis (für den Standort Stuttgart) Treiberbasierte Planung Hochschulstudium (Wirtschaftsinformatik oder ein vergleichbarer Studiengang) Fachliche und technische Kenntnisse im Bereich Business

Mehr

WAHLPFLICHTBEREICH WIRTSCHAFTSINFORMATIK 'DATA WAREHOUSE'

WAHLPFLICHTBEREICH WIRTSCHAFTSINFORMATIK 'DATA WAREHOUSE' Take control of your decision support WAHLPFLICHTBEREICH WIRTSCHAFTSINFORMATIK 'DATA WAREHOUSE' Sommersemester 2008 Gliederung Business Intelligence und Data Warehousing On-Line Analytical Processing Ziel

Mehr

Profil Andy Sydow. Persönliche Daten. Profil. Profil Andy Sydow. Deutsch, Englisch (gut) Fachinformatiker für Anwendungsentwicklung

Profil Andy Sydow. Persönliche Daten. Profil. Profil Andy Sydow. Deutsch, Englisch (gut) Fachinformatiker für Anwendungsentwicklung Profil Andy Sydow Persönliche Daten Nationalität Sprachen Abschluss deutsch Deutsch, Englisch (gut) Fachinformatiker für Anwendungsentwicklung Profil Herr Sydow verfügt über mehrjährige Erfahrung als DWH/BI

Mehr

David gegen Goliath Excel 2010 in Verbindung mit Datawarehouse und im Vergleich zu Business Objects

David gegen Goliath Excel 2010 in Verbindung mit Datawarehouse und im Vergleich zu Business Objects Thema: David gegen Goliath Excel 2010 in Verbindung mit Datawarehouse und im Vergleich zu Business Objects Autor: Dipl. Wirtsch.-Inf. Torsten Kühn PRAXIS-Consultant PRAXIS EDV- Betriebswirtschaft- und

Mehr

Raber+Märcker Business Intelligence Lösungen und Leistungen

Raber+Märcker Business Intelligence Lösungen und Leistungen Business Intelligence Raber+Märcker Business Intelligence Lösungen und Leistungen www.raber-maercker.de 2 LEISTUNGEN Business Intelligence Beratungsleistung Die Raber+Märcker Business Intelligence Beratungsleistung

Mehr

Multidimensionales Datenmodell, Cognos

Multidimensionales Datenmodell, Cognos Data Warehousing (II): Multidimensionales Datenmodell, Cognos Praktikum: Data Warehousing und Mining Praktikum Data Warehousing und Mining, Sommersemester 2010 Vereinfachte Sicht auf die Referenzarchitektur

Mehr

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Exposé zur Diplomarbeit Humboldt-Universität zu Berlin Mathematisch-Naturwissenschaftliche Fakultät II Institut

Mehr

Zusammenspiel von Business Intelligence mit betrieblicher Anwendungssoftware Falk Neubert, Universität Osnabrück

Zusammenspiel von Business Intelligence mit betrieblicher Anwendungssoftware Falk Neubert, Universität Osnabrück Zusammenspiel von Business Intelligence mit betrieblicher Anwendungssoftware 14. März 2013, IHK Osnabrück-Emsland-Grafschaft Bentheim Geschichte Kassenbuch des Liederkranz, 1886 Hutmachergesangvereins

Mehr

Business Intelligence

Business Intelligence Business Intelligence TOP Priorität für CIOs? Köln 08. Mai 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business Intelligence BI TOP Priorität

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

Business Intelligence für Controller

Business Intelligence für Controller Controllers Best Practice Fachbuch Business Intelligence für Controller Hermann Hebben und Dr. Markus Kottbauer Verlag für ControllingWissen ÄG, Freiburg und Wörthsee Ein Unternehmen der Haufe Mediengruppe

Mehr

Data Warehouse. für den Microsoft SQL SERVER 2000/2005

Data Warehouse. für den Microsoft SQL SERVER 2000/2005 Warehouse für den Microsoft SQL SERVER 2000/2005 Begriffe 1 DWH ( Warehouse) ist eine fachübergreifende Zusammenfassung von Datentabellen. Mart ist die Gesamtheit aller Datentabellen für einen fachlich

Mehr

Erfolgreiche Unternehmensführung durch den Einsatz von Corporate Performance Management

Erfolgreiche Unternehmensführung durch den Einsatz von Corporate Performance Management Andrei Buhrymenka Erfolgreiche Unternehmensführung durch den Einsatz von Corporate Performance Management Für Unternehmen mit Business Intelligence Diplomica Verlag Andrei Buhrymenka Erfolgreiche Unternehmensführung

Mehr

Die Bedeutung der Prozessmodellierung bei der Weiterentwicklung des DWHs der DAK Der Innovator als Missing Link

Die Bedeutung der Prozessmodellierung bei der Weiterentwicklung des DWHs der DAK Der Innovator als Missing Link Die Bedeutung der Prozessmodellierung bei der Weiterentwicklung des DWHs der DAK Der Innovator als Missing Link Konrad Linner, solvistas GmbH Nürnberg, 20.November 2012 Inhaltsverzeichnis Vorstellung solvistas

Mehr

Roundtable. Dashboards und Management Information. Rüdiger Felke / Christian Baumgarten 29.11.2011

Roundtable. Dashboards und Management Information. Rüdiger Felke / Christian Baumgarten 29.11.2011 Roundtable Dashboards und Management Information Rüdiger Felke / Christian Baumgarten 29.11.2011 Agenda Behind the Dashboards Was ist ein Dashboard und was ist es nicht? SAP BusinessObjects Dashboards

Mehr

Data Warehousing mit Oracle

Data Warehousing mit Oracle Data Warehousing mit Oracle Business Intelligence in der Praxis von Claus Jordan, Dani Schnider, Joachim Wehner, Peter Welker 1. Auflage Hanser München 2011 Verlag C.H. Beck im Internet: www.beck.de ISBN

Mehr

INVEST projects. Besseres Investitionscontrolling mit INVESTprojects

INVEST projects. Besseres Investitionscontrolling mit INVESTprojects Besseres Investitionscontrolling mit Der Investitionsprozess Singuläres Projekt Idee, Planung Bewertung Genehmigung Realisierung Kontrolle 0 Zeit Monate, Jahre Perioden Der Investitionsprozess Singuläres

Mehr

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle 40. Congress der Controller, Themenzentrum C, München Steffen Vierkorn, Geschäftsführer Qunis GmbH, Neubeuern Die

Mehr

SAP BW + Microsoft Excel Viel genutzt, oft unterschätzt

SAP BW + Microsoft Excel Viel genutzt, oft unterschätzt Corporate Performance Management SAP BW + Microsoft Excel Viel genutzt, oft unterschätzt Martin Krejci, Manager CPM Matthias Schmidt, BI Consultant Kristian Rümmelin, Senior BI Consultant Braincourt GmbH

Mehr

Nach Data Warehousing kommt Business Intelligence

Nach Data Warehousing kommt Business Intelligence Nach Data Warehousing kommt Business Intelligence Andrea Kennel Trivadis AG Glattbrugg, Schweiz Schlüsselworte: Business Intelligence, Data Warehouse Zusammenfassung Data Warehouse bedeutet, dass operative

Mehr

Survival Guide für Ihr Business Intelligence-Projekt

Survival Guide für Ihr Business Intelligence-Projekt Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren

Mehr

SAS Analytics bringt SAP HANA in den Fachbereich

SAS Analytics bringt SAP HANA in den Fachbereich Pressemitteilung Hamburg, 08. November 2013 SAS Analytics bringt SAP HANA in den Fachbereich Ergonomie kombiniert mit Leistungsfähigkeit: die BI-Experten der accantec group geben der neuen Partnerschaft

Mehr

Intelligente Unternehmens- und Prozesssteuerung durch CPM

Intelligente Unternehmens- und Prozesssteuerung durch CPM Intelligente Unternehmens- und Prozesssteuerung durch CPM 5. IIR Forum BI, Mainz, Sept. 2006 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

4. WORKSHOP - OSBI Big Data und Datenvirtualisierung. Dr. Sebastian Streit & Maxim Zehe

4. WORKSHOP - OSBI Big Data und Datenvirtualisierung. Dr. Sebastian Streit & Maxim Zehe 4. WORKSHOP - OSBI Big Data und Datenvirtualisierung Dr. Sebastian Streit & Maxim Zehe F. Hoffmann-La Roche AG Gegründet 1896 in Basel Über 80.000 Mitarbeitende Führende Position in Pharma Fokussierung

Mehr

Marketing Intelligence Vorstellung der Softwarekomponenten. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Vorstellung der Softwarekomponenten. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Vorstellung der Softwarekomponenten Josef Kolbitsch Manuela Reinisch Übersicht Übersicht über die Systemlandschaft Übersicht über die Werkzeuge Workshop Systemlandschaft 1/8 Klassische

Mehr

FHH meets economy. Tobias Klug Dipl.-Wirt.-Inf. (FH), Alumnus FH Hannover. Hannover, 21. Januar 2010. 21. Januar 2010 bit GmbH

FHH meets economy. Tobias Klug Dipl.-Wirt.-Inf. (FH), Alumnus FH Hannover. Hannover, 21. Januar 2010. 21. Januar 2010 bit GmbH FHH meets economy BI Projektmanagement bei QlikView Projekten Tobias Klug Dipl.-Wirt.-Inf. (FH), Alumnus FH Hannover Hannover, 21. Januar 2010 21. Januar 2010 Agenda Über die bit GmbH Über QlikTech und

Mehr

Stand 2008.08. Vorstellung der EXXETA

Stand 2008.08. Vorstellung der EXXETA Stand 2008.08 Vorstellung der EXXETA Unternehmensprofil EXXETA optimiert ausgewählte Geschäftsprozesse ihrer Kunden auf Fach- und IT-Ebene. EXXETA bietet Fach- und Technologie-Beratung mit Branchen-, Prozessund

Mehr

eevolution Business Intelligence

eevolution Business Intelligence eevolution Business Intelligence Haben Sie sich schon häufig gefragt, warum Ihr Berichtswesen so kompliziert sein muss? Warum Sie nicht einfach mit wenigen Handgriffen Ihr Berichtswesen einrichten und

Mehr

Data Warehouses und Moderne Betriebliche Anwendungen von Datenbanksystemen

Data Warehouses und Moderne Betriebliche Anwendungen von Datenbanksystemen Data Warehouses und Moderne Betriebliche Anwendungen von Datenbanksystemen (Folien von A. Kemper zum Buch 'Datenbanksysteme') Online Transaction Processing Betriebswirtschaftliche Standard- Software (SAP

Mehr

COGNOS PERFORMANCE MANAGEMENT. Jörg Fuchslueger, COGNOS Austria Manager Professional Services

COGNOS PERFORMANCE MANAGEMENT. Jörg Fuchslueger, COGNOS Austria Manager Professional Services COGNOS PERFORMANCE MANAGEMENT Jörg Fuchslueger, COGNOS Austria Manager Professional Services Agenda Cognos Performance Management Unternehmensweites Berichtswesen AdHoc Analysen Überwachung und Steuerung

Mehr

BOARD All in One. Unternehmen Lösung Referenzen

BOARD All in One. Unternehmen Lösung Referenzen BOARD All in One Unternehmen Lösung Referenzen Unternehmen BOARD Führender Anbieter für BI & CPM mit Sitz in Lugano Gegründet 1994 eigene Software seit 19 Jahren Eigenfinanziert & profitabel Weltweite

Mehr

Themenblock: Erstellung eines Cube

Themenblock: Erstellung eines Cube Themenblock: Erstellung eines Cube Praktikum: Data Warehousing und Data Mining Einführung relationale Datenbanken Problem Verwaltung großer Mengen von Daten Idee Speicherung der Daten in Form von Tabellen

Mehr

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Prof. Dr. Anett Mehler-Bicher Fachhochschule Mainz, Fachbereich Wirtschaft Prof. Dr. Klaus Böhm health&media GmbH 2011 health&media

Mehr

Komponenten und Architekturen von Analytischen Informationssystemen (AIS)

Komponenten und Architekturen von Analytischen Informationssystemen (AIS) Komponenten und Architekturen von Analytischen Informationssystemen (AIS) Melanie Pfoh Konsultation Zusammenfassung OPAL 6. Übung Juni 2015 Agenda Hinweise zur Klausur Zusammenfassung OPAL Übungen / Kontrollfragen

Mehr

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit BI Konsolidierung: Anspruch & Wirklichkeit Jacqueline Bloemen in Kooperation mit Agenda: Anspruch BI Konsolidierung Treiber Was sind die aktuellen Treiber für ein Konsolidierungsvorhaben? Kimball vs. Inmon

Mehr

Data Warehouse Technologien

Data Warehouse Technologien mitp Professional Data Warehouse Technologien von Veit Köppen, Gunter Saake, Kai-Uwe Sattler 2. Auflage 2014 Data Warehouse Technologien Köppen / Saake / Sattler schnell und portofrei erhältlich bei beck-shop.de

Mehr

good. better. outperform.

good. better. outperform. good. better. outperform. Analytic mit Oracle BI relational oder besser multidimensional? 8. Oracle BI & DWH Konferenz, 20.03.2013 Dirk Fleischmann Director Business Intelligence & DWH Business Intelligence

Mehr

Business Intelligence Entscheidungsinformationen für eine erfolgreiche Unternehmensentwicklung im Mittelstand

Business Intelligence Entscheidungsinformationen für eine erfolgreiche Unternehmensentwicklung im Mittelstand Business Intelligence Entscheidungsinformationen für eine erfolgreiche Unternehmensentwicklung im Mittelstand 2. Fachtagung Dynamisierung des Mittelstandes durch IT, 09.09.2008 Was ist Business Intelligence

Mehr

Richtige und schnelle Entscheidungen trotz sich änderner Anforderungen mit Microsoft Dynamics AX und Microsoft SQL Server Reporting Services

Richtige und schnelle Entscheidungen trotz sich änderner Anforderungen mit Microsoft Dynamics AX und Microsoft SQL Server Reporting Services Launch Microsoft Dynamics AX 4.0 Richtige und schnelle Entscheidungen trotz sich änderner Anforderungen mit Microsoft Dynamics AX und Microsoft SQL Server Reporting Services Sonia Al-Kass Partner Technical

Mehr

Innovatives Reporting mit PM10: Analysen und Berichte mit Single Point of Truth 11.00 11.45 Uhr

Innovatives Reporting mit PM10: Analysen und Berichte mit Single Point of Truth 11.00 11.45 Uhr Copyright 2007 Infor. Alle Rechte vorbehalten. Innovatives Reporting mit PM10: Analysen und Berichte mit Single Point of Truth 11.00 11.45 Uhr Hubertus Thoma Presales Consultant PM Schalten Sie bitte während

Mehr

Hinweise zur Klausur Zusammenfassung OPAL-Übungen / Kontrollfragen Fragen Vertiefung Modellierung

Hinweise zur Klausur Zusammenfassung OPAL-Übungen / Kontrollfragen Fragen Vertiefung Modellierung Komponenten und Architekturen von Analytischen Informationssystemen (AIS) Melanie Pfoh Konsultation Zusammenfassung OPAL 24. Juni 2014 Agenda Hinweise zur Klausur Zusammenfassung OPAL-Übungen / Kontrollfragen

Mehr

mit der neuen Microsoft BI-Plattform

mit der neuen Microsoft BI-Plattform Der Weg von manuellen Berichten zum modernen BI-System PSG Projekt Service GmbH The SQL Server Company, Hamburg Jan Streblow, Lead Consultant Public Sector Sascha Lorenz, Lead Consultant SQL Server Technology

Mehr

Kapitel II. Datenbereitstellung 2004 AIFB / FZI 1. Vorlesung Knowledge Discovery

Kapitel II. Datenbereitstellung 2004 AIFB / FZI 1. Vorlesung Knowledge Discovery Kapitel II Datenbereitstellung 2004 AIFB / FZI 1 II. Datenbereitstellung 2004 AIFB / FZI 2 II. Datenbereitstellung Collect Initial Data identify relevant attributes identify inconsistencies between sources

Mehr

Christian Kurze BI-Praktikum IBM WS 2008/09

Christian Kurze BI-Praktikum IBM WS 2008/09 Einführung in die multidimensionale Datenmodellierung e mit ADAPT BI-Praktikum IBM WS 2008/09 1 Gliederung Einführung multidimensionale Datenmodellierung 1. Multidimensionales Modell BI-Praktikum IBM WS

Mehr

Integration Services - Dienstarchitektur

Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Dieser Artikel solle dabei unterstützen, Integration Services in Microsoft SQL Server be sser zu verstehen und damit die

Mehr

Intelligente Kanzlei

Intelligente Kanzlei Seite 1 von 5 Intelligente Kanzlei Datawarehouse und OLAP in der Steuerkanzlei Notwendigkeit eines Kanzleiinformationssystems Seit einigen Jahren sind enorme Veränderungen am Beratungsmarkt durch einen

Mehr

Business Intelligence Data Warehouse. Jan Weinschenker

Business Intelligence Data Warehouse. Jan Weinschenker Business Intelligence Data Warehouse Jan Weinschenker 28.06.2005 Inhaltsverzeichnis Einleitung eines Data Warehouse Data Warehouse im Zusammenfassung Fragen 3 Einleitung Definition: Data Warehouse A data

Mehr

Reporting mit SAP BusinessObjects

Reporting mit SAP BusinessObjects Reporting mit SAP BusinessObjects Ali Sayar Professional Consultant 21. Juni 2011 Agenda Vorstellung Infomotion Unternehmen Software-Partner Referent SAP BusinessObjects Allgemeine Informationen Überblick

Mehr

O-BIEE Einführung mit Beispielen aus der Praxis

O-BIEE Einführung mit Beispielen aus der Praxis O-BIEE Einführung mit Beispielen aus der Praxis Stefan Hess Business Intelligence Trivadis GmbH, Stuttgart 2. Dezember 2008 Basel Baden Bern Lausanne Zürich Düsseldorf Frankfurt/M. Freiburg i. Br. Hamburg

Mehr

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 BIW - Überblick Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 Annegret Warnecke Senior Sales Consultant Oracle Deutschland GmbH Berlin Agenda Überblick

Mehr

Infografik Business Intelligence

Infografik Business Intelligence Infografik Business Intelligence Top 5 Ziele 1 Top 5 Probleme 3 Im Geschäft bleiben 77% Komplexität 28,6% Vertrauen in Zahlen sicherstellen 76% Anforderungsdefinitionen 24,9% Wirtschaflicher Ressourceneinsatz

Mehr

Data Warehousing. Fragen des Marketingleiters. Beispiel: : Amazon. Technisch... Amazon weltweit... Datenbank. Aufbau eines DWH OLAP <-> OLTP Datacube

Data Warehousing. Fragen des Marketingleiters. Beispiel: : Amazon. Technisch... Amazon weltweit... Datenbank. Aufbau eines DWH OLAP <-> OLTP Datacube Fragen des Marketingleiters Data Warehousing Wie viele Bestellungen haben wir jeweils im Monat vor Weihnachten, aufgeschlüsselt nach? Aufbau eines DWH OLAP OLTP Datacube Beispiel: : Amazon Technisch

Mehr

Technische Seminarreihe Empowering Business Intelligence

Technische Seminarreihe Empowering Business Intelligence PRESSEMITTEILUNG / Veranstaltungshinweis Technische Seminarreihe Empowering Business Intelligence Trivadis bietet für Entwickler, Projektleiter, Datenbank-Administratoren sowie DWHund BI-Interessierte

Mehr

OLAP mit dem SQL-Server

OLAP mit dem SQL-Server Hartmut Messerschmidt Kai Schweinsberg OLAP mit dem SQL-Server Eine Einführung in Theorie und Praxis IIIBibliothek V dpunkt.verlag Teil OLAP undder Microsoft SQL-Server 1 1 Theoretische Grundlagen 3 1.1

Mehr

BICC, Organisation und Kompetenz Das Raiffeisen Solution SAS Competence Center

BICC, Organisation und Kompetenz Das Raiffeisen Solution SAS Competence Center BICC, Organisation und Kompetenz Das Raiffeisen Solution SAS Competence Center Ing. Polzer Markus öffentlich Inhaltsverzeichnis 1 2 3 4 5 6 7 Kurzvorstellung Raiffeisen Solution Business Intelligence Strategie

Mehr

Business Intelligence Meets SOA

Business Intelligence Meets SOA Business Intelligence Meets SOA Microsoft People Ready Conference, München, Nov. 2007 Dr. Wolfgang Martin Analyst, ibond Partner, Ventana Research Advisor und Research Advisor am Institut für Business

Mehr

Unternehmensdaten auswerten und planen - Vorstellung von Infor PM 10

Unternehmensdaten auswerten und planen - Vorstellung von Infor PM 10 Unternehmensdaten auswerten und planen - Vorstellung von PM 10 Global Solutions Dominik Lacić, Dr. Rolf Gegenmantel 12. Februar 2009 Copyright 2008. All rights reserved. www.infor.com. Agenda 1. Einführung

Mehr

Non-Profit-Organisationen: Vom Controlling zum Strategischen Management

Non-Profit-Organisationen: Vom Controlling zum Strategischen Management Non-Profit-Organisationen: Vom Controlling zum Strategischen Management Einordnung der Begriffe Business Intelligence Strategic Association Management Controlling and Data Warehousing Data Mining, Knowledge

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Agile Analytics Neue Anforderungen an die Systemarchitektur

Agile Analytics Neue Anforderungen an die Systemarchitektur www.immobilienscout24.de Agile Analytics Neue Anforderungen an die Systemarchitektur Kassel 20.03.2013 Thorsten Becker & Bianca Stolz ImmobilienScout24 Teil einer starken Gruppe Scout24 ist der führende

Mehr

Anwendertage WDV2012

Anwendertage WDV2012 Anwendertage WDV2012 28.02.-01.03.2013 in Pferdingsleben Thema: Business Intelligence mit Excel 2010 Referent: Dipl. Wirtsch.-Inf. Torsten Kühn PRAXIS-Consultant Alles ist möglich! 1 Torsten Kühn Dipl.

Mehr

Data Warehousing in der Lehre

Data Warehousing in der Lehre Data Warehousing in der Lehre Prof. Dr.-Ing. Tomas Benz Dipl.-Inform. Med. Alexander Roth Agenda Vorstellung Fachhochschule Heilbronn Vorstellung i3g Vorlesungen im DWH-Bereich Seminare Projekte Studien-

Mehr

Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010

Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010 Zusammenfassung der Umfrageergebnisse Customer Intelligence in Unternehmen 23.12.2010 Autoren: Alexander Schramm Marcus Mertens MuniConS GmbH Einleitung Unternehmen verfügen heute über viele wichtige Informationen

Mehr

Cockpits und Standardreporting mit Infor PM 10 09.30 10.15 Uhr

Cockpits und Standardreporting mit Infor PM 10 09.30 10.15 Uhr Cockpits und Standardreporting mit Infor PM 10 09.30 10.15 Uhr Bernhard Rummich Presales Manager PM Schalten Sie bitte während der Präsentation die Mikrofone Ihrer Telefone aus, um störende Nebengeräusche

Mehr

The Need for Speed. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

The Need for Speed. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor The Need for Speed CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor The Need for Speed Industrialisierung, Agilität und Compliance die Rolle von Performance Management

Mehr

Von ODBC zu OLE DB. Neue Möglichkeiten der Datenintegration. Harald Gladytz, Team Vertrieb ESRI Niederlassung Leipzig

Von ODBC zu OLE DB. Neue Möglichkeiten der Datenintegration. Harald Gladytz, Team Vertrieb ESRI Niederlassung Leipzig Von ODBC zu OLE DB Neue Möglichkeiten der Datenintegration Harald Gladytz, Team Vertrieb ESRI Niederlassung Leipzig Von ODBC zu OLE DB Begriffsbestimmung ODBC, OLE DB, COM, ADO... Unterschiede zwischen

Mehr

arcplan Edge V.2.7 in 30 min von 0 auf 100 Stefan Koch VP Product Management 31. März 2011

arcplan Edge V.2.7 in 30 min von 0 auf 100 Stefan Koch VP Product Management 31. März 2011 arcplan Edge V.2.7 in 30 min von 0 auf 100 Stefan Koch VP Product Management 31. März 2011 arcplan 2011 Agenda Was ist arcplan Edge? Komponenten von arcplan Edge arcplan Edge Roadmap Live Demo arcplan

Mehr

ITSM Roundtable. Linz, den 25.09.2014

ITSM Roundtable. Linz, den 25.09.2014 ITSM Roundtable Linz, den 25.09.2014 USU auf einen Blick Gründung 2014 Fokus Branche Know-how Rechtsform Mitarbeiter Standorte Unabhängiger Software- und Lösungsanbieter IT Service Management & Knowledge

Mehr

Inhaltsverzeichnis. Holger Schrödl. Business Intelligence mit Microsoft SQL Server 2008. BI-Projekte erfolgreich umsetzen ISBN: 978-3-446-41210-1

Inhaltsverzeichnis. Holger Schrödl. Business Intelligence mit Microsoft SQL Server 2008. BI-Projekte erfolgreich umsetzen ISBN: 978-3-446-41210-1 sverzeichnis Holger Schrödl Business Intelligence mit Microsoft SQL Server 2008 BI-Projekte erfolgreich umsetzen ISBN: 978-3-446-41210-1 Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-41210-1

Mehr