Diplomarbeit. Business Intelligence im Mittelstand

Größe: px
Ab Seite anzeigen:

Download "Diplomarbeit. Business Intelligence im Mittelstand"

Transkript

1 Diplomarbeit zur Erlangung des akademischen Grades Diplom-Informatiker an der Fachhochschule Dortmund im Fachbereich Informatik im Studiengang Wirtschaftsinformatik Business Intelligence im Mittelstand Implementierung eines BI-Gesamtansatzes in einem mittelständischen Unternehmen mit dem Microsoft SQL Server. Autor: David Claßen Matrikel-Nr: Erstprüfer: Prof. Dr. Christoph Engels Abgabe am:

2

3 Markenrechtlicher Hinweis III Markenrechtlicher Hinweis Die in dieser Arbeit wiedergegebenen Gebrauchsnamen, Handelsnamen, Warenzeichen usw. können auch ohne besondere Kennzeichnung geschützte Marken sein und als solche den gesetzlichen Bestimmungen unterliegen. Sämtliche in dieser Arbeit abgedruckten Bildschirmabzüge unterliegen dem Urheberrecht des jeweiligen Herstellers. Excel, SQL Server 2005 und Windows sind Marken oder eingetragene Marken der Microsoft Corporation, Redmond. MegaWWS ist eine eingetragene Marke der Mega Software GmbH, Dortmund. V_Olga ist eine eingetragene Marke der Voigt Software und Unternehmensberatung GmbH, Murr.

4

5 Kurzfassung V Kurzfassung Die richtige Information, zur richtigen Zeit, richtig aufbereitet und in den richtigen Kontext eingebettet wird heute immer öfter als wesentlicher Faktor zur Erlangung von Wettbewerbsvorteilen im Markt angesehen. Für eine Umsetzung solcher Analysesysteme, die basierend auf riesigen Datenmengen innerhalb kurzer Zeit auch komplexe Fragestellungen beantworten und zielgerichtet darstellen können werden immer häufiger Business Intelligence-Gesamtansätze verwendet. Diese beschreiben in einem mehrstufigen Aufbau den gesamten Wertschöpfungsprozess von Daten innerhalb einer Unternehmung. Die vorliegende Diplomarbeit beschreibt die Implementierung eines solchen BI-Gesamtansatzes bei der WESTFA GmbH. Der Schwerpunkt dieser liegt auf der Entwicklung eines ETL-Prozesses zur Generierung und Bereitstellung von dispositiven Daten in einem Data Warehouse. Im Weiteren Verlauf soll das Data Warehouse als Datenbasis eines auf OLAP basierendem, multidimensionalem Analysesystems dienen, das die Anforderungen an ein komplexes, unternehmensweites Reporting erfüllt. Für die Implementierung dieses BI-Gesamtansatzes bei der WESTFA GmbH wurde der Microsoft SQL Server 2005 mit seinen mit seinen, speziell für die Anforderungen von Business-Intelligence bereitgestellten Komponenten Integration Services und Analysis Services verwendet.

6 VI Abstract Abstract The right information, at the right time, correctly formatted and in the proper context is now increasingly seen as an essential factor for obtaining competitive advantage in the market. For the implementation of such an analytical system that is based on large amounts of data within a short time to respond to complex issues supplies are becoming more business-intelligence approaches used. These describe a multi-structure the entire value chain of data within a company. This thesis describes the implementation of such a BI-approach in the WESTFA GmbH focuses on the development of an ETL process for the generation and provision of dispositive data in a data warehouse. Moreover, the data warehouse serves as a data base for OLAP-based, multidimensional analytical system to meet the requirements of a complex, enterprise-wide reporting fulfilled. For the implementation of a BI approach in the WESTFA GmbH was the Microsoft SQL Server 2005 with it s specifically for the demands of business intelligence provided components Integration Services and Analysis Services uses.

7 Inhalt VII Inhalt 1 Einleitung Beschreibung der Thematik Zielsetzung der Arbeit Vorgehensweise und Gliederung Werkzeugauswahl Der BI-Markt Entscheidung SQL Server Integration Services Datenbankmodul Analysis Services Reporting Services Data Preparation Unterschiedliche Strategien Extraktion von ausgewählten Daten Persistent Staging Area Extraktion aus PivotalCRM Extraktion aus megawws Extraktion aus V_Olga Fehlerbehandlung während des Extraktionsprozesses Automatisierung der Extraktionen Transformation der Daten Filterung Selektion Datenbereinigung Unterschiede der Filterung für Fakten und Dimensionen Inkrementelle Selektion von Fakten Vollständige Selektion von Fakten Harmonisierung... 25

8 VIII Inhalt Aggregation & Anreicherung Aggregation Anreicherung Konstruktion und Laden des Data Warehouse Laden der Dimensionstabellen Slowly Changing Dimensions Typ Typ Typ Implementierung bei WESTFA Surrogatschlüssel Laden der Fakten Lookup-Transformation Lookup von Surrogatschlüsseln einer SCD vom Typ Fremdschlüsselbeziehungen im Data Warehouse Automatisierung der Aktualisierung des Data Warehouse Modeling Definition einer Datenquellensicht Erstellen eines Cubes Cube-Assistent Dimensionen Hierarchien Measures Berechnete Werte Kennzahlen (KPIs) Bereitstellung und Verarbeitung des Cubes MOLAP ROLAP HOLAP Evaluation Evaluation der Funktionen und Daten Evaluation Informationsbeschaffung... 76

9 Inhalt IX 6 Deployment Analysen mit MS Excel Separate Frontendwerkzeuge Reporting Services des SQL Servers Abschluss Zusammenfassung Fazit Ausblick Eidesstattliche Erklärung Abbildungsverzeichnis Tabellenverzeichnis... 87

10

11 1 Einleitung 1 1 Einleitung 1.1 Beschreibung der Thematik Durch sich immer schneller verändernde Marktsituationen werden alle Marktteilnehmer vor neue Herausforderungen gestellt. Die Fähigkeit einer Unternehmung, in dieser Situation schnell und richtig zu entscheiden, trägt dabei wesentlich zur Wettbewerbsfähigkeit und zum Aufbau von Wettbewerbsvorteilen bei. Grundlage einer Entscheidungsfindung sind verdichtete, zielgerichtet aufbereitete Daten, die mit Hilfe von Informationssystemen erstellt und bereitgestellt werden können. Durch den rasanten technologischen Fortschritt der letzten Jahrzehnte haben sich die Möglichkeiten, aber auch die Zielsetzungen von Informationssystemen verändert. Business Intelligence ist ein Schlagwort, das sich in den letzten Jahren im IT-Markt etabliert hat und als eine moderne Ausprägung der klassischen Management Support Systeme beschrieben werden kann. Dabei beschreiben Business Intelligence Ansätze das Sammeln, Aufbereiten, Analysieren und Präsentieren von Unternehmensdaten. Wurden Business Intelligence Projekte bisher vor allem bei Großunternehmen und Konzernen initiiert, findet aktuell eine Neuausrichtung der Anbieter von BI- Werkzeugen auf den Mittelstand statt. Denn auch dort hat man entdeckt, welches Potenzial sich mit Business Intelligence erschließen lässt. 1.2 Zielsetzung der Arbeit Im Rahmen des dieser Arbeit vorangegangenen Projektverlaufes wurden die ersten beiden Prozessphasen des CRISP-Prozesses, das Business Understanding und das Data Understanding bei der WESTFA GmbH durchgeführt. Es wurde ein Verständnis für die grundlegenden Geschäftsprozesse sowohl aus Datensicht, als auch aus organisatorischer Sicht erarbeitet. Darauf aufbauend wurde der Informationsbedarf in Bezug auf einen zu implementierenden BI-Gesamtansatz durch Interviews der späteren Anwender ermittelt und strukturiert. Mit dem Abschluss der zweiten Prozessphase wurde ein horizontaler Prototyp in Form eines nach der ADAPT-Methode entwickelten Datenmodells entworfen, der die multidimensionale Datenstruktur eines möglichen Zielsystems auf einer semantischen Ebene beschreibt. Ziel der vorliegenden Arbeit ist es, anhand der gewonnenen Erkenntnisse, der gefundenen Voraussetzungen und der ermittelten Anforderungen einen BI-Gesamtansatz bei der WESTFA GmbH zu implementieren. Im Vordergrund stehen

12 2 1.3 Vorgehensweise und Gliederung dabei die Implementierung eines Data Warehouse, eines ETL-Prozesses der das Data Warehouse regelmäßig mit aktuellen Daten aus den operativen Systemen füllt und eines auf dem Data Warehouse aufbauenden Analysesystems. Mit Abschluss der vorliegenden Arbeit soll die WESTFA GmbH in die Lage versetzt werden, mit Hilfe eines OLAP-Systems unternehmensweite Analysen beruhend auf tagesaktuellen Daten durchführen zu können. 1.3 Vorgehensweise und Gliederung Zunächst soll dem Leser ein kurzer Einblick in den BI-Markt gegeben werden. Nach der Entscheidung für den Microsoft SQL Server 2005 als ein geeignetes Werkzeug zur Realisierung des BI-Gesamtansatzes bei der WESTFA GmbH wird der CRISP-Prozess zu Beginn der dritten Phase aufgenommen und die Bearbeitung der einzelnen Prozessphasen in separaten Kapiteln beschrieben. Die Phase Data Preparation beschreibt in Kapitel 3 die Implementierung eines ETL-Prozesses und damit einhergehend auch die des Data Warehouse. Darauf aufbauend erfolgt in Kapitel 4 die Phase Modeling, in welcher das auf OLAP basierende Analysesystem in Form einer multidimensionalen Datenstruktur definiert und anschließend als Cube bereitgestellt und verarbeitet wird. Anschließend erfolgt eine Evaluation der erarbeiteten Ergebnisse in Bezug auf die gestellten Anforderungen und den Informationsbedarf der Anwender in Kapitel 5. Die Produktivsetzung des implementierten BI-Gesamtansatzes erfolgt schließlich in Kapitel 6.

13 2 Werkzeugauswahl 3 2 Werkzeugauswahl Bevor mit der Implementierung eines BI-Gesamtansatzes bei der WESTFA GmbH, im folgenden WESTFA genannt, begonnen werden kann, muss darüber entschieden werden, welche Werkzeuge für eine Implementierung verwendet werden sollen. 2.1 Der BI-Markt Der BI-Softwaremarkt macht bei einer groben Betrachtung durch sein vielfältiges Angebot einen zunächst unübersichtlichen und nur schwer zu strukturierenden Eindruck. Als Strukturierungshilfe lässt sich der dieser Arbeit zugrundeliegende und in der vorhergegangenen Projektarbeit 1 erläuterte BI-Gesamtansatz heranziehen. Dieser lässt sich in vier unterschiedliche und separat betrachtbare Teilbereiche mit jeweils andersgearteten Funktionsanforderungen unterscheiden. ETL-Prozess Datenbereitstellung Informationsgenerierung/ -speicherung/ -distribution Informationszugriff Im Hinblick auf den gegebenen Funktionsumfang und die Einsetzbarkeit der am BI- Markt verfügbaren Werkzeuge in den unterschiedenen Teilbereichen des BI- Gesamtansatzes, lässt sich eine grobe Unterscheidung der angebotenen Software in zwei Gruppen vornehmen: Einzelne Spezialwerkzeuge Modulbasierte Gesamtlösungen In die Kategorie der einzelnen Spezialwerkzeuge fallen Werkzeuge, die speziell für die Realisierung eines bestimmten Teilbereiches des BI-Gesamtansatzes entwickelt wurden. Beispielhaft lassen sich Werkzeuge nennen, die sich auf die Modellierung von ETL-Prozessen, oder noch spezieller sogar nur auf die Bereinigung von Daten innerhalb eines ETL-Prozesses konzentrieren. In den letzten Jahren hat auf dem BI-Markt eine starke Konsolidierung stattgefunden, die bis heute noch kein Ende gefunden hat. Die zahlreichen Anbieter von Spezialwerkzeugen werden dabei von großen namhaften Unternehmen 1 (Claßen, 2008 S. 13)

14 4 2.1 Der BI-Markt aufgekauft, wodurch die Anzahl von unterschiedlichen BI-Software-Anbietern rückläufig ist. Ein Resultat dieser Konsolidierung ist, dass am BI-Markt weniger Werkzeuge zu finden sind, die lediglich einen Teilbereich des BI-Gesamtansatzes unterstützen. Anbieter solcher Werkzeuge finden sich heute in Marktnischen oder bieten ein sehr weit entwickeltes und auf eine bestimmte Kundengruppe bzw. Branche angepasstes Produkt an. Mit der Konsolidierung stehen die am Markt angebotenen, modulbasierten Gesamtlösungen, die eine Unterstützung von allen Teilbereichen des BI-Gesamtansatzes anbieten, stärker im Fokus. Abbildung 2-1 zeigt eine Übersicht verschiedener Anbieter von BI-Anwendungen und deren Einordnung in den Magic Quadrant for Business Intelligence Platforms. Abbildung 2-1: Magic Quadrant for Business Intelligence Platforms, (Richardson, et al., 2008)

15 2 Werkzeugauswahl Entscheidung Gemäß der vorgenommenen Abgrenzung von BI-Software in Einzellösungen und den so genannten BI-Suiten wurde für die Verwendung bei WESTFA eine erste richtungsweisende Entscheidung für den Einsatz einer BI-Suite getroffen. Der Nachteil einer Entscheidung für separate Einzelwerkzeuge wurde darin vermutet, dass die Integration der einzelnen Werkzeuge, aber auch der damit erstellten Lösungen, die Realisierung des BI-Gesamtansatzes schwieriger gestalten können. Außerdem ist gegebenenfalls das Einarbeiten in die unterschiedlichen Handhabungen der einzelnen Werkzeuge zusätzlicher Zeit- und Arbeitsaufwand. Die beispielhaft genannten Nachteile der Einzellösungen beschreiben zugleich die Stärken der großen Gesamtlösungen. Die einzelnen Module zur Bearbeitung der unterschiedlichen Komponenten des BI-Gesamtansatzes sind bereits integriert und auch die damit erstellten Lösungen harmonisieren untereinander. In der Kategorie von BI-Gesamtlösungen dominieren derzeit vier Anbieter mit ihren Produkten zwei Drittel des gesamten BI-Marktes: Microsoft Microsoft SQL Server 3 IBM - IBM Cognos 8 Business Intelligence 4 SAP - SAP NetWeaver BI 5 Oracle - Oracle Business Intelligence Suite 6 Da bei WESTFA bereits Lizenzen für den Microsoft SQL Server 2005 vorhanden waren und auch im Hinblick auf die Integration des MS SQL Servers in die bereits vorhandene, auf weitere Microsoftprodukte basierende Systemlandschaft wurde beschlossen, den Microsoft SQL Server 2005 für die Implementierung eines BI- Gesamtansatzes zu einzusetzen. 2.3 SQL Server 2005 Der SQL Server 2005 wurde vor allem durch die Integration von neuen umfangreichen analytischen Funktionen gegenüber seiner Vorgängerversion noch stärker auf die Anforderungen von BI-Projekten ausgerichtet. Durch seinen komponentenbasierten Aufbau bietet er zu jedem der aus dem BI-Gesamtansatz bekannten Teilbereiche Unterstützung. Abbildung 2-2 zeigt den groben Aufbau des SQL Server 2005 mit seinen unterschiedlichen Komponenten. 3 (Microsoft Corporation) 4 (IBM Corporation ) 5 (SAP Deutschland AG & Co. KG) 6 (Oracle Corporation)

16 6 2.3 SQL Server 2005 Für eine Implementierung eines BI-Gesamtansatzes bei WESTFA wird der Schwerpunkt auf den Kernkomponenten Datenbankmodul, Analysis Services, Reporting Services und Integration Services liegen, die in den folgenden Kapiteln kurz erläutert werden. Der SQL Server 2005 bringt eine eigene Entwicklungsumgebung, das Business Intelligence Development Studio mit sich, mit welcher Lösungen auf Basis der Analysis Services, Integration Services und Reporting Services entwickelt werden können. Das SQL Server Management Studio bietet Möglichkeiten zur Verwaltung des Datenbankmoduls und dem Zugriff auf die mit den Hauptkomponenten erstellten Lösungen. Abbildung 2-2: Beziehungen zwischen den Komponenten des SQL Server Integration Services Die SQL Server 2005 Integration Services (SSIS) bieten eine Plattform zum Erstellen leistungsfähiger Datenintegrations- und Workflowlösungen, einschließlich ETL- Vorgängen (Extrahieren, Transformieren und Laden) für das Data Warehousing. 8 Für die Extraktion von Daten aus unterschiedlichen und verteilten Datenquellen steht genau so wie für das Verarbeiten von unterschiedlichen Datenflüssen und das anschließende Speichern in verschiedenen Datenzielen eine Vielzahl von Tasks zur Verfügung. Die Modellierung solcher Prozesse erfolgt mit Hilfe einer grafischen Oberfläche, ohne dass Kenntnisse einer Programmiersprache erforderlich sind. Modellierte Prozesse können in einem oder in mehreren Paketen gespeichert und einzeln oder in definierter Reihenfolge einmalig oder wiederholt ausgeführt werden. 7 (Corporation, 2008 S. SQL Server (Übersicht)) 8 (Corporation, 2008 S. SQL Server Integration Services (Übersicht))

17 2 Werkzeugauswahl 7 Die SSIS sind außerdem auf die speziellen Anforderungen von BI-Lösungen ausgerichtet. Sie bieten spezielle Tasks, die auf die Verarbeitung von großen Datenmengen und spezielle Anforderungen beim Befüllen eines Data Warehouse ausgelegt sind Datenbankmodul Microsoft SQL Server 2005-Datenbankmodul ist ein Dienst zum Speichern und Verarbeiten von Daten, die entweder in einem relationalen (tabellarischen) Format oder als XML-Dokumente vorliegen. 9 Innerhalb des Datenbankmoduls angelegte, in Datenbanken gespeicherte Tabellen oder Views lassen sich durch die Integration Services mit Daten aus unterschiedlichsten Quellen füllen. Zusätzlich verfügt das Datenbankmodul über ein eigenes Berechtigungskonzept, das sich in bereits bestehende Windows-Systemlandschaften integriert und bereits definierte Benutzerrichtlinien übernehmen kann Analysis Services Microsoft SQL Server 2005 Analysis Services (SSAS) stellt Online Analytical Processing (OLAP, Analytische Onlineverarbeitung) und Data Mining-Funktionalität mithilfe einer Kombination aus Server- und Clienttechnologien bereit. 10 Durch die Clienttechnologie der SSAS lassen sich Daten aus einer relationalen Datenquelle, meist einem Data Warehouse, in einer multidimensionalen Datenstruktur organisieren und in Form von Cubes mit Hilfe der Servertechnologie für OLTP-Anfragen von Client-Anwendungen wie MS Excel oder verschiedenen Frontend-Werkzeugen bereitstellen. Die Entwicklung von Data-Mining Modellen auf Basis von multidimensionalen wie auch von relationalen Daten und deren Bereitstellung wird ebenfalls durch die SSAS ermöglicht. 9 (Corporation, 2008 S. SQL Server-Datenbankmodul) 10 (Corporation, 2008 S. SQL Server Analysis Services)

18 8 2.3 SQL Server Reporting Services Die SQL Server Reporting Services (SSRS) bilden eine serverbasierte Berichtsplattform zur Erstellung und Verwaltung von Berichten in tabellarischer, grafischer und freier Form [ ] 11. Grundlage für die erstellten Berichte können Daten aus multidimensionalen aber auch relationalen Datenquellen sein. Die Bereitstellung der Berichte erfolgt über Web-Frontend, welches neben dem einfachen Aufruf auch die Verwaltung von Berichten, Datenquellen und Zugriffsberechtigungen ermöglicht. 11 (Schrödl, 2006 S. 43)

19 3 Data Preparation 9 3 Data Preparation Data Preparation, die dritte Phase des CRISP-Prozesses, beschreibt die Aktivitäten, die erforderlich sind, um aus vorhandenen operativen Daten dispositive Daten zu erzeugen. Die in dieser Phase erstellte Datenbasis bildet nach dem CRISP-Prozess die Grundlage für die Entwicklung von Data Mining Modellen. Auch wenn bei WESTFA nicht die Entwicklung von Data-Mining-Modellen, sondern die eines auf OLAP basierenden Analysesystems im Vordergrund steht, sind die einzelnen Aktivitäten dieser Phase sehr ähnlich. Die im CRISP-Prozess vorgesehenen Aktivitäten Select Data, Clean Data, Construct Data, Integrate Data und Format Data entsprechen den Aktivitäten eines ETL-Prozesses. Lediglich die abschließende Aktivität des Ladens der transformierten Daten in eine Zieldatenbank, in der Regel ein Data Warehouse, wird durch den CRISP-Prozess nicht beschrieben. Eine Gegenüberstellung der Aktivitäten eines ETL-Prozesses und denen der Data Preparation Phase zeigt Abbildung 3-1. Abbildung 3-1: Aktivitäten eines ETL-Prozesses und der Phase Data Preparation 3.1 Unterschiedliche Strategien Das Ziel der Data Preparation Phase ist es, aus einem Datenbestand Daten zu extrahieren und diese für die Analyse in dispositiver Form bereitzustellen. Dieses Ziel lässt sich auf unterschiedliche Arten erreichen, welche im Folgenden kurz erläutert werden.

20 Unterschiedliche Strategien Die einfachste Möglichkeit lässt sich mit speziellen Frontendwerkzeugen realisieren. Neben dem Erstellen von Auswertungen erlauben es diese Werkzeuge, heterogene Datenbanksysteme als Datenlieferanten für die zu erstellende Auswertung zu nutzen. Dieses hat den Vorteil, dass Berichtssysteme direkt auf den operativen Datenbestand zugreifen und keine separate Datenhaltungsschicht benötigt wird. Vergleichbar ist dieser Aufbau mit einer aus der Softwaretechnik bekannten, zweischichtigen Client-Server-Architektur. Der Nachteil dieser Architektur besteht jedoch darin, dass aufwendige Analysen direkt auf dem operativen Datenbestand ausgeführt werden. Dadurch kann es zu negativen Auswirkungen zum Beispiel durch gesperrte Datensätze oder zu zeitlichen Verzögerungen in den operativen Systemen kommen. Diese negativen Auswirkungen lassen sich durch eine separate Datenhaltungsschicht beseitigen. Diese bildet eine vollständige Kopie der Daten aus den operativen Systemen und stellt diese dem Frontendwerkzeug für die Analyse zur Verfügung. Dadurch sind die operativen Systeme auch bei aufwendigen Auswertungen nicht negativ betroffen. Eine Erweiterung dieser Architektur besteht darin, zwischen dem Frontend und den operativen Systemen nicht nur ein vollständiges Abbild der operativen Systeme zu erstellen, sondern stattdessen ein Data Warehouse zu pflegen. Dieses wird regelmäßig mit neuen operativen Daten versorgt und bildet diese durch implementierte Logiken in dispositiver Form ab. Dieser Aufbau ist vergleichbar mit der Drei-Schichten-Architektur, ebenfalls bekannt aus der Softwaretechnik. Bei der Überführung der operativen Daten in das Data Warehouse übernimmt der ETL-Prozess die Verarbeitungslogik. Frontendwerkzeuge mit einem Data Warehouse als Datenbasis müssen daher lediglich Funktionalitäten zur optischen Aufbereitung der darzustellenden Informationen bieten. Abhängig von der Größe eines Data Warehouse und der angestrebten Komplexität von Analysemöglichkeiten werden für die Analyse separate Cubes erstellt. Sie bilden eine weitere Datenschicht zwischen dem Data Warehouse und dem Frontend, welche durch vorberechnete und aggregierte Werte in einer multidimensionalen Datenstruktur speziell auf die Anforderungen der Analyse ausgerichtet sind. Die Realisierung der Data Preparation Phase erfolgt bei WESTFA nach oben beschriebenem Vorgehen des BI-Gesamtansatzes, sodass der vollständige ETL- Prozess zum Befüllen eines ebenfalls in dieser Phase zu entwickelnden Data Warehouse gegeben ist. In den folgenden Kapiteln werden die einzelnen Aktivitäten zur Implementierung eines ETL-Prozesses bei WESTFA, auftretende Probleme und Schwierigkeiten und deren Lösung beschrieben. Dabei erfolgt die Bearbeitung der Aktivitäten der Data

21 3 Data Preparation 11 Preparation Phase eingebettet in die drei Teilbereiche Extraktion, Transformation und Laden des ETL-Prozesses. 3.2 Extraktion von ausgewählten Daten In der vorhergehenden CRISP-Prozessphase des Business Understanding 12 wurden die drei bei WESTFA eingesetzten operativen Systeme (megawws, V_Olga und PivotalCRM) 13, genauer deren Datenbasen, betrachtet und bereits Tabellen mit relevanten Inhalten identifiziert. Als relevante Inhalte wurden dabei Daten verstanden, die für die Entwicklung eines grundlegenden Analysesystems bei WESTFA nötig sind. Als einer der Hauptgründe, warum Analysen bei WESTFA bisher häufig nur auf Geschäftsbereichsebene oder nur mit viel Zeit- und Arbeitsaufwand unternehmensweit angestellt werden konnten, wurde in der vorhergehenden Projektarbeit der Einsatz von drei unterschiedlichen operativen Systemen mit dem daraus resultierenden getrennten und verteilten operativen Datenbestand ermittelt Persistent Staging Area Aufgrund der heterogenen und verteilten Systemlandschaft bei WESTFA wurde auf dem MS SQL Server ein Speicherbereich geschaffen, der als Persistent Staging Area (PSA) genutzt wird. Dieser dient zur [ ] Zwischenspeicherung der Daten aus den Vorsystemen vor deren Weiterverarbeitung. Ohne Modifikationen hinsichtlich Format oder Inhalt werden die gelieferten Informationsobjekte in relationalen Tabellen deponiert [ ] 14 Für die Abbildung der PSA wurden innerhalb der Datenbank die drei Schemata olga, wws und kol erstellt. Sie stehen jeweils für die operativen Systeme bei WESTFA und sollen helfen, innerhalb der PSA die Tabellen dem jeweiligen Quellsystem zuzuordnen. Die PSA dient als Datenquelle für die weiteren Transformationen innerhalb des ETL-Prozesses, wobei die operativen Systeme nicht weiter durch diese belastet werden. Die Extraktion der Daten aus den operativen Systemen, das automatisierte Füllen der entsprechenden Tabellen sowie deren einmaliges Erstellen in der PSA wurde mit Hilfe der SQL Server Integration Services realisiert. Als Entwicklungswerkzeug diente dafür das SQL Server Business Intelligence Development Studio (kurz BI-Studio), das nach der Installation des MS SQL Servers zur Verfügung stand. 12 (Claßen, 2008) 13 (Claßen, 2008 S. 38 f.) 14 (Chamoni, et al., 2005 S. 49)

22 Extraktion von ausgewählten Daten Zunächst wurde ein neues Integration Services-Projekt erstellt, in welchem dann beliebig viele SSIS-Pakete erstellt werden können. Jedes SSIS-Paket besteht aus einer Ablaufsteuerung. Die Verarbeitung von Daten erfolgt auf der Ebene der Ablaufsteuerung durch die Verwendung eines Datenflusstask. Dieser bietet auf der Ebene Datenfluss weitere Tasks wie Datenflussquellen, Datenflusstransformationen und Datenflussziele. Die einfachste Möglichkeit, Daten zu extrahieren und anschließend in die Zieldatenbank zu laden, lässt sich über die Verwendung eines Ole DB Quelle und eines Ole DB Ziel Task realisieren. In so genannten Verbindungsmanagern lassen sich die Verbindungsdaten zu einer Datenbank speichern und anschließend in Quelloder Ziel-Tasks verwenden. Nach der Auswahl eines Verbindungsmanagers in dem Quell-Task lassen sich die zu ladende Tabelle und deren Attribute einzeln auswählen oder sie können über eine manuell einzugebende SELECT-Anweisung bestimmt werden. Nach dem Verbinden eines Quell-Tasks mit einem Ziel-Task kann in diesem nach Auswahl eines Verbindungsmanagers für die Zieldatenbank eine bestehende Tabelle als Ziel ausgewählt werden oder basierend auf den durch den Quell-Task übergebenen Meta-Daten eine neue Tabelle in der Datenbank angelegt werden. Wird dieses SSIS-Paket ausgeführt, werden alle Datensätze mit den ausgewählten Attributen aus der Quelle extrahiert und unverändert in das angegebene Ziel geladen. Für den Prozess der Extraktion der Daten aus den operativen Systemen und dem Befüllen der PSA wurde bei WESTFA zunächst in dem SQL Server Business Intelligence Development Studio ein neues Integration Services-Projekt mit dem Namen ExtractLoad StagingArea erstellt. In diesem Projekt wurden dann die drei SSIS-Pakete ExtractLoad megawws, ExtractLoad Kolumbus, und ExtractLoad V_Olga erzeugt. In diesen Paketen wurden die jeweiligen Ablaufsteuerungen zur Extraktion des operativen Datenbestandes für das jeweilige operative System realisiert. Zur Wahrung der Übersichtlichkeit innerhalb der SSIS-Pakete wurden auf der Ebene der Ablaufsteuerung mehrere Datenflusstasks erstellt, in denen nach Informationsobjekten getrennt die einzelnen Datenflüsse mit Quelle und Ziel definiert wurden. Während der Ausführung eines Paketes werden die einzelnen Datenflusstasks sequentiell ausgeführt. Im Folgenden werden die Besonderheiten der Extraktion von Daten aus den einzelnen Systemen bei WESTFA beschrieben.

23 3 Data Preparation Extraktion aus PivotalCRM Die Extraktion der Daten aus dem PivotalCRM System, im folgenden Kolumbus genannt, hat sich am einfachsten gestaltet, da die Datenbasis von Kolumbus durch einen MS SQL Server 2005 gebildet wird und dadurch die größtmögliche Kompatibilität gegeben ist. In diesem Fall kann die bereits weiter oben beschriebene, einfachste Möglichkeit mit der ausschließlichen Verwendung von Quell- und Ziel-Tasks verwendet werden (siehe Abbildung 3-2). Den Datenfluss zeigt Abbildung 3-2 beispielhaft für das Extrahieren und Laden von Daten aus der Kundentabelle Company von Kolumbus. Dieses ist vor allem dadurch möglich, da der Quell-Task die Datentypen der Attribute von Tabellen richtig aus der SQL-Server-Quelle lesen kann und somit keine weitere Verarbeitung nötig ist. Die extrahierten Daten können direkt in die Zieltabelle geschrieben werden. Abbildung 3-2: Datenfluss zur Extraktion von Daten aus Kolumbus

24 Extraktion von ausgewählten Daten Extraktion aus megawws Mit der aus dem Data Understanding gewonnenen Information, dass megawws trotz der Verwendung einer Informix Datenbank über eine ODBC Schnittstelle erreichbar ist, gestaltet sich das reine Extrahieren der Daten aus megawws ähnlich zu dem bereits bekannten Vorgehen von Kolumbus. Lediglich die Parameter bei der Definition des entsprechenden Verbindungsmanagers für die Informix-Datenbank unterscheiden sich (siehe Abbildung 3-3). Abbildung 3-3: Verbindungsmanager zur Informix-Datenbank von megawws Die Definition des Ziel-Tasks kann wiederum analog zu der bereits beschriebenen Vorgehensweise erfolgen. Aufgrund der Informix-Datenbank als Quelle können die Datentypen der Tabellen zwar durch den Quell-Task erkannt werden, jedoch werden die Inhalte nicht richtig ausgelesen. Bei allen Tabellenattributen mit dem Datentyp CHARACTER werden die Inhalte bis auf die maximale Attributgröße mit Leerzeichen aufgefüllt. Dieses erfordert vor dem Laden in die Zieltabelle eine Bearbeitung der betroffenen Attribute durch einen separaten Task (Abbildung 3-4, Seite 15), in der die vorhandenen Leerzeichen ausschließlich am Ende des ursprünglichen Attributwertes entfernt werden (Abbildung 3-5, Seite 15). Das wurde durch den Task Abgeleitete Spalte und der Funktion rtrim() erreicht, die nachfolgende Leerzeichen eines Textes entfernt.

25 3 Data Preparation 15 Abbildung 3-4: Datenfluss zur Extraktion von Daten aus megawws Abbildung 3-5: Entfernen von Leerzeichen in einem separaten Task des Datenflusses Extraktion aus V_Olga Bereits aus der dieser Arbeit vorausgegangenen Analyse potentieller Datenquellen bei WESTFA ist bekannt, dass der direkte Datenbankzugriff auf die V_Olga technisch nicht möglich ist. Alternativ wurden bereits während der Analyse die nachts erstellten Sicherungsdateien der V_Olga als alternative Datenquellen identifiziert 15. Für die Extraktion der Daten bedeutet dieses, dass zunächst ein genaues Abbild von den Tabellen der V_Olga in der PSA erstellt werden muss, da in den Sicherungsdateien lediglich der Tabelleninhalt gespeichert wird und keine Informationen über die Struktur der Tabelle. Um ein genaues Abbild der Tabellenstrukturen erstellen zu können,wird eine weitere Sicherungsdatei der V_Olga herangezogen. In dieser Datei werden die SQL-Anweisungen zum Erstellen jeder einzelnen Tabelle abgelegt. 15 Siehe (Claßen, 2008 S. 54)

OLAP und der MS SQL Server

OLAP und der MS SQL Server OLAP und der MS SQL Server OLAP und der MS SQL Server OLAP-Systeme werden wie umfangreiche Berichtssysteme heute nicht mehr von Grund auf neu entwickelt. Stattdessen konzentriert man sich auf die individuellen

Mehr

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Architektur und Konzepte Josef Kolbitsch Manuela Reinisch Übersicht Mehrstufiges BI-System Architektur eines Data Warehouses Architektur eines Reporting-Systems Benutzerrollen in

Mehr

Integration Services - Dienstarchitektur

Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Dieser Artikel solle dabei unterstützen, Integration Services in Microsoft SQL Server be sser zu verstehen und damit die

Mehr

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft

Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Business Intelligence und Geovisualisierung in der Gesundheitswirtschaft Prof. Dr. Anett Mehler-Bicher Fachhochschule Mainz, Fachbereich Wirtschaft Prof. Dr. Klaus Böhm health&media GmbH 2011 health&media

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Wertvolle Einblicke in die Gamer-Welt bei ProSiebenSat.1 Games

Wertvolle Einblicke in die Gamer-Welt bei ProSiebenSat.1 Games 10. April, 11:45 12:05 Uhr Wertvolle Einblicke in die Gamer-Welt bei ProSiebenSat.1 Games HMS Analytical-Software GmbH, Rohrbacher Straße 26, 69115 Heidelberg Wertvolle Einblicke in die Gamer-Welt bei

Mehr

Cubeware Connectivity for SAP Solutions

Cubeware Connectivity for SAP Solutions Cubeware Connectivity for SAP Solutions Beispiele und Anwendungsfälle 1. Modellierung, Extraction, Transformation und Loading mit Datenquelle SAP R/3 und mysap ERP Mit Hilfe des Cubeware Importers und

Mehr

10. Vorlesung: Datenorganisation SS 2007

10. Vorlesung: Datenorganisation SS 2007 10. Vorlesung: Datenorganisation SS 2007 8 Parallele Transaktionen 9 9.1 Drei-Ebenen Ebenen-Architektur 9.2 Verteilte Datenbanken 9.3 Client-Server Server-Datenbanken 9.4 Föderierte Datenbanken 9.5 Das

Mehr

Contents. Ebenen. Data Warehouse - ETL Prozess Version: July 10, 2007. 1 Ebenen. Andreas Geyer-Schulz und Anke Thede. 2 Problemquelle Quellsysteme 4

Contents. Ebenen. Data Warehouse - ETL Prozess Version: July 10, 2007. 1 Ebenen. Andreas Geyer-Schulz und Anke Thede. 2 Problemquelle Quellsysteme 4 Contents Data Warehouse - ETL Prozess Version: July 10, 2007 Andreas Geyer-Schulz und Anke Thede Schroff-Stiftungslehrstuhl Informationsdienste und Elektronische Märkte Fakultät für Wirtschaftswissenschaften

Mehr

Einführungsveranstaltung: Data Warehouse

Einführungsveranstaltung: Data Warehouse Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring

Mehr

1Ralph Schock RM NEO REPORTING

1Ralph Schock RM NEO REPORTING 1Ralph Schock RM NEO REPORTING Bereit für den Erfolg Business Intelligence Lösungen Bessere Entscheidungen Wir wollen alle Mitarbeiter in die Lage versetzen, bessere Entscheidungen schneller zu treffen

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Einführung in OLAP und Business Analysis. Gunther Popp dc soft GmbH

Einführung in OLAP und Business Analysis. Gunther Popp dc soft GmbH Einführung in OLAP und Business Analysis Gunther Popp dc soft GmbH Überblick Wozu Business Analysis mit OLAP? OLAP Grundlagen Endlich... Technischer Background Microsoft SQL 7 & OLAP Services Folie 2 -

Mehr

Studierenden-Kennzahlen im Griff dank flexiblem Reporting und Ad-hoc-Analysen

Studierenden-Kennzahlen im Griff dank flexiblem Reporting und Ad-hoc-Analysen Praxistag für die öffentliche Verwaltung 2012 Titel Präsentation Studierenden-Kennzahlen im Griff dank flexiblem Reporting und Ad-hoc-Analysen Referenten-Info Gerhard Tschantré, Leiter Controllerdienste

Mehr

Data Warehouse Grundlagen

Data Warehouse Grundlagen Seminarunterlage Version: 2.10 Version 2.10 vom 24. Juli 2015 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen sind Warenzeichen

Mehr

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator Agenda Was ist Business Intelligence? Was ist OLAP? Unterschied zwischen OLAP und OLTP? Bestandteile

Mehr

Information-Design-Tool

Information-Design-Tool Zusatzkapitel Information-Design-Tool zum Buch»HR-Reporting mit SAP «von Richard Haßmann, Anja Marxsen, Sven-Olaf Möller, Victor Gabriel Saiz Castillo Galileo Press, Bonn 2013 ISBN 978-3-8362-1986-0 Bonn

Mehr

Verschiedene Arten des Datenbankeinsatzes

Verschiedene Arten des Datenbankeinsatzes 1 Beispiele kommerzieller DBMS: Kapitelinhalt Was charakterisiert und unterscheidet verschiedene Einsatzbereiche für. Welche prinzipiell unterschiedlichen Anforderungen ergeben sich für das DBMS bei Ein-

Mehr

IT-basierte Kennzahlenanalyse im Versicherungswesen

IT-basierte Kennzahlenanalyse im Versicherungswesen Angelina Jung IT-basierte Kennzahlenanalyse im Versicherungswesen Kennzahlenreporting mit Hilfe des SAP Business Information Warehouse Diplomica Verlag Angelina Jung IT-basierte Kennzahlenanalyse im Versicherungswesen:

Mehr

Integration Services Übersicht

Integration Services Übersicht Integration Services Übersicht Integration Services Übersicht Integration Services stellt umfangreiche integrierte Tasks, Container, Transformationen und Datenadapter für die En t- wicklung von Geschäftsanwendungen

Mehr

Modellbasierte Business Intelligence in der Praxis. Nürnberg, 10.11.2009

Modellbasierte Business Intelligence in der Praxis. Nürnberg, 10.11.2009 Modellbasierte Business Intelligence in der Praxis Nürnberg, 10.11.2009 I N H A L T 1. Warum Modelle für Business Intelligence (BI)? 2. Inhalte von Datenmodellen für BI 3. Inhalte von Prozessmodellen 4.

Mehr

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses

Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Vergleich von Open-Source und kommerziellen Programmen zur Durchführung eines ETL-Prozesses Exposé zur Diplomarbeit Humboldt-Universität zu Berlin Mathematisch-Naturwissenschaftliche Fakultät II Institut

Mehr

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII

Vorwort zur zweiten Auflage...V. Vorwort zur ersten Auflage... VIII Vorwort zur zweiten Auflage...V Vorwort zur ersten Auflage... VIII 1 Management Support Systeme und Business Intelligence Anwendungssysteme zur Unterstützung von Managementaufgaben...1 1.1 Computergestützte

Mehr

SQL Server 2012 und SharePoint im Unternehmenseinsatz. Referent Daniel Caesar

SQL Server 2012 und SharePoint im Unternehmenseinsatz. Referent Daniel Caesar SQL Server 2012 und SharePoint im Unternehmenseinsatz Referent Daniel Caesar sqlxpert Daniel Caesar Publikationen Themen SQL Server Admin, Entwicklung SharePoint Admin, Entwicklung.NET Entwicklung Rechtssichere

Mehr

VisualCockpit. agile business analytics

VisualCockpit. agile business analytics VisualCockpit agile business analytics Agile Business Analytics mit VisualCockpit Für Unternehmen wird es immer wichtiger die gesamte Wertschöpfungskette aus Daten, sowohl für das operative Geschäft als

Mehr

Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann

Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann Data Lineage goes Traceability - oder was Requirements Engineering von Business Intelligence lernen kann Andreas Ditze MID GmbH Kressengartenstraße 10 90402 Nürnberg a.ditze@mid.de Abstract: Data Lineage

Mehr

Softwaretool Data Delivery Designer

Softwaretool Data Delivery Designer Softwaretool Data Delivery Designer 1. Einführung 1.1 Ausgangslage In Unternehmen existieren verschiedene und häufig sehr heterogene Informationssysteme die durch unterschiedliche Softwarelösungen verwaltet

Mehr

Oracle-Statistiken im Data Warehouse effizient nutzen

Oracle-Statistiken im Data Warehouse effizient nutzen Oracle-Statistiken im Data Warehouse effizient nutzen Reinhard Mense ARETO Consulting Köln Schlüsselworte: DWH, Data Warehouse, Statistiken, Optimizer, Performance, Laufzeiten Einleitung Für die performante

Mehr

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Datei: Asklepius DA Flyer_Leistung_2 Seite: 1 von:5 1 Umfassende Datenanalyse Mit Asklepius-DA

Mehr

WhitePaper. Mai 2012. BIA Business Intelligence Accelerator. Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com

WhitePaper. Mai 2012. BIA Business Intelligence Accelerator. Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com WhitePaper BIA Business Intelligence Accelerator Mai 2012 Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com BIA Business Intelligence Accelerator GmbH Softwarepark 26 A-4232 Hagenberg Mail:

Mehr

SOLISYON GMBH TOBIAS GRUBER BEN WEISSMAN. Analyse von Dimensions-Schlüsselfehlern bei der Aufbereitung von SSAS Datenbanken

SOLISYON GMBH TOBIAS GRUBER BEN WEISSMAN. Analyse von Dimensions-Schlüsselfehlern bei der Aufbereitung von SSAS Datenbanken WEITER BLICKEN. MEHR ERKENNEN. BESSER ENTSCHEIDEN. Analyse von Dimensions-Schlüsselfehlern bei der Aufbereitung von SSAS Datenbanken SOLISYON GMBH TOBIAS GRUBER BEN WEISSMAN ANALYSE VON OLAP-AUFBEREITUNGSFEHLERN

Mehr

Produktinformation eevolution OLAP

Produktinformation eevolution OLAP Produktinformation eevolution OLAP Was ist OLAP? Der Begriff OLAP steht für Kurz gesagt: eevolution -OLAP ist die Data Warehouse Lösung für eevolution. Auf Basis verschiedener

Mehr

Data Warehouse. für den Microsoft SQL SERVER 2000/2005

Data Warehouse. für den Microsoft SQL SERVER 2000/2005 Warehouse für den Microsoft SQL SERVER 2000/2005 Begriffe 1 DWH ( Warehouse) ist eine fachübergreifende Zusammenfassung von Datentabellen. Mart ist die Gesamtheit aller Datentabellen für einen fachlich

Mehr

Oracle Warehouse Builder 3i

Oracle Warehouse Builder 3i Betrifft Autoren Art der Info Oracle Warehouse Builder 3i Dani Schnider (daniel.schnider@trivadis.com) Thomas Kriemler (thomas.kriemler@trivadis.com) Technische Info Quelle Aus dem Trivadis Technologie

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken

Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Handbuch ECDL 2003 Basic Modul 5: Datenbank Grundlagen von relationalen Datenbanken Dateiname: ecdl5_01_00_documentation_standard.doc Speicherdatum: 14.02.2005 ECDL 2003 Basic Modul 5 Datenbank - Grundlagen

Mehr

Kluge Entscheidung! Business Intelligence für Mittelstand und Fachabteilungen

Kluge Entscheidung! Business Intelligence für Mittelstand und Fachabteilungen Kluge Entscheidung! Business Intelligence für Mittelstand und Fachabteilungen Von Cubeware bekommen Sie alles, was Sie für leistungsstarke BI-Lösungen brauchen. 2 Cubeware steht für Erfahrung, Know-how

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

Business Intelligence

Business Intelligence Business Intelligence Anwendungssysteme (BIAS) Lösung Aufgabe 1 Übung WS 2012/13 Business Intelligence Erläutern Sie den Begriff Business Intelligence. Gehen Sie bei der Definition von Business Intelligence

Mehr

Intelligence (BI): Von der. Nürnberg, 29. November 2011

Intelligence (BI): Von der. Nürnberg, 29. November 2011 Modelle für Business Intelligence (BI): Von der Anforderung zum Würfel Nürnberg, 29. November 2011 Warum Modelle für Business Intelligence (BI)? Warum Modelle für Business Intelligence (BI)? Bis zur Auswertung

Mehr

Data Warehouse Technologien

Data Warehouse Technologien Veit Köppen Gunter Saake Kai-Uwe Sattler Data Warehouse Technologien Inhaltsverzeichnis Inhaltsverzeichnis vii 1 Einführung in Data-Warehouse-Systeme 1 1.1 Anwendungsszenario Getränkemarkt...............

Mehr

Datenmigration. Proseminar. Unternehmensübergreifende IT Transformationen SS 2011. Elvan Öztürk. elvan_16@hotmail.de

Datenmigration. Proseminar. Unternehmensübergreifende IT Transformationen SS 2011. Elvan Öztürk. elvan_16@hotmail.de Datenmigration Proseminar Unternehmensübergreifende IT Transformationen SS 2011 Elvan Öztürk elvan_16@hotmail.de Abstract: In vielen Unternehmen besteht die IT aus einer gewachsenen Struktur heterogener

Mehr

Business Intelligence im Krankenhaus

Business Intelligence im Krankenhaus Business Intelligence im Krankenhaus Dr. Thomas Lux Holger Raphael IT-Trends in der Medizin 03.September 2008 Essen Gliederung Herausforderungen für das Management im Krankenhaus Business Intelligence

Mehr

Performance by Design Wie werden performante ETL-Prozesse erstellt?

Performance by Design Wie werden performante ETL-Prozesse erstellt? Performance by Design Wie werden performante ETL-Prozesse erstellt? Reinhard Mense ARETO Consulting Bergisch Gladbach Schlüsselworte: DWH, Data Warehouse, ETL-Prozesse, Performance, Laufzeiten, Partitionierung,

Mehr

Veit Köppen Gunter Saake Kai-Uwe Sattler. 2. Auflage. Data Warehouse Technologien

Veit Köppen Gunter Saake Kai-Uwe Sattler. 2. Auflage. Data Warehouse Technologien Veit Köppen Gunter Saake Kai-Uwe Sattler 2. Auflage Data Warehouse Technologien Inhaltsverzeichnis Inhaltsverzeichnis ix 1 Einführung in Data-Warehouse-Systeme 1 1.1 Anwendungsszenario Getränkemarkt...

Mehr

Erstellen von Business Intelligence mit Office XP und SQL 2000 Analysis Services

Erstellen von Business Intelligence mit Office XP und SQL 2000 Analysis Services Erstellen von Business Intelligence mit Office XP und SQL 2000 Analysis Services (Engl. Originaltitel: Building Business Intelligence with Office XP and SQL 2000 Analysis Services) In diesem Artikel wird

Mehr

Konzeption eines Master-Data-Management-Systems. Sven Schilling

Konzeption eines Master-Data-Management-Systems. Sven Schilling Konzeption eines Master-Data-Management-Systems Sven Schilling Gliederung Teil I Vorstellung des Unternehmens Thema der Diplomarbeit Teil II Master Data Management Seite 2 Teil I Das Unternehmen Vorstellung

Mehr

Unlimited Controlling

Unlimited Controlling smcolap Unlimited Controlling Heute müssen beliebige Bereiche eines Unternehmens schnell und effizient analysiert werden. Dabei darf es keine Rolle spielen, wo die Daten liegen und in welcher Relation

Mehr

DataManagement. smcdatamanagement - SQL-Tabellen verwalten für jedermann

DataManagement. smcdatamanagement - SQL-Tabellen verwalten für jedermann DataManagement smcdatamanagement ermöglicht Ihnen ohne jegliche SQL- Kenntnisse, Datenbanken und Tabellen zu erstellen und diese im Anschluss zu bearbeiten. Durch den integrierten Verbindungsserver-Manager

Mehr

Kapitel 33. Der xml-datentyp. In diesem Kapitel: Der xml-datentyp 996 Abfragen aus xml-datentypen 1001 XML-Indizierung 1017 Zusammenfassung 1023

Kapitel 33. Der xml-datentyp. In diesem Kapitel: Der xml-datentyp 996 Abfragen aus xml-datentypen 1001 XML-Indizierung 1017 Zusammenfassung 1023 Kapitel 33 Der xml-datentyp In diesem Kapitel: Der xml-datentyp 996 Abfragen aus xml-datentypen 1001 XML-Indizierung 1017 Zusammenfassung 1023 995 996 Kapitel 33: Der xml-datentyp Eine der wichtigsten

Mehr

Business Intelligence für Controller

Business Intelligence für Controller Controllers Best Practice Fachbuch Business Intelligence für Controller Hermann Hebben und Dr. Markus Kottbauer Verlag für ControllingWissen ÄG, Freiburg und Wörthsee Ein Unternehmen der Haufe Mediengruppe

Mehr

Oracle, Datenbank, PowerPoint, Dokumente, PPTX, Automatisierung, Prozess-Automatisierung, smaxt

Oracle, Datenbank, PowerPoint, Dokumente, PPTX, Automatisierung, Prozess-Automatisierung, smaxt Automatische Generierung serialisierter, individualisierter PowerPoint-Präsentationen aus Oracle Datenbanken Andreas Hansel Symax Business Software AG Parkstrasse 22, D-65189 Wiesbaden Schlüsselworte Oracle,

Mehr

ANTARES Informations-Systeme GmbH Stuttgarter Strasse 99 D-73312 Geislingen Tel. +49 73 31 / 30 76-0 Fax +49 73 31 / 30 76-76 www.antares-is.

ANTARES Informations-Systeme GmbH Stuttgarter Strasse 99 D-73312 Geislingen Tel. +49 73 31 / 30 76-0 Fax +49 73 31 / 30 76-76 www.antares-is. ANTARES Informations-Systeme GmbH Stuttgarter Strasse 99 D-73312 Geislingen Tel. +49 73 31 / 30 76-0 Fax +49 73 31 / 30 76-76 www.antares-is.de insight und dynasight sind eingetragene Markenzeichen der

Mehr

Umsetzung der Anforderungen - analytisch

Umsetzung der Anforderungen - analytisch Umsetzung der Anforderungen - analytisch Titel des Lernmoduls: Umsetzung der Anforderungen - analytisch Themengebiet: New Economy Gliederungspunkt im Curriculum: 4.2.5.5 Zum Inhalt: In diesem Modul wird

Mehr

DIMEX Data Import/Export

DIMEX Data Import/Export DIMEX Data Import/Export PROCOS Professional Controlling Systems AG Gewerbeweg 15 FL- 9490 Vaduz PROCOS Professional Controlling Systems AG Inhaltsverzeichnis 1 ALLGEMEIN...3 2 GRUNDLEGENDE FUNKTIONEN...4

Mehr

Kapitel 2 Terminologie und Definition

Kapitel 2 Terminologie und Definition Kapitel 2 Terminologie und Definition In zahlreichen Publikationen und Fachzeitschriften tauchen die Begriffe Data Warehouse, Data Warehousing, Data-Warehouse-System, Metadaten, Dimension, multidimensionale

Mehr

Aufgabe 1: [Logische Modellierung]

Aufgabe 1: [Logische Modellierung] Aufgabe 1: [Logische Modellierung] a) Entwerfen Sie für das von Ihnen entworfene Modell aus Aufgabe 2 des 1. Übungsblattes ein Star-Schema. b) Entwerfen Sie für das vorangegangene Modell einen Teil eines

Mehr

FHTW Berlin Einführungsskript SAP BPS Gruppe 3. Einführungsskript. Stefan Henneicke Uwe Jänsch Andy Renner Daniel Fraede

FHTW Berlin Einführungsskript SAP BPS Gruppe 3. Einführungsskript. Stefan Henneicke Uwe Jänsch Andy Renner Daniel Fraede Einführungsskript Projekt: elearning SAP BPS Auftraggeber: Prof. Dr. Jörg Courant Gruppe 3: Bearbeiter: Diana Krebs Stefan Henneicke Uwe Jänsch Andy Renner Daniel Fraede Daniel Fraede 1 Inhaltsverzeichnis

Mehr

Welche Daten gehören ins Data Warehouse?

Welche Daten gehören ins Data Warehouse? Welche Daten gehören ins Warehouse? Dani Schnider Principal Consultant 9. Januar 2012 In vielen DWH-Projekten stellt sich die Frage, welche Daten im Warehouse gespeichert werden sollen und wie dieser Datenumfang

Mehr

tdwi E U R D P E OPEN SOURCE BUSINESS INTELLIGENCE HANSER MÖGLICHKEITEN, CHANCEN UND RISIKEN QUELLOFFENER BI-LÖSUNGEN

tdwi E U R D P E OPEN SOURCE BUSINESS INTELLIGENCE HANSER MÖGLICHKEITEN, CHANCEN UND RISIKEN QUELLOFFENER BI-LÖSUNGEN OPEN SOURCE BUSINESS INTELLIGENCE MÖGLICHKEITEN, CHANCEN UND RISIKEN QUELLOFFENER BI-LÖSUNGEN uwehaneke Stephan TRAHASCH tobias HAGEN tobias LAUER (Hrsg.)' tdwi E U R D P E HANSER Vorwort 9 Einführung

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

MIS by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001

MIS by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001 MIS Glossar by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001 Aggregat Data Cube Data Marts Data Mining Data Warehouse (DWH) Daten Decision Support Systeme (DSS)

Mehr

ARCO SQL T5 - Business Intelligence

ARCO SQL T5 - Business Intelligence ARCO SQL T5 - Business Intelligence Um die ARCO Business Intelligence Funktionen nutzen zu können, werden diese unter MS Excel eingerichtet. Es handelt sich um strukturierte Auswertungen bezüglich Umsätzen,

Mehr

Anwendertage WDV2012

Anwendertage WDV2012 Anwendertage WDV2012 28.02.-01.03.2013 in Pferdingsleben Thema: Business Intelligence mit Excel 2010 Referent: Dipl. Wirtsch.-Inf. Torsten Kühn PRAXIS-Consultant Alles ist möglich! 1 Torsten Kühn Dipl.

Mehr

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Schwierigkeiten bei der Umsetzung Josef Kolbitsch Manuela Reinisch Übersicht Schwierigkeiten bei der Umsetzung eines BI-Systems Schwierigkeiten der Umsetzung 1/13 Strategische Ziele

Mehr

Online Analytical Processing

Online Analytical Processing Online Analytical Processing Online Analytical Processing Online Analytical Processing (OLAP) ermöglicht die multidimensionale Betrachtung von Daten zwecks E rmittlung eines entscheidungsunterstützenden

Mehr

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML

Data Mining Standards am Beispiel von PMML. Data Mining Standards am Beispiel von PMML Data Mining Standards am Beispiel von PMML Allgemeine Definitionen im Data Mining Data Mining (DM) Ein Prozess, um interessante neue Muster, Korrelationen und Trends in großen Datenbeständen zu entdecken,

Mehr

Zusammenspiel von Business Intelligence mit betrieblicher Anwendungssoftware Falk Neubert, Universität Osnabrück

Zusammenspiel von Business Intelligence mit betrieblicher Anwendungssoftware Falk Neubert, Universität Osnabrück Zusammenspiel von Business Intelligence mit betrieblicher Anwendungssoftware 14. März 2013, IHK Osnabrück-Emsland-Grafschaft Bentheim Geschichte Kassenbuch des Liederkranz, 1886 Hutmachergesangvereins

Mehr

Star-Schema-Modellierung mit ERwin - eine kritische Reflexion der Leistungspotentiale und Anwendungsmöglichkeiten

Star-Schema-Modellierung mit ERwin - eine kritische Reflexion der Leistungspotentiale und Anwendungsmöglichkeiten Star-Schema-Modellierung mit ERwin - eine kritische Reflexion der Leistungspotentiale und Anwendungsmöglichkeiten Michael Hahne T&I GmbH Workshop MSS-2000 Bochum, 24. März 2000 Folie 1 Worum es geht...

Mehr

Open Source BI 2009 Flexibilität und volle Excel-Integration von Palo machen OLAP für Endanwender beherrschbar. 24. September 2009

Open Source BI 2009 Flexibilität und volle Excel-Integration von Palo machen OLAP für Endanwender beherrschbar. 24. September 2009 Open Source BI 2009 Flexibilität und volle Excel-Integration von Palo machen OLAP für Endanwender beherrschbar 24. September 2009 Unternehmensdarstellung Burda Digital Systems ist eine eigenständige und

Mehr

Business Intelligence Data Warehouse. Jan Weinschenker

Business Intelligence Data Warehouse. Jan Weinschenker Business Intelligence Data Warehouse Jan Weinschenker 28.06.2005 Inhaltsverzeichnis Einleitung eines Data Warehouse Data Warehouse im Zusammenfassung Fragen 3 Einleitung Definition: Data Warehouse A data

Mehr

Auswertung der Workload-Befragung mit MS ACCESS

Auswertung der Workload-Befragung mit MS ACCESS Auswertung der Workload-Befragung mit MS ACCESS Inhaltsverzeichnis 1. Aufbereitung der Daten... 2 1.1. Herstellung der Textfiles... 2 1.2. Import der Textdateien... 3 1.3. Verbindungen erstellen... 8 2.

Mehr

IBM SPSS Data Access Pack Installationsanweisung für Windows

IBM SPSS Data Access Pack Installationsanweisung für Windows IBM SPSS Data Access Pack Installationsanweisung für Windows Inhaltsverzeichnis Kapitel 1. Übersicht.......... 1 Einführung............... 1 Bereitstellen einer Datenzugriffstechnologie.... 1 ODBC-Datenquellen...........

Mehr

Master-Thesis (m/w) für unseren Standort Stuttgart

Master-Thesis (m/w) für unseren Standort Stuttgart Master-Thesis (m/w) für unseren Standort Abschlussarbeit im Bereich Business Process Management (BPM) Effizienzsteigerung von Enterprise Architecture Management durch Einsatz von Kennzahlen Braincourt

Mehr

Business Intelligence-Projekte mit SAP BO - Best Practices für den Mittelstand

Business Intelligence-Projekte mit SAP BO - Best Practices für den Mittelstand Business Intelligence-Projekte mit SAP BO - Best Practices für den Mittelstand Name: Michael Welle Funktion/Bereich: Manager Business Intelligence Organisation: Windhoff Software Services Liebe Leserinnen

Mehr

Solution for Business Intelligence. MID Insight 2013

Solution for Business Intelligence. MID Insight 2013 Solution for Business Intelligence MID Insight 2013 A G E N D A 1. Solution für Business Intelligence (BI) 2. Die Gründe und Hintergründe 3. Die Methode 4. Vorteile MID GmbH 2013 2 Solution für Business

Mehr

THEOBALD XTRACT PPS IXTO GMBH. Mathias Slawik, Linda Kallinich

THEOBALD XTRACT PPS IXTO GMBH. Mathias Slawik, Linda Kallinich THEOBALD XTRACT PPS IXTO GMBH Mathias Slawik, Linda Kallinich Projekt BWA: Analytische Anwendungen, WS 2010/2011 Agenda 2/14 Projektaufgabe Technologien / Xtract PPS Projektablauf Dashboard-Prototyp Bewertung

Mehr

Raber+Märcker Business Intelligence Lösungen und Leistungen

Raber+Märcker Business Intelligence Lösungen und Leistungen Business Intelligence Raber+Märcker Business Intelligence Lösungen und Leistungen www.raber-maercker.de 2 LEISTUNGEN Business Intelligence Beratungsleistung Die Raber+Märcker Business Intelligence Beratungsleistung

Mehr

//einfach und mittelstandsgerecht. aruba //Enterprise Query. Datenextraktion und Datenbereitstellung Ad-hoc Analyse Taskplaner.

//einfach und mittelstandsgerecht. aruba //Enterprise Query. Datenextraktion und Datenbereitstellung Ad-hoc Analyse Taskplaner. Enterprise Query //einfach und mittelstandsgerecht aruba //Enterprise Query Datenextraktion und Datenbereitstellung Ad-hoc Analyse Taskplaner aruba //Enterprise Query einfach Daten abfragen und veröffentlichen

Mehr

Datenbanktechnologie für Data-Warehouse-Systeme

Datenbanktechnologie für Data-Warehouse-Systeme Wolfgang Lehner Datenbanktechnologie für Data-Warehouse-Systeme Konzepte und Methoden dpunkt.verlag 1 1.1 1.2 1.3 1.4 1. 5 2 2.1 2.2 2.3 Einleitung 1 Betriebswirtschaftlicher Ursprung des Data Warehousing...

Mehr

Survival Guide für Ihr Business Intelligence-Projekt

Survival Guide für Ihr Business Intelligence-Projekt Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren

Mehr

Business Intelligence

Business Intelligence Hochschule Darmstadt Business Intelligence Fachbereich Informatik Praktikumsaufgabe 3 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 11.06.2007 Business Intelligence Aufgabenstellung 1.

Mehr

ERP-Connector für MHS

ERP-Connector für MHS Whitepaper ERP-Connector für MHS VERSION 2.0 ERSTELLT AM 10.01.2013 Zusammenfassung Der ERP-Connector für MHS ist ein innovatives Werkzeug, dass es IT-Abteilungen und BI- Administratoren auf einfache und

Mehr

Ein subjektiver Vergleich zwischen SSIS und Kettle mit Ausblick auf die Generierung von BI-Lösungen

Ein subjektiver Vergleich zwischen SSIS und Kettle mit Ausblick auf die Generierung von BI-Lösungen Ein subjektiver Vergleich zwischen SSIS und Kettle mit Ausblick auf die Generierung von BI-Lösungen vorgestellt am 29.09.2008 in der PASS Regionalgruppe Karlsruhe Michael Riedmüller inovex GmbH Project

Mehr

ENTERBRAIN Reporting & Business Intelligence

ENTERBRAIN Reporting & Business Intelligence Überblick Vorhandene Listen/Analysen in ENTERBRAIN Die Daten in ENTERBRAIN Das Fundament des BI - Hauses Details zur ENTERBRAIN Staging Area Reports und Cubes auf Basis der Staging Area Data Mining mit

Mehr

aito for Abacus Excellente Dokumentation Juli 11

aito for Abacus Excellente Dokumentation Juli 11 aito for Abacus Excellente Dokumentation Juli 11 2 / 5 aito for Abacus ist eine, auf Microsoft Basis-Technologie aufgebaute, BI-Lösung welche die Vorteile einer Individuallösung mit dem hohem Vorfertigungsgrad

Mehr

Vorwort. Aufbau und Struktur

Vorwort. Aufbau und Struktur Vorwort Herzlich willkommen zu einem Fachbuch aus dem Verlag Comelio Medien. Dieses Buch aus dem Bereich Datenbanken soll Sie dabei unterstützen, die Oracle SQL zu lernen, um DB-Objekte zu erstellen und

Mehr

Business Intelligence Aufgabenstellung

Business Intelligence Aufgabenstellung Hochschule Darmstadt Business Intelligence (BI) Fachbereich Informatik Praktikum 2 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Sebastian Gobst Änderung: 15.06.2012 Datum: 30.05.2012 1. Einführung

Mehr

IT-basierte Kennzahlenanalyse im Versicherungswesen

IT-basierte Kennzahlenanalyse im Versicherungswesen Angelina Jung IT-basierte Kennzahlenanalyse im Versicherungswesen Kennzahlenreporting mit Hilfe des SAP Business Information Warehouse Diplomica Verlag Angelina Jung IT-basierte Kennzahlenanalyse im Versicherungswesen:

Mehr

Logische Modellierung von Data Warehouses

Logische Modellierung von Data Warehouses Logische Modellierung von Data Warehouses Vertiefungsarbeit von Karin Schäuble Gliederung. Einführung. Abgrenzung und Grundlagen. Anforderungen. Logische Modellierung. Methoden.. Star Schema.. Galaxy-Schema..

Mehr

TimeSafe Leistungserfassung

TimeSafe Leistungserfassung Keep your time safe. TimeSafe Leistungserfassung Adressimport 1/8 Inhaltsverzeichnis Inhaltsverzeichnis... 2 1 Allgemeines... 3 1.1 Adressen in der TimeSafe Leistungserfassung... 3 1.2 Organisationen und/oder

Mehr

Klassifikation von Integrationskonflikten

Klassifikation von Integrationskonflikten Klassifikation von Integrationskonflikten Christiane Telöken 1 Inhaltsverzeichnis 1. Was bedeutet Integration? 2. Strukturelle Heterogenitätskonflikte 2.1 Konflikte bei bilateralen Korrespondenzen 2.2

Mehr

Modellbasierte Business Intelligence- Praxiserfahrungen in einem komplexen Data Warehouse Umfeld. München, 26. Januar 2010

Modellbasierte Business Intelligence- Praxiserfahrungen in einem komplexen Data Warehouse Umfeld. München, 26. Januar 2010 Modellbasierte Business Intelligence- Praxiserfahrungen in einem komplexen Data Warehouse Umfeld München, 26. Januar 2010 I N H A L T 1. Warum Modelle für Business Intelligence (BI)? 2. Inhalte von Datenmodellen

Mehr

BI around the world - Globale Reporting Lösungen bei Continental Automotive

BI around the world - Globale Reporting Lösungen bei Continental Automotive BI around the world - Globale Reporting Lösungen bei Continental Automotive Stefan Hess Trivadis GmbH Stuttgart Herbert Muckenfuss Continental Nürnberg Schlüsselworte: Oracle BI EE, Business Intelligence,

Mehr

Vorwort. Zu dieser Reihe. Autoren. Vorwort

Vorwort. Zu dieser Reihe. Autoren. Vorwort Vorwort 11 12 Vorwort Herzlich Willkommen zu einem Fachbuch von Comelio Medien, ein Bereich der Comelio GmbH. Wir hoffen sehr, dass Sie mit der Darstellung und Aufbereitung zu den verschiedenen Themengebieten

Mehr

Data Mining-Projekte

Data Mining-Projekte Data Mining-Projekte Data Mining-Projekte Data Mining stellt normalerweise kein ei nmaliges Projekt dar, welches Erkenntnisse liefert, die dann nur einmal verwendet werden, sondern es soll gewöhnlich ein

Mehr

Inhaltsverzeichnis. Holger Schrödl. Business Intelligence mit Microsoft SQL Server 2008. BI-Projekte erfolgreich umsetzen ISBN: 978-3-446-41210-1

Inhaltsverzeichnis. Holger Schrödl. Business Intelligence mit Microsoft SQL Server 2008. BI-Projekte erfolgreich umsetzen ISBN: 978-3-446-41210-1 sverzeichnis Holger Schrödl Business Intelligence mit Microsoft SQL Server 2008 BI-Projekte erfolgreich umsetzen ISBN: 978-3-446-41210-1 Weitere Informationen oder Bestellungen unter http://www.hanser.de/978-3-446-41210-1

Mehr