Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 1. Vision und Machbarkeit des Logical Data Warehouse

Größe: px
Ab Seite anzeigen:

Download "Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 1. Vision und Machbarkeit des Logical Data Warehouse"

Transkript

1 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 1 Vision und Machbarkeit des Logical Data Warehouse

2 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 2 Die Motivation... 4 Lösungskonzepte... 5 Evolution statt Revolution... 6 Aspekte des Logical Data Warehouse (LDW) Technische Sourcen Zugriffsverfahren Zugriffstechnik Formate Metadaten Security Konsumenten Wie unterstützt das Oracle Data Warehouse das Konzept des LDW Welche technischen Sourcen lassen sich anbinden? Welches Zugriffsverfahren steht zur Verfügung Welche Zugriffstechniken stehen zur Verfügung Formate und Oracle LDW-Metadaten mit Oracle Security im LDW-Konzept mit Oracle Nutzer- (Konsumenten-) Neutralität / Virtualisierung der Nutzermodelle 17 Resümee... 18

3 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 3 Bereits seit einigen Jahren (verstärkt seit 2011) wird das Konzept des Logical Data Warehouse besprochen, und vorgestellt.. Die aktuelle Diskussion rund um Big Data, aber auch die vielen neuen technischen Möglichkeiten, die heute bereitstehen, machen diese Diskussion interessanter denn je. Es sind Lösungskonzepte möglich, deren Problemstellung wir vor Jahren noch gar nicht gesehen haben. Allerdings fasst der Begriff auch schon längst bestehende Technologien unter einem neuen Schlagwort zusammen. Kurz zu dem Stichwort: Logical Data Warehouse (LDW. Ein Logisches Data Warehouse stellt Unternehmensdaten bereit, ohne diese zuvor physikalisch an einen zentralen Ort in dem Data Warehouse zu bewegen. Wie in einem klassischen Data Warehouse werden einheitliche Sichten für Analysezwecke bereitgestellt. Während die Daten des klassischen Data Warehouse aus einer wohldefinierten physikalisch einheitlichen Datenbank stammen, zieht sich das Logische Data Warehouse Daten zum Abfragezeitpunkt aus diversen Quellen zusammen. Die eigentlichen Ablageorte werden virtualisiert. In diesem Artikel wird der Begriff noch etwas weiter gefasst: Die neuen In-Memory Technologien erlauben auch das Virtualisieren von Strukturen innerhalb des Data Warehouse. In jedem Fall bietet das System den Benutzern Daten an, die in der ihm präsentierten Form nicht physikalisch als Tabellen in einer Data Warehouse Datenbank liegen.

4 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 4 Die Motivation Es gibt in einigen Unternehmen eine wachsende Motivation bei den Warehouse- Architekten sich mit diesem Konzept zu beschäftigen: 1. Es werden immer noch nicht alle im Unternehmen existierenden Daten in die Analyseprozesse mit einbezogen. D. h., Opportunities gehen verloren, weil Informationen nicht da sind Eine Ursache liegt darin, dass nicht alle wichtigen Daten-Ressourcen über recht schwerfällige Warehouse-Projekte mit der Entwicklung von aufwendigen ETL-Strecken, in das Warehouse integriert sind. Hohe Entwicklungskosten, fehlendes Personal aber fehlendes Bewusstsein für Synergie-Effekte zentraler Analyseprozesse im Management mögen Gründe sein. 3. Ein weiterer Grund ist sicher der Umstand, dass in immer kürzeren Zeitabständen neue Daten-Ressourcen von den Fachabteilungen angefordert werden. 4. Wir haben das zunehmend deutlicher spürbare Latenzproblem. D. h., die Beschaffungszeiten mittels traditioneller ETL-Batch-Prozesse sind bei einer wachsenden Zahl von Analyseanforderungen zu lang. 5. Manche Datenquellen sind in Struktur und Inhalt derart volatil, sodass man sie kaum noch mit klassischen Warehouse Konzepten (z. B. konventionellem Batch-ETL) einfangen kann. 6. Unternehmen richten heute zunehmend Ihr Augenmerk auch auf nichttraditionelle Unternehmensdaten. Sie kaufen externe Daten zu, sie zapfen öffentlich zur Verfügung stehende Datentöpfe an, sie erschließen zusätzliche Datenquellen, an die vor Jahren noch niemand gedacht hat, z. B. Maschinendaten, Mail-Verkehre, Telefondaten usw. Solche Daten waren zwar immer schon vorhanden. Doch nun beginnt man, angeheizt durch die Big Data Diskussion, die Daten zu kombinieren und versucht aus möglichen Zusammenhängen Nutzen zu ziehen. Bei diesen Datenarten besteht die berechtigte Frage, ob sie überhaupt in ein Data Warehouse geladen werden sollten. 1 Siehe hierzu z. B. Umfrage in US: From Overload to Impact: An Industry Scorecard on Big Data Business Challenges Link

5 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 5 Lösungskonzepte Als technische Lösung stehen und standen sich zwei Lösungsvarianten gegenüber. a) Verteilte Datenhaltung, die durch eine Metadaten-Schicht virtuell zusammengefasst werden. Daten verbleiben in ihren jeweiligen Anwendungen oder werden in zusätzliche (aber verteilte) Datentöpfe abgelegt. Solche sog. Distributed Warehouse Solutions werden von einigen DB-Herstellern, mit mehreren (zugekauften) DB-Systemen angeboten. Solche Konzepte sind jedoch schon bei den ersten Gehversuchen in frühen Projekten (2008 / 2009) an der Komplexität der vielen unterschiedlichen Strukturen gescheitert. 2 b) Erweiterung eines bestehenden zentralen Warehouse-Systems um die Möglichkeit des Zugriffs auf externe Datenquellen bzw. der Möglichkeit der Steuerung externer Prozesse. Das Oracle Data Warehouse fällt eindeutig zur Gruppe unter b). Auch schon vor der Diskussion um das Logische Data Warehouse Konzept, hat Oracle in den letzten Jahrzehnten Kommunikationswege und Schnittstellen in die Unternehmens-IT- Infrastruktur in der Datenbank implementiert. Schon seit mehr als 15 Jahren reden wir bei der Oracle Datenbank, nicht nur über ein nacktes Datenhaltungssystem, sondern von einer Art Datendrehscheibe, die kaum Hürden bei dem Zugriff auf Unternehmensdaten kennt. (In vielen Unternehmen sind diese Techniken auch im Einsatz, ohne dass man den Namen Logisches Data Warehouse verwendet.) 2 Vgl. Gartner Hype Cycle for Business Intelligence and Analytics, 2013 Mark A. Beyer

6 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 6 Evolution statt Revolution Die Variante b) macht eine evolutionäre Weiterentwicklung vieler bestehender Warehouse-System möglich, denn es ist kaum anzunehmen, dass Unternehmen ihre Warehouse-Systeme regelmäßig mal eben so neu konzipieren. Mann wird sie auf kleiner Flamme in Versuchs-Labors Stück für Stück weiter entwickeln und für bestimmte Datenquellen virtuelle Zugriffsmöglichkeiten einbauen. Es gibt noch einen zweiten sehr wichtigen Punkt, der für die Variante b) spricht. Das sind die 4 klassischen Hauptaufgaben eines Data Warehouse: 1. Das sachgebietsübergreifende Integrieren von sachgebietsbezogenen Daten an zentraler Stelle mit der Notwendigkeit zu Harmonienieren. 2. Das Anreichern von Daten mit Erklärungen und zusätzlicher Semantik. 3. Das Historisieren von Daten als Grundlage für Trenderkennung. 4. Das Separieren von Daten aus dem operativen Kontext zum Zweck der Simulation und der Möglichkeit zusätzliche Informationen aus im Data Warehouse neu entstandenen Querbezügen zu anderen Daten zu gewinnen. Diese 4 Punkte sind an anderer Stelle schon oft ausgeführt worden und sollten daher hier nur kurz erwähnt bleiben. Das sind aber oft diejenigen Punkte, die man bei Diskussionen rund um Hype-Themen gerne vergisst. Ein Warehouse, dessen Datenbeschaffungsfunktionen komplett virtualisiert wären, müsste die 4 genannten Aufgabenstellungen auch komplett virtuell lösen. Bei jeder vernünftigen Betrachtung: unmöglich! 3 Das bedeutet: Für die Masse der Warehouse Daten bleibt eine konventionelle Batch-Verarbeitung sinnvoll, nicht aus Performance oder technischen Gründen, sondern weil pragmatischerweise konsolidierende, harmonisierende Tätigkeiten einfacher zu lösen sind. 3 Es ist das gleiche aufgesetzt Vorhaben, das mancher Hersteller von reinen In-Memory- Datenbanken in seinen Marketing-Unterlagen als zukunftsweisend bewirbt, um dann doch wieder in den Projekten auf die klassischen Warehouse-Prizipien mit persistierten Datentabellen zurückzukommen. Dann aber mit einer sehr komplexen Ausgangslage und zusätzlichen Datenhaltungskrücken.

7 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 7 Wir sollten uns also mit einer Lösung beschäftigen, die ein bestehendes Data Warehouse in der oft praktizierten Schichten-Architektur (Stage/Core Warehouse/Marts) als Ausgangspunkt nimmt, und dieses in evolutionärer Weise Stück für Stück um virtuelle Zugriffs- und Bereitstellungstechniken erweitert. Das klassische 3-Schichtenmodell nach Inmon

8 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 8 Aspekte des Logical Data Warehouse (LDW) Der konsequente Aufbau von logischen (virtuellen) Strukturen in einem Data Warehouse umfasst eine Reihe von Aspekten und Komponenten, wie sie in der folgenden Tabelle dargestellt sind. Technische Sourcen nosql Hadoop (HDFS) RDBMS Files Web Zugriffs- Verfahren Batch Direkt Message Zugriffs- Technik APIs MapReduce SQL, Proprietär, Formate Metadaten Security Konsumenten XML Fundorte Objekt- Modellflexibilität JSON Struktur bezogen CSV Inhalte Tool- Beliebige KeyValue, Zugriffsdaten bezogen, BI-Tools ER Quellsystem native bezogen Allgemeine Aspekte in dem Konzept des Logical Data Warehouse 1. Technische Sourcen Die klassischen technischen Datenquellen sind sicherlich Datenbanksysteme (relational, hierarchisch) und Flatfiles. Bereits in den frühen 2000er Jahren sind Web- Sourcen hinzugekommen, also Daten, die remote über Internet-Dienste angeboten wurden. Warehouse-System erfüllten damit ihre althergebrachte Aufgabe des Erfolgs- Monitorings bestehender, bekannter Prozesse. Heute sind auf der Suche nach neuen Opportunities und Wettbewerbsvorteilen bislang unberücksichtigte Daten in den Fokus gerückt (externe Daten, Daten aus sozialen Medien, Maschinendaten, Log-Daten, Wetterdaten, Bewegungsdaten usw.). Aufgrund ihrer Strukturierung aber auch aufgrund der Art der Datenentstehung will man sie oft nicht mehr klassisch speichern und sucht nach neuen Wegen. Die technische Innovation hat Hadoop/HDFS oder auch die nosql-datenbanken für solche Daten bereitgestellt. Das LDW muss mit all diesen technischen Sourcen umgehen können. (Aber Achtung: Wir reden heute nicht deshalb über das Konzept des Logical Data Warehouse, nur weil es die Big Data Diskussion gibt. Auch ohne diese Entwicklung und diese neuen Datenobjekte ist Konzept überlegenswert.) 2. Zugriffsverfahren a) Das ursprüngliche Batch-Verfahren zum monatlichen / wöchentlichen / täglichen / untertägigen Updaten und Bereitstellen von Daten ist in seiner Struktur periodisch. Technisch gesehen ist es gleichgültig, ob man täglich oder stündlich ein Warehouse befüllt. Das, was manchmal Realtime genannt wird, ist nach wie vor ein Batch-Load, auch wenn dieser Batch-Load im 10- Sekunden-Takt erfolgt. Wesentlich für den Begriff Batch ist der Umstand, dass eine gewisse Anzahl von Daten aus einem Quell-System gelesen und in ein Zielsystem geschrieben werden..

9 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 9 b) Anders verhält es sich, wenn zu analysierende Daten aus einem Quellsystem zum Zeitpunkt der Analyse direkt aus dem Vorsystem gelesen werden (Direkt- Leseverfahren). Dieses Verfahren macht keine Aussage über die Aktualität der Quelldaten und hat auch keinen Transaktionsbezug auf das OLTP-System. Wichtig ist allein die Abfrage des Analysten, der zum Zeitpunkt der Abfrage in den operativen Datenbestand hineingreift, ob mit Filter oder ohne. c) Die 3. Variante ist das aktive Befüllen des Warehouse über einen permanenten Kommunikationsprozess zwischen Warehouse und operativen Systemen, indem Nachrichten (Messages) hin- und her fließen, entweder im Push oder im Pull-Verfahren. Alle drei Verfahren sollten in dem LDW machbar sein. Es wäre ein Trugschluss, das klassische DWH als Batch-orientiert und das LDW mit dem Direkt-Leseverfahren zu assoziieren. Ein virtualisierter Zugriff auf ein operatives System ist technisch auch als spontan gestarteter Batch-Aufruf oder als Message-Abruf über einen SOA-Bus denkbar. Entscheidend ist der Punkt, dass die Warehouse-Datenbasis im Bedarfsfall spontan erweitert werden kann. 3. Zugriffstechnik Unterschiedliche technische Sourcen erfordern spezifische Zugriffstechniken, die mit den Besonderheiten der jeweiligen Datenhaltung umgehen können. Für RDBMS- Systeme hat sich SQL etabliert. Für ein Hadoop-System wird MapReduce angeboten. Das LDW muss auf die Datenhaltungen zum Zeitpunkt X spontan zugreifen können. Es wird aber zu klären sein, ob das LDW jede spezifische Zugriffstechnik adaptieren muss. Einfacher wäre ein einziger standardisierter Zugriff, bei dem man nur einen Adapter austauschen muss, wenn es sich um eine andere Datenhaltung handelt, aber die Art des Zugriffs gleich bleibt. 4. Formate Die technische Datenablage ist das eine, die Art, wie diese Information abgelegt ist, und beim Lesen interpretiert werden muss (Format) ist das andere. Hier wird noch nicht die Frage nach der Strukturierung von Daten angesprochen (strukturiert, unstrukturiert, multi-strukturiert etc.). In einem HADOOP-HDFS-System können sowohl Fließtexte, XML-Strukturen, CSV-Objekte, JSON-Files liegen. Das Gleiche gilt für das klassische File-System. Das LDW muss formatunabhängig Zugriffe realisieren können. 5. Metadaten Einer der heikelsten Punkte des LDW ist sein Metadatenbereich. Wie soll man auf Daten zugreifen, wenn man nicht einmal weiß, ob diese überhaupt existieren? Das klassische Warehouse bietet hierfür z. B. den Datenbank-Katalog an. Und wenn es nur

10 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 10 ein einfaches SELECT * FROM TAB, (Oracle-Variante) ist, man erhält eine erste Übersicht über die Existenz bestimmter Objekte. 4 Ein LDW muss über eine Metadaten-Komponente verfügen, in der für die nicht in dem Warehouse liegenden Daten neben den Fundorten auch die Struktur und die Semantik (Beschreibung der Inhalte) erfasst sind. Für den Nutzer des Systems muss eine durchgängige Sicht sowohl über die lokalen Warehouse-Daten als auch über die nicht in dem System physisch gespeicherten aber zugreifbaren Daten angeboten werden. 6. Security Man stelle sich ein Logisches Data Warehouse vor, das in Ergänzung zu den bestehenden Warehouse-Daten immer mal wieder zusätzlich in das eine oder andere Quellsystem hineingreift um dort spontan, meist operative Daten, abzugreifen. Die Benutzer dieser Daten werden, wenn sie über ein Data Warehouse zugreifen, meist nicht dieselben sein, wie die Benutzer, die in den Quellsystemen für Datenzugriffe berechtigt sind. Es muss also für das LDW ein zusätzliches Berechtigungsverfahren implementiert werden, das sich an den Richtlinien der Sourcen orientiert. 7. Konsumenten In vielen Betrachtungen des LDW kommt dieser Aspekt nicht vor. Es ist aber nur konsequent, wenn auch die Konsumentenseite, spricht, die Art der Verwendung virtuell, also frei wählbar ist. Dies meint z. B. die Austauschbarkeit von BI-Tools und Analyse-Verfahren, meint aber auch die Flexibilität der Auswertedatenmodelle. Es handelt sich bei dem LDW um die Virtualisierung von Datenzugriffen, also das Lesen von Informationen auf so nicht vorhandene Daten, ob die Daten nun außerhalb des Warehouse-Systems liegen oder innerhalb. Abhängig von dem Informationsbedarf legt man eine passende Virtualisierung auf. Mit virtuellen Sichten schafft man passende Auswertemodelle, ohne die physikalische Datenbasis im Data Warehouse zu verändern. Die potenzielle Austauschbarkeit von Analysewerkzeugen ist dann ein Selbstläufer. Ein LDW sollte nicht für eine bestimmte Verwendung hin entwickelt werden, denn auch die Art der Verwendung kann sich spontan ändern. 5 4 Wenn auch beschränkt: In den meisten bestehenden Warehouse-Systemen fehlen echte Metadaten-Auskünfte. Also z. B. die Information welche Tabellen mit welchen anderen Tabellen gemeinsam sinnvo9ll abfragbar sind, welche Tabellen Fakten enthalten und welche Tabellen Dimensionen mit entsprechenden Hierarchien. 5 Dies gilt auch schon für das klassische Data Warehouse, denn die Informationen eines Warehouse-Systems sind meist langlebiger als ein konkreter Analysebedarf, der über eine spezifische Technologie (Tool) abgedeckt wird.

11 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 11 Wie unterstützt das Oracle Data Warehouse das Konzept des LDW Ein erster wichtiger Punkt in der Philosophie des Oracle Data Warehouse, auch bzgl. des LDW-Konzeptes, ist die Standardisierung mittels SQL. D. h. alle Daten, ob sie im zentralen Data Warehouse oder außerhalb liegen, sollten mittels SQL zugreifbar sein. Das gilt ebenso für die Konsumenten. Diese sollten mittels SQL abfragen können. Das bedeutet, dass im Oracle Data Warehouse eine Transformation der Formate stattfindet. Mit dieser Transformation sind dann auch weitere Anforderungen leicht lösbar, z. B. die Metadaten-Abbildung oder Teile der Security-Anforderung. Die zentrale Rolle von SQL bei der Virtualisierung von Vereinheitlichung von Zugriffen durch das Oracle Warehouse und anschließbare Systeme Der zweite Aspekt ist die Vermeidung von unnötigen Datentransporten. D. h., Daten sollten an Ort und Stelle analysiert werden, wenn dies möglich ist. Das ist nicht möglich, wenn Daten aus unterschiedlichen Quellen über einen Join zusammengeführt werden sollen. Die einzelnen Anforderungen des LDW-Konzeptes werden in der Folge beschrieben. 1. Welche technischen Sourcen lassen sich anbinden? Alle oben genannten technischen Source-Systeme lassen sich anbinden. Daten können an ihren Orten und in ihren Systemen bleiben. Der Zugriff erfolgt in nahezu allen Fällen, von der Position der Oracle Datenbank aus. D. h., es müssen keine Prozesse oder Vorkehrungen in den jeweiligen Quellsystemen erfolgen. (Auf die technische Umsetzung wird weiter unten eingegangen).

12 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 12 Oracle Warehouse und anschließbare Systeme 2. Welches Zugriffsverfahren steht zur Verfügung Alle besprochen Verfahren sind möglich. Alles, was direkt zugegriffen werden kann, ist auch im Batch möglich und umgekehrt. Ist eine Fremd-Datenbank z. B. über einen Select-ODBC-Zugriff erreichbar, so gelingt dies natürlich auch im Batch-Verfahren, weil man in einem Batch-Job genauso mit Kommandos agieren kann, als wäre man online. 6 Darüber hinaus erlaubt die Datenbank Optimierungen, um große Datenmengen zu bewegen, wenn dies nötig ist. Durch das Verwenden von passenden Adaptern oder auch durch Webservice-Zugriffe kann man zu jedem Zeitpunkt und beliebig häufig auf Remote-Daten aus der Datenbank heraus zugreifen. Auch umgekehrt lässt sich die Datenbank remote ansteuern, um diese als Senke für Nachrichten zu nutzen. Das Oracle Data Warehouse mit der Datenbank ist also an sich Batch-, Online- und Realtime-fähig. 3. Welche Zugriffstechniken stehen zur Verfügung Hier muss man zwischen den unterschiedlichen technischen Sourcen unterscheiden. a) Für Flat Files gibt seit den frühen 2000er Jahren External Tables. Die Textdaten, welcher Art auch immer (beliebige Formate und Zeichensätze), verbleiben außerhalb der Datenbank. Sie können aber mittels SQL aus der Datenbank heraus so behandelt werden, als wären es Datenbanktabellen. 7. Wir werden noch sehen, dass das External Table Konzept auch für andere technische Sourcen verwendet wird. 6 Im Batch-Verfahren wird ebenso eine Datenbank-Session eröffnet, wie in einem Online- Zugriff. Es stehen die gleichen Kommandos zur Verfügung. 7 Mehr Informationen zu External Tables in der Oracle Dokumentation oder auch in diesem Whitepaper

13 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 13 b) Auf Oracle-DBs greift man mit dem altbekannten Database-Link-Mechanismus zu. Auch diese Technik erlaubt Zugriffe mittels SQL. Tabellen in einer Remote- Oracle-Datenbank erscheinen wie lokale Tabellen im Data Warehouse. 8 c) Für Nicht-Oracle-DBs gibt es die (bei einigen gar nicht mehr bekannten) Gateways. Anders als die heute oft favorisierten Replikationsmechanismen wie GoldenGate, verbleiben die Daten, wie bei dem LDW-Konzept gefordert, in dem Quellsystem. Es werden nur diejenigen Daten abgegriffen, die nach einem auf dem Quellsystem stattgefundenen Filter- und Selektionsvorgang übrig bleiben. Man muss also nicht erst Daten bewegen, um festzustellen, ob man sie braucht. Der Zugriffsmechanismus über Gateway erfolgt analog zur Database Link Mechanik. Auch für die Gateway-Technik ist SQL das Zugriffsmittel. d) Informationen über das World Wide Web abzurufen ist heute Standard. Ob man direkt aus der Datenbank zugreift oder über eine Middleware-Apparatur mit noch mehr flexiblen Möglichkeiten, muss man separat entscheiden. Aber auch hier ist der Einsatz von SQL möglich. 9 e) Auch auf HDFS-Files (Hadoop) kann man seit Sommer 2014 direkt aus der Datenbank heraus mit SQL zugreifen. Ähnlich wie bei den Storage-Zellen einer Exadata-Maschine, hat man auf jeden Knoten eines Hadoop-Clusters eine Scan-Software gebracht, die die einzelnen Blöcke einer Hadoop-Datei parallel lesen und analysieren kann. Auch hier spielen External Tables in der Oracle Datenbank eine zentrale Rolle. Sie verfügen über einen Oracle_HADOOP- und alternativ einen ORACLE_HIVE-Adapter, der mit den Scan-Prozessen auf den Hadoop-Clustern kommuniziert. Die Strukturbeschreibung zum Erstellen der External Tables bezieht während der Definition der External Table aus dem Hive-Metastore über einen automatisierten Extrakt-Porzess 10. f) Analoges gilt für die nosql-datenbank von Oracle. Für weitere nosql- Datenbanken anderer Hersteller sind ebenfalls External-Table Adapter geplant. g) Mit der R-Schnittstelle ORE (Oracle R Enterprise) gibt es Möglichkeiten, die bislang recht unbekannt sind. Zum einen verfügt die Open Source-Sprache R Zugriffspakte auf nahezu alle Datenarten (auch Hadoop). Zum anderen können gelesene Daten, die R als sog. R-Objekt im Hauptspeicher hält sofort und 1:1 in Datenbanktabellen oder Views umgewandelt werden. Solche R- Zugriffe auf Daten sind als Script verpackt auch über SQL direkt aus der Datenbank heraus aufrufbar. Man kann also von einem Direkt-Zugriff auf Daten sprechen. Ein Batch Lauf ist nicht nötig. 8 Siehe Oracle Doku: https://docs.oracle.com/database/121/sqlrf/statements_5006.htm#sqlrf https://docs.oracle.com/middleware/1212/owsm/ 10 Siehe

14 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 14 h) ODI (Oracle Data Integrator und Golden Gate sollten hier nur kurz erwähnt werden. Sie liefern zwar zu allen denkbaren technischen Source-Systemen passende Schnittstellen. Der Einsatz läuft aber in der Regel entweder auf eine Batch-Verarbeitung oder permanentes Replizieren hinaus. Das sind sicherlich machbare Verfahren, zumal man Batch-Laufzeiten auch auf weniger Sekunden reduzieren kann. Aber das Herbeischaffen von Daten mittels spontanem SQL- Aufruf, während die Quelldaten in dem Source-System verbleiben, ist ein anderes Konzept. Zugriffstechniken des Oracle Data Warehouse auf remote liegende Datenobjekte 4. Formate und Oracle Remote liegende Datenbestände können, wie oben beschrieben, in unterschiedlichen Formaten vorliegen. Aufgrund der in dem Abschnitt zuvor beschriebenen Zugriffstechniken muss man sich um diese Formate nicht kümmern, da die Formatumwandlung (XML -> relationale Struktur, JSON -> relationale Struktur, CSV -> relationale Struktur, KeyValue -> relationale Struktur) bereits in den jeweiligen Adaptern erfolgt. Es gibt jedoch eine Variante, bei der man sich um Formate Gedanken machen muss, und zwar in dem Fall, in dem man remote liegende Daten temporär in eine Art operational Datastore innerhalb des Data Warehouse kopiert. In diesem Fall repliziert man operative Daten in das Warehouse, um Analysezugriffe zu vereinfachen. a) CSV-Objekte liest man über External Tables direkt in relationale Tabellen. b) Ebenso KeyValue Store Objekte mit dem Loader for Hadoop.. Auch hier finden wieder External Tables Verwendung und das Ergebnis sind relationale Tabellen.

15 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 15 c) XML-Objekte werden in XML-Tabellen innerhalb der Datenbank geladen. Mit den Möglichkeiten der XML-DB greift man auf hier mit SQL relational zu. 11 d) Ähnlich verfährt man mit JSON-Objekten. Auch dieses Format kann man wie XML in die Datenbank legen, und es mit SQL abfragen.. Bei allen genannten Verfahren kann man ODI oder Golden Gate als Tools und zur Vereinfachung einsetzen. Der Aufbau eines operational Data Stores als temporärer Hilfsdatenbestand Es sollte noch einmal erwähnt werden, dass aus Sicht des LDW-Konzeptes die Einrichtung eines Operational Data Stores nur eine Hilfskonstruktion darstellt, wenn ein direkter Zugriff auf Daten in den Quellsystemen nicht möglich ist. Denn ein Operational Data Store muss zusätzlich durch eine Kopie mit Daten gefüllt werden. 5. LDW-Metadaten mit Oracle Aufgrund des SQL-Zugriffs auf die meisten Objekte ist das Datenbank-Dictionary ein einfaches und praktisches Hilfsmittel. Es dient als Metadatensystem. Hier sind Tabellen mit ihren Spalten dokumentiert. Sobald External Tables existieren, existieren auch Metadaten für alle Objekte, auf die man mit External Tables zugreift: a) Tabellen aus fremden Datenbanksystemen mit Oracle-konformen Feldtypen b) Datei-Strukturen (CSV und Fixed Length) c) HDSF, Hive-Objekte, Übernahme der Metadaten des Hive Metastore Für andere Objekte wie JSON-/XML-Strukturen oder den Value-Part bei Key Value Objekten sind Metadaten nur über einen expliziten Beschreibungsvorgang, verbal oder über einen Pseudo-Code erhältlich. JSON- und XML-Objekte führen ihre eigenen 11 Siehe hierzu

16 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 16 Metadaten in dem Objekt selbst mit sich, die aufgrund ihrer Vielfältigkeit nicht generisch (im Sinne eines Metadaten-Repositories, oder des Oracle Datenbank- Dictionaries) beschreibbar sind. Bezüglich der Metadatenanforderung des LDW sind die größten Herausforderungen zu lösen. Metadaten entstehen auch in dem Oracle Data Warehouse erst durch einen Definitionsprozess der jeweiligen Objekte. D. h., es muss zunächst ein Objekt, z. B. eine External Table zum Lesen einer HDFS-Datei, mittels der DDL-Anweisung CREATE erstellt werden, damit auch Metadaten zur Verfügung stehen. Dies setzt bereits besondere Kenntnisse über die Objektstruktur und den technischen Zugriffsweg auf das Objekt voraus. Eine generische, allgemeine oder rein fachliche Beschreibung der Objekte reicht nicht aus. Um die Problematik zu verdeutlichen, stelle man sich den Alltag der heute oft diskutierten Rolle des Data Scientist vor. Er hat es mit einer Vielzahl von Objekten, vor allem jenseits der bekannten und einfach zu bedienenden SQL-Datenbanken zu tun. Bevor er die Qualität und Zweckdienlichkeit der Inhalte von Daten bewerten kann, muss er technische Zugänge definieren, um diese Daten überhaupt zu lesen. An dieser Stelle bewährt sich Oracles Weg, SQL als Zugriffs- und Beschreibungssprache für die vielen unterschiedlichen technischen Daten-Sourcen und Formate zu nutzen. Für SQL gibt es schon seit Jahren sehr weit entwickelte Werkzeuge, die auch für die Metadaten-Beschaffung eine Reihe von Wizards anbieten. Oracle hat in den letzten Jahren den SQL-Developer für diesen Zweck kontinuierlich weiter entwickelt. 12 a) Die Datenbank Dictionaries vieler Nicht-Oracle Datenbanken lassen sich direkt auslesen. b) Das Format von beliebigen Textdaten lässt sich bestimmen. External Tables werden automatisch generiert. c) Die Struktur von HDFS- und Hive-Objekten kann mit Hilfe der Revers Engineering-Funktion des Data Modeler (eine Datenmodellierungs- Komponente des SQL Developer) aus dem Hive Metastore ausgelesen werden. Aus diesen Metadaten generiert der SQL Developer schließlich die External Tables, mit denen man HDFS- oder Hive-Objekte lesen kann. 6. Security im LDW-Konzept mit Oracle Auch der Security-Aspekt des LDW wird entsprechend abgedeckt. Bei virtuellen Zugriffen auf verteilte Daten müssen die Zugriffsschutzeinrichtungen der jeweiligen Quelldatensysteme mit in die Datenbank hinein übernommen werden. Wird z. B. ein unternehmensweites LDAP-Verzeichnis zur zentralen Benutzerverwaltung eingesetzt, so kann man solche Security-Informationen in ein Rollenkonzept in der Datenbank übernehmen. Gerade bei Daten aus operativen Systemen ist dann eine gezielte Maskierung von Teilen der Informationen (bestimmte Spalten oder Zeilen) nötig.. Es 12 Siehe hierzu

17 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 17 reicht also völlig aus, tabellenartige Objekte zu schützen, die in dem Datenbank- Dictionary dokumentiert sind. 7. Nutzer- (Konsumenten-) Neutralität / Virtualisierung der Nutzermodelle Der Titel dieses Punktes ist etwas irreführend. Im Gegensatz zu den vorgenannten 6 Aspekten, bei denen es um die Zugriffe auf außerhalb des Data Warehouse liegende Daten-Sourcen geht, befasst sich dieser Punkt mit der Verwendung der Daten innerhalb des Data Warehouse. Die Informationsbedürfnisse der Benutzer können sich ändern. In der Folge ändern sich auch die abgefragten Datenobjekte oder auch sogar die Werkzeuge, mit denen die Benutzer zugreifen. Bislang sind in solchen Fällen neue Auswertemodelle zu entwerfen und die entstehenden neuen Tabellen sind mit ETL-Aufwand zu befüllen. Auch hier zieht das Konzept der Virtualisierung, nur dass die Datenobjekte innerhalb des Warehouse und nicht außerhalb liegen. Auswertemodelle entstehen nur auf einer logischen Ebene und nicht als Tabellenwerk in einer Datenbank. Des Oracle Data Warehouse nutzt in der aktuellen Version ( ) hierfür die neue In-Memory Option. Das Prinzip ist sehr einfach: Star Schemen, als die dem Endbenutzer zugewandten multidimensionalen Modelle, werden nicht mehr persistent und hart modelliert. Sondern sie bestehen aus einer Ansammlung von Datenbank-Views. Deren Basistabellen befinden sich im Hauptspeicher der Datenbank und die Views sind somit extrem schnell abfragbar. Die SQL-Selects hinter den Views werden erst zum Abfragezeitpunkt auf das Star Schema aufgelöst. Der Vorteil dieser Vorgehensweise liegt in der Möglichkeit, die Struktur von Dimensionen und Fakten schnell zu ändern. Konzept der Virtualisierung von Star Schemen

18 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 18 Resümee Es wird hoffentlich jetzt niemand sein bestehendes Warehouse wegwerfen oder auf den Kopf stellen, nur um sich ein modernes Look and Feel des Logical Data Warehouse zuzulegen. Aber die Ausführungen haben gezeigt, dass es eine Reihe von Stellen gibt, an denen heute mehr Flexibilität machbar ist. Immer häufiger stehen wir aber auch schon mit dem Rücken an der Wand, d. h., die Anforderungen aus den Fachabteilungen überrollen die Möglichkeiten und Ressourcen der Warehouse- Abteilung. Es wurde gezeigt, wie mit einfachen Mitteln die Situation etwas entschärft werden kann: Einen neuen technischen Zugriff auf remote liegende Daten zu legen, diese dann über eine View-Definition zu kapseln und als lokal zu präsentieren, ist sicher schneller umgesetzt und mit weniger Kostenrisiko verbunden, als eine weitere ETL-Strecke über ein Projekt zu implementieren. Man sollte sich dennoch darüber bewusst sein, dass ein Remote-Zugriff noch keine echte Integration darstellt. Integration ist erst dann erreicht, wenn die Remote-Daten mit anderen Daten fachlich und strukturell verzahnt sind. Die Vorteile des LDW-Konzeptes sind: Verminderter ETL Aufwand und damit höhere Reaktionsfähigkeit. Schnelleres Umsetzen von Modelländerungen. Verminderung des Datenvolumens im zentralen Warehouse. Erhöhung der Reichweite eines Data Warehouse, weil ein breiteres Spektrum an Daten zur Verfügung steht. Höhere Aktualität von einigen Daten, da operative Daten unmittelbar einbezogen werden können. Die neuen technischen Möglichkeiten in der Oracle Datenbank, Big Data SQL und die Column-Store In-Memory Option befördern die Diskussion rund um das Logical Data Warehouse. Alfred Schlaucher, Oracle, Januar 2015

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle DATA WAREHOUSE Big Data Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen aus Unternehmens- Daten ziehen! Datenmengen, Performance und Kosten Daten als Geschäftsmodell

Mehr

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Architektur und Konzepte Josef Kolbitsch Manuela Reinisch Übersicht Mehrstufiges BI-System Architektur eines Data Warehouses Architektur eines Reporting-Systems Benutzerrollen in

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg Review Freelancer-Workshop: Fit für Big Data Mittwoch, 29.04.2015 in Hamburg Am Mittwoch, den 29.04.2015, hatten wir von productive-data in Zusammenarbeit mit unserem langjährigen Partner Informatica zu

Mehr

Einsatz von In-Memory zur Virtualisierung im Data Warehouse

Einsatz von In-Memory zur Virtualisierung im Data Warehouse Virtualisierung im Data Warehouse mit In-Memory 1 Einsatz von In-Memory zur Virtualisierung im Data Warehouse Es gibt mittlerweile eine Reihe von In-Memory-Techniken für Datenbank-Systeme im Data Warehouse

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

Agile Analytics Neue Anforderungen an die Systemarchitektur

Agile Analytics Neue Anforderungen an die Systemarchitektur www.immobilienscout24.de Agile Analytics Neue Anforderungen an die Systemarchitektur Kassel 20.03.2013 Thorsten Becker & Bianca Stolz ImmobilienScout24 Teil einer starken Gruppe Scout24 ist der führende

Mehr

Adlerblick So gewinnen Sie einen Überblick über ein DWH Dr. Andrea Kennel InfoPunkt Kennel GmbH CH-8600 Dübendorf Schlüsselworte Einleitung

Adlerblick So gewinnen Sie einen Überblick über ein DWH Dr. Andrea Kennel InfoPunkt Kennel GmbH CH-8600 Dübendorf Schlüsselworte Einleitung Adlerblick So gewinnen Sie einen Überblick über ein DWH Dr. Andrea Kennel InfoPunkt Kennel GmbH CH-8600 Dübendorf Schlüsselworte DWH Projekt, Methodik, Stärken und Schwächen, Übersicht, Weg der Daten,

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

Oracle BI Publisher in der Oracle Business Intelligence Enterprise Edition Plus. Eine Mehrwertdiskussion

Oracle BI Publisher in der Oracle Business Intelligence Enterprise Edition Plus. Eine Mehrwertdiskussion Oracle BI Publisher in der Oracle Business Intelligence Enterprise Edition Plus Eine Mehrwertdiskussion Der Oracle BI Publisher als Teil der Oracle BI Suite versus Oracle BI Publisher Standalone Der Oracle

Mehr

Analysen sind nur so gut wie die Datenbasis

Analysen sind nur so gut wie die Datenbasis Analysen sind nur so gut wie die Datenbasis Datenaufbereitung und Sicherung der Datenqualität durch den kontextbasierten MIOsoft Ansatz. Daten gelten längst als wichtiger Produktionsfaktor in allen Industriebereichen.

Mehr

Cubeware Connectivity for SAP Solutions

Cubeware Connectivity for SAP Solutions Cubeware Connectivity for SAP Solutions Beispiele und Anwendungsfälle 1. Modellierung, Extraction, Transformation und Loading mit Datenquelle SAP R/3 und mysap ERP Mit Hilfe des Cubeware Importers und

Mehr

In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI

In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI Hanau, 25.02.2015 1 Titel der Präsentation, Name, Abteilung, Ort, xx. Monat 2014 Der Aufbau der Group BI Plattform

Mehr

Unlimited Controlling

Unlimited Controlling smcolap Unlimited Controlling Heute müssen beliebige Bereiche eines Unternehmens schnell und effizient analysiert werden. Dabei darf es keine Rolle spielen, wo die Daten liegen und in welcher Relation

Mehr

Lerox DB/2 Datenbankreferenz in QlikView für IBM System AS/400, iseries i5, System i

Lerox DB/2 Datenbankreferenz in QlikView für IBM System AS/400, iseries i5, System i Lerox DB/2 Datenbankreferenz in QlikView für IBM System AS/400, iseries i5, System i Inhaltsverzeichnis Überblick... 3 Die QlikView Applikation im Kontext... 4 Technische Rahmenbedinungen... 5 Funktionelle

Mehr

Business Intelligence Data Warehouse. Jan Weinschenker

Business Intelligence Data Warehouse. Jan Weinschenker Business Intelligence Data Warehouse Jan Weinschenker 28.06.2005 Inhaltsverzeichnis Einleitung eines Data Warehouse Data Warehouse im Zusammenfassung Fragen 3 Einleitung Definition: Data Warehouse A data

Mehr

1Ralph Schock RM NEO REPORTING

1Ralph Schock RM NEO REPORTING 1Ralph Schock RM NEO REPORTING Bereit für den Erfolg Business Intelligence Lösungen Bessere Entscheidungen Wir wollen alle Mitarbeiter in die Lage versetzen, bessere Entscheidungen schneller zu treffen

Mehr

Marketing Intelligence Vorstellung der Softwarekomponenten. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Vorstellung der Softwarekomponenten. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Vorstellung der Softwarekomponenten Josef Kolbitsch Manuela Reinisch Übersicht Übersicht über die Systemlandschaft Übersicht über die Werkzeuge Workshop Systemlandschaft 1/8 Klassische

Mehr

ETL in den Zeiten von Big Data

ETL in den Zeiten von Big Data ETL in den Zeiten von Big Data Dr Oliver Adamczak, IBM Analytics 1 1 Review ETL im Datawarehouse 2 Aktuelle Herausforderungen 3 Future of ETL 4 Zusammenfassung 2 2015 IBM Corporation ETL im Datawarehouse

Mehr

Step 0: Bestehende Analyse-Plattform

Step 0: Bestehende Analyse-Plattform Die Themen 09:30-09:45 Einführung in das Thema (Oracle) 09:45-10:15 Hadoop in a Nutshell (metafinanz) 10:15-10:45 Hadoop Ecosystem (metafinanz) 10:45-11:00 Pause 11:00-11:30 BigData Architektur-Szenarien

Mehr

BARC-Studie Data Warehousing und Datenintegration

BARC-Studie Data Warehousing und Datenintegration Ergebnisse der BARC-Studie Data Warehouse Plattformen Dr. Carsten Bange BARC-Studie Data Warehousing und Datenintegration Data-Warehouse -Plattformen und Datenintegrationswerkzeuge im direkten Vergleich

Mehr

Big Data in Azure. Ein Beispiel mit HD Insight. Ralf Stemmer

Big Data in Azure. Ein Beispiel mit HD Insight. Ralf Stemmer Big in Azure Ein Beispiel mit HD Insight Ralf Stemmer Agenda owas ist Big? Was ist HD Insight? owelche Probleme kann man damit lösen? odemo Was ist Big? Was ist HD Insight? Datenexplosion - Rasanter Zuwachs

Mehr

//einfach und mittelstandsgerecht. aruba //Enterprise Query. Datenextraktion und Datenbereitstellung Ad-hoc Analyse Taskplaner.

//einfach und mittelstandsgerecht. aruba //Enterprise Query. Datenextraktion und Datenbereitstellung Ad-hoc Analyse Taskplaner. Enterprise Query //einfach und mittelstandsgerecht aruba //Enterprise Query Datenextraktion und Datenbereitstellung Ad-hoc Analyse Taskplaner aruba //Enterprise Query einfach Daten abfragen und veröffentlichen

Mehr

Prof. Dr.-Ing. Rainer Schmidt 1

Prof. Dr.-Ing. Rainer Schmidt 1 Prof. Dr.-Ing. Rainer Schmidt 1 Business Analytics und Big Data sind Thema vieler Veröffentlichungen. Big Data wird immer häufiger bei Google als Suchbegriff verwendet. Prof. Dr.-Ing. Rainer Schmidt 2

Mehr

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015 Abstrakt zum Vortrag im Oberseminar Graphdatenbanken Gero Kraus HTWK Leipzig 14. Juli 2015 1 Motivation Zur Darstellung komplexer Beziehungen bzw. Graphen sind sowohl relationale als auch NoSQL-Datenbanken

Mehr

EXASolution als Bestandteil einer BI / DWH- und Kampagnenmanagementlandschaft Ein Erfahrungsbericht aus der Praxis

EXASolution als Bestandteil einer BI / DWH- und Kampagnenmanagementlandschaft Ein Erfahrungsbericht aus der Praxis EXASolution als Bestandteil einer BI / DWH- und Kampagnenmanagementlandschaft Ein Erfahrungsbericht aus der Praxis Business Apéro Exasol / SHS VIVEON, Zürich Zürich, 15. November 2011 Dr. Jörg Westermayer

Mehr

Solution for Business Intelligence. MID Insight 2013

Solution for Business Intelligence. MID Insight 2013 Solution for Business Intelligence MID Insight 2013 A G E N D A 1. Solution für Business Intelligence (BI) 2. Die Gründe und Hintergründe 3. Die Methode 4. Vorteile MID GmbH 2013 2 Solution für Business

Mehr

Fachbereich Informatik Praktikum 1

Fachbereich Informatik Praktikum 1 Hochschule Darmstadt DATA WAREHOUSE SS2015 Fachbereich Informatik Praktikum 1 Prof. Dr. S. Karczewski Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 14.April.2015 1. Kurzbeschreibung In diesem Praktikum geht

Mehr

Informationsintegration

Informationsintegration Informationsintegration Grundlegende Architekturen Ulf Leser Inhalt diese Vorlesung Klassifikation verteilter, autonomer, heterogener Systeme Weitere Klassifikationskriterien Schichtenaufbau integrierter

Mehr

EXASOL Anwendertreffen 2012

EXASOL Anwendertreffen 2012 EXASOL Anwendertreffen 2012 EXAPowerlytics Feature-Architektur EXAPowerlytics In-Database Analytics Map / Reduce Algorithmen Skalare Fkt. Aggregats Fkt. Analytische Fkt. Hadoop Anbindung R LUA Python 2

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

TRACK II Datenmanagement Strategien & Big Data Speicherkonzepte. TRACK I Big Data Analytics & Self Service BI

TRACK II Datenmanagement Strategien & Big Data Speicherkonzepte. TRACK I Big Data Analytics & Self Service BI 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Business Intelligence Praktikum 1

Business Intelligence Praktikum 1 Hochschule Darmstadt Business Intelligence SS 2014 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 07.05.2014 Business Intelligence Praktikum

Mehr

1001 Möglichkeiten eine Staging Area zu füllen. Sven Bosinger its-people GmbH

1001 Möglichkeiten eine Staging Area zu füllen. Sven Bosinger its-people GmbH Ausgangslage Szenarien Populate the Stage - 1001 Möglichkeiten eine Staging Area zu füllen Sven Bosinger its-people GmbH 1 Sven Bosinger Solution Architect BI und Portfoliomanagement BI its-people GmbH

Mehr

Advanced Analytics mit EXAPowerlytics. Technisches Whitepaper

Advanced Analytics mit EXAPowerlytics. Technisches Whitepaper Advanced Analytics mit EXAPowerlytics Technisches Whitepaper Inhalt 1. Zusammenfassung... 3 2. Einführung... 4 3. Fachliche Einführung... 5 4. Beispiel: Zeichen zählen... 7 5. Fazit... 9 6. Anhang... 10-2

Mehr

Ab in den Himmel: Was kommt jenseits der Cloud? 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014

Ab in den Himmel: Was kommt jenseits der Cloud? 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014 Ab in den Himmel: Was kommt jenseits der Cloud? 1 20 R. Altenhöner Ab in den Himmel: Was kommt jenseits der Cloud? 04.6.2014 Bibliothekartag 2014 Inhalt 1. Einleitung / Motivation 2. Cloud ein bisschen

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

QUICK-START EVALUIERUNG

QUICK-START EVALUIERUNG Pentaho 30 für 30 Webinar QUICK-START EVALUIERUNG Ressourcen & Tipps Leo Cardinaals Sales Engineer 1 Mit Pentaho Business Analytics haben Sie eine moderne und umfassende Plattform für Datenintegration

Mehr

Kapitel 2 Terminologie und Definition

Kapitel 2 Terminologie und Definition Kapitel 2 Terminologie und Definition In zahlreichen Publikationen und Fachzeitschriften tauchen die Begriffe Data Warehouse, Data Warehousing, Data-Warehouse-System, Metadaten, Dimension, multidimensionale

Mehr

Einführungsveranstaltung: Data Warehouse

Einführungsveranstaltung: Data Warehouse Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring

Mehr

Datawarehouse Architekturen. Einheitliche Unternehmenssicht

Datawarehouse Architekturen. Einheitliche Unternehmenssicht Datawarehouse Architekturen Einheitliche Unternehmenssicht Was ist Datawarehousing? Welches sind die Key Words? Was bedeuten sie? DATA PROFILING STAGING AREA OWB ETL OMB*PLUS SAS DI DATA WAREHOUSE DATA

Mehr

Apache HBase. A BigTable Column Store on top of Hadoop

Apache HBase. A BigTable Column Store on top of Hadoop Apache HBase A BigTable Column Store on top of Hadoop Ich bin... Mitch Köhler Selbstständig seit 2010 Tätig als Softwareentwickler Softwarearchitekt Student an der OVGU seit Oktober 2011 Schwerpunkte Client/Server,

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Logische Modellierung von Data Warehouses

Logische Modellierung von Data Warehouses Logische Modellierung von Data Warehouses Vertiefungsarbeit von Karin Schäuble Gliederung. Einführung. Abgrenzung und Grundlagen. Anforderungen. Logische Modellierung. Methoden.. Star Schema.. Galaxy-Schema..

Mehr

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh SQL on Hadoop für praktikables BI auf Big Data! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh War nicht BigData das gleiche NoSQL? 2 Wie viele SQL Lösungen für Hadoop gibt es mittlerweile? 3 ! No SQL!?

Mehr

Data Warehouse Grundlagen

Data Warehouse Grundlagen Seminarunterlage Version: 2.10 Version 2.10 vom 24. Juli 2015 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen sind Warenzeichen

Mehr

Survival Guide für Ihr Business Intelligence-Projekt

Survival Guide für Ihr Business Intelligence-Projekt Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren

Mehr

Self-Service-BI die große Freiheit?

Self-Service-BI die große Freiheit? Self-Service-BI die große Freiheit? IT oder Fachbereich - wer profitiert wann von Self-Service-BI? Vortragende Nico Haag Klaus Kepert Self-Service im Alltag Längst Gewohnheit Bankautomaten Internet Kantine

Mehr

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 BIW - Überblick Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 Annegret Warnecke Senior Sales Consultant Oracle Deutschland GmbH Berlin Agenda Überblick

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit BI Konsolidierung: Anspruch & Wirklichkeit Jacqueline Bloemen in Kooperation mit Agenda: Anspruch BI Konsolidierung Treiber Was sind die aktuellen Treiber für ein Konsolidierungsvorhaben? Kimball vs. Inmon

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Unstrukturierte Daten spielen eine immer bedeutender Rolle in Big Data-Projekten. Zunächst gilt es

Mehr

Fördercontrolling im öffentlichen Bereich Aspekte beim Aufbau eines DWH. Software mit Format.

Fördercontrolling im öffentlichen Bereich Aspekte beim Aufbau eines DWH. Software mit Format. Fördercontrolling im öffentlichen Bereich Aspekte beim Aufbau eines DWH Gerd Schandert, Neuss den 18.03.2014 Agenda 1. Vorstellung Auftraggeber 2. Förderung allgemein 3. Schichten im Data Warehouse 4.

Mehr

MIS by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001

MIS by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001 MIS Glossar by Franziska Täschler, Winformation GmbH ftaeschler@winformation-gmbh.ch Ausgabe 01/2001 Aggregat Data Cube Data Marts Data Mining Data Warehouse (DWH) Daten Decision Support Systeme (DSS)

Mehr

Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen

Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen Oracle DWH-Konferenz 21. März 2012 Dr. Carsten Bange Gründer & Geschäftsführer BARC Big Data bietet Methoden und Technologien

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

Vom HMI zum WebSCADA Portal

Vom HMI zum WebSCADA Portal Vom HMI zum WebSCADA Portal Teil 1. Skalierbare webbasierende Visualisierungsplattform: Das Bedienpanel als Basis Marcel Bühner Schlagworte wie Industrie 4.0, IoT (Internet of Things), Automation in the

Mehr

SOA im Zeitalter von Industrie 4.0

SOA im Zeitalter von Industrie 4.0 Neue Unterstützung von IT Prozessen Dominik Bial, Consultant OPITZ CONSULTING Deutschland GmbH Standort Essen München, 11.11.2014 OPITZ CONSULTING Deutschland GmbH 2014 Seite 1 1 Was ist IoT? OPITZ CONSULTING

Mehr

Whitepaper Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Server 2005 / 2008

Whitepaper Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Server 2005 / 2008 Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Andreas Glaser, 23. September 2008 Teufenerstrasse 19 CH 9001 St.Gallen t [+41] 71 228 67 77 f [+41] 71 228 67 88 info@namics.com

Mehr

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle 40. Congress der Controller, Themenzentrum C, München Steffen Vierkorn, Geschäftsführer Qunis GmbH, Neubeuern Die

Mehr

O-BIEE Einführung mit Beispielen aus der Praxis

O-BIEE Einführung mit Beispielen aus der Praxis O-BIEE Einführung mit Beispielen aus der Praxis Stefan Hess Business Intelligence Trivadis GmbH, Stuttgart 2. Dezember 2008 Basel Baden Bern Lausanne Zürich Düsseldorf Frankfurt/M. Freiburg i. Br. Hamburg

Mehr

Hadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel. Carsten Herbe metafinanz Informationssysteme GmbH

Hadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel. Carsten Herbe metafinanz Informationssysteme GmbH Hadoop & SQL Oracle BI & DWH Konferenz 2013 19./20. März 2013, Kassel Carsten Herbe metafinanz Informationssysteme GmbH In unserer Business Line Business Intelligence & Risk gibt es fünf Bereiche: Risk,

Mehr

WhitePaper. Mai 2012. BIA Business Intelligence Accelerator. Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com

WhitePaper. Mai 2012. BIA Business Intelligence Accelerator. Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com WhitePaper BIA Business Intelligence Accelerator Mai 2012 Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com BIA Business Intelligence Accelerator GmbH Softwarepark 26 A-4232 Hagenberg Mail:

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

BigTable. 11.12.2012 Else

BigTable. 11.12.2012 Else BigTable 11.12.2012 Else Einführung Distributed Storage System im Einsatz bei Google (2006) speichert strukturierte Daten petabyte-scale, > 1000 Nodes nicht relational, NoSQL setzt auf GFS auf 11.12.2012

Mehr

Kapitel 4: Data Warehouse Architektur

Kapitel 4: Data Warehouse Architektur Data Warehousing, Motivation Zugriff auf und Kombination von Daten aus mehreren unterschiedlichen Quellen, Kapitel 4: Data Warehousing und Mining 1 komplexe Datenanalyse über mehrere Quellen, multidimensionale

Mehr

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Schwierigkeiten bei der Umsetzung Josef Kolbitsch Manuela Reinisch Übersicht Schwierigkeiten bei der Umsetzung eines BI-Systems Schwierigkeiten der Umsetzung 1/13 Strategische Ziele

Mehr

Business Intelligence Governance

Business Intelligence Governance Business Intelligence Governance von der Vision zur Realität im Unternehmensalltag Webinar September 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das intelligente Unternehmen

Mehr

vinsight BIG DATA Solution

vinsight BIG DATA Solution vinsight BIG DATA Solution München, November 2014 BIG DATA LÖSUNG VINSIGHT Datensilos erschweren eine einheitliche Sicht auf die Daten...... und machen diese teilweise unmöglich einzelne individuelle Konnektoren,

Mehr

4. WORKSHOP - OSBI Big Data und Datenvirtualisierung. Dr. Sebastian Streit & Maxim Zehe

4. WORKSHOP - OSBI Big Data und Datenvirtualisierung. Dr. Sebastian Streit & Maxim Zehe 4. WORKSHOP - OSBI Big Data und Datenvirtualisierung Dr. Sebastian Streit & Maxim Zehe F. Hoffmann-La Roche AG Gegründet 1896 in Basel Über 80.000 Mitarbeitende Führende Position in Pharma Fokussierung

Mehr

Marketing Intelligence Übersicht über Business Intelligence. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Übersicht über Business Intelligence. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Übersicht über Business Intelligence Josef Kolbitsch Manuela Reinisch Übersicht Beispiel: Pantara Holding Der Begriff Business Intelligence Übersicht über ein klassisches BI-System

Mehr

Top 10 der Business Intelligence-Trends für 2014

Top 10 der Business Intelligence-Trends für 2014 Top 10 der Business Intelligence-Trends für 2014 Das Ende der Datenexperten. Datenwissenschaft kann künftig nicht nur von Experten, sondern von jedermann betrieben werden. Jeder normale Geschäftsanwender

Mehr

«DIE INFORMATIONSWELT MUSS EINFACHER UND AGILER WERDEN!» SCHNELLE, FLEXIBLE UND KOSTENGÜNSTIGE BUSINESS INTELLIGENCEund BIG DATA-LÖSUNGEN

«DIE INFORMATIONSWELT MUSS EINFACHER UND AGILER WERDEN!» SCHNELLE, FLEXIBLE UND KOSTENGÜNSTIGE BUSINESS INTELLIGENCEund BIG DATA-LÖSUNGEN «DIE INFORMATIONSWELT MUSS EINFACHER UND AGILER WERDEN!» SCHNELLE, FLEXIBLE UND KOSTENGÜNSTIGE BUSINESS INTELLIGENCEund BIG DATA-LÖSUNGEN UNSERE EINFACHE FORMEL FÜR AGILE BUSINESS INTELLIGENCE LÖSUNGEN

Mehr

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick Volker.Hinz@microsoft.com Was sagt der Markt? Fakten Meinung der Analysten zu Microsofts Angeboten Nutzen

Mehr

SAS Analytics bringt SAP HANA in den Fachbereich

SAS Analytics bringt SAP HANA in den Fachbereich Pressemitteilung Hamburg, 08. November 2013 SAS Analytics bringt SAP HANA in den Fachbereich Ergonomie kombiniert mit Leistungsfähigkeit: die BI-Experten der accantec group geben der neuen Partnerschaft

Mehr

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features 1. Übersicht Der MIK.etl.connector ist ein ETL-Tool - die Abkürzung steht für

Mehr

Business Intelligence Praktikum 1

Business Intelligence Praktikum 1 Hochschule Darmstadt Business Intelligence WS 2013-14 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 14.10.2013 Business Intelligence Praktikum

Mehr

Kapitel II. Datenbereitstellung 2004 AIFB / FZI 1. Vorlesung Knowledge Discovery

Kapitel II. Datenbereitstellung 2004 AIFB / FZI 1. Vorlesung Knowledge Discovery Kapitel II Datenbereitstellung 2004 AIFB / FZI 1 II. Datenbereitstellung 2004 AIFB / FZI 2 II. Datenbereitstellung Collect Initial Data identify relevant attributes identify inconsistencies between sources

Mehr

adcubum ACADEMY. Die Vertiefung von Hochstehendem. SQL-Datenbankkurse

adcubum ACADEMY. Die Vertiefung von Hochstehendem. SQL-Datenbankkurse adcubum ACADEMY. Die Vertiefung von Hochstehendem. SQL-Datenbankkurse Rubrik: Datenbanken Einleitung adcubum SYRIUS legt alle Bewegungsdaten in der Datenbank ab. Als Consultant, Parametrierer, Kundendienstmitarbeitender,

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

Welche Daten gehören ins Data Warehouse?

Welche Daten gehören ins Data Warehouse? Welche Daten gehören ins Warehouse? Dani Schnider Principal Consultant 9. Januar 2012 In vielen DWH-Projekten stellt sich die Frage, welche Daten im Warehouse gespeichert werden sollen und wie dieser Datenumfang

Mehr

Star-Schema-Modellierung mit ERwin - eine kritische Reflexion der Leistungspotentiale und Anwendungsmöglichkeiten

Star-Schema-Modellierung mit ERwin - eine kritische Reflexion der Leistungspotentiale und Anwendungsmöglichkeiten Star-Schema-Modellierung mit ERwin - eine kritische Reflexion der Leistungspotentiale und Anwendungsmöglichkeiten Michael Hahne T&I GmbH Workshop MSS-2000 Bochum, 24. März 2000 Folie 1 Worum es geht...

Mehr

Integration Services - Dienstarchitektur

Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Dieser Artikel solle dabei unterstützen, Integration Services in Microsoft SQL Server be sser zu verstehen und damit die

Mehr

7.4 Analyse anhand der SQL-Trace. 7.3.5 Vorabanalyse mit dem Code Inspector

7.4 Analyse anhand der SQL-Trace. 7.3.5 Vorabanalyse mit dem Code Inspector 7.4 Analyse anhand der SQL-Trace 337 7.3.5 Vorabanalyse mit dem Code Inspector Der Code Inspector (SCI) wurde in den vorangegangenen Kapiteln immer wieder erwähnt. Er stellt ein paar nützliche Prüfungen

Mehr

Integrating Architecture Apps for the Enterprise

Integrating Architecture Apps for the Enterprise Integrating Architecture Apps for the Enterprise Ein einheitliches Modulsystem für verteilte Unternehmensanwendungen Motivation und Grundkonzept Inhalt Problem Ursache Herausforderung Grundgedanke Architektur

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO

Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO innovation@work Zukunftsträchtige Potentiale: Predictive Analysis mit SAP HANA & SAP BO thinkbetter AG Florian Moosmann 8. Mai 2013 1 Agenda Prädiktive Analyse Begriffsdefinition Herausforderungen Schwerpunktbereiche

Mehr

Konzeption eines Master-Data-Management-Systems. Sven Schilling

Konzeption eines Master-Data-Management-Systems. Sven Schilling Konzeption eines Master-Data-Management-Systems Sven Schilling Gliederung Teil I Vorstellung des Unternehmens Thema der Diplomarbeit Teil II Master Data Management Seite 2 Teil I Das Unternehmen Vorstellung

Mehr

Living Lab Big Data Konzeption einer Experimentierplattform

Living Lab Big Data Konzeption einer Experimentierplattform Living Lab Big Data Konzeption einer Experimentierplattform Dr. Michael May Berlin, 10.12.2012 Fraunhofer-Institut für Intelligente Analyseund Informationssysteme IAIS www.iais.fraunhofer.de Agenda n Ziele

Mehr

Symbiose hybrider Architekturen im Zeitalter digitaler Transformation. Hannover, 18.03.2015

Symbiose hybrider Architekturen im Zeitalter digitaler Transformation. Hannover, 18.03.2015 Symbiose hybrider Architekturen im Zeitalter digitaler Transformation Hannover, 18.03.2015 Business Application Research Center (BARC) B (Analystengruppe Europas führendes IT-Analysten- und -Beratungshaus

Mehr

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features. Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features Seite 2 von 12 1. Übersicht MIK.arjuna ist eine 64-bit multidimensionale Datenbank,

Mehr

Data Warehouse. für den Microsoft SQL SERVER 2000/2005

Data Warehouse. für den Microsoft SQL SERVER 2000/2005 Warehouse für den Microsoft SQL SERVER 2000/2005 Begriffe 1 DWH ( Warehouse) ist eine fachübergreifende Zusammenfassung von Datentabellen. Mart ist die Gesamtheit aller Datentabellen für einen fachlich

Mehr

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht)

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Christian Haag, DATA MART Consulting Consulting Manager Oracle DWH Team

Mehr

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar!

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar! Clouds Wolkig bis Heiter Erwartungen der Nutzer Er ist verwöhnt! Verfügbarkeit Viele Anwendungen Intuitive Interfaces Hohe Leistung Er ist nicht dankbar! Mehr! Mehr! Mehr! Moore 1 Erwartungen der Entwickler

Mehr