Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 1. Vision und Machbarkeit des Logical Data Warehouse

Größe: px
Ab Seite anzeigen:

Download "Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 1. Vision und Machbarkeit des Logical Data Warehouse"

Transkript

1 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 1 Vision und Machbarkeit des Logical Data Warehouse

2 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 2 Die Motivation... 4 Lösungskonzepte... 5 Evolution statt Revolution... 6 Aspekte des Logical Data Warehouse (LDW) Technische Sourcen Zugriffsverfahren Zugriffstechnik Formate Metadaten Security Konsumenten Wie unterstützt das Oracle Data Warehouse das Konzept des LDW Welche technischen Sourcen lassen sich anbinden? Welches Zugriffsverfahren steht zur Verfügung Welche Zugriffstechniken stehen zur Verfügung Formate und Oracle LDW-Metadaten mit Oracle Security im LDW-Konzept mit Oracle Nutzer- (Konsumenten-) Neutralität / Virtualisierung der Nutzermodelle 17 Resümee... 18

3 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 3 Bereits seit einigen Jahren (verstärkt seit 2011) wird das Konzept des Logical Data Warehouse besprochen, und vorgestellt.. Die aktuelle Diskussion rund um Big Data, aber auch die vielen neuen technischen Möglichkeiten, die heute bereitstehen, machen diese Diskussion interessanter denn je. Es sind Lösungskonzepte möglich, deren Problemstellung wir vor Jahren noch gar nicht gesehen haben. Allerdings fasst der Begriff auch schon längst bestehende Technologien unter einem neuen Schlagwort zusammen. Kurz zu dem Stichwort: Logical Data Warehouse (LDW. Ein Logisches Data Warehouse stellt Unternehmensdaten bereit, ohne diese zuvor physikalisch an einen zentralen Ort in dem Data Warehouse zu bewegen. Wie in einem klassischen Data Warehouse werden einheitliche Sichten für Analysezwecke bereitgestellt. Während die Daten des klassischen Data Warehouse aus einer wohldefinierten physikalisch einheitlichen Datenbank stammen, zieht sich das Logische Data Warehouse Daten zum Abfragezeitpunkt aus diversen Quellen zusammen. Die eigentlichen Ablageorte werden virtualisiert. In diesem Artikel wird der Begriff noch etwas weiter gefasst: Die neuen In-Memory Technologien erlauben auch das Virtualisieren von Strukturen innerhalb des Data Warehouse. In jedem Fall bietet das System den Benutzern Daten an, die in der ihm präsentierten Form nicht physikalisch als Tabellen in einer Data Warehouse Datenbank liegen.

4 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 4 Die Motivation Es gibt in einigen Unternehmen eine wachsende Motivation bei den Warehouse- Architekten sich mit diesem Konzept zu beschäftigen: 1. Es werden immer noch nicht alle im Unternehmen existierenden Daten in die Analyseprozesse mit einbezogen. D. h., Opportunities gehen verloren, weil Informationen nicht da sind Eine Ursache liegt darin, dass nicht alle wichtigen Daten-Ressourcen über recht schwerfällige Warehouse-Projekte mit der Entwicklung von aufwendigen ETL-Strecken, in das Warehouse integriert sind. Hohe Entwicklungskosten, fehlendes Personal aber fehlendes Bewusstsein für Synergie-Effekte zentraler Analyseprozesse im Management mögen Gründe sein. 3. Ein weiterer Grund ist sicher der Umstand, dass in immer kürzeren Zeitabständen neue Daten-Ressourcen von den Fachabteilungen angefordert werden. 4. Wir haben das zunehmend deutlicher spürbare Latenzproblem. D. h., die Beschaffungszeiten mittels traditioneller ETL-Batch-Prozesse sind bei einer wachsenden Zahl von Analyseanforderungen zu lang. 5. Manche Datenquellen sind in Struktur und Inhalt derart volatil, sodass man sie kaum noch mit klassischen Warehouse Konzepten (z. B. konventionellem Batch-ETL) einfangen kann. 6. Unternehmen richten heute zunehmend Ihr Augenmerk auch auf nichttraditionelle Unternehmensdaten. Sie kaufen externe Daten zu, sie zapfen öffentlich zur Verfügung stehende Datentöpfe an, sie erschließen zusätzliche Datenquellen, an die vor Jahren noch niemand gedacht hat, z. B. Maschinendaten, Mail-Verkehre, Telefondaten usw. Solche Daten waren zwar immer schon vorhanden. Doch nun beginnt man, angeheizt durch die Big Data Diskussion, die Daten zu kombinieren und versucht aus möglichen Zusammenhängen Nutzen zu ziehen. Bei diesen Datenarten besteht die berechtigte Frage, ob sie überhaupt in ein Data Warehouse geladen werden sollten. 1 Siehe hierzu z. B. Umfrage in US: From Overload to Impact: An Industry Scorecard on Big Data Business Challenges Link

5 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 5 Lösungskonzepte Als technische Lösung stehen und standen sich zwei Lösungsvarianten gegenüber. a) Verteilte Datenhaltung, die durch eine Metadaten-Schicht virtuell zusammengefasst werden. Daten verbleiben in ihren jeweiligen Anwendungen oder werden in zusätzliche (aber verteilte) Datentöpfe abgelegt. Solche sog. Distributed Warehouse Solutions werden von einigen DB-Herstellern, mit mehreren (zugekauften) DB-Systemen angeboten. Solche Konzepte sind jedoch schon bei den ersten Gehversuchen in frühen Projekten (2008 / 2009) an der Komplexität der vielen unterschiedlichen Strukturen gescheitert. 2 b) Erweiterung eines bestehenden zentralen Warehouse-Systems um die Möglichkeit des Zugriffs auf externe Datenquellen bzw. der Möglichkeit der Steuerung externer Prozesse. Das Oracle Data Warehouse fällt eindeutig zur Gruppe unter b). Auch schon vor der Diskussion um das Logische Data Warehouse Konzept, hat Oracle in den letzten Jahrzehnten Kommunikationswege und Schnittstellen in die Unternehmens-IT- Infrastruktur in der Datenbank implementiert. Schon seit mehr als 15 Jahren reden wir bei der Oracle Datenbank, nicht nur über ein nacktes Datenhaltungssystem, sondern von einer Art Datendrehscheibe, die kaum Hürden bei dem Zugriff auf Unternehmensdaten kennt. (In vielen Unternehmen sind diese Techniken auch im Einsatz, ohne dass man den Namen Logisches Data Warehouse verwendet.) 2 Vgl. Gartner Hype Cycle for Business Intelligence and Analytics, 2013 Mark A. Beyer

6 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 6 Evolution statt Revolution Die Variante b) macht eine evolutionäre Weiterentwicklung vieler bestehender Warehouse-System möglich, denn es ist kaum anzunehmen, dass Unternehmen ihre Warehouse-Systeme regelmäßig mal eben so neu konzipieren. Mann wird sie auf kleiner Flamme in Versuchs-Labors Stück für Stück weiter entwickeln und für bestimmte Datenquellen virtuelle Zugriffsmöglichkeiten einbauen. Es gibt noch einen zweiten sehr wichtigen Punkt, der für die Variante b) spricht. Das sind die 4 klassischen Hauptaufgaben eines Data Warehouse: 1. Das sachgebietsübergreifende Integrieren von sachgebietsbezogenen Daten an zentraler Stelle mit der Notwendigkeit zu Harmonienieren. 2. Das Anreichern von Daten mit Erklärungen und zusätzlicher Semantik. 3. Das Historisieren von Daten als Grundlage für Trenderkennung. 4. Das Separieren von Daten aus dem operativen Kontext zum Zweck der Simulation und der Möglichkeit zusätzliche Informationen aus im Data Warehouse neu entstandenen Querbezügen zu anderen Daten zu gewinnen. Diese 4 Punkte sind an anderer Stelle schon oft ausgeführt worden und sollten daher hier nur kurz erwähnt bleiben. Das sind aber oft diejenigen Punkte, die man bei Diskussionen rund um Hype-Themen gerne vergisst. Ein Warehouse, dessen Datenbeschaffungsfunktionen komplett virtualisiert wären, müsste die 4 genannten Aufgabenstellungen auch komplett virtuell lösen. Bei jeder vernünftigen Betrachtung: unmöglich! 3 Das bedeutet: Für die Masse der Warehouse Daten bleibt eine konventionelle Batch-Verarbeitung sinnvoll, nicht aus Performance oder technischen Gründen, sondern weil pragmatischerweise konsolidierende, harmonisierende Tätigkeiten einfacher zu lösen sind. 3 Es ist das gleiche aufgesetzt Vorhaben, das mancher Hersteller von reinen In-Memory- Datenbanken in seinen Marketing-Unterlagen als zukunftsweisend bewirbt, um dann doch wieder in den Projekten auf die klassischen Warehouse-Prizipien mit persistierten Datentabellen zurückzukommen. Dann aber mit einer sehr komplexen Ausgangslage und zusätzlichen Datenhaltungskrücken.

7 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 7 Wir sollten uns also mit einer Lösung beschäftigen, die ein bestehendes Data Warehouse in der oft praktizierten Schichten-Architektur (Stage/Core Warehouse/Marts) als Ausgangspunkt nimmt, und dieses in evolutionärer Weise Stück für Stück um virtuelle Zugriffs- und Bereitstellungstechniken erweitert. Das klassische 3-Schichtenmodell nach Inmon

8 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 8 Aspekte des Logical Data Warehouse (LDW) Der konsequente Aufbau von logischen (virtuellen) Strukturen in einem Data Warehouse umfasst eine Reihe von Aspekten und Komponenten, wie sie in der folgenden Tabelle dargestellt sind. Technische Sourcen nosql Hadoop (HDFS) RDBMS Files Web Zugriffs- Verfahren Batch Direkt Message Zugriffs- Technik APIs MapReduce SQL, Proprietär, Formate Metadaten Security Konsumenten XML Fundorte Objekt- Modellflexibilität JSON Struktur bezogen CSV Inhalte Tool- Beliebige KeyValue, Zugriffsdaten bezogen, BI-Tools ER Quellsystem native bezogen Allgemeine Aspekte in dem Konzept des Logical Data Warehouse 1. Technische Sourcen Die klassischen technischen Datenquellen sind sicherlich Datenbanksysteme (relational, hierarchisch) und Flatfiles. Bereits in den frühen 2000er Jahren sind Web- Sourcen hinzugekommen, also Daten, die remote über Internet-Dienste angeboten wurden. Warehouse-System erfüllten damit ihre althergebrachte Aufgabe des Erfolgs- Monitorings bestehender, bekannter Prozesse. Heute sind auf der Suche nach neuen Opportunities und Wettbewerbsvorteilen bislang unberücksichtigte Daten in den Fokus gerückt (externe Daten, Daten aus sozialen Medien, Maschinendaten, Log-Daten, Wetterdaten, Bewegungsdaten usw.). Aufgrund ihrer Strukturierung aber auch aufgrund der Art der Datenentstehung will man sie oft nicht mehr klassisch speichern und sucht nach neuen Wegen. Die technische Innovation hat Hadoop/HDFS oder auch die nosql-datenbanken für solche Daten bereitgestellt. Das LDW muss mit all diesen technischen Sourcen umgehen können. (Aber Achtung: Wir reden heute nicht deshalb über das Konzept des Logical Data Warehouse, nur weil es die Big Data Diskussion gibt. Auch ohne diese Entwicklung und diese neuen Datenobjekte ist Konzept überlegenswert.) 2. Zugriffsverfahren a) Das ursprüngliche Batch-Verfahren zum monatlichen / wöchentlichen / täglichen / untertägigen Updaten und Bereitstellen von Daten ist in seiner Struktur periodisch. Technisch gesehen ist es gleichgültig, ob man täglich oder stündlich ein Warehouse befüllt. Das, was manchmal Realtime genannt wird, ist nach wie vor ein Batch-Load, auch wenn dieser Batch-Load im 10- Sekunden-Takt erfolgt. Wesentlich für den Begriff Batch ist der Umstand, dass eine gewisse Anzahl von Daten aus einem Quell-System gelesen und in ein Zielsystem geschrieben werden..

9 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 9 b) Anders verhält es sich, wenn zu analysierende Daten aus einem Quellsystem zum Zeitpunkt der Analyse direkt aus dem Vorsystem gelesen werden (Direkt- Leseverfahren). Dieses Verfahren macht keine Aussage über die Aktualität der Quelldaten und hat auch keinen Transaktionsbezug auf das OLTP-System. Wichtig ist allein die Abfrage des Analysten, der zum Zeitpunkt der Abfrage in den operativen Datenbestand hineingreift, ob mit Filter oder ohne. c) Die 3. Variante ist das aktive Befüllen des Warehouse über einen permanenten Kommunikationsprozess zwischen Warehouse und operativen Systemen, indem Nachrichten (Messages) hin- und her fließen, entweder im Push oder im Pull-Verfahren. Alle drei Verfahren sollten in dem LDW machbar sein. Es wäre ein Trugschluss, das klassische DWH als Batch-orientiert und das LDW mit dem Direkt-Leseverfahren zu assoziieren. Ein virtualisierter Zugriff auf ein operatives System ist technisch auch als spontan gestarteter Batch-Aufruf oder als Message-Abruf über einen SOA-Bus denkbar. Entscheidend ist der Punkt, dass die Warehouse-Datenbasis im Bedarfsfall spontan erweitert werden kann. 3. Zugriffstechnik Unterschiedliche technische Sourcen erfordern spezifische Zugriffstechniken, die mit den Besonderheiten der jeweiligen Datenhaltung umgehen können. Für RDBMS- Systeme hat sich SQL etabliert. Für ein Hadoop-System wird MapReduce angeboten. Das LDW muss auf die Datenhaltungen zum Zeitpunkt X spontan zugreifen können. Es wird aber zu klären sein, ob das LDW jede spezifische Zugriffstechnik adaptieren muss. Einfacher wäre ein einziger standardisierter Zugriff, bei dem man nur einen Adapter austauschen muss, wenn es sich um eine andere Datenhaltung handelt, aber die Art des Zugriffs gleich bleibt. 4. Formate Die technische Datenablage ist das eine, die Art, wie diese Information abgelegt ist, und beim Lesen interpretiert werden muss (Format) ist das andere. Hier wird noch nicht die Frage nach der Strukturierung von Daten angesprochen (strukturiert, unstrukturiert, multi-strukturiert etc.). In einem HADOOP-HDFS-System können sowohl Fließtexte, XML-Strukturen, CSV-Objekte, JSON-Files liegen. Das Gleiche gilt für das klassische File-System. Das LDW muss formatunabhängig Zugriffe realisieren können. 5. Metadaten Einer der heikelsten Punkte des LDW ist sein Metadatenbereich. Wie soll man auf Daten zugreifen, wenn man nicht einmal weiß, ob diese überhaupt existieren? Das klassische Warehouse bietet hierfür z. B. den Datenbank-Katalog an. Und wenn es nur

10 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 10 ein einfaches SELECT * FROM TAB, (Oracle-Variante) ist, man erhält eine erste Übersicht über die Existenz bestimmter Objekte. 4 Ein LDW muss über eine Metadaten-Komponente verfügen, in der für die nicht in dem Warehouse liegenden Daten neben den Fundorten auch die Struktur und die Semantik (Beschreibung der Inhalte) erfasst sind. Für den Nutzer des Systems muss eine durchgängige Sicht sowohl über die lokalen Warehouse-Daten als auch über die nicht in dem System physisch gespeicherten aber zugreifbaren Daten angeboten werden. 6. Security Man stelle sich ein Logisches Data Warehouse vor, das in Ergänzung zu den bestehenden Warehouse-Daten immer mal wieder zusätzlich in das eine oder andere Quellsystem hineingreift um dort spontan, meist operative Daten, abzugreifen. Die Benutzer dieser Daten werden, wenn sie über ein Data Warehouse zugreifen, meist nicht dieselben sein, wie die Benutzer, die in den Quellsystemen für Datenzugriffe berechtigt sind. Es muss also für das LDW ein zusätzliches Berechtigungsverfahren implementiert werden, das sich an den Richtlinien der Sourcen orientiert. 7. Konsumenten In vielen Betrachtungen des LDW kommt dieser Aspekt nicht vor. Es ist aber nur konsequent, wenn auch die Konsumentenseite, spricht, die Art der Verwendung virtuell, also frei wählbar ist. Dies meint z. B. die Austauschbarkeit von BI-Tools und Analyse-Verfahren, meint aber auch die Flexibilität der Auswertedatenmodelle. Es handelt sich bei dem LDW um die Virtualisierung von Datenzugriffen, also das Lesen von Informationen auf so nicht vorhandene Daten, ob die Daten nun außerhalb des Warehouse-Systems liegen oder innerhalb. Abhängig von dem Informationsbedarf legt man eine passende Virtualisierung auf. Mit virtuellen Sichten schafft man passende Auswertemodelle, ohne die physikalische Datenbasis im Data Warehouse zu verändern. Die potenzielle Austauschbarkeit von Analysewerkzeugen ist dann ein Selbstläufer. Ein LDW sollte nicht für eine bestimmte Verwendung hin entwickelt werden, denn auch die Art der Verwendung kann sich spontan ändern. 5 4 Wenn auch beschränkt: In den meisten bestehenden Warehouse-Systemen fehlen echte Metadaten-Auskünfte. Also z. B. die Information welche Tabellen mit welchen anderen Tabellen gemeinsam sinnvo9ll abfragbar sind, welche Tabellen Fakten enthalten und welche Tabellen Dimensionen mit entsprechenden Hierarchien. 5 Dies gilt auch schon für das klassische Data Warehouse, denn die Informationen eines Warehouse-Systems sind meist langlebiger als ein konkreter Analysebedarf, der über eine spezifische Technologie (Tool) abgedeckt wird.

11 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 11 Wie unterstützt das Oracle Data Warehouse das Konzept des LDW Ein erster wichtiger Punkt in der Philosophie des Oracle Data Warehouse, auch bzgl. des LDW-Konzeptes, ist die Standardisierung mittels SQL. D. h. alle Daten, ob sie im zentralen Data Warehouse oder außerhalb liegen, sollten mittels SQL zugreifbar sein. Das gilt ebenso für die Konsumenten. Diese sollten mittels SQL abfragen können. Das bedeutet, dass im Oracle Data Warehouse eine Transformation der Formate stattfindet. Mit dieser Transformation sind dann auch weitere Anforderungen leicht lösbar, z. B. die Metadaten-Abbildung oder Teile der Security-Anforderung. Die zentrale Rolle von SQL bei der Virtualisierung von Vereinheitlichung von Zugriffen durch das Oracle Warehouse und anschließbare Systeme Der zweite Aspekt ist die Vermeidung von unnötigen Datentransporten. D. h., Daten sollten an Ort und Stelle analysiert werden, wenn dies möglich ist. Das ist nicht möglich, wenn Daten aus unterschiedlichen Quellen über einen Join zusammengeführt werden sollen. Die einzelnen Anforderungen des LDW-Konzeptes werden in der Folge beschrieben. 1. Welche technischen Sourcen lassen sich anbinden? Alle oben genannten technischen Source-Systeme lassen sich anbinden. Daten können an ihren Orten und in ihren Systemen bleiben. Der Zugriff erfolgt in nahezu allen Fällen, von der Position der Oracle Datenbank aus. D. h., es müssen keine Prozesse oder Vorkehrungen in den jeweiligen Quellsystemen erfolgen. (Auf die technische Umsetzung wird weiter unten eingegangen).

12 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 12 Oracle Warehouse und anschließbare Systeme 2. Welches Zugriffsverfahren steht zur Verfügung Alle besprochen Verfahren sind möglich. Alles, was direkt zugegriffen werden kann, ist auch im Batch möglich und umgekehrt. Ist eine Fremd-Datenbank z. B. über einen Select-ODBC-Zugriff erreichbar, so gelingt dies natürlich auch im Batch-Verfahren, weil man in einem Batch-Job genauso mit Kommandos agieren kann, als wäre man online. 6 Darüber hinaus erlaubt die Datenbank Optimierungen, um große Datenmengen zu bewegen, wenn dies nötig ist. Durch das Verwenden von passenden Adaptern oder auch durch Webservice-Zugriffe kann man zu jedem Zeitpunkt und beliebig häufig auf Remote-Daten aus der Datenbank heraus zugreifen. Auch umgekehrt lässt sich die Datenbank remote ansteuern, um diese als Senke für Nachrichten zu nutzen. Das Oracle Data Warehouse mit der Datenbank ist also an sich Batch-, Online- und Realtime-fähig. 3. Welche Zugriffstechniken stehen zur Verfügung Hier muss man zwischen den unterschiedlichen technischen Sourcen unterscheiden. a) Für Flat Files gibt seit den frühen 2000er Jahren External Tables. Die Textdaten, welcher Art auch immer (beliebige Formate und Zeichensätze), verbleiben außerhalb der Datenbank. Sie können aber mittels SQL aus der Datenbank heraus so behandelt werden, als wären es Datenbanktabellen. 7. Wir werden noch sehen, dass das External Table Konzept auch für andere technische Sourcen verwendet wird. 6 Im Batch-Verfahren wird ebenso eine Datenbank-Session eröffnet, wie in einem Online- Zugriff. Es stehen die gleichen Kommandos zur Verfügung. 7 Mehr Informationen zu External Tables in der Oracle Dokumentation oder auch in diesem Whitepaper

13 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 13 b) Auf Oracle-DBs greift man mit dem altbekannten Database-Link-Mechanismus zu. Auch diese Technik erlaubt Zugriffe mittels SQL. Tabellen in einer Remote- Oracle-Datenbank erscheinen wie lokale Tabellen im Data Warehouse. 8 c) Für Nicht-Oracle-DBs gibt es die (bei einigen gar nicht mehr bekannten) Gateways. Anders als die heute oft favorisierten Replikationsmechanismen wie GoldenGate, verbleiben die Daten, wie bei dem LDW-Konzept gefordert, in dem Quellsystem. Es werden nur diejenigen Daten abgegriffen, die nach einem auf dem Quellsystem stattgefundenen Filter- und Selektionsvorgang übrig bleiben. Man muss also nicht erst Daten bewegen, um festzustellen, ob man sie braucht. Der Zugriffsmechanismus über Gateway erfolgt analog zur Database Link Mechanik. Auch für die Gateway-Technik ist SQL das Zugriffsmittel. d) Informationen über das World Wide Web abzurufen ist heute Standard. Ob man direkt aus der Datenbank zugreift oder über eine Middleware-Apparatur mit noch mehr flexiblen Möglichkeiten, muss man separat entscheiden. Aber auch hier ist der Einsatz von SQL möglich. 9 e) Auch auf HDFS-Files (Hadoop) kann man seit Sommer 2014 direkt aus der Datenbank heraus mit SQL zugreifen. Ähnlich wie bei den Storage-Zellen einer Exadata-Maschine, hat man auf jeden Knoten eines Hadoop-Clusters eine Scan-Software gebracht, die die einzelnen Blöcke einer Hadoop-Datei parallel lesen und analysieren kann. Auch hier spielen External Tables in der Oracle Datenbank eine zentrale Rolle. Sie verfügen über einen Oracle_HADOOP- und alternativ einen ORACLE_HIVE-Adapter, der mit den Scan-Prozessen auf den Hadoop-Clustern kommuniziert. Die Strukturbeschreibung zum Erstellen der External Tables bezieht während der Definition der External Table aus dem Hive-Metastore über einen automatisierten Extrakt-Porzess 10. f) Analoges gilt für die nosql-datenbank von Oracle. Für weitere nosql- Datenbanken anderer Hersteller sind ebenfalls External-Table Adapter geplant. g) Mit der R-Schnittstelle ORE (Oracle R Enterprise) gibt es Möglichkeiten, die bislang recht unbekannt sind. Zum einen verfügt die Open Source-Sprache R Zugriffspakte auf nahezu alle Datenarten (auch Hadoop). Zum anderen können gelesene Daten, die R als sog. R-Objekt im Hauptspeicher hält sofort und 1:1 in Datenbanktabellen oder Views umgewandelt werden. Solche R- Zugriffe auf Daten sind als Script verpackt auch über SQL direkt aus der Datenbank heraus aufrufbar. Man kann also von einem Direkt-Zugriff auf Daten sprechen. Ein Batch Lauf ist nicht nötig. 8 Siehe Oracle Doku: https://docs.oracle.com/database/121/sqlrf/statements_5006.htm#sqlrf https://docs.oracle.com/middleware/1212/owsm/ 10 Siehe

14 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 14 h) ODI (Oracle Data Integrator und Golden Gate sollten hier nur kurz erwähnt werden. Sie liefern zwar zu allen denkbaren technischen Source-Systemen passende Schnittstellen. Der Einsatz läuft aber in der Regel entweder auf eine Batch-Verarbeitung oder permanentes Replizieren hinaus. Das sind sicherlich machbare Verfahren, zumal man Batch-Laufzeiten auch auf weniger Sekunden reduzieren kann. Aber das Herbeischaffen von Daten mittels spontanem SQL- Aufruf, während die Quelldaten in dem Source-System verbleiben, ist ein anderes Konzept. Zugriffstechniken des Oracle Data Warehouse auf remote liegende Datenobjekte 4. Formate und Oracle Remote liegende Datenbestände können, wie oben beschrieben, in unterschiedlichen Formaten vorliegen. Aufgrund der in dem Abschnitt zuvor beschriebenen Zugriffstechniken muss man sich um diese Formate nicht kümmern, da die Formatumwandlung (XML -> relationale Struktur, JSON -> relationale Struktur, CSV -> relationale Struktur, KeyValue -> relationale Struktur) bereits in den jeweiligen Adaptern erfolgt. Es gibt jedoch eine Variante, bei der man sich um Formate Gedanken machen muss, und zwar in dem Fall, in dem man remote liegende Daten temporär in eine Art operational Datastore innerhalb des Data Warehouse kopiert. In diesem Fall repliziert man operative Daten in das Warehouse, um Analysezugriffe zu vereinfachen. a) CSV-Objekte liest man über External Tables direkt in relationale Tabellen. b) Ebenso KeyValue Store Objekte mit dem Loader for Hadoop.. Auch hier finden wieder External Tables Verwendung und das Ergebnis sind relationale Tabellen.

15 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 15 c) XML-Objekte werden in XML-Tabellen innerhalb der Datenbank geladen. Mit den Möglichkeiten der XML-DB greift man auf hier mit SQL relational zu. 11 d) Ähnlich verfährt man mit JSON-Objekten. Auch dieses Format kann man wie XML in die Datenbank legen, und es mit SQL abfragen.. Bei allen genannten Verfahren kann man ODI oder Golden Gate als Tools und zur Vereinfachung einsetzen. Der Aufbau eines operational Data Stores als temporärer Hilfsdatenbestand Es sollte noch einmal erwähnt werden, dass aus Sicht des LDW-Konzeptes die Einrichtung eines Operational Data Stores nur eine Hilfskonstruktion darstellt, wenn ein direkter Zugriff auf Daten in den Quellsystemen nicht möglich ist. Denn ein Operational Data Store muss zusätzlich durch eine Kopie mit Daten gefüllt werden. 5. LDW-Metadaten mit Oracle Aufgrund des SQL-Zugriffs auf die meisten Objekte ist das Datenbank-Dictionary ein einfaches und praktisches Hilfsmittel. Es dient als Metadatensystem. Hier sind Tabellen mit ihren Spalten dokumentiert. Sobald External Tables existieren, existieren auch Metadaten für alle Objekte, auf die man mit External Tables zugreift: a) Tabellen aus fremden Datenbanksystemen mit Oracle-konformen Feldtypen b) Datei-Strukturen (CSV und Fixed Length) c) HDSF, Hive-Objekte, Übernahme der Metadaten des Hive Metastore Für andere Objekte wie JSON-/XML-Strukturen oder den Value-Part bei Key Value Objekten sind Metadaten nur über einen expliziten Beschreibungsvorgang, verbal oder über einen Pseudo-Code erhältlich. JSON- und XML-Objekte führen ihre eigenen 11 Siehe hierzu

16 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 16 Metadaten in dem Objekt selbst mit sich, die aufgrund ihrer Vielfältigkeit nicht generisch (im Sinne eines Metadaten-Repositories, oder des Oracle Datenbank- Dictionaries) beschreibbar sind. Bezüglich der Metadatenanforderung des LDW sind die größten Herausforderungen zu lösen. Metadaten entstehen auch in dem Oracle Data Warehouse erst durch einen Definitionsprozess der jeweiligen Objekte. D. h., es muss zunächst ein Objekt, z. B. eine External Table zum Lesen einer HDFS-Datei, mittels der DDL-Anweisung CREATE erstellt werden, damit auch Metadaten zur Verfügung stehen. Dies setzt bereits besondere Kenntnisse über die Objektstruktur und den technischen Zugriffsweg auf das Objekt voraus. Eine generische, allgemeine oder rein fachliche Beschreibung der Objekte reicht nicht aus. Um die Problematik zu verdeutlichen, stelle man sich den Alltag der heute oft diskutierten Rolle des Data Scientist vor. Er hat es mit einer Vielzahl von Objekten, vor allem jenseits der bekannten und einfach zu bedienenden SQL-Datenbanken zu tun. Bevor er die Qualität und Zweckdienlichkeit der Inhalte von Daten bewerten kann, muss er technische Zugänge definieren, um diese Daten überhaupt zu lesen. An dieser Stelle bewährt sich Oracles Weg, SQL als Zugriffs- und Beschreibungssprache für die vielen unterschiedlichen technischen Daten-Sourcen und Formate zu nutzen. Für SQL gibt es schon seit Jahren sehr weit entwickelte Werkzeuge, die auch für die Metadaten-Beschaffung eine Reihe von Wizards anbieten. Oracle hat in den letzten Jahren den SQL-Developer für diesen Zweck kontinuierlich weiter entwickelt. 12 a) Die Datenbank Dictionaries vieler Nicht-Oracle Datenbanken lassen sich direkt auslesen. b) Das Format von beliebigen Textdaten lässt sich bestimmen. External Tables werden automatisch generiert. c) Die Struktur von HDFS- und Hive-Objekten kann mit Hilfe der Revers Engineering-Funktion des Data Modeler (eine Datenmodellierungs- Komponente des SQL Developer) aus dem Hive Metastore ausgelesen werden. Aus diesen Metadaten generiert der SQL Developer schließlich die External Tables, mit denen man HDFS- oder Hive-Objekte lesen kann. 6. Security im LDW-Konzept mit Oracle Auch der Security-Aspekt des LDW wird entsprechend abgedeckt. Bei virtuellen Zugriffen auf verteilte Daten müssen die Zugriffsschutzeinrichtungen der jeweiligen Quelldatensysteme mit in die Datenbank hinein übernommen werden. Wird z. B. ein unternehmensweites LDAP-Verzeichnis zur zentralen Benutzerverwaltung eingesetzt, so kann man solche Security-Informationen in ein Rollenkonzept in der Datenbank übernehmen. Gerade bei Daten aus operativen Systemen ist dann eine gezielte Maskierung von Teilen der Informationen (bestimmte Spalten oder Zeilen) nötig.. Es 12 Siehe hierzu

17 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 17 reicht also völlig aus, tabellenartige Objekte zu schützen, die in dem Datenbank- Dictionary dokumentiert sind. 7. Nutzer- (Konsumenten-) Neutralität / Virtualisierung der Nutzermodelle Der Titel dieses Punktes ist etwas irreführend. Im Gegensatz zu den vorgenannten 6 Aspekten, bei denen es um die Zugriffe auf außerhalb des Data Warehouse liegende Daten-Sourcen geht, befasst sich dieser Punkt mit der Verwendung der Daten innerhalb des Data Warehouse. Die Informationsbedürfnisse der Benutzer können sich ändern. In der Folge ändern sich auch die abgefragten Datenobjekte oder auch sogar die Werkzeuge, mit denen die Benutzer zugreifen. Bislang sind in solchen Fällen neue Auswertemodelle zu entwerfen und die entstehenden neuen Tabellen sind mit ETL-Aufwand zu befüllen. Auch hier zieht das Konzept der Virtualisierung, nur dass die Datenobjekte innerhalb des Warehouse und nicht außerhalb liegen. Auswertemodelle entstehen nur auf einer logischen Ebene und nicht als Tabellenwerk in einer Datenbank. Des Oracle Data Warehouse nutzt in der aktuellen Version ( ) hierfür die neue In-Memory Option. Das Prinzip ist sehr einfach: Star Schemen, als die dem Endbenutzer zugewandten multidimensionalen Modelle, werden nicht mehr persistent und hart modelliert. Sondern sie bestehen aus einer Ansammlung von Datenbank-Views. Deren Basistabellen befinden sich im Hauptspeicher der Datenbank und die Views sind somit extrem schnell abfragbar. Die SQL-Selects hinter den Views werden erst zum Abfragezeitpunkt auf das Star Schema aufgelöst. Der Vorteil dieser Vorgehensweise liegt in der Möglichkeit, die Struktur von Dimensionen und Fakten schnell zu ändern. Konzept der Virtualisierung von Star Schemen

18 Das Konzept des Logical Data Warehouse im Oracle Data Warehouse nutzen 18 Resümee Es wird hoffentlich jetzt niemand sein bestehendes Warehouse wegwerfen oder auf den Kopf stellen, nur um sich ein modernes Look and Feel des Logical Data Warehouse zuzulegen. Aber die Ausführungen haben gezeigt, dass es eine Reihe von Stellen gibt, an denen heute mehr Flexibilität machbar ist. Immer häufiger stehen wir aber auch schon mit dem Rücken an der Wand, d. h., die Anforderungen aus den Fachabteilungen überrollen die Möglichkeiten und Ressourcen der Warehouse- Abteilung. Es wurde gezeigt, wie mit einfachen Mitteln die Situation etwas entschärft werden kann: Einen neuen technischen Zugriff auf remote liegende Daten zu legen, diese dann über eine View-Definition zu kapseln und als lokal zu präsentieren, ist sicher schneller umgesetzt und mit weniger Kostenrisiko verbunden, als eine weitere ETL-Strecke über ein Projekt zu implementieren. Man sollte sich dennoch darüber bewusst sein, dass ein Remote-Zugriff noch keine echte Integration darstellt. Integration ist erst dann erreicht, wenn die Remote-Daten mit anderen Daten fachlich und strukturell verzahnt sind. Die Vorteile des LDW-Konzeptes sind: Verminderter ETL Aufwand und damit höhere Reaktionsfähigkeit. Schnelleres Umsetzen von Modelländerungen. Verminderung des Datenvolumens im zentralen Warehouse. Erhöhung der Reichweite eines Data Warehouse, weil ein breiteres Spektrum an Daten zur Verfügung steht. Höhere Aktualität von einigen Daten, da operative Daten unmittelbar einbezogen werden können. Die neuen technischen Möglichkeiten in der Oracle Datenbank, Big Data SQL und die Column-Store In-Memory Option befördern die Diskussion rund um das Logical Data Warehouse. Alfred Schlaucher, Oracle, Januar 2015

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Architektur und Konzepte Josef Kolbitsch Manuela Reinisch Übersicht Mehrstufiges BI-System Architektur eines Data Warehouses Architektur eines Reporting-Systems Benutzerrollen in

Mehr

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle DATA WAREHOUSE Big Data Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen aus Unternehmens- Daten ziehen! Datenmengen, Performance und Kosten Daten als Geschäftsmodell

Mehr

Oracle BI&W Referenz Architektur Big Data und High Performance Analytics

Oracle BI&W Referenz Architektur Big Data und High Performance Analytics DATA WAREHOUSE Oracle BI&W Referenz Architektur Big Data und High Performance Analytics Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen

Mehr

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg

Review Freelancer-Workshop: Fit für Big Data. Mittwoch, 29.04.2015 in Hamburg Review Freelancer-Workshop: Fit für Big Data Mittwoch, 29.04.2015 in Hamburg Am Mittwoch, den 29.04.2015, hatten wir von productive-data in Zusammenarbeit mit unserem langjährigen Partner Informatica zu

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

Marketing Intelligence Vorstellung der Softwarekomponenten. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Vorstellung der Softwarekomponenten. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Vorstellung der Softwarekomponenten Josef Kolbitsch Manuela Reinisch Übersicht Übersicht über die Systemlandschaft Übersicht über die Werkzeuge Workshop Systemlandschaft 1/8 Klassische

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

Einsatz von In-Memory zur Virtualisierung im Data Warehouse

Einsatz von In-Memory zur Virtualisierung im Data Warehouse Virtualisierung im Data Warehouse mit In-Memory 1 Einsatz von In-Memory zur Virtualisierung im Data Warehouse Es gibt mittlerweile eine Reihe von In-Memory-Techniken für Datenbank-Systeme im Data Warehouse

Mehr

Wann nutze ich welchen semantischen Layer im Kontext von SAP HANA? [B3] Francis Fink Uetliberg, 16.09.2014 www.boak.ch

Wann nutze ich welchen semantischen Layer im Kontext von SAP HANA? [B3] Francis Fink Uetliberg, 16.09.2014 www.boak.ch Wann nutze ich welchen semantischen Layer im Kontext von SAP HANA? [B3] Francis Fink Uetliberg, 16.09.2014 www.boak.ch Obwohl mit der Verwendung von SAP HANA ein neuer semantischer Layer zum Einsatz kommt,

Mehr

Agile Analytics Neue Anforderungen an die Systemarchitektur

Agile Analytics Neue Anforderungen an die Systemarchitektur www.immobilienscout24.de Agile Analytics Neue Anforderungen an die Systemarchitektur Kassel 20.03.2013 Thorsten Becker & Bianca Stolz ImmobilienScout24 Teil einer starken Gruppe Scout24 ist der führende

Mehr

Ein Beispiel. Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse?

Ein Beispiel. Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse? Ein Beispiel Ein Unternehmen will Internettechnologien im Rahmen des E- Business nutzen Welche Geschäftsprozesse? Dipl.-Kfm. Claus Häberle WS 2015 /16 # 42 XML (vereinfacht) visa

Mehr

Oracle BI Publisher in der Oracle Business Intelligence Enterprise Edition Plus. Eine Mehrwertdiskussion

Oracle BI Publisher in der Oracle Business Intelligence Enterprise Edition Plus. Eine Mehrwertdiskussion Oracle BI Publisher in der Oracle Business Intelligence Enterprise Edition Plus Eine Mehrwertdiskussion Der Oracle BI Publisher als Teil der Oracle BI Suite versus Oracle BI Publisher Standalone Der Oracle

Mehr

NoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse

NoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse NoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse Carsten Czarski Oracle Deutschland B.V. & Co KG Big Data Betrachten von Daten die bislang nicht betrachtet wurden

Mehr

Mobile Analytics mit Oracle BI - was steckt in den Apps?

Mobile Analytics mit Oracle BI - was steckt in den Apps? Mobile Analytics mit Oracle BI - was steckt in den Apps? Schlüsselworte Oracle BI, OBIEE, Mobile, Analytics Einleitung Gerd Aiglstorfer G.A. itbs GmbH Eching Oracle erweiterte im Laufe dieses Jahres das

Mehr

Datenbankimplementierung

Datenbankimplementierung ENTWICKLUNG Datenbankimplementierung Datenbankimplementierung Christian Zahler Sofern Ausführungen auf SQL Server 2005 Bezug nehmen, gelten sie gleichermaßenauchfürsql Server 2008. 6 Client-Programmierung

Mehr

Performance by Design Wie werden performante ETL-Prozesse erstellt?

Performance by Design Wie werden performante ETL-Prozesse erstellt? Performance by Design Wie werden performante ETL-Prozesse erstellt? Reinhard Mense ARETO Consulting Bergisch Gladbach Schlüsselworte: DWH, Data Warehouse, ETL-Prozesse, Performance, Laufzeiten, Partitionierung,

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

BI around the world - Globale Reporting Lösungen bei Continental Automotive

BI around the world - Globale Reporting Lösungen bei Continental Automotive BI around the world - Globale Reporting Lösungen bei Continental Automotive Stefan Hess Trivadis GmbH Stuttgart Herbert Muckenfuss Continental Nürnberg Schlüsselworte: Oracle BI EE, Business Intelligence,

Mehr

Cubeware Connectivity for SAP Solutions

Cubeware Connectivity for SAP Solutions Cubeware Connectivity for SAP Solutions Beispiele und Anwendungsfälle 1. Modellierung, Extraction, Transformation und Loading mit Datenquelle SAP R/3 und mysap ERP Mit Hilfe des Cubeware Importers und

Mehr

ETL in den Zeiten von Big Data

ETL in den Zeiten von Big Data ETL in den Zeiten von Big Data Dr Oliver Adamczak, IBM Analytics 1 1 Review ETL im Datawarehouse 2 Aktuelle Herausforderungen 3 Future of ETL 4 Zusammenfassung 2 2015 IBM Corporation ETL im Datawarehouse

Mehr

Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH

Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH Dani Schnider Principal Consultant Business Intelligence BI Trilogie, Zürich/Basel 25./26. November 2009 Basel Baden Bern Lausanne Zürich

Mehr

In diesem Abschnitt wollen wir uns mit der Architektur von Datenbank Managements Systemen beschäftigen.

In diesem Abschnitt wollen wir uns mit der Architektur von Datenbank Managements Systemen beschäftigen. 1 In diesem Abschnitt wollen wir uns mit der Architektur von Datenbank Managements Systemen beschäftigen. Zunächst stellt sich die Frage: Warum soll ich mich mit der Architektur eines DBMS beschäftigen?

Mehr

7.4 Analyse anhand der SQL-Trace. 7.3.5 Vorabanalyse mit dem Code Inspector

7.4 Analyse anhand der SQL-Trace. 7.3.5 Vorabanalyse mit dem Code Inspector 7.4 Analyse anhand der SQL-Trace 337 7.3.5 Vorabanalyse mit dem Code Inspector Der Code Inspector (SCI) wurde in den vorangegangenen Kapiteln immer wieder erwähnt. Er stellt ein paar nützliche Prüfungen

Mehr

XML-Datenaustausch in der Praxis Projekt TOMIS bei der ThyssenKrupp Stahl AG

XML-Datenaustausch in der Praxis Projekt TOMIS bei der ThyssenKrupp Stahl AG Mittwoch, 9. November 2005 13h00, Bruno-Schmitz-Saal 18. Deutsche ORACLE-Anwenderkonferenz XML-Datenaustausch in der Praxis Projekt TOMIS bei der ThyssenKrupp Stahl AG Volker Husemann Thyssen Krupp Stahl

Mehr

Moderne Data-Warehouse-Architekturen

Moderne Data-Warehouse-Architekturen Moderne Data-Warehouse-Architekturen Autor: Alfred Schlaucher, ORACLE Deutschland GmbH DOAGNews Q3_2004 Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der

Mehr

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank

Mehr

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Schwierigkeiten bei der Umsetzung. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Schwierigkeiten bei der Umsetzung Josef Kolbitsch Manuela Reinisch Übersicht Schwierigkeiten bei der Umsetzung eines BI-Systems Schwierigkeiten der Umsetzung 1/13 Strategische Ziele

Mehr

Oracle Warehouse Builder 3i

Oracle Warehouse Builder 3i Betrifft Autoren Art der Info Oracle Warehouse Builder 3i Dani Schnider (daniel.schnider@trivadis.com) Thomas Kriemler (thomas.kriemler@trivadis.com) Technische Info Quelle Aus dem Trivadis Technologie

Mehr

Survival Guide für Ihr Business Intelligence-Projekt

Survival Guide für Ihr Business Intelligence-Projekt Survival Guide für Ihr Business Intelligence-Projekt Sven Bosinger Solution Architect BI Survival Guide für Ihr BI-Projekt 1 Agenda Was ist Business Intelligence? Leistungsumfang Prozesse Erfolgsfaktoren

Mehr

Business Intelligence Data Warehouse. Jan Weinschenker

Business Intelligence Data Warehouse. Jan Weinschenker Business Intelligence Data Warehouse Jan Weinschenker 28.06.2005 Inhaltsverzeichnis Einleitung eines Data Warehouse Data Warehouse im Zusammenfassung Fragen 3 Einleitung Definition: Data Warehouse A data

Mehr

EXASOL Anwendertreffen 2012

EXASOL Anwendertreffen 2012 EXASOL Anwendertreffen 2012 EXAPowerlytics Feature-Architektur EXAPowerlytics In-Database Analytics Map / Reduce Algorithmen Skalare Fkt. Aggregats Fkt. Analytische Fkt. Hadoop Anbindung R LUA Python 2

Mehr

Mit dem 6. Rundbrief gelange ich mit einem Update des Zeitservers an Alle.

Mit dem 6. Rundbrief gelange ich mit einem Update des Zeitservers an Alle. Rundbrief 6 Aktuelles aus der SAS Softwarewelt. 0.1 Zeit Server Update Werte Anwender Mit dem 6. Rundbrief gelange ich mit einem Update des Zeitservers an Alle. Das Update wurde aus Kompatibilitätsgründen

Mehr

ANTARES Informations-Systeme GmbH Stuttgarter Strasse 99 D-73312 Geislingen Tel. +49 73 31 / 30 76-0 Fax +49 73 31 / 30 76-76 www.antares-is.

ANTARES Informations-Systeme GmbH Stuttgarter Strasse 99 D-73312 Geislingen Tel. +49 73 31 / 30 76-0 Fax +49 73 31 / 30 76-76 www.antares-is. ANTARES Informations-Systeme GmbH Stuttgarter Strasse 99 D-73312 Geislingen Tel. +49 73 31 / 30 76-0 Fax +49 73 31 / 30 76-76 www.antares-is.de insight und dynasight sind eingetragene Markenzeichen der

Mehr

Datenpool statt Datengrab - E-Mail-Archivierung mit Oracle Universal Content Management

Datenpool statt Datengrab - E-Mail-Archivierung mit Oracle Universal Content Management Datenpool statt Datengrab - E-Mail-Archivierung mit Oracle Universal Content Management Georg Wittmann QUERPLEX GmbH Nürnberg Katerina Mpalaska ORACLE Deutschland GmbH Stuttgart Schlüsselworte: E-Mailarchivierung,

Mehr

1Ralph Schock RM NEO REPORTING

1Ralph Schock RM NEO REPORTING 1Ralph Schock RM NEO REPORTING Bereit für den Erfolg Business Intelligence Lösungen Bessere Entscheidungen Wir wollen alle Mitarbeiter in die Lage versetzen, bessere Entscheidungen schneller zu treffen

Mehr

Oracle Scorecard & Strategy Management

Oracle Scorecard & Strategy Management Oracle Scorecard & Strategy Management Björn Ständer ORACLE Deutschland B.V. & Co. KG München Schlüsselworte: Oracle Scorecard & Strategy Management; OSSM; Scorecard; Business Intelligence; BI; Performance

Mehr

RE.one. Self Service Information Management für die Fachabteilung

RE.one. Self Service Information Management für die Fachabteilung RE.one Self Service Information Management für die Fachabteilung Das Ziel Verwertbare Informationen aus Daten gewinnen Unsere Vision Daten Info Data Warehousing radikal vereinfachen in einem Tool Die Aufgabe

Mehr

Information-Design-Tool

Information-Design-Tool Zusatzkapitel Information-Design-Tool zum Buch»HR-Reporting mit SAP «von Richard Haßmann, Anja Marxsen, Sven-Olaf Möller, Victor Gabriel Saiz Castillo Galileo Press, Bonn 2013 ISBN 978-3-8362-1986-0 Bonn

Mehr

Prof. Dr.-Ing. Rainer Schmidt 1

Prof. Dr.-Ing. Rainer Schmidt 1 Prof. Dr.-Ing. Rainer Schmidt 1 Business Analytics und Big Data sind Thema vieler Veröffentlichungen. Big Data wird immer häufiger bei Google als Suchbegriff verwendet. Prof. Dr.-Ing. Rainer Schmidt 2

Mehr

QUICK-START EVALUIERUNG

QUICK-START EVALUIERUNG Pentaho 30 für 30 Webinar QUICK-START EVALUIERUNG Ressourcen & Tipps Leo Cardinaals Sales Engineer 1 Mit Pentaho Business Analytics haben Sie eine moderne und umfassende Plattform für Datenintegration

Mehr

Vorwort zur 5. Auflage... 15 Über den Autor... 16

Vorwort zur 5. Auflage... 15 Über den Autor... 16 Vorwort zur 5. Auflage...................................... 15 Über den Autor............................................ 16 Teil I Grundlagen.............................................. 17 1 Einführung

Mehr

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004

BIW - Überblick. Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 BIW - Überblick Präsentation und Discoverer Demonstration - Teil 1 - Humboldt Universität zu Berlin am 10. Juni 2004 Annegret Warnecke Senior Sales Consultant Oracle Deutschland GmbH Berlin Agenda Überblick

Mehr

OLAP und der MS SQL Server

OLAP und der MS SQL Server OLAP und der MS SQL Server OLAP und der MS SQL Server OLAP-Systeme werden wie umfangreiche Berichtssysteme heute nicht mehr von Grund auf neu entwickelt. Stattdessen konzentriert man sich auf die individuellen

Mehr

Apache HBase. A BigTable Column Store on top of Hadoop

Apache HBase. A BigTable Column Store on top of Hadoop Apache HBase A BigTable Column Store on top of Hadoop Ich bin... Mitch Köhler Selbstständig seit 2010 Tätig als Softwareentwickler Softwarearchitekt Student an der OVGU seit Oktober 2011 Schwerpunkte Client/Server,

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes Hadoop Eine Open-Source-Implementierung von MapReduce und BigTable von Philipp Kemkes Hadoop Framework für skalierbare, verteilt arbeitende Software Zur Verarbeitung großer Datenmengen (Terra- bis Petabyte)

Mehr

Vom Single Point of Truth zur Single Version of the Facts. Data Warehousing zu Beginn des BigData-Zeitalters. inspire IT - Frankfurt 11. 12.05.

Vom Single Point of Truth zur Single Version of the Facts. Data Warehousing zu Beginn des BigData-Zeitalters. inspire IT - Frankfurt 11. 12.05. Vom Single Point of Truth zur Single Version of the Facts Data Warehousing zu Beginn des BigData-Zeitalters inspire IT - Frankfurt 11. 12.05.2015 Fahmi Ouled-Ali Kabel Deutschland Marian Strüby OPITZ CONSULTING

Mehr

Datenbanken (WS 2015/2016)

Datenbanken (WS 2015/2016) Datenbanken (WS 2015/2016) Klaus Berberich (klaus.berberich@htwsaar.de) Wolfgang Braun (wolfgang.braun@htwsaar.de) 0. Organisatorisches Dozenten Klaus Berberich (klaus.berberich@htwsaar.de) Sprechstunde

Mehr

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features 1. Übersicht Der MIK.etl.connector ist ein ETL-Tool - die Abkürzung steht für

Mehr

Adlerblick So gewinnen Sie einen Überblick über ein DWH Dr. Andrea Kennel InfoPunkt Kennel GmbH CH-8600 Dübendorf Schlüsselworte Einleitung

Adlerblick So gewinnen Sie einen Überblick über ein DWH Dr. Andrea Kennel InfoPunkt Kennel GmbH CH-8600 Dübendorf Schlüsselworte Einleitung Adlerblick So gewinnen Sie einen Überblick über ein DWH Dr. Andrea Kennel InfoPunkt Kennel GmbH CH-8600 Dübendorf Schlüsselworte DWH Projekt, Methodik, Stärken und Schwächen, Übersicht, Weg der Daten,

Mehr

In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI

In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI In-Memory Datenbanken im Kontext komplexer Analytics Pojekte am Beispiel der Otto Group BI Hanau, 25.02.2015 1 Titel der Präsentation, Name, Abteilung, Ort, xx. Monat 2014 Der Aufbau der Group BI Plattform

Mehr

Oracle-Statistiken im Data Warehouse effizient nutzen

Oracle-Statistiken im Data Warehouse effizient nutzen Oracle-Statistiken im Data Warehouse effizient nutzen Reinhard Mense ARETO Consulting Köln Schlüsselworte: DWH, Data Warehouse, Statistiken, Optimizer, Performance, Laufzeiten Einleitung Für die performante

Mehr

Man muss nicht auf das Data Warehouse verzichten, um Big Data zu machen - mit Oracle Big Data SQL geht beides zusammen

Man muss nicht auf das Data Warehouse verzichten, um Big Data zu machen - mit Oracle Big Data SQL geht beides zusammen Man muss nicht auf das Data Warehouse verzichten, um Big Data zu machen - mit Oracle Big Data SQL geht beides zusammen Die Big data Diskussion ist gereift auch bei uns in Deutschland, wo wir immer erst

Mehr

XAMPP-Systeme. Teil 3: My SQL. PGP II/05 MySQL

XAMPP-Systeme. Teil 3: My SQL. PGP II/05 MySQL XAMPP-Systeme Teil 3: My SQL Daten Eine Wesenseigenschaft von Menschen ist es, Informationen, in welcher Form sie auch immer auftreten, zu ordnen, zu klassifizieren und in strukturierter Form abzulegen.

Mehr

Konzeption eines Master-Data-Management-Systems. Sven Schilling

Konzeption eines Master-Data-Management-Systems. Sven Schilling Konzeption eines Master-Data-Management-Systems Sven Schilling Gliederung Teil I Vorstellung des Unternehmens Thema der Diplomarbeit Teil II Master Data Management Seite 2 Teil I Das Unternehmen Vorstellung

Mehr

Suche schlecht beschriftete Bilder mit Eigenen Abfragen

Suche schlecht beschriftete Bilder mit Eigenen Abfragen Suche schlecht beschriftete Bilder mit Eigenen Abfragen Ist die Bilderdatenbank über einen längeren Zeitraum in Benutzung, so steigt die Wahrscheinlichkeit für schlecht beschriftete Bilder 1. Insbesondere

Mehr

Modellbasierte Business Intelligence in der Praxis. Nürnberg, 10.11.2009

Modellbasierte Business Intelligence in der Praxis. Nürnberg, 10.11.2009 Modellbasierte Business Intelligence in der Praxis Nürnberg, 10.11.2009 I N H A L T 1. Warum Modelle für Business Intelligence (BI)? 2. Inhalte von Datenmodellen für BI 3. Inhalte von Prozessmodellen 4.

Mehr

Ein Schlüssel ist eine Menge von Attributen (also eines oder mehrere), die eine Datenzeile (Tupel) einer Tabelle eindeutig identifiziert

Ein Schlüssel ist eine Menge von Attributen (also eines oder mehrere), die eine Datenzeile (Tupel) einer Tabelle eindeutig identifiziert Maika Büschenfeldt Datenbanken: Skript 1 1. Was ist eine relationale Datenbank? In Datenbanken können umfangreiche Datenbestände strukturiert abgelegt werden. Das Konzept relationaler Datenbanken soll

Mehr

Business Intelligence Praktikum 1

Business Intelligence Praktikum 1 Hochschule Darmstadt Business Intelligence SS 2014 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 07.05.2014 Business Intelligence Praktikum

Mehr

Oracle Big Data SQL bringt Data Warehouse und Big Data zusammen

Oracle Big Data SQL bringt Data Warehouse und Big Data zusammen Oracle Big Data SQL bringt Data Warehouse und Big Data zusammen Alfred Schlaucher, ORACLE Deutschland B.V. & Co. KG Die Big-Data-Diskussion ist gereift auch bei uns in Deutschland, wo wir meistens etwas

Mehr

Zeitgemäße Verfahren für ganzheitliche Auswertungen

Zeitgemäße Verfahren für ganzheitliche Auswertungen Intelligente Vernetzung von Unternehmensbereichen Zeitgemäße Verfahren für ganzheitliche Auswertungen Sächsische Industrie- und Technologiemesse Chemnitz, 27. Juni 2012, Markus Blum 2012 TIQ Solutions

Mehr

Self-Service-BI die große Freiheit?

Self-Service-BI die große Freiheit? Self-Service-BI die große Freiheit? IT oder Fachbereich - wer profitiert wann von Self-Service-BI? Vortragende Nico Haag Klaus Kepert Self-Service im Alltag Längst Gewohnheit Bankautomaten Internet Kantine

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015 Abstrakt zum Vortrag im Oberseminar Graphdatenbanken Gero Kraus HTWK Leipzig 14. Juli 2015 1 Motivation Zur Darstellung komplexer Beziehungen bzw. Graphen sind sowohl relationale als auch NoSQL-Datenbanken

Mehr

pro4controlling - Whitepaper [DEU] Whitepaper zur CfMD-Lösung pro4controlling Seite 1 von 9

pro4controlling - Whitepaper [DEU] Whitepaper zur CfMD-Lösung pro4controlling Seite 1 von 9 Whitepaper zur CfMD-Lösung pro4controlling Seite 1 von 9 1 Allgemeine Beschreibung "Was war geplant, wo stehen Sie jetzt und wie könnte es noch werden?" Das sind die typischen Fragen, mit denen viele Unternehmer

Mehr

Kapitel 33. Der xml-datentyp. In diesem Kapitel: Der xml-datentyp 996 Abfragen aus xml-datentypen 1001 XML-Indizierung 1017 Zusammenfassung 1023

Kapitel 33. Der xml-datentyp. In diesem Kapitel: Der xml-datentyp 996 Abfragen aus xml-datentypen 1001 XML-Indizierung 1017 Zusammenfassung 1023 Kapitel 33 Der xml-datentyp In diesem Kapitel: Der xml-datentyp 996 Abfragen aus xml-datentypen 1001 XML-Indizierung 1017 Zusammenfassung 1023 995 996 Kapitel 33: Der xml-datentyp Eine der wichtigsten

Mehr

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik ARFA ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik Ralf Leipner Domain Architect Analytics, Risk Management & Finance 33. Berner Architekten

Mehr

30. Juni 2006 - Technische Universität Kaiserslautern. Paul R. Schilling

30. Juni 2006 - Technische Universität Kaiserslautern. Paul R. Schilling 30. Juni 2006 - Technische Universität Kaiserslautern Paul R. Schilling ! " #$% & '( ( ) *+, - '. / 0 1 2("$ DATEN SIND ALLGEGENWÄRTIG Bill Inmon, father of data warehousing Unternehmen In einer vollkommenen

Mehr

GIN WEAVER. Kontextsensitive Bereitstellung von Informationen: Relevante Inhalte zur richtigen Zeit

GIN WEAVER. Kontextsensitive Bereitstellung von Informationen: Relevante Inhalte zur richtigen Zeit GIN WEAVER Kontextsensitive Bereitstellung von Informationen: Relevante Inhalte zur richtigen Zeit GIN WEAVER Paradigmenwechsel von Suche, zur Bereitstellung von Informationen für Ihren Arbeitskontext

Mehr

Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns

Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns Travian Games nutzt Pentaho Datenintegration und Business Analytics zur Optimierung des Spieldesigns Pentaho ermöglicht Analyse der von den über 120 Millionen registrierten Spielern generierten Datenflut

Mehr

Wir befinden uns inmitten einer Zeit des Wandels.

Wir befinden uns inmitten einer Zeit des Wandels. Wir befinden uns inmitten einer Zeit des Wandels. Geräte Apps Ein Wandel, der von mehreren Trends getrieben wird Big Data Cloud Geräte Mitarbeiter in die Lage versetzen, von überall zu arbeiten Apps Modernisieren

Mehr

THEMA: SAS DATA INTEGRATION STUDIO FÜR MEHR TRANSPARENZ IM DATENMANAGEMENT EVA-MARIA KEGELMANN

THEMA: SAS DATA INTEGRATION STUDIO FÜR MEHR TRANSPARENZ IM DATENMANAGEMENT EVA-MARIA KEGELMANN WEBINAR@LUNCHTIME THEMA: SAS DATA INTEGRATION STUDIO FÜR MEHR TRANSPARENZ IM DATENMANAGEMENT EVA-MARIA KEGELMANN HERZLICH WILLKOMMEN BEI WEBINAR@LUNCHTIME Moderation Anne K. Bogner-Hamleh SAS Institute

Mehr

Dokumentation QuickHMI-Schnittstelle für Oracle Datenbanken

Dokumentation QuickHMI-Schnittstelle für Oracle Datenbanken Dokumentation QuickHMI-Schnittstelle für Oracle Datenbanken Version 2.0 D-28359 Bremen info@indi-systems.de Tel + 49 421-989703-30 Fax + 49 421-989703-39 Inhaltsverzeichnis Was ist die QuickHMI-Schnittstelle

Mehr

OCTOPUS Appointment System von ADCOTEL -- System Architektur Version 1.1 vom 23.02.2007 2005-2007 Adcotel GmbH. I. Übersicht

OCTOPUS Appointment System von ADCOTEL -- System Architektur Version 1.1 vom 23.02.2007 2005-2007 Adcotel GmbH. I. Übersicht Appointment System von ADCOTEL -- System Architektur Version 1.1 vom 23.02.2007 2005-2007 Adcotel GmbH I. Übersicht Dieses Dokument beschreibt aus technischer Sicht. Einsatzgebiet und Funktionen von Das

Mehr

O-BIEE Einführung mit Beispielen aus der Praxis

O-BIEE Einführung mit Beispielen aus der Praxis O-BIEE Einführung mit Beispielen aus der Praxis Stefan Hess Business Intelligence Trivadis GmbH, Stuttgart 2. Dezember 2008 Basel Baden Bern Lausanne Zürich Düsseldorf Frankfurt/M. Freiburg i. Br. Hamburg

Mehr

Hannover, 20.03.2015 Halle 5 Stand A36

Hannover, 20.03.2015 Halle 5 Stand A36 Integrierte Unternehmensinformationen als Fundament für die digitale Transformation vor allem eine betriebswirtschaftliche Aufgabe Hannover, 20.03.2015 Halle 5 Stand A36 Business Application Research Center

Mehr

10. Vorlesung: Datenorganisation SS 2007

10. Vorlesung: Datenorganisation SS 2007 10. Vorlesung: Datenorganisation SS 2007 8 Parallele Transaktionen 9 9.1 Drei-Ebenen Ebenen-Architektur 9.2 Verteilte Datenbanken 9.3 Client-Server Server-Datenbanken 9.4 Föderierte Datenbanken 9.5 Das

Mehr

Views in SQL. 2 Anlegen und Verwenden von Views 2

Views in SQL. 2 Anlegen und Verwenden von Views 2 Views in SQL Holger Jakobs bibjah@bg.bib.de, holger@jakobs.com 2010-07-15 Inhaltsverzeichnis 1 Wozu dienen Views? 1 2 Anlegen und Verwenden von Views 2 3 Schreibfähigkeit von Views 3 3.1 Views schreibfähig

Mehr

Vom HMI zum WebSCADA Portal

Vom HMI zum WebSCADA Portal Vom HMI zum WebSCADA Portal Teil 1. Skalierbare webbasierende Visualisierungsplattform: Das Bedienpanel als Basis Marcel Bühner Schlagworte wie Industrie 4.0, IoT (Internet of Things), Automation in the

Mehr

Unlimited Controlling

Unlimited Controlling smcolap Unlimited Controlling Heute müssen beliebige Bereiche eines Unternehmens schnell und effizient analysiert werden. Dabei darf es keine Rolle spielen, wo die Daten liegen und in welcher Relation

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Definition Informationssystem

Definition Informationssystem Definition Informationssystem Informationssysteme (IS) sind soziotechnische Systeme, die menschliche und maschinelle Komponenten umfassen. Sie unterstützen die Sammlung, Verarbeitung, Bereitstellung, Kommunikation

Mehr

Der Neue Weg zur Verschlüsselung von Datenbankinhalten

Der Neue Weg zur Verschlüsselung von Datenbankinhalten Der Neue Weg zur Verschlüsselung von Datenbankinhalten Da Häufigkeit und Schwere von Datendiebstahl zunehmen, ist es immens wichtig, dass Unternehmen vertrauliche und sensible Daten zusätzlich durch Verschlüsselung

Mehr

Anwendung des Prinzips der Doppik beim Aufbau eines Data Warehouses

Anwendung des Prinzips der Doppik beim Aufbau eines Data Warehouses Anwendung des Prinzips der Doppik beim Aufbau eines Data Warehouses Einführung Einer der Nachteile der Data Warehouse Technologie besteht daran, dass in einem Data Warehouse (DWH ) nur Momentaufnahmen

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Intelligence (BI): Von der. Nürnberg, 29. November 2011

Intelligence (BI): Von der. Nürnberg, 29. November 2011 Modelle für Business Intelligence (BI): Von der Anforderung zum Würfel Nürnberg, 29. November 2011 Warum Modelle für Business Intelligence (BI)? Warum Modelle für Business Intelligence (BI)? Bis zur Auswertung

Mehr

5.3 Der Tabellenpuffer. aktualität nicht so wichtig ist, Datenkonsistenz aber schon. Zur Verdeutlichung der Datenkonsistenz hilft folgendes Beispiel.

5.3 Der Tabellenpuffer. aktualität nicht so wichtig ist, Datenkonsistenz aber schon. Zur Verdeutlichung der Datenkonsistenz hilft folgendes Beispiel. 5 Pufferung aktualität nicht so wichtig ist, atenkonsistenz aber schon. Zur Verdeutlichung der atenkonsistenz hilft folgendes eispiel. ngenommen ein Internetshop führt eine kleine Preisanpassung während

Mehr

Near Realtime ETL mit Oracle Golden Gate und ODI. Lutz Bauer 09.12.2015

Near Realtime ETL mit Oracle Golden Gate und ODI. Lutz Bauer 09.12.2015 Near Realtime ETL mit Oracle Golden Gate und ODI Lutz Bauer 09.12.2015 Facts & Figures Technologie-orientiert Branchen-unabhängig Hauptsitz Ratingen 240 Beschäftigte Inhabergeführt 24 Mio. Euro Umsatz

Mehr

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit

BI Konsolidierung: Anspruch & Wirklichkeit. Jacqueline Bloemen. in Kooperation mit BI Konsolidierung: Anspruch & Wirklichkeit Jacqueline Bloemen in Kooperation mit Agenda: Anspruch BI Konsolidierung Treiber Was sind die aktuellen Treiber für ein Konsolidierungsvorhaben? Kimball vs. Inmon

Mehr

Seminare im Kontext des Data Warehouse für die Oracle Data Warehouse Kunden-Community. Organisatorisches. Gesamtübersicht

Seminare im Kontext des Data Warehouse für die Oracle Data Warehouse Kunden-Community. Organisatorisches. Gesamtübersicht Seminare im Kontext des Data Warehouse für die Oracle Data Warehouse Kunden-Community Bei den Seminaren der Oracle Data Warehouse Gruppe steht die Wissenvermittlung im Vordergrund. Die Themen werden anhand

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Analysen sind nur so gut wie die Datenbasis

Analysen sind nur so gut wie die Datenbasis Analysen sind nur so gut wie die Datenbasis Datenaufbereitung und Sicherung der Datenqualität durch den kontextbasierten MIOsoft Ansatz. Daten gelten längst als wichtiger Produktionsfaktor in allen Industriebereichen.

Mehr

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse

Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Data Warehouse Definition (1) http://de.wikipedia.org/wiki/data-warehouse Ein Data-Warehouse bzw. Datenlager ist eine zentrale Datensammlung (meist eine Datenbank), deren Inhalt sich aus Daten unterschiedlicher

Mehr

Content Management Datenbanken, Schnittstellen

Content Management Datenbanken, Schnittstellen Unterschiedlichste Informationen übersichtlich organisiert sypress Content Management Systemgruppe sypress bietet Ihnen Produkt oder Themen bezogen die Verwaltung beliebiger Inhalte. Die Speicherung erfolgt

Mehr

Peter Dikant mgm technology partners GmbH. Echtzeitsuche mit Hadoop und Solr

Peter Dikant mgm technology partners GmbH. Echtzeitsuche mit Hadoop und Solr Peter Dikant mgm technology partners GmbH Echtzeitsuche mit Hadoop und Solr ECHTZEITSUCHE MIT HADOOP UND SOLR PETER DIKANT MGM TECHNOLOGY PARTNERS GMBH WHOAMI peter.dikant@mgm-tp.com Java Entwickler seit

Mehr

Windows 8 Lizenzierung in Szenarien

Windows 8 Lizenzierung in Szenarien Windows 8 Lizenzierung in Szenarien Windows Desktop-Betriebssysteme kommen in unterschiedlichen Szenarien im Unternehmen zum Einsatz. Die Mitarbeiter arbeiten an Unternehmensgeräten oder bringen eigene

Mehr

Solution for Business Intelligence. MID Insight 2013

Solution for Business Intelligence. MID Insight 2013 Solution for Business Intelligence MID Insight 2013 A G E N D A 1. Solution für Business Intelligence (BI) 2. Die Gründe und Hintergründe 3. Die Methode 4. Vorteile MID GmbH 2013 2 Solution für Business

Mehr

Das Redaktionssystem UCMS. Beschreibung Technisches Profil

Das Redaktionssystem UCMS. Beschreibung Technisches Profil 1/6 CONTENTMANAGEMENTSYSTEM UCMS 03.12.08 Das Redaktionssystem UCMS Beschreibung Technisches Profil Das vorliegende Dokument gibt einen Überblick über das System und geht auf die Ankopplung oder Integration

Mehr

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle

Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle Technologischen Rahmenbedingungen und Werkzeuge für eine wertschöpfende Controller-Rolle 40. Congress der Controller, Themenzentrum C, München Steffen Vierkorn, Geschäftsführer Qunis GmbH, Neubeuern Die

Mehr