In-Memory-Computing: Chancen für Unternehmen und Marktanalyse

Größe: px
Ab Seite anzeigen:

Download "In-Memory-Computing: Chancen für Unternehmen und Marktanalyse"

Transkript

1 In-Memory-Computing: Chancen für Unternehmen und Marktanalyse Abschlussarbeit Betreuer: Dipl.- Wirt.- Inf. (FH) Nikolai Kunz Verwaltungs- und Wirtschaftsakademie Frankfurt am Main Von Markus Schnabel Studienrichtung: Informatik-Betriebswirt (VWA) 6. Fachsemester Matrikelnummer: Abgabetermin: 18. Juli 2012 Steinbach, den 15. Juli 2012

2 II Inhaltsverzeichnis Abkürzungsverzeichnis... IV Abbildungsverzeichnis... V Tabellenverzeichnis... VI 1. Einleitung Datenbanken Datenbank Grundlagen Gründe für den Einsatz von Datenbanken Relationale Datenbanken Spaltenorientierte Datenbanken In-Memory-Datenbanken Bewährte In-Memory-Zusatzlösungen Reine In-Memory-Datenbanken Vorteile In-Memory-Computing Nachteile In-Memory-Computing Technischer Fortschritt als Katalysator Hauptspeicher Multi-Core-Prozessor Aktuelle Trends im Bereich In-Memory-Computing Ausblick auf den zweiten Teil In-Memory-Computing Marktanalyse In-Memory-Computing im Unternehmenseinsatz In welchen Bereichen sich ein Einsatz lohnt Chancen und Risiken aus Sicht des Business und der IT Beispiele erfolgreicher Einführungen Vergleich von drei In-Memory-Datenbanken Aufbau eines Kriterienkataloges... 30

3 III 6.2 Bewertung der Produkte anhand der Kriterien IBM soliddb Oracle TimesTen 11g SAP Sybase ASE Ergebnis des Produktvergleichs Fazit Literaturverzeichnis Eidesstattliche Versicherung... 48

4 IV Abkürzungsverzeichnis ASE APO BW BWA CPU DBMS DBS DD ETL HANA OLAP OLTP RAM SSD TCO Adaptive Server Enterprise Advanced Planner and Optimizer Business Warehouse Business Warehouse Accelerator central processing unit Datenbankmanagementsystem Datenbanksystem Data Dictionary Extract, Transform, Load High-Performance Analytic Appliance Online Analytical Processing Online Transaction Processing Random Access Memory Solid-State-Drive Total Cost of Ownership

5 V Abbildungsverzeichnis Abbildung 1: Information at the fingertips... 2 Abbildung 2: Bestandteile einer Datenbank... 4 Abbildung 3: Extract, Transform, Load... 5 Abbildung 4: Zeilen- und spaltenorientierter Datenzugriff Abbildung 5: SAP APO mit livecache Abbildung 6: Diskbasierte versus In-Memory-Datenbank Abbildung 7: Speicherhierarchie-Pyramide Abbildung 8: CPU als Flaschenhals im In-Memory-Computing Abbildung 9: Prozess der Datenwiederherstellung Abbildung 10: Hochverfügbarkeitstopologie von IBM soliddb Abbildung 11: Netzdiagramm In-Memory-Datenbanken... 41

6 VI Tabellenverzeichnis Tabelle 1: Speicherarten eines Datenbanksystems... 9 Tabelle 2: Datenbank-Performance mit BWA Tabelle 3: Chancen und Risiken von In-Memory-Computing Tabelle 4: Bedeutung Erfüllungswerte der Nutzwertanalyse Tabelle 5: Nutzwertanalyse In-Memory-Datenbaken... 39

7 1 1. Einleitung Wir leben in einer Welt, in der Unternehmen mehr und mehr im globalen Wettbewerb zueinander stehen. Das trifft heutzutage nicht nur auf die Global Player zu, auch mittelständische Unternehmen stehen im weltweiten Konkurrenzkampf. Um konkurrenzfähig zu bleiben, bedarf es dem Einsatz entsprechender Software, die die Geschäftsprozesse unterstützen beziehungsweise automatisieren. Unternehmen haben immer höhere Anforderungen an deren Informationssysteme. Prozesslaufzeiten im operationalen Geschäft sollen minimiert werden und im gleichen Schritt sollen die analytischen Daten zur Unterstützung der Entscheidungsfindung so aktuell und umfangreich wie nie zuvor sein. Dazu kommt der Anspruch der Unternehmensführung, die Kosten zu minimieren. Diese Forderungen gehen einher mit einem rasant wachsenden Datenvolumen und immer komplexer werdenden Anwendungen und Systemen. Das stark wachsende Datenvolumen, optimierte Prozesslaufzeiten sowie der Wunsch nach Reporting in Echtzeit stehen im Konflikt mit der heutigen Art der Datenhaltung für Unternehmensanwendungen. Der derzeitige Standard für die Datenhaltung von Unternehmensanwendungen ist ein relationales Datenbanksystem mit Festplattenspeicher, wobei der Festplattenspeicher der Flaschenhals der Datenbank und damit der Unternehmensanwendung ist. Optimierungspotential besteht durch den Einsatz von In-Memory-Computing 1. Dort werden die Daten im wesentlich schnelleren und prozessornahen Hauptspeicher eines Servers statt im langsamen Festplattenspeicher gespeichert. Technologiefortschritte im Bereich der Prozessoren (Multi-core) und des Hauptspeichers (Kapazitäten im Terabyte-Bereich je Server) haben es möglich gemacht, den Ansatz der klassischen, relationalen Datenbanken zu überdenken. Mit In-Memory-Computing soll ermöglicht werden, dass Teilnehmer einer Besprechung, die auf der ganzen Welt verteilt sein können, in Echtzeit durch dieselben Informationen navigieren und dadurch strategische Entscheidungen anhand aktuellster Daten treffen können. Bei den Global Playern ist es heute die Regel, dass das Aufbereiten der transaktionalen Daten zu den benötigten analytischen Reports mitunter Tage, wenn nicht sogar Wochen dauert. Damit sind die getroffenen Entscheidungen, die auf diesen 1 In der vorliegenden Arbeit werden die Begriffe In-Memory-Computing, In-Memory-Technologie, In-Memory-Datenbank, In-Memory-System und Hauptspeicherdatenbank synonym verwendet.

8 2 Daten bzw. Informationen basieren, auch dementsprechend veraltet. Mit in Echtzeit vorliegenden Informationen kann demnach ein nicht zu unterschätzender Wettbewerbsvorteil resultieren. Die nachfolgende Abbildung 1 visualisiert die Vision von der Information at the fingertips!. Abbildung 1: Information at the fingertips 2 Die vorliegende Arbeit ist der erste von zwei Teilen. Der erste Teil schafft die theoretische Grundlage von traditionellen sowie In-Memory-Datenbanken, während im zweiten Teil eine Gegenüberstellung von drei In-Memory-Produkten mit ihren Vor- und Nachteilen in Bezug auf den Einsatz im Unternehmen erfolgt. Ziel der Gesamtarbeit ist es herauszufinden, ob eines der gegenübergestellten Produkte für Unternehmen als optimal anzusehen ist, um abschließend einen Ausblick geben zu können, welches der Produkte eingesetzt werden sollte. Der vorliegende Teil Arbeit gliedert sich in drei Kapitel. Im ersten Kapitel erfolgt eine Schilderung der Problemstellung. In Kapitel 2 werden die Grundlagen einer Datenbank erläutert und es erfolgt eine Betrachtung von relationalen, spaltenorientierten und In- Memory-Datenbanken. Auf In-Memory-Datenbanken wird ein besonderer Fokus gelegt und es erfolgt eine Betrachtung der Vor- und Nachteile. Weiterhin wird auf den technischen Fortschritt, der eine Grundvoraussetzung für eine In-Memory-Datenbank ist, eingegangen. In Kapitel 3 erfolgt ein kurzer Ausblick auf den zweiten Teil der Arbeit. 2 Plattner, H./Zeier, A. (2011), S. 9.

9 3 2. Datenbanken 2.1 Datenbank Grundlagen Mehr denn je leben wir heutzutage in einer Welt, in der Informationen eine immer wichtiger werdende Rolle spielen. Auch kleine und mittelständische Unternehmen können es sich nicht leisten, ohne eine Vielzahl von Informationen erfolgreich zu operieren, von den Großkonzernen ganz zu schweigen. Unternehmen sind abhängig von funktionierenden IT-Systemen. Hier kommen Datenbanksysteme 3 (DBS) ins Spiel, welche für die Verwaltung und Haltung der elektronischen Daten eines IT-Systems zuständig sind. Laut Faeskorn-Woyke sind sie dazu da, um [ ] in die zunehmende Informationsflut Ordnung und Struktur zu bringen. 4 Ein Datenbanksystem besteht aus folgenden zwei Teilen: Datenbankmanagementsystem (DBMS) Das Datenbankmanagementsystem ist die Software zur Verwaltung der Datenbasis. Es steuert die Prozesse der Datenbank und stellt unterschiedliche Dienstleistungen zur Verfügung. In einem vertikalen Schichtenmodell eines Datenbanksystems liegt es zwischen der Datenbasis und den Programmen. Datenbasis mit Data Dictionary (DD) Die Datenbasis besteht aus den eigentlichen Daten der Datenbank sowie dem Data Dictionary. Das Data Dictionary beschreibt die Datenbasis und die Beziehungen der Daten zueinander. 5 Die folgende Abbildung 2 zeigt grafisch die Bestandteile eines Datenbanksystems sowie die Schnittstelle mit den Anwendungen. 3 In der vorliegenden Arbeit werden die Begriffe Datenbank und Datenbanksystem synonym verwendet. 4 Faeskorn-Woyke, H. u. a. (2007), S Vgl. Faeskorn-Woyke, H. u. a. (2007), S. 22.

10 4 Abbildung 2: Bestandteile einer Datenbank 6 Datenbanksysteme können für viele verschiedene Anwendungen eingesetzt werden. Diese lassen sich in zwei Klassen unterscheiden. Zum einen gibt es transaktionale Anwendungen, diese kommen im operativen Tagesgeschäft zum Einsatz und realisieren selbiges in einem Unternehmen. Zum anderen gibt es analytische Anwendungen, welche die Grundlage für die strategische Unternehmensplanung bilden und vor allem vom Management genutzt werden. Im folgenden Abschnitt erfolgt eine Spezifikation der beiden Klassen. OLTP - Online Transaction Processing o Transaktionale Anwendungen o Häufige, schnelle und kurze Anfragen an die Datenbank mit wenigen Daten je Anfrage o Viele Änderungen (Update, Insert, Delete) in der Datenbasis o Operiert auf aktuellem Datenbestand (max. 1 Jahr) o Beispiel: Anlegen einer Kundenbestellung o Produktbeispiel: SAP Enterprise Resource Planning OLAP - Online Analytical Processing o Analytische Anwendungen o Wenige, langwierige Anfragen an die Datenbank mit vielen Daten je Anfrage o So gut wie keine Änderungen in der Datenbasis read only o Historische und aktuelle Daten (Unternehmensdaten der letzten Jahre) 6 Faeskorn-Woyke, H. u. a. (2007), S. 22.

11 5 o Beispiel: Umsatzentwicklung von Produkt xy in den letzten drei Jahren in Italien o Produktbeispiel: SAP Business Intelligence (Data Warehouse) 7 Wie in der obigen Aufstellung beschrieben, unterscheiden sich OLAP- und OLTP- Systeme in der Art der Nutzung. Auf Grund dieser unterschiedlichen Ausrichtung der beiden Systeme und der damit verbundenen vielfältigen und spezifischen Optimierungen [...] besteht mittlerweile weitgehender Konsens, dass man OLTP- und OLAP- Anwendungen nicht auf demselben Datenbestand (d. h. auf derselben physischen Datenbasis) ausführen sollte. 8 Diese Annahme der physischen Trennung des Datenbestands wird mit der Entwicklung von Hauptspeicherdatenbanken jedoch neu überdacht. Durch den Einsatz von zwei getrennten Datenbanken sind in einem OLAP-System initial keine Daten vorhanden. Die benötigten Daten werden aus den operationalen Datenbanken (OLTP) und anderen Datenquellen in ein Data Warehouse geladen. In zuvor bestimmten Zeitintervallen (z. B. täglich, wöchentlich) erfolgt eine Aktualisierung der Daten. Damit enthält das Data Warehouse auch historische Daten, auf denen die Unternehmensleitung wichtige, strategische Entscheidungen fällen kann. Dieser Vorgang wird Extract, Transform, Load (ETL) genannt und wird in der folgenden Abbildung 3 dargestellt. 9 Abbildung 3: Extract, Transform, Load 10 7 Vgl. Kemper, A./Eickler, A. (2011), S. 529 f. 8 Kemper, A./Eickler, A. (2011), S Vgl. Kemper, A./Eickler, A. (2011), S Kemper, A./Eickler, A. (2011), S. 531.

12 6 Die theoretische Grundlage einer Datenbank ist das Datenbankmodell. Es besagt, wie die Daten auf einer Datenbank gespeichert und bearbeitet werden. In den 1960er Jahren entstanden mit dem Hierarchischen und dem Netzwerkdatenbankmodell die ersten Datenbankmodelle. Sie ermöglichten den erstmaligen Einsatz von Datenbanken, spielen heutzutage aber keine große Rolle mehr. In den 1970er Jahren entstand das relationale Datenbankmodell, was heute das bekannteste und am weitesten verbreitete Modell ist. Zusätzlich gibt es noch zwei neuere Datenbankmodelle, das objektrelationale sowie das objektorientierte Datenbankmodell auf die der Autor auf Grund ihrer geringen Verbreitung nicht näher eingehen wird. Ein Großteil der Unternehmen setzt Datenbanksysteme von Oracle, IBM und Microsoft ein. Der bevorzugte Datenbankanbieter der SAP-Kunden ist mit großem Abstand die Firma Oracle (67%), gefolgt von Microsoft SQL Server (13%), IBM DB2 (12%) und SAP MaxDB (11%) Gründe für den Einsatz von Datenbanken Laut Kemper gibt es für Unternehmen für die Verarbeitung von Informationen keine Alternativen zum Einsatz eines DBMS. Folgende Probleme können durch den Einsatz eines einheitlichen, zentral genutzten DBMS zum größten Teil vermieden werden: Redundanz und Inkonsistenz Das DBMS verwaltet eine zentrale Datenbasis, die von mehreren Anwendungen benutzt werden kann. Datensätze müssen nur einmal angelegt oder geändert werden, was Redundanzen und Inkonsistenzen vermeidet. Mehrbenutzerbetrieb Das DBMS bietet eine Mehrbenutzerkontrolle, die einen kontrollierten Zugriff von mehreren Benutzern auf Daten gewährleistet und Gefahren wie das gleichzeitige editieren derselben Datei durch zwei oder mehrere Benutzer verhindern. Heutige Dateisysteme können keinen störungsfreien Mehrbenutzerbetrieb gewährleisten. Sicherheitsprobleme Mittels DBMS lassen sich Zugriffsrechte auf die zentral gespeicherten Daten sehr flexibel steuern. Je nach Benutzer oder Benutzergruppe greifen verschiede- 11 Vgl. (Abfragedatum: ).

13 7 ne Regeln, die das Aufrufen, Editieren und Löschen der verschiedenen Informationen steuern. 12 Die Voraussetzung für eine sichere und konsistente Ausführung von Operationen auf der Datenbank trotz gleichzeitiger Aktivitäten unterschiedlicher Anwender ist das Einhalten der vier definierten ACID-Eigenschaften. Sie bestehen im Einzelnen aus: Atomicity (Atomarität): Unteilbarkeit von Transaktionen Besagt, dass entweder alle Änderungen der Transaktion in die Datenbank geschrieben werden oder gar keine. Consistency (Konsistenz): Konsistenter Datenbestand Nach Beendigung einer Transaktion muss die Datenbasis konsistent sein, andernfalls wird die Transaktion zurückgesetzt. Isolation: Transaktionen dürfen sich nicht beeinflussen Parallel ausgeführte Transaktionen dürfen sich nicht gegenseitig beeinflussen. Jede Transaktion wird, logisch betrachtet, einzeln auf dem Datenbanksystem ausgeführt. Durability (Dauerhaftigkeit): Transaktionsergebnis besteht dauerhaft Eine einmal erfolgreich abgeschlossene Transaktion muss dauerhaft in der Datenbasis erhalten bleiben. Selbst nach einem Hard- oder Softwarefehler muss das Resultat der Transaktion sichtbar sein Relationale Datenbanken Die relationale Datenbank ist der heutige Standard für den Unternehmenseinsatz. OLTP- und OLAP-Systeme setzen beide bis auf wenige, sehr fachspezifische Ausnahmen auf das relationale Datenbankmodell. Erstmals wurden Daten mitsamt ihrer Beziehung in Tabellen (Relationen) abgebildet. Hauptmerkmal der relationalen Datenbank sind die zweidimensionalen Tabellen, auch Relationen genannt. Daten werden in den Tabellen gespeichert und [ ] durch entsprechende Operatoren ausschließlich mengenorientiert verknüpft und verarbeitet. 14 Die grundlegenden Elemente einer Tabelle in einer relationalen Datenbank sind: 12 Vgl. Kemper, A./Eickler, A. (2011), S. 19 ff. 13 Vgl. Kemper, A./Eickler, A. (2011), S Kemper, A./Eickler, A. (2011), S. 71.

14 8 Attribut: Beschreibt die Objekte mit einem Namen und einem Wert. Tupel: Die Menge aller Attribute in einer Zeile, auch Datensatz genannt. Relation: Alle Tupel in einer Datenbank ergeben die Relation. Primärschlüssel: Dient zur eindeutigen Identifizierung der einzelnen Tupel. Er ist eindeutig und darf nicht leer sein. Mit ihm lassen sich verschiedene Tabellen eindeutig verknüpfen. 15 Hervorzuheben ist, dass die Daten bei einer traditionellen relationalen Datenbank zeilenorientiert auf der Festplatte gespeichert werden. Bei der physischen Datenstruktur einer relationalen Datenbank wird meist zwischen drei Stufen von Speichermedien unterschieden, die sehr oft gleichzeitig, aber für unterschiedliche Zwecke eingesetzt werden. Der Primärspeicher ist der Hauptspeicher des Rechners und übernimmt Pufferfunktionen im Datenbanksystem. Im Hauptspeicher werden alle Operationen durchgeführt, damit liegen die Daten, auf die aktiv zugegriffen wird, in selbigem. Der Sekundärspeicher ist die Festplatte. Hier werden die Daten gespeichert, die nicht im aktiven Gebrauch sind. Als Archivspeicher kommen in den meisten Fällen Magnetbänder zum Einsatz. Auf ihm werden zum Beispiel operativ nicht mehr benötigte Daten sowie Sicherheitskopien gespeichert. 16 Um die Daten verarbeiten zu können, müssen sie demzufolge zwischen dem Primärspeicher und dem Sekundärspeicher hin- und hergeschoben werden, da die Verarbeitung ausschließlich im größenmäßig limitierten Primärspeicher erfolgen kann. Die folgende Tabelle 1 stellt die verschiedenen Speicherarten eines Datenbanksystems gegenüber. 15 Vgl. Kannengiesser, C./Kannengiesser, M. (2007), S. 613 f. 16 Vgl. Kemper, A./Eickler, A. (2011), S. 203 ff.

15 9 Speicherstufe Primärspeicher Sekundärspeicher Archivspeicher Zugriffszeit Speicherkapazität Preis Vorteile Nachteile ~ 100 ns Gigabyte - Sehr schnell - Flüchtig bis - Feine Granularität - Sehr teuer Terabyte ~ 10 ms Terabyte - Nicht flüchtig - Relativ langsam - Direktzugriff - Mechanisch > 1 s Terabyte - Lagerbarkeit - Sehr langsam - Ausfallsicherheit - Verschleiß Tabelle 1: Speicherarten eines Datenbanksystems 17 Aus der obigen Tabelle 1 ist der immense Unterschied bei den Zugriffszeiten der einzelnen Speicherstufen hervorzuheben. Der Unterschied bei der Zugriffszeit zwischen dem Primär- und Sekundärspeicher beläuft sich auf den Faktor 10 5, was einem theoretisch mal schnelleren Zugriff entspricht. Dieser gewaltige Unterschied bei der Zugriffszeit macht deutlich, wieso es wichtig ist, einen vielen Gigabyte umfassenden Hauptspeicher in einem Datenbank-Server zu haben. Durch einen großen Hauptspeicher in einem Datenbank-Server wird das Auslagern von häufig verwendeten Daten von dem schnellen Primärspeicher in den langsamen Sekundärspeicher reduziert und eine verbesserte Performance des IT-Systems kann sichergestellt werden. Zusätzlich tragen die prozessornahen Caches (L1-L3) zu einer Steigerung der Performance bei. Anzumerken ist noch, dass die Festplatten oft mit eigenen Caches bestückt sind, um den Zugriff durch Zwischenspeicherung und andere Mechanismen zu beschleunigen. Die Geschwindigkeit des Hauptspeichers kann allerdings trotz des Festplatten-Caches nicht annährend erreicht werden. Die Datenbank-Server großer Konzerne sind beispielsweise mit bis zu 640 Gigabyte Hauptspeicher ausgestattet. Das ermöglicht dem Anwender und den zahlreichen Jobketten einen Zugriff mit so wenig Verzögerung wie möglich, da relativ viele Daten im Hauptspeicher gehalten werden können. Zusammenfassend lässt sich sagen, dass die Geschwindigkeit der Datenzugriffe eine der größten Limitierungen der festplattenbasierten, relationalen Datenbanken und damit der 17 Vgl. Kemper, A./Eickler, A. (2011), S. 203 ff.

16 10 Anwendungen (OLAP / OLTP) darstellt. Nach Schätzungen verdoppelt sich der Datenbestand in Unternehmen ca. alle 5 Jahre, was das Problem des langsamen Datenzugriffs zunehmend verschärft. Zumal das Datenvolumen schneller als die Leistung relationaler Datenbanken wächst. Dieses Problem soll durch In-Memory-Datenbanken reduziert und bestenfalls vollständig behoben werden. 2.4 Spaltenorientierte Datenbanken Erste Vorläufer von spaltenorientierten Datenbanken gibt es bereits seit den 1970er Jahren. Daten werden hier spaltenweise statt, wie normalerweise, zeilenweise abgespeichert. Mit dieser Art der Datenhaltung können verbesserte Zugriffszeiten bei OLAP- Anwendungen erreicht werden. Der Grund dafür ist, dass bei OLAP-Anwendungen häufig nur sehr wenige Spalten, aber viele Zeilen eines Datensatzes abgefragt werden. Zum Beispiel müssen für die Abfrage des Umsatzes aller Filialen einer Handelskette in Deutschland in 2011 bei einer spaltenorientierten Datenbank nur die Spalten Land, Jahr und Umsatz gelesen werden. Die anderen gespeicherten Informationen wie Mitarbeiteranzahl oder Filialleiter sind bei dieser analytischen Abfrage nicht von Bedeutung. Würden die Daten in einer konventionellen relationalen Datenbank zeilenweise gespeichert sein, müsste jeder Datensatz gelesen werden, da die benötigten Informationen auf alle Datensätze verteilt sind. Abbildung 4 zeigt den Unterschied zwischen zeilen- und spaltenorientiertem Datenzugriff bei OLAP- bzw. OLTP-Anwendungen. Sie verdeutlicht weiterhin, dass eine spaltenorientierte Speicherung für transaktionale Anwendungen (OLTP) oft nicht sinnvoll ist, da auf viele Spalten eines Datensatzes zugegriffen wird (z. B. Mitarbeiter-Stammdaten). Abbildung 4: Zeilen- und spaltenorientierter Datenzugriff Krueger, J. u. a. (2010), S. 4.

17 11 Mit spaltenorientierten Datenbanken kann weiterhin eine höhere Kompressionsrate als bei zeilenorientierten Datenbanken erreicht werden. Das liegt unter anderem daran, dass alle Werte in einer Spalte vom gleichen Datentyp sind (z. B. string, integer). Außerdem sind Unternehmensanwendungen dazu konzipiert, wiederholende Prozesse abzuarbeiten. Dadurch gibt es oftmals nur wenige unterschiedliche Werte in einer Spalte. All das führt zu einer guten Komprimierung mit dem Effekt, dass mehr Informationen auf der gleichen Menge an Speicher liegen und dadurch weniger Speicherplatz benötigt wird. 19 Spaltenorientierte Datenbanken eignen sich also im Besonderen für analytische Anwendungen, wohingegen die zeilenorientierte Datenbank für transaktionelle Anwendungen eingesetzt werden sollte. Es gibt auch Überlegungen, spalten- und zeilenorientierte Datenbanken in einer hybriden Datenbank zu kombinieren, um die Vorteile beider Techniken nutzen zu können. 2.5 In-Memory-Datenbanken In-Memory-Datenbanken sind keine neuen Lösungen oder neue Produkte, auch wenn der derzeitige Boom und das mediale Interesse in der IT-Fachwelt darauf schließen lassen. Es existieren bereits seit einigen Jahren In-Memory-Lösungen, die sich als stabil und extrem nützlich für Unternehmen erwiesen haben Bewährte In-Memory-Zusatzlösungen In der Vergangenheit wurden die immer größer werdenden Wünsche und Ansprüche an IT-Systeme unter anderem mit Hilfe kostspieliger Zusatzlösungen und redundanter Datenspeicherung (z. B. Data Warehouse) zu Lasten der Flexibilität und Kosten weitestgehend erfüllt. 20 Die nachfolgend vorgestellten Produkte sind In-Memory-Datenbanken, die als Beschleuniger für traditionelle Datenbanken bzw. Anwendungen dienen. Sie sind ohne das jeweilige Hauptsystem nutzlos. Im SAP-Bereich sind als Beispiel für In-Memory-Zusatzlösungen der SAP Advanced Planner and Optimizer (APO) livecache und der SAP Business Warehouse Accelerator (BWA) zu nennen. Der SAP APO livecache basiert auf der SAP-eigenen Datenbank MaxDB, liegt komplett im Hauptspeicher und ist als zusätzliche, zweite Datenbank innerhalb eines SAP 19 Vgl. Krueger, J. u. a. (2010), S. 4 f. 20 Vgl. Krueger, J. u. a. (2010), S. 2.

18 12 APO-Systems (OLTP) integriert. Die APO-Funktionalitäten sind im Gegensatz zu anderen ERP-Modulen wesentlich umfangreicher und machen daher auch eine erhöhte Zugriffshäufigkeit auf die Datenbank erforderlich. Eine schnelle Antwortzeit der Datenbank auf Anfragen ist gerade bei der Verfügbarkeitsprüfung (Global Available-To- Promise) von sehr hoher Wichtigkeit. Der In-Memory livecache sorgt für die benötigte schnelle Antwortzeit der Verfügbarkeitsprüfung, der Produktionsfeinplanung und der Bedarfsplanung. Laut Nüßer werden bei den oben beschriebenen datenbankintensiven Anwendungen Geschwindigkeitsvorteile im Faktor 1000 möglich. 21 Die nachfolgende Abbildung 5 zeigt die Architektur eines SAP APO-Systems. Es wird deutlich, dass weiterhin eine relationale, festplattenbasierte Datenbank eingesetzt wird, zusätzlich kommt der hauptspeicherbasierte livecache zum Einsatz. Abbildung 5: SAP APO mit livecache 22 Bei dem SAP BWA handelt es sich um eine spaltenorientierte Hauptspeicherdatenbank. Diese wird an die auf einer relationalen Datenbank basierenden OLAP-Anwendung SAP Business Warehouse (BW) gekoppelt. Damit werden erheblich schnellere Antwortzeiten auf immer umfangreichere Anfragen ermöglicht. Der SAP BWA kommt speziell in großen Unternehmen mit einer hohen Menge an auszuwertenden Daten zum Einsatz. Kleinere Firmen sehen in der Regel auf Grund der überschaubaren Datenmenge im Unternehmen und der zusätzlichen Kosten für Hardware und Lizenzen von einem Einsatz ab. Die folgende Tabelle 2 zeigt eine mögliche Performancesteigerung mit dem 21 Vgl. Nüßer, W. u. a. (2006), S. 416 f. 22 Nüßer, W. u. a. (2006), S. 416.

19 13 Einsatz von BWA. Es wird deutlich, dass sich die Antwortzeit der in dem BWA indizierten Abfragen signifikant verbessert. Abfrage Ohne BWA Mit BWA Retail Masterquery dynamisch 69,1 Sekunden 2,2 Sekunden Global Risk Report 8,7 Sekunden 1,4 Sekunden Tabelle 2: Datenbank-Performance mit BWA 23 Mit den beschriebenen In-Memory-Lösungen lässt sich die Anwendungs-Performance für die Benutzer verbessern. Der Hauptteil der Daten befindet sich jedoch nach wie vor auf langsamen Festplatten. Es werden lediglich wichtige Bereiche in den Hauptspeicher ausgelagert, um business-kritische Transaktionen oder Analysen zu beschleunigen. Diese beiden Produkte machen deutlich, dass bisherige In-Memory-Datenbanken [ ] entweder für den OLTP-Anwendungsbereich (also für die effiziente Transaktionsverarbeitung) oder für den OLAP-Bereich (also für die effiziente Anfrageauswertung) konzipiert 24 wurden. Mittlerweile findet jedoch ein Umdenken statt, wobei die starre Trennung der beiden Anwendungstypen aufgehoben werden soll. Es befinden sich bereits hybride In-Memory-Datenbanken in der Entwicklung, die OLTP- und OLAP- Anwendungen auf einer Datenbasis vereinen. Weiterhin sind diese Datenbanken nicht mehr diskbasiert, sondern liegen komplett im Hauptspeicher Reine In-Memory-Datenbanken Bei In-Memory-Datenbanken handelt es sich um Datenbanken, die komplett im Hauptspeicher gehalten werden. Der größte Unterschied der Architektur eines In-Memory- Systems zu einem diskbasierten System besteht in der Art der Datenhaltung. Bei diskbasierten Systemen werden die benötigten Daten erst bei Bedarf von der Platte in den hauptspeicherbasierten Buffer Pool (Pufferspeicher) geladen. Das Laden der Daten von dem Sekundär- in den Primärspeicher verursacht zeitaufwendige Kommunikation (Input/Output). Bei einem In-Memory-System werden dagegen beim Start der Datenbank alle Daten aus einem Festspeicher in den Hauptspeicher geladen. Auf diese Weise kann auf alle Daten der Datenbank direkt zugegriffen werden, ohne dass ein zeitaufwendiges 23 Vgl. Löscher, N. (2010), S. 14: (Abfragedatum: 13. November 2011). 24 Kemper, A./Eickler, A. (2011), S. 668.

20 14 Nachladen aus dem Festspeicher nötig ist. Der direkte Zugriff auf die Daten sorgt außerdem für einen extrem vereinfachten Zugriffsalgorithmus bei In-Memory- Datenbanken, wie in Abbildung 6 anhand eines diskbasierten Systems und der Oracle In-Memory Datenbank TimesTen dargestellt wird. 25 Abbildung 6: Diskbasierte versus In-Memory-Datenbank 26 Nachfolgend werden einige wesentliche Elemente von In-Memory Datenbanken erläutert: Abfragesprache So gut wie alle untersuchten Datenbanken unterstützen die Datenbanksprache SQL. Flüchtige Daten Der in Hauptspeichern verwendete Speicher ist Random Access Memory (RAM). Sobald die Energieversorgung unterbrochen wird, gehen die Daten verloren. Daher werden regelmäßig Checkpoint-Files in den persistenten Speicher (Festplatte) geschrieben. 25 Vgl. Stirnimann, R./Ott, J. (2011), S Stirnimann, R./Ott, J. (2011), S. 7.

21 15 Datenwiederherstellung Nach einem Datenbank-Crash oder einer Unterbrechung der Energiezufuhr können die Daten durch das letzte Checkpoint-File und die geschriebenen Transaction Logs wiederhergestellt werden ACID-Eigenschaften Alle ACID-Eigenschaften bis auf Durability (Dauerhaftigkeit) werden standardmäßig unterstützt. Durch die Art des gewählten Speichers sind die Daten bei einem Systemabsturz nicht dauerhaft. Der Großteil verfügbarer In-Memory- Datenbanken deckt die Dauerhaftigkeit allerdings über Checkpoint-Files, Transaction Logs und Hochverfügbarkeitslösungen wie Replikation und Failover ab. Hochverfügbarkeit Zur schnellen Wiederherstellung der Services gibt es Replikationslösungen, wobei die Daten dauerhaft auf eine zweite Datenbank repliziert werden. Bei einem Ausfall der primären Datenbank kann die Standby-Datenbank innerhalb weniger Minuten mit den aktuellen Daten gestartet und von den Anwendern benutzt werden Vorteile In-Memory-Computing Nachfolgend werden zwei technische Vorteile und die daraus resultierenden Vorteile für Unternehmen betrachtet. Da diese Vorteile gleichzeitig Nachteile der diskbasierten Systeme darstellen, werden einige Unterschiede beider Systeme hervorgehoben. Bessere Performance Da alle Daten garantiert im Hauptspeicher gehalten werden, ist kein Festplattenzugriff nötig, um Daten zu lesen, zu schreiben oder zu ändern. Weiterhin können optimierte, Cache-effiziente Indexstrukturen verwendet werden. Technischer Vorteil: Minimierung der Zugriffszeit auf die Daten und vereinfachte Zugriffsalgorithmen. Vorteil für Unternehmen: Schnellere Abwicklung von Geschäftsprozessen (OLTP) und kürzere Laufzeit für das Erstellen von Reports (OLAP). Unternehmen können eine Vorreiterrolle einnehmen und sich von der Konkurrenz absetzen. 27 Vgl. Stirnimann, R./Ott, J. (2011), S. 6.

22 16 Vereinfachte IT-Landschaft und geringere Kosten Trotz der vergleichsweise hohen Anschaffungskosten durch den teuren Hauptspeicher wird erwartet, dass durch In-Memory-Computing die Total Cost of Ownership (TCO), also die Kosten für den gesamten Lebenszyklus eines IT- Systems reduziert werden können. Dies wird durch die vereinfachte System- Landschaft und den daraus resultierenden Kosteneinsparungspotentialen (z. B. weniger Administration, Wartung) erreicht. 28 Technischer Vorteil: Geringere Komplexität und dadurch weniger Systemausfälle. Vorteil für Unternehmen: Das gesparte Geld durch die reduzierten Kosten für den Betrieb der IT-Systeme kann entweder als Rücklage dienen oder es kann in die IT reinvestiert werden, um einen Wettbewerbsvorteil vor Konkurrenten zu erreichen. Eine höhere Systemverfügbarkeit bedeutet einen reibungsloseren Ablauf der Geschäftsprozesse für Unternehmen Nachteile In-Memory-Computing Nachfolgend werden zwei technische Nachteile und die daraus resultierenden Nachteile für Unternehmen betrachtet. Hohes Risiko bei der Einführung In-Memory ist bei weitem nicht so verbreitet bei Unternehmen wie diskbasierte Systeme. Damit ist vergleichsweise sehr wenig Wissen über die Technologie vorhanden. Außerdem gibt es sehr wenige Experten und Tools zur Problemanalyse. Die folgenden Fragen können auf Grund eines unzureichenden Einsatzes in der Praxis nicht hinreichend beantwortet werden: Wie bewährt sich ein solches System im day-to-day Betrieb, speziell unter Volllast? Wie reagiert es im Falle eines Desasters? Technischer Nachteil: Für die meisten Systemadministratoren ist das Gebiet Neuland. Damit steigt die Gefahr einer falschen Implementierung oder unsachgemäßer Administration, was im schlimmsten Fall einen Systemausfall und einen damit einhergehenden Datenverlust mit sich zieht. Nachteil für Unternehmen: Ein nicht oder nur schlecht laufendes IT-System wirkt sich in der heutigen Welt fast immer auf das Kerngeschäft der Unterneh- 28 Vgl. Plattner, H./Zeier, A. (2011), S. 22.

23 17 men aus. Das heißt im Klartext, dass bei einem Produktionsbetrieb die Fließbänder still stehen. Flüchtiger Speicher Durch den Einsatz von flüchtigem Speicher gehen die Daten bei Stromausfall verloren, was bedeutet, dass das ACID-Paradigma standardmäßig nicht gewährleistet wird. Es bedarf zusätzlicher Sicherungsmechanismen, wie das regelmäßige speichern der Daten auf persistentem Speicher (Festplatte) sowie das Loggen aller Transaktionen. Technischer Nachteil: Bei Stromausfall sind alle Daten verloren, die Implementierung zusätzlicher Sicherungsmechanismen verursacht Kosten und steigert die Komplexität der Systemumgebung. Nachteil für Unternehmen: Ein totaler Datenverlust der produktiven, transaktionalen Datenbank hat verheerende wirtschaftliche Auswirkungen für Unternehmen. Bei nicht ordnungsgemäßer Implementierung der notwendigen Sicherungen können wichtige Aufträge oder andere relevante Daten verloren gehen Technischer Fortschritt als Katalysator Das Thema In-Memory-Computing wird zurzeit sehr intensiv in der Fachwelt und den Unternehmen diskutiert. Laut Färber hat der technologische Fortschritt einen großen Anteil, dass es zu einem Überdenken der traditionellen Datenbankarchitekturen kommt. Er weist auf die Verfügbarkeit neuer Technologien wie große Hauptspeicherkapazitäten (Datenbank-Server mit einer Hauptspeicher-Kapazität von mehr als einem Terabyte) und Multi-Core-Prozessoren für eine echte parallele Verarbeitung von Transaktionen hin. 29 Die auf dem Markt verfügbare Hauptspeicher-Kapazität genügt, um selbst die transaktionalen Daten großer Unternehmen im Hauptspeicher speichern zu können. Hinzu kommt, dass die vorgenannten Technologien in diesem Ausmaß mittlerweile auch für mittelständische Unternehmen bezahlbar sind, was vor einigen Jahren noch nicht der Fall war Hauptspeicher Wie im Vorfeld bereits geschrieben und wie der Name In-Memory verrät, dient der Hauptspeicher als zentraler Datenspeicher für In-Memory-Datenbanken. Festplatten 29 Vgl. Färber, F. u. a. (2010), S. 81.

24 18 spielen demnach, wenn überhaupt, nur noch als Archivspeicher eine Rolle. Solid-State- Drives (SSD) werden immer günstiger und bieten eine bessere Performance als Festplatten. Große Anbieter von Storage-Lösungen wie Hitachi Data Systems haben bereits Storage-Systeme im Programm, die ausschließlich SSDs als Speicher verwenden. Die traditionelle, magnetische Festplatte läuft also Gefahr in nicht allzu ferner Zukunft ein Nischendasein zu fristen. Möglich und Interessant für viele Unternehmen wird der Einsatz der In-Memory-Technologie jedoch erst durch den starken Preisverfall von Hauptspeicher in den letzten Jahren. Während ein Megabyte Hauptspeicher im Jahr 2000 noch 1 US $ gekostet hat, liegt der durchschnittliche Preis heute bei 0,01 US $. In der Einführungsphase des relationalen Datenbankmodells im Jahr 1975 lag der Preis für Hauptspeicher bei US $ pro Megabyte. Der Preis für Festplatten ist in den letzten Jahren ähnlich exponentiell gefallen. 30 Hinzu kommt, dass sich die Größe des maximalen Arbeitsspeichers je Server in den letzten Jahren exponentiell erhöht hat. Es ist heutzutage ohne Probleme möglich, Server mit vier Terabyte Hauptspeicher zu beziehen (z. B. IBM POWER 770). Sollte die Menge nicht ausreichen, lässt sich der Hauptspeicher durch das Koppeln mehrerer Server nahezu beliebig erweitern. 31 Voraussetzung ist jedoch das Partitionieren und Verteilen der Daten auf den verschiedenen Servern. Die folgende Abbildung 7 visualisiert den Geschwindigkeitsvorteil des Hauptspeichers anhand der Speicherhierarchie-Pyramide und wirft auch einen Blick auf die Register der central processing unit (CPU) und die CPU-Caches. Abbildung 7: Speicherhierarchie-Pyramide Vgl. Plattner, H./Zeier, A. (2011), S Vgl. (Abfragedatum: 13. November 2011). 32 (Abfragedatum: 25. November 2011).

25 19 Als Faustregel gilt: Je näher ein Speicher der CPU ist (Spitze der Pyramide), desto schneller aber auch kleiner ist der Speicher. Der Grund dafür ist der Preis. Zur Erweiterung der schnellen L1- und L2-Caches des Prozessors wird teures Silizium benötigt, was den Preis der CPU rapide steigen lässt Multi-Core-Prozessor Mit der Verwendung einer hauptspeicherbasierten Datenbank ist laut Krüger [ ] der Flaschenhals nicht mehr der Durchsatz und die Geschwindigkeit der Festplatte, sondern die Geschwindigkeit des Prozessors und wie schnell dieser Daten aus dem Arbeitsspeicher lesen kann. 33 Verdeutlicht wird diese Aussage in der Abbildung 8, die den neuen und alten Flaschenhals bei Datenbanken grafisch darstellt. Abbildung 8: CPU als Flaschenhals im In-Memory-Computing 34 Diesem drohenden neuen Flaschenhals steht die rasante Entwicklung von Multi-Core- Prozessoren entgegen. Dabei handelt es sich um Prozessoren, die mehrere Hauptprozessoren (Kerne) auf einem Chip haben. Prozessoren mit acht Kernen gelten heutzutage als Standard. Allerdings befinden sich in der Forschung bereits Prozessoren mit einem Vielfachen von acht Kernen. Jeder der Kerne hat in der Regel seinen eigenen L1- und L2-Cache. Damit ist ein echtes, paralleles Verarbeiten von Daten, beispielsweise die Verarbeitung mehrerer Transaktionen unterschiedlicher Benutzer, möglich. Ein aktueller Server der Firma IBM vom Typ POWER 770 für mittlere bis große Datenbankanwendungen kann z. B. mit bis zu acht Prozessoren mit 3,3 GHz mit je acht Prozessor- 33 Krueger, J. u. a. (2010), S Groth, H./Forster, A. (2011), S. 10.

Einführung in Hauptspeicherdatenbanken

Einführung in Hauptspeicherdatenbanken Einführung in Hauptspeicherdatenbanken Harald Zankl Probevorlesung 13. 01., 13:15 14:00, HS C Inhaltsverzeichnis Organisation Überblick Konklusion Harald Zankl (LFU) Hauptspeicherdatenbanken 2/16 Organisation

Mehr

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement Marcel Poltermann Fachhochschule Erfurt Informationsmanagement Inhaltsverzeichnis Glossar...III Abbildungsverzeichnis...III 1 Erläuterung:... 2 2 Technische Grundlagen... 2 2.1 Zugriff physische Datenträger:...

Mehr

TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann

TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann Blatt Nr. 11 Übung zur Vorlesung Einsatz und Realisierung von Datenbanksystemen im SoSe15 Moritz Kaufmann (moritz.kaufmann@tum.de)

Mehr

Relationale Datenbanken Datenbankgrundlagen

Relationale Datenbanken Datenbankgrundlagen Datenbanksystem Ein Datenbanksystem (DBS) 1 ist ein System zur elektronischen Datenverwaltung. Die wesentliche Aufgabe eines DBS ist es, große Datenmengen effizient, widerspruchsfrei und dauerhaft zu speichern

Mehr

SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen

SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen SQL- & NoSQL-Datenbanken - Speichern und Analysen von großen Datenmengen Lennart Leist Inhaltsverzeichnis 1 Einführung 2 1.1 Aufgaben einer Datenbank...................... 2 1.2 Geschichtliche Entwicklung

Mehr

Business Mehrwerte von SAP HANA

Business Mehrwerte von SAP HANA Business Mehrwerte von SAP HANA von der Technologie zum Geschäft Halle, 07.05.2013 2013 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda GISA im Überblick Was ist SAP HANA? Was

Mehr

1 Einleitung. Betriebswirtschaftlich administrative Systeme

1 Einleitung. Betriebswirtschaftlich administrative Systeme 1 1 Einleitung Data Warehousing hat sich in den letzten Jahren zu einem der zentralen Themen der Informationstechnologie entwickelt. Es wird als strategisches Werkzeug zur Bereitstellung von Informationen

Mehr

Hochschule für Technik, Wirtschaft und Kultur Leipzig. Fakultät Informatik, Mathematik und Naturwissenschaften. Abstract

Hochschule für Technik, Wirtschaft und Kultur Leipzig. Fakultät Informatik, Mathematik und Naturwissenschaften. Abstract Hochschule für Technik, Wirtschaft und Kultur Leipzig Fakultät Informatik, Mathematik und Naturwissenschaften Abstract Oberseminar "Datenbanksysteme - Aktuelle Trends" Hauptspeicherdatenbanken Eingereicht

Mehr

Ein kleines Computer-Lexikon

Ein kleines Computer-Lexikon Stefan Edelmann 10b NIS-Klasse Ein kleines Computer-Lexikon Mainboard Die Hauptplatine! Sie wird auch Motherboard genannt. An ihr wird das gesamte Computerzubehör angeschlossen: z.b. Grafikkarte Soundkarte

Mehr

Datenbanken und SQL. Kapitel 1. Übersicht über Datenbanken. Edwin Schicker: Datenbanken und SQL (1)

Datenbanken und SQL. Kapitel 1. Übersicht über Datenbanken. Edwin Schicker: Datenbanken und SQL (1) Datenbanken und SQL Kapitel 1 Übersicht über Datenbanken Übersicht über Datenbanken Vergleich: Datenorganisation versus Datenbank Definition einer Datenbank Bierdepot: Eine Mini-Beispiel-Datenbank Anforderungen

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Marketing Intelligence Übersicht über Business Intelligence. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Übersicht über Business Intelligence. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Übersicht über Business Intelligence Josef Kolbitsch Manuela Reinisch Übersicht Beispiel: Pantara Holding Der Begriff Business Intelligence Übersicht über ein klassisches BI-System

Mehr

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221 Oracle 10g und SQL Server 2005 ein Vergleich Thomas Wächtler 39221 Inhalt 1. Einführung 2. Architektur SQL Server 2005 1. SQLOS 2. Relational Engine 3. Protocol Layer 3. Services 1. Replication 2. Reporting

Mehr

HANA. TOBA-Team Dresden 19.05.2012

HANA. TOBA-Team Dresden 19.05.2012 HANA TOBA-Team Dresden 19.05.2012 Kunde droht mit Auftrag! Ein großer Discounter schickt Anfrage: Bis wann und zu welchem Preis können Sie 30.000 Stück liefern? Die Hektik beginnt! Bis wann Welche und

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Logische Modellierung von Data Warehouses

Logische Modellierung von Data Warehouses Logische Modellierung von Data Warehouses Vertiefungsarbeit von Karin Schäuble Gliederung. Einführung. Abgrenzung und Grundlagen. Anforderungen. Logische Modellierung. Methoden.. Star Schema.. Galaxy-Schema..

Mehr

BARC-Studie Data Warehousing und Datenintegration

BARC-Studie Data Warehousing und Datenintegration Ergebnisse der BARC-Studie Data Warehouse Plattformen Dr. Carsten Bange BARC-Studie Data Warehousing und Datenintegration Data-Warehouse -Plattformen und Datenintegrationswerkzeuge im direkten Vergleich

Mehr

Hardware- und Software-Anforderungen IBeeS.ERP

Hardware- und Software-Anforderungen IBeeS.ERP Hardware- und Software-Anforderungen IBeeS.ERP IBeeS GmbH Stand 08.2015 www.ibees.de Seite 1 von 8 Inhalt 1 Hardware-Anforderungen für eine IBeeS.ERP - Applikation... 3 1.1 Server... 3 1.1.1 Allgemeines

Mehr

Evolution statt Revolution

Evolution statt Revolution Evolution statt Revolution Ihr Weg von SAP MaxDB zu SAP in-memory computing Jürgen Primsch, SAP AG 18. November 2010 Agenda 1. SAP MaxDB 2. SAP in-memory computing 3. Auf zu neuen Ufern 2010 SAP AG. All

Mehr

Verschiedene Arten des Datenbankeinsatzes

Verschiedene Arten des Datenbankeinsatzes 1 Beispiele kommerzieller DBMS: Kapitelinhalt Was charakterisiert und unterscheidet verschiedene Einsatzbereiche für. Welche prinzipiell unterschiedlichen Anforderungen ergeben sich für das DBMS bei Ein-

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

SAS Analytics bringt SAP HANA in den Fachbereich

SAS Analytics bringt SAP HANA in den Fachbereich Pressemitteilung Hamburg, 08. November 2013 SAS Analytics bringt SAP HANA in den Fachbereich Ergonomie kombiniert mit Leistungsfähigkeit: die BI-Experten der accantec group geben der neuen Partnerschaft

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

Datawarehouse Architekturen. Einheitliche Unternehmenssicht

Datawarehouse Architekturen. Einheitliche Unternehmenssicht Datawarehouse Architekturen Einheitliche Unternehmenssicht Was ist Datawarehousing? Welches sind die Key Words? Was bedeuten sie? DATA PROFILING STAGING AREA OWB ETL OMB*PLUS SAS DI DATA WAREHOUSE DATA

Mehr

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 Inhaltsverzeichnis Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 1. Terminal-Server-Betrieb (SQL)... 3 1.1. Server 3 1.1.1. Terminalserver... 3 1.1.2. Datenbankserver (bei einer Datenbankgröße

Mehr

Software-Engineering und Datenbanken

Software-Engineering und Datenbanken Software-Engineering und Datenbanken Prof. Dr. Bernhard Schiefer bernhard.schiefer@fh-kl.de http://www.fh-kl.de/~schiefer Prof. Dr. Bernhard Schiefer 1-1 Wesentliche Inhalte Begriff DBS Datenbankmodelle

Mehr

IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring. Günther Klix op5 GmbH - Area Manager D/A/CH

IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring. Günther Klix op5 GmbH - Area Manager D/A/CH IT-Monitoring braucht Sicherheit Sicherheit braucht Monitoring Günther Klix op5 GmbH - Area Manager D/A/CH Technische Anforderungen an IT Immer komplexere & verteiltere Umgebungen zunehmend heterogene

Mehr

Relationale Datenbanken Kursziele

Relationale Datenbanken Kursziele Relationale Datenbanken Kursziele DB Grundlagen Daten-Modellierung Relationales Modell und DB => Praxis: Mit SQL als Anfragesprache Mit MySQL als DB RDB 1-1 Kursinhalt (Tage) 1. DB Einleitung / Entity-Relationship

Mehr

Transaktionsverwaltung

Transaktionsverwaltung Transaktionsverwaltung VU Datenbanksysteme vom 21.10. 2015 Reinhard Pichler Arbeitsbereich Datenbanken und Artificial Intelligence Institut für Informationssysteme Technische Universität Wien Transaktionsverwaltung

Mehr

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit

Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen. Masterarbeit Wirtschaftlichkeitsanalyse von Cloud Computing aus der Sicht internationaler Unternehmen Masterarbeit zur Erlangung des akademischen Grades Master of Science (M.Sc.) im Masterstudiengang Wirtschaftswissenschaft

Mehr

RAID. Name: Artur Neumann

RAID. Name: Artur Neumann Name: Inhaltsverzeichnis 1 Was ist RAID 3 1.1 RAID-Level... 3 2 Wozu RAID 3 3 Wie werden RAID Gruppen verwaltet 3 3.1 Software RAID... 3 3.2 Hardware RAID... 4 4 Die Verschiedenen RAID-Level 4 4.1 RAID

Mehr

Gliederung und Einordnung

Gliederung und Einordnung Gliederung und Einordnung 1. Objektorientierte Programmierung mit Object Pascal (5. Studienbrief, Kapitel 5) 9.4. + 16.4. 2. Software-Bausteine am Beispiel der Delphi-Komponenten (5. Studienbrief, Kapitel

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Aktuelle Trends aus Business Intelligence & Datawarehouse

Aktuelle Trends aus Business Intelligence & Datawarehouse Aktuelle Trends aus Business Intelligence & Datawarehouse Autor: Klaus Rohrmoser Es entstehen immer größere Datenmengen, die in immer unterschiedlicheren Formaten und aus immer mehr Datenquellen gespeist

Mehr

In die Zeilen würden die Daten einer Adresse geschrieben werden. Das Ganze könnte in etwa folgendermaßen aussehen:

In die Zeilen würden die Daten einer Adresse geschrieben werden. Das Ganze könnte in etwa folgendermaßen aussehen: 1 Einführung in Datenbanksysteme Fast jeder kennt Excel und hat damit in seinem Leben schon einmal gearbeitet. In Excel gibt es Arbeitsblätter, die aus vielen Zellen bestehen, in die man verschiedene Werte

Mehr

news SAP HANA I Einführung und Roadmap SAP HANA ... the smarter way of information

news SAP HANA I Einführung und Roadmap SAP HANA ... the smarter way of information I Einführung und Roadmap... the smarter way of information Seite 2/9 - Eine Einführung 90% Wachstum in einem Jahr, mehr als 2.100 Kunden, 450 Kunden mit SAP Business Suite auf HANA, über 500 Mio. Euro

Mehr

Universität Passau. Prof. Dr. Carola Jungwirth. Bachelorarbeit

Universität Passau. Prof. Dr. Carola Jungwirth. Bachelorarbeit Universität Passau Lehrstuhl für Betriebswirtschaftslehre mit Schwerpunkt Internationales Management Prof. Dr. Carola Jungwirth Bachelorarbeit Der Einsatz moderner Medien und Kommunikationsmöglichkeiten

Mehr

O-BIEE Einführung mit Beispielen aus der Praxis

O-BIEE Einführung mit Beispielen aus der Praxis O-BIEE Einführung mit Beispielen aus der Praxis Stefan Hess Business Intelligence Trivadis GmbH, Stuttgart 2. Dezember 2008 Basel Baden Bern Lausanne Zürich Düsseldorf Frankfurt/M. Freiburg i. Br. Hamburg

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence IBM Netezza Roadshow 30. November 2011 Carsten Bange Gründer & Geschäftsführer BARC Die Krise hat die Anforderungen

Mehr

Konzeption eines Master-Data-Management-Systems. Sven Schilling

Konzeption eines Master-Data-Management-Systems. Sven Schilling Konzeption eines Master-Data-Management-Systems Sven Schilling Gliederung Teil I Vorstellung des Unternehmens Thema der Diplomarbeit Teil II Master Data Management Seite 2 Teil I Das Unternehmen Vorstellung

Mehr

Einführungsveranstaltung: Data Warehouse

Einführungsveranstaltung: Data Warehouse Einführungsveranstaltung: 1 Anwendungsbeispiele Berichtswesen Analyse Planung Forecasting/Prognose Darstellung/Analyse von Zeitreihen Performancevergleiche (z.b. zwischen Organisationseinheiten) Monitoring

Mehr

Ausarbeitung im Fach Datenbanken II

Ausarbeitung im Fach Datenbanken II Ausarbeitung im Fach Datenbanken II Datenbanken Benchmarks Michael Heinrich 02.07.2008 IN05 Inhalt OLTP... 3 OLAP / Decision Support... 4 Decision Support System... 4 Online Analytical Processing... 4

Mehr

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch

Marketing Intelligence Architektur und Konzepte. Josef Kolbitsch Manuela Reinisch Marketing Intelligence Architektur und Konzepte Josef Kolbitsch Manuela Reinisch Übersicht Mehrstufiges BI-System Architektur eines Data Warehouses Architektur eines Reporting-Systems Benutzerrollen in

Mehr

Einführung in OLAP und Business Analysis. Gunther Popp dc soft GmbH

Einführung in OLAP und Business Analysis. Gunther Popp dc soft GmbH Einführung in OLAP und Business Analysis Gunther Popp dc soft GmbH Überblick Wozu Business Analysis mit OLAP? OLAP Grundlagen Endlich... Technischer Background Microsoft SQL 7 & OLAP Services Folie 2 -

Mehr

OLAP und Data Warehouses

OLAP und Data Warehouses OLP und Data Warehouses Überblick Monitoring & dministration Externe Quellen Operative Datenbanken Extraktion Transformation Laden Metadaten- Repository Data Warehouse OLP-Server nalyse Query/Reporting

Mehr

SSDs als Cache für HDDs

SSDs als Cache für HDDs SSDs als Cache für HDDs CacheCade vs. BCache Dirk Geschke Linux User Group Erding 23. Oktober 2013 Dirk Geschke (LUG-Erding) SSD-Cache 23. Oktober 2013 1 / 71 Gliederung 1 Einleitunng 2 HDD Hard-Disk-Drive

Mehr

Data Warehouses und Moderne Betriebliche Anwendungen von Datenbanksystemen

Data Warehouses und Moderne Betriebliche Anwendungen von Datenbanksystemen Data Warehouses und Moderne Betriebliche Anwendungen von Datenbanksystemen (Folien von A. Kemper zum Buch 'Datenbanksysteme') Online Transaction Processing Betriebswirtschaftliche Standard- Software (SAP

Mehr

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator

eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator eevolution Business Intelligence Oliver Rzeniecki COMPRA GmbH Programmierer & Datenbankadministrator Agenda Was ist Business Intelligence? Was ist OLAP? Unterschied zwischen OLAP und OLTP? Bestandteile

Mehr

Themen. M. Duffner: Datenbanksysteme

Themen. M. Duffner: Datenbanksysteme Datenbanksysteme Themen Theorie Einführung Datenbank, Datenbankmanagementsystem (DBMS), Aufgaben eines DBMS Relationale Datenbanken Daten als Tabellen Datenbankentwurf im Entity-Relationship-Modell Abfragesprache

Mehr

Effiziente Anwendungen von In-Memory Datenbanken

Effiziente Anwendungen von In-Memory Datenbanken Effiziente Anwendungen von In-Memory Datenbanken Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaften der Wirtschaftswissenschaftlichen

Mehr

SAP BW + Microsoft Excel Viel genutzt, oft unterschätzt

SAP BW + Microsoft Excel Viel genutzt, oft unterschätzt Corporate Performance Management SAP BW + Microsoft Excel Viel genutzt, oft unterschätzt Martin Krejci, Manager CPM Matthias Schmidt, BI Consultant Kristian Rümmelin, Senior BI Consultant Braincourt GmbH

Mehr

Prüfungsberatungs-Stunde Datenbanksysteme 1 (Dbs1)

Prüfungsberatungs-Stunde Datenbanksysteme 1 (Dbs1) Prüfungsberatungs-Stunde Datenbanksysteme 1 (Dbs1) Herbstsemester 2013/14 Prof. S. Keller Informatik HSR Januar 2014, HS13/14 Dbs1 - Prüfungsvorbereitung 1 Dbs1 Ziele Grundlagenwissen in folgenden Gebieten

Mehr

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht)

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Christian Haag, DATA MART Consulting Consulting Manager Oracle DWH Team

Mehr

Inhalte der heutigen Vorlesung

Inhalte der heutigen Vorlesung Inhalte der heutigen Vorlesung Wiederholung und Fortsetzung Hardware Von-Neumann-Architektur (Rechnerarchitektur) Speicher Software Wie groß ist ein Gigabyte? http://www.spiegel.de/netzwelt/tech/0,1518,606308,00.html

Mehr

SAP HANA ist schnell erklärt. TOBA Trainerwochenende vom 09. - 12. Mai 2013 in Prag

SAP HANA ist schnell erklärt. TOBA Trainerwochenende vom 09. - 12. Mai 2013 in Prag SAP HANA ist schnell erklärt TOBA Trainerwochenende vom 09. - 12. Mai 2013 in Prag Ihr Referent Steckbrief Name: Miroslav Antolovic Jahrgang: 1975 Stationen: SAP, Walldorf 1999-2004 Realtech, Walldorf

Mehr

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz Hochverfügbar und Skalierung mit und ohne RAC Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC Alexander Scholz Copyright its-people Alexander Scholz 1 Einleitung Hochverfügbarkeit

Mehr

DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER

DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER INHALTSVERZEICHNIS 1. Datenbanken 2. SQL 1.1 Sinn und Zweck 1.2 Definition 1.3 Modelle 1.4 Relationales Datenbankmodell 2.1 Definition 2.2 Befehle 3.

Mehr

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit

IT-basierte Erstellung von Nachhaltigkeitsberichten. Diplomarbeit IT-basierte Erstellung von Nachhaltigkeitsberichten Diplomarbeit zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen Fakultät der Leibniz Universität Hannover vorgelegt von

Mehr

Technische Prozesse der Archivierung am Beispiel SAP R/3. Teil III: Dokumentenverarbeitung in SAP R/3

Technische Prozesse der Archivierung am Beispiel SAP R/3. Teil III: Dokumentenverarbeitung in SAP R/3 Elektronische Archivsysteme im kommerziellen Einsatz Institut für Publizistik und Kommunikationswissenschaften Dozent: R. Weißbach WS 00/01 Technische Prozesse der Archivierung am Beispiel SAP R/3 Teil

Mehr

Speicher- und Dateisysteme - Sommersemester 2012 - Jan-Ole Zürcher. Proseminar. Speicher- und Dateisysteme

Speicher- und Dateisysteme - Sommersemester 2012 - Jan-Ole Zürcher. Proseminar. Speicher- und Dateisysteme Proseminar Speicher- und Dateisysteme Schriftliche Ausarbeitung zu meinem Vortrag am 01.06.2012 über Zukünftige Speichertechnologien -HVD, Racetrack und mehr- Jan-Ole Zürcher, 6325134 Universität Hamburg

Mehr

Kapitel II. Datenbereitstellung 2004 AIFB / FZI 1. Vorlesung Knowledge Discovery

Kapitel II. Datenbereitstellung 2004 AIFB / FZI 1. Vorlesung Knowledge Discovery Kapitel II Datenbereitstellung 2004 AIFB / FZI 1 II. Datenbereitstellung 2004 AIFB / FZI 2 II. Datenbereitstellung Collect Initial Data identify relevant attributes identify inconsistencies between sources

Mehr

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching

1 Einleitung. 1.1 Caching von Webanwendungen. 1.1.1 Clientseites Caching 1.1 Caching von Webanwendungen In den vergangenen Jahren hat sich das Webumfeld sehr verändert. Nicht nur eine zunehmend größere Zahl an Benutzern sondern auch die Anforderungen in Bezug auf dynamischere

Mehr

Oracle 10g revolutioniert Business Intelligence & Warehouse

Oracle 10g revolutioniert Business Intelligence & Warehouse 10g revolutioniert Business Intelligence & Warehouse Marcus Bender Strategisch Technische Unterstützung (STU) Hamburg 1-1 BI&W Market Trends DWH werden zu VLDW Weniger Systeme, mehr Daten DWH werden konsolidiert

Mehr

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015 Abstrakt zum Vortrag im Oberseminar Graphdatenbanken Gero Kraus HTWK Leipzig 14. Juli 2015 1 Motivation Zur Darstellung komplexer Beziehungen bzw. Graphen sind sowohl relationale als auch NoSQL-Datenbanken

Mehr

Systemanforderungen Daten und Fakten

Systemanforderungen Daten und Fakten Daten und Fakten NTConsult GmbH Lanterstr. 9 D-46539 Dinslaken fon: +49 2064 4765-0 fax: +49 2064 4765-55 www.ntconsult.de Inhaltsverzeichnis 1. für die Online-Dokumentation... 3 2. Server... 3 2.1 Allgemein...

Mehr

4 Planung von Anwendungsund

4 Planung von Anwendungsund Einführung 4 Planung von Anwendungsund Datenbereitstellung Prüfungsanforderungen von Microsoft: Planning Application and Data Provisioning o Provision applications o Provision data Lernziele: Anwendungen

Mehr

WENDIA ITSM EXPERT TALK

WENDIA ITSM EXPERT TALK WENDIA ITSM EXPERT TALK WENDIA ITSM WHITEPAPER IT SERVICE MANAGEMENT BASISWISSEN: IN EINFACHEN SCHRITTEN ZUR CMDB Wer, Wie, Was: Die CMDB als Herzstück eines funktionierenden IT Service Management Die

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

IN-MEMORY COMPUTING SAP HANA BASICS Werkzeug für Big Data

IN-MEMORY COMPUTING SAP HANA BASICS Werkzeug für Big Data IN-MEMORY COMPUTING SAP HANA BASICS Werkzeug für Big Data PROFI Webcast Darmstadt, 12. Juni 2012 Christian Lenz SAP HANA IN MEMORY COMPUTING DATENWACHSTUM HEUTE UND IN DER ZUKUNFT Daten wachsen nicht linear,

Mehr

Datensicherheit und Hochverfügbarkeit

Datensicherheit und Hochverfügbarkeit Datensicherheit und Hochverfügbarkeit 1. Instanzfehler Aussage: Instanzfehler werden durch Crash Recovery vom DBS automatisch behandelt. Recovery Zeiten? Ausfall von Speichersubsystem, Rechner,...? Ausfall

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

Kapitel II. Datenbereitstellung. II. Datenbereitstellung. II.1 Grundlagen. II. Datenbereitstellung. Collect Initial Data. II.

Kapitel II. Datenbereitstellung. II. Datenbereitstellung. II.1 Grundlagen. II. Datenbereitstellung. Collect Initial Data. II. II. bereitstellung Kapitel II bereitstellung 1 2 II. bereitstellung II.1 Grundlagen Collect Initial Data identify relevant attributes identify inconsistencies between sources Describe Data characterize

Mehr

SAP HANA im Rechnungswesen

SAP HANA im Rechnungswesen SAP HANA im Rechnungswesen Nice-To-Know Stand: Juni 2015 Inhalt SAP HANA und In-Memory-Computing - Ausgangssituation - Lösungsansatz Einsatz-Szenarien von SAP HANA - Side-by-Side Scenarios - Integrated

Mehr

Next Generation Database Computing: SAP HANA

Next Generation Database Computing: SAP HANA Seite 1 von 5 Next Generation Database Computing: SAP HANA SAP HANA ist als ein echtes Erfolgsprodukt gestartet. Mit der In-Memory-Datenbank konnte SAP für 2011 alle Prognosen deutlich übertreffen. Mit

Mehr

The integration of business intelligence and knowledge management

The integration of business intelligence and knowledge management The integration of business intelligence and knowledge management Seminar: Business Intelligence Ketevan Karbelashvili Master IE, 3. Semester Universität Konstanz Inhalt Knowledge Management Business intelligence

Mehr

Whitepaper Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Server 2005 / 2008

Whitepaper Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Server 2005 / 2008 Externe Speicherung von Binary Large Objects (BLOBs) mit SharePoint 2007 sowie SQL Andreas Glaser, 23. September 2008 Teufenerstrasse 19 CH 9001 St.Gallen t [+41] 71 228 67 77 f [+41] 71 228 67 88 info@namics.com

Mehr

TECHNISCHE PRODUKTINFORMATION CARUSO

TECHNISCHE PRODUKTINFORMATION CARUSO 1111 TECHNISCHE PRODUKTINFORMATION CARUSO TECHNISCHE PRODUKTINFORMATION Seite 0/7 Inhalt 1 Systemdefinition............2 2 Technische Details für den Betrieb von CARUSO......2 2.1 Webserver... 2 2.2 Java

Mehr

Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager

Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager Projektphasen und Technische Vorbereitung eines NX Refiles mit dem PLMJobManager Dieses Dokument dient zur Information über die Organisation der Projektphasen und der technischen Vorbereitung eines Refile

Mehr

Architekturen. Von der DB basierten zur Multi-Tier Anwendung. DB/CRM (C) J.M.Joller 2002 131

Architekturen. Von der DB basierten zur Multi-Tier Anwendung. DB/CRM (C) J.M.Joller 2002 131 Architekturen Von der DB basierten zur Multi-Tier Anwendung DB/CRM (C) J.M.Joller 2002 131 Lernziele Sie kennen Design und Architektur Patterns, welche beim Datenbankzugriff in verteilten Systemen verwendet

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

S A P B W O N H A N A P R O O F O F C O N C E P T B E I S. O L I V E R

S A P B W O N H A N A P R O O F O F C O N C E P T B E I S. O L I V E R S A P B W O N H A N A P R O O F O F C O N C E P T B E I S. O L I V E R S T E F A N M A R K 07.07.2015 F O L I E 1 V O N 2 7 F I R M E N P O R T R A I T S. O L I V E R GESCHICHTE F O L I E 2 V O N 2 7 F

Mehr

PRÄSENTATION MAGNETISCHE FESTPLATTEN. Proseminar Speicher- und Dateisysteme. Björn Fries 10. / 11.03.2011

PRÄSENTATION MAGNETISCHE FESTPLATTEN. Proseminar Speicher- und Dateisysteme. Björn Fries 10. / 11.03.2011 PRÄSENTATION MAGNETISCHE FESTPLATTEN Proseminar Speicher- und Dateisysteme Björn Fries GLIEDERUNG (1) Einleitung o Was ist eine Festplatte? o Aufgabe und Einsatz (2) Technischer Aufbau a. Physikalischer

Mehr

SQL- & NoSQL-Datenbanken. Speichern und Analysen von großen Datenmengen

SQL- & NoSQL-Datenbanken. Speichern und Analysen von großen Datenmengen SQL- & NoSQL-Datenbanken Speichern und Analysen von großen Datenmengen 1 04.07.14 Zitat von Eric Schmidt (Google CEO): There was 5 exabytes of information created between the dawn of civilization through

Mehr

Befragung und empirische Einschätzung der Praxisrelevanz

Befragung und empirische Einschätzung der Praxisrelevanz Befragung und empirische Einschätzung der Praxisrelevanz eines Vorgehensmodells zur Auswahl von CRM-Systemen D I P L O M A R B E I T zur Erlangung des Grades eines Diplom-Ökonomen der Wirtschaftswissenschaftlichen

Mehr

CIBER DATA CENTER für höchste Ansprüche an Datensicherheit

CIBER DATA CENTER für höchste Ansprüche an Datensicherheit CIBER Hosting Services CIBER DATA CENTER für höchste Ansprüche an Datensicherheit Die Sicherheit Ihrer Daten steht bei CIBER jederzeit im Fokus. In den zwei georedundanten und mehrfach zertifizierten Rechenzentren

Mehr

Ergonomisch, flexibel, schnell und automatisch merlin.zwo realisiert neues Berichts-Portal RAAS

Ergonomisch, flexibel, schnell und automatisch merlin.zwo realisiert neues Berichts-Portal RAAS Neue Reporting-Software für die Union Investment Gruppe Ergonomisch, flexibel, schnell und automatisch merlin.zwo realisiert neues Berichts-Portal RAAS Foto: Union Investment Gruppe Mit dem von merlin.zwo

Mehr

Kliniken des Landkreises Lörrach GmbH

Kliniken des Landkreises Lörrach GmbH Die Kliniken des ist ein medizinisches Dienstleistungsunternehmen, das eine bedarfsgerechte Versorgung mit Krankenhausleistungen auf hohem Niveau erbringt. Kliniken des Landkreises Lörrach Im Zuge der

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

UNLIMITED by Capgemini Echtzeit für Individualanwendungen

UNLIMITED by Capgemini Echtzeit für Individualanwendungen Application Services the way we do it UNLIMITED by Capgemini Echtzeit für Individualanwendungen Was wäre, wenn Ihre Individual-Software 30-mal schneller liefe? sie dabei 100-mal so viele Daten verarbeiten

Mehr

4. WORKSHOP - OSBI Big Data und Datenvirtualisierung. Dr. Sebastian Streit & Maxim Zehe

4. WORKSHOP - OSBI Big Data und Datenvirtualisierung. Dr. Sebastian Streit & Maxim Zehe 4. WORKSHOP - OSBI Big Data und Datenvirtualisierung Dr. Sebastian Streit & Maxim Zehe F. Hoffmann-La Roche AG Gegründet 1896 in Basel Über 80.000 Mitarbeitende Führende Position in Pharma Fokussierung

Mehr

Integration Services - Dienstarchitektur

Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Integration Services - Dienstarchitektur Dieser Artikel solle dabei unterstützen, Integration Services in Microsoft SQL Server be sser zu verstehen und damit die

Mehr

Referenzbericht Einführung Lynx CORESTO HA Storage Appliance im Hause SIMTEK

Referenzbericht Einführung Lynx CORESTO HA Storage Appliance im Hause SIMTEK Referenzbericht Einführung Lynx CORESTO Storage HA Appliance im Hause Präzisionswerkzeuge GmbH, Mössingen http://www.simtek.com mit Unterstützung von Lynx IT, Reutlingen - ein Geschäftsbereich der transtec

Mehr

Advanced Analytics mit EXAPowerlytics. Technisches Whitepaper

Advanced Analytics mit EXAPowerlytics. Technisches Whitepaper Advanced Analytics mit EXAPowerlytics Technisches Whitepaper Inhalt 1. Zusammenfassung... 3 2. Einführung... 4 3. Fachliche Einführung... 5 4. Beispiel: Zeichen zählen... 7 5. Fazit... 9 6. Anhang... 10-2

Mehr

Transaktionen Recovery Isolationslevel. Datenbanksysteme. Transaktionen. Burkhardt Renz. Fachbereich MNI Technische Hochschule Mittelhessen

Transaktionen Recovery Isolationslevel. Datenbanksysteme. Transaktionen. Burkhardt Renz. Fachbereich MNI Technische Hochschule Mittelhessen Transaktionen Fachbereich MNI Technische Hochschule Mittelhessen Sommersemester 2015 Motivation ACID-Eigenschaften Übersicht Transaktionen Motivation ACID-Eigenschaften Ursachen für Logging und Backup

Mehr

IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen

IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen Nahezu 70% aller Data Warehouse Anwendungen leiden unter Leistungseinschränkungen der unterschiedlichsten Art. - Gartner

Mehr

Online Help StruxureWare Data Center Expert

Online Help StruxureWare Data Center Expert Online Help StruxureWare Data Center Expert Version 7.2.7 Virtuelle StruxureWare Data Center Expert-Appliance Der StruxureWare Data Center Expert-7.2-Server ist als virtuelle Appliance verfügbar, die auf

Mehr

Antwortzeitverhalten von Online Storage Services im Vergleich

Antwortzeitverhalten von Online Storage Services im Vergleich EPOD Encrypted Private Online Disc Antwortzeitverhalten von Online Storage Services im Vergleich Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee

Mehr

Hauptspeicher- Datenbanksysteme. Hardware-Entwicklungen Column- versus Row-Store...

Hauptspeicher- Datenbanksysteme. Hardware-Entwicklungen Column- versus Row-Store... Hauptspeicher- Datenbanksysteme Hardware-Entwicklungen Column- versus Row-Store... Hauptspeicher-Datenbanksysteme Disk is Tape, Tape is dead Jim Gray Die Zeit ist reif für ein Re-engineering der Datenbanksysteme

Mehr

Lokales Storage Teil 1

Lokales Storage Teil 1 Lokales Storage Teil 1 Zinching Dang 08. Juli 2015 1 Lokales Storage im Allgemeinen Lokales Storage im Allgemeinen Datenträger, die direkt am Host angeschlossen sind Anbindung über verschiedene Bus-Systeme

Mehr