Neue Datenbanken für BI wie gut sind sie?

Größe: px
Ab Seite anzeigen:

Download "Neue Datenbanken für BI wie gut sind sie?"

Transkript

1 White Paper Neue Datenbanken für BI wie gut sind sie? Abstract In letzter Zeit tauchen bemerkenswert viele neue Datenbanksysteme am Markt auf, was vor allem auf die Verfügbarkeit billiger 64-Bit Systeme mit grossem RAM zurückzuführen sein dürfte. Ein praxisorientierter Test zeigt, wie gut sie im Vergleich zu bekannten Systemen wie Oracle oder Mysql abschneiden.

2 Die Dinosaurier bekommen Konkurrenz Seit geraumer Zeit teilen sich IBM, Oracle und Microsoft den Markt für Datenbanksysteme (genauer: Database Management Systems = DBMS) praktisch ohne ernstzunehmende Konkurrenz. Dies trifft sowohl auf Data Warehouses als auch auf Transaktionssysteme zu, wobei in beiden Bereichen typischerweise die gleiche Technologie zum Einsatz kommt, nämlich zeilenbasierte relationale Systeme mit optimiertem Plattenzugriff. Auch Teradata, ein DBMS das vor allem bei Anwendungen mit sehr grossen Datenmengen einen wesentlichen Marktanteil hat, fällt in diese Kategorie. Alle diese Systeme sind mehrere Jahrzehnte alt. In den letzten Jahren drängten vermehrt neue Ansätze auf den Markt, welche die erst jetzt verfügbaren riesigen Hauptspeicher optimal ausnutzen (siehe [1]). Ausserdem versuchen manche davon, durch Spezialisierung auf entweder Data Warehousing oder Transaktionsverarbeitung weitere Performance-Verbesserungen zu erzielen. Im Bereich Business Intelligence grob gesprochen jede Art Berichte, die mit aggregierten Zahlen und Konsolidierung zu tun haben hat man praktisch immer ein Data Warehouse als Basis. Dies ist auch der Bereich, wo die meisten neuen Player zu finden sind, sowohl kommerziell als auch unter diversen Open Source oder Shareware Lizenzen. Einige der prominentesten neuen Player sind, ohne Anspruch auf Vollständigkeit, in alphabetischer Reihenfolge: Exasol: Eine kommerzielle Lösung, die bisher vor allem in Deutschland im Einsatz ist. Die technischen Schlagworte sind wie bei MonetDB Spaltenorientierung und In-Memory Verarbeitung, sowie einfache Wartung und Administration. Exasol wird auf 64 Bit Intel Standard-Hardware installiert, mit einem proprietären Betriebssystem. Entwickelt in Nürnberg in Deutschland. Bekannt als Sieger im TPC-H Benchmark in den Kategorien 100 GB, 300 GB und 3000 GB (siehe [2]). LucidDB: Laut eigenen Angaben das erste und einzige Open Source Datenbanksystem, das speziell für Data Warehousing und Business Intelligence Zwecke entworfen wurde. Technische Stichwörter sind unter anderem Spaltenorientierung und Bitmap Indexing. Entwickelt von LucidEra in Kalifornien. MonetDB: Ein Open Source Datenbanksystem für High-Performance Anwendungen für Data Mining, OLAP, GIS, XML Query, Text und Multimedia-Anwendungen. Technische Stichwörter sind Spaltenorientierung und In-Memory Verarbeitung. Entwickelt am CWI in den Niederlanden. Eine bekannte Publikation ist [3]. Netezza: Kommerziell, mit eigener Hardware. Schlagwörter sind Field Programmable Gate Array, Processing at Disk Level und Fast Full Table Scans. Die Firma ist in Massachusetts, USA ansässig und hat in den USA bereits eine Vielzahl prominenter Kunden. Vertica: Kommerziell, mit de facto den gleichen Merkmalen wie Exasol: Spaltenorientierung, In-Memory Verarbeitung, Standard-Hardware, spezialisiert auf Data Warehousing. Interessant ist hier, dass Virtualisierung mit VMWare ausdrücklich unterstützt wird, was für High-Performance Anwendungen sehr ungewöhnlich erscheint. Vor allem in den USA präsent. Wie Netezza in Massachusetts, USA ansässig. Um mit den Tests im Rahmen zu bleiben, muss man hier eine Vorauswahl treffen. Da es naturgemäss schwierig ist, Tests auf Netezza durchzuführen, weil man Zugang zu spezieller Netezza-Hardware benötigt, und weil Vertica in Europa weitgehend unbekannt ist, beschränkten sich die Tests auf LucidDB, MonetDB und Exasol. Als Vergleichssysteme werden Oracle, MS SQL Server und MySQL herangezogen. Ein Performance-Benchmark aus der Praxis Es war einmal eine Firma, die wollte ihren Managern ein Performance-Cockpit anbieten, wo jeder Verantwortliche den summierten Umsatz aller seiner Mitarbeiter sieht. Und das natürlich pro Monat und aufgeschlüsselt nach Kundengruppe und nach mehreren anderen Dimensionen, deren genaue Definition hier keine Rolle spielt. Daraus folgt, dass es pro Manager eine eigene Query geben muss, die genau seine Mitarbeiter betrachtet, und sonst keine. Wenn die Firma gross ist, und sie hat hunderte Manager, dann müssen täglich mehrere hundert Queries laufen. Pikanterweise werden diese Abfragen langsamer, je höher die Position des Abnehmers ist, da es mehr Zahlen zu summieren gilt. Am längsten wartet der CEO. Leider ist diese Geschichte kein Märchen. In der Tat kommen solche Situationen so oft vor, dass es sich lohnt, einen Benchmark zu entwerfen, der das Problem mit synthetischen, generierten Daten nachbildet. Figure 1: Synthetisch erzeugtes Datenmodell Man sieht auf der linke Seite die Tabelle dim_org, die den Organisationsbaum der Firma enthält, in einer ParentChild Struktur. Wer schon einmal mit dem Schema scott gearbeitet hat, das in jeder Oracle-Installation vorhanden ist, kennt so etwas aus der Tabelle scott.emp, wo die Spalte mgr auf den jeweilgen Chef verweist. Rechts davon ist die Tabelle dim_org_flat, die zu jedem

3 Manager alle Mitarbeiter enthält, die für ihn arbeiten. Durch einen Join zur Fakttabelle t_facts, welche die Zahlen pro Mitarbeiter und Transaktion enthält, kann man die gewünschten Summen als in sich geschlossenes SQL-Statement hinschreiben. Summen entlang solcher Hierarchien zu bilden ist mit SQL normalerweise keine einfache Angelegenheit. Häufig werden Schleifen programmiert, die mit Hilfe eines Cursors durch den Baum navigieren, was zwangsläufig zu vielen kleinen Queries und unakzeptabler Performance führt. Ein weiterer Nachteil dieses Ansatzes ist, dass man derartigen Code auf keinen Fall von BI-Tools erzeugen lassen kann. Durch die Bridge-Tabelle dim_org_flat wird das Problem jedoch so elegant vereinfacht, dass sogar automatisch erzeugtes SQL aus Reporting-Werkzeugen die Konsolidierungsaufgabe lösen kann. Rechts von der Fakttabelle sind die Dimensionstabellen angeordnet, die Zusatzinformation zu den Gruppierungskriterien enthalten, also z.b. dim_client.id = 4711 => client_ name = Meier. Man könnte theoretisch all diese Spalten direkt in die Fakttabelle mit aufnehmen, was aber zu einer gigantischen Aufblähung der Datenmenge durch endlose Wiederholungen der Zusatzinformation führen würde. Die Testquery zur Bestimmung der Summe über alle Mitarbeiter, gruppiert nach allen Dimensionen, sieht folgendermassen aus: with t as ( SELECT FROM AL2.ID, SUM ( AL1.FACT_1 ) fact_1, SUM ( AL1.FACT_2 ) fact_2, SUM ( AL1.FACT_3 ) fact_3, AL9.TIME01, AL6.CLIENT_T_01, AL8.PRODUCT_T_01, AL11.UNIT_T_01, AL4.ACCOUNTING_T_01, AL5.BUSINESSTYPE_T_01, AL7.MEASURE_T_01, AL10.TRANS_T_01 T_FACTS AL1, DIM_ORG AL2, DIM_ORG_FLAT AL3, DIM_ACCOUNTING AL4, DIM_BUSINESSTYPE AL5, DIM_CLIENT AL6, DIM_MEASURE AL7, DIM_PRODUCT AL8, DIM_TIME AL9, DIM_TRANS AL10, DIM_UNIT AL11 WHERE GROUP BY ) (AL3.ID=AL1.DIM_ORG AND AL2.ID=AL3.PARENT AND AL1.DIM_TIME=AL9.ID AND AL1.DIM_CLIENT=AL6.ID AND AL1.DIM_PRODUCT=AL8.ID AND AL1.DIM_UNIT=AL11.ID AND AL1.DIM_ACCOUNTING=AL4.ID AND AL1.DIM_BUSINESSTYPE=AL5.ID AND AL1.DIM_MEASURE=AL7.ID AND AL1.DIM_TRANS=AL10.ID) AND (AL2.ID= $member_org) AL2.ID, AL9.TIME01, AL6.CLIENT_T_01, AL8.PRODUCT_T_01, AL11.UNIT_T_01, AL4.ACCOUNTING_T_01, AL5.BUSINESSTYPE_T_01, AL7.MEASURE_T_01, AL10.TRANS_T_01 select count(*) from t ; Wie man schon an den phantasielosen Aliasen für die Tabellen erkennen kann, ist dies eine von einem Business- Intelligence Werkzeug automtisch erzeugte Abfrage. Damit wird nebenbei mitgetestet, ob ein DBMS das erzeugte SQL unverändert akzeptiert, oder ob noch Anpassungen gemacht werden müssen. Das count(*) wurde von Hand hinzugefügt, damit die Übertragungszeit für Daten nicht das Messergebniss für die Abfragedauer verzerrt. Ausserdem ist das ganze in einem with-statement verpackt, weil man nur dann gut lesbares SQL schreiben kann, wenn diese Syntax unterstützt wird. Wie weiter oben schon bemerkt, ist die Komplexität der Abfrage abhängig von der Position des Managers in der Firmenhierarchie. In der Query ist dies in der Zeile AL2.ID= $member_org zu sehen, wo $member_org die Werte 0,23 und 7717 annimmt, je nachdem, ob man es mit dem CEO (0), einem mittleren Manager (23), oder jemandem ganz unten zu tun hat, der selbst arbeiten muss (7717). Die andere einfache Möglichkeit, an der Laufzeit zu drehen, liegt in der Grösse der Fakttabelle. Hier entspricht eine Grösse von 80 Spalten und 16 Mio Zeilen der realen Situation im Projekt. Wenn damit nur kurze Laufzeiten auftreten und alles stabil ist, kann man sukzessive grössere Fakttabellen erzeugen lassen. Das Datenvolumen mit 16 Mio Rows ist erstaunlich gering, bei unter 7 Gigabyte. Man möchte meinen, dass ein bewährtes DBMS mit solchen Trivialitäten keine Schwierigkeiten hat,

4 aber weit gefehlt. Eine typische Laufzeit dieses Tests liegt bei ca 20 Minuten. Das bedeutet, dass schon bei 30 wichtigen Managern das Abarbeiten der Queries nicht mehr innerhalb einer Nacht möglich ist! Die Resultate (Abfragezeit in Sekunden) sind doch einigermassen bemerkenswert: Bezeichnung member_org Aggregierte Zeilen in der Fakt-Tabelle Aggregierte Zeilen in Prozent Anzahl Zeilen im Resultat Plattform CEO Abteilungsleiter Assistent Produktionsplattform (PO) Assistent Abteilungsleiter 23 1 Mio CEO 0 16 Mio Einfluss der Hardware Man würde vermuten, dass neben dem verwendeten DBMS selbst auch der Hardware wesentliche Bedeutung zukommt, auf der es installiert ist. Angesichts der Tatsache, dass das Test-Datenset unter 7 GB gross ist, sollte man auch einen starken Einfluss der RAM-Grösse erwarten. Wenn mehr RAM zur Verfügung steht, als es Daten gibt, könnte theoretisch jedes System ohne Kompression oder Tricks alles in den Hauptspeicher holen. Die Testplattformen sind: Produktionsplattform: IBM mit 8 GB RAM 4 CPUS 1.9 GHz AIX mit Oracle 10G Heim-PC mit Oracle: Dell Dimension E521 4 GB RAM CPU 2.2 GHz Windows 2003 Server mit Oracle 10G Heim-PC mit MS-SQL Server: Dell Dimension E521 4 GB RAM CPU 2.2 GHz Windows 2003 Server MS SQL Server 2005 Linux-Server mit zu wenig RAM und Oracle: HP DL380 Proliant 0.5 GB RAM CPU 3.2 GHz Red Hat Linux Exasol Testserver: 2 Quad Core Intel CPUs, 32 GB RAM, 2 Server, Linux Microkernel Heim-PC mit Oracle (HO) Heim-PC mit MS-SQL Server (HS) Linux-Server mit zu wenig RAM und Oracle (LO) Die grosse Überraschung ist, dass alle Systeme so etwa in der gleichen Grössenordnung liegen. Lediglich der Linux- Server mit dem RAM-Handicap hat etwas Probleme, aber bei Licht betrachtet sind 24 Minuten (1423 sec) für den CEO- Testfall anstatt der 20 Minuten mit dem Produktionsserver auch kein qualitativer Unterschied. Microsoft SQL Server fällt positiv auf und ist auf dem Heim- PC etwas schneller als Oracle, und das ist immerhin schon zweimal so schnell wie Oracle auf der Produktionsplatform. Allerdings ist dieser Vergleich mit Vorsicht zu geniessen, weil man auf einer Produktionsmaschine nie sicher sein kann, dass man sie wirklich für sich alleine hat. Der Test wurde daher mehrfach zu verschiedenen Tageszeiten wiederholt, allerdings ohne bemerkenswerte Schwankungen im Ergebnis. Figure 2: CEO-Szenario auf verschiedenen Plattformen

5 Um es griffig zu formulieren: Ein moderner PC ist schneller als man denkt, und SQL Server auf einer WindowsPlattform läuft gut. Allerdings scheint diese harmlos aussehende Standardquery jedes Standard-DBMS so zu überfordern, dass es keinen wesentlichen Unterschied macht, ob man 4 CPUS hat oder nur eine, und ob man 8 GB RAM hat oder nur ein halbes. Datenbank-Tuning, oder Herkules und die Hydra An dieser Stelle werden Leser mit DB-Erfahrung fragen, wo denn die Indexe gesetzt waren, mit welchen Optionen das Kommando zum Sammeln der Tabellen-Statistiken abgesetzt wurde und wie die Tabellen partitioniert waren. Ein Oracle-Guru wird anmerken, dass durch das Setzen geeigneter Hints in der Abfrage die Performance bisweilen um einen Faktor 10 verbessert werden kann, und so weiter und so fort. Tatsache ist, dass all diese Fragen berechtigt sind. Gleichzeitig sind sie wenig hilfreich. Business Intelligence bedeutet vor allem, dass Queries automatisch erzeugt werden und so laufen müssen, wie sie aus dem SQLGenerator kommen. Die Endanwender erzeugen ständig wechselndes SQL, ohne überhaupt zu wissen, welche Tabellen daran beteiligt sind. Die Option, von Hand am SQL-Code zu drehen, gibt es nicht. Verschiedene Systeme auf vergleichbarer Hardware Wenn man eine Evaluation verschiedener DB-Systeme durchführt, sollte die zugrundeliegende Hardware zumindest vergleichbar sein. Die nächste Testreihe verwendet daher ein und denselben Server für jedes DBMS. Eine Ausnahme bildet Exasol, das auf seinem eigenen Testserver lief, der aber von der Ausstattung her vergleichbar ist. Neben der reinen Performance kommen dabei auch die Aspekte Installation, Konfiguration und Stabilität zum Tragen. Insbesondere ist von Interesse, ob an der SQLSyntax der Testquery Veränderungen notwendig sind, um sie auf einem DBMS lauffähig zu machen. Überblick Der Testserver hate als CPU einen Intel Dual-Xeon E5205, dazu 16 GB RAM und zwei mal 250 GB Festplatte. Als Betriebssystem kam ein 64 Bit Debian Linux zum Einsatz. Für Oracle und LucidDB stellt die Abbildung die langsameren Laufzeiten mit Indexen und die schnelleren ohne Indexe in einem Balken dar. Der rote Teil ist dabei der Performancegewinn durch Weglassen der Indexe. Bei MonetDB stellt der rote Teil den Performancegewinn durch den Bugfix im Optimizer dar. Am konkreten Beispiel der Testquery hat sich gezeigt, dass Indexe auf der Fakt-Tabelle immer schaden, und zwar unabhängig davon, welches DBMS eingesetzt wird. Generell verdoppeln sich die Laufzeiten für den CEO-Fall, wenn man die Ratschläge aus der Literatur beherzigt und auf der Fakttabelle einen Index pro Dimensionstabelle anlegt. Bedeutet dies, dass z.b. Ralph Kimball in [4] nicht weiss, wovon er spricht? Nein. Es bedeutet nur, dass die Indexe schaden, wenn man über die ganze Tabelle aggregiert, weil dann ein Full Table Scan effizienter ist. Und genau das ist es, was im CEO-Testcase geschieht. Die Optimizer sind generell nicht in der Lage, dies zu erkennen und wenden die Indexe an, auch wenn dies völlig sinnlos ist und die Performance nach unten zieht. Also löscht man die Indexe, damit die CEO-Query schnell wird, aber ein Dutzend andere Abfragen, die nur wenige Rows aus der Fakttabelle selektieren, werden dafür langsamer. Dieses Spiel kann auf die Dauer sehr frustrierend sein, sowohl für den DB-Admin als auch für die Anwender, deren Query-Laufzeiten total unvorhersehbar werden. Ein guter DB-Admin kann hier einen gewaltigen Unterschied machen. Er beherrscht als einziger die schwarze Kunst der Optimierung, und kann durch geschicktes Editieren einer Konfigurationsdatei Laufzeiten um Grössenordnungen verbessern. Das Problem ist, solche Leute zu finden oder überhaupt zu erkennen. Figure 3: CEO-Szenario mit verschiedenen DBMS Im folgenden werden die Erfahrungen beim Test der verschiedenen DBMS einzeln diskutiert. Oracle 11 Debian Linux wird von Oracle offiziell nicht unterstützt, und 64 Bit Debian erst recht nicht. Allerdings gibt es eine Linux- Distribution für Red Hat Linux, die man für Evaluationszwecke kostenfrei auf der Oracle-Webseite herunterladen kann. Ausserdem findet man mit Google recht schnell Hinweise, was bei einer Installation auf Debian alles schief geht, und was man dagegen unternehmen muss. Dennoch dauert es circa ein Wochenende, bis so eine Installation gelingt. Zum Beispiel benötigt man zwingend eine graphische Ober-

6 fläche wie KDE, erstens weil man das Installationspaket mit einem textbasierten Browser nicht herunterladen kann, und weil zweitens der Installationsassistent keine Kommandozeilenunterstützung bietet. Remote mit putty ist hier also nichts zu machen. Erschwerend kommt hinzu, dass die unzip Utility in der 64-Bit Oracle Distribution ein 32-Bit Binary ist und deswegen einfach nicht funktioniert. Die Pfade zu einigen Bibliotheken sind verkehrt, und manche Teile des Installationsprozesses benötigen dann doch wieder 32-Bit Shared Libraries, für die erstmal die 64-Bit Versionen versucht werden, was zu obskuren Fehlermeldungen führt. Damit Oracle den mächtigen Server auch richtig ausnutzen kann, gilt es anschliessend noch, diverse Kernel-Parameter in /etc/sysctl.conf anzupassen. Hat man das alles hinter sich, läuft Oracle reibungslos und ohne Einschränkungen, und der Performancegewinn gegenüber einem 32-Bit System ist mit einem Faktor 4 sehr beachtlich. Der Effekt, dass Indexe auf der Fakt-Tabelle die Performance halbieren, bleibt. Wir geben deshalb zwei Zahlen in der Ergebnistabelle an, einmal mit Indexen, und einmal ohne. Der Grund ist, dass wir von einem Szenario mit automatisch generiertem SQL ausgehen, wo das Ausschalten von Indexen durch manuelles Einfügen eines Hints nicht in Frage kommt. Man kann auch nicht unbedingt erwarten, dass jemand auf Verdacht alle Indexe löscht, um herauszufinden, ob das vielleicht die Performance bei manchen Queries verbessert, während die meisten anderen langsamer werden. MySQL Für MySQL gibt es ein fertiges APT-Package, welches man mit einem Einzeiler apt-get install mysql-server herunterladen und installieren kann. Es funktioniert sofort. Die Performance ist jedoch entäuschend. Für den CEOTestcase braucht Mysql 38 min, was ungefähr 10 mal langsamer ist als Oracle 11. Im Abteilungsleiter-Fall verliert man sogar einen Faktor 50, was in anschaulich gesprochen 10 Minuten statt 10 Sekunden bedeutet Inwiefern hier Optimierungspotential vorhanden ist, sei dahingestellt. Die Kernel-Parameter waren bereits vorher für Oracle nach oben gesetzt worden, am Shared Memory oder dergleichen liegt es also sicher nicht. MySQL selbst hat über 200 weitere interne Parameter, deren aktuellen Wert man mit show variables anzeigen lassen kann. Eine Suche mit Google deutet darauf hin, dass key_buffer_ size ein heisser Kandidat für Optimierungen ist. Eine Erhöhung dieses Parameters von 8 MB auf 4 GB änderte jedoch schlichtweg gar nichts an den Laufzeiten. LucidDB LucidDB tritt mit dem Anspruch an, bei minimaler Wartung und Konfiguration schnelle Antwortzeiten bei komplexen analytischen Abfragen zu liefern. Die Installation verläuft reibungslos. Zwar gibt es kein Debian-Package, aber Herunterladen, unzippen und einmal kurz #./install.sh und #./luciddbserver eintippen, und der Server läuft. Wie bei MySQL sind die Antwortzeiten aber zunächst schlecht, vor allem im CEO-Fall, wo es 1 Stunde und 24 Minuten dauert, bis ein Ergebnis geliefert wird. Eine Suche im Netz legt nahe, die Lucid-Parameter cache- PagesMax und cachepagesinit zu erhöhen, die anfänglich auf jeweils 5000 Pages zu 32 KB gesetzt sind. Nach alter system set cachepagesmax = ; und alter system set cachepagesinit = ; verkürzt sich die Laufzeit auf akzeptable 460 Sekunden. Das ist eine Verbesserung um einen Faktor 10, nur durch korrektes Setzen eines DB-Parameters. Es ist vorstellbar, dass einer von den 200 MySQL-Parametern auch zu einer derartigen Verbesserung geführt hätte, aber dazu müsste man erst einmal herausfinden, welcher. Wie üblich verdoppelt auch bei LuciddDB das Anlegen von Indexen auf der Fakttabelle die Laufzeit im CEOTestcase. Offenbar haben alle Datenbanksysteme den gleichen blinden Fleck im Optimizer. MonetDB MonetDB ist das Resultat von Forschungsarbeiten am CWI (Centrum Wiskunde & Informatica) in den Niederlanden. Das aktuelle Interesse an spaltenbasierten Datenbanken, die Plattenzugriffe weitgehend vermeiden, sowie eine Veröffentlichung über MonetDB in CACM (Communications of the ACM) haben diesem Datenbanksystem zu einiger Bekanntheit verholfen. Damit ist auch schon klar, wo sich MonetDB positioniert: An forderster Front, wo neue Ideen erstmalig in der Praxis er-

7 probt werden. Entsprechend häufig ändert sich etwas an der Implementierung. Wer mit MonetDB arbeiten will, muss die Bereitschaft mitbringen, direkten Kontakt mit den Entwicklern zu pflegen und bei Bedarf auch regelmässig die neueste Version aus dem CVSRepository zu holen. Die Installation auf Debian gestaltet sich einfach, weil vom CWI ein vorkompiliertes Debian-Package bereitgestellt wird, das sich wie auf Debian üblich mit apt-get... installieren lässt. Der Bedienung von MonetDB merkt man deutlich an, dass es sich um ein Experimentalsystem handelt. So ist zum Beispiel das Erstellen einer neuen Datenbank nur durch einen Start des DB-Servers mit bestimmten Kommandozeilen-Parametern möglich. Ein DDL-Statement zum Erstellen einer DB gibt es nicht. Merkwürdig ist auch, dass man eine Liste der Tabellen mit \d (backslash d) bekommt, und dass man die interaktive Session nicht mit quit oder exit verlässt, sondern mit \q. Möchte man herausfinden, wieviele Datenbanken man angelegt hat, und wie sie heissen, bleibt nur der Umweg über das Filesystem, wo für jede DB ein Folder existiert. An der Testquery mussten leichte Anpassungen durchgeführt werden, um sie durch den SQL-Parser zu bekommen. Die Änderungen waren zwar trivial, aber dennoch kann man im allgemeinen nicht damit rechnen, dass automatisch generiertes SQL akzeptiert wird. Die gemessene Antwortzeit war im CEO Case bei ca 200 Sekunden, was ziemlich genau der Performance von Oracle entspricht. Interessanterweise scheint MonetDB eine Art Warmlaufphase zu benötigen, was sich darin äussert, dass Wiederholungen der Abfrage immer schneller werden. Diesen Effekt haben andere Systeme auch, aber normalerweise stellt sich dort nach der ersten Wiederholung keine weitere Verbesserung mehr ein. Seltsam ist auch, dass zwar der CEO-Case geringfügig schneller als Oracle war, die Assisstent - und Abteilungsleiter -Abfragen aber noch langsamer waren, wohl weil sie zuerst ausgeführt wurden. Das Entwickler-Team am CWI war extrem hilfsbereit und erklärte sich bereit, den Testfall selbst nachzuvollziehen und die Performance zu untersuchen. Dabei wurde ein Bug im Optimizer entdeckt und behoben. Anschliessend wurde der Benchmark am CWI wiederholt, auf einem Intel Quad Core Server mit 8GB RAM und Fedora-Linux 10. Die berichteten Zahlen sind: Bezeichnung Dauer (kalt) in ms Assistent Abteilungsleiter CEO Dauer (warm) in ms Um sie nachzuvollziehen, wäre ein Herunterladen und Kompilieren des neuesten Quellcodes notwendig gewesen, was uns ein wenig zu aufwendig war. Vielleicht wird der Bugfix ja Teil der nächsten stabilen Release, und dann kann man es noch einmal versuchen. Leser mit Spieltrieb und technischem Interesse sind herzlich eingeladen, es selbst zu probieren. Die Autoren würden sich über jedes Feedback freuen! Exasol Da Exasol sein eigenes, auf einem Linux-Kernel basierendes Betriebssystem einsetzt, war es nicht möglich, einen direkten Vergleich auf dem Debian-Server durchzuführen. Der von Exasol zur Verfügung gestellte Testserver verwendet eine Quad-Core CPU anstatt eines Dual-Core Prozessors, und das RAM ist mit 32 GB zweimal so gross. Da aber 16 GB bereits komplett überdimensioniert für den Benchmark mit 7GB Daten waren, macht die Hauptspeichergrösse wohl keinen Unterschied. Ob der QuadCore im Vergleich zum Dual Core eine wesentliche Verbesserung bringt, und wenn ja wieviel, lässt sich nicht ohne weiteres beurteilen. Dies würde stark davon abhängen, inwieweit der Benchmark vom DBMS parallelisiert wird. Falls der Optimizer das nicht hinbekommt, gäbe es keinen Unterschied. Das ist aber reine Spekulation und würde weitere Versuche erfordern. Tatsache ist, dass auf dem Exasol-Testsystem auf Anhieb alles perfekt funktioniert hat, und dass es auf preiswerter Standardhardware läuft. Das vom Tool generierte SQL lief ohne Anpassungen und mit konstanten Laufzeiten, egal ob im ersten, zweiten, oder dritten Versuch. Der Effekt mit den Indexen auf der Fakt-Tabelle erledigt sich von selbst, weil es gar kein CREATE INDEXStatement gibt. Indexe werden intern erzeugt und sind damit komplett unsichtbar. Wenn man den täglichen Umgang mit Datenbanksystemen gewohnt ist, fühlt man sich ein wenig verloren, wenn es keine Parameter gibt, an denen man zwecks Optimierung drehen

8 White Ppaper Neue Datenbanken für BI kann. Nicht einmal das Sammeln der Tabellen-Statistiken kann man vergessen, weil auch das intern automatisch geschieht. Eine Antwortzeit war nur im CEO-Fall überhaupt wahrnehmbar, mit sehr erfreulichen 20 Sekunden. Je nachdem, ob man die Indexe auf Oracle ausschaltet, oder nicht, bedeutet das eine Beschleunigung um einen Faktor 10 oder 20. Offenbar ist der Benchmark unterdimensioniert, und man kann das Problem eigentlich als gelöst abhaken. Aber es wäre ja gelacht, wenn man durch Verzehnfachen der Datenmenge keine Performanceprobleme bekommen würde. Und wenn wir schon dabei sind, verdoppeln wir die Grösse der Fakt-Tabelle anschliessend noch einmal, auf das 20-fache. Das Ergebnis ist, dass die Laufzeiten nahezu linear skalieren, d.h. eine Verzehnfachung der Zeilen in der Fakttabelle verzehnfacht auch die Laufzeit für die Testquery. Oder anders ausgedrückt: Wenn sich die Datenmenge verzehn- oder zwanzigfacht, kommt man bei der Performance an, die man heute mit einem herkömmlichen System hat. Die Performance von Oracle 11 auf einer 64-Bit Plattform ist beachtlich. Man kann einen Faktor 4 an Performancegewinn gegenüber einem Oracle 10 auf einer 32-Bit Plattform erwarten. Man hat damit ein bewährtes AllroundSystem, das stabil läuft, und das so weit verbreitet ist, dass man mit Google zu praktisch jedem Problem eine Lösung findet. Allerdings sind die Anforderungen an den DB-Admin hoch, weil die vielen Features auch zu einer schwer zu beherrschenden Komplexität führen. Dies gilt insbesondere bei der Performance-Optimierung, die inzwischen genug Stoff für einen eigenen Hochschulabschluss bieten würde. Die DBMS-Welt steht vor einem Umbruch Die Testergebnisse machen deutlich, dass mit RAMbasierten, spaltenorientierten Systemen wie Exasol oder MonetDB eine Performance-Steigerung um mindestens eine Grössenordnung stattgefunden hat. Im Falle von Exasol zeigt sich auch, dass nicht nur die Performance stimmt, sondern dass dabei keine Abstriche hinsichtlich Stabilität und Kompatibilität gemacht werden müssen. Vielmehr fallen sogar viele komplexe Konfigurations- und Tuningaufgaben weg, weil sie intern automatisiert werden. Es ist zu diesem Zeitpunkt nicht verhersehbar, ob sich eines der neuen Systeme zum Marktführer entwickelt, oder ob die Technologie von einem der etablierten Big Player gekauft oder kopiert werden wird. Figure 4: Exasol: Lineare Skalierbarkeit Fazit Bezahlen lohnt sich. Die kostenlos erhältlichen Systeme haben alle Einschränkungen bei der SQL-Syntax und eventuell noch zusätzliche Probleme bei Performance oder Stabilität. LucidDB und MySQL unterstützen die with-syntax nicht, und MonetDB erwartet vor einem Spalten-Alias immer ein as- Schlüsselwort, wie in SUM ( AL1.FACT_1 ) **as** fact_1, was von den meisten Tools einfach weggelassen wird. Bei MonetDB war ein Bugfix notwendig, damit der Optimizer mit der Abfrage zurechtkam, und bei MySQL gelang es nicht, einen Optimierungsparameter zu finden, der die Perfomance auf ein akzeptables Niveau gehoben hätte. Sicher ist, dass in absehbarer Zukunft eine Revolution bei der Geschwindigkeit und beim Preis relationaler Datenbanksysteme eintreten wird, die mit dem Preisverfall bei PCs und Flachbildschirmen vergleichbar sein wird. Wer jetzt in den Ausbau seines bestehenden alten Systems investiert, sollte von dem Geld lieber Bier kaufen. Wenn man das getrunken hat, kann man das Flaschenpfand kassieren und davon ein besseres System anschaffen. Lediglich LucidDB scheint eine echte Alternative zu sein, weil die Performance immerhin zu Oracle vergleichbar ist und Installation und Konfiguration sehr einfach sind. Bei dem Preis kann man sich eigentlich nicht beschweren. Oracle 11 auf 64 Bit läuft rund. D1 Solutions AG Zypressenstrasse 71, Postfach, 8040 Zürich, Switzerland T , F

9 Literatur [1] Hasso Plattner: A common database approach for OLTP and OLAP using an in-memory column database. Proceedings of the 35th SIGMOD international conference on Management of data (2009) [2] TPC-H benchmark results [3] P. A. Boncz, M. L. Kersten, S. Manegold: Breaking the Memory Wall in MonetDB. Communications of the ACM, Vol. 51, No. 12 (Dezember 2008), S [4] Ralph Kimball and Margy Ross: The Data Warehouse Toolkit. Second Edition, John Wiley & Sons, 2002 Autor Dr. Andreas Hauenstein promovierte 1996 an der Universität Hamburg in Informatik. In seinen Forschungsarbeiten beschäftigte er sich mit automatischer Spracherkennung. Seine Themenschwerpunkte sind Daten-Analyse & Statistik, Daten Architektur, hochperformante DB Systeme und Data Mining. Er begleitet Projekte in den Branchen Finanzindustrie, Telecom und Energiewirtschaft. Kontakt /Ansprechpartner Simon Hefti, Chairman T

BARC-Studie Data Warehousing und Datenintegration

BARC-Studie Data Warehousing und Datenintegration Ergebnisse der BARC-Studie Data Warehouse Plattformen Dr. Carsten Bange BARC-Studie Data Warehousing und Datenintegration Data-Warehouse -Plattformen und Datenintegrationswerkzeuge im direkten Vergleich

Mehr

EXASOL @ Symposium on Scalable Analytics. www.exasol.com. Skalierbare Analysen mit EXASolution

EXASOL @ Symposium on Scalable Analytics. www.exasol.com. Skalierbare Analysen mit EXASolution EXASOL @ Symposium on Scalable Analytics Skalierbare Analysen mit EXASolution EXASOL AG Wer sind wir R&D: + seit 2000 + laufend Forschungsprojekte Produkt: Analytische Datenbank EXASolution Focus auf Komplexität

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

MySQL Queries on "Nmap Results"

MySQL Queries on Nmap Results MySQL Queries on "Nmap Results" SQL Abfragen auf Nmap Ergebnisse Ivan Bütler 31. August 2009 Wer den Portscanner "NMAP" häufig benutzt weiss, dass die Auswertung von grossen Scans mit vielen C- oder sogar

Mehr

Hyper-V Grundlagen der Virtualisierung

Hyper-V Grundlagen der Virtualisierung Grundlagen der Virtualisierung Was ist Virtualisierung? Eine Software-Technik, die mehrere Betriebssysteme gleichzeitig auf dem Rechner unabhängig voneinander betreibt. Eine Software-Technik, die Software

Mehr

Fachbereich Informatik Praktikum 1

Fachbereich Informatik Praktikum 1 Hochschule Darmstadt DATA WAREHOUSE SS2015 Fachbereich Informatik Praktikum 1 Prof. Dr. S. Karczewski Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 14.April.2015 1. Kurzbeschreibung In diesem Praktikum geht

Mehr

REAL-TIME DATA WAREHOUSING

REAL-TIME DATA WAREHOUSING REAL-TIME DATA WAREHOUSING Lisa Wenige Seminarvortrag Data Warehousing und Analytische Datenbanken Friedrich-Schiller-Universität Jena - 19.01.12 Lisa Wenige 19.01.2012 2 Agenda 1. Motivation 2. Begriffsbestimmung

Mehr

27. 03. 2007 IT-Frühstück IT Trend Virtualisierung Hype oder Nutzen? Praxisaspekte

27. 03. 2007 IT-Frühstück IT Trend Virtualisierung Hype oder Nutzen? Praxisaspekte Ole Raether raether@oraservices.de 27. 03. 2007 IT-Frühstück IT Trend Virtualisierung Hype oder Nutzen? Praxisaspekte Inhalt oraservices.de Probleme: Failover Cluster, RAC 24*7 Fazit Was tun? oraservices.de

Mehr

Projektbericht Gruppe 12. Datenbanksysteme WS 05/ 06. Gruppe 12. Martin Tintel Tatjana Triebl. Seite 1 von 11

Projektbericht Gruppe 12. Datenbanksysteme WS 05/ 06. Gruppe 12. Martin Tintel Tatjana Triebl. Seite 1 von 11 Datenbanksysteme WS 05/ 06 Gruppe 12 Martin Tintel Tatjana Triebl Seite 1 von 11 Inhaltsverzeichnis Inhaltsverzeichnis... 2 1. Einleitung... 3 2. Datenbanken... 4 2.1. Oracle... 4 2.2. MySQL... 5 2.3 MS

Mehr

Data Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik

Data Warehousing. Sommersemester 2005. Ulf Leser Wissensmanagement in der Bioinformatik Data Warehousing Sommersemester 2005 Ulf Leser Wissensmanagement in der Bioinformatik ... Der typische Walmart Kaufagent verwendet täglich mächtige Data Mining Werkzeuge, um die Daten der 300 Terabyte

Mehr

Xenologie oder wie man einen Plastikmainframe baut

Xenologie oder wie man einen Plastikmainframe baut Xenologie oder wie man einen Plastikmainframe baut Alexander Schreiber http://www.thangorodrim.de/ Chemnitzer Linux-Tage 2006 I think there is a world market for maybe five computers.

Mehr

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht)

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Christian Haag, DATA MART Consulting Consulting Manager Oracle DWH Team

Mehr

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit

Mehr

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel

Freiberuflicher IT-Berater Schwerpunkte: Unix, Oracle, Netzwerk. www.jj-it.de. www.jj-it.de. Dipl.-Inform. Joachim Jäckel Freiberuflicher Schwerpunkte: Unix, Oracle, Netzwerk 2005 1 Testaufbauten von Oracle 10g RAC auf preiswerter Hardware 2 3 Typisches Cluster System Clients Public Network Node A Node B Cluster Interconnect

Mehr

In.Memory im SQL Server 2014 im Vergleich mit SAP Hana im Praxistest

In.Memory im SQL Server 2014 im Vergleich mit SAP Hana im Praxistest In.Memory im SQL Server 2014 im Vergleich mit SAP Hana im Praxistest Synopsis Darmstadt 13.-14.05.2014 Guido Jacobs, Microsoft Tobias Maier & Dr. Benjamin Kettner, ixto GmbH Microsoft SQL Server 2014 //

Mehr

TDWI Konferenz, München, 23.06.2014. LEISTUNG VON MODERNEN DATENBANKEN Aslı Yaman, Andreas Hauenstein, Andrej Vckovski, Simon Hefti"

TDWI Konferenz, München, 23.06.2014. LEISTUNG VON MODERNEN DATENBANKEN Aslı Yaman, Andreas Hauenstein, Andrej Vckovski, Simon Hefti TDWI Konferenz, München, 23.06.2014 LEISTUNG VON MODERNEN DATENBANKEN Aslı Yaman, Andreas Hauenstein, Andrej Vckovski, Simon Hefti" Motivationen Konzept Methodik und Ergebnisse Diskussion Schlussfolgerung

Mehr

Einstieg in das SQL- und Datenbanktuning 14.01.2009. Loblied auf den Tabellen-Index!

Einstieg in das SQL- und Datenbanktuning 14.01.2009. Loblied auf den Tabellen-Index! 1/40 PHP-User-Group Stuttgart 14.01.2009 Warum Datenbanken einen Hals bekommen und was sich dagegen tun lässt. Tuning und Performancesteigerung ohne zusätzliche Hardware. Ein. Loblied auf den Tabellen-Index!

Mehr

Antwortzeitverhalten von Online Storage Services im Vergleich

Antwortzeitverhalten von Online Storage Services im Vergleich EPOD Encrypted Private Online Disc Antwortzeitverhalten von Online Storage Services im Vergleich Fördergeber Förderprogramm Fördernehmer Projektleitung Projekt Metadaten Internet Foundation Austria netidee

Mehr

SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen

SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen WEITER BLICKEN. MEHR ERKENNEN. BESSER ENTSCHEIDEN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN VERSION 1.0 OPTIMIERUNG VON ABFRAGEN IN MS SQL

Mehr

WHERE Klausel Generierung mit.net und Oracle. Aus unserer Projekterfahrung und Architektur-Kurs

WHERE Klausel Generierung mit.net und Oracle. Aus unserer Projekterfahrung und Architektur-Kurs Betrifft Art der Info Quelle WHERE Klausel Generierung mit.net und Oracle Technical Info Aus unserer Projekterfahrung und Architektur-Kurs Where ist the WHERE? Der Artikel untersucht die Möglichkeiten,

Mehr

Systemanforderungen für MuseumPlus und emuseumplus

Systemanforderungen für MuseumPlus und emuseumplus Systemanforderungen für MuseumPlus und emuseumplus Systemanforderungen für MuseumPlus und emuseumplus Gültig ab: 01.03.2015 Neben den aufgeführten Systemvoraussetzungen gelten zusätzlich die Anforderungen,

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

SQL für Trolle. mag.e. Dienstag, 10.2.2009. Qt-Seminar

SQL für Trolle. mag.e. Dienstag, 10.2.2009. Qt-Seminar Qt-Seminar Dienstag, 10.2.2009 SQL ist......die Abkürzung für Structured Query Language (früher sequel für Structured English Query Language )...ein ISO und ANSI Standard (aktuell SQL:2008)...eine Befehls-

Mehr

Business Mehrwerte von SAP HANA

Business Mehrwerte von SAP HANA Business Mehrwerte von SAP HANA von der Technologie zum Geschäft Halle, 07.05.2013 2013 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda GISA im Überblick Was ist SAP HANA? Was

Mehr

Verschiedene Arten des Datenbankeinsatzes

Verschiedene Arten des Datenbankeinsatzes 1 Beispiele kommerzieller DBMS: Kapitelinhalt Was charakterisiert und unterscheidet verschiedene Einsatzbereiche für. Welche prinzipiell unterschiedlichen Anforderungen ergeben sich für das DBMS bei Ein-

Mehr

Einführung in PHP 5 und IBM DB2

Einführung in PHP 5 und IBM DB2 Einführung in PHP 5 und IBM DB2 Webapplikationen mit PHP 5.2 und IBM DB2 PHP Conference 2006-08.11.2006 Themenübersicht PHP 5.2 und Datenbanken PDO Warum IBM DB2? PHP und IBM DB2 Installation / Konfiguration

Mehr

Einführung in Hauptspeicherdatenbanken

Einführung in Hauptspeicherdatenbanken Einführung in Hauptspeicherdatenbanken Harald Zankl Probevorlesung 13. 01., 13:15 14:00, HS C Inhaltsverzeichnis Organisation Überblick Konklusion Harald Zankl (LFU) Hauptspeicherdatenbanken 2/16 Organisation

Mehr

EXASOL AG Zahlen & Fakten

EXASOL AG Zahlen & Fakten Big Data Management mit In-Memory-Technologie EXASOL AG Zahlen & Fakten Name: EXASOL AG Gründung: 2000 Tochterges.: Management: Produkte: Firmensitz: Niederlassung: EXASOL Cloud Computing GmbH Steffen

Mehr

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25

XEN Performance. Projektpraktikum Informatik. Arne Klein 2008-02-26. Arne Klein () XEN Performance 2008-02-26 1 / 25 XEN Performance Projektpraktikum Informatik Arne Klein 2008-02-26 Arne Klein () XEN Performance 2008-02-26 1 / 25 1 Virtualisierung mit XEN 2 Performance von XEN Allgemeines Netzwerk-Performance IO-Performance

Mehr

O-BIEE Einführung mit Beispielen aus der Praxis

O-BIEE Einführung mit Beispielen aus der Praxis O-BIEE Einführung mit Beispielen aus der Praxis Stefan Hess Business Intelligence Trivadis GmbH, Stuttgart 2. Dezember 2008 Basel Baden Bern Lausanne Zürich Düsseldorf Frankfurt/M. Freiburg i. Br. Hamburg

Mehr

Effizientes Arbeiten mit relationalen Datenbanken unter SAS - Mit SASTRACE zu mehr Performance -

Effizientes Arbeiten mit relationalen Datenbanken unter SAS - Mit SASTRACE zu mehr Performance - Datenmanagement Effizientes Arbeiten mit relationalen Datenbanken unter SAS - Mit SASTRACE zu mehr Performance - Philipp Krüger Versicherungskammer Bayern Maximilianstraße 53 80530 München philipp.krueger@vkb.de

Mehr

Inhaltsverzeichnis. Installationsübersicht. A. Installationsübersicht

Inhaltsverzeichnis. Installationsübersicht. A. Installationsübersicht Inhaltsverzeichnis A. Installationsübersicht B. und Optimierungsbereiche B.1 Hardware B.2 OperatingSystem Z/OS B.3 Databasemanagementsystem DB2 B.4 Applikation C. Organisation BSS_Chart-library 1 Installationsübersicht

Mehr

MySQL Performance Tuning für Entwickler

MySQL Performance Tuning für Entwickler MySQL Performance Tuning für Entwickler Cebit 2015, Hannover Oli Sennhauser Senior MySQL Consultant, FromDual GmbH oli.sennhauser@fromdual.com 1 / 18 FromDual GmbH Support Beratung remote-dba Schulung

Mehr

IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen

IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen Nahezu 70% aller Data Warehouse Anwendungen leiden unter Leistungseinschränkungen der unterschiedlichsten Art. - Gartner

Mehr

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 Inhaltsverzeichnis Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 1. Terminal-Server-Betrieb (SQL)... 3 1.1. Server 3 1.1.1. Terminalserver... 3 1.1.2. Datenbankserver (bei einer Datenbankgröße

Mehr

RAC auf Sun Cluster 3.0

RAC auf Sun Cluster 3.0 RAC auf Sun Cluster 3.0 Schlüsselworte RAC, OPS, Sun Cluster, Performance, Availability Zusammenfassung Oracle hat mit dem Real Application Cluster (RAC) aus einer Hochverfügbarkeitslösung eine Höchstverfügbarkeitslösung

Mehr

In Tabelle 2.1 sehen Sie das Ergebnis beider Ausführungen auf meiner Maschine.

In Tabelle 2.1 sehen Sie das Ergebnis beider Ausführungen auf meiner Maschine. Kapitel 2 Datenverwaltung durch SQL Server Wir wollen das obige Skript zwei Mal laufen lassen, einmal mit und einmal ohne eingeschalteten Schreibcache der Festplatte. Für eine lokale Festplatte können

Mehr

Tuning von PostGIS mit Read- Only-Daten von OpenStreetMap

Tuning von PostGIS mit Read- Only-Daten von OpenStreetMap Tuning von PostGIS mit Read- Only-Daten von OpenStreetMap Prof. Stefan Keller (Fach-)Hochschule für Technik Rapperswil (bei Zürich) 11.11.2011 PGConf.DE - Stefan Keller 1 Was ist OpenStreetMap? Wikipedia

Mehr

Aufbau des SELECT-Befehls. Im Folgenden werden zunächst Abfragen aus einer Tabelle vorgenommen.

Aufbau des SELECT-Befehls. Im Folgenden werden zunächst Abfragen aus einer Tabelle vorgenommen. Datenbankabfragen (Query) mit SQL (Structured Query Language) 1 Aufbau des SELECT-Befehls Im Folgenden werden zunächst Abfragen aus einer Tabelle vorgenommen. SQL-Syntax: SELECT spaltenliste FROM tabellenname

Mehr

SPARC LDom Performance optimieren

SPARC LDom Performance optimieren SPARC LDom Performance optimieren Marcel Hofstetter hofstetter@jomasoft.ch http://www.jomasoftmarcel.blogspot.ch Mitgründer, Geschäftsführer, Enterprise Consultant JomaSoft GmbH 1 Inhalt Wer ist JomaSoft?

Mehr

JOB SCHEDULER. Managed User Jobs. Dokumentation Juli 2005. MySQL-Job-Automation

JOB SCHEDULER. Managed User Jobs. Dokumentation Juli 2005. MySQL-Job-Automation MySQL-Job-Automation Managed User Jobs JOB SCHEDULER Dokumentation Juli 2005 Software- und Organisations-Service GmbH Giesebrechtstr. 15 D-10629 Berlin Telefon (030) 86 47 90-0 Telefax (030) 861 33 35

Mehr

Die in diesem Dokument aufgelisteten Anforderungen an das Betriebssystem schließen die aktuellen Patches und Servivepacks ein.

Die in diesem Dokument aufgelisteten Anforderungen an das Betriebssystem schließen die aktuellen Patches und Servivepacks ein. Systemanforderungen Die unten angeführten Systemanforderungen für Quark Publishing Platform sind grundlegende Anforderungen, Ihre Benutzerzahl, Asset-Anzahl und Anzahl der Asset-Versionen beeinflussen

Mehr

Hardware-Empfehlungen PrefSuite V2008

Hardware-Empfehlungen PrefSuite V2008 Hardware-Empfehlungen PrefSuite V2008 Für Versionsstand PrefGest 2008.1.0.1142 Im Folgenden die von PrefSuite vorgeschlagenen Voraussetzungen: Systemvoraussetzungen für den SQL-Server Systemvoraussetzungen

Mehr

Perzentile mit Hadoop ermitteln

Perzentile mit Hadoop ermitteln Perzentile mit Hadoop ermitteln Ausgangspunkt Ziel dieses Projektes war, einen Hadoop Job zu entwickeln, der mit Hilfe gegebener Parameter Simulationen durchführt und aus den Ergebnissen die Perzentile

Mehr

64 Bit erhöhen die nutzbare Größe für den Arbeitsspeicher.

64 Bit erhöhen die nutzbare Größe für den Arbeitsspeicher. EasyProfil 2.x unter Windows 7-64-Bit Es wird in Ihrer Programmsammlung außer EasyProfil auch noch einige andere wichtige Programme geben, die derzeit noch unter 16 Bit laufen. So macht untenstehende Erweiterung

Mehr

Performance und Bandbreitenmanagement Tests Version 10.01.2005. MuSeGa

Performance und Bandbreitenmanagement Tests Version 10.01.2005. MuSeGa Berner Fachhochschule Hochschule für Technik und Informatik HTI Performance und Bandbreitenmanagement Tests Version 10.01.2005 Diplomarbeit I00 (2004) MuSeGa Mobile User Secure Gateway Experte: Andreas

Mehr

Systemanforderungen und unterstützte Software

Systemanforderungen und unterstützte Software Systemanforderungen und unterstützte Software 1. Systemanforderungen für Server Diese en gelten für den Betrieb von Sage 200 ERP Extra Version 2014 per 1.12.2014. Die Übersicht beschreibt die für ein komfortables

Mehr

Datenbank-Tuning & Administration MS SQL SERVER 2005 EXPRESS

Datenbank-Tuning & Administration MS SQL SERVER 2005 EXPRESS Datenbank-Tuning & Administration MS SQL SERVER 2005 EXPRESS SS 07 Anwendungs-Seminar Database Tuning & Administration, University of Konstanz Lehrstuhl: Database & Information Systems Group Prof. Dr.

Mehr

Voraussetzungen für jeden verwalteten Rechner

Voraussetzungen für jeden verwalteten Rechner Kaseya 2 (v6.1) Systemvoraussetzungen Voraussetzungen für jeden verwalteten Rechner Kaseya Agent 333 MHz CPU oder höher 128 MB RAM 30 MB freier Festplattenspeicher Netzwerkkarte oder Modem Microsoft Windows

Mehr

Die bisher bereits bekannten Aggregatsfunktionen MIN, MAX, SUM, AVG, COUNT, VARIANCE und STDDEV wurden um FIRST und LAST erweitert.

Die bisher bereits bekannten Aggregatsfunktionen MIN, MAX, SUM, AVG, COUNT, VARIANCE und STDDEV wurden um FIRST und LAST erweitert. Betrifft Autor FIRST, LAST Markus Jägle (markus.jaegle@trivadis.com) Art der Info Technische Background Info (April 2002) Quelle Aus dem NF9i-Kurs, NF9i-Techno-Circle der Trivadis und Oracle9i Data Warehousing

Mehr

OP-LOG www.op-log.de

OP-LOG www.op-log.de Verwendung von Microsoft SQL Server, Seite 1/18 OP-LOG www.op-log.de Anleitung: Verwendung von Microsoft SQL Server 2005 Stand Mai 2010 1 Ich-lese-keine-Anleitungen 'Verwendung von Microsoft SQL Server

Mehr

Systemanforderungen ab Version 5.31

Systemanforderungen ab Version 5.31 Systemanforderungen ab Version 5.31 Auszug aus BüroWARE Erste Schritte Version 5.4 Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive Das Programm kann sowohl auf 32 Bit- als auch auf 64 Bit-en

Mehr

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence IBM Netezza Roadshow 30. November 2011 Carsten Bange Gründer & Geschäftsführer BARC Die Krise hat die Anforderungen

Mehr

Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen?

Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen? Fragestellung: Wie viele CPU Kerne sollte eine VM unter Virtualbox zugewiesen bekommen? Umgebung Getestet wurde auf einem Linux-System mit voller invis-server Installation, auf dem eine virtuelle Maschine

Mehr

Einsparung von Wartungs- und Lizenzkosten durch Konsolidierung

Einsparung von Wartungs- und Lizenzkosten durch Konsolidierung Einsparung von Wartungs- und Lizenzkosten durch Konsolidierung Peter Stalder DOAG November 2009 Basel Baden Bern Lausanne Zurich Düsseldorf Frankfurt/M. Freiburg i. Br. Hamburg Munich Stuttgart Vienna

Mehr

Analytische Funktionen erfolgreich eingesetzt

Analytische Funktionen erfolgreich eingesetzt Analytische Funktionen erfolgreich eingesetzt Dani Schnider Trivadis AG Glattbrugg, Schweiz Schlüsselworte: Analytische Funktionen, SQL, Performance Optimierung, Data Warehousing Zusammenfassung Analytische

Mehr

Wie profitiert SAP MaxDB von SSD Technologie?

Wie profitiert SAP MaxDB von SSD Technologie? Wie profitiert SAP MaxDB von SSD Technologie? Direktor Software und Services SAP MaxDB InfoTage 2014 15.-25. September 2014 Purpose Agenda MaxDB ENTERPRISE EDITION Including Mobile DB Monitor MaxDB & SSD

Mehr

ISA Server 2004 - Best Practice Analyzer

ISA Server 2004 - Best Practice Analyzer ISA Server 2004 - Best Practice Analyzer Die Informationen in diesem Artikel beziehen sich auf: Microsoft ISA Server 2004 Seit dem 08.12.2005 steht der Microsoft ISA Server 2004 Best Practice Analyzer

Mehr

SSDs als Cache für HDDs

SSDs als Cache für HDDs SSDs als Cache für HDDs CacheCade vs. BCache Dirk Geschke Linux User Group Erding 23. Oktober 2013 Dirk Geschke (LUG-Erding) SSD-Cache 23. Oktober 2013 1 / 71 Gliederung 1 Einleitunng 2 HDD Hard-Disk-Drive

Mehr

Systemvoraussetzungen sou.matrixx-produkte

Systemvoraussetzungen sou.matrixx-produkte Systemvoraussetzungen sou.matrixx-produkte Vorwort Die in diesem Dokument enthaltenen Informationen können ohne Vorankündigung geändert werden und stellen keine Verpflichtung seitens des Verkäufers dar.

Mehr

Systemvoraussetzungen sou.matrixx-produkte

Systemvoraussetzungen sou.matrixx-produkte Systemvoraussetzungen sou.matrixx-produkte Vorwort Die in diesem Dokument enthaltenen Informationen können ohne Vorankündigung geändert werden und stellen keine Verpflichtung seitens des Verkäufers dar.

Mehr

Microsoft SQL Server 2005 für Administratoren

Microsoft SQL Server 2005 für Administratoren Microsoft SQL Server 2005 für Administratoren Irene Bauder ISBN 3-446-22800-4 Leseprobe Weitere Informationen oder Bestellungen unter http://www.hanser.de/3-446-22800-4 sowie im Buchhandel Sichern von

Mehr

Einführung in SQL Datenbanken bearbeiten

Einführung in SQL Datenbanken bearbeiten Einführung in SQL Datenbanken bearbeiten Jürgen Thomas Entstanden als Wiki-Buch Bibliografische Information Diese Publikation ist bei der Deutschen Nationalbibliothek registriert. Detaillierte Angaben

Mehr

MySQL Schulung - Zusammenfassung

MySQL Schulung - Zusammenfassung MySQL Schulung - Zusammenfassung Marcel Noe 9.10-20.10.2006 Kapitel 1 1.1 MySQL Einführung 1.1.1 Einleitung Bei MySQL handelt es sich um einen sehr skalierbares Datenbank-Management System. MySQL wird

Mehr

Sructred Query Language

Sructred Query Language Sructred Query Language Michael Dienert 11. November 2010 Inhaltsverzeichnis 1 Ein kurzer Versionsüberblick 1 2 SQL-1 mit einigen Erweiterungen aus SQL-92 2 3 Eine Sprache zur Beschreibung anderer Sprachen

Mehr

AFS Backup und Recover nicht nur für (Legato) NetWorker

AFS Backup und Recover nicht nur für (Legato) NetWorker AFS Backup und Recover nicht nur für (Legato) NetWorker Wolfgang Friebel, DESY 28.9.2006 1 Backup Inhalt Schematischer Ablauf Volle und inkrementelle Backups Backup auf Disk Backup auf Tape Recover Recover

Mehr

Business Intelligence Praktikum 1

Business Intelligence Praktikum 1 Hochschule Darmstadt Business Intelligence SS 2014 Fachbereich Informatik Praktikumsversuch 1 Prof. Dr. C. Wentzel Dipl. Inf. Dipl. Math. Y. Orkunoglu Datum: 07.05.2014 Business Intelligence Praktikum

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Systemanforderungen und unterstützte Software

Systemanforderungen und unterstützte Software Systemanforderungen und unterstützte Software 1. Systemanforderungen für Server und Client Diese Anforderungen gelten für den Betrieb von Sage 200 ERP Extra Version 2013 Die Übersicht beschreibt die für

Mehr

Check_MK. 11. Juni 2013

Check_MK. 11. Juni 2013 Check_MK 11. Juni 2013 Unsere Vision IT-Monitoring muss werden: 1. einfach 2. performant 2 / 25 Was macht IT-Monitoring? IT-Monitoring: Aktives Überwachen von Zuständen Verarbeiten von Fehlermeldungen

Mehr

Technische Releasenotes BALVI ip 1.20.5

Technische Releasenotes BALVI ip 1.20.5 Technische Releasenotes BALVI ip 1.20.5 Inhaltsverzeichnis 1 Allgemeine Einführung... 2 2 Wichtige Hinweise zur Anbindung von BALVI WebServices... 2 2.1 Allgemeine Hinweise... 2 2.2 BALVI Probenahme FM

Mehr

Installationsvoraussetzungen

Installationsvoraussetzungen Installationsvoraussetzungen Betriebssysteme Der Cordaware bestinformed Infoserver kann auf folgenden Microsoft Betriebssystemen installiert werden: Windows 2000 Windows XP Windows Vista Windows 7 Windows

Mehr

Datenbanken und Oracle, Teil 2

Datenbanken und Oracle, Teil 2 Datenbanken und Oracle, Teil 2 Mathias Weyland Linux User Group Switzerland 29. Juni 2007 SQL*Plus CHAR/VARCHAR2 Dokumentation Teil I Nachträge 1 SQL*Plus 2 CHAR/VARCHAR2 3 Dokumentation SQL*Plus SQL*Plus

Mehr

Aufbau einer Testumgebung mit VMware Server

Aufbau einer Testumgebung mit VMware Server Aufbau einer Testumgebung mit VMware Server 1. Download des kostenlosen VMware Servers / Registrierung... 2 2. Installation der Software... 2 2.1 VMware Server Windows client package... 3 3. Einrichten

Mehr

Knottenwäldchen Software

Knottenwäldchen Software Knottenwäldchen Software Installationsanleitung für die netzbasierte Lösung Knottenwäldchen Software März.2011 Knottenwäldchen Software Seite 2 1 Inhalt 1 Inhalt... 2 2 Übersicht... 3 3 Installation...

Mehr

Erhöhung der Manageability durch SQL-Profile

Erhöhung der Manageability durch SQL-Profile Erhöhung der Manageability durch SQL-Profile Ein Erfahrungsbericht 20.11.2007 Dr. Frank Haney 1 Inhalt 1. Problemstellung 2. Der SQL-Tuning-Advisor (STA) 3. Anlegen und Implementieren von SQL-Profilen

Mehr

Persönlichkeiten bei bluehands

Persönlichkeiten bei bluehands Persönlichkeiten bei Technologien bei Skalierbare Anwendungen mit Windows Azure GmbH & co.mmunication KG am@.de; posts..de/am 1 2 3 4 5 6 7 8 9 Immer mehr Mehr Performance Mehr Menge Mehr Verfügbarkeit

Mehr

Die Analyse großer Datensätze mittels freier Datenbanksysteme Dr Dirk Meusel meusel@iat.uni-leipzig.de

Die Analyse großer Datensätze mittels freier Datenbanksysteme Dr Dirk Meusel meusel@iat.uni-leipzig.de Institut für Angewandte Trainingswissenschaft Leipzig ein Institut des Trägervereins IAT / FES des DOSB e.v. Die Analyse großer Datensätze mittels freier Datenbanksysteme Dr Dirk Meusel meusel@iat.uni-leipzig.de

Mehr

Eignung unterschiedlicher Faktenmodellierungen in Data Warehouse-Systemen

Eignung unterschiedlicher Faktenmodellierungen in Data Warehouse-Systemen Christoph Arnold (B. Sc.) Prof. Dr. Harald Ritz Eignung unterschiedlicher Faktenmodellierungen in Data Warehouse-Systemen AKWI-Tagung, 17.09.2012, Hochschule Pforzheim Christoph Arnold, Prof. Dr. Harald

Mehr

Projekt für Systemprogrammierung WS 06/07

Projekt für Systemprogrammierung WS 06/07 Dienstag 30.01.2007 Projekt für Systemprogrammierung WS 06/07 Von: Hassan Bellamin E-Mail: h_bellamin@web.de Gliederung: 1. Geschichte und Definition 2. Was ist Virtualisierung? 3. Welche Virtualisierungssoftware

Mehr

2 Virtualisierung mit Hyper-V

2 Virtualisierung mit Hyper-V Virtualisierung mit Hyper-V 2 Virtualisierung mit Hyper-V 2.1 Übersicht: Virtualisierungstechnologien von Microsoft Virtualisierung bezieht sich nicht nur auf Hardware-Virtualisierung, wie folgende Darstellung

Mehr

Oracle 10g revolutioniert Business Intelligence & Warehouse

Oracle 10g revolutioniert Business Intelligence & Warehouse 10g revolutioniert Business Intelligence & Warehouse Marcus Bender Strategisch Technische Unterstützung (STU) Hamburg 1-1 BI&W Market Trends DWH werden zu VLDW Weniger Systeme, mehr Daten DWH werden konsolidiert

Mehr

Learning Suite Talent Suite Compliance Suite. Systemvoraussetzungen

Learning Suite Talent Suite Compliance Suite. Systemvoraussetzungen Learning Suite Talent Suite Compliance Suite Systemvoraussetzungen Vorwort Dieses Dokument beschreibt, welche Anforderungen an die Installationsumgebung zu stellen sind, um die Plattform unter optimalen

Mehr

Einführung in die Software-Umgebung

Einführung in die Software-Umgebung Ortsbezogene Anwendungen und Dienste WS2011/2012 Einführung in die Software-Umgebung Die Software-Umgebung Zentrale Postgres-Datenbank mit Geodaten von OpenStreetMap: Deutschland: 13 mio. Datensätze Topologie-Informationen

Mehr

Systemvoraussetzungen LucaNet.Financial OLAP Server, Desktop-Anwendungen und LucaNet.Financial Warehouse

Systemvoraussetzungen LucaNet.Financial OLAP Server, Desktop-Anwendungen und LucaNet.Financial Warehouse LucaNet 9.2 Systemvoraussetzungen LucaNet.Financial OLAP Server, Desktop-Anwendungen und LucaNet.Financial Warehouse www.lucanet.com 1 LucaNet.Financial OLAP Server Einleitung Die Lizenzierung der Software

Mehr

IBM SPSS Collaboration and Deployment Services Deployment Manager Installation von 5

IBM SPSS Collaboration and Deployment Services Deployment Manager Installation von 5 IBM SPSS Collaboration and Deployment Services Deployment Manager Installation von 5 Bevor Sie IBM SPSS Collaboration and Deployment Services Deployment Manager installieren und mit dem Tool arbeiten können,

Mehr

DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER

DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER INHALTSVERZEICHNIS 1. Datenbanken 2. SQL 1.1 Sinn und Zweck 1.2 Definition 1.3 Modelle 1.4 Relationales Datenbankmodell 2.1 Definition 2.2 Befehle 3.

Mehr

Hier folgt eine kurze Aufstellung über die verwendete Architekur. Die Angaben sind ohne Gewähr für Vollständigkeit oder vollständige Richtigkeit.

Hier folgt eine kurze Aufstellung über die verwendete Architekur. Die Angaben sind ohne Gewähr für Vollständigkeit oder vollständige Richtigkeit. 1. ODBC 1.1 Problemstellung Die Informationen über die Microsoft SQL Server Datenbanken sind zur Zeit nicht auf der TIMD Website verfügbar. Der Grund ist, dass kein Interface zur Abfrage der benötigten

Mehr

WhitePaper. Mai 2012. BIA Business Intelligence Accelerator. Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com

WhitePaper. Mai 2012. BIA Business Intelligence Accelerator. Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com WhitePaper BIA Business Intelligence Accelerator Mai 2012 Markus Krenn Geschäftsführer Mail: m.krenn@biaccelerator.com BIA Business Intelligence Accelerator GmbH Softwarepark 26 A-4232 Hagenberg Mail:

Mehr

11. Mehrrechner-DBMSe / Datenbankmaschinen

11. Mehrrechner-DBMSe / Datenbankmaschinen 11. Mehrrechner-e / Datenbankmaschinen In der Vergangenheit DB-Maschinen oft auf Basis von Spezial-HW-/SW Schnittstelle Anwendungsprogramm - DB-Maschine oft "nicht hoch" genug Interaktion und Integration

Mehr

S A P B W O N H A N A P R O O F O F C O N C E P T B E I S. O L I V E R

S A P B W O N H A N A P R O O F O F C O N C E P T B E I S. O L I V E R S A P B W O N H A N A P R O O F O F C O N C E P T B E I S. O L I V E R S T E F A N M A R K 07.07.2015 F O L I E 1 V O N 2 7 F I R M E N P O R T R A I T S. O L I V E R GESCHICHTE F O L I E 2 V O N 2 7 F

Mehr

Datenbanksysteme II Architektur und Implementierung von Datenbanksystemen

Datenbanksysteme II Architektur und Implementierung von Datenbanksystemen Datenbanksysteme II Architektur und Implementierung von Datenbanksystemen Winter 2009/10 Melanie Herschel Willhelm-Schickard-Institut für Informatik Kapitel 1 Einführung Vorstellung Überblick Organisatorisches

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen

Albert HAYR Linux, IT and Open Source Expert and Solution Architect. Open Source professionell einsetzen Open Source professionell einsetzen 1 Mein Background Ich bin überzeugt von Open Source. Ich verwende fast nur Open Source privat und beruflich. Ich arbeite seit mehr als 10 Jahren mit Linux und Open Source.

Mehr

Oracle Datenbank / Ubuntu

Oracle Datenbank / Ubuntu Oracle Datenbank / Ubuntu Sebastian Gath & Hannes Schwarz Seminar Database Tuning & Administration Universität Konstanz - SS 2007 Administration Vorbereitung Zeitmessung Erste Zeitmessung 2 Ausgangssituation

Mehr

Shibboleth Clustering und Loadbalancing

Shibboleth Clustering und Loadbalancing Shibboleth Clustering und Loadbalancing STEINBUCH CENTRE FOR COMPUTING - SCC KIT Universität des Landes Baden-Württemberg und nationales Forschungszentrum in der Helmholtz-Gemeinschaft www.kit.edu Computercluster

Mehr

Anleitung zum HD-Streaming

Anleitung zum HD-Streaming Anleitung zum HD-Streaming Seite 1 von 12 Inhaltsverzeichnis 1.Vorwort...3 2.Systemvoraussetzungen... 3 2.1Flash Media Live Encoder...3 2.2Wirecast 4... 4 3.Download und Installation...4 3.1Flash Media

Mehr

Einführung in OLAP und Business Analysis. Gunther Popp dc soft GmbH

Einführung in OLAP und Business Analysis. Gunther Popp dc soft GmbH Einführung in OLAP und Business Analysis Gunther Popp dc soft GmbH Überblick Wozu Business Analysis mit OLAP? OLAP Grundlagen Endlich... Technischer Background Microsoft SQL 7 & OLAP Services Folie 2 -

Mehr

So erreichen Sie uns:

So erreichen Sie uns: für Das I Ho chp hre in Clus t d erf orm ividu ersy e s ll ant, sic en Be tem dü her und rfnis pre se. isw ert. So erreichen Sie uns: Contabo GmbH Aschauer Straße 32 a 81549 München +49 (0) 89 / 212 683

Mehr