Technical White Paper

Größe: px
Ab Seite anzeigen:

Download "Technical White Paper"

Transkript

1 Technical White Paper

2 Inhalt 1. Best-of-Breed Ansatz für High Performance Analytics Shared-Nothing-Architektur In-Memory-Technologie Spaltenweise Datenspeicherung Skalierbarkeit Tuning-freie Datenbank EXAPowerlytics Hochverfügbarkeit Fazit

3 1. Best-of-Breed Ansatz für High Performance Analytics EXASolution ist ein relationales In-Memory-Datenbank-Management -System (DBMS), das speziell für den Einsatz im Bereich-Business -Intelligence Auswertungen und -Prozesse entwickelt wurde. Durch die Spezialisierung auf den analytischen Bereich kann die EXASolution Architektur den besonderen Anforderungen im Bereich Data Warehousing besser begegnen als universell ausgelegte Datenbanken anderer Hersteller. Neben dem reinen Performance-Gewinn fallen zudem geringere Wartungs- und Betriebskosten an. Bedingt durch den hohen Grad der Automatisierung innerhalb der EXASolution ist zum einen aufwändiges Tuning durch die Administratoren nicht notwendig, zum anderen kann Standard-Hardware verwendet werden. Über 20 Jahre Forschungsarbeit auf dem Gebiet hochspezialisierter und verteilter In-Memory-Algorithmen sichern dabei die Performance und Skalierbarkeit ab. Das EXASolution-Datenbank-System basiert auf einer parallelisierten 64-bit Clusterarchitektur, über die die gesamte interne Verarbeitung zwischen den einzelnen Rechnern abläuft. Daten werden gleichmäßig über alle Knoten des Clusters-Verbundes verteilt und dann die für die Analysen relevanten Informationen parallel im Arbeitsspeicher verarbeitet. Die Speicherung der zu verarbeitenden Daten erfolgt dabei im Gegensatz zu den meisten Datenbanksystemen spaltenbasiert und in Form von komprimierten Daten auf den jeweiligen lokalen Festplatten der einzelnen Rechner. Durch den Einsatz intelligenter least-recently-used Mechanismen und den Einsatz einer hocheffizienten und spaltenorientierten Komprimierung ist es möglich, auch sehr große Datenmengen im Hauptspeicher zu halten und zu verarbeiten. Sämtliche Algorithmen wurden auf die schnellen Zugriffszeiten des Hauptspeichers optimiert. Ein weiterer Vorteil der Architektur besteht in der Möglichkeit, das System bei steigenden Anforderungen seitens der Fachbereiche und Endanwendern einfach um weitere Rechner zu erweitern und so sehr schnell höhere Kapazitäten zur Verfügung zu stellen. Eine redundante Datenhaltung und automatisierte Fail-Over Mechanismen stellen sicher, dass selbst bei einem Totalausfall einzelner Cluster-Knoten die Datenbank weiterhin verfügbar bleibt. Durch die ausschließliche Verwendung von Standardschnittstellen (JDBC, ODBC, ADO.net, MDX) ist eine Integration der EXASolution in Ihre vorhandene IT-Infrastruktur einfach und schnell zu realisieren. Die automatische Anpassung des selbstlernenden Systems (z.b. automatische Indexerstellung) an Analysen und Nutzungsgewohnheiten Ihrer Anwender und die Kompatibilität zu gängigen Business Intelligence Anwendungen (z. B. Business Objects, - 3 -

4 Cognos, MicroStrategy, JasperSoft, SAS) und ETL-Tools (z.b. Informatica, Data-Stage, Talend) erhöhen zudem die Akzeptanz bei Ihren Fachabteilungen. 2. Shared-Nothing-Architektur Massiv parallele Datenverarbeitung EXASolution wurde als paralleles In-Memory-System entwickelt und ist nach dem "Shared Nothing"-Prinzip aufgebaut. Die Daten werden dabei über alle Knoten eines Clusters verteilt. Bei Abfragen arbeiten alle Knoten zusammen, wobei spezielle parallele Algorithmen dafür sorgen, dass die Berechnung der Daten lokal im Arbeitsspeicher der einzelnen Knoten erfolgt. Wird eine Anfrage an das System gestellt, nimmt sie zunächst der Knoten an, der die Verbindung zum Client hält. Anschließend wird die Anfrage auf alle Knoten verteilt. Intelligente Algorithmen optimieren die Abfrage, bestimmen den bestmöglichen Ausführungsplan und erzeugen Indices on the fly. Dabei entscheidet der EXASOL-Optimizer selbständig, ob die Daten für das konkrete Nutzungsprofil im Cluster reorganisiert werden sollen. Das System berechnet im Anschluss daran die Teilergebnisse auf den lokalen Daten. Dieses Verarbeitungsparadigma wird auch SPMD (Single Program Multiple Data) genannt. Auf allen Knoten läuft das gleiche Programm, sie sind gleichberechtigt. Es gibt keinen Masterknoten. Die Abfrage-Ergebnisse werden durch entsprechende Verbindungsknoten an den Anwender geliefert. Beispiel der Join-Berechnung im parallelen Umfeld SELECT customer.last_name, city.name FROM customer, city WHERE customer.city_id = city.id AND city.name LIKE 'New%'; - 4 -

5 Die zwei Tabellen im Beispiel sind über die Knoten gleichmäßig verteilt: Schritt 1: Filtering Zunächst wird die kleinere Tabelle CITIES gefiltert. Nur die Städte, die mit 'New' anfangen, werden durchgelassen: Schritt 2: Matches suchen Im zweiten Schritt werden für jede verbliebene Stadt die Kunden herausgesucht, die dort wohnen. Dies erfolgt knotenübergreifend, wenn die Tabellen so verteilt sind, dass die Matches nicht nur lokal zu finden sind: Schritt 3: Das Ergebnis zusammenstellen Das Ergebnis der Queryberechnung bleibt lokal auf den jeweiligen Knoten. Ist die Query z.b. ein Teil von einem Multipath SQL, so ist damit der Teil der Berechnung abgeschlossen. Soll das Ergebnis an den Nutzer verschickt werden, geschieht dies in Portionen, die das Front-End anfordert. Das Ergebnis wird somit nie auf einem Knoten gesammelt: - 5 -

6 3. In-Memory-Technologie Intelligente In-Memory-Algorithmen Die hohe Performance erreicht EXASolution nicht zuletzt durch innovative Hauptspeicher- Algorithmen. Im Unterschied zu festplattenbasierten Algorithmen traditioneller Lösungen, kann EXASolution auf jedes einzelne Datum gezielt zugreifen. Die Zugriffszeit liegt dabei im Nano-Sekunden-Bereich. Die Algorithmen, die die Abfragen verarbeiten, sind speziell auf die Eigenschaften der Hauptspeicher ausgerichtet und ermöglichen somit eine optimale Performance. Es werden z.b. Random-Access-Algorithmen statt konventioneller blockweiser Algorithmen verwendet. Einen weiteren Performancegewinn erreicht EXASolution dadurch, dass der Inhalt des Hauptspeichers automatisch an das jeweilige Nutzungsprofil angepasst wird. Selten benötigte Daten werden vom System automatisch erkannt und bei Bedarf auf die entsprechenden Festplatten ausgelagert. Erfolgt ein Commit, werden die lokalen Daten auf die Festplatten geschrieben. Redundante Datenverteilung garantiert zudem eine hohe Verfügbarkeit der Datenbank. Diese Art der Datenverarbeitung ist für den Nutzer völlig transparent. Die Lizenz ist unabhängig von der Serveranzahl, CPUs, Usern, Daten oder physikalisch vorhandenem RAM. Der Kunde zahlt nur für die RAM-Menge, die von der Datenbank verwendet werden darf. Fallbeispiele: Datenbankgröße im Vergleich zu RAM-Größe 3% 6% 26% 16% 6% 4% 32% Typischerweise beträgt der RAM-Bedarf Prozent des nicht komprimierten Gesamtdaten-Volumens

7 4. Spaltenweise Datenspeicherung Vertikale/Spaltenweise Datenspeicherung Dank der Spezialisierung von EXASolution auf Data Warehousing kann das System von der spaltenweisen Datenspeicherung enorm profitieren, da hierdurch die Zahl an I/O- Zugriffen und die zu verarbeitende Datenmenge deutlich reduziert wird: Typischerweise ist der Zugriff in einem Data Warehouse auf nur wenige Spalten beschränkt, z.b. für Joins, Filter und Aggregate. Zur Optimierung von Festplattenzugriffen werden Spalten in Blöcke aufgeteilt. Dies ermöglicht maximalen Durchsatz und verhindert das Einlesen von nicht benötigten Daten. Durch verschiedene Operationen (z.b. Löschen oder Updates) können innerhalb der Blöcke Lücken entstehen, das System führt aber automatisch eine Defragmentierung durch, wenn hier gewisse Grenzen überschritten werden. Kompression von Daten Zur Optimierung der RAM-Ausnutzung werden Tabellendaten schon im Hauptspeicher elementweise komprimiert. Das System wählt hierbei abhängig von den vorliegenden Datentypen und Spalteninhalten selbständig den besten Kompressionsalgorithmus. Für den Nutzer ist die Kompression komplett transparent. Das System wählt abhängig von den vorliegenden Datentypen und Spalteninhalten selbständig einen guten Kompressionsalgorithmus. 5. Skalierbarkeit Dank der Single Program Multiple Data (SPMD)-Architektur entstehen keine I/O- oder programmbedingten Flaschenhälse. Die von EXASOL entwickelten Kommunikationsroutinen in Kombination mit der balancierten Datenverteilung tragen erheblich zu den einmaligen Skalierungseigenschaften von EXASolution bei. Wachsen die Anforderungen, kann das System jederzeit leicht um einen oder mehrere Knoten erweitert werden. Lineare Skalierbarkeit Dank der linearen Skalierungseigenschaften von EXASolution bringt ein Einsatz der doppelten Anzahl der Server bei gleichbleibender Hauptspeichermenge eine durchschnittliche Performancesteigerung um fast Faktor zwei. Damit kann der Kunde z.b. für eine 400 GB Lizenz zwischen 4 Servern á 128 GB RAM und 8 Servern á 64 GB RAM wählen. So kann der Kunde die Systemperformance jederzeit über die Anzahl der Knoten selbst bestimmen

8 Im unabhängigen TPC-H Benchmark konnte EXASOL seine unerreichte Skalierbarkeit eindrucksvoll beweisen: 6. Tuning-freie Datenbank Dank intelligenten Algorithmen wird EXASolution mit der Nutzung schneller, und nicht langsamer, wie konventionelle DBMS. Dabei wird der Administrationsaufwand stark reduziert, da EXASolution selbst das laufende Tuning übernimmt. In einem traditionellen RDBMS muss der Datenbankadministrator (DBA) folgende Fragen beantworten: Muss ich das Schema denormalisieren? Wie verteile ich die Daten? Wie groß müssen die einzelnen Partitionen sein? Wie sehen die Daten aus? Wie greifen die User auf die Daten zu? Wie passe ich die Ausführungspläne einzelner Queries an? Welche Indices brauche ich für die optimale Performance? Soll ein Teil der Nutzer nur noch fertige Berichte erhalten? Welche Aggregate soll ich noch erstellen? EXASolution hingegen erledigt die administrativen Arbeiten automatisch und macht die Fragestellung sogar zum Teil überflüssig. EXASolution ist bei jeder Schemaauswahl performant. Die Datenverteilung erfolgt automatisch anhand des Nutzungsprofils. Der EXASOL-Optimizer analysiert sowohl Daten als auch Abfragen und passt sie aneinander an, - 8 -

9 ohne dass der DBA eingreifen muss. Die Indices werden vom System automatisch on the fly anhand der Query-Analyse erstellt und verwaltet. Mächtiger kostenbasierter Query-Optimizer Der Optimizer von EXASolution wurde von Anfang an auf die Bedürfnisse der massiv parallelen Datenverarbeitung zugeschnitten. Sein Ziel ist u.a. sicherzustellen, dass die Arbeit überwiegend lokal auf den Knoten erledigt werden kann. Dadurch wird der Kommunikationsoverhead erheblich reduziert, was ebenfalls zur exzellenten Skalierbarkeit von EXASolution beiträgt. Der Optimizer ermittelt auch anhand der heuristisch berechneten Tabellenstatistiken die Join-Reihenfolge und ermöglicht somit die optimale Verarbeitung von mehrfachen Tabellenverknüpfungen. So wird sichergestellt, dass EXASolution mit beliebigen Datenmodellen eine optimale Performance liefert. Automatische Indexierung Auch Indizes werden vom System selbständig erzeugt, wiederverwendet und ggf. auch wieder verworfen. Der Benutzer hat auch hier nur indirekt Einfluss, da die ausgeführten Queries als Grundlage für die Index-Auswahl und Erzeugung dienen. Wird ein Index nicht oft verwendet, wird er auf die Festplatte ausgelagert, so dass er den Speicherbedarf nicht erhöht. Wird ein Index über eine längere Zeit nicht verwendet (gelesen), wird er vom System automatisch verworfen. Datenverteilung über Knoten Das System verteilt automatisch jede Tabelle über alle aktiven Knoten (Shared Nothing Architektur). Tabellen, die eine gewisse Größe unterschreiten, werden repliziert, d.h. auf jedem Knoten vollständig gehalten. Damit ist gewährleistet, dass Joins größtenteils knotenlokal bearbeitet werden können. Durch das Setzen von Verteilungsattributen kann der Nutzer die Datenverteilung beeinflussen, um die Lokalität weiter zu verbessern. Unicode EXASolution unterstützt Unicode vollständig und kann daher alle üblichen Zeichen der Welt in der Datenbank abspeichern. Bei der Erzeugung einer Datenbanktabelle muss auf nichts Spezielles geachtet werden (z.b. CREATE TABLE t (v VARCHAR(50)), auch Identifier wie Schema-, Tabellen- und Spaltennamen können Unicode-Zeichen beinhalten. Zur internen Kodierung wird das gängige UTF-8-Format eingesetzt, welches die Unicode- Zeichen in variabler Länge abspeichert. Der Datentyp bestimmt dabei die Anzahl der speicherbaren Symbole, nicht die Länge in Bytes. Auf Client-Seite übernimmt der jeweilige Treiber (z.b. JDBC-, ODBC-Treiber oder Client SDK) automatisch die Umwandlung zwischen lokalem Zeichensatz und UTF-8 Format. Daher können Datenbank-Benutzer mit verschiedenen Zeichensatzeinstellungen dieselben Daten lesen und schreiben, ohne besondere Einstellungen beachten zu müssen

10 7. EXAPowerlytics EXAPowerlytics bietet Ihnen die Möglichkeit, eigene Analyse-, Verarbeitungs- und Generierungsfunktionen zu programmieren und innerhalb von EXASolution parallel in einem Hochleistungscluster ausführen zu lassen (In Database Analytics). Durch dieses Prinzip lassen sich viele Probleme sehr performant lösen, die bisher in SQL undenkbar waren. Mit EXAPowerlytics erhalten Sie also eine flexible Schnittstelle, mit der sich nahezu beliebige Anforderungen umsetzen lassen. Sie werden so zum HPC-Entwickler, ohne spezielle Kenntnisse zu benötigen. Mit EXAPowerlytics können Sie folgende benutzerdefinierte Erweiterungen umsetzen: Skalare Funktionen Aggregatsfunktionen Analytische Funktionen MapReduce-Algorithmen Anbindung von externen Daten-Quellen wie z.b. Hadoop-Systemen 8. Hochverfügbarkeit Automatische Datenredundanz Auf Softwareseite (EXACluster OS) werden Konzepte realisiert, die durch Redundanz die Ausfallsicherheit erhöhen (z.b. Abfangen von Festplattenlesefehlern durch Zugriff auf Redundanzdaten, Software-RAID o.ä.). Der Redundanz-Level (Anzahl der Kopien inklusive Originale) des Systems ist frei wählbar. Das Erzeugen der Redundanzdaten geschieht während des Commits, das heißt abgeschlossene Transaktionen überdauern auch Knotenausfälle. Für jede zusätzliche Redundanzkopie wird mindestens ein Knotenausfall kompensiert, bei Redundanz-Level 4 könnten z.b. wenigstens 3 Knoten gleichzeitig ausfallen, ohne die Datenintegrität zu gefährden. Automatische Recovery Falls ein Komponentenausfall durch lokale Redundanz nicht abgefangen werden kann, gilt der betroffene Knoten des Clusters als ausgefallen. Dasselbe trifft auf den Ausfall von Softwarekomponenten zu (z.b. Programm- oder Betriebssystemabsturz). Als Folge wird durch eine automatische Wiederherstellung (Recovery) das System selbständig binnen weniger Sekunden wieder zur Verfügung gestellt

11 Gerade weil das EXASOL-Cluster aus sehr vielen Standardkomponenten besteht, müssen kritische Hardware-Ausfälle auf der Softwareebene abgefangen werden. Daher stehen für die automatische Recovery in der Regel einige Reserveknoten bereit, die bei Bedarf die Arbeit von ausgefallenen Knoten übernehmen. Das System kompensiert ausgefallene Knoten und reorganisiert sich anschließend selbständig. Dabei werden die Daten des ausgefallenen Knotens im Hintergrund (während also das System schon wieder benutzbar ist) aus dem restlichen System automatisch wiederhergestellt. Eine höhere Priorisierung von Benutzeranfragen gewährleistet dabei, dass diese durch den Wiederherstellungsprozess nur wenig beeinträchtigt werden. Ermöglicht wird der Prozess durch die redundante Datenspeicherung, bei der alle Daten eines Knotens auch auf anderen Knoten mitgespeichert werden. Je nach definiertem Redundanz-Level kann ein sehr großer Teil des Clusters ausfallen, ohne die Wiederherstellung des Systems zu beeinträchtigen. 9. Fazit EXASolution ist eine relationale Hochleistungsdatenbank für komlexe analytische Auswertungen. Die Shared Nothing Architektur also eine parallele Verarbeitung nach dem SPMD Modell auf einem Cluster aus Standard-Servern - sichert optimale Skalierbarkeit. Die Daten werden spaltenweise gespeichert und In Memory verarbeitet, um konkurrenzlose Performance zu erzielen, wie EXASolution eindrucksvoll im TPC-H Benchmark unter Beweis stellen konnte. Durch intelligente Failover-Mechanismen wird zudem die Verfügbarkeit des Services sichergestellt. EXASolution ist durch viele automatische interne Optimierungen tuning-frei, so dass ein Datenbankadministrator keine Aufwände während des Betriebs hat. Anhand des Nutzungsprofils der Anwender optimiert sich EXASolution von selbst. Und die initiale Installation eines gesamten Clusters geschieht innerhalb von wenigen Minuten

12 Über die EXASOL AG Die EXASOL AG entwickelt ein Datenbank-Management-System, mit dem Daten sehr schnell analysiert und ausgewertet werden können. Durch den Einsatz der Lösung von EXASOL werden Geschäftsprozesse optimiert und sichere Entscheidungsgrundlagen generiert, die Unternehmen aller Branchen einen nachhaltigen Wettbewerbsvorsprung verschaffen. EXASolution ist eine relationale Hochleistungsdatenbank, die speziell für Enterprise- Warehouse-Anwendungen und Business-Intelligence-Lösungen entwickelt wurde. Die auf In-Memory-Technologie basierende Datenbank wird für zeitkritische komplexe Analysen, umfangreiche Datenrecherchen, Planungen oder Reportings eingesetzt. Durch die Integration von Geodaten, Big-Data-Quellen und unstrukturierten Daten eröffnet EXASolution, u.a. mit dem Modul EXAPowerlytics, zusätzliche Auswertungsdimensionen, die noch effizientere und Ad-hoc-Analysen zulassen. Die Easy-to-manage-Datenbank lässt sich einfach in bestehende IT-Infrastrukturen integrieren und erfordert geringen Administrationsaufwand bei niedrigen Investitions- und Betriebskosten (TCO). Neben drei Appliance-Varianten wird EXASolution unter dem Namen EXACloud auch als Datawarehousing as a Service angeboten. Bei dieser besonders effizienten Datenverwaltung profitieren die EXASOL-Kunden vom vollen Datenzugriff zu jeder Zeit und einem transparenten Preismodell. Unternehmen wie XING, Sony Music, Olympus, media control, Zalando, stayfriends, Coop, IMS Health, Semikron, Webtrekk, econda und xplosion setzen auf die Technologie Made in Germany. Für weitere Informationen gehen Sie auf folgen Sie uns auf twitter oder fügen Sie uns auf facebook hinzu. EXASOL AG Neumeyerstraße Nürnberg Fon: Fax: Zu den Angaben in diesem Whitepaper: Nach Redaktionsschluss dieser Druckschrift, August 2012, können sich Änderungen ergeben. EXASOL ist eine eingetragene Marke. Alle genannten Marken Dritter sind geschützt und befinden sich im Eigentum der jeweiligen Markeninhaber. 2012, EXASOL AG Alle Rechte vorbehalten

Advanced Analytics mit EXAPowerlytics. Technisches Whitepaper

Advanced Analytics mit EXAPowerlytics. Technisches Whitepaper Advanced Analytics mit EXAPowerlytics Technisches Whitepaper Inhalt 1. Zusammenfassung... 3 2. Einführung... 4 3. Fachliche Einführung... 5 4. Beispiel: Zeichen zählen... 7 5. Fazit... 9 6. Anhang... 10-2

Mehr

Xtract EXA. Plug n Play mit SAP und EXASolution

Xtract EXA. Plug n Play mit SAP und EXASolution Xtract EXA Plug n Play mit SAP und EXASolution Xtract EXA garantiert eine nahtlose Integration zwischen Ihrem SAP ERP- bzw. SAP BW-System und EXASolution. Mit nur wenigen Mausklicks extrahieren Sie Massendaten

Mehr

EXASOL @ Symposium on Scalable Analytics. www.exasol.com. Skalierbare Analysen mit EXASolution

EXASOL @ Symposium on Scalable Analytics. www.exasol.com. Skalierbare Analysen mit EXASolution EXASOL @ Symposium on Scalable Analytics Skalierbare Analysen mit EXASolution EXASOL AG Wer sind wir R&D: + seit 2000 + laufend Forschungsprojekte Produkt: Analytische Datenbank EXASolution Focus auf Komplexität

Mehr

EXASOL AG Zahlen & Fakten

EXASOL AG Zahlen & Fakten Big Data Management mit In-Memory-Technologie EXASOL AG Zahlen & Fakten Name: EXASOL AG Gründung: 2000 Tochterges.: Management: Produkte: Firmensitz: Niederlassung: EXASOL Cloud Computing GmbH Steffen

Mehr

TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann

TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann TU München, Fakultät für Informatik Lehrstuhl III: Datenbanksysteme Prof. Dr. Thomas Neumann Blatt Nr. 11 Übung zur Vorlesung Einsatz und Realisierung von Datenbanksystemen im SoSe15 Moritz Kaufmann (moritz.kaufmann@tum.de)

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht)

Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Performanceoptimierung mit Exadata Verarbeitung extremer Datenmengen mit PL/SQL basierter Datenbewirtschaftung (Erfahrungsbericht) Christian Haag, DATA MART Consulting Consulting Manager Oracle DWH Team

Mehr

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. 7 Key Features. Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features Seite 2 von 12 1. Übersicht MIK.arjuna ist eine 64-bit multidimensionale Datenbank,

Mehr

SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen

SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen WEITER BLICKEN. MEHR ERKENNEN. BESSER ENTSCHEIDEN. Optimierung von Abfragen in MS SQL Server DWH-Umgebungen SOLISYON GMBH CHRISTIAN WOLF, BENJAMIN WEISSMAN VERSION 1.0 OPTIMIERUNG VON ABFRAGEN IN MS SQL

Mehr

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung

Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Asklepius-DA Die intelligente Technologie für die umfassende Analyse medizinischer Daten Leistungsbeschreibung Datei: Asklepius DA Flyer_Leistung_2 Seite: 1 von:5 1 Umfassende Datenanalyse Mit Asklepius-DA

Mehr

Themen. M. Duffner: Datenbanksysteme

Themen. M. Duffner: Datenbanksysteme Datenbanksysteme Themen Theorie Einführung Datenbank, Datenbankmanagementsystem (DBMS), Aufgaben eines DBMS Relationale Datenbanken Daten als Tabellen Datenbankentwurf im Entity-Relationship-Modell Abfragesprache

Mehr

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

Teil VI. Datenbanken

Teil VI. Datenbanken Teil VI Datenbanken Überblick 1 Grundlegende Begriffe Motivation 2 Relationale Datenbanksysteme Das Relationale Datenmodell SQL 3 Entwurf von Datenbanken Das Enity Relationship (ER) Modell Abbildung von

Mehr

ROPit-R8. ROP-IRMA & ROP-FiBu TECHNISCHE INFORMATIONEN

ROPit-R8. ROP-IRMA & ROP-FiBu TECHNISCHE INFORMATIONEN ROPit-R8 ROP-IRMA & ROP-FiBu TECHNISCHE INFORMATIONEN Softwarelösung Gastronomie Event-Management Catering Gemeinschaftsverpflegung Stand 05/2010 INHALT Installationsvarianten 3 ROPit R8 als Einzelplatzlösung

Mehr

Heterogenes Speichermanagement mit V:DRIVE

Heterogenes Speichermanagement mit V:DRIVE Heterogenes Speichermanagement mit V:DRIVE V:DRIVE - Grundlage eines effizienten Speichermanagements Die Datenexplosion verlangt nach innovativem Speichermanagement Moderne Businessprozesse verlangen auf

Mehr

O-BIEE Einführung mit Beispielen aus der Praxis

O-BIEE Einführung mit Beispielen aus der Praxis O-BIEE Einführung mit Beispielen aus der Praxis Stefan Hess Business Intelligence Trivadis GmbH, Stuttgart 2. Dezember 2008 Basel Baden Bern Lausanne Zürich Düsseldorf Frankfurt/M. Freiburg i. Br. Hamburg

Mehr

Seminar in der Seminarreihe Business Intelligence 1. OLAP und Datawarehousing

Seminar in der Seminarreihe Business Intelligence 1. OLAP und Datawarehousing Seminar in der Seminarreihe Business Intelligence 1 OLAP und Datawarehousing OLAP & Warehousing Die wichtigsten Produkte Die Gliederung Produkt Bewertung & Vergleiche Die Marktentwicklung Der aktuelle

Mehr

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik ARFA ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik Ralf Leipner Domain Architect Analytics, Risk Management & Finance 33. Berner Architekten

Mehr

Oracle-Statistiken im Data Warehouse effizient nutzen

Oracle-Statistiken im Data Warehouse effizient nutzen Oracle-Statistiken im Data Warehouse effizient nutzen Reinhard Mense ARETO Consulting Köln Schlüsselworte: DWH, Data Warehouse, Statistiken, Optimizer, Performance, Laufzeiten Einleitung Für die performante

Mehr

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221

Oracle 10g und SQL Server 2005 ein Vergleich. Thomas Wächtler 39221 Oracle 10g und SQL Server 2005 ein Vergleich Thomas Wächtler 39221 Inhalt 1. Einführung 2. Architektur SQL Server 2005 1. SQLOS 2. Relational Engine 3. Protocol Layer 3. Services 1. Replication 2. Reporting

Mehr

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud

Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Die maßgeschneiderte IT-Infrastruktur aus der Südtiroler Cloud Sie konzentrieren sich auf Ihr Kerngeschäft und RUN AG kümmert sich um Ihre IT-Infrastruktur. Vergessen Sie das veraltetes Modell ein Server,

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

Der Neue Weg zur Verschlüsselung von Datenbankinhalten

Der Neue Weg zur Verschlüsselung von Datenbankinhalten Der Neue Weg zur Verschlüsselung von Datenbankinhalten Da Häufigkeit und Schwere von Datendiebstahl zunehmen, ist es immens wichtig, dass Unternehmen vertrauliche und sensible Daten zusätzlich durch Verschlüsselung

Mehr

IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen

IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen Nahezu 70% aller Data Warehouse Anwendungen leiden unter Leistungseinschränkungen der unterschiedlichsten Art. - Gartner

Mehr

Performanceaspekte in der SAP BI Modellierung

Performanceaspekte in der SAP BI Modellierung Performanceaspekte in der SAP BI Modellierung SAP BW 7.3 & SAP HANA Performance Indizes Aggregate DSO & InfoCube BWA SAP HANA Empfehlung 2 Performance Performance bedeutet, unter gegebenen Anforderungen

Mehr

MySQL Cluster. Kai Voigt MySQL AB kai@mysql.com. Kiel, 17. Februar 2006

MySQL Cluster. Kai Voigt MySQL AB kai@mysql.com. Kiel, 17. Februar 2006 MySQL Cluster Kai Voigt MySQL AB kai@mysql.com Kiel, 17. Februar 2006 1 Agenda Warum? Wie? Wie genau? Was sonst? 2 Warum? 3 Kosten runter Hochverfügbarkeit (99,999%) Redundante Daten und Systeme Wiederherstellung

Mehr

Technische Basis für den Betrieb von ONTRAM

Technische Basis für den Betrieb von ONTRAM Technische Basis für den Betrieb von ONTRAM hello system Technische Basis für den Betrieb von ONTRAM Bestandteile von ONTRAM ONTRAM setzt sich aus mehreren Komponenten zusammen, die ebenso auf mehrere

Mehr

EXASOL Anwendertreffen 2012

EXASOL Anwendertreffen 2012 EXASOL Anwendertreffen 2012 EXAPowerlytics Feature-Architektur EXAPowerlytics In-Database Analytics Map / Reduce Algorithmen Skalare Fkt. Aggregats Fkt. Analytische Fkt. Hadoop Anbindung R LUA Python 2

Mehr

HANDBUCH LSM GRUNDLAGEN LSM

HANDBUCH LSM GRUNDLAGEN LSM Seite 1 1.0 GRUNDLAGEN LSM 1.1. SYSTEMVORAUSSETZUNGEN AB LSM 3.1 SP1 (ÄNDERUNGEN VORBEHALTEN) ALLGEMEIN Lokale Administratorrechte zur Installation Kommunikation: TCP/IP (NetBios aktiv), LAN (Empfehlung:

Mehr

HANA. TOBA-Team Dresden 19.05.2012

HANA. TOBA-Team Dresden 19.05.2012 HANA TOBA-Team Dresden 19.05.2012 Kunde droht mit Auftrag! Ein großer Discounter schickt Anfrage: Bis wann und zu welchem Preis können Sie 30.000 Stück liefern? Die Hektik beginnt! Bis wann Welche und

Mehr

Softwaretool Data Delivery Designer

Softwaretool Data Delivery Designer Softwaretool Data Delivery Designer 1. Einführung 1.1 Ausgangslage In Unternehmen existieren verschiedene und häufig sehr heterogene Informationssysteme die durch unterschiedliche Softwarelösungen verwaltet

Mehr

Darüber hinaus wird das Training dazu beitragen, das Verständnis für die neuen Möglichkeiten zu erlangen.

Darüber hinaus wird das Training dazu beitragen, das Verständnis für die neuen Möglichkeiten zu erlangen. Ora Education GmbH www.oraeducation.de info@oraeducation.de Lehrgang: Oracle 11g: New Features für Administratoren Beschreibung: Der Kurs über fünf Tage gibt Ihnen die Möglichkeit die Praxis mit der neuen

Mehr

Infrastruktur fit machen für Hochverfügbarkeit, Workload Management und Skalierbarkeit

Infrastruktur fit machen für Hochverfügbarkeit, Workload Management und Skalierbarkeit make connections share ideas be inspired Infrastruktur fit machen für Hochverfügbarkeit, Workload Management und Skalierbarkeit Artur Eigenseher, SAS Deutschland Herausforderungen SAS Umgebungen sind in

Mehr

Fragenkatalog zum Kurs 1666 (Datenbanken in Rechnernetzen) Kurstext von SS 96

Fragenkatalog zum Kurs 1666 (Datenbanken in Rechnernetzen) Kurstext von SS 96 Fragenkatalog zum Kurs 1666 (Datenbanken in Rechnernetzen) Kurstext von SS 96 Dieser Fragenkatalog wurde aufgrund das Basistextes und zum Teil aus den Prüfungsprotokollen erstellt, um sich auf mögliche

Mehr

Grundlagen von Datenbanken

Grundlagen von Datenbanken Grundlagen von Datenbanken Aufgabenzettel 1 Grundlagen Datenbanken: Kurzer historischer Überblick (1) Anwendung 1 Anwendung 2 Datei 1 Datei 2 Datei 3 Zugriff auf Dateien ohne spezielle Verwaltung 2 Exkurs:

Mehr

IBM Informix Tuning und Monitoring

IBM Informix Tuning und Monitoring Seminarunterlage Version: 11.01 Copyright Version 11.01 vom 25. Juli 2012 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

Einleitung. Literatur. Pierre Fierz. Architektur von Datenbanksystemen. Physische Datenunabhängigkeit. Der Datenbank Administrator (DBA) 1.

Einleitung. Literatur. Pierre Fierz. Architektur von Datenbanksystemen. Physische Datenunabhängigkeit. Der Datenbank Administrator (DBA) 1. Inhalt der Vorlesung Literatur 1 Datenmodellierung (Entity-Relationship Modell) 2 Das relationale Modell 3 Relationenalgebra 4 Datenbanksprache (SQL) 5 Normalisierung 6 Vom ERM zum Datenbankschema 7 Routinen

Mehr

Manfred Helber Microsoft Senior PreSales Consultant

Manfred Helber Microsoft Senior PreSales Consultant Manfred Helber Microsoft Senior PreSales Consultant Agenda ROK Vorteile Extended Live Migration Extended Hyper-V Replica Hyper-V Cluster Erweiterungen Storage Quality of Service Auswahl geeigneter Serversysteme

Mehr

Vorlesung 30.03.2009 1) Einführung

Vorlesung 30.03.2009 1) Einführung Vorlesung 30.03.2009 1) Einführung Was versteht man unter dem Begriff Datenbank? - Eine Datenbank ist eine Struktur zur Speicherung von Daten mit lesendem und schreibendem Zugriff - Allgemein meint man

Mehr

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2

Inhaltsverzeichnis. BüroWARE Systemanforderungen ab Version 5.31. Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 Inhaltsverzeichnis Generelle Anforderungen SoftENGINE BüroWARE SQL / Pervasive. 2 1. Terminal-Server-Betrieb (SQL)... 3 1.1. Server 3 1.1.1. Terminalserver... 3 1.1.2. Datenbankserver (bei einer Datenbankgröße

Mehr

Vorwort zur 5. Auflage... 15 Über den Autor... 16

Vorwort zur 5. Auflage... 15 Über den Autor... 16 Vorwort zur 5. Auflage...................................... 15 Über den Autor............................................ 16 Teil I Grundlagen.............................................. 17 1 Einführung

Mehr

www.braunconsult.de SAP BW 7.3 & SAP HANA

www.braunconsult.de SAP BW 7.3 & SAP HANA Performanceaspekte in der SAP BI Modellierung SAP BW 7.3 & SAP HANA Performance Indizes Aggregate DSO & InfoCube BWA SAP HANA Empfehlung 2 Performance Performance bedeutet, unter gegebenen Anforderungen

Mehr

Einführung in Hauptspeicherdatenbanken

Einführung in Hauptspeicherdatenbanken Einführung in Hauptspeicherdatenbanken Harald Zankl Probevorlesung 13. 01., 13:15 14:00, HS C Inhaltsverzeichnis Organisation Überblick Konklusion Harald Zankl (LFU) Hauptspeicherdatenbanken 2/16 Organisation

Mehr

BARC-Studie Data Warehousing und Datenintegration

BARC-Studie Data Warehousing und Datenintegration Ergebnisse der BARC-Studie Data Warehouse Plattformen Dr. Carsten Bange BARC-Studie Data Warehousing und Datenintegration Data-Warehouse -Plattformen und Datenintegrationswerkzeuge im direkten Vergleich

Mehr

Oracle 10g revolutioniert Business Intelligence & Warehouse

Oracle 10g revolutioniert Business Intelligence & Warehouse 10g revolutioniert Business Intelligence & Warehouse Marcus Bender Strategisch Technische Unterstützung (STU) Hamburg 1-1 BI&W Market Trends DWH werden zu VLDW Weniger Systeme, mehr Daten DWH werden konsolidiert

Mehr

SQL Azure Technischer Überblick. Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk

SQL Azure Technischer Überblick. Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk SQL Azure Technischer Überblick Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit und Vollständigkeit

Mehr

DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER

DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER DATENBANKEN SQL UND SQLITE VON MELANIE SCHLIEBENER INHALTSVERZEICHNIS 1. Datenbanken 2. SQL 1.1 Sinn und Zweck 1.2 Definition 1.3 Modelle 1.4 Relationales Datenbankmodell 2.1 Definition 2.2 Befehle 3.

Mehr

! DBMS organisiert die Daten so, dass minimal viele Plattenzugriffe nötig sind.

! DBMS organisiert die Daten so, dass minimal viele Plattenzugriffe nötig sind. Unterschiede von DBMS und files Speichern von Daten! DBMS unterstützt viele Benutzer, die gleichzeitig auf dieselben Daten zugreifen concurrency control.! DBMS speichert mehr Daten als in den Hauptspeicher

Mehr

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation.

Inhalt. 1 Übersicht. 2 Anwendungsbeispiele. 3 Einsatzgebiete. 4 Systemanforderungen. 5 Lizenzierung. 6 Installation. Inhalt 1 Übersicht 2 Anwendungsbeispiele 3 Einsatzgebiete 4 Systemanforderungen 5 Lizenzierung 6 Installation 7 Key Features 8 Funktionsübersicht (Auszug) Seite 2 von 14 1. Übersicht MIK.starlight bietet

Mehr

Das 1&1 Datawarehouse -Von Massendaten zu Prozesskennzahlen

Das 1&1 Datawarehouse -Von Massendaten zu Prozesskennzahlen Das 1&1 Datawarehouse -Von Massendaten zu Prozesskennzahlen Inhalt Das Unternehmen 1&1 Internet AG Ausgangssituation Projektziel Lösung Das 1&1 Datawarehouse 2 Zu meiner Person Volker Müller-Strunk Dipl.

Mehr

Zeichensatzkonvertierung in Oracle-DB. moving objects GmbH Martin Busik Hamburg - Mai 2003 www.moving-objects.de

Zeichensatzkonvertierung in Oracle-DB. moving objects GmbH Martin Busik Hamburg - Mai 2003 www.moving-objects.de Zeichensatzkonvertierung in Oracle-DB moving objects GmbH Martin Busik Hamburg - Mai 2003 www.moving-objects.de moving objects GmbH? Beratung Anforderungserhebung Geschäftprozessanalyse Coaching? Schulung

Mehr

Configuration Management mit Verbosy 17.04.2013 OSDC 2013. Eric Lippmann www.netways.de

Configuration Management mit Verbosy 17.04.2013 OSDC 2013. Eric Lippmann www.netways.de Configuration Management mit Verbosy 17.04.2013 OSDC 2013 Eric Lippmann Kurzvorstellung NETWAYS Expertise OPEN SOURCE SYSTEMS MANAGEMENT OPEN SOURCE DATA CENTER Monitoring & Reporting Configuration Management

Mehr

A Generic Database Web Service for the Venice Lightweight Service Grid

A Generic Database Web Service for the Venice Lightweight Service Grid A Generic Database Web Service for the Venice Lightweight Service Grid Michael Koch Bachelorarbeit Michael Koch University of Kaiserslautern, Germany Integrated Communication Systems Lab Email: m_koch2@cs.uni-kl.de

Mehr

Oracle Automatic Storage Management (ASM) Best Practices

Oracle Automatic Storage Management (ASM) Best Practices Oracle Automatic Storage Management (ASM) Best Practices Markus Michalewicz BU Database Technologies ORACLE Deutschland GmbH 2 Page 1 www.decus.de 1 Agenda ASM Funktionalität und Architektur Storage Management

Mehr

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich

Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Möglichkeiten der E-Mail- Archivierung für Exchange Server 2010 im Vergleich Seit Microsoft Exchange Server 2010 bieten sich für Unternehmen gleich zwei mögliche Szenarien an, um eine rechtskonforme Archivierung

Mehr

Datenbanksystem. System Global Area. Hintergrundprozesse. Dr. Frank Haney 1

Datenbanksystem. System Global Area. Hintergrundprozesse. Dr. Frank Haney 1 Datenbanksystem System Global Area Hintergrundprozesse Dr. Frank Haney 1 Komponenten des Datenbanksystems System Global Area Program Global Area Hintergrundprozesse Dr. Frank Haney 2 System Global Area

Mehr

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2

Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Excel beschleunigen mit dem mit Windows HPC Server 2008 R2 Steffen Krause Technical Evangelist Microsoft Deutschland GmbH http://blogs.technet.com/steffenk Haftungsausschluss Microsoft kann für die Richtigkeit

Mehr

Betriebssysteme K_Kap11C: Diskquota, Raid

Betriebssysteme K_Kap11C: Diskquota, Raid Betriebssysteme K_Kap11C: Diskquota, Raid 1 Diskquota Mehrbenutzer-BS brauchen einen Mechanismus zur Einhaltung der Plattenkontingente (disk quotas) Quota-Tabelle enthält Kontingenteinträge aller Benutzer

Mehr

Mit Transbase Hypercube Data Warehouse Anwendungen effizient betreiben. Die Hypercube-Technologie

Mit Transbase Hypercube Data Warehouse Anwendungen effizient betreiben. Die Hypercube-Technologie Mit Transbase Hypercube Data Warehouse Anwendungen effizient betreiben Transbase Hypercube ist eine Transbase -Option, die die innovative Hypercube-Technologie für komplexe analytische Anwendungen (OLAP)

Mehr

Verteiltes Backup. Einleitung Grundlegende Backup Techniken Backup in Netzwerken. Client/Server Peer-to-Peer

Verteiltes Backup. Einleitung Grundlegende Backup Techniken Backup in Netzwerken. Client/Server Peer-to-Peer Verteiltes Backup Einleitung Grundlegende Backup Techniken Backup in Netzwerken Client/Server Peer-to-Peer Einleitung Backup: Das teilweise oder gesamte Kopieren der in einem Computersystem vorhandenen

Mehr

SQL, MySQL und FileMaker

SQL, MySQL und FileMaker SQL, MySQL und FileMaker Eine kurze Einführung in SQL Vorstellung von MySQL & phpmyadmin Datenimport von MySQL in FileMaker Autor: Hans Peter Schläpfer Was ist SQL? «Structured Query Language» Sprache

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

Inhaltsverzeichnis. jetzt lerne ich

Inhaltsverzeichnis. jetzt lerne ich Inhaltsverzeichnis jetzt lerne ich Einführung 15 1 Erste Schritte 21 1.1 Datenbanken und Datenbank-Managementsysteme 21 1.2 Zugriff auf Datenbanken 22 1.3 Was der Großvater noch wusste... 22 1.4 Einordnung

Mehr

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem

Fachbericht zum Thema: Anforderungen an ein Datenbanksystem Fachbericht zum Thema: Anforderungen an ein Datenbanksystem von André Franken 1 Inhaltsverzeichnis 1 Inhaltsverzeichnis 1 2 Einführung 2 2.1 Gründe für den Einsatz von DB-Systemen 2 2.2 Definition: Datenbank

Mehr

Schnellste Realtime Segmentierung weltweit

Schnellste Realtime Segmentierung weltweit Schnellste Realtime Segmentierung weltweit powered by 1 Über Webtrekk Gegründet 2004 in Berlin Einer der führenden europäischen Webanalyseanbieter 45 Mitarbeiter 2 2nd only to Omniture 3 Referenzen Kunden

Mehr

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015

Abstrakt zum Vortrag im Oberseminar. Graphdatenbanken. Gero Kraus HTWK Leipzig 14. Juli 2015 Abstrakt zum Vortrag im Oberseminar Graphdatenbanken Gero Kraus HTWK Leipzig 14. Juli 2015 1 Motivation Zur Darstellung komplexer Beziehungen bzw. Graphen sind sowohl relationale als auch NoSQL-Datenbanken

Mehr

Performance by Design Wie werden performante ETL-Prozesse erstellt?

Performance by Design Wie werden performante ETL-Prozesse erstellt? Performance by Design Wie werden performante ETL-Prozesse erstellt? Reinhard Mense ARETO Consulting Bergisch Gladbach Schlüsselworte: DWH, Data Warehouse, ETL-Prozesse, Performance, Laufzeiten, Partitionierung,

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Vorlesung Informatik II

Vorlesung Informatik II Vorlesung Informatik II Universität Augsburg Wintersemester 2011/2012 Prof. Dr. Bernhard Bauer Folien von: Prof. Dr. Robert Lorenz Lehrprofessur für Informatik 08. Exkurs: Datenbanken 1 Motivation Datenbanksysteme

Mehr

In-Memory Technologie Hekaton

In-Memory Technologie Hekaton Einleitende Worte 11. Juli 2014 Inhaltsverzeichnis I Einleitende Worte 1 Einleitende Worte 2 3 4 5 6 Hekaton... I Einleitende Worte griech:hekaton 100 (Zahlwort) Einsatz für OLTP (Echtzeit-Transaktionsverarbeitung)

Mehr

In-Memory Computing als Grundlage für Big Data und Ihre Data-Warehouse-Strategie

In-Memory Computing als Grundlage für Big Data und Ihre Data-Warehouse-Strategie In-Memory Computing als Grundlage für Big Data und Ihre Data-Warehouse-Strategie EXASOL AG Zahlen & Fakten Name: Gründung: 2000 Tochterges.: Management: Produkte: Firmensitz: EXASOL AG EXASOL Cloud Computing

Mehr

Peter Dikant mgm technology partners GmbH. Echtzeitsuche mit Hadoop und Solr

Peter Dikant mgm technology partners GmbH. Echtzeitsuche mit Hadoop und Solr Peter Dikant mgm technology partners GmbH Echtzeitsuche mit Hadoop und Solr ECHTZEITSUCHE MIT HADOOP UND SOLR PETER DIKANT MGM TECHNOLOGY PARTNERS GMBH WHOAMI peter.dikant@mgm-tp.com Java Entwickler seit

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte

I N F O R M A T I O N V I R T U A L I S I E R U N G. Wir schützen Ihre Unternehmenswerte I N F O R M A T I O N V I R T U A L I S I E R U N G Wir schützen Ihre Unternehmenswerte Wir schützen Ihre Unternehmenswerte Ausfallsicherheit durch Virtualisierung Die heutigen Anforderungen an IT-Infrastrukturen

Mehr

WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN

WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN WINDOWS AZURE IM ÜBERBLICK GANZ NEUE MÖGLICHKEITEN Dr. Bernd Kiupel Azure Lead Microsoft Schweiz GmbH NEUE MÖGLICHKEITEN DURCH UNABHÄNGIGKEIT VON INFRASTRUKTUR BISHER: IT-Infrastruktur begrenzt Anwendungen

Mehr

Kapitel 8 Verteilte Datenbanken

Kapitel 8 Verteilte Datenbanken Kapitel 8 Verteilte Datenbanken Flien zum Datenbankpraktikum Wintersemester 2012/13 LMU München 2008 Thmas Bernecker, Tbias Emrich 2010 Tbias Emrich, Erich Schubert unter Verwendung der Flien des Datenbankpraktikums

Mehr

Inhalt der Vorlesung. 1 Datenmodellierung (Entity-Relationship Modell) 2 Das relationale Modell. 3 Relationenalgebra. 4 Datenbanksprache (SQL)

Inhalt der Vorlesung. 1 Datenmodellierung (Entity-Relationship Modell) 2 Das relationale Modell. 3 Relationenalgebra. 4 Datenbanksprache (SQL) Inhalt der Vorlesung 1 Datenmodellierung (Entity-Relationship Modell) 2 Das relationale Modell 3 Relationenalgebra 4 Datenbanksprache (SQL) 5 Normalisierung 6 Vom ERM zum Datenbankschema 7 Routinen und

Mehr

1Ralph Schock RM NEO REPORTING

1Ralph Schock RM NEO REPORTING 1Ralph Schock RM NEO REPORTING Bereit für den Erfolg Business Intelligence Lösungen Bessere Entscheidungen Wir wollen alle Mitarbeiter in die Lage versetzen, bessere Entscheidungen schneller zu treffen

Mehr

IT-Kompaktkurs. Datenbanken Skript zur Folge 10. Prof. Dr. Dieter Rummler Fachhochschule Deggendorf

IT-Kompaktkurs. Datenbanken Skript zur Folge 10. Prof. Dr. Dieter Rummler Fachhochschule Deggendorf IT-Kompaktkurs Skript zur Folge 10 Prof. Dr. Dieter Rummler Fachhochschule Deggendorf Client Server Architektur Zunächst zur grundsätzlichen Unterscheidung zwischen File-Server Datenbank und Server-Datenbank

Mehr

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz

Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC. Alexander Scholz Hochverfügbar und Skalierung mit und ohne RAC Szenarien zu Hochverfügbarkeit und Skalierung mit und ohne Oracle RAC Alexander Scholz Copyright its-people Alexander Scholz 1 Einleitung Hochverfügbarkeit

Mehr

Handbuch organice SQL-Reportgenerator

Handbuch organice SQL-Reportgenerator organice Software GmbH Handbuch organice SQL-Reportgenerator Benutzerhandbuch Stand: August 2013 Inhalt 1. Allgemeine Informationen... 3 1.1 Einführung... 3 1.2 Voraussetzungen... 3 1.3 Zielgruppe... 3

Mehr

IBM SPSS Data Access Pack Installationsanweisung für Windows

IBM SPSS Data Access Pack Installationsanweisung für Windows IBM SPSS Data Access Pack Installationsanweisung für Windows Inhaltsverzeichnis Kapitel 1. Übersicht.......... 1 Einführung............... 1 Bereitstellen einer Datenzugriffstechnologie.... 1 ODBC-Datenquellen...........

Mehr

Die Grundbegriffe Die Daten Die Informationen

Die Grundbegriffe Die Daten Die Informationen Die Grundbegriffe Die Daten sind diejenigen Elemente, die vom Computer verarbeitet werden. Die Informationen sind Wissenselemente, welche durch die Analyse von Daten erhalten werden können. Die Daten haben

Mehr

SQL-Optimizer und Optimierung bei DB2

SQL-Optimizer und Optimierung bei DB2 SQL-Optimizer und Optimierung bei DB2 S.K. Consulting GmbH, München DB2_SQL_PERF - 1 - Inhaltsverzeichnis 1. Optimierung bei DB2 1.1 Einflussfaktoren auf die Entscheidung des Optimizers 1.2 Übersicht über

Mehr

In Tabelle 2.1 sehen Sie das Ergebnis beider Ausführungen auf meiner Maschine.

In Tabelle 2.1 sehen Sie das Ergebnis beider Ausführungen auf meiner Maschine. Kapitel 2 Datenverwaltung durch SQL Server Wir wollen das obige Skript zwei Mal laufen lassen, einmal mit und einmal ohne eingeschalteten Schreibcache der Festplatte. Für eine lokale Festplatte können

Mehr

Datenbanken: Architektur & Komponenten 3-Ebenen-Architektur

Datenbanken: Architektur & Komponenten 3-Ebenen-Architektur Datenbanken: Architektur & Komponenten 3-Ebenen-Architektur Moderne Datenbanksysteme sind nach der 3-Ebenen-Architektur gebaut: Anwendung 1 Web-Anwendung Anwendung 2 Java-Programm... Anwendung n Applikation

Mehr

Red Hat Cluster Suite

Red Hat Cluster Suite Red Hat Cluster Suite Building high-available Applications Thomas Grazer Linuxtage 2008 Outline 1 Clusterarten 2 3 Architektur Konfiguration 4 Clusterarten Was ist eigentlich ein Cluster? Wozu braucht

Mehr

Cassandra Query Language (CQL)

Cassandra Query Language (CQL) Cassandra Query Language (CQL) Seminar: NoSQL Wintersemester 2013/2014 Cassandra Zwischenpräsentation 1 Gliederung Basic facts Datentypen DDL/DML ähnlich zu SQL Besonderheiten Basic facts CQL kurz für

Mehr

Einteilung von Datenbanken

Einteilung von Datenbanken Datenbanksysteme (c) A.Kaiser; WU-Wien 1 Einteilung von Datenbanken 1. formatierte Datenbanken 2. unformatierte Datenbanken Information Retrieval Systeme 2 Wozu Datenbanken? Speicherung und Verwaltung

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

Wann nutze ich welchen semantischen Layer im Kontext von SAP HANA? [B3] Francis Fink Uetliberg, 16.09.2014 www.boak.ch

Wann nutze ich welchen semantischen Layer im Kontext von SAP HANA? [B3] Francis Fink Uetliberg, 16.09.2014 www.boak.ch Wann nutze ich welchen semantischen Layer im Kontext von SAP HANA? [B3] Francis Fink Uetliberg, 16.09.2014 www.boak.ch Obwohl mit der Verwendung von SAP HANA ein neuer semantischer Layer zum Einsatz kommt,

Mehr

Übersicht über Datenbanken

Übersicht über Datenbanken Übersicht über Datenbanken Vergleich zwischen normaler Datenorganisation und Datenbanken Definition einer Datenbank Beispiel (inkl. Zugriff) Der Datenbankadministrator Relationale Datenbanken Transaktionen

Mehr

RAC Architektur und Installation

<Insert Picture Here> RAC Architektur und Installation RAC Architektur und Installation Elmar Ströhmer Michael Künzner Oracle Server Technologies Competence Center Agenda Überblick und Architekturen von HA-Systemen Hardware Die Basis

Mehr

Firebird Database Cache Buffer

Firebird Database Cache Buffer Firebird Database Cache Buffer Norman Dunbar 20. Juli 2013 Version 1.3.1-de - deutsche Version Übersetzung ins Deutsche: Martin Köditz Inhaltsverzeichnis Einleitung... 3 Der Firebird-Cache... 3 MON$IO_STATS

Mehr

Verteilte Datenbanken. Folien zum Datenbankpraktikum Wintersemester 2009/10 LMU München

Verteilte Datenbanken. Folien zum Datenbankpraktikum Wintersemester 2009/10 LMU München Kapitel 8 Verteilte Datenbanken Folien zum Datenbankpraktikum Wintersemester 2009/10 LMU München 2008 Thomas Bernecker, Tobias Emrich unter Verwendung der Folien des Datenbankpraktikums aus dem Wintersemester

Mehr

Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH

Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH Data Warehouse schnell gemacht Performanceaspekte im Oracle DWH Dani Schnider Principal Consultant Business Intelligence BI Trilogie, Zürich/Basel 25./26. November 2009 Basel Baden Bern Lausanne Zürich

Mehr

XAMPP-Systeme. Teil 3: My SQL. PGP II/05 MySQL

XAMPP-Systeme. Teil 3: My SQL. PGP II/05 MySQL XAMPP-Systeme Teil 3: My SQL Daten Eine Wesenseigenschaft von Menschen ist es, Informationen, in welcher Form sie auch immer auftreten, zu ordnen, zu klassifizieren und in strukturierter Form abzulegen.

Mehr

2. Braunschweiger Linux-Tage. Vortrag über RAID. von. Thomas King. http://www.t-king.de/linux/raid1.html. 2. Braunschweiger Linux-Tage Seite 1/16

2. Braunschweiger Linux-Tage. Vortrag über RAID. von. Thomas King. http://www.t-king.de/linux/raid1.html. 2. Braunschweiger Linux-Tage Seite 1/16 2. Braunschweiger Linux-Tage Vortrag über RAID von Thomas King http://www.t-king.de/linux/raid1.html 2. Braunschweiger Linux-Tage Seite 1/16 Übersicht: 1. Was ist RAID? 1.1. Wo wurde RAID entwickelt? 1.2.

Mehr

TAV Übung 3. Übung 3: Verteilte Datenhaltung

TAV Übung 3. Übung 3: Verteilte Datenhaltung Übung 3: Verteilte Datenhaltung 1. Serialisierung Konstruieren Sie Historien aus drei Transaktionen T1, T2 und T3, die folgende Merkmale aufweisen: 1. Die serielle Reihenfolge ist T1 vor T2 vor T3. 2.

Mehr