Big Data (kl)eine technische Auswahl Peter Welker

Größe: px
Ab Seite anzeigen:

Download "Big Data (kl)eine technische Auswahl Peter Welker"

Transkript

1 Big Data (kl)eine technische Auswahl Peter Welker BASEL BERN BRUGG DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. GENF HAMBURG KOPENHAGEN LAUSANNE MÜNCHEN STUTTGART WIEN ZÜRICH

2 Connectors (Pull) Batch/Bulk Full Services (Push) Stream Incremental Sie erinnern sich? Organisation BI Competence Center IT Operations Business Stakeholders Un-/Semistructured Data Raw Data in Motion Service / API Dashboard Event Hub Standardized Data in Motion Structured Data Optimized Data in MotionNoSQL DB Stream Analytics Data Refinery/Factory Search Prebuild & AdHoc BI Assets Master & Reference Data Machine Data Content Standardized Data at Rest Optimized Data at Rest Hadoop Raw Data Raw Data at Rest Data Lab (Sandbox) SQL Engine Processed Files Merge Layer Query Information Services Advanced Analysis Tools Data Science Tools Data Sources Data Acquisition Data Management Information Provisioning Consumer Governance Metadata Management Master Data Management Quality & Accountability Security Legal Compliance Big Data (kl)eine technische Auswahl

3 Deutsche ORACLE Anwendergruppe Big Data (kl)eine technische Auswahl

4 Ein paar Tools herausgepickt Big Data (kl)eine technische Auswahl

5 Hadoop Big Data (kl)eine technische Auswahl

6 Motivation hinter Hadoop Scaling Out Horizontale Skalierung Server hinzufügen und in einer verteilten und parallelen Umgebung arbeiten Richtig gemacht kann das eine langfristige Lösung für zahlreiche Skalierungsprobleme sein Der Weg von einer monolitischen Lösung zu einem skalierbaren Cluster ist nicht einfach Big Data (kl)eine technische Auswahl

7 Motivation hinter Hadoop Schema on Read Traditionell Schema on Write Dataqualität durch formalisierten ETL Prozess Daten werden konsistent in Tabellen abgelegt Integration mittels ETL Struktur ist vor dem Schreiben bekannt Big Data Schema on Read Individuelle Dateninterpretation durch jedes lesende Programm Qualität auch von lesender Verarbeitung abhängig Datenintegration beim Lesen Big Data (kl)eine technische Auswahl

8 Hadoop HDFS: Architektur Namenode (1 per Cluster) Speichert Filesystemmetadaten und File-to-block-map Hat ein komplettes Bild des Filesystems Wird komplett im RAM gehalten Secondary Namenode (1 per Cluster) Internes Namenode-Transactionlog-Checkpointing Kein HA Feature! Datanode Many per cluster Speichert Datenblöcke (Dateiinhalte) Block Mindestgröße für Lese-/Schreiboperationen MB (default ) Dateien in HDFS werden nur einmal geschrieben! Source: Hadoop Operations (O Reilly Press) Big Data (kl)eine technische Auswahl

9 Hadoop HDFS: Placement Policy Default Placement Policy Erste Kopie wird auf den Knoten abgelegt, der die Datei erzeugt (write affinity) Zweite Kopie wird auf einen Knoten im gleichen Rack geschrieben Dritte Kopie landet auf einem Knoten in einem anderen Rack Ziel: Load-Balancing & Fault Tolerance Rack-aware replica placement Big Data (kl)eine technische Auswahl

10 MapReduce Hadoop MapReduce ist eine Open Source Implementierung des MapReduce Frameworks Programmiermodell von Google für die Verarbeitung großer Datenmengen in verteilten Umgebungen De-facto Standard für die Verarbeitung großer Datenmengen (nicht nur in Hadoop!) Laufzeit-Framework zur Organisation und Ausführung solcher Verarbeitungen problem data solution data MAP master node REDUCE worker node 1 worker node 2 worker node Big Data (kl)eine technische Auswahl

11 Sqoop Einfaches Tool zum Extrahieren und Laden von Daten zwischen RDBMS und Hadoop JDBC unde Map-Reduce basiert Kann ganze Schemata, einzelne Tabellen und Teile von Tabellen (Filter) verarbeiten Kann auch inkrementell Daten exportieren (Date / Timestamp-Spalte) Erzeugt per Default CSV Dateien auf Hadoop $ sqoop import --connect jdbc:mysql://localhost/company \ --username twheeler --password bigsecret \ --warehouse-dir /mydata \ --table customers Big Data (kl)eine technische Auswahl

12 Hive Apache Hive ist eine SQL-Engine, die MapReduce generiert Sprache heißt HiveQL Erzeugt im Hintergrund MapReduce auf dem Hadoop Cluster Ursprünglich von Facebook für Data Warehousing entwickelt Heute ein OpenSource Apache Projekt Der Metadaten-Katalog (Hcatalog oder Hive-Metastore) ist der De-Facto Standard für ein elationales Data Dictionary in Hadoop und wird auch von zahlreichen anderen Tools genutzt SELECT zipcode, SUM(cost) AS total FROM customers JOIN orders ON customers.cust_id = orders.cust_id WHERE zipcode LIKE '63%' GROUP BY zipcode ORDER BY total DESC; Big Data (kl)eine technische Auswahl

13 Apache Kafka Entwickelt bei LinkedIn, open-sourced in 2011 In Scala implementiert + ein wenig Java 9 Haupt-Committers, plus ~ 20 Contributors Big Data (kl)eine technische Auswahl

14 Apache Kafka - Performance LinkedIn => mehr als 1100 Brokers / 60 Clusters Milliarden Messages/Tag 175 TB produzierte Daten/Tag 650 TB konsumierte Daten/Tag Kafka Performance im Trivadis Tech-Center => 6 Brokers (VM) / 1 Cluster Messages / Sekunde 31 MB / Sekunde 3 ms durchschnittliche Latenz zwischen Producer / Consumer 13 Millionen Messages/ Sekunde 2.75 GB / Sekunde Peak Big Data (kl)eine technische Auswahl

15 Apache Kafka P 0 Kafka Broker Movement Topic P Producer Movement & Engine Data from Trucks Engine -Metrics Topic P Kafka Broker Movement Topic P Movement Consumer Movement Consumer P Engine -Metrics Topic P Engine Consumer Big Data (kl)eine technische Auswahl

16 Spark ( ist das neue MapReduce) Libraries Spark SQL (Batch Processing) Blink DB (Approximate Querying) Spark Streaming (Real-Time) MLlib, Spark R (Machine Learning) GraphX (Graph Processing) Core Runtime Spark Core API and Execution Model Cluster Resource Managers Data Stores Spark Standalone MESOS YARN HDFS Elastic Search Cassandra S3 / DynamoDB Big Data (kl)eine technische Auswahl

17 Spark: RDD, Dataframes, Datasets Skalierbares Arbeiten mit verteilten Daten ähnlich MapReduce in Hadoop Resilient Distributed Datasets (RDDs), Data Frames, Data Sets Verarbeitungsparadigment in Spark Sammlung von Objekten, die in einem Cluster im Hauptspeicher oder Disk gehalten und verarbeitet werden Parallele, funktionale Tranformationen (map, filter, ) Automatisches Rebuild im Fehlerfall (Knotenausfall) Beinhaltet Transformationshistorie ("lineage") für die zu verarbeitenden Daten Cache Partition 1 Cache Cache Partition 3 Spark Cluster Worker Node 1 Worker Node 2 Worker Node 3 HDFS Data Node HDFS Data Node Partition 2 HDFS Data Node Big Data (kl)eine technische Auswahl

18 Cassandra - Historie Bigtable Dynamo Big Data (kl)eine technische Auswahl

19 Motivation für Cassandra Skalierbarkeit bis weit in den Petabyte Bereich Annähernd lineare Performancegewinne durch Zufügen von Knoten (sofern korrekt eingesetzt) Kein SPOF (single point of failure) Einfache Replikation, einfache Distribution Cloud- und Multi-Data Center fähig Einstellbare Datenkonsistenz Flexible Schemata (Wide Column) Datenkomprimierung CQL Sprache (ähnlich SQL) Support für zahlreiche Sprachen uind Plattformen (sehr gute Spark- Integration) Keine spezielle Hard- oder Software nötig (keine Appliance, kein Cluster- OS) Big Data (kl)eine technische Auswahl

20 Einsatz über mehrere Datacenter (Regionen-Support) Sicherstellen von lokalen Daten West East Client Übergreifende Auswertungen Hochverfügbarkeit Node 1 Node 1 Node 4 Node 2 Node 4 Node 2 Node 3 Node Big Data (kl)eine technische Auswahl

21 Wer setzt Cassandra ein? Größter Betrieb mit mehr als 75,000 Cassandra Knoten in mehreren Clustern. Mehr als 10 Petabytes im größten Cluster (> 1,000 Knoten) Big Data (kl)eine technische Auswahl

22 Apache Drill Schema-unabhängige, verteilte SQL Query Engine Ermöglicht kombinierte ANSI SQL Abfragen gegen Hadoop und NoSQL Datenquellen Gut unterstütztes Open Source Project mit monatlichen Releases Drill ist designed to scale to several thousands of nodes and query petabytes of data at interactive speeds that BI/ Analytics environments require Big Data (kl)eine technische Auswahl

23 Apache Drill - Technik Der Drillbit Service wird auf jedem Knoten im Hadoop Cluster installiert Die Services verteilen die Aufgaben auf viele Knoten Nutzt Zookeeper für die Koordination Aufgaben der Drillbits Anfragen annehmen Queries ausführen Resultate zurückliefern Big Data (kl)eine technische Auswahl

24 Der ELK-Stack: Logstash Events und Log Management Daten sammeln Daten parsen Daten anreichern Daten speichern (Suche und Visualisierung) Big Data (kl)eine technische Auswahl

25 Elasticsearch Lucene Elasticsearch Java Class Library für die Suche Nicht verteilt lauffähig Integration mittels Java Dateisystembasiert Skalierung muss ausprogrammiert werden "very complicated" Setzt auf Lucene auf Für verteiltes Computing entwickelt (Scale-Out) RESTful HTTP API HA fähig Einfaches Handling Big Data (kl)eine technische Auswahl

26 RDBMS vs. Elasticsearch Ein Elastic Search Cluster beinhaltet viele Indexe (Datenbanken), die wiederum viele Typen (Tabellen). Typen beinhalten mehrere Dokumente (Records), und jedes Dokument hat Properties (Spalten). RDMBS Databases Table Row Column Index SQL SELECT UPDATE Elasticsearch Index Type Document Field everything is indexed Query DSL GET PUT Big Data (kl)eine technische Auswahl

27 Kibana Kibana ist eine Open Source Analyse- und Visualisierungsplattform, die für die Zusammenarbeit (suchen, darstellen) mit Elasticsearch gebaut wurde Visualisiert Daten in einer vielzahl von Charts, Tabellen und Karten Einfaches, Browserbasiertes Interface Big Data (kl)eine technische Auswahl

28 Deutsche ORACLE Anwendergruppe Big Data (kl)eine technische Auswahl

29 Big Data SQL Abfragen bspw. Gegen Apache Hive, HDFS, Oracle NoSQL Database oder Apache HBase [via Hive Metadata] Gemeinsames Analysieren von Daten aus diversen Datenspeichern as if it were all stored in an Oracle database Die vollständige Oracle SQL Syntax kann genutzt werden (auch AAO etc.) Der Zugriff erfolgt via External Tables (wie bei OSCH), unterstützt aber darüber hinaus SmartScans (bspw. Filter Predicate Offload) Zwei Varianten sind verfügbar Oracle Big Data for Hive (für Hive und HBase Konnektivität) Oracle Big Data SQL Server (für freien Zugriff mit SmartScan Funktionalität) Benötigt Installation von Oracle Komponenten auf dem Hadoop Cluster Ist praktisch die Cell-Node Funktionalität aus Exadata Oracle Big Data Connectivity

30 1d Big Data SQL Was passiert da? Oracle Big Data SQL Software on BDA 1b Ask for Metadata Oracle Big Data SQL Agent on DB Local Linux 2a 2a 1c Read Metadata Oracle Hive Data Dictionary 1a Ask for Metadata Oracle Database Other HDFS Files Hive Table Files Hive Metadata External Hive Table Oracle Create Hive Table Command 1. DDL Hadoop External HDFS Table Oracle Create HDFS Table Command with detailed access parameters 2. Query DB Developer File Metadata OBDS Installed or Generated Existing Developed Program Oracle Big Data Connectivity

31 Für Umme : Oracle Database Gateway Erzeugt Database Links zu anderen Datenbanken (SQL Server, Teradata usw.) Gerne kostenintensiv Kostenfrei ist aber die GENERIC OCBD Variante Erzeugt einen DB Link via ODBC Treiber bspw. zu Hive Was ist die Idee? Oracle Konnektoren meiden die Nutzung anderer SQL Query Engines wie Hive oder Impala (auch wenn sie gerne die Hive Metadaten verwenden) Mit ODG tun wir das aber mit allen Vor- und Nachteilen Oracle Big Data Connectivity

32 Database Gateway for ODBC Architektur Quelle: Oracle Oracle Big Data Connectivity

33 Database Gateway for ODBC Setup 1. Passenden OBCD Treiber installieren und konfigurieren 2. ODBC Gateway Installieren 3. listener.ora und tnsnames.ora anpassen 4. In ORACLE_HOME\hs\admin neue Datei erzeugen 5. Public Database Link erzeugen 6. loslegen Oracle Big Data Connectivity

34 Oracle Data Integrator Überblick Big Data Option (separate Lizenz!) Native Code Generierung für Pig Latin, Spark (PySpark) und Oozie Auswahl aus dem traditionellen ODI Agent oderapache Oozie als Orchestrierungs- Engine WebLogic Hive JDBC Driver Zahlreiche Direct Load KMs (LKM = Loading Knowledge Modules kombiniert mit anderen KMs in einem Mapping einsetzbar) bspw. für Sqoop etc. Oracle Data Integrator Application Adapter for Hadoop Part of the Oracle Big Data Connectors (uses OLH/OSCH) There is also a Big Data SQL Integration to ODI Oracle Big Data Connectivity

35 Capture Trail Pump Route Deliver Oracle Golden Gate for Big Data Überblick Oracle Golden Gate For Big Data Adapted from Oracle Oracle Big Data Connectivity

36 Oracle Golden Gate for Big Data Überblick (2) Oracle Golden Gate for Big Data Provides GoldenGate delivery to Flume, HDFS, Hive and HBase Includes GoldenGate for Java, enabling integration to others such as Oracle NoSQL, Apache Kafka, Apache Storm, Apache Spark etc. Key component of Oracle s big data integration offering along with Oracle Data Integrator 12c Oracle GoldenGate supports log-based capture from, and delivery to, Oracle, DB2 for z/os, i Series, & LUW (Linux, Unix, Windows), SQL Server, MySQL, Informix, Sybase ASE, SQL/MX, JMS messaging systems and more. Oracle GoldenGate s delivery capabilities also include Oracle TimesTen In Memory Database and PostgreSQL, in addition to Hadoop-based big data systems Oracle Big Data Connectivity

37 Fragen? Peter Welker Big Data (kl)eine technische Auswahl

BI und Data Warehouse im Zeitalter der Digitalisierung

BI und Data Warehouse im Zeitalter der Digitalisierung BI und Warehouse im Zeitalter der Digitalisierung Gregor Zeiler Senior Solution Manager BI/Big @GregorZeiler BASEL BERN BRUGG DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. GENF HAMBURG KOPENHAGEN LAUSANNE MÜNCHEN

Mehr

Skalierbare Webanwendungen

Skalierbare Webanwendungen Skalierbare Webanwendungen Thomas Bachmann Lead Software Architect & CIO Mambu GmbH Twitter: @thobach Anwendungsbeispiel Hohe Nichtfunktionale Anforderungen Sicherheit Vertraulichkeit Integrität Verfügbarkeit

Mehr

Big Data Technologien

Big Data Technologien Big Data Technologien - Ein Überblick - Prof. Dr. Jens Albrecht jens.albrecht@th-nuernberg.de Big Data Landscape 2016 Prof. Dr. Jens Albrecht Big Data 3 Systemarchitektur im Wandel Gestern und heute Strukturierte

Mehr

Datenaustausch Hadoop & Oracle DB Carsten Herbe metafinanz Informationssysteme GmbH München

Datenaustausch Hadoop & Oracle DB Carsten Herbe metafinanz Informationssysteme GmbH München Datenaustausch Hadoop & Oracle DB Carsten Herbe metafinanz Informationssysteme GmbH München Schlüsselworte Hadoop, Sqoop, Sqoop 2, Hive, Oracle Big Data Konnektoren Einleitung Neben der klassischen Data

Mehr

Big Data in der Praxis

Big Data in der Praxis Jonas Freiknecht Big Data in der Praxis Lösungen mit Hadoop, HBase und Hive Daten speichern, aufbereiten, visualisieren HANSER Vorwort XI 1 Einleitung 1 2 Big-Data 7 2.1 Historische Entstehung 8 2.2 Big-Data

Mehr

Oracle Data Integrator Ein Überblick

Oracle Data Integrator Ein Überblick Oracle Data Integrator Ein Überblick Uwe Barz Christoph Jansen Hamburg, 15.04.2008 Basel Baden Bern Lausanne Zürich Düsseldorf Frankfurt/M. Freiburg i. Br. Hamburg München Stuttgart Wien Agenda Überblick

Mehr

Die wichtigsten Hadoop-Komponenten für Big Data mit SAS

Die wichtigsten Hadoop-Komponenten für Big Data mit SAS Webinar@Lunchtime Die wichtigsten Hadoop-Komponenten für Big Data mit SAS Herzlich Willkommen bei Webinar@Lunchtime Moderation Anne K. Bogner-Hamleh SAS Institute GmbH Education Consultant Xing-Profil:

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr

Schneller als Hadoop?

Schneller als Hadoop? Schneller als Hadoop? Einführung in Spark Cluster Computing 19.11.2013 Dirk Reinemann 1 Agenda 1. Einführung 2. Motivation 3. Infrastruktur 4. Performance 5. Ausblick 19.11.2013 Dirk Reinemann 2 EINFÜHRUNG

Mehr

Big Data: Apache Hadoop Grundlagen

Big Data: Apache Hadoop Grundlagen Seminarunterlage Version: 1.07 Version 1.07 vom 5. September 2018 Dieses Dokument wird durch die veröffentlicht.. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen sind Warenzeichen

Mehr

Business Intelligence oder Big Data?

Business Intelligence oder Big Data? DOAG Analytics Community Business Intelligence oder Big? Oder doch BI und Big data? DOAG Analytics Community Informiert zu BI und Big 2017 Interaktion: Jetzt; Vorurteile abladen BI / DWH Big 2 Warum Big?

Mehr

ODI und Big Data Möglichkeiten und ein Erfahrungsbericht Dr. Holger Dresing Oracle Deutschland B.V. & Co. KG Hannover

ODI und Big Data Möglichkeiten und ein Erfahrungsbericht Dr. Holger Dresing Oracle Deutschland B.V. & Co. KG Hannover ODI und Big Data Möglichkeiten und ein Erfahrungsbericht Dr. Holger Dresing Oracle Deutschland B.V. & Co. KG Hannover Schlüsselworte Oracle Data Integrator ODI, Big Data, Hadoop, MapReduce,, HDFS, PIG,

Mehr

Copyright 2014 Oracle and/or its affiliates. All rights reserved.

Copyright 2014 Oracle and/or its affiliates. All rights reserved. The following is intended to outline our general product direction. It is intended for information purposes only, and may not be incorporated into any contract. It is not a commitment to deliver any material,

Mehr

Big Data Konnektoren: Hadoop und die Oracle DB

Big Data Konnektoren: Hadoop und die Oracle DB Big Data Konnektoren: Hadoop und die Oracle DB Philipp Loer ORDIX AG, Paderborn Schlüsselwörter Hadoop, Hive, OLH, OSCH Einleitung Der Vortrag beginnt mit einer Einführung in die Big Data Welt mit Apache

Mehr

einfach. gut. beraten. Oracle Big Data Konnektoren: Hadoop und die Oracle DB DOAG Konferenz + Ausstellung 2016 Nürnberg Philipp Loer

einfach. gut. beraten. Oracle Big Data Konnektoren: Hadoop und die Oracle DB DOAG Konferenz + Ausstellung 2016 Nürnberg Philipp Loer einfach. gut. beraten. Oracle Big Data Konnektoren: Hadoop und die Oracle DB DOAG Konferenz + Ausstellung 2016 Nürnberg Philipp Loer info@ordix.de www.ordix.de Agenda Hadoop Hive OLH: Oracle Loader for

Mehr

BIG DATA IM RETAIL-SEKTOR AM BEISPIEL KASSENBONDATEN BUSINESS ANALYTICS DAY

BIG DATA IM RETAIL-SEKTOR AM BEISPIEL KASSENBONDATEN BUSINESS ANALYTICS DAY BIG DATA IM RETAIL-SEKTOR AM BEISPIEL KASSENBONDATEN BUSINESS ANALYTICS DAY 08.03.2017 REWE Systems GmbH Jonas Freiknecht inovex GmbH Bernhard Schäfer AGENDA 1 / Vorstellung REWE Systems GmbH und inovex

Mehr

Oracle Data Warehouses und Big Data im Zusammenspiel

Oracle Data Warehouses und Big Data im Zusammenspiel Oracle Data Warehouses und Big Data im Zusammenspiel Peter Welker Trivadis GmbH Stuttgart Schlüsselworte: Oracle, Big Data, Connectors, SQL, ODBC Gateway, ODI, Golden Gate Einleitung Immer häufiger stellt

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

Big Data Management Thema 14: Cassandra

Big Data Management Thema 14: Cassandra Thema 14: Cassandra Jan Kristof Nidzwetzki Thema 14: Cassandra 1 / 25 Übersicht 1 Grundlagen Überblick Geschichte Datenmodel 2 Architektur Der logische Ring Persistenz der Daten Tunable Consistency Read

Mehr

NoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse

NoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse NoSQL-Datenbanken und Hadoop im Zusammenspiel mit dem Data Warehouse Carsten Czarski Oracle Deutschland B.V. & Co KG Big Data Betrachten von Daten die bislang nicht betrachtet wurden

Mehr

Fast Analytics on Fast Data

Fast Analytics on Fast Data Fast Analytics on Fast Data Kudu als Storage Layer für Banking Applikationen Problem Klassischer Kreditprozess Beantragung in der Filiale Aufwendiger Prozess Nachweis durch Dokumente Manuelle Bewilligung

Mehr

Data Pipelines mit zentralem Kosmos Kafka. Markus Bente

Data Pipelines mit zentralem Kosmos Kafka. Markus Bente Data Pipelines mit zentralem Kosmos Kafka Markus Bente @trivadis doag2018 Mit über 650 IT- und Fachexperten bei Ihnen vor Ort. 16 Trivadis Niederlassungen mit über 650 Mitarbeitenden. Erfahrung aus mehr

Mehr

Was ist Big Data? DOAG Business Intelligence Community Informiert zu BI und Big Data

Was ist Big Data? DOAG Business Intelligence Community Informiert zu BI und Big Data Was ist Big? DOAG Business Intelligence Community Informiert zu BI und Big 2017 Interaktion: Jetzt bitte Vorurteile abladen Definierte Methodik, strukturiert Lange erprobt Alles über SQL machbar Datenqualität?

Mehr

SODA. Die Datenbank als Document Store. Rainer Willems. Master Principal Sales Consultant Oracle Deutschland B.V. & Co. KG

SODA. Die Datenbank als Document Store. Rainer Willems. Master Principal Sales Consultant Oracle Deutschland B.V. & Co. KG SODA Die Datenbank als Document Store Rainer Willems Master Principal Sales Consultant Oracle Deutschland B.V. & Co. KG vs No Anforderungskonflikte Agile Entwicklung Häufige Schema-Änderungen Relationales

Mehr

Oracle Big Data Technologien Ein Überblick

Oracle Big Data Technologien Ein Überblick Oracle Big Data Technologien Ein Überblick Jürgen Vester Oracle Deutschland B.V. & Co KG Um was geht es bei Big Data? Bei Big Data sprechen wir eine Klasse von Daten an, die in der

Mehr

S3 your Datacenter. Software Defined Object Storage. Die kostengünstige und skalierbare Lösung für Ihre unstrukturierten Daten

S3 your Datacenter. Software Defined Object Storage. Die kostengünstige und skalierbare Lösung für Ihre unstrukturierten Daten S3 your Datacenter Software Defined Object Storage Die kostengünstige und skalierbare Lösung für Ihre unstrukturierten Daten Unstrukturierte Daten explodieren Volume in Exabytes Sensors & Devices Social

Mehr

consulting Ventum Consulting Hadoop im Unternehmenseinsatz, aber sicher Nürnberg, November 2015 Results, no excuses.

consulting Ventum Consulting Hadoop im Unternehmenseinsatz, aber sicher Nürnberg, November 2015 Results, no excuses. Ventum Consulting Hadoop im Unternehmenseinsatz, aber sicher Nürnberg, November 2015 Results, no excuses. Agenda A B C D Ventum Consulting 5 Säulen der Sicherheit Frameworks Fazit Ventum Consulting Grown

Mehr

Oracle BI&W Referenz Architektur Big Data und High Performance Analytics

Oracle BI&W Referenz Architektur Big Data und High Performance Analytics DATA WAREHOUSE Oracle BI&W Referenz Architektur Big Data und High Performance Analytics Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen

Mehr

Office 365 Dynamics 365 Azure Cortana Intelligence. Enterprise Mobility + Security Operations Mgmt. + Security

Office 365 Dynamics 365 Azure Cortana Intelligence. Enterprise Mobility + Security Operations Mgmt. + Security Office 365 Dynamics 365 Azure Cortana Intelligence Enterprise Mobility + Security Operations Mgmt. + Security API Application Availability Bottomless Storage Identity Management Full hybrid

Mehr

Einleitung Big Data... Hadoop...

Einleitung Big Data... Hadoop... 1 Einleitung 1 2 Big Data... 7 2.1 Historische Entstehung... 9 2.2 Big Data - ein passender Begriff?... 10 2.2.1 Die drei V... 11 2.2.2 Weitere V s... 14 2.2.3 Der Verarbeitungsaufwand ist big... 14 2.2.4

Mehr

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle DATA WAREHOUSE Big Data Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen aus Unternehmens- Daten ziehen! Datenmengen, Performance und Kosten Daten als Geschäftsmodell

Mehr

Übersicht Streams nach Liste Produkte/Themen

Übersicht Streams nach Liste Produkte/Themen Stream Datenbank: DB Oracle 9i bis 12c In-Memory Datenbanken Enterprise Manager Appliances EXADATA RAC DataGuard Upgrades, Konsolidierungen Implementationen Administration / Monitoring Performance Tuning

Mehr

Microsoft Azure Deutschland ist jetzt verfügbar -

Microsoft Azure Deutschland ist jetzt verfügbar - Einordnung und Überblick Data Scientist Operationalisierung IT-Abteilung Anwendungsentwickler Der Data Scientist agil Tool seiner Wahl möglichst wenig Zeit Skalierung Code für die Operationalisierung Der

Mehr

Einführung in Hadoop

Einführung in Hadoop Einführung in Hadoop Inhalt / Lern-Ziele Übersicht: Basis-Architektur von Hadoop Einführung in HDFS Einführung in MapReduce Ausblick: Hadoop Ökosystem Optimierungen Versionen 10.02.2012 Prof. Dr. Christian

Mehr

RavenDB, schnell und skalierbar

RavenDB, schnell und skalierbar RavenDB, schnell und skalierbar Big Data & NoSQL, Aydin Mir Mohammadi bluehands GmbH & Co.mmunication KG am@bluehands.de Immer mehr Mehr Performance Mehr Menge Mehr Verfügbarkeit Skalierung http://www.flickr.com/photos/39901968@n04/4864698533/

Mehr

Oracle Data Warehouse Integrator Builder Ein Selbstversuch

Oracle Data Warehouse Integrator Builder Ein Selbstversuch Oracle Data Warehouse Integrator Builder Ein Selbstversuch DOAG Konferenz 2013, Nürnberg Dani Schnider, Trivadis AG BASEL BERN BRUGG LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. HAMBURG MÜNCHEN

Mehr

SQL oder NoSQL: Das ist die Frage! Oracle NoSQL Database

SQL oder NoSQL: Das ist die Frage! Oracle NoSQL Database SQL oder NoSQL: Das ist die Frage! Oracle NoSQL Database Carsten Czarski Oracle Deutschland B.V. & Co KG Agenda NoSQL: Was ist das und wozu ist das gut? Anwendungsbereiche für NoSQL-Technologien,

Mehr

Big Data. Professional IT Master. Prof. Dr. Ingo Claßen. Überblick. Verarbeitungsmodell. Verarbeitungsablauf. Verteilte Daten. Ressourcenmanagement

Big Data. Professional IT Master. Prof. Dr. Ingo Claßen. Überblick. Verarbeitungsmodell. Verarbeitungsablauf. Verteilte Daten. Ressourcenmanagement Big Data Professional IT Master Prof. Dr. Ingo Claßen Hochschule für Technik und Wirtschaft Berlin Überblick Verarbeitungsmodell Verarbeitungsablauf Verteilte Daten Ressourcenmanagement Koordination Überblick

Mehr

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes

Hadoop. Eine Open-Source-Implementierung von MapReduce und BigTable. von Philipp Kemkes Hadoop Eine Open-Source-Implementierung von MapReduce und BigTable von Philipp Kemkes Hadoop Framework für skalierbare, verteilt arbeitende Software Zur Verarbeitung großer Datenmengen (Terra- bis Petabyte)

Mehr

DduP - Towards a Deduplication Framework utilising Apache Spark

DduP - Towards a Deduplication Framework utilising Apache Spark - Towards a Deduplication Framework utilising Apache Spark utilising Apache Spark Universität Hamburg, Fachbereich Informatik Gliederung 1 Duplikaterkennung 2 Apache Spark 3 - Interactive Big Data Deduplication

Mehr

Hadoop Eine Erweiterung für die Oracle DB?

Hadoop Eine Erweiterung für die Oracle DB? Hadoop Eine Erweiterung für die Oracle DB? Nürnberg, 18.11.2015, Matthias Fuchs Sensitive Über mich 10+ Jahre Erfahrung mit Oracle Oracle Certified Professional Exadata Certified Oracle Engineered Systems

Mehr

Big Data und Oracle bringen die Logistik in Bewegung

Big Data und Oracle bringen die Logistik in Bewegung OPITZ CONSULTING Deutschland GmbH Dortmund, 07.05.2014 Bild-Quelle: Web-Seite von Pasta ZARA, Big Artikel Data So und entstehen Oracle bringen unsere die Nudeln Logistik in Bewegung http://de.pastazara.com/so-entstehen-unsere-nudeln

Mehr

Big Data im Retail-Sektor am Beispiel Kassenbondaten

Big Data im Retail-Sektor am Beispiel Kassenbondaten Big Data im Retail-Sektor am Beispiel Kassenbondaten REWE Systems GmbH Jonas Freiknecht inovex GmbH Bernhard Schäfer Business Analytics Day, 08.03.2017 AGENDA 1. Vorstellung REWE Systems GmbH und inovex

Mehr

Neue Welten: Externe Daten mit APEX nutzen

Neue Welten: Externe Daten mit APEX nutzen Neue Welten: Externe Daten mit APEX nutzen Carsten Czarski Oracle Application Express Development-Team DOAG Regio München - 17. Mai 2018 Copyright 2017 Oracle and/or its affiliates. All rights reserved.

Mehr

Oracle Database Cloud Service

Oracle Database Cloud Service 1 Oracle Database Cloud Service Gerd Schoen Senior Leitender Systemberater 2 Copyright 2012, Oracle and/or its affiliates. All rights reserved. Insert Information Protection Policy Classification from

Mehr

<Insert Picture Here>

<Insert Picture Here> Oracle Data Integrator Holger Dresing, STCC Nord Technische Vorstellung 1: Einführung in Oracle Data Integrator, seine Architektur und Module Was haben wir vor?

Mehr

Google's BigTable: Ein verteiltes Speichersystem für strukturierte Daten. von Florian Eiteljörge

Google's BigTable: Ein verteiltes Speichersystem für strukturierte Daten. von Florian Eiteljörge Google's BigTable: Ein verteiltes Speichersystem für strukturierte Daten von Florian Eiteljörge 1. Was ist Bigtable? 2. Datenmodell Übersicht 3. Implementierung/Architektur von Bigtable 4. Vergleich mit

Mehr

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh

SQL on Hadoop für praktikables BI auf Big Data.! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh SQL on Hadoop für praktikables BI auf Big Data! Hans-Peter Zorn und Dr. Dominik Benz, Inovex Gmbh War nicht BigData das gleiche NoSQL? 2 Wie viele SQL Lösungen für Hadoop gibt es mittlerweile? 3 ! No SQL!?

Mehr

Beratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting

Beratung. Results, no Excuses. Consulting. Lösungen. Grown from Experience. Ventum Consulting. SQL auf Hadoop Oliver Gehlert. 2014 Ventum Consulting Beratung Results, no Excuses. Consulting Lösungen Grown from Experience. Ventum Consulting SQL auf Hadoop Oliver Gehlert 1 Ventum Consulting Daten und Fakten Results, no excuses Fachwissen Branchenkenntnis

Mehr

Oracle Data Warehouses und Big Data im Zusammenspiel

Oracle Data Warehouses und Big Data im Zusammenspiel Oracle Data Warehouses und Big Data im Zusammenspiel Peter Welker, Trivadis GmbH Immer häufiger stellt sich die Frage, wie man Daten aus der Oracle-Datenbank und solche aus Big-Data- Plattformen wie Hadoop

Mehr

Big Data Konnektivität Einführung und Demos für die Platform Peter Welker (Trivadis GmbH) Berater / Partner

Big Data Konnektivität Einführung und Demos für die Platform Peter Welker (Trivadis GmbH) Berater / Partner Big Data Konnektivität Einführung und Demos für die Platform Peter Welker (Trivadis GmbH) Berater / Partner BASEL BERN BRUGG DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. GENF HAMBURG KOPENHAGEN LAUSANNE MÜNCHEN

Mehr

Roadshow - What s new in SQL Server 2016

Roadshow - What s new in SQL Server 2016 1 Roadshow - What s new in SQL Server 2016 Kursleitung: Dieter Rüetschi (ruetschi@ability-solutions.ch) 2 Inhalt Fachreferat Everything-Built-In Mission Critical Plattform Security Hochverfügbarkeit Advanced

Mehr

PostgreSQL in großen Installationen

PostgreSQL in großen Installationen PostgreSQL in großen Installationen Cybertec Schönig & Schönig GmbH Hans-Jürgen Schönig Wieso PostgreSQL? - Die fortschrittlichste Open Source Database - Lizenzpolitik: wirkliche Freiheit - Stabilität,

Mehr

Umsetzung von BI-Lösungen mit Unterstützung einer Suchmaschine. TDWI Stuttgart 15.04.2015 Tobias Kraft, exensio GmbH

Umsetzung von BI-Lösungen mit Unterstützung einer Suchmaschine. TDWI Stuttgart 15.04.2015 Tobias Kraft, exensio GmbH Umsetzung von BI-Lösungen mit Unterstützung einer Suchmaschine TDWI Stuttgart 15.04.2015 Tobias Kraft, exensio GmbH Suchmaschinen Elasticsearch BI-Stack mit Elasticsearch Use Cases Pharmabranche 2 Funktionen

Mehr

Big Data Neue Erkenntnisse aus Daten gewinnen

Big Data Neue Erkenntnisse aus Daten gewinnen Big Data Neue Erkenntnisse aus Daten gewinnen Thomas Klughardt Senior Systems Consultant 0 Software Dell Software Lösungsbereiche Transform Inform Connect Data center and cloud management Foglight APM,

Mehr

!"#$"%&'()*$+()',!-+.'/',

!#$%&'()*$+()',!-+.'/', Soziotechnische Informationssysteme 5. Facebook, Google+ u.ä. Inhalte Historisches Relevanz Relevante Technologien Anwendungsarchitekturen 4(5,12316,7'.'0,!.80/6,9*$:'0+$.;.,&0$'0, 3, Historisches Facebook

Mehr

Wide Column Stores. Felix Bruckner Mannheim, 15.06.2012

Wide Column Stores. Felix Bruckner Mannheim, 15.06.2012 Wide Column Stores Felix Bruckner Mannheim, 15.06.2012 Agenda Einführung Motivation Grundlagen NoSQL Grundlagen Wide Column Stores Anwendungsfälle Datenmodell Technik Wide Column Stores & Cloud Computing

Mehr

Oracle Data Integrator

Oracle Data Integrator Oracle Data Integrator Technische Vorstellung 3-4: Definieren der logischen Architektur Aufsetzen eines neuen Projektes Entwerfen von Interfaces und Packages Was haben wir vor? ODI

Mehr

Apache Hadoop. Distribute your data and your application. Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.

Apache Hadoop. Distribute your data and your application. Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache. Apache Hadoop Distribute your data and your application Bernd Fondermann freier Software Architekt bernd.fondermann@brainlounge.de berndf@apache.org Apache The Apache Software Foundation Community und

Mehr

daniel.kreuzhofer@microsoft.com Image source http://commons.wikimedia.org/wiki/file:modern_warehouse_with_pallet_rack_storage_system.jpg Definitionen Azure Region Eine Ansammlung von Rechenzentren, die

Mehr

NoSQL Datenbanken am Beispiel von HBase. Daniel Georg

NoSQL Datenbanken am Beispiel von HBase. Daniel Georg NoSQL Datenbanken am Beispiel von HBase Daniel Georg No to SQL at all sondern Not only SQL Open- Source Community Erst im Jahr 2009 gestartet Community bietet verschiede Lösungen: Casandra, CouchDD, HBase,

Mehr

Veeam und Microsoft. Marco Horstmann System Engineer, Veeam

Veeam und Microsoft. Marco Horstmann System Engineer, Veeam Veeam und Microsoft Marco Horstmann System Engineer, Veeam Software marco.horstmann@veeam.com @marcohorstmann Windows Server 2016 Support Die vollständige und fortschrittliche Unterstützung von Veeam erschliesst

Mehr

Oracle9i Designer. Rainer Willems. Page 1. Leitender Systemberater Server Technology Competence Center Frankfurt Oracle Deutschland GmbH

Oracle9i Designer. Rainer Willems. Page 1. Leitender Systemberater Server Technology Competence Center Frankfurt Oracle Deutschland GmbH Oracle9i Designer Rainer Willems Leitender Systemberater Server Technology Competence Center Frankfurt Oracle Deutschland GmbH Page 1 1 Agenda 9i Designer & 9i SCM in 9i DS Design Server Generierung &

Mehr

IBM Workshop Hands-on Workshop zur IBM Big Data Plattform und BigInsights

IBM Workshop Hands-on Workshop zur IBM Big Data Plattform und BigInsights IBM Workshop Hands-on Workshop zur IBM Big Data Plattform und BigInsights Harald Gröger, Gerhard Wenzel, Martin Clement Client Technical Specialists Big Data Inhalt Durch Lösungen für Big Data können aus

Mehr

Step 0: Bestehende Analyse-Plattform

Step 0: Bestehende Analyse-Plattform Die Themen 09:30-09:45 Einführung in das Thema (Oracle) 09:45-10:15 Hadoop in a Nutshell (metafinanz) 10:15-10:45 Hadoop Ecosystem (metafinanz) 10:45-11:00 Pause 11:00-11:30 BigData Architektur-Szenarien

Mehr

Berechnung von Kennzahlen mit der SQL Model Clause

Berechnung von Kennzahlen mit der SQL Model Clause Berechnung von Kennzahlen mit der Thomas Mauch 12.07.2018 DOAG BASEL BERN LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. HAMBURG MÜNCHEN STUTTGART WIEN 1 AGENDA 1. Einführung 2. Syntax 3. Performance

Mehr

Big Data Konnektivität Einführung und Hands-On Workshop Für die Platform Peter Welker (Trivadis GmbH) Berater/ Partner

Big Data Konnektivität Einführung und Hands-On Workshop Für die Platform Peter Welker (Trivadis GmbH) Berater/ Partner Big Data Konnektivität Einführung und Hands-On Workshop Für die Platform Peter Welker (Trivadis GmbH) Berater/ Partner BASEL BERN BRUGG DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. GENF HAMBURG KOPENHAGEN

Mehr

Neues aus der nicht-, semi- und relationalen Welt

Neues aus der nicht-, semi- und relationalen Welt Neues aus der nicht-, semi- und relationalen Welt Information Management Thomas Klughardt Senior System Consultant Das Big Data Problem Was bedeutet Big Data? Performancekritisch Echtzeit Cold Storage

Mehr

PRODATIS CONSULTING AG. Folie 1

PRODATIS CONSULTING AG. Folie 1 Folie 1 Führend im Gartner Magic Quadranten für verteilte, interagierende SOA Projekte Oracle ist weltweit auf Rang 1 auf dem Markt der Enterprise Service Bus Suiten (ESB) für SOA Software 2010 26,3 %

Mehr

Exadata und In-Memory Datenbewirtschaftung und Analyse Extrem mit Exadata und InMemory (Erfahrungsbericht)

Exadata und In-Memory Datenbewirtschaftung und Analyse Extrem mit Exadata und InMemory (Erfahrungsbericht) Exadata und In-Memory Datenbewirtschaftung und Analyse Extrem mit Exadata und InMemory (Erfahrungsbericht) Christian Haag, DATA MART Consulting Consulting Manager Oracle DWH Team Inhalt Thematik (Einordnung

Mehr

PL/SQL vs. Spark Umsteigertipps für's DWH

PL/SQL vs. Spark Umsteigertipps für's DWH PL/SQL vs. Spark Umsteigertipps für's DWH Christopher Thomsen Hamburg Jens Bleiholder Berlin Schlüsselworte Big Data, Spark, PL/SQL, SQL, ETL, Hadoop, DWH Einleitung Mit Hadoop 2.0 öffnete sich die Big

Mehr

ZWISCHEN ALBTRAUM UND OPTIMALER PERFORMANCE

ZWISCHEN ALBTRAUM UND OPTIMALER PERFORMANCE ZWISCHEN ALBTRAUM UND OPTIMALER PERFORMANCE Indexierungsstrategie im Data Warehouse Dani Schnider, Trivadis AG DOAG Konferenz, Nürnberg BASEL BERN LAUSANNE ZÜRICH DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR.

Mehr

LOG AND SECURITY INTELLIGENCE PLATFORM

LOG AND SECURITY INTELLIGENCE PLATFORM TIBCO LOGLOGIC LOG AND SECURITY INTELLIGENCE PLATFORM Security Information Management Logmanagement Data-Analytics Matthias Maier Solution Architect Central Europe, Eastern Europe, BeNeLux MMaier@Tibco.com

Mehr

Florian Hopf Anwendungsfälle für

Florian Hopf Anwendungsfälle für Florian Hopf - @fhopf Anwendungsfälle für Agenda Vorbereitung Installation # download archive wget https://download.elasticsearch.org/ elasticsearch/elasticsearch/elasticsearch-1.4.4.zip # zip is for windows

Mehr

<Insert Picture Here> z/os Migration und Integration

<Insert Picture Here> z/os Migration und Integration z/os Migration und Integration Thomas Niewel Leitender Systemberater Agenda Überblick Integration von z/os Daten und Anwendungen Migration von z/os Daten und Anwendungen Erfahrungen

Mehr

Fast Analytics on Fast Data

Fast Analytics on Fast Data Fast Analytics on Fast Data Digitalisierung von Kreditprozessen mit Kudu DOAG 2018 Big Data Days 20. und 21. September in Dresden Olaf Hein, ORDIX AG info@ordix.de www.ordix.de Problem Klassischer Kreditprozess

Mehr

Big Data Informationen neu gelebt

Big Data Informationen neu gelebt Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

Hans-Peter Zorn Inovex GmbH. Wer gewinnt das SQL-Rennen auf der Hadoop-Strecke?

Hans-Peter Zorn Inovex GmbH. Wer gewinnt das SQL-Rennen auf der Hadoop-Strecke? Hans-Peter Zorn Inovex GmbH Wer gewinnt das SQL-Rennen auf der Hadoop-Strecke? War nicht BigData das gleiche NoSQL? Data Lake = Keine Struktur? flickr/matthewthecoolguy Oder gar ein Hadump? flickr/autohistorian

Mehr

R.I.P Oracle-Datenbank. ggg

R.I.P Oracle-Datenbank. ggg R.I.P Oracle-Datenbank ggg DOAG Konferenz + Ausstellung - Nürnberg 16. November 2016 Jedes IT-Projekt benötigt eine Datenbank 2 Große Websites, aber... 3 Gartner Studie 4 DB-Engines Ranking 5 Anwendungsfall

Mehr

Automatisierter Java EE Entwicklungs-Lifecycle mit WebLogic Server 12c. Robin Müller-Bady Systemberater, Oracle Deutschland

Automatisierter Java EE Entwicklungs-Lifecycle mit WebLogic Server 12c. Robin Müller-Bady Systemberater, Oracle Deutschland Automatisierter Java EE Entwicklungs-Lifecycle mit WebLogic Server 12c Robin Müller-Bady Systemberater, Oracle Deutschland The following is intended to outline our general product direction. It is intended

Mehr

Schneller als Hadoop? Einführung in Spark Cluster Computing

Schneller als Hadoop? Einführung in Spark Cluster Computing Schneller als Hadoop? Einführung in Spark Cluster Computing Dirk Reinemann Oracle Deutschland B.V. & Co. KG Potsdam Schlüsselworte Big Data, Cluster Computing, Spark, Shark, Resilient Distributed Datasets,

Mehr

Agenda. Ausgangssituation (Beispiel) PaaS oder IaaS? Migrationspfade Deep Dives. IaaS via Azure Site Recovery PaaS via SQL Deployment Wizard

Agenda. Ausgangssituation (Beispiel) PaaS oder IaaS? Migrationspfade Deep Dives. IaaS via Azure Site Recovery PaaS via SQL Deployment Wizard Agenda Ausgangssituation (Beispiel) PaaS oder IaaS? Migrationspfade Deep Dives IaaS via Azure Site Recovery PaaS via SQL Deployment Wizard AZURE REGIONS offen BETRIEBSSYSTEME DATENBANKEN ENTWICKLUNGS-

Mehr

Data Science als Treiber für Innovation Neue Anforderungen und Chancen für Ausbildung und Wirtschaft

Data Science als Treiber für Innovation Neue Anforderungen und Chancen für Ausbildung und Wirtschaft Data Science als Treiber für Innovation Neue Anforderungen und Chancen für Ausbildung und Wirtschaft b Univ-Prof. Dr. Stefanie Lindstaedt b www.know-center.at Know-Center GmbH Know-Center: Austria s Research

Mehr

WebLogic Server im Zusammenspiel mit Real Application Cluster

WebLogic Server im Zusammenspiel mit Real Application Cluster WebLogic Server im Zusammenspiel mit Real Application Cluster Michael Bräuer Leitender Systemberater Sylvie Lübeck Leitende Systemberaterin ORACLE Deutschland B.V. & Co. KG The following is intended to

Mehr

Verwaltung von OBI Metadaten: XML-Integration die Lösung aller Probleme? DOAG Konferenz und Ausstellung 2013

Verwaltung von OBI Metadaten: XML-Integration die Lösung aller Probleme? DOAG Konferenz und Ausstellung 2013 Verwaltung von OBI Metadaten: XML-Integration die Lösung aller Probleme? DOAG Konferenz und Ausstellung 2013 Michael Weiler, PROMATIS software GmbH Nürnberg, 1 Gliederung OBIEE Metadatenverwaltung Einführung

Mehr

Erfahrungen mit TimesTen 7.0

Erfahrungen mit TimesTen 7.0 Erfahrungen mit TimesTen 7.0 Bianca Stolz & Christian Kühne Systemberater Oracle Agenda TimesTen im Markt Das Konzept von TimesTen TimesTen Architektur Funktionen TimesTen in der

Mehr

Data Federation. in analytischen Applikationen. Peter Welker (Trivadis

Data Federation. in analytischen Applikationen. Peter Welker (Trivadis Data Federation in analytischen Applikationen Peter Welker (Trivadis GmbH) @WelkerPeter BASEL BERN BRUGG DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. GENF HAMBURG KOPENHAGEN LAUSANNE MÜNCHEN STUTTGART WIEN

Mehr

HANA Solution Manager als Einstieg

HANA Solution Manager als Einstieg Markus Stockhausen HANA Solution Manager als Einstieg Collogia Solution Day Hamburg 28.04.2016 Agenda HANA Solution Manager als Einstieg 1 Überblick 2 Techniken 3 Sizing Collogia Unternehmensberatung AG,

Mehr

Steffen Bischoff Senior Sales Engineer

Steffen Bischoff Senior Sales Engineer CLOUD FÜR DUMMIES Steffen Bischoff Senior Sales Engineer sbischoff@talend.com 4 WAS CLOUD-LÖSUNGEN BIETEN Keine Anfangsinvestition Geringe Betriebskosten Zahlung nach Gebrauch Überall zugänglich Einfache

Mehr

Big Data in a Nutshell. Dr. Olaf Flebbe of ät oflebbe.de

Big Data in a Nutshell. Dr. Olaf Flebbe of ät oflebbe.de Big Data in a Nutshell Dr. Olaf Flebbe of ät oflebbe.de Zu mir Bigdata Projekt, benutzt Apache Bigtop Linux seit Anfang vor Minix/ATARI Linuxtag 2001? Promoviert in Computational Physics in Tü Seit Jan

Mehr

Oracle Big Data Technologien Ein Überblick

Oracle Big Data Technologien Ein Überblick Oracle Big Data Technologien Ein Überblick Ralf Lange Global ISV & OEM Sales NoSQL: Eine kurze Geschichte Internet-Boom: Erste Ansätze selbstgebauter "Datenbanken" Google stellt "MapReduce"

Mehr

Preise und Leistungen Dynamic Computing Services

Preise und Leistungen Dynamic Computing Services Preise und Leistungen Dynamic Computing Services Alle Preise in CHF exkl. MwSt. beim Bezug während 30 Tagen. Die effektive Verrechnung findet auf Stundenbasis statt. Für die Nachvollziehbarkeit der Rechnung

Mehr

Vom MicroService zum Geschäftsprozess Thomas Bröll Principal Consultant Trivadis GmbH, Stuttgart

Vom MicroService zum Geschäftsprozess Thomas Bröll Principal Consultant Trivadis GmbH, Stuttgart Vom MicroService zum Geschäftsprozess Thomas Bröll Principal Consultant Trivadis GmbH, Stuttgart BASEL BERN BRUGG DÜSSELDORF FRANKFURT A.M. FREIBURG I.BR. GENEVA HAMBURG COPENHAGEN LAUSANNE MUNICH STUTTGART

Mehr

Infrastruktur & Datenarchitekturen für Big-Data-Szenarien Hadoop & Co. Im Detail. Referent: Steffen Vierkorn

Infrastruktur & Datenarchitekturen für Big-Data-Szenarien Hadoop & Co. Im Detail. Referent: Steffen Vierkorn Infrastruktur & Datenarchitekturen für Big-Data-Szenarien Hadoop & Co. Im Detail Referent: Steffen Vierkorn Agenda 10.00 10.30 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.30 11.00 11.00 11.30 11.30

Mehr

Connectivity zwischen den Welten

Connectivity zwischen den Welten Connectivity zwischen den Welten Integration operativer Systeme, Data Warehouse und Hadoop-Plattform Christoph Blessing Systemberatung Stuttgart Safe Harbor Statement The following is intended to outline

Mehr

Überblick über das Oracle Internet File System. PEGAS systemhaus 2001 PEGAS Firmenpräsentation

Überblick über das Oracle Internet File System. PEGAS systemhaus 2001 PEGAS Firmenpräsentation Überblick über das Oracle Internet File System Seite 1 - Oktober 2001 Name: Über PEGAS... PEGAS systemhaus gmbh Adresse: Rudolf-Diesel-Str. 1 82166 Gräfelfing/München Germany Telefon: +49 (089) 898157

Mehr

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik

ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE. NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik ARFA ANALYTICS, RISK MANAGEMENT & FINANCE ARCHITECTURE NoSQL Datenbanksysteme Übersicht, Abgrenzung & Charakteristik Ralf Leipner Domain Architect Analytics, Risk Management & Finance 33. Berner Architekten

Mehr

Updating your Database Skills to Microsoft SQL Server 2012 MOC 40008

Updating your Database Skills to Microsoft SQL Server 2012 MOC 40008 Updating your Database Skills to Microsoft SQL Server 2012 MOC 40008 In diesem Kurs erwerben Datenbankprofis die nötigen Kenntnisse, um die neuen und erweiterten Möglichkeiten von SQL Server 2012 nutzen

Mehr

Hochverfügbare Webanwendungen mit Apache Cassandra. msg systems ag, 26. November 2014

Hochverfügbare Webanwendungen mit Apache Cassandra. msg systems ag, 26. November 2014 R8 Hochverfügbare Webanwendungen mit Apache Cassandra 1 Forschung zu Wirtschaft 2 Name R8 Name R8 3 Applikations-Framework Big-Data-Framework für besonders anspruchsvolle Kunden 4 derzeitige Architekturen

Mehr