BIG DATA. Verfasser: Christian Schürer, Felix Zobrist, Sascha Freudiger. Projektcoach: Prof. Dr. Christian Thiel Diplom-Informatiker

Größe: px
Ab Seite anzeigen:

Download "BIG DATA. Verfasser: Christian Schürer, Felix Zobrist, Sascha Freudiger. Projektcoach: Prof. Dr. Christian Thiel Diplom-Informatiker"

Transkript

1 BIG DATA Verfasser: Christian Schürer, Felix Zobrist, Sascha Freudiger Projektcoach: Prof. Dr. Christian Thiel Diplom-Informatiker Seminararbeit im Modul WISE 2013

2 Quelle Titelbild:. (2012). Gefunden am unter Eingereicht am: 10. Januar 2014

3 Inhaltsverzeichnis III Inhaltsverzeichnis Inhaltsverzeichnis... III Abbildungsverzeichnis... V Tabellenverzeichnis... VI Abkürzungsverzeichnis... VII 1 Problemstellung Ziel der Arbeit Einführung Definition Volume (Datenmenge) Variety (Datenvielfalt) Velocity (Geschwindigkeit) Anwendungsbereiche Marketing und Vertrieb Forschung und Entwicklung Produktion, Service und Support Distribution und Logistik Finanz- und Risiko-Controlling Was fällt auf? Was ist neu? Abgrenzung & Business Intelligence Tools & Technologien Hadoop Komponenten Funktionsweise Nutzer von Hadoop Hadoop-Produkte Alternativen SAP - HANA Projekt Funktionsweise TB Benchmark System in der Cloud Chancen & Gefahren... 21

4 Inhaltsverzeichnis IV 5.1 Chancen Herausforderungen Big-Data-Strategie Weitere Herausforderungen Empfehlungen für KMU IBM Studie Analytics: The real-world use of big data Wie können KMU von profitieren? Empfehlungen zur Big-Data-Implementierung Phase 1: Educate to Explore Phase 2: Explore to Engage Phase 3: Engage to Execute Phase 4: Execute Quellenverzeichnis Vertraulichkeitserklärung... 36

5 Abbildungsverzeichnis V Abbildungsverzeichnis Abb. 1: Abb. 2: Abb. 3: Abb. 4: Abb. 5: Definition... 9 Map Reduce und HDFS Layer OLTP vs OLAP Herausforderungen Big-Data-Strategie Big-Data-Implementierungsphasen... 24

6 Tabellenverzeichnis VI Tabellenverzeichnis Tab. 1: Tab. 2: Chancen Herausforderungen... 24

7 Abkürzungsverzeichnis VII Abkürzungsverzeichnis ITU IDC LHC BI NoSQL HDFS International Telecommunication Union International Data Corporation Large Hadron Collider Business Intelligence Not Only SQL Hadoop Distributed File System

8 Kapitel 1: Problemstellung 8 1 Problemstellung Von einem Forschungsnetz zu einem globalen Kommunikationsnetz. Das Internet hat sich über die letzten Jahrzehnte rasant entwickelt und damit sind auch eine Vielzahl von Diensten und Anwendungen entstanden. Viele dieser Programme laufen heutzutage auf Smartphones oder Tablets und sind aus dem alltäglichen Leben nicht mehr wegzudenken. Laut einer aktuellen Studie der International Telecommunication Union (ITU) gibt es derzeit circa sechs Milliarden Mobilfunkteilnehmer. Die Anzahl der aktiven mobilen Teilnehmer mit Zugang zu Breitband-Netzen beläuft sich immerhin noch auf 1,1 Milliarden Menschen. Inklusive Haushalten mit kabelgebundenem Internetanschluss nutzen 32,5 Prozent der Weltbevölkerung oder 2,3 Milliarden Menschen das Internet. Diese Nutzer verursachen enorme Mengen an Daten wie beispielsweise Nutzdaten, Profildaten oder statistische Daten. Insgesamt wird das in 2012 erzeugte Datenvolumen in einer Studie der International Data Corporation (IDC) auf 2,7 Zettabytes (entspricht 2,7 Milliarden Terabyte) geschätzt, was ein Wachstum von 48 % gegenüber 2011 darstellt. Diese Daten bergen ein grosses Potential für unterschiedliche Branchen daher ist es auch nicht erstaunlich das Daten auch als das neue Öl des Digitalen Zeitalters bezeichnet werden. Entscheidend ist die Analyse dieser Daten, denn in unbearbeiteter Form kann deren Potential nicht optimal genutzt werden. Wenn es gelingt, diesen Daten in sinnvolle Strukturen zu gliedern, dann können diese zur Beantwortung von neuen Fragestellungen genutzt werden und ihr finanzielles Potential entfalten. Genau in diesem Umfeld kommt der Begriff ins Spiel. Dies ist ein abstrakter Oberbegriff für jegliche Art und Anzahl von Daten, die mit traditionellen Datenanalyseverfahren nicht mehr handhabbar sind und deshalb neuer Techniken und Technologien bedürfen. (Gesellschaft für Informatik, 2013; ITU, 2012; IDC, 2013) 1.1 Ziel der Arbeit Mit dieser Arbeit soll ein Überblick geschaffen werden in welchen Bereichen zum Einsatz kommt, welche Technologien dabei genutzt werden und was für Chancen und Gefahren mit den Einsatz von verbunden sind. Schlussendlich versucht das Projektteam eine Empfehlung auszuarbeiten mittels derer ein potentieller Einsatz von geprüft werden kann.

9 Kapitel 2: Einführung 9 2 Einführung umfasst Daten die die Kapazität herkömmlicher Datenbanksysteme überfordern. Die Daten sind zu gross, bewegen sich zu schnell oder passen nicht in die bestehende Datenbank-Architektur. (Dumbill, Howard, Zwemer, Loukides, Slocum, Croll, O Reilly, Steele & Hill, 2012, S. 3) 2.1 Definition Volume, Variety und Velocity. Diese drei V werden im Zusammenhang mit regelmässig erwähnt. Eines der weltweit führenden IT-Beratungs- und Forschungsunternehmen, die Gartner Gruppe, beschreibt in ihrem IT-Glossar Sinngemäss mit diesen Wörtern: Big data is high-volume, high-velocity and high-variety information assets that demand costeffective, innovative forms of information processing for enhanced insight and decision making. (Gartner, 2013) Auch die Autoren des Werkes im Praxiseinsatz Szenarien, Beispiele, Effekte des Deutschen Bundesverband Informationswirtschaft, Telekommunikation und neue Medien e.v. (im Folgenden BITKOM genannt) verweisen in ihrem Werk auf diese drei Nomen und umschreiben die Definition von folgendermassen: bezeichnet den Einsatz grosser Datenmengen aus vielfältigen Quellen mit einer hohen Verarbeitungsgeschwindigkeit zur Erzeugung wirtschaftlichen Nutzens. (BITKOM, 2012, S. 21) Und auch die Autoren des Buchs Now, definieren mit den Worten:...volume, velocity, and variability of massive data (Dumbill et al., 2012, S. 3) Untenstehende Abbildung soll die Definition von visuell unterstützen. Abb. 1: Quelle: Definition Bitkom, 2012

10 Kapitel 2: Einführung Volume (Datenmenge) Wenn von gesprochen wird, stellt sich die Frage, was bedeutet Big? Dieses Big ist nicht eindeutig definiert und sollte nach den Autoren des McKinsey Global Instituts auch nicht eindeutig definiert werden. Da die Datenmenge in den kommenden Jahren stetig wachsen wird, werden auch immer grössere Mengenbezeichnungen im Umlauf sein. (Manyika, Chui, Brown, Bughin, Dobbs, Roxburgh & Hung Byers, 2011, S.1) Was jedoch eindeutig gesagt werden kann, ist dass immer mehr Organisationen und Unternehmen über riesige Datenberge verfügen. Um wenigstens eine Grössenordnung von Big Data zu nennen, die Datenberge können von einigen Terabytes bis hin zu Petabytes gehen. (Petabyte = bytes) (BITKOM, 2012, S. 21) Variety (Datenvielfalt) Immer mehr Datenformate aus immer mehr Quellen, damit müssen sich Unternehmen heutzutage auseinandersetzen. Diese Daten lassen sich grob in drei Kategorien unterteilen: unstrukturiert, semistrukturiert und strukturiert. Dabei können diese Daten sowohl aus internen Systemen und Programmen kommen als auch von externen Quellen. Diese Daten können z.b. Text-Daten, Web-Daten, tweets, clicks, streams, Sensor-Data, Audio- und Videodateien sein. (Schroeck, Shockley, Smart, Romero-Morales, & Tufano. 2012, S. 4; BITKOM, 2012, S. 21) Velocity (Geschwindigkeit) Die Geschwindigkeit mit der Daten erstellt, bearbeitet und analysiert werden, steigt kontinuierlich. Diese enormen Datenberge müssen immer schneller ausgewertet werden um Geschäftsprozesse anzupassen und die Entscheidungsfindung zu erleichtern. Aus diesen Gründen muss die Analyse der Daten oft in Echtzeit erfolgen um wirklichen Mehrwert zu generieren. Damit sind laut BITKOM folgende Herausforderungen verbunden: Analysen großer Datenmengen mit Antworten im Sekundenbereich Datenverarbeitung in Echtzeit Datengenerierung und Übertragung in hoher Geschwindigkeit (Schroeck et al., 2012, S. 4; BITKOM, 2012, S. 21)

11 Kapitel 3: Anwendungsbereiche 11 3 Anwendungsbereiche Rohstoffe sind die Basis für Produkte jeglicher Art. Daten werden als neuer Rohstoff betrachtet und treten in der digitalen Welt als Produktionsfaktor mit grossem Potential auf. Daten sind jedoch oft in unstrukturierter Form vorhanden und werden erst durch die Analyse zu wertvollen Bausteinen für die Weiterentwicklung von Produkten und Unternehmen. (BIT- KOM, 2012, S. 34) 3.1 Marketing und Vertrieb Der CEO von TESCO sagte einst: Pass dich dem Kunden an oder stirb (Philip Clarke, ohne Datum). Mit können Marketingverantwortliche Produkte und Dienstleistungen genauer auf ihre Kunden zuschneiden. Durch die aktive Analyse der Kundendaten können Unternehmen nicht nur Streuverluste reduzieren, sie haben die Möglichkeit Muster für die Kaufentscheidung zu identifizieren. Diese Muster sagen etwas über die Interessen, Vorlieben oder Themenbereiche aus, in denen sich ein Kunde bewegt. Somit eröffnen sich Cross- Selling-Potenziale und damit eine Erhöhung des Umsatzes. Da mit die Geschwindigkeit der Analyse auf Real-Time erhöht wird, besteht die Möglichkeit, dass durch Standortdaten den Kunden genau zum Zeitpunkt des Einkaufens spezifische Angebote unterbreitet werden können, sogenanntes location-based-marketing. (BITKOM, 2012, S ; Manyika et al., 2011, S.68) 3.2 Forschung und Entwicklung Wo geforscht oder entwickelt wird, da entstehen meist grosse Mengen an Daten. In diesem Bereich besteht ein grosses Potenzial für den Einsatz von. Besonders in den sehr forschungsintensiven Bereichen wie dem Gesundheitssektor oder in der Pharmaindustrie entstehen enorme und sehr heterogene Datenmengen. Die Analyse dieser Daten stellt eine grosse Herausforderung dar bei der sich die Big-Data-Technologie sehr vielseitig einsetzen lässt. Beispielsweise können verschiedene Forschungseinrichtungen ihre Daten zusammenlegen. Dadurch die zusammengelegten Informationen können rechen- und datenintensive Simulationen durchgeführt werden die zu besseren und genaueren Ergebnissen führen. Als Beispiel kann hier das Forschungszentrum CERN in Genf genannt werden. Wahrend eines Experiments mit dem Teilchenbeschleuniger Large Hadron Collider (LHC) entstehen pro Sekunde 40 Terabytes an Daten. (BITKOM, 2012, S. 37; Frauenhofer IAIS, 2013)

12 Kapitel 3: Anwendungsbereiche Produktion, Service und Support Mit lassen sich Produkte im laufenden Betrieb in Echtzeit analysieren. Dabei entstehen Daten über das Verhalten von Produkten und Prozessen unter Realbedingungen. Werden dazu noch externe Datenquellen wie beispielsweise Wetter und Geographie beigezogen, lässt sich das Wissen über die Produkte multiplizieren und die Zufriedenheit der Kunden steigern. (Manyika et al., 2011, S.81; BITKOM, 2012, S. 39; Frauenhofer IAIS, 2013) 3.4 Distribution und Logistik Heutzutage findet man in den meisten Fahrzeugen ein GPS-Navigationsgerät. Diese GPS- Daten können für die Logistikplanung sehr wertvoll sein. Zusätzlich können mit Sensoren ausgestattete Fahrzeugflotten den Benzinverbrauch oder den Zustand von Verschleissteilen übermitteln. Durch die Analyse diese GPS- und Sensor-Daten können Disponenten zeitnah Transporte planen, gegebenenfalls Routen und Beladung ändern sowie Wartungskosten und Stillstandzeiten minimieren. Dadurch lässt sich die Produktivität durch optimalen Einsatz von Kraftstoffen, vorbeugender Wartung sowie optimiertem Fahrverhalten verbessern. (BITKOM, 2012, S. 34) 3.5 Finanz- und Risiko-Controlling Das Finanz- und Risiko-Controlling profitiert von neuen Möglichkeiten im Bereich Betrugserkennung und Risikomanagement. Durch neue Big-Data-Technologien können die unterschiedlichsten Unternehmensinformationen schnell zusammengeführt und für Entscheidungen genutzt werden. Es stehen weit mehr Daten, Fakten und Beobachtungen als je zuvor zur Verfügung. Diese Informationen können analytisch so aufzubereiten werden, dass sie im Geschäftsprozess sofort zur Verfügung stehen. Im Gegensatz zu klassischen Business- Intelligence-Ansätzen, in denen vornehmlich formatierte Berichte auf starren Datenmodellen zum Einsatz kommen, erlauben Big-Data-Ansätze in weit stärkerem Mass als zuvor die gezielte Beantwortung von Ad-hoc-Fragestellungen. (BITKOM, 2012, S. 41) 3.6 Was fällt auf? Was ist neu? Die beschriebenen Anwendungsfälle wirken auf den ersten Blick nicht neu. Auch mit bestehenden BI-Systemen können viele dieser Analysen durchgeführt werden. Jedoch sind es die in Kapitel 1.1 Definition beschriebenen drei V s: - Volumen - Variety und - Velocity welche den Unterschied ausmachen, insbesondere weil diese in komplexen Problemen gleichzeitig behandelt werden. Dazu einige Aussagen aus der Praxis:

13 Kapitel 3: Anwendungsbereiche 13 Die Firma Oracle schreibt in einem White-Paper dazu: Big data is like traditional data in many ways: It must be captured, stored, organized, and analyzed, and the results of the analysis need to be integrated into established processes and influence how the business operates. But because big data comes from relatively new types of data sources that previously weren t mined for insight, companies aren t accustomed to collecting information from these sources, nor are they used to dealing with such large volumes of unstructured data. Therefore, much of the information available to enterprises isn t captured or stored for long-term analysis, and opportunities for gaining insight are missed. (Oracle, ohne Datum) John Felahi, CIO von Contant Analyst sagt zum Thema What s new? folgendes: When we look at the structured data world from years ago, the themes were the same: scale, performance & flexibility. New methods/tools augmented or evolved the solutions used for structured data insight data warehouses, datamarts, Business Intelligence, etc. We now have the same challenges with unstructured data that 80%+ of the information residing inside companies. Now we see in-memory content analytics being leverage to address the new requirements for the unstructured data. (Content Analyst, 2013) Des weiteren schreibt Price Waterhouse Coopers (PWC) zu : is about much more than data. It represents a new way of doing business one that is driven by data-based decision-making. (PWC, ohne Datum) ist somit nicht etwas total neues, durch die enorme Vielfallt an Datentypen, das hohe Tempo der Analyse und die gewaltige Menge an Daten jedoch auch nicht den bisherigen Ansätzen gleichzusetzten.

14 Kapitel 3: Anwendungsbereiche Abgrenzung & Business Intelligence Das hauptsächliche Unterscheidungsmerkmal zwischen Business Intelligence und ist die Ausrichtung auf die gesammelten und verarbeiteten Daten. BI-Lösungen setzen strukturierte, konsistente und beständige Daten voraus, wohingegen Lösungen speziell auf unstrukturierte und möglicherweise nicht konsistente Daten hin optimiert sind. Dementsprechend sind die eingesetzten Technologien auch ausgerichtet. Business Intelligence Lösungen setzen auf traditionelle Datenbanksysteme wie relationale Datenbanken, wohingegen Lösungen auf neuen Konzepten wie zum Beispiel Not Only SQL (NoSQL) Datenbanken oder dem Hadoop Framework basieren, die effizienter mit unstrukturierten und großen Datenmengen umgehen können. (Gesellschaft für Informatik, 2013) Im folgenden Abschnitt werden die gängigen Tools und Technologien im Bereich von Big Data erläutert.

15 Kapitel 4: Tools & Technologien 15 4 Tools & Technologien Es gibt verschiedene Tools und Technologien, welche ermöglichen und Unterstützen. Im folgenden Kapitel werden die wesentlichen Tools vorgestellt. ist eine sehr schnelllebige Thematik. Die erreichbare Speichergrösse und Verarbeitungsgeschwindigkeit verdoppelt sich spätestens alle zwei Jahre. Das bedeutet, dass Unternehmen mit immer grösser werdenden Datenmengen zu kämpfen haben. Um diese Daten zu verarbeiten gibt es verschiedene Tools, welche in den folgenden Kapiteln vorgestellt werden. Die meisten Analytics Lösungen basieren auf einem Hadoop Cluster. 4.1 Hadoop Hadoop ist ein Java basiertes Software-Framework, welches dem Benutzer ermöglicht grosse Rechenaufgaben an tausende Rechner verteilen zu können. Diese Funktion ermöglicht, Datenvolumen im Petabyte-Bereich zu verarbeiten. Entwickelt wurde das Framework von Doug Cutting. Der Entwickler und Suchmaschinenspezialist erkannte 2004, als Google den MapReduce-Algorithmus veröffentlichte, das grosse Potenzial darin komplexe Computing-Aufgaben relativ einfach zu zerlegen und von einem Server-Cluster verarbeiten zu lassen. (White, 2012, S ) Komponenten Das Hadoop Framework besteht aus drei Komponenten: 1. Hadoop Common beinhaltet die Grundfunktionen. Das bedeutet, es steuert die Zugriffe auf die darunterliegenden Filesysteme und enthält die nötigen Java Scripts um Hadoop zu starten. Weiter beinhaltet es den Sourcecode sowie alle Dokumentationen und Informationen zum Framework. (White, 2012, S ) 2. Hadoop Distributed File System (HDFS) ein hochverfügbares und leistungsfähiges Dateisystem, welches dem Anwender ermöglicht, grosse Datenmengen zu speichern. Nach Angaben der Entwickler, unterstützt werden Systeme mit bis zu 100 Millionen Dateien unterstützt. (White, 2012, S ) 3. MapReduce-Algorithmus, der von Google entwickelte Algorithmus bietet eine Engine welche Hadoop verschiedene Funktionen bereitstellt. Die Grundfunktion liegt darin, eine Rechenaufgabe in mehrere kleine Teile zu zerlegen, und auf verschiedene Rechner zu verteilen (Map), auf diesen Rechnern werden die Funktionen parallel ab-

16 Kapitel 4: Tools & Technologien 16 gearbeitet und die Ergebnisse wieder zusammengeführt (Reduce). (White, 2012, S ) Funktionsweise Das Common bietet den Rahmen um das gesamte Tool zu starten. Das HDFS figuriert als Cluster-Datei System welches alle beteiligten Rechner beinhaltet. Die zu verarbeitenden Daten werden auf die verschiedenen Systeme im Cluster verteilt. MapReduce dient in der Folge dazu die Daten an ihrem Ablageort parallel zu verarbeiten. Dies beschleunigt die Rechenarbeit und verringert den Netzdurchsatz. Grundsätzlich funktioniert das Dateisystems eines Hadoop-Clusters, nach dem Master- Slave-Prinzip. Der sogenannte Name Node übernimmt dabei die Rolle des Masters. Er ist nur einmal vorhanden, und verwaltet die Zugriffe auf das Dateisystem sowie alle Metadaten, Verzeichnisstrukturen und Dateien. Die effektiven Daten, werden in den Slaves, den sogenannten Data Nodes abgelegt. Damit es zu keinen Datenverlusten kommt, setzt man bei Hadoop auf eine Replikation der Dateien. Dabei werden die Dateien in einzelne Datenpakete zerlegt. Der Name Node, sorgt in der Folge dafür, dass alle Datenpakete verteilt werden und jedes Paket mehrfach vorhanden ist. Fällt nun ein Teil des Clusters aus, weiss der Name Node, an welcher Stelle die fehlenden Daten abgelegt sind. Jeder Data Node sendet regelmässig einen Heartbeat an den Name Node. Meldet sich ein Slave über eine vorgelegte Zeit nicht mehr, wird er nicht mehr verwendet, und der Master holt das Datenpaket von einem anderen Clustermitglied. Da der Name Node in jedem Cluster nur einmal vorkommt, stellt er den Singe Point of Failure dar. Um das Risiko zu minimieren, wird ein Secondary Name Node betrieben, welcher alle Veränderungen der Metadaten aufzeichnet und mit dessen Logfile sich ein Name Node jederzeit wiederherstellen lässt. (White, 2012, S ) Neben dem HDFS Layer, des Dateisystems, gibt es noch den MapReduce Layer, welcher die Verwaltung und Ausführung der Rechenaufgaben zuständig ist.

17 Kapitel 4: Tools & Technologien 17 Abb. 2: Map Reduce und HDFS Layer Quelle: Eigene Darstellung in Anlehnung an Markey, 2012 Analog zum Name Node im HDFS Layer, ist der Job Tracker im MapReduce Layer nur einmal vorhanden. Der Job Tracker verwaltet und verteilt die Jobs im Cluster und fungiert dabei als Master. Seine Slaves sind die Task Tracker welche beliebig oft möglich sind und die eigentliche Jobabwicklung übernehmen. Im Idealfall, befindet sich auf jedem Cluster- Knoten eine Task Tracker und eine Data Node Instanz. Ein grosser Vorteil, von Hadoop Clustern ist, dass sie sich mit Hilfe von Desktopcomputern, umsetzen lassen. Genau aus diesem Grund ist der Cluster auf grosse Redundanz ausgelegt, da bei Standardrechnern von mehr Hardwareausfällen auszugehen ist. Je nach Art und Umfang der Rechenaufgabe, kann der Cluster unterschiedlich dimensioniert werden. Als Betriebssystem für die Cluster-Knoten, wird von den Entwicklern Linux empfohlen. (White, 2012, S ) Nutzer von Hadoop Viele bekannte Internetfirmen benutzen Hadoop um ihre Daten effizienter zu verarbeiten. Facebook zum Beispiel nutzt das Hadoop-System für das Backup ihrer SQL-Datenbank sowie als Warehouse für Web-Analysen lagerten 30 Petabyte Daten im Hadoop Cluster von Facebook. Yahoo, das massgeblich an der Entwicklung von Hadoop beteiligt war, startete 2008 mit einem 10'000 Rechner starken Cluster um einen Index aller bekannten Websiten zu erstellen. Ebay betreibt ein 2'500 Rechner starken Hadoop-Cluster und gibt zu, dass inzwischen der Betrieb davon abhängt Hadoop-Produkte Hadoop ist eine frei erhältliche Software. Viele renommierte Softwarehersteller setzen in ihren Datenverarbeitungstool auf das Hadoop-Framework. Amazon.com bietet einen Hadoop Cluster zur Miete aus der Cloud an.

18 Kapitel 4: Tools & Technologien 18 IBM hat ihre Software zur Analyse unstrukturierter Daten (InfoSphere BigInsights) um die Hadoop-Technik erweitert und möchte ebenfalls einen Clouddienst anbieten. Oracle plant in seiner Appliance, einem speziell zur Verarbeitung von grossen Datenmengen ausgelegten System, das Hadoop-Framework zu verwenden. Microsoft möchte Hadoop in seiner Cloud-Plattform Azure sowie auf den Windows Servern unterstützen. Viele kleine Unternehmen bieten ebenfalls Dienstleistungen und Software rund um Hadoop an Alternativen Grundsätzlich hängt bei der Wahl eines richtigen Tools, alles davon ab wie viel Daten verarbeitet werden müssen. Bis zu einem Terrabyte Daten empfiehlt es sich ein normales SQL- Datenbankmanagementsystem zu verwenden. (Tucchio, 2013) Sind die zu verarbeitenden Daten jedoch grösser als ein Terrabyte, was bei vielen grösseren Unternehmen der Fall ist, gibt es nur noch wenige Alternativen zu Hadoop. Viele Projekte und Produkte setzen auf den MapReduce-Algorithmus. So zum Beispiel folgende: BashReduce, Spark, GraphLab oder HPCC. Diese Projekte oder Produkte haben sich jedoch bisher nicht gegen Hadoop durchgesetzt und deren Verbreitung ist sehr gering. Bei anderen Produkten ist nicht bekannt welchen Algorithmus sie benutzen so zum Beispiel Storm. (Hadoop Fatigue, 2011) Der grösste Vorteil, im Vergleich zu oben genannten Alternativen, den Hadoop mit sich bringt ist HDFS. Das Filesystem ist mit allen anderen Systemen kompatibel und hat eine hohe Fehlertoleranz. HDFS ist verlässlicher Weg um Daten zu speichern und mit anderen Daten Analyse Tools zu teilen. 4.2 SAP - HANA Projekt Hana ist der Name, einer von SAP entwickelten Appliance, welche die In-Memory Technologie verwendet. Da es sich um eine geschlossene Appliance handelt, kann Hard- und Software optimal aufeinander abgestimmt werden. Die In-Memory Technologie, welche sich dadurch auszeichnet, dass die Software grösstenteils im Arbeitsspeicher läuft, bringt deutliche Performancevorteile. Diese gute Performance ermöglicht dem Benutzer Real-Time Analysen und Statistiken Funktionsweise Die Entwickler von Hana haben versucht sich der heutigen Computer Architektur anzupassen. Sie haben sich in erster Linie darauf konzentriert Flaschenhälse zu verhindern. In der

19 Kapitel 4: Tools & Technologien 19 Vergangenheit, lag der Flaschenhals bei der Festplatte, da diese nicht genug schnell schreiben konnte. Im Jahr 2012 wurde bereits Server mit mehr als 2 Terrabyte RAM und 80 Prozessorkernen verkauft. Diese Entwicklung macht eine Festplatte für Verarbeitung-Server (im Gegensatz du Datenservern) praktisch überflüssig. Bei der In-Memory Technologie werden die Rechenaufgaben direkt im Arbeitsspeicher abgearbeitet. Der Kern der Appliance ist ebendiese spaltenorientierte In-Memory Datenbank. Ausserdem vereint HANA die transaktionale (OLTP) und analytische (OLAP) Welt. Abb. 3: OLTP vs OLAP Quelle: Arias E. (2011) Dies bedeutet, dass aus einer zielorientierten relationalen Datenbank, in welcher die Daten aus den transaktionalen Systemen wie ERP und CRM zusammenfliessen, und einem Data Warehouse als separates Reporting System für analytische Aufgaben alles in einem System zusammengefasst wird. Das bringt enorme Performancevorteile, da die Daten nicht mehr Repliziert werden müssen und die Analysen direkt auf den transaktionalen Daten ablaufen. Diese Lesezugriffe funktionieren in einer spaltenorientierten Datenbank schneller, da nicht mehr alle Zeilen eingelesen werden müssen. Um dem Problem mit der Flüchtigkeit der Daten im Memory zu begegnen, werden alle Daten parallel auf Disk geschrieben. Im Moment ist Hana nur als Appliance, also als vorkonfiguriertes Paket aus Hardware und Software, erhältlich. Der Quellcode ist für die Intel-Plattform optimiert. In Zukunft sollen die Kunden ihre Hardware auch selber aussuchen können. Zusätzlich können die Appliances in einem Cluster miteinander verbunden werden, damit die Rechenaufgaben ähnlich wie beim MapReduce-Algorithmus auf verschiedene Rechner verteilt werden können. (SAP Hana, 2012)

20 Kapitel 4: Tools & Technologien TB Benchmark System Ein neues Benchmark System, von SAP HANA ist mit 4000 Prozessorkernen und 100 Terrabyte Hauptspeicher ausgestattet. Damit wird bei einer Anfrage an eine 500-Terrabyte Datenbank eine Antwortzeit von 600 Millisekunden realisiert. Dies ermöglicht grosse Datenmengen in Echtzeit auszuwerten und zu analysieren. (SAP Hana Performance, 2012) 4.3 in der Cloud in der Cloud, ermöglicht durch die Auswertung von Massendaten den Gewinn von branchenübergreifenden und unabhängigen Erkenntnissen. Das verlagern in die Cloud, ermöglicht die Speicherung und unabhängige Verfügbarkeit von Daten. Cloud Computing ist gleichzeitig Treiber und Lösungstechnologie für den Umgang mit. Als Folge der zunehmenden Fülle an Anforderungen, entscheiden sich immer mehr Unternehmen ihre Infrastrukturen vollständig oder teilweise an externe Dienstleister auszulagern. Die Schwierigkeit liegt häufig darin, die Daten verfügbar, sicher und verwendbar zu halten, dafür benötigt man umfassende Massnahmen und hochmoderne Technologien. Diesen Anforderungen sind die wenigsten Unternehmen gewachsen. Vor allem nicht rund um die Uhr. Aus diesem Grund ist die Verlagerung der Daten und Anwendungen in eine Cloud häufig das effizienteste Vorgehen. Dabei ist es sehr wichtig, dass die Sicherheit und Verfügbarkeit der Daten gewährleistet ist. Als Unternehmen benötigt man grosses Vertrauen in den Cloud- Anbieter. Der Provider muss auf der anderen Seite über zukunftssichere und performante Systeme verfügen, um die flexible Infrastruktur zu gewährleisten. Neben dem Thema des Datenmissbrauchs, ist auch immer der Kontrollverlust ein Thema. Besonders die Echtzeitanalyse der gespeicherten Daten bringt einen enormen Mehrwert für das Business. Diese Informationen kann ein Unternehmen gezielt abrufen und damit schneller auf Markt- und Kundenanforderungen reagieren. Ein weiterer Faktor, der beim Thema Sicherheit vernachlässigt wird, ist die Gefahr des Datenmissbrauchs und Kontrollverlustes. Aufgrund der unkontrollierbaren Vermehrung von Informationen gerade im Bereich Web 2.0 müssen Anbieter äußerst sensibel darauf achten, dass die Auswertung ausschließlich anonymisiert erfolgt und einer Überprüfung durch Datenschutzbeauftrage von Bund oder Ländern jederzeit standhält. Eine Zuordnung entsprechender Daten zu einer Person darf zu keiner Zeit möglich sein. Daher muss der Datenschutz bereits im Design der Lösung vorhanden sein.

21 Kapitel 5: Chancen & Gefahren 21 5 Chancen & Gefahren Aufgrund der enormen Datenexplosion in den letzten Jahren und Jahrzenten gibt es heute eine riesige Fülle an strukturierten als auch unstrukturierter Daten. In der Vergangenheit konnten hauptsächlich die strukturierten Daten automatisch mithilfe von Programmen und Modellen verarbeitet und analysiert werden. Im Unterschied zu den konventionellen Methoden können nun mit den Technologien auch unstrukturierte Daten automatisch und nahezu in Echtzeit verarbeitet und analysiert werden. Diese neue Big-Data-Technologien beinhalten Chancen sowie Herausforderungen die in diesem Kapitel näher beschrieben sind. 5.1 Chancen In Anbetracht der Verarbeitung und Analyse grösserer Mengen an Daten in einer kürzeren Zeit, eröffnen sich vielseitige Chancen, damit sich Unternehmen unter Einbezug bislang unzugänglicher Informationen besser den Marktanforderungen anpassen können. Es gilt die Wünsche der Kunden von den Daten - statt den Augen abzulesen. (BITKOM, 2012, S. 14) Tabelle 1 zeigt Chancen für Unternehmen die im Zusammenhang mit dem Einsatz von Big Data Technologien genannt werden. Besonders jene Chancen, die in Verbindung zu Big Data und im Vergleich zu konventionellen Technologien zur Datenanalyse verwendet werden einen Mehrwert erzeugen, sind aufgeführt. Aspekt Prozessoptimierung Compliance Erläuterung Die Voraussetzung für die Prozessoptimierung ist ein fortgeschrittenes Datenmanagement, das Informationen in Echtzeit bereitstellt, um völlig neue Geschäftsprozesse abzuleiten. (BITKOM, 2012, S. 14) Die erhöhte Komplexität und die wachsende Menge an Daten erhöhen die Anforderungen an die Compliance. Um diesen Anforderungen gerecht zu werden, ist es umso wichtiger ein transparentes Datenmanagement zusammen mit einer detaillierten und zeitnahen Analyse vorgeschriebener Informationen aufzubauen, welches das Einhalten von regulatorischen Anforderungen erleichtert.(bitkom, 2012, S. 14) Kundenkenntnis Mit der Analyse von Kundendaten können leichter Kundensegmente erstellt werden und das Verhalten von Kunden an-

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden

In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden In-Memory & Real-Time Hype vs. Realität: Maßgeschneiderte IBM Business Analytics Lösungen für SAP-Kunden Jens Kaminski ERP Strategy Executive IBM Deutschland Ungebremstes Datenwachstum > 4,6 Millarden

Mehr

SAS Analytics bringt SAP HANA in den Fachbereich

SAS Analytics bringt SAP HANA in den Fachbereich Pressemitteilung Hamburg, 08. November 2013 SAS Analytics bringt SAP HANA in den Fachbereich Ergonomie kombiniert mit Leistungsfähigkeit: die BI-Experten der accantec group geben der neuen Partnerschaft

Mehr

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data: Nutzen und Anwendungsszenarien. CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data: Nutzen und Anwendungsszenarien CeBIT 2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data steht für den unaufhaltsamen Trend, dass immer mehr Daten in Unternehmen anfallen und von

Mehr

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15

Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics 10.45 11.15 9.30 10.15 Kaffee & Registrierung 10.15 10.45 Begrüßung & aktuelle Entwicklungen bei QUNIS 10.45 11.15 11.15 11.45 Von Big Data zu Executive Decision BI für den Fachanwender bis hin zu Advanced Analytics

Mehr

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence

Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence Analytische Datenbanken und Appliances als Engine für erfolgreiche Business Intelligence IBM Netezza Roadshow 30. November 2011 Carsten Bange Gründer & Geschäftsführer BARC Die Krise hat die Anforderungen

Mehr

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht

Big-Data-Technologien - Überblick - Prof. Dr. Jens Albrecht Big-Data-Technologien - Überblick - Quelle: http://www.ingenieur.de/panorama/fussball-wm-in-brasilien/elektronischer-fussball-smartphone-app-helfen-training Big-Data-Anwendungen im Unternehmen Logistik

Mehr

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Big Data Herausforderungen und Chancen für Controller. ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Big Data Herausforderungen und Chancen für Controller ICV Jahrestagung, 19.05.2014 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Organisationen Beratung Strategie

Mehr

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria

Analyse von unstrukturierten Daten. Peter Jeitschko, Nikolaus Schemel Oracle Austria Analyse von unstrukturierten Daten Peter Jeitschko, Nikolaus Schemel Oracle Austria Evolution von Business Intelligence Manuelle Analyse Berichte Datenbanken (strukturiert) Manuelle Analyse Dashboards

Mehr

Prozess- und Datenmanagement Kein Prozess ohne Daten

Prozess- und Datenmanagement Kein Prozess ohne Daten Prozess- und Datenmanagement Kein Prozess ohne Daten Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Prozess- und Datenmanagement Erfolgreiche Unternehmen sind Prozessorientiert.

Mehr

Wird BIG DATA die Welt verändern?

Wird BIG DATA die Welt verändern? Wird BIG DATA die Welt verändern? Frankfurt, Juni 2013 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust Big Data Entmythisierung von Big Data. Was man über Big Data wissen sollte. Wie

Mehr

Big Data Mythen und Fakten

Big Data Mythen und Fakten Big Data Mythen und Fakten Mario Meir-Huber Research Analyst, IDC Copyright IDC. Reproduction is forbidden unless authorized. All rights reserved. About me Research Analyst @ IDC Author verschiedener IT-Fachbücher

Mehr

Foto: violetkaipa - Fotolia

Foto: violetkaipa - Fotolia Die D kön Foto: violetkaipa - Fotolia 10 IT-Trend Big Data atenflut steigt wie nen wir sie nutzen? Ständig erhöht sich die Masse der uns umgebenden Daten, Informationen werden immer schneller generiert.

Mehr

Möglichkeiten für bestehende Systeme

Möglichkeiten für bestehende Systeme Möglichkeiten für bestehende Systeme Marko Filler Bitterfeld, 27.08.2015 2015 GISA GmbH Leipziger Chaussee 191 a 06112 Halle (Saale) www.gisa.de Agenda Gegenüberstellung Data Warehouse Big Data Einsatz-

Mehr

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie

Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie Executive Summary BIG DATA Future Chancen und Herausforderungen für die deutsche Industrie BIG DATA Future Opportunities and Challanges in the German Industry Zusammenfassung Die Menge der verfügbaren

Mehr

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor

Das Zettabyte. CeBIT 2011. Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zettabyte CeBIT 2011 Dr. Wolfgang Martin Analyst, ibond Partner und Ventana Research Advisor Das Zetabyte: analytische Datenbanken Die Datenflut. Analytische Datenbanken: Was ist neu? Analytische Datenbanken:

Mehr

Datability. Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG. Hannover, 9. März 2014

Datability. Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG. Hannover, 9. März 2014 Datability Prof. Dieter Kempf, Präsident BITKOM Oliver Frese, Vorstand Deutsche Messe AG Hannover, 9. März 2014 Bürger fordern verantwortungsvollen Umgang mit Daten Inwieweit stimmen Sie den folgenden

Mehr

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired

Data. Guido Oswald Solution Architect @SAS Switzerland. make connections share ideas be inspired make connections share ideas be inspired Data Guido Oswald Solution Architect @SAS Switzerland BIG Data.. Wer? BIG Data.. Wer? Wikipedia sagt: Als Big Data werden besonders große Datenmengen bezeichnet,

Mehr

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement

In-Memory Analytics. Marcel Poltermann. Fachhochschule Erfurt. Informationsmanagement Marcel Poltermann Fachhochschule Erfurt Informationsmanagement Inhaltsverzeichnis Glossar...III Abbildungsverzeichnis...III 1 Erläuterung:... 2 2 Technische Grundlagen... 2 2.1 Zugriff physische Datenträger:...

Mehr

SAP HANA eine Plattform für innovative Anwendungen

SAP HANA eine Plattform für innovative Anwendungen SAP HANA eine Plattform für innovative Anwendungen Top Intelligence: Big Data & SAP HANA Zürich, Frankfurt, Hamburg, München, Mülheim/R Februar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder

Mehr

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit

Executive Briefing. Big Data und Business Analytics für Kunden und Unternehmen. In Zusammenarbeit mit. Executive Briefing. In Zusammenarbeit mit Big Data und Business Analytics für Kunden und Unternehmen Umfangreiche und ständig anwachsende Datenvolumen verändern die Art und Weise, wie in zahlreichen Branchen Geschäfte abgewickelt werden. Da immer

Mehr

BIG DATA Impulse für ein neues Denken!

BIG DATA Impulse für ein neues Denken! BIG DATA Impulse für ein neues Denken! Wien, Januar 2014 Dr. Wolfgang Martin Analyst und Mitglied im Boulder BI Brain Trust The Age of Analytics In the Age of Analytics, as products and services become

Mehr

Die Cloud, die für Ihr Unternehmen geschaffen wurde.

Die Cloud, die für Ihr Unternehmen geschaffen wurde. Die Cloud, die für Ihr Unternehmen geschaffen wurde. Das ist die Microsoft Cloud. Jedes Unternehmen ist einzigartig. Ganz gleich, ob im Gesundheitssektor oder im Einzelhandel, in der Fertigung oder im

Mehr

Big Data Vom Hype zum Geschäftsnutzen

Big Data Vom Hype zum Geschäftsnutzen Big Data Vom Hype zum Geschäftsnutzen IBM IM Forum, Berlin, 16.04.2013 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Hype 15.04.2013 BARC 2013 2 1 Interesse an Big Data Nature 09-2008 Economist 03-2010

Mehr

Big Data Hype und Wirklichkeit Bringtmehrauchmehr?

Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Big Data Hype und Wirklichkeit Bringtmehrauchmehr? Günther Stürner, Vice President Sales Consulting 1 Copyright 2011, Oracle and/or its affiliates. All rights Überschrift 2 Copyright 2011, Oracle and/or

Mehr

BIG DATA - BIG OPPORTUNITIES

BIG DATA - BIG OPPORTUNITIES BIG DATA - BIG OPPORTUNITIES eday: 2014 Wien, 6. März 2014 EBA Executive Business Advice GmbH 1120 Wien, Am Euro Platz 2, Gebäude G Tel.: +43 1 71728 172 Email: office@eba-business.at www.eba-business.at

Mehr

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd.

Explosionsartige Zunahme an Informationen. 200 Mrd. Mehr als 200 Mrd. E-Mails werden jeden Tag versendet. 30 Mrd. Warum viele Daten für ein smartes Unternehmen wichtig sind Gerald AUFMUTH IBM Client Technical Specialst Data Warehouse Professional Explosionsartige Zunahme an Informationen Volumen. 15 Petabyte Menge

Mehr

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG

DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG DATEN - Das Gold des 21. Jahrhunderts? Dr. Oliver Riedel, AUDI AG Inhalt Globale und unternehmensspezifische Herausforderungen Von Big Data zu Smart Data Herausforderungen und Mehrwert von Smart Data 2

Mehr

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle

DATA WAREHOUSE. Big Data Alfred Schlaucher, Oracle DATA WAREHOUSE Big Data Alfred Schlaucher, Oracle Scale up Unternehmensdaten zusammenfassen Noch mehr Informationen aus Unternehmens- Daten ziehen! Datenmengen, Performance und Kosten Daten als Geschäftsmodell

Mehr

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com

Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick. Volker.Hinz@microsoft.com Die Microsoft-Komplettlösung für Datawarehousing, Big Data und Business Intelligence im Überblick Volker.Hinz@microsoft.com Was sagt der Markt? Fakten Meinung der Analysten zu Microsofts Angeboten Nutzen

Mehr

Infografik Business Intelligence

Infografik Business Intelligence Infografik Business Intelligence Top 5 Ziele 1 Top 5 Probleme 3 Im Geschäft bleiben 77% Komplexität 28,6% Vertrauen in Zahlen sicherstellen 76% Anforderungsdefinitionen 24,9% Wirtschaflicher Ressourceneinsatz

Mehr

Storage-Trends am LRZ. Dr. Christoph Biardzki

Storage-Trends am LRZ. Dr. Christoph Biardzki Storage-Trends am LRZ Dr. Christoph Biardzki 1 Über das Leibniz-Rechenzentrum (LRZ) Seit 50 Jahren Rechenzentrum der Bayerischen Akademie der Wissenschaften IT-Dienstleister für Münchner Universitäten

Mehr

EMC. Data Lake Foundation

EMC. Data Lake Foundation EMC Data Lake Foundation 180 Wachstum unstrukturierter Daten 75% 78% 80% 71 EB 106 EB 133 EB Weltweit gelieferte Gesamtkapazität Unstrukturierte Daten Quelle März 2014, IDC Structured vs. Unstructured

Mehr

Big Data Analytics: Herausforderungen und Systemansätze. Prof. Dr. Erhard Rahm. http://dbs.uni-leipzig.de

Big Data Analytics: Herausforderungen und Systemansätze. Prof. Dr. Erhard Rahm. http://dbs.uni-leipzig.de Big Data Analytics: Herausforderungen und Systemansätze Prof. Dr. Erhard Rahm http://dbs.uni-leipzig.de 2 Massives Wachstum an Daten Gartner: pro Tag werden 2.5 Exabytes an Daten generiert 90% aller Daten

Mehr

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen

Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen Big, Bigger, CRM: Warum Sie auch im Kundenmanagement eine Big-Data-Strategie brauchen 01000111101001110111001100110110011001 Volumen 10 x Steigerung des Datenvolumens alle fünf Jahre Big Data Entstehung

Mehr

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES]

Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management NOW YOU KNOW [ONTOS TM WHITE PAPER SERIES] NOW YOU KNOW [ SERIES] Business Intelligence Mehr Wissen und Transparenz für smartes Unternehmens- Management [YVES BRENNWALD, ONTOS INTERNATIONAL AG] 001 Potential ontologiebasierter Wissens- Lösungen

Mehr

Big Data Herausforderungen für Rechenzentren

Big Data Herausforderungen für Rechenzentren FINANCIAL INSTITUTIONS ENERGY INFRASTRUCTURE, MINING AND COMMODITIES TRANSPORT TECHNOLOGY AND INNOVATION PHARMACEUTICALS AND LIFE SCIENCES Big Data Herausforderungen für Rechenzentren RA Dr. Flemming Moos

Mehr

Thementisch Anwendungsgebiete und

Thementisch Anwendungsgebiete und Thementisch Anwendungsgebiete und b Erfolgsgeschichten KMUs und Big Data Wien 08. Juni 2015 Hermann b Stern, Know-Center www.know-center.at Know-Center GmbH Know-Center Research Center for Data-driven

Mehr

PRESSE-INFORMATION NEU: LÜNENDONK -TRENDPAPIER 2012 BIG DATA IM HANDEL CHANCEN UND HERAUSFORDERUNGEN

PRESSE-INFORMATION NEU: LÜNENDONK -TRENDPAPIER 2012 BIG DATA IM HANDEL CHANCEN UND HERAUSFORDERUNGEN PRESSE-INFORMATION BI-19-09-12 NEU: LÜNENDONK -TRENDPAPIER 2012 BIG DATA IM HANDEL CHANCEN UND HERAUSFORDERUNGEN Big Data für den Handel wettbewerbsentscheidend Neue Anforderungen und Handlungsbedarf Technologie-Innovationen

Mehr

MIT DATEN. TDWI Konferenz SCHAFFEN REPORT 2015. Peter Heidkamp (KPMG) Franz Grimm (Bitkom Research) München, 22. Juni 2015

MIT DATEN. TDWI Konferenz SCHAFFEN REPORT 2015. Peter Heidkamp (KPMG) Franz Grimm (Bitkom Research) München, 22. Juni 2015 TDWI Konferenz Peter Heidkamp (KPMG) Franz Grimm (Bitkom Research) MIT DATEN WERTE SCHAFFEN REPORT 2015 München, 22. Juni 2015 WIE MACHE ICHAUS EINSEN UND NULLEN DAS EINS ZU NULL FÜR MICH? 01 EINSTELLUNG

Mehr

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin

Software EMEA Performance Tour 2013. 17.-19 Juni, Berlin Software EMEA Performance Tour 2013 17.-19 Juni, Berlin Accenture s High Performance Analytics Demo-Umgebung Dr, Holger Muster (Accenture), 18. Juni 2013 Copyright 2012 Hewlett-Packard Development Company,

Mehr

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten

Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten Prognosen via Datenanalyse Predictive Analytics: Darauf müssen Unternehmen achten von Jürgen Mauerer Foto: Avantum Consult AG Seite 1 von 21 Inhalt Mehrwert aufzeigen nach Analyse des Geschäftsmodells...

Mehr

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013

TOP. wird ein wichtiges Jahr für BIG (Business Intelligence Growth) DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 0 Es TOP 10 DER BUSINESS INTELLIGENCE TRENDS FÜR DAS JAHR 2013 wird ein wichtiges Jahr für BIG (Business Intelligence Growth) 2012 war ein fantastisches Jahr für Business Intelligence! Die biedere alte

Mehr

BIG DATA: EXPECT THE UNEXPECTED. T-SYSTEMS AUSTRIA 2014 Dipl.-Ing. Axel Quitt @ Bundestagung der Jungen Wirtschaft

BIG DATA: EXPECT THE UNEXPECTED. T-SYSTEMS AUSTRIA 2014 Dipl.-Ing. Axel Quitt @ Bundestagung der Jungen Wirtschaft BIG DATA: EXPECT THE UNEXPECTED T-SYSTEMS AUSTRIA 2014 Dipl.-Ing. Axel Quitt @ Bundestagung der Jungen Wirtschaft Big Data Ein Wort wie eine Grippeepidemie Quelle: Google Trends Unternehmen werden mit

Mehr

APPS ALS MARKETINGINSTRUMENT NUTZEN

APPS ALS MARKETINGINSTRUMENT NUTZEN APPS ALS MARKETINGINSTRUMENT NUTZEN Die Tendenz, mobile Endgeräte als Marketing- Plattform zu nutzen ist steigend. Laut einer Umfrage des Bundesverbandes Digitale Wirtschaft e.v. (BVDW) erwarten Beschäftigte

Mehr

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller

Was ist Analyse? Hannover, CeBIT 2014 Patrick Keller Was ist? Hannover, CeBIT 2014 Patrick Keller Business Application Research Center Historie 1994: Beginn der Untersuchung von Business-Intelligence-Software am Lehrstuhl Wirtschaftsinformatik der Universität

Mehr

Big Data Informationen neu gelebt

Big Data Informationen neu gelebt Seminarunterlage Version: 1.01 Copyright Version 1.01 vom 21. Mai 2015 Dieses Dokument wird durch die veröffentlicht. Copyright. Alle Rechte vorbehalten. Alle Produkt- und Dienstleistungs-Bezeichnungen

Mehr

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise

Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Unternehmen und IT im Wandel: Mit datengetriebenen Innovationen zum Digital Enterprise Software AG Innovation Day 2014 Bonn, 2.7.2014 Dr. Carsten Bange, Geschäftsführer Business Application Research Center

Mehr

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN

whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN whitepaper CLOUD-ENTWICKLUNG: BESTE METHODEN UND SUPPORT-ANWENDUNGEN CLOUD-ENTWICKLUNG: BESTE METHODEN 1 Cloud-basierte Lösungen sind auf dem IT-Markt immer weiter verbreitet und werden von immer mehr

Mehr

Kann man Big Data managen?

Kann man Big Data managen? Kann man Big Data managen? Information Governance in Retail-Unternhmen Uwe Nadler Senior Managing Consultant Big Data Architect Sales Leader Information Governance D-A-CH Themen Die Bedeutung von Information

Mehr

Master-Thesis (m/w) für unseren Standort Stuttgart

Master-Thesis (m/w) für unseren Standort Stuttgart Master-Thesis (m/w) für unseren Standort Abschlussarbeit im Bereich Business Process Management (BPM) Effizienzsteigerung von Enterprise Architecture Management durch Einsatz von Kennzahlen Braincourt

Mehr

vinsight BIG DATA Solution

vinsight BIG DATA Solution vinsight BIG DATA Solution München, November 2014 BIG DATA LÖSUNG VINSIGHT Datensilos erschweren eine einheitliche Sicht auf die Daten...... und machen diese teilweise unmöglich einzelne individuelle Konnektoren,

Mehr

GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013

GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013 OSC Smart Integration GmbH SAP Business One GOLD-Partner in Norddeutschland GESCHÄFTSSTELLENERÖFFNUNG HAMBURG, 25. APRIL 2013 SAP Business One v.9.0 Heiko Szendeleit AGENDA OSC-SI 2013 / SAP Business One

Mehr

DWH Szenarien. www.syntegris.de

DWH Szenarien. www.syntegris.de DWH Szenarien www.syntegris.de Übersicht Syntegris Unser Synhaus. Alles unter einem Dach! Übersicht Data-Warehouse und BI Projekte und Kompetenzen für skalierbare BI-Systeme. Vom Reporting auf operativen

Mehr

Digital Customer Experience Notwendiges Übel oder überlebenswichtige Notwendigkeit? Datalympics, 2. Juli 2014

Digital Customer Experience Notwendiges Übel oder überlebenswichtige Notwendigkeit? Datalympics, 2. Juli 2014 Digital Customer Experience Notwendiges Übel oder überlebenswichtige Notwendigkeit? Datalympics, 2. Juli 2014 Digitale Realität Die Welt verändert sich in rasantem Tempo Rom, Petersplatz, März 2013 Franziskus

Mehr

Social Media trifft Business

Social Media trifft Business Social Media trifft Business Intelligence Social Media Analysis als Teil der Unternehmenssteuerung Tiemo Winterkamp, VP Global Marketing Agenda Social Media trifft Business Intelligence Business Intelligence

Mehr

June 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration

June 2015. Automic Hadoop Agent. Data Automation - Hadoop Integration June 2015 Automic Hadoop Agent Data Automation - Hadoop Integration + Aufbau der Hadoop Anbindung + Was ist eigentlich ist MapReduce? + Welches sind die Stärken von Hadoop + Welches sind die Schwächen

Mehr

Pressemitteilung. Studie: Managing Business Intelligence Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren

Pressemitteilung. Studie: Managing Business Intelligence Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren Pressemitteilung Studie: Managing Business Intelligence Wie Sie aus Ihren Daten einen Wettbewerbsvorteil realisieren 21. Januar 2008, sieber&partners, Norman Briner 1 Vorwort Die bessere Nutzung und Auswertung

Mehr

Oracle Datenbank: Chancen und Nutzen für den Mittelstand

Oracle Datenbank: Chancen und Nutzen für den Mittelstand Oracle Datenbank: Chancen und Nutzen für den Mittelstand DIE BELIEBTESTE DATENBANK DER WELT DESIGNT FÜR DIE CLOUD Das Datenmanagement war für schnell wachsende Unternehmen schon immer eine große Herausforderung.

Mehr

Living Lab Big Data Konzeption einer Experimentierplattform

Living Lab Big Data Konzeption einer Experimentierplattform Living Lab Big Data Konzeption einer Experimentierplattform Dr. Michael May Berlin, 10.12.2012 Fraunhofer-Institut für Intelligente Analyseund Informationssysteme IAIS www.iais.fraunhofer.de Agenda n Ziele

Mehr

Effiziente Anwendungen von In-Memory Datenbanken

Effiziente Anwendungen von In-Memory Datenbanken Effiziente Anwendungen von In-Memory Datenbanken Bachelorarbeit zur Erlangung des akademischen Grades Bachelor of Science (B.Sc.) im Studiengang Wirtschaftswissenschaften der Wirtschaftswissenschaftlichen

Mehr

Big Data in der Forschung

Big Data in der Forschung Big Data in der Forschung Dominik Friedrich RWTH Aachen Rechen- und Kommunikationszentrum (RZ) Gartner Hype Cycle July 2011 Folie 2 Was ist Big Data? Was wird unter Big Data verstanden Datensätze, die

Mehr

Interview Conny Dethloff 20.07.2009 [Auszug einer Audio Aufzeichnung] Kurze Darstellung der Person

Interview Conny Dethloff 20.07.2009 [Auszug einer Audio Aufzeichnung] Kurze Darstellung der Person Interview Conny Dethloff 20.07.2009 [Auszug einer Audio Aufzeichnung] Kurze Darstellung der Person Mein Name ist Conny Dethloff. Ich bin seit 10 Jahren in der Beratung tätig, dabei hauptsächlich in BI-Projekten

Mehr

Business Intelligence

Business Intelligence Business Intelligence Anwendung 1 MInf1 HAW Hamburg Betreuender Professor: Prof. Dr. Zukunft by Jason Hung Vuong [12] Gliederung 1. Hamburg Energie Kooperation 2. Motivation 3. Business Intelligence 4.

Mehr

BIG DATA Herausforderungen für den Handel

BIG DATA Herausforderungen für den Handel BIG DATA Herausforderungen für den Handel RA Adrian Süess, LL.M., Zürich Bühlmann Rechtsanwälte AG www.br-legal.ch 1 2 1 Überblick Worum geht s. Big Data. Was ist Big Data. Beschaffung und Bearbeitung

Mehr

WEBINAR@LUNCHTIME THEMA: SAS TOOLS FÜR DIE DATENVERARBEITUNG IN HADOOP ODER WIE REITET MAN ELEFANTEN?" HANS-JOACHIM EDERT

WEBINAR@LUNCHTIME THEMA: SAS TOOLS FÜR DIE DATENVERARBEITUNG IN HADOOP ODER WIE REITET MAN ELEFANTEN? HANS-JOACHIM EDERT WEBINAR@LUNCHTIME THEMA: SAS TOOLS FÜR DIE DATENVERARBEITUNG IN HADOOP ODER WIE REITET MAN ELEFANTEN?" Copyr i g ht 2012, SAS Ins titut e Inc. All rights res er ve d. HANS-JOACHIM EDERT EBINAR@LUNCHTIME

Mehr

Auf direktem Weg zum Echtzeitunternehmen mit SAP Business Suite powered by SAP HANA

Auf direktem Weg zum Echtzeitunternehmen mit SAP Business Suite powered by SAP HANA im Überblick SAP Business Suite powered by SAP HANA Herausforderungen Auf direktem Weg zum Echtzeitunternehmen mit SAP Business Suite powered by SAP HANA Mehr erreichen durch Echtzeitdaten Mehr erreichen

Mehr

Die richtige Cloud für Ihr Unternehmen.

Die richtige Cloud für Ihr Unternehmen. Die richtige Cloud für Ihr Unternehmen. Das ist die Microsoft Cloud. Jedes einzelne Unternehmen ist einzigartig. Ob Gesundheitswesen oder Einzelhandel, Produktion oder Finanzwesen keine zwei Unternehmen

Mehr

Trends in Business Intelligence

Trends in Business Intelligence Trends in Business Intelligence Dr. Carsten Bange Business Intelligence (BI) beschreibt die Erfassung, Sammlung und Darstellung von Information zur Planung, Steuerung und Kontrolle der Unternehmensleistung.

Mehr

Big Data Alter Wein in neuen Schläuchen? 27.11.2013 Josef Schmid M.A. Dynelytics AG

Big Data Alter Wein in neuen Schläuchen? 27.11.2013 Josef Schmid M.A. Dynelytics AG Big Data Alter Wein in neuen Schläuchen? 27.11.2013 Josef Schmid M.A. Dynelytics AG 2 Big Data Gartner prognostiziert, dass Unternehmen im laufenden Jahr für IT-Lösungen im Big-Data- Bereich 34 Milliarden

Mehr

R im Enterprise-Modus

R im Enterprise-Modus R im Enterprise-Modus Skalierbarkeit, Support und unternehmensweiter Einsatz Dr. Eike Nicklas HMS Konferenz 2014 Was ist R? R is a free software environment for statistical computing and graphics - www.r-project.org

Mehr

Digitalisierung wie aus einer Strategie Realität wird.

Digitalisierung wie aus einer Strategie Realität wird. Digitalisierung wie aus einer Strategie Realität wird. Information Builders International Summit Frankfurt, 10.06.2015 Dr. Carsten Bange, Business Application Research Center (BARC) Knüpfen wir dort an,

Mehr

Von Big Data zu Smart Data

Von Big Data zu Smart Data Von Big Data zu Smart Data mit Technologieförderung des BMWi Big Data Summit BITKOM-Konferenz; Bonn, 24.06.2013 Dr. Andreas Goerdeler Unterabteilungsleiter Informationsgesellschaft; Medien Bundesministerium

Mehr

Einführung in Hadoop

Einführung in Hadoop Einführung in Hadoop Inhalt / Lern-Ziele Übersicht: Basis-Architektur von Hadoop Einführung in HDFS Einführung in MapReduce Ausblick: Hadoop Ökosystem Optimierungen Versionen 10.02.2012 Prof. Dr. Christian

Mehr

Bachelor/Master-Thesis (für den Standort Stuttgart) Treiberbasierte Planung

Bachelor/Master-Thesis (für den Standort Stuttgart) Treiberbasierte Planung Bachelor/Master-Thesis (für den Standort Stuttgart) Treiberbasierte Planung Hochschulstudium (Wirtschaftsinformatik oder ein vergleichbarer Studiengang) Fachliche und technische Kenntnisse im Bereich Business

Mehr

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch

Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Big Data: Definition, Einführung und Live Democase [C1] Arne Weitzel Uetliberg, 16.09.2014 www.boak.ch Unstrukturierte Daten spielen eine immer bedeutender Rolle in Big Data-Projekten. Zunächst gilt es

Mehr

Mit Big Data zum Touchpoint- übergreifenden Echtzeit- Kundendialog

Mit Big Data zum Touchpoint- übergreifenden Echtzeit- Kundendialog Mit Big Data zum Touchpoint- übergreifenden Echtzeit- Kundendialog Big Data im Marke

Mehr

MapReduce in der Praxis

MapReduce in der Praxis MapReduce in der Praxis Rolf Daniel Seminar Multicore Programmierung 09.12.2010 1 / 53 Agenda Einleitung 1 Einleitung 2 3 Disco Hadoop BOOM 4 2 / 53 1 Einleitung 2 3 Disco Hadoop BOOM 4 3 / 53 Motivation

Mehr

Big Data, small Data und alles dazwischen!

Big Data, small Data und alles dazwischen! Technologische Entwicklung Governance & Compliance Entwicklung 15.05.2015 Big Data, small Data und alles dazwischen! Wien, 20.5.2015 Herbert Stauffer Geschichtliche Entwicklung der Weg zu Big Data 1970

Mehr

Non-Profit-Organisationen: Vom Controlling zum Strategischen Management

Non-Profit-Organisationen: Vom Controlling zum Strategischen Management Non-Profit-Organisationen: Vom Controlling zum Strategischen Management Einordnung der Begriffe Business Intelligence Strategic Association Management Controlling and Data Warehousing Data Mining, Knowledge

Mehr

Creating your future. IT. αacentrix

Creating your future. IT. αacentrix Creating your future. IT. αacentrix We bring IT into Business Context Creating your future. IT. Wir sind eine Strategie- und Technologieberatung mit starkem Fokus auf die IT-Megatrends Cloud, Mobility,

Mehr

SAPs PLM Interface für CATIA V5

SAPs PLM Interface für CATIA V5 V6 SAPs PLM Interface für CATIA V5 Durchgängige, sichere und trotzdem schlanke Geschäftsprozesse erhöhen die Wettbewerbsfähigkeit in einem immer härteren globalen Wettstreit um die Gunst der potenziellen

Mehr

Direktmarketing im Zentrum digitaler Vertriebsstrategien

Direktmarketing im Zentrum digitaler Vertriebsstrategien Direktmarketing im Zentrum digitaler Vertriebsstrategien Standortbestimmung und Key Learnings für Verlage Hamburg, September 2014 Im Zentrum digitaler Vertriebsstrategien steht zunehmend die Analyse komplexer

Mehr

BIG DATA HYPE ODER CHANCE

BIG DATA HYPE ODER CHANCE BIG DATA HYPE ODER CHANCE 1 Fuchs Dominik 16.05.2014 Fahrplan 2 Begriff Big Data Die 3 V s Fallbeispiel Google Was? Wie? Womit? Fazit & Ausblick in die Zukunft Der Begriff Big Data 3 Datenmengen, die zu

Mehr

spezial Productivity Monitor Alle Artikel zu unseren Fokusthemen finden Sie unter comlineag.de/infocenter

spezial Productivity Monitor Alle Artikel zu unseren Fokusthemen finden Sie unter comlineag.de/infocenter infoline spezial Productivity Monitor Alle Artikel zu unseren Fokusthemen finden Sie unter comlineag.de/infocenter Productivity Monitor COMLINE Productivity Monitor ist eine generische Lösung für die Aufnahme,

Mehr

LOG AND SECURITY INTELLIGENCE PLATFORM

LOG AND SECURITY INTELLIGENCE PLATFORM TIBCO LOGLOGIC LOG AND SECURITY INTELLIGENCE PLATFORM Security Information Management Logmanagement Data-Analytics Matthias Maier Solution Architect Central Europe, Eastern Europe, BeNeLux MMaier@Tibco.com

Mehr

The Day in the Life of a Business Manager @ Microsoft

The Day in the Life of a Business Manager @ Microsoft The Day in the Life of a Business Manager @ Microsoft A look at analytics in action inside Microsoft Frank.Stolley@Microsoft.com Daniel.Weinmann@microsoft.com Microsoft Deutschland GmbH Big Data: Die Management-Revolution?

Mehr

Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle. CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC

Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle. CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC Digitale Transformation: BI und Big Data treiben neue Geschäftsmodelle CeBIT, 18.3.2015 Dr. Carsten Bange, Gründer und Geschäftsführer BARC BARC: Expertise für datengetriebene Unternehmen Beratung Strategie

Mehr

IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen

IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen IBM Netezza Data Warehouse Appliances - schnelle Analysen mit hohen Datenmengen Nahezu 70% aller Data Warehouse Anwendungen leiden unter Leistungseinschränkungen der unterschiedlichsten Art. - Gartner

Mehr

vfabric-daten Big Data Schnell und flexibel

vfabric-daten Big Data Schnell und flexibel vfabric-daten Big Data Schnell und flexibel September 2012 2012 VMware Inc. All rights reserved Im Mittelpunkt: Daten Jeden Morgen wache ich auf und frage mich: Wie kann ich den Datenfluss optimieren,

Mehr

SPoT Agenda. Begrüßung und Vorstellung CAS AG. Markttrends aus Analystensicht. Big Data Trusted Information

SPoT Agenda. Begrüßung und Vorstellung CAS AG. Markttrends aus Analystensicht. Big Data Trusted Information SPoT Agenda Begrüßung und Vorstellung CAS AG Markttrends aus Analystensicht Big Data Trusted Information Lars Iffert, BARC GmbH Dr. Oliver Adamczak, IBM Deutschland GmbH Factory Ansatz für ETL-Prozesse

Mehr

BIG DATA. Herausforderungen für den Handel. RA Adrian Süess, LL.M., Zürich Bühlmann Rechtsanwälte AG www.br-legal.ch

BIG DATA. Herausforderungen für den Handel. RA Adrian Süess, LL.M., Zürich Bühlmann Rechtsanwälte AG www.br-legal.ch BIG DATA Herausforderungen für den Handel RA Adrian Süess, LL.M., Zürich Bühlmann Rechtsanwälte AG www.br-legal.ch 1 2 Überblick Worum geht s. Was ist Big Data. Beschaffung und Bearbeitung von Datensätzen.

Mehr

Seminar WS 2012/13. S. Chaudhuri et al, CACM, Aug. 2011. Parallel DBS vs. Open Platforms for Big Data, e.g. HaDoop Near-Realtime OLAP

Seminar WS 2012/13. S. Chaudhuri et al, CACM, Aug. 2011. Parallel DBS vs. Open Platforms for Big Data, e.g. HaDoop Near-Realtime OLAP Seminar WS 2012/13 S. Chaudhuri et al, CACM, Aug. 2011 Parallel DBS vs. Open Platforms for Big Data, e.g. HaDoop Near-Realtime OLAP 2 Vorkonfigurierte, komplette Data Warehouse-Installation Mehrere Server,

Mehr

Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen

Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen Big Data Plattformen für polystrukturierte Daten neue Chancen und Herausforderungen Oracle DWH-Konferenz 21. März 2012 Dr. Carsten Bange Gründer & Geschäftsführer BARC Big Data bietet Methoden und Technologien

Mehr

Lehrgebiet Informationssysteme

Lehrgebiet Informationssysteme Lehrgebiet AG Datenbanken und (Prof. Michel, Prof. Härder) AG Heterogene (Prof. Deßloch) http://wwwlgis.informatik.uni-kl.de/ Was sind? Computergestützte Programmsysteme, die Informationen erfassen, dauerhaft

Mehr

Roche Diagnostics Service Oft sind es die kleinen Dinge, die Großes bewegen

Roche Diagnostics Service Oft sind es die kleinen Dinge, die Großes bewegen Roche Diagnostics Service Oft sind es die kleinen Dinge, die Großes bewegen 2 Was wir glauben Roche ist ein weltweit führendes Unternehmen im Bereich der Diagnostik. Wir konzentrieren uns darauf, medizinisch

Mehr

Make your day a sales day

Make your day a sales day Make your day a sales day Axivas Group Axivas IT Solutions I C T M a n a g e m e n t S a l e s P o r t a l S o f t w a r e Ihr Technologiepartner für Marketing- und Vertrieb. S y s t e m I n t e g r a

Mehr

Big & Smart Data. bernard.bekavac@htwchur.ch

Big & Smart Data. bernard.bekavac@htwchur.ch Big & Smart Data Prof. Dr. Bernard Bekavac Schweizerisches Institut für Informationswissenschaft SII Studienleiter Bachelor of Science in Information Science bernard.bekavac@htwchur.ch Quiz An welchem

Mehr

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2

Seminar Cloud Data Management WS09/10. Tabelle1 Tabelle2 Seminar Cloud Data Management WS09/10 Tabelle1 Tabelle2 1 Einführung DBMS in der Cloud Vergleich verschiedener DBMS Beispiele Microsoft Azure Amazon RDS Amazon EC2 Relational Databases AMIs Was gibt es

Mehr

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar!

Clouds. Erwartungen der Nutzer. Wolkig bis Heiter. (c) 2013, Peter Sturm, Universität Trier. Er ist verwöhnt! Er ist nicht dankbar! Clouds Wolkig bis Heiter Erwartungen der Nutzer Er ist verwöhnt! Verfügbarkeit Viele Anwendungen Intuitive Interfaces Hohe Leistung Er ist nicht dankbar! Mehr! Mehr! Mehr! Moore 1 Erwartungen der Entwickler

Mehr

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen

Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen DATA WAREHOUSE Oracle Data Warehouse Mit Big Data neue Horizonte für das Data Warehouse ermöglichen Alfred Schlaucher, Detlef Schroeder DATA WAREHOUSE Themen Big Data Buzz Word oder eine neue Dimension

Mehr